CISO助手
完成度
0%(0/150)
评估报告
AIMA

人工智能成熟度评估模型 1.0

控制项模式

人工智能成熟度评估模型,帮助组织评估和提升其人工智能系统的安全性和成熟度。

版本: 1.0覆盖状态: 完整覆盖 (150/150)控制项/量表/总计: 150/0/150当前展示: 18 / 1508 个分类
V-AA-A-1是否会偶尔对人工智能系统进行非正式的基础架构审查?控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:使用自动扫描持续验证架构。 自适应模型:架构根据运营数据动态演进。 战略审查:架构评估为战略投资决策提供依据。 标准: 非结构化评估:架构评估零散进行。| 无正式标准:审查依赖个人专业知识。| 文档有限:结果记录不一致。

评估
评估状态:
评估备注:
V-AA-A.69640 1 2 3控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:使用自动扫描持续验证架构。自适应模型:架构根据运行数据动态演进。战略评审:架构评估为战略投资决策提供依据。

评估
评估状态:
评估备注:
V-AA-A-2建筑改进是否以非正式方式衡量并偶尔进行处理?控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:通过自动扫描持续验证架构。 自适应模型:架构根据运营数据动态演变。 战略评审:架构评估为战略投资决策提供依据。 标准: 标准化评审:架构评审遵循文档化检查清单。 明确角色:所有主要的人工智能项目都分配有安全架构师。| 风险评分:对建筑风险进行分类和评分。

评估
评估状态:
评估备注:
V-AA-A.69650 1 2 3控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:使用自动扫描持续验证架构。自适应模型:架构根据运行数据动态演进。战略评审:架构评估为战略投资决策提供依据。

评估
评估状态:
评估备注:
V-AA-A-3是否有一个系统化且有文档记录的方法来定期进行架构评审?控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:通过自动扫描持续验证架构。自适应模型:基于运营数据动态演进架构。战略评估:架构评估为战略投资决策提供依据。标准:自动化工具:通过自动扫描持续验证架构。| 自适应模型:基于运营数据动态演进架构。| 战略评审:架构评估为战略投资决策提供参考。

评估
评估状态:
评估备注:
V-AA-A.69660 1 2 3控制项
Verification / 架构评估

非结构化评估:架构评估零散进行。无正式标准:评审依赖个人专业知识。文档有限:结果记录不一致。标准化评审:架构评审遵循书面清单。明确角色:安全架构师被分配到所有主要的 AI 项目中。风险评分:架构风险被分类和评分。自动化工具:使用自动扫描持续验证架构。自适应模型:架构根据运行数据动态演进。战略评审:架构评估为战略投资决策提供依据。

评估
评估状态:
评估备注:
V-RT-A-1基本的基于需求的测试是否会偶尔以非正式方式进行?控制项
Verification / 基于需求的测试

非正式测试:测试在没有可追溯到文档化需求的情况下进行。 无结构的流程:缺乏针对AI相关风险的正式验证步骤。 部分覆盖:关键的AI功能可能未被测试。 需求映射:将每个AI风险映射到测试用例。 标准化程序:建立可重复的验证工作流程。 集中存储库:在共享系统中存储需求和测试。完全可追踪性:每个需求自动关联到验证证据。动态更新:测试会自动适应需求或模型的变化。持续合规:验证与政策执行集成。标准:非正式测试:测试在没有可追踪到文档化需求的情况下进行。无结构化流程:缺乏针对AI相关风险的正式验证步骤。| 部分覆盖:关键的人工智能功能可能未被测试。

评估
评估状态:
评估备注:
V-RT-A.69580 1 2 3控制项
Verification / 基于需求的测试

非正式测试:测试在没有可追溯到文档化需求的情况下进行。 无结构的流程:缺乏针对AI相关风险的正式验证步骤。 部分覆盖:关键的AI功能可能未被测试。 需求映射:将每个AI风险映射到测试用例。 标准化程序:建立可重复的验证工作流程。 集中存储库:在共享系统中存储需求和测试。完整可追溯性:每个需求都自动与验证证据关联。动态更新:测试会自动适应需求或模型的更改。持续合规:验证与政策执行集成。

评估
评估状态:
评估备注:
V-RT-A-2需求验证是否以非正式方式进行,并偶尔进行改进?控制项
Verification / 基于需求的测试

非正式测试:测试在没有追溯到已记录需求的情况下进行。 无结构的流程:缺乏针对 AI 相关风险的正式验证步骤。 部分覆盖:关键的 AI 功能可能未被测试。 需求映射:将每个 AI 风险映射到测试用例。 标准化流程:建立可重复的验证工作流程。 中央存储库:将需求和测试存储在共享系统中。完整可追溯性:每个需求自动链接到验证证据。动态更新:测试会自动适应需求或模型的变化。持续合规性:验证与政策执行集成。标准:需求映射:每个 AI 风险都映射到测试用例。| 标准化流程:建立可重复的验证工作流程。| 中央存储库:需求和测试存储在共享系统中。

评估
评估状态:
评估备注:
V-RT-A.69590 1 2 3控制项
Verification / 基于需求的测试

非正式测试:测试在没有可追溯到文档化需求的情况下进行。 无结构的流程:缺乏针对AI相关风险的正式验证步骤。 部分覆盖:关键的AI功能可能未被测试。 需求映射:将每个AI风险映射到测试用例。 标准化程序:建立可重复的验证工作流程。 集中存储库:在共享系统中存储需求和测试。完整可追溯性:每个需求都自动与验证证据关联。动态更新:测试会自动适应需求或模型的更改。持续合规:验证与政策执行集成。

评估
评估状态:
评估备注:
V-RT-A-3是否有一种系统的、可记录的方法,能够定期用于基于需求的测试?控制项
Verification / 基于需求的测试

非正式测试:测试在没有追溯到已记录需求的情况下进行。 无结构的流程:缺乏针对 AI 相关风险的正式验证步骤。 部分覆盖:关键的 AI 功能可能未被测试。 需求映射:将每个 AI 风险映射到测试用例。 标准化流程:建立可重复的验证工作流程。 中央存储库:将需求和测试存储在共享系统中。完整可追溯性:每个需求都自动关联到验证证据。动态更新:测试会自动适应需求或模型的变化。持续合规性:验证与政策执行集成。标准:完整可追溯性:每个需求都自动关联到验证证据。| 动态更新:测试会自动适应需求或模型的变化。| 持续合规:验证与策略执行相结合。

评估
评估状态:
评估备注:
V-RT-A.69600 1 2 3控制项
Verification / 基于需求的测试

非正式测试:测试在没有可追溯到文档化需求的情况下进行。 无结构的流程:缺乏针对AI相关风险的正式验证步骤。 部分覆盖:关键的AI功能可能未被测试。 需求映射:将每个AI风险映射到测试用例。 标准化程序:建立可重复的验证工作流程。 集中存储库:在共享系统中存储需求和测试。完整可追溯性:每个需求都自动与验证证据关联。动态更新:测试会自动适应需求或模型的更改。持续合规:验证与政策执行集成。

评估
评估状态:
评估备注:
V-ST-A-1是否会偶尔对人工智能系统进行非正式的基础安全评估?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控集成。对抗性模拟:定期进行红队演练和 AI 模型压力测试。综合治理:测试结果用于指导治理和风险决策。标准:手动测试:安全测试不定期且手动进行。| 未定义范围:对于 AI 特定的漏洞没有明确的范围或可重复的方法。| 覆盖有限:测试主要集中在传统软件漏洞上。

评估
评估状态:
评估备注:
V-ST-A.69520 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A-2是否存在非正式的测量和基本的安全实践改进?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控相结合。对抗性模拟:定期进行红队演练和 AI 模型的压力测试。集成治理:测试结果为治理和风险决策提供参考。标准化测试:制定用于测试 AI 漏洞的明确程序。| 测试框架:使用开源和商业工具进行 AI 安全扫描。| 可重复的工作流程:将测试集成到开发里程碑中。

评估
评估状态:
评估备注:
V-ST-A.69530 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A-3是否有记录在案的系统方法用于对人工智能系统进行定期安全评估?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控相结合。对抗性模拟:定期进行红队演练和 AI 模型压力测试。综合治理:测试结果用于指导治理和风险决策。标准:持续测试:实时 AI 测试与运行时监控相结合。| 对抗性模拟:定期进行红队演练和AI模型压力测试。| 综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A.69540 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注: