CISO助手
完成度
0%(0/150)
评估报告
AIMA

人工智能成熟度评估模型 1.0

控制项模式

人工智能成熟度评估模型,帮助组织评估和提升其人工智能系统的安全性和成熟度。

版本: 1.0覆盖状态: 完整覆盖 (150/150)控制项/量表/总计: 150/0/150当前展示: 6 / 1508 个分类
V-ST-A-1是否会偶尔对人工智能系统进行非正式的基础安全评估?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控集成。对抗性模拟:定期进行红队演练和 AI 模型压力测试。综合治理:测试结果用于指导治理和风险决策。标准:手动测试:安全测试不定期且手动进行。| 未定义范围:对于 AI 特定的漏洞没有明确的范围或可重复的方法。| 覆盖有限:测试主要集中在传统软件漏洞上。

评估
评估状态:
评估备注:
V-ST-A.69520 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A-2是否存在非正式的测量和基本的安全实践改进?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控相结合。对抗性模拟:定期进行红队演练和 AI 模型的压力测试。集成治理:测试结果为治理和风险决策提供参考。标准化测试:制定用于测试 AI 漏洞的明确程序。| 测试框架:使用开源和商业工具进行 AI 安全扫描。| 可重复的工作流程:将测试集成到开发里程碑中。

评估
评估状态:
评估备注:
V-ST-A.69530 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A-3是否有记录在案的系统方法用于对人工智能系统进行定期安全评估?控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围不明:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复工作流:将测试整合到开发里程碑中。持续测试:实时 AI 测试与运行时监控相结合。对抗性模拟:定期进行红队演练和 AI 模型压力测试。综合治理:测试结果用于指导治理和风险决策。标准:持续测试:实时 AI 测试与运行时监控相结合。| 对抗性模拟:定期进行红队演练和AI模型压力测试。| 综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注:
V-ST-A.69540 1 2 3控制项
Verification / 安全测试

手动测试:安全测试不定期且手动进行。范围未定义:没有针对 AI 特有漏洞的明确范围或可重复的方法。覆盖有限:测试主要集中在传统软件漏洞上。标准化测试:定义了测试 AI 漏洞的流程。测试框架:使用开源和商业工具进行 AI 安全扫描。可重复的工作流程:将测试纳入开发里程碑。持续测试:实时AI测试与运行时监控相结合。对抗性模拟:定期进行红队演练和AI模型压力测试。综合治理:测试结果用于指导治理和风险决策。

评估
评估状态:
评估备注: