CISO助手
完成度
0%(0/150)
评估报告
AIMA

人工智能成熟度评估模型 1.0

控制项模式

人工智能成熟度评估模型,帮助组织评估和提升其人工智能系统的安全性和成熟度。

版本: 1.0覆盖状态: 完整覆盖 (150/150)控制项/量表/总计: 150/0/150当前展示: 6 / 1508 个分类
G-PC-A-1组织内部是否有关于人工智能使用的意识或初步非正式政策?控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力后才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:根据既定时间表或在发生重大变化时审查政策。持续应用:项目遵循标准;例外情况需有书面批准。集成的政策框架:人工智能政策融入企业治理、风险和道德项目中。主动演进:更新政策以应对新兴威胁和法规,并通过持续的风险扫描和行业反馈指导。自动化执法:CI/CD 门禁、数据使用控制和以策略为代码的工具会自动标记或阻止不合规的制品。标准:最低限度的 AI 专用政策:AI 风险通常仅涵盖在一般 IT/安全政策中(如果有的话)。| 被动更新:政策仅在发生事件或受到监管压力后才会更改。| 指导有限:团队缺乏有关安全或负责任的 AI 开发的明确指导。

评估
评估状态:
评估备注:
G-PC-A.68680 1 2 3控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力下才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:政策按预定时间表或在重大变更发生时进行审查。 一致的执行:项目遵循标准;例外情况需获得书面批准。 综合政策框架:人工智能政策融入企业治理、风险和伦理项目中。 前瞻性发展:更新以预见新兴威胁和法规,通过持续的风险扫描和行业反馈引导。自动化执法:CI/CD 门禁、数据使用控制和代码即策略工具会自动标记或阻止不合规的工件。

评估
评估状态:
评估备注:
G-PC-A-2是否对与人工智能相关的合规需求(例如 GDPR、伦理指南)有基本的了解?控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力下才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:政策按预定时间表或在重大变更发生时进行审查。 一致的执行:项目遵循标准;例外情况需获得书面批准。 综合政策框架:人工智能政策融入企业治理、风险和伦理项目中。 前瞻性发展:更新以预见新兴威胁和法规,通过持续的风险扫描和行业反馈指导。自动化执行:CI/CD 门禁、数据使用控制和策略即代码工具会自动标记或阻止不合规的工件。标准:有文档记录的 AI 政策和规范:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等。| 定期审查:政策按既定时间表或在发生重大变更时进行审查。| 一致性应用:项目遵循标准;例外情况需要有书面批准。

评估
评估状态:
评估备注:
G-PC-A.68690 1 2 3控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力下才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:政策按预定时间表或在重大变更发生时进行审查。 一致的执行:项目遵循标准;例外情况需获得书面批准。 综合政策框架:人工智能政策融入企业治理、风险和伦理项目中。 前瞻性发展:更新以预见新兴威胁和法规,通过持续的风险扫描和行业反馈引导。自动化执法:CI/CD 门禁、数据使用控制和代码即策略工具会自动标记或阻止不合规的工件。

评估
评估状态:
评估备注:
G-PC-A-3是否已经制定了正式的人工智能政策,并向所有相关利益相关者明确传达?控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力后才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:根据既定时间表或在发生重大变化时审查政策。持续应用:项目遵循标准;例外情况需有书面批准。集成的政策框架:人工智能政策融入企业治理、风险和道德项目中。主动演进:更新政策以应对新兴威胁和法规,并通过持续的风险扫描和行业反馈指导。自动化执行:CI/CD 门控、数据使用控制和以策略为代码的工具会自动标记或阻止不合规的工件。标准:集成政策框架:AI 政策嵌入企业治理、风险和道德项目。| 主动演进:更新通过持续的风险扫描和行业反馈,预见新出现的威胁和法规。| 自动化执法:CI/CD 门禁、数据使用控制和代码化政策工具会自动标记或阻止不合规的工件。

评估
评估状态:
评估备注:
G-PC-A.68700 1 2 3控制项
Governance / 政策与合规

最小化的人工智能专用政策:人工智能风险如果有覆盖,也只是松散地包含在一般的 IT/安全政策中。 被动更新:政策只有在发生事件或监管压力下才会改变。 指导有限:团队缺乏关于安全或负责任的人工智能开发的明确指导。 有记录的人工智能政策和标准:正式要求涵盖数据使用、模型验证、偏差测试、可解释性等内容。定期审查:政策按预定时间表或在重大变更发生时进行审查。 一致的执行:项目遵循标准;例外情况需获得书面批准。 综合政策框架:人工智能政策融入企业治理、风险和伦理项目中。 前瞻性发展:更新以预见新兴威胁和法规,通过持续的风险扫描和行业反馈引导。自动化执法:CI/CD 门禁、数据使用控制和代码即策略工具会自动标记或阻止不合规的工件。

评估
评估状态:
评估备注: