CISO助手
完成度
0%(0/150)
评估报告
AIMA

人工智能成熟度评估模型 1.0

控制项模式

人工智能成熟度评估模型,帮助组织评估和提升其人工智能系统的安全性和成熟度。

版本: 1.0覆盖状态: 完整覆盖 (150/150)控制项/量表/总计: 150/0/150当前展示: 6 / 1508 个分类
G-SM-A-1是否有初步的人工智能策略文件,即使是非正式的?控制项
Governance / 策略与指标

最小化对齐:AI 安全和可解释人工智能 (RAI) 的工作未能始终与业务或道德目标相联系。责任不明确:没有正式的 AI 安全或道德治理责任归属;职责可能分散。临时流程:AI 安全措施通常是按需进行(例如在事件发生后),缺乏战略规划。有据可查的策略:已制定正式的人工智能安全和可靠人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过明确的角色(AI安全主管、AI伦理官、AI安全委员会)确保问责、公平和决策。计划整合:在项目路线图、预算和组织规划中纳入人工智能安全和伦理监督工作。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有人工智能开发和部署阶段强制实施的人工智能安全控制(模型审计、公平性评估、透明度措施、人类监督协议)。标准:最小对齐:人工智能安全和可信人工智能努力未能与业务或伦理目标保持一致。| 责任不明确:没有人工智能安全或伦理治理的正式负责人;职责可能分散。| 临时流程:人工智能安全操作按需进行(例如,在事件发生后),没有战略路线图。

评估
评估状态:
评估备注:
G-SM-A.68620 1 2 3控制项
Governance / 策略与指标

最小化对齐:AI 安全和 RAI 工作未能持续与业务或伦理目标挂钩。责任不明确:没有 AI 安全或伦理治理的正式负责人,职责可能分散。临时流程:AI 安全措施是按需进行的(例如,在事件发生后),缺乏战略规划。有文档记录的策略:存在正式的人工智能安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过定义角色(人工智能安全主管、人工智能伦理官、人工智能安全委员会)确保问责、公平和决策。计划中的整合:将人工智能安全和伦理监督工作纳入项目路线图、预算和组织规划中。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有 AI 开发和部署阶段实施强制性 AI 安全控制(模型审计、公平性评估、透明度措施、人工监督协议)。

评估
评估状态:
评估备注:
G-SM-A-2有没有一些非正式跟踪的与人工智能相关的指标?控制项
Governance / 策略与指标

最小化对齐:AI 安全和 RAI 工作未能持续与业务或伦理目标挂钩。责任不明确:没有正式的 AI 安全或伦理治理负责人,职责可能分散。临时流程:AI 安全措施是按需进行的(例如,在事件发生后),缺乏战略规划。有文档记录的策略:存在正式的人工智能安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过明确的角色(AI安全主管、AI伦理官、AI安全委员会)确保问责、公平和决策。计划整合:在项目路线图、预算和组织规划中纳入人工智能安全和伦理监督工作。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有人工智能开发和部署阶段实施强制性的AI安全控制(模型审计、公平性评估、透明度措施、人类监督协议)。标准:有文件化的策略:存在正式的AI安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性及伦理需求。| 明确的治理:定义的角色(AI安全负责人、AI伦理官、AI安全委员会)确保问责、公平和决策。| 计划中的整合:AI安全和伦理监督工作纳入项目路线图、预算和组织规划中。

评估
评估状态:
评估备注:
G-SM-A.68630 1 2 3控制项
Governance / 策略与指标

最小化对齐:AI 安全和 RAI 工作未能持续与业务或伦理目标挂钩。责任不明确:没有 AI 安全或伦理治理的正式负责人,职责可能分散。临时流程:AI 安全措施是按需进行的(例如,在事件发生后),缺乏战略规划。有文档记录的策略:存在正式的人工智能安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过定义角色(人工智能安全主管、人工智能伦理官、人工智能安全委员会)确保问责、公平和决策。计划中的整合:将人工智能安全和伦理监督工作纳入项目路线图、预算和组织规划中。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有 AI 开发和部署阶段实施强制性 AI 安全控制(模型审计、公平性评估、透明度措施、人工监督协议)。

评估
评估状态:
评估备注:
G-SM-A-3人工智能战略是否已正式制定并传达给相关利益方?控制项
Governance / 策略与指标

最小化对齐:AI 安全和 RAI 工作未能持续与业务或伦理目标挂钩。责任不明确:没有 AI 安全或伦理治理的正式负责人,职责可能分散。临时流程:AI 安全措施是按需进行的(例如,在事件发生后),缺乏战略规划。有文档记录的策略:存在正式的人工智能安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过明确的角色(AI安全主管、AI伦理官、AI安全委员会)确保问责、公平和决策。计划整合:在项目路线图、预算和组织规划中纳入人工智能安全和伦理监督工作。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有AI开发和部署阶段实施强制性的AI安全控制(模型审计、公平性评估、透明度措施、人类监督协议)。标准:完全嵌入:AI安全和负责任AI(RAI)策略整合到更广泛的公司治理和伦理框架中,并持续更新。| 高管支持:高级领导层积极支持将 AI 安全和负责任的 AI 作为战略性投资。| 生命周期整合:在所有 AI 开发和部署阶段实施强制性的 AI 安全控制(模型审计、公平性评估、透明度措施、人工监督协议)。

评估
评估状态:
评估备注:
G-SM-A.68640 1 2 3控制项
Governance / 策略与指标

最小化对齐:AI 安全和 RAI 工作未能持续与业务或伦理目标挂钩。责任不明确:没有 AI 安全或伦理治理的正式负责人,职责可能分散。临时流程:AI 安全措施是按需进行的(例如,在事件发生后),缺乏战略规划。有文档记录的策略:存在正式的人工智能安全和负责任人工智能(RAI)策略,参考相关的企业风险、合规性和伦理需求。明确的治理:通过定义角色(人工智能安全主管、人工智能伦理官、人工智能安全委员会)确保问责、公平和决策。计划中的整合:将人工智能安全和伦理监督工作纳入项目路线图、预算和组织规划中。完全嵌入:AI安全和负责AI策略整合到更广泛的公司治理和道德框架中,并持续更新。执行支持:高层领导积极支持AI安全和负责AI,作为战略性投资。生命周期整合:在所有 AI 开发和部署阶段实施强制性 AI 安全控制(模型审计、公平性评估、透明度措施、人工监督协议)。

评估
评估状态:
评估备注: