CISO助手
完成度
0%(0/150)
评估报告
AIMA

人工智能成熟度评估模型 1.0

控制项模式

人工智能成熟度评估模型,帮助组织评估和提升其人工智能系统的安全性和成熟度。

版本: 1.0覆盖状态: 完整覆盖 (150/150)控制项/量表/总计: 150/0/150当前展示: 24 / 1508 个分类
R-ES-A-1人们是否对人工智能系统可能带来的伦理和社会影响有非正式的认识?控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官员或委员会负责监督道德实践和治理。综合评估:将道德和环境影响评估系统性地纳入规划和文档中。持续监控:积极跟踪道德和环境关键绩效指标,并与组织绩效指标保持一致。政策演变:根据利益相关者反馈和实际情况定期更新。自动化整合:在项目生命周期的各个阶段嵌入道德和环境工具及流程。标准:事件驱动:在事件发生后处理道德问题,但缺乏一致的做法。非正式问责制:道德职责临时分配,记录极少。| 有限的后续跟进:事件后的文档记录,但缺乏结构化的学习或改进。

评估
评估状态:
评估备注:
R-ES-A.68440 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官员或委员会负责监督道德实践和治理。综合评估:将道德和环境影响评估系统性地纳入规划和文档中。持续监控:积极跟踪道德和环境关键绩效指标,并与组织绩效指标保持一致。政策演进:根据利益相关者的反馈和现实世界的见解定期更新。自动化集成:在项目生命周期的各个阶段嵌入伦理和环境工具与流程。

评估
评估状态:
评估备注:
R-ES-A-2伦理问题有时会以非正式的方式讨论吗?控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官或委员会负责监督道德实践和治理。综合评估:道德和环境影响评估系统地嵌入到规划和文档中。持续监控:道德和环境关键绩效指标(KPI)被积极跟踪,并与组织绩效指标保持一致。政策演进:根据利益相关者反馈和实际情况定期更新。自动化整合:在项目生命周期的所有阶段嵌入伦理和环境工具及流程。标准:明确的伦理和环境政策:政策明确说明价值观、原则和责任。| 伦理治理:指定的伦理官员或委员会监督伦理实践和治理。| 综合评估:在规划和文档中系统地嵌入伦理和环境影响评估。

评估
评估状态:
评估备注:
R-ES-A.68450 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官员或委员会负责监督道德实践和治理。综合评估:将道德和环境影响评估系统性地纳入规划和文档中。持续监控:积极跟踪道德和环境关键绩效指标,并与组织绩效指标保持一致。政策演进:根据利益相关者的反馈和现实世界的见解定期更新。自动化集成:在项目生命周期的各个阶段嵌入伦理和环境工具与流程。

评估
评估状态:
评估备注:
R-ES-A-3是否已经建立正式的流程来评估人工智能的伦理和社会影响?控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官员或委员会负责监督道德实践和治理。综合评估:将道德和环境影响评估系统性地纳入规划和文档中。持续监控:积极跟踪道德和环境关键绩效指标,并与组织的绩效指标保持一致。政策演变:基于利益相关方反馈和实际情况定期更新。自动化整合:在所有项目生命周期阶段嵌入伦理和环境工具与流程。标准:持续监控:积极跟踪伦理和环境关键绩效指标,并与组织绩效指标保持一致。| 政策演变:根据利益相关者的反馈和实际情况定期更新。| 自动化整合:在项目生命周期的所有阶段嵌入道德和环境工具及流程。

评估
评估状态:
评估备注:
R-ES-A.68460 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

事件驱动:伦理问题在事后处理,但缺乏一致的做法。非正式问责:伦理责任临时分配,文档记录极少。有限的跟进:事后文档记录有限,缺乏结构化的学习或改进。明确的伦理和环境政策:明确的政策阐述了价值观、原则和责任。道德治理:指定的道德官员或委员会负责监督道德实践和治理。综合评估:将道德和环境影响评估系统性地纳入规划和文档中。持续监控:积极跟踪道德和环境关键绩效指标,并与组织绩效指标保持一致。政策演进:根据利益相关者的反馈和现实世界的见解定期更新。自动化集成:在项目生命周期的各个阶段嵌入伦理和环境工具与流程。

评估
评估状态:
评估备注:
R-ES-B-1是否有一个既定的框架指导人工智能系统的道德决策?控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有统一的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。日常反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业发展和绩效评估中认可道德和环境行为。文化强化:通过定期活动和领导示范来强化积极的道德和环境行为。决策常态化:在组织各级决策中标准化考虑道德和环境因素。标准:偶尔讨论:道德话题以非正式方式讨论,通常由个人主动发起。| 缺乏系统培训:缺少道德培训,或仅为零散培训,组织没有提供正式的培训项目、入职内容或针对特定角色的支持。| 认知差异:各团队对道德的理解存在差异,缺乏统一的组织标准。

评估
评估状态:
评估备注:
R-ES-B.68470 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有统一的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。常规反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业晋升和绩效评估中认可道德和环保行为。文化强化:通过定期活动和领导示范来强化积极的道德和环境行为。决策常态化:在所有组织决策层面将道德和环境因素作为标准考虑。

评估
评估状态:
评估备注:
R-ES-B-2影响评估是否已系统地整合到所有人工智能项目中,并持续进行审查和更新?控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有共享的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。日常反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业晋升和绩效评估中认可道德和环保行为。文化强化:通过定期活动和领导示范来巩固积极的道德和环境行为。决策规范化:在组织所有决策层面,伦理和环境考量成为标准。标准:角色特定培训:定期开展针对具体角色的道德培训。| 支持的讨论:鼓励就道德困境和持续对话进行开放论坛。| 日常反思:在常规项目活动中融入道德和环境考量。

评估
评估状态:
评估备注:
R-ES-B.68480 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有统一的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。常规反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业晋升和绩效评估中认可道德和环保行为。文化强化:通过定期活动和领导示范来强化积极的道德和环境行为。决策常态化:在所有组织决策层面将道德和环境因素作为标准考虑。

评估
评估状态:
评估备注:
R-ES-B-3道德决策是否已完全融入组织流程,并始终指导人工智能的开发和部署?控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有统一的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。常规反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业晋升和绩效评估中认可道德和环保行为。文化强化:通过定期活动和领导示范来强化积极的道德和环境行为。决策常态化:在组织各级决策中标准化考虑道德和环境因素。标准:奖励道德行为:在职业晋升和绩效评估中认可道德和环境行为。| 文化强化:通过定期活动和领导示范来加强主动的道德和环境行为。| 决策常态化:在所有组织决策层面标准化道德和环境考量。

评估
评估状态:
评估备注:
R-ES-B.68490 1 2 3控制项
负责任的人工智能原则 / 伦理与社会影响

偶尔讨论:伦理话题以非正式方式讨论,通常由个人主动提出。无系统培训:缺乏正式的伦理培训或仅是临时安排,没有由组织提供的正式项目、入职内容或针对特定角色的支持。认知差异:各团队对伦理的理解存在差异,没有统一的组织标准。角色专属培训:定期开展针对不同岗位的道德培训。支持性讨论:鼓励就道德困境进行公开讨论和持续对话。常规反思:在常规项目活动中融入道德和环境考量。道德奖励:在职业晋升和绩效评估中认可道德和环保行为。文化强化:通过定期活动和领导示范来强化积极的道德和环境行为。决策常态化:在所有组织决策层面将道德和环境因素作为标准考虑。

评估
评估状态:
评估备注:
R-FB-A-1是否对人工智能系统中的潜在偏见有初步的意识和非正式识别?控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或书面流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。企业范围的指标:公平性关键绩效指标在整个组织范围内跟踪,并纳入业务绩效指标和OKR。 流程整合:通过自动化的CI/CD管道和持续的生产验证来执行公平性评估。 标准:临时响应:偏见处理不一致,主要在投诉或事件发生后进行。| 角色不清:职责是非正式分配的,没有明确的角色或记录的流程。| 缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。

评估
评估状态:
评估备注:
R-FB-A.68560 1 2 3控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或记录流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。全企业指标:组织范围内跟踪公平性关键绩效指标(KPI),并将其整合到业务绩效指标和OKR中。流程整合:通过自动化CI/CD管道和持续的生产验证强制执行公平性评估。

评估
评估状态:
评估备注:
R-FB-A-2目前是否有任何非正式或临时的偏见缓解措施正在实施?控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或记录流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。企业范围指标:组织范围内跟踪的公平性关键绩效指标(KPI),并纳入业务绩效指标和目标与关键成果(OKR)。流程集成:通过自动化CI/CD管道和持续的生产验证来执行公平性评估。标准:已制定政策:正式的政策、章程和治理论坛指导偏见缓解工作。| 工具集成:在关键项目里程碑使用公平性评估工具和文档。| 定期评估:定期进行偏向性评估,但并不总是明确与关键绩效指标或业务结果挂钩。

评估
评估状态:
评估备注:
R-FB-A.68570 1 2 3控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或记录流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。全企业指标:组织范围内跟踪公平性关键绩效指标(KPI),并将其整合到业务绩效指标和OKR中。流程整合:通过自动化CI/CD管道和持续的生产验证强制执行公平性评估。

评估
评估状态:
评估备注:
R-FB-A-3是否建立了系统程序以定期识别和评估人工智能模型中的偏差?控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或书面流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。企业级指标:在整个组织范围内跟踪公平性关键绩效指标,并将其纳入业务绩效指标和OKR。 流程集成:通过自动化的CI/CD管道和持续的生产验证来执行公平性评估。 标准:自动化监控:持续的自动化偏差检测工具触发实时补救措施。| 企业范围指标:在整个组织中跟踪公平性关键绩效指标,并将其整合到业务绩效指标和OKR中。| 流程整合:通过自动化CI/CD管道和持续的生产验证强制执行公平性评估。

评估
评估状态:
评估备注:
R-FB-A.68580 1 2 3控制项
负责任的人工智能原则 / 公平与偏见

临时应对:偏见处理不一致,主要在投诉或事件发生后进行。职责不清:责任分配非正式,无明确角色或记录流程。缺乏工具:没有建立用于偏见评估的标准化工具、检查点或流程。明确政策:正式政策、章程和治理论坛指导偏见缓解工作。工具整合:在关键项目里程碑使用的公平性评估工具和文档。定期评估:定期进行偏见评估,但不总是明确与关键绩效指标或业务结果挂钩。自动化监控:连续的自动偏见检测工具触发实时补救措施。全企业指标:组织范围内跟踪公平性关键绩效指标(KPI),并将其整合到业务绩效指标和OKR中。流程整合:通过自动化CI/CD管道和持续的生产验证强制执行公平性评估。

评估
评估状态:
评估备注:
R-TE-A-1当有人要求时,是否有非正式的方式来解释 AI 的输出或决策?控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确:指定冠军以确保团队间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。实时指标:通过与战略 KPI 对齐的仪表板持续监控透明度指标。自动修复:当解释标准未达到时,触发自动修复工作流程。标准:手动文档:文档是在问题出现后被动创建的。| 非正式角色:透明职责是临时分配的,没有正式定义。| 上下文缺失:输出经常缺乏足够的可解释性和上下文。

评估
评估状态:
评估备注:
R-TE-A.68500 1 2 3控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确:指定冠军以确保团队间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。实时指标:通过与战略 KPI 对齐的仪表板持续监控透明度指标。自动修复:当未达到解释标准时,触发自动修复工作流程。

评估
评估状态:
评估备注:
R-TE-A-2关于人工智能系统工作原理的沟通是零散的还是被动的?控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确:指定冠军以确保团队间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。实时指标:通过与战略 KPI 对齐的仪表板持续监控透明度指标。自动修复:当解释标准未满足时触发自动修复工作流。标准:已定义政策:建立透明性和可解释性政策以指导文档和工具使用。| 角色明确:指定负责人确保各团队的可解释性。| 标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。

评估
评估状态:
评估备注:
R-TE-A.68510 1 2 3控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确:指定冠军以确保团队间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。实时指标:通过与战略 KPI 对齐的仪表板持续监控透明度指标。自动修复:当未达到解释标准时,触发自动修复工作流程。

评估
评估状态:
评估备注:
R-TE-A-3关键的 AI 模型或系统是否已建立正式的可解释性机制?控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确性:指定冠军负责确保各团队之间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程。自动化流程:解释文档在 CI/CD 工作流中自动化生成并验证。实时指标:通过与战略 KPI 对齐的仪表盘持续监控透明度指标。自动修复:当解释标准未满足时,触发自动修复工作流。标准:自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。| 实时指标:通过与战略关键绩效指标对齐的仪表板持续监控透明度指标。| 自动修复:当解释标准未满足时,触发自动修复工作流。

评估
评估状态:
评估备注:
R-TE-A.68520 1 2 3控制项
负责任的人工智能原则 / 透明性与可解释性

手动文档:通常在问题出现后被动创建的文档。非正式角色:临时分配的透明度职责,没有正式定义。情境空白:输出常常缺乏足够的可解释性和上下文。明确政策:已建立的透明度和可解释性政策,用于指导文档编制和工具使用。角色明确:指定冠军以确保团队间的可解释性。标准化工具:将 SHAP、LIME 和模型卡嵌入开发流程中。自动化流程:解释文档在 CI/CD 工作流中自动生成并验证。实时指标:通过与战略 KPI 对齐的仪表板持续监控透明度指标。自动修复:当未达到解释标准时,触发自动修复工作流程。

评估
评估状态:
评估备注: