推动生成式人工智能和其他人工智能用例发展的基础模型的兴起提供了令人兴奋的可能性,但也引发了对其道德设计、开发、部署和使用的新问题和担忧。
IBM AI 道德委员会出版物《基础模型:机遇、风险和缓解措施》解决了这些问题,并探讨了该技术的优势、风险、防护措施和缓解措施。
该论文从道德、法律和法规的角度列出了与基金会模型相关的潜在风险,分为三个不同的类别:
- 传统的。 来自先前或早期形式的人工智能系统的已知风险。
- 放大了。 由于基础模型的内在特征,尤其是其固有的生成能力,已知的风险现在加剧了。
- 新的。 基础模型及其固有生成能力所固有的新风险。
这些风险的结构取决于它们是否与提供给基础模型的内容(输入)或由其生成的内容(输出)相关,或者是否与其他挑战相关。 它们以表格形式呈现,该表格强调了为什么这些风险值得关注,以及为什么在基础模型的开发、发布和使用过程中考虑这些风险很重要。
此外,本文还重点介绍了一些可用的缓解策略和工具,例如 watsonx 企业数据和 AI 平台以及值得信赖的开源 AI 工具。 这些策略侧重于平衡安全与创新,并让用户体验人工智能和基础模型的力量。
下面的示例重点介绍了本文中提供的信息的使用。
教育和意识
风险图集为本文所述的风险分类提供了交互式教育体验。 它使 watsonx 客户和公众能够更详细地探索风险、它们对企业的影响、示例以及帮助减轻这些风险的 IBM 解决方案。
IBM 研究院杰出研究人员 Michael Hind 表示“风险图集使风险管理者、人工智能从业者和研究人员能够共享通用的人工智能风险词汇。 它是风险缓解策略和新研究技术的基石。”
风险识别评估
风险图集内容现已在 watsonx.governance 中提供。 风险库可以与使用预测模型和生成人工智能的人工智能用例相关联。 该过程使用风险识别评估调查问卷实现自动化,该调查问卷可以自动复制可能适用于用例的已识别风险,以供用例所有者进一步评估。 这可以帮助用户创建其人工智能用例的风险概况,只需点击几下即可采取适当的缓解措施和控制措施。 一旦评估了用例风险,就可以提交用例以供模型开发批准。
“由 Risk Atlas 支持的新风险识别评估调查问卷可帮助 watsonx.governance 用户了解与用例相关的风险级别,并了解管理风险所需的监控类型和频率。 风险概况作为模型生命周期审计跟踪的一部分进行捕获,有助于建立负责任的 AI 采用所需的可解释性和透明度。”IBM 数据和 AI 的 watsonx.governance 产品管理总监兼 AI 道德联络点 Heather Gentile 说道。
设计思维
对于生成式人工智能系统的设计者来说,在设计过程的各个阶段纳入风险缓解至关重要,尤其是在解决方案定义期间。 通过阐明用户输入、定义所需的数据和培训以及识别生成输出的可变性,团队能够更好地理解可能与我们的设计相关的培训、调整和推理风险。 通过集中的设计思维活动,将此风险映射纳入我们的设计流程中,企业可以通过设计迭代或替代解决方案主动减轻这些风险。
采用以人为本的设计方法将风险评估扩展到二级和三级用户,加深我们对所有风险(包括非技术风险和社会风险)的理解,并查明它们在设计和实施阶段可能发生的情况。 在流程开始时解决这些风险可以促进负责任且值得信赖的人工智能解决方案的开发。
人工智能设计领域杰出设计师 Adam Cutler 表示, “道德决策并不是解决技术问题的另一种形式。 数据和人工智能的企业设计思维 通过使整个团队有意识地关注目标、价值和信任,帮助团队发现和解决数据驱动的问题,同时将人的需求作为焦点 前 编写(或生成)一行代码。”
今天开始您的旅程
基础模型:机遇、风险和缓解措施将带您踏上实现基础模型潜力的旅程,了解它们可能引起的风险的重要性,并了解减轻其潜在影响的策略。
阅读基础模型的机遇、风险和缓解措施 探索 AI 风险图集和其他 watsonx 产品文档 阅读有关 IBM AI 道德的更多信息
本文是否有帮助?
是的不