全球人工智能治理格局复杂且快速发展。 关键主题和担忧不断出现,但政府机构必须通过评估其机构特定的优先事项和流程来取得领先地位。 通过审计工具和其他措施遵守官方政策只是最后一步。 有效实施治理的基础是以人为本,包括确保获得资助的任务、确定负责任的领导者、发展全机构范围的人工智能素养和卓越中心,以及整合来自学术界、非营利组织和私营行业的见解。
全球治理格局
截至撰写本文时,经合组织政策观察站列出了来自 69 个国家、地区和欧盟的 668 项国家人工智能治理举措。 其中包括国家战略、议程和计划; 人工智能协调或监督机构; 利益相关者或专家的公开咨询; 以及在公共部门使用人工智能的举措。 此外,经合组织将具有法律效力的人工智能法规和标准与前面提到的举措分开,并列出了另外 337 项举措。
期限 治理 可能会很滑。 在人工智能的背景下,它可以指人工智能工具和系统的安全和道德护栏、有关数据访问和模型使用的政策或政府强制监管本身。 因此,我们看到国家和国际指南以各种方式处理这些重叠和交叉的定义。
共同的挑战,共同的主题
从广义上讲,政府机构致力于支持和平衡经济繁荣、国家安全和政治动态等社会问题的治理。 私营公司优先考虑经济繁荣,注重推动业务成功和股东价值的效率和生产力。 但人们越来越担心公司治理没有考虑到整个社会的最大利益,并将关键的护栏视为事后的想法。
非政府机构也发布了对公共部门机构有用的指南。 今年,世界经济论坛的人工智能治理联盟发布了 Presidio 人工智能框架 (PDF)。 它“……为生成式人工智能的安全开发、部署和使用提供了一种结构化方法。 在此过程中,该框架从四个主要参与者的角度强调了解决安全问题方面的差距和机遇:人工智能模型创建者、人工智能模型适配器、人工智能模型用户和人工智能应用程序用户。”
学术和科学观点也很重要。 在灾难性人工智能风险概述中,作者确定了可以通过治理和监管(除了网络安全之外)解决的几种缓解措施。 他们认为国际协调和安全监管对于预防“人工智能竞赛”相关风险至关重要。
跨行业和部门正在出现一些共同的监管主题。 例如,越来越建议向最终用户提供有关他们正在交互的任何人工智能的存在和使用的透明度。 领导者必须确保绩效的可靠性和抵御攻击的能力,以及对社会责任的可行承诺。 这包括优先考虑培训数据和输出的公平性和消除偏见、尽量减少对环境的影响,以及通过指定负责任的个人和组织范围的教育来加强问责制。
政策还不够
无论治理政策是依靠软法还是正式执行,无论其写得多么全面、准确或博学,它们都只是原则。 组织如何将其付诸行动才是最重要的。 例如,纽约市于 2023 年 10 月发布了自己的人工智能原则,并于 2024 年 3 月正式制定了人工智能原则。尽管这些原则与上述主题一致(包括指出人工智能工具“应在部署前进行测试”),但人工智能驱动的聊天机器人该市推出的有关创办和经营企业问题的答案给出了鼓励用户违法的答案。 实施过程中哪里出了问题?
实施治理需要采取以人为本、负责、参与的方法。 让我们看看各机构必须采取的三项关键行动:
1. 指定负责任的领导者并为其任务提供资金
没有责任,信任就不可能存在。 为了实施治理框架,政府机构需要负责任的领导者,并为完成这项工作提供资金。 仅举一个知识差距:我们采访过的几位高级技术领导者并不理解数据如何可能产生偏见。 数据是人类经验的产物,容易导致世界观和不平等的钙化。 人工智能可以被视为一面镜子,将我们的偏见反射回我们自己身上。 我们必须找到负责任的领导者,他们了解这一点,既能获得经济授权,又能承担责任,确保他们的人工智能以合乎道德的方式运作,并与其所服务的社区的价值观保持一致。
2. 提供应用治理培训
我们观察到许多机构举办人工智能“创新日”和黑客马拉松,旨在提高运营效率(例如降低成本、吸引公民或员工以及其他关键绩效指标)。 我们建议通过以下步骤扩大这些黑客马拉松的范围,以应对人工智能治理的挑战:
- 步骤1: 在试点项目推出前三个月,让一位候选治理领导者向黑客马拉松参与者主持一场有关人工智能道德的主题演讲。
- 第2步: 让制定政策的政府机构担任该事件的评委。 提供如何评判试点项目的标准,其中包括人工智能治理工件(文档输出),包括概况介绍、审计报告、效果层分析(有意、无意、主要和次要影响)以及模型的功能和非功能要求运行中。
- 步骤3: 在演示日期之前的六到八周内,通过针对特定用例的研讨会,为团队提供有关开发这些工件的应用培训。 通过邀请多元化、多学科的团队参加这些研讨会来加强开发团队的道德评估和风险建模。
- 步骤4: 在活动当天,让每个团队以整体方式展示他们的工作,展示他们如何评估以及如何减轻与其用例相关的各种风险。 具有领域专业知识、DEI、监管和网络安全背景的法官应该质疑和评估每个团队的工作。
这些时间表基于我们为从业者提供有关非常具体的用例的应用培训的经验。 它为未来的领导者提供了一个机会 实际工作 在教练的指导下进行治理,同时让团队成员扮演挑剔的治理法官的角色。
但黑客马拉松还不够。 一个人不可能在三个月内学会一切。 各机构必须投资建立一种人工智能素养教育文化,以促进持续学习,包括在必要时放弃旧的假设。
3. 评估算法影响评估之外的库存
许多开发人工智能模型的组织依靠算法影响评估表作为主要机制来收集有关其库存的重要元数据,并在部署人工智能模型之前评估和降低其风险。 这些表格仅调查人工智能模型所有者或采购者,了解人工智能模型的目的、其训练数据和方法、责任方以及对不同影响的担忧。
在没有严格的教育、沟通和文化考虑的情况下单独使用这些形式,有很多令人担忧的原因。 这些包括:
- 奖励措施: 是否会激励或抑制个人深思熟虑地填写这些表格? 我们发现大多数都是 抑制性的 因为他们有配额要满足。
- 风险责任: 这些形式可能意味着模型所有者将免除风险,因为他们使用了某种技术或云主机或从第三方采购了模型。
- AI的相关定义: 模型所有者可能没有意识到他们所采购或部署的内容实际上符合法规所描述的人工智能或智能自动化的定义。
- 对不同影响的无知: 通过将完成并提交算法评估表的责任交给一个人,人们可能会认为忽略了对不同影响的准确评估 按设计。
我们已经看到了不同地区、不同教育水平的人工智能从业者以及那些表示已经阅读了已发布的政策并理解其原则的人所提供的令人担忧的表单输入。 此类条目包括“如果我不收集 PII,我的人工智能模型怎么会不公平?”和“不存在产生不同影响的风险,因为我有最好的意图。” 这些表明迫切需要应用培训,以及根据明确定义的道德准则持续衡量模型行为的组织文化。
创造责任和协作的文化
当组织努力治理具有如此深远影响的技术时,参与性和包容性文化至关重要。 正如我们之前讨论的,多样性不是一个政治因素,而是一个数学因素。 多学科卓越中心对于确保所有员工都是受过教育、负责任的人工智能用户、了解风险和不同影响至关重要。 组织必须将治理纳入协作创新工作中,并强调责任属于每个人,而不仅仅是模型所有者。 他们必须找到真正负责任的领导者,他们能够从社会技术角度来看待治理问题, 欢迎新方法 减轻人工智能风险,无论其来源是政府、非政府还是学术。
了解 IBM Consulting 如何帮助组织实施负责任的 AI 治理
有关此主题的更多信息,请阅读最近与政府领导人和利益相关者举行的 IBM 政府商业中心圆桌会议的摘要,讨论负责任地使用人工智能如何通过改善机构服务交付来造福公众。
本文是否有帮助?
是的不






















