人工智能 (AI) 的设计应涵盖并平衡整个 AI 生命周期中人类对决策的监督、代理和责任。IBM 的第一个“信任与透明度原则”指出,AI 的目的是增强人类智能。 增强人类智能 意味着人工智能的使用可以增强人类智能,而不是独立运作或取代人类智能。所有这些都意味着人工智能系统不应被视为人类,而应被视为可以增强人类智能和潜力的支持机制。
增强人类智能的人工智能即使在人工智能系统的支持下,仍保持人类对决策的责任。因此,人类需要通过与人工智能系统交互来提高技能,而不是降低技能。支持包容和公平地使用人工智能技术以及全面的员工培训和潜在的再培训,进一步支持了 IBM 的“值得信赖的人工智能支柱”的宗旨,使参与人工智能驱动的经济能够以公平、透明、可解释、稳健和隐私为基础。
为了将增强人类智能的原则付诸实践,我们建议采取以下最佳实践:
- 使用人工智能来增强人类智能,而不是独立运作或取代人类智能。
- 在人机交互中,通知个人他们正在与人工智能系统交互,而不是与人类交互。
- 设计人机交互,以在 AI 生命周期中纳入并平衡人类监督。解决偏见问题,并促进人类对 AI 系统结果的责任感和自主权。
- 制定政策和实践,促进包容和公平地使用人工智能技术,使广大民众能够参与人工智能驱动的经济。
- 提供全面的员工培训和再培训计划,以培养能够适应人工智能使用的多元化员工队伍,并分享人工智能驱动的创新优势。与人力资源部门合作,扩大每位员工的工作范围。
有关人类监督、研究、人工智能决策协调、示例用例和关键绩效指标的标准和监管观点的更多信息,请参阅下面的增强人类智能 POV 和 KPI。
探索我们增强人类智能的 POV 探索我们增强人类智能的 KPI
本文是否有帮助?
是的不