人工智能 (AI) 的设计应包括并平衡人类对整个人工智能生命周期决策的监督、代理和责任。 IBM 的第一个 信任和透明度原则 指出人工智能的目的是增强人类智能。 增强人类智能 意味着人工智能的使用增强了人类智能,而不是独立运作或取代人类智能。 所有这些都意味着人工智能系统不应被视为人类,而应被视为可以增强人类智力和潜力的支持机制。
增强人类智能的人工智能即使在人工智能系统的支持下,也能保持人类对决策的责任。 因此,人类需要通过与人工智能系统交互来提高技能,而不是去技能化。 支持包容性和公平地获取人工智能技术以及全面的员工培训和潜在的再培训进一步支持了 IBM 的宗旨 值得信赖的人工智能的支柱,使参与人工智能驱动的经济能够以公平、透明、可解释、稳健和隐私为基础。
为了将增强人类智能的原则付诸实践,我们建议以下最佳实践:
- 使用人工智能来增强人类智能,而不是独立运行或取代人类智能。
- 在人机交互中,通知个人他们正在与人工智能系统交互,而不是与人类交互。
- 设计人与人工智能的交互,以纳入并平衡整个人工智能生命周期中的人类监督。 解决人工智能系统的偏见并促进人类对结果的责任和代理。
- 制定政策和实践,促进包容性和公平地获取人工智能技术,使广泛的个人能够参与人工智能驱动的经济。
- 提供全面的员工培训和再培训计划,培养能够适应人工智能使用并分享人工智能驱动创新优势的多元化员工队伍。 与人力资源部门合作,扩大每位员工的工作范围。
有关人类监督、研究、人工智能决策协调、示例用例和关键绩效指标的标准和监管观点的更多信息,请参阅下面的增强人类智能 POV。