作者:John P. Desmond,人工智能趋势编辑
工程师倾向于用明确的术语来看待事物,有些人可能将其称为非黑即白的术语,例如在对与错、好与坏之间进行选择。人工智能中对道德的考虑非常微妙,存在巨大的灰色地带,这使得人工智能软件工程师在工作中应用它具有挑战性。
这是关于标准和道德人工智能的未来的会议的一个要点 人工智能世界政府 会议本周在弗吉尼亚州亚历山大举行了现场和虚拟会议。
会议的总体印象是,关于人工智能和伦理的讨论几乎发生在联邦政府庞大企业的人工智能领域的每个领域,而且所有这些不同且独立的努力所提出的观点的一致性非常突出。

加拿大安大略省温莎大学工程管理和创业学副教授 Beth-Anne Schuelke-Leech 在“道德人工智能的未来”会议上发言时表示:“我们工程师常常认为道德是一种模糊的东西,没有人真正解释过。” “对于寻求严格约束的工程师来说,被告知遵守道德规范可能很困难。这变得非常复杂,因为我们不知道它的真正含义。”
舒尔克-里奇的职业生涯始于工程师,然后决定攻读公共政策博士学位,这一背景使她能够以工程师和社会科学家的角度看待事物。 “我获得了社会科学博士学位,并回到了工程领域,参与人工智能项目,但以机械工程学院为基地,”她说。
工程项目有一个目标,它描述了目的、一组所需的特性和功能以及一组约束,例如预算和时间表“标准和法规成为约束的一部分,”她说。 “如果我知道我必须遵守它,我就会这么做。但如果你告诉我这是一件好事,我可能会也可能不会采纳。”
Schuelke-Leech 还担任 IEEE 协会技术标准社会影响委员会的主席。她评论道:“来自 IEEE 等自愿合规标准对于业内人士聚集在一起表示这是我们认为作为一个行业应该做的事情至关重要。”
有些标准(例如互操作性标准)不具有法律效力,但工程师遵守这些标准,因此他们的系统可以正常运行。其他标准被描述为良好实践,但不要求遵循。 “它是帮助我实现目标还是阻碍我实现目标,这就是工程师的看法,”她说。
人工智能伦理追求被描述为“混乱且艰难”

隐私未来论坛的高级顾问 Sara Jordan 在与 Schuelke-Leech 的会议中致力于研究人工智能和机器学习的道德挑战,并且是 IEEE 全球道德与自治和智能系统倡议的积极成员。 “道德规范是混乱和困难的,并且充满了背景。我们有大量的理论、框架和构造,”她说,并补充说,“道德人工智能的实践将需要在背景下进行可重复的、严格的思考。”
舒尔克-里奇提出,“道德不是最终结果。它是遵循的过程。但我也在寻找有人告诉我需要做什么来完成我的工作,告诉我如何做到道德,我应该遵循什么规则,以消除歧义。”
“当工程师遇到他们不理解的有趣单词时,比如‘本体论’,他们就会停下来,他们从 13 岁起就开始学习数学和科学,”她说。
她发现很难让工程师参与起草道德人工智能标准。 “谈判桌上缺少工程师,”她说。 “关于我们能否达到 100% 道德的争论是工程师们所没有的。”
她总结道:“如果他们的经理告诉他们要解决这个问题,他们就会这样做。我们需要帮助工程师过桥。社会科学家和工程师不要放弃这一点,这一点至关重要。”
领导者小组描述了将道德融入人工智能开发实践
罗德岛州纽波特美国海军战争学院的课程中越来越多地出现了人工智能的伦理主题,该学院的成立是为了为美国海军军官提供高级学习,现在为各军种的领导人提供教育。该机构国家安全事务军事教授罗斯·科菲 (Ross Coffey) 参加了人工智能世界政府的人工智能、道德和智能政策领导人小组。
科菲说:“学生在处理这些道德问题时,他们的道德素养会随着时间的推移而提高,这就是为什么这是一个紧迫的问题,因为这需要很长时间。”
小组成员卡罗尔·史密斯 (Carole Smith) 是卡内基梅隆大学研究人机交互的高级研究科学家,自 2015 年以来一直致力于将道德规范融入人工智能系统开发。她提到了“揭开”人工智能神秘面纱的重要性。
她说:“我的兴趣在于了解我们可以创建什么样的交互,让人们适当地信任他们正在使用的系统,而不是过度或不足信任它。”她补充道,“一般来说,人们对系统的期望高于应有的期望。”
作为一个例子,她引用了特斯拉自动驾驶功能,该功能在一定程度上实现了自动驾驶汽车的功能,但并不完全。 “人们认为该系统可以执行比其设计目的更广泛的活动。帮助人们了解系统的局限性很重要。每个人都需要了解系统的预期结果以及可能的缓解情况,”她说。
小组成员 Taka Ariga 是第一位被任命为美国政府问责办公室的首席数据科学家,也是政府问责局创新实验室主任,他认为进入联邦政府的年轻劳动力在人工智能素养方面存在差距。 “数据科学家培训并不总是包括道德规范。负责任的人工智能是一个值得称赞的概念,但我不确定每个人都接受它。我们需要他们的责任超越技术方面,并对我们试图服务的最终用户负责,”他说。
小组主持人、IDC 市场研究公司智能城市和社区研究副总裁艾莉森·布鲁克斯 (Alison Brooks) 博士询问人工智能道德原则是否可以跨越国家边界共享。
卡内基梅隆大学的史密斯表示:“我们对每个国家采取相同的具体方法的能力有限,但我们必须以某种方式就我们不允许人工智能做的事情以及人们需要负责的事情进行协调。”
小组成员赞扬欧盟委员会在这些道德问题上走在前列,尤其是在执法领域。
海军战争学院的罗斯承认在人工智能伦理方面找到共同点的重要性。 “从军事角度来看,我们的互操作性需要达到一个全新的水平。我们需要与我们的合作伙伴和盟友就我们将允许人工智能做什么以及我们不允许人工智能做什么达成共识。”不幸的是,“我不知道讨论是否正在进行,”他说。
史密斯建议,关于人工智能伦理的讨论也许可以作为某些现有条约的一部分进行
许多联邦机构提供的许多人工智能道德原则、框架和路线图可能很难遵循并保持一致。 Take 说:“我希望在未来一两年内,我们能够看到合并。”
如需了解更多信息并访问录制的会话,请访问 人工智能世界政府。

