作者:John P. Desmond,人工智能趋势编辑
美国陆军人工智能集成中心首席数据科学家 Isaac Faber 在大会上发言时表示,卡内基梅隆大学定义的人工智能堆栈是美国陆军为其人工智能开发平台工作所采取的方法的基础。 人工智能世界政府 上周,该活动在弗吉尼亚州亚历山大市以现场和虚拟方式举行。

“如果我们想让陆军通过数字现代化摆脱遗留系统,我发现的最大问题之一是难以消除应用程序的差异,”他说。 “数字化转型最重要的部分是中间层,这个平台可以更轻松地在云端或本地计算机上进行。”我们的愿望是能够将您的软件平台转移到另一个平台,就像新的智能手机可以轻松地继承用户的联系人和历史记录一样。
道德规范贯穿人工智能应用堆栈的所有层,其中规划阶段位于顶部,其次是决策支持、建模、机器学习、海量数据管理以及底部的设备层或平台。
“我主张我们将堆栈视为核心基础设施和应用程序部署的一种方式,而不是在我们的方法中孤立,”他说。 “我们需要为分布在全球的劳动力创造一个发展环境。”
陆军一直致力于开发通用操作环境软件 (Coes) 平台,该平台于 2017 年首次发布,该平台是为国防部工作设计的,具有可扩展、敏捷、模块化、便携和开放的特点。 “它适用于广泛的人工智能项目,”法贝尔说。对于执行这项工作,“细节决定成败,”他说。
陆军正在与卡内基梅隆大学和私营公司合作开发原型平台,其中包括 维西莫 位于宾夕法尼亚州科里奥波利斯,提供人工智能开发服务。法贝尔表示,他更喜欢与私营企业合作和协调,而不是购买现成的产品。他说:“问题在于,你只能局限于该供应商所提供的价值,而这些供应商通常不是为应对国防部网络的挑战而设计的。”
陆军培训一系列人工智能技术团队
陆军为多个团队从事人工智能劳动力开发工作,包括:领导层、具有研究生学位的专业人员;技术人员,经过培训并取得认证;和人工智能用户。
陆军技术团队有不同的重点领域,包括:通用软件开发、作战数据科学、包括分析在内的部署,以及机器学习作战团队,例如构建计算机视觉系统所需的大型团队。 “当人们进入劳动力市场时,他们需要一个协作、构建和共享的地方,”费伯说。
项目类型包括诊断(可能结合历史数据流)、预测和规范(根据预测推荐行动方案)。 “最远的一端是人工智能;你不能从它开始,”费伯说。开发人员必须解决三个问题:数据工程、人工智能开发平台(他称之为“绿色泡沫”)和部署平台(他称之为“红色泡沫”)。
“这些都是相互排斥的,而且都是相互关联的。这些不同人员组成的团队需要以编程方式进行协调。通常一个好的项目团队会有来自每个泡沫区域的人员,”他说。 “如果你还没有这样做,就不要试图解决绿色泡沫问题。除非你有运营需求,否则追求人工智能是没有意义的。”
当被问及哪个群体最难接触和培训时,Faber毫不犹豫地说道,“最难接触的是高管。他们需要了解人工智能生态系统将提供什么价值。最大的挑战是如何传达这种价值。”他说。
小组讨论最具潜力的人工智能用例
在关于新兴人工智能基础的小组讨论中,市场研究公司 IDC 全球智慧城市战略项目总监 Curt Savoie 询问了哪些新兴人工智能用例最具潜力。
美国空军科学研究办公室自主技术顾问让-查尔斯·莱德 (Jean-Charles Lede) 表示:“我会指出支持飞行员和操作员的边缘决策优势,以及任务和资源规划的后方决策优势。”

美国劳工部新兴技术主管克里斯塔·金纳德 (Krista Kinnard) 表示:“自然语言处理是为劳工部打开人工智能大门的机会。” “最终,我们处理的是有关人员、项目和组织的数据。”
萨瓦询问小组成员在实施人工智能时看到的最大风险和危险是什么。
美国总务管理局 (GSA) 联邦人工智能实施总监 Anil Chaudhry 表示,在使用传统软件开发的典型 IT 组织中,开发人员的决策影响有限。对于人工智能,“你必须考虑对整个阶层的人、选民和利益相关者的影响。通过算法的简单改变,你可能会延迟数百万人的受益或大规模地做出错误的推论。这是最重要的风险,”他说。
他说,他要求合同伙伴“让人类参与其中,让人类参与其中”。
金纳德对此表示赞同,他说:“我们无意将人类从循环中剔除。这实际上是为了让人们能够做出更好的决策。”
她强调了人工智能模型部署后监控的重要性。 “模型可能会随着数据变化而发生变化,”她说。 “因此,你不仅需要一定程度的批判性思维来完成任务,还要评估人工智能模型正在做的事情是否可以接受。”
她补充道,“我们已经在政府范围内建立了用例和合作伙伴关系,以确保我们实施负责任的人工智能。我们永远不会用算法取代人类。”
空军的 Lede 表示:“我们经常遇到数据不存在的用例。我们无法探索 50 年的战争数据,因此我们使用模拟。在教授算法时存在的风险是,你存在‘模拟与真实差距’,这是一个真正的风险。你不确定算法将如何映射到现实世界。”
乔杜里强调了人工智能系统测试策略的重要性。他警告开发人员“沉迷于某种工具而忘记了练习的目的”。他建议开发经理设计独立验证和验证策略。 “作为领导者,你必须集中精力进行测试。在投入资源之前,领导者需要心中有一个想法,即如何证明投资是否成功。”
空军的莱德谈到了可解释性的重要性。 “我是一名技术专家。我不做法律。人工智能功能以人类可以交互的方式进行解释的能力很重要。人工智能是我们与之对话的合作伙伴,而不是人工智能得出我们无法验证的结论,”他说。
了解更多信息,请访问 人工智能世界政府。

