他相信特征可以被内置到人工智能系统中——但不确定。
“我想是的,”奥特曼在接受哈佛商学院高级副院长黛博拉·斯帕采访时被问到这个问题时说道。
人工智能起义的问题曾经纯粹为艾萨克·阿西莫夫的科幻小说或詹姆斯·卡梅隆的动作片保留。但自从人工智能兴起以来,它即使不是一个热点问题,也至少已经成为一个问题。 辩论话题 这值得真正考虑。曾经被视为怪人的想法,现在已成为一个真正的监管问题。
奥特曼表示,OpenAI 与政府的关系“相当有建设性”。他补充说,像开发人工智能这样影响深远、规模庞大的项目应该是政府项目。
“在一个运转良好的社会中,这将是一个政府项目,”奥特曼说。 “鉴于这没有发生,我认为作为一个美国项目,最好以这种方式发生。”
联邦政府尚未在人工智能安全立法方面取得重大进展。加利福尼亚州做出了努力 通过一项法律 那会有 让人工智能开发者承担责任 用于开发大规模杀伤性武器或攻击关键基础设施等灾难性事件。该法案已在立法机关获得通过,但 否决 加利福尼亚州州长加文·纽瑟姆。
人工智能领域的一些杰出人物警告说,确保人工智能完全符合人类的利益是一个关键问题。诺贝尔奖获得者 杰弗里·辛顿被称为人工智能教父的他表示,他“看不到一条保证安全的道路”。 特斯拉 首席执行官埃隆·马斯克经常警告人工智能可能导致人类灭绝。马斯克对 OpenAI 的成立发挥了重要作用,在该非营利组织成立之初就为该非营利组织提供了大量资金。奥特曼仍然提供资金“感激的,”尽管事实上马斯克正在起诉他。
有多个组织,例如非营利组织 对准研究中心 和启动 安全超级智能 由前 OpenAI 首席科学官创立——近年来出现,专门致力于解决这个问题。
OpenAI 没有回应置评请求。
奥特曼说,目前设计的人工智能非常适合对齐。他认为,正因为如此,确保人工智能不会伤害人类比看起来更容易。
他说:“其中一个效果出奇的好就是能够调整人工智能系统以特定的方式运行。” “因此,如果我们能够在一堆不同的情况下阐明这意味着什么,那么,是的,我认为我们可以让系统以这种方式行事。”
对于 OpenAI 和其他开发人员如何准确地“阐明”确保人工智能站在我们这一边所需的原则和理想,Altman 也有一个典型的独特想法:使用人工智能对广大公众进行民意调查。他建议询问人工智能聊天机器人的用户他们的价值观,然后利用这些答案来确定如何调整人工智能来保护人类。
“我对思想实验感兴趣 [in which] 人工智能会与你讨论你的价值体系几个小时,”他说。它“对我和其他人都是如此。然后说‘好吧,我不能一直让每个人都开心。’”
Altman 希望通过“深入”地与数十亿人沟通和理解,人工智能可以更广泛地识别社会面临的挑战。从那时起,人工智能可以就需要采取哪些措施来实现公众的普遍福祉达成共识。
AI 有一个内部团队致力于 超对准,其任务是确保未来的数字超级智能不会失控并造成难以估量的伤害。 2023 年 12 月,该小组发布了一篇早期研究论文,表明其正在研究一个大型语言模型的过程 将监督另一个。今年春天,该团队的领导者 Sutskever 和 Jan Leike 离开了 OpenAI。据报道,他们的团队已解散 报告 来自当时的 CNBC。
Leike 表示,随着 OpenAI 致力于通用人工智能(通用人工智能一词指的是与人类一样聪明的人工智能),他与 OpenAI 领导层关于安全承诺的分歧越来越大。
“建造比人类更聪明的机器本质上是一项危险的工作,”雷克 写了 在 X。 “OpenAI 代表全人类承担着巨大的责任。但在过去的几年里,安全文化和流程已经让位于闪亮的产品。”
当雷克离开后,奥特曼 写在X上 他“非常欣赏 [his] 对 openai 的贡献 [sic] 协调研究和安全文化。”