人工智能可能会消灭人类,我们需要弄清楚如何在它发生之前控制它。
埃隆·马斯克 (Elon Musk) 和 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 在这一点上达成了共识。 这就是为什么两者竞相构建一个“超级智能”人工智能,它比人类更聪明,但仍然符合人类的兴趣。
这并不是亿万富翁和百万富翁以及前同事第一次正面交锋。
2015 年,马斯克与 Altman 等人共同创立了 OpenAI,即病毒式聊天机器人 ChatGPT 的母公司。 但当马斯克提出要控制这家初创公司以追赶科技巨头时 谷歌之后,奥特曼和其他联合创始人拒绝了这一提议。 马斯克于 2018 年 2 月离开,并改变了对“大规模捐赠计划”的想法。
现在,马斯克的新公司 xAI 正在 创建 AGI 的使命这位亿万富翁在长达近两个小时的演讲中表示,通用人工智能(Artificial General Intelligence)可以“理解宇宙” Twitter 空间讨论 在周五。 AGI 是一种理论上的人工智能,具有类似人类的认知能力,预计至少还需要十年的时间才能开发出来。
马斯克的新公司在 OpenAI 于 7 月 5 日宣布的几天后首次亮相 博客文章 该公司正在组建一个团队来创建自己的超级人工智能,马斯克表示,xAI“肯定会与 OpenAI 竞争”。
xAI 和 OpenAI 都没有立即回应 财富的 请求进一步评论。
从不同方面攻击同一问题
马斯克的做法是 有一只活跃的手 开发这项技术以防止其对人类构成威胁。 他概述了他在他的任期内创造一个“好的”人工智能的计划。 推特 太空谈话。
“构建人工智能最安全的方法实际上是创造一个具有最大好奇心和追求真理的人工智能,”马斯克说。
在一些批评家看来,这种方法是有问题的,因为真相可能是不稳定的、相对的。
例如, 金融时报蒂姆·哈福德 最近,通过参考社会学家弗朗西斯卡·特里波迪(Francesca Tripodi)和心理学家彼得·沃森(Peter Wason)的工作,描述了在网上(特别是在谷歌上)寻找真实答案的挑战。 Tripodi 引用了谷歌搜索“为什么天空是蓝色的?”的例子。 和“为什么天空是白色的?” 并得到不同的答案,而沃森在 20 世纪 60 年代的开创性工作产生了“确认偏见”一词,或者说倾向于寻找支持自己先入为主的信念的答案。
同时, 美国证券交易委员会主席加里·詹斯勒 (Gary Gensler) 的担忧 人工智能有可能扭曲金融市场,甚至可能引发金融危机。 在本周关于人工智能“变革”性质的演讲中,他提到了将投资者“聚集”到单一叙述或某种事实中的潜力。
詹斯勒说,如果每个人都在咨询相同的数据源而做出类似的决定,那么人工智能“可能会鼓励单一文化”。
马斯克并没有被吓倒。 “目前来看,通用人工智能似乎即将发生,所以有两种选择,要么是旁观者,要么是参与者。 作为一名旁观者,一个人无法对结果产生太大影响。”马斯克补充道。 “你不希望出现一个由一家公司在人工智能领域占据主导地位的单极世界。”
与此同时,奥特曼和他的团队似乎采取了更加谨慎的态度,因为首席执行官已经做出了一些决定 评论 表达了对他通过 ChatGPT 所释放的恐惧,ChatGPT 普及了生成式人工智能并促进了该领域的发展。
“一个失调的超级智能 AGI 可能会对世界造成严重伤害; 一个拥有决定性超级智能领先优势的独裁政权也可以做到这一点,”奥特曼在二月份的一篇文章中写道。 博客文章。
OpenAI 的新团队正在开发他们所谓的“自动对准研究员,”这本质上是一种旨在控制超级智能的超级智能。
OpenAI 联合创始人 Ilya Sutskever 和新团队联席负责人 Jan Leike 在博文中写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。”