ADVERTISEMENT

伊隆马斯克和技术高管呼吁“暂停”人工智能开发

152
分享
1.9k
观点
ADVERTISEMENT

超过 2,600 名技术领袖和研究人员签署了一封公开信,敦促暂时“暂停”进一步的人工智能 (AI) 开发,担心“对社会和人类造成深远风险”。

特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及众多 AI 首席执行官、首席技术官和研究人员都在这封信的签署人之列,这封信是 创作的 由美国智库未来生命研究所(FOLI)于 3 月 22 日发布。

该研究所呼吁所有人工智能公司“立即暂停”训练比 GPT-4 更强大的人工智能系统至少六个月,共同担心“人类竞争情报可能对社会和人类构成深远风险”等。 :

“先进的人工智能可能代表地球生命史上的深刻变化,应该以相称的关怀和资源来规划和管理。 不幸的是,这种水平的规划和管理并没有发生,”该研究所在信中写道。

GPT-4 是 OpenAI 人工智能聊天机器人的最新版本,于 3 月 14 日发布。迄今为止,它已经通过了一些最严格的测试 美国高中和法律考试在 90% 以内。 据了解,它比原始版本的 ChatGPT 先进 10 倍。

FOLI 声称,人工智能公司之间存在一场“失控的竞赛”,以开发更强大的人工智能,“没有人——甚至他们的创造者——无法理解、预测或可靠地控制。”

最令人担忧的是机器是否会淹没信息渠道,可能会带来“宣传和谎言”,以及机器是否会“自动夺走”所有就业机会。

FOLI 将这些担忧更进一步,表明这些人工智能公司的创业努力可能会导致生存威胁:

“我们是否应该发展最终可能超过我们、超越我们、过时并取代我们的非人类思维? 我们应该冒险失去对我们文明的控制吗?”

“此类决定不得委托给未经选举的技术领导者,”信中补充道。

该研究所还同意 最近的 OpenAI 创始人 Sam Altman 的声明表明,在训练未来的 AI 系统之前可能需要进行独立审查。

Altman 在他 2 月 24 日的博客文章中强调了为通用人工智能 (AGI) 和人工超级智能 (ASI) 机器人做准备的必要性。

不过,并非所有 AI 专家都急于签署请愿书。 SingularityNET 的首席执行官 Ben Goertzel 在 3 月 29 日对 Rebooting.AI 的作者 Gary Marcus 的 Twitter 回复中解释说,语言学习模型 (LLM) 不会成为 AGI,迄今为止,已经有 的发展很少。

相反,他说生物武器和核武器之类的研究和开发应该放慢:

除了像 ChatGPT 这样的语言学习模型,人工智能驱动的 深度造假技术 已被用于创建令人信服的图像、音频和视频恶作剧。 该技术还被用于创建 AI 生成的艺术品,有人担心它在某些情况下是否会违反版权法。

有关的: ChatGPT 现在可以使用新的 OpenAI 插件访问互联网

Galaxy Digital 首席执行官 Mike Novogratz 最近告诉投资者 他很震惊 监管机构对加密货币给予了过多的关注,而对人工智能的关注却很少。

“当我想到 AI 时,令我震惊的是我们谈论了这么多关于加密货币的监管,而对 AI 监管却一无所知。 我的意思是,我认为政府完全颠倒了,”他在 3 月 28 日的股东电话会议上表示。

FOLI 认为,如果不迅速实施人工智能开发暂停,政府应该参与暂停。

“这种暂停应该是公开的和可验证的,并且包括所有关键参与者。 如果不能迅速实施这样的暂停,政府应该介入并暂停,”它写道。

杂志: 如何使用区块链防止人工智能“歼灭人类”