如今,这种比较似乎无处不在。 “这就像核武器,”一位先驱人工智能研究员 说. 顶级 AI 高管将他们的产品比作 核能. 一群行业领袖上周警告说,人工智能技术可能 对人类构成生存威胁,与核战争相当。
人们已经 类比 人工智能进展到分裂原子 为了 年. 但随着人工智能聊天机器人的发布和人工智能创造者呼吁国家和国际监管——就像科学家在 1950 年代呼吁建立管理核武器的护栏一样,这种比较变得更加明显。 一些专家担心人工智能会 裁员或传播虚假信息 在短期内; 其他人担心超级智能系统最终会学会编写自己的计算机代码,摆脱人类控制的束缚,甚至可能决定将我们消灭。 “这项技术的创造者告诉我们他们很担心,”原子科学家公报的主席雷切尔布朗森说,该公报追踪人类对文明的威胁。 “这项技术的创造者正在寻求治理和监管。 这项技术的创造者告诉我们需要注意。”
并非每个专家都认为这种比较合适。 一些人指出,原子能的破坏性是动能的并且已被证明,而人工智能对人类的危险仍然是高度推测的。 其他人则认为,几乎所有技术,包括人工智能和核能,都有 好处 和风险。 “告诉我一种不能用于邪恶事物的技术,我会告诉你一种完全无用的技术,它不能用于任何事情,”纽约大学从事 AI 研究的计算机科学家 Julian Togelius 说。
但这种比较已经变得足够快和频繁,以至于很难知道末日论者和捍卫者是在谈论人工智能还是核技术。 参加下面的测验,看看您是否能分辨出不同之处。
你能说出这些引文是关于哪个主题的吗?
以上引述只是对人工智能和核技术的回应和辩论的一部分。 它们有相似之处,但也有一些显着差异:对原子武器迫在眉睫的毁灭性恐惧; 或者现在人工智能的进步主要是私营公司而不是政府的工作。
但在这两种情况下,将技术带入世界的一些人正在发出最响亮的警报。 “这是关于管理科学进步的风险,”原子科学家公报主席 Bronson 女士在谈到 AI 时说,“这是一个巨大的科学进步,需要引起关注,在这方面可以从核空间中吸取很多教训. 而且你不必将它们等同起来就可以向它们学习。”