对人工智能危险的焦虑是 2023 年面临的一个问题,文本转图像生成器和栩栩如生的聊天机器人等工具的迅速采用加剧了这一问题。
对于那些容易担心的人来说,好消息是,您可以将您的不安分为三个整齐的类别:短期人工智能风险、中期风险和长期风险。 Anthropic 联合创始人兼首席执行官达里奥·阿莫迪 (Dario Amodei) 就是这么做的。
阿莫代应该知道。 2020年他离开了ChatGPT的制造商OpenAI, 共同创立人类 其原则是,随着计算能力的增加,大型语言模型的能力会呈指数级增长,因此,这些模型的设计必须从头开始就考虑到安全性。 5月,公司 筹集了 4.5 亿美元资金。
在会上发言 《财富》科技头脑风暴大会 周一在犹他州鹿谷,阿莫迪提出了他的三层恐惧模型,以回答《财富》杂志杰里米·卡恩关于人工智能带来的生存风险的问题。以下是阿莫迪对人工智能的担忧:
- 短期风险:我们今天面临的问题,“围绕偏见和错误信息等”。
- 中期风险:“我认为几年后,随着模型在科学、工程、生物学等方面变得越来越好,你可能会用模型做一些非常糟糕的事情,而没有它们你就无法做到。”
- 长期风险:“当我们研究具有代理关键属性的模型时——这意味着它们不仅输出文本,而且可以做事情,无论是通过机器人还是在互联网上——那么我认为我们必须担心他们变得过于自主,很难阻止或控制他们所做的事情。 我认为最极端的情况是对存在风险的担忧。”
大型语言模型的用途非常广泛。 它们可以应用于多种用途和场景——“其中大多数都很好。 但其中潜伏着一些坏人,我们必须找到它们并阻止它们,”阿莫代说。
他建议,我们不应该“惊慌”存在的长期风险情景。 “它们不会在明天发生,但随着我们继续人工智能指数增长,我们应该明白这些风险已经到了指数的末尾。”
但当卡恩问他最终对人工智能是乐观主义者还是悲观主义者时,这位 Anthropic 首席执行官给出了一个矛盾的回答,要么令人欣慰,要么令人恐惧,这取决于你是半满还是半空的类型。人:“我的猜测是事情会进展得很顺利。 但存在出错的风险,可能有 10% 或 20%,我们有责任确保这种情况不会发生。”