纳文·拉奥(Naveen Rao)是一位神经科学家,后来转型为科技企业家,他曾试图与 英伟达,全球领先的人工智能定制芯片制造商。
在半导体巨头英特尔后来收购的一家初创公司中,拉奥先生致力于开发旨在取代 Nvidia 的图形处理单元,这些组件适用于机器学习等人工智能任务。 拉奥表示,虽然英特尔行动缓慢,但英伟达却迅速升级其产品,推出新的人工智能功能,与他正在开发的产品相抗衡。
离开英特尔并领导一家软件初创公司 MosaicML 后,Rao 先生使用 Nvidia 的芯片,并将其与竞争对手的芯片进行比较。 他发现,英伟达通过创建一个庞大的人工智能程序员社区,让自己在芯片领域脱颖而出,这些程序员始终使用该公司的技术进行发明。
“每个人都首先以 Nvidia 为基础,”Rao 先生说。 “如果你推出了一款新硬件,你就会奋力追赶。”
十多年来,Nvidia 在生产芯片方面建立了几乎坚不可摧的领先地位,这些芯片可以执行复杂的人工智能任务,如图像、面部和语音识别,以及为聊天机器人生成文本,例如 聊天GPT。 这家曾经的行业新贵通过尽早认识人工智能趋势、根据这些任务定制芯片、然后开发有助于人工智能开发的关键软件来实现这一主导地位。
Jensen Huang英伟达联合创始人兼首席执行官自此不断提高标准。 为了保持其领先地位,他的公司还为客户提供专用计算机、计算服务和新兴行业的其他工具。 无论出于何种意图和目的,这已经将 Nvidia 变成了人工智能开发的一站式商店。
据研究公司 Omdia 称,虽然谷歌、亚马逊、Meta、IBM 等公司也生产了 AI 芯片,但 Nvidia 目前占据了 AI 芯片销售额的 70% 以上,并且在训练生成式 AI 模型方面占据着更大的地位。
今年 5 月,该公司作为人工智能革命最明显赢家的地位变得显而易见,该公司预计季度收入将增长 64%,远远超出华尔街的预期。 周三,英伟达 (Nvidia) 突破1万亿美元 市值成为全球最有价值的芯片制造商——预计将证实这些创纪录的业绩,并提供更多关于人工智能需求蓬勃发展的信号。
Futurum Group 分析师丹尼尔·纽曼 (Daniel Newman) 表示:“客户会等待 18 个月才能购买 Nvidia 系统,而不是从初创公司或其他竞争对手那里购买现成的芯片。” “这太不可思议了。”
60 岁的黄先生以标志性的黑色皮夹克而闻名,在成为该运动最知名的人物之一之前,他多年来一直在谈论人工智能。 他曾公开表示,自 60 年前 IBM 定义了大多数系统和软件的运行方式以来,计算技术正在经历最大的转变。 他说,现在,GPU 和其他专用芯片正在取代标准微处理器,人工智能聊天机器人正在取代复杂的软件编码。
“我们的理解是,这是对计算方式的重新发明,”黄先生在接受采访时说。 “我们从头开始构建一切,从处理器一直到最终。”
黄先生于 1993 年帮助创办了 Nvidia,生产在视频游戏中渲染图像的芯片。 虽然标准微处理器擅长按顺序执行复杂的计算,但该公司的 GPU 可以同时执行许多简单的任务。
2006年,黄先生更进一步。 他宣布了名为 CUDA 的软件技术,该技术可以帮助对 GPU 进行编程以执行新任务,将它们从单一用途芯片转变为可以承担物理和化学模拟等领域其他工作的更通用的芯片。
2012 年取得了重大突破,当时研究人员使用 GPU 在识别图像中的猫等任务中实现了类似人类的准确性,这是根据文本提示生成图像等最新发展的先驱。
詹森最近在国立台湾大学的毕业典礼演讲中表示,英伟达的回应是“调动公司的各个方面来推进这个新领域”。
该公司估计,这项工作在十年间花费了超过 300 亿美元,使 Nvidia 不仅仅是一家零部件供应商。 除了与顶尖科学家和初创企业合作外,该公司还建立了一支直接参与创建和训练语言模型等人工智能活动的团队。
关于人工智能从业者的需求的预先警告促使 Nvidia 开发了 CUDA 之外的多层关键软件。 其中包括数百个预先构建的代码,称为库,可以为程序员节省劳动力。
在硬件方面,英伟达因每隔几年持续提供更快的芯片而享有盛誉。 2017 年,它开始调整 GPU 以处理特定的人工智能计算。
同年,通常为其他公司的系统销售芯片或电路板的英伟达也开始销售完整的计算机,以更有效地执行人工智能任务。 它的一些系统现在已经达到超级计算机的大小,使用专有的网络技术和数千个 GPU 来组装和运行。 此类硬件可能会运行数周来训练最新的人工智能模型。
“这种类型的计算不允许你只构建一个芯片,然后让客户使用它,”黄先生在采访中说。 “你必须构建整个数据中心。”
去年 9 月,Nvidia 宣布生产名为 H100 的新芯片,并对其进行了增强,可以处理所谓的变压器操作。 事实证明,此类计算成为 ChatGPT 等服务的基础,这些服务催生了黄先生所说的生成式人工智能的“iPhone 时刻”
为了进一步扩大影响力,英伟达最近还与大型科技公司建立了合作伙伴关系,并投资了使用其芯片的知名人工智能初创企业。 一个是 词形变化人工智能6 月,该公司宣布获得 Nvidia 等公司 13 亿美元的融资。 这笔钱用于帮助购买 22,000 个 H100 芯片。
Inflection 首席执行官穆斯塔法·苏莱曼 (Mustafa Suleyman) 表示,没有义务使用 Nvidia 的产品,但竞争对手没有提供可行的替代方案。 “他们都没有接近,”他说。
Nvidia 最近还将现金和稀缺的 H100 投入到新兴的云服务上,例如 CoreWeave,该服务允许公司租用计算机时间,而不是购买自己的时间。 CoreWeave 将运营 Inflection 的硬件,并拥有超过 45,000 块 Nvidia 芯片,该公司本月筹集了 23 亿美元的债务,以帮助购买更多芯片。
鉴于对其芯片的需求,英伟达必须决定谁获得多少芯片。 这种力量让一些科技高管感到不安。
Hugging Face 是一个与 Nvidia 及其竞争对手合作的语言模型在线存储库,其首席执行官克莱门特·德兰格 (Clément Delangue) 表示:“硬件不要成为人工智能的瓶颈或人工智能的看门人,这一点非常重要。”
一些竞争对手表示,很难与一家销售计算机、软件、云服务、训练有素的人工智能模型以及处理器的公司竞争。
“与任何其他芯片公司不同,他们一直愿意与客户公开竞争,”该公司首席执行官安德鲁·费尔德曼 (Andrew Feldman) 表示。 大脑,一家开发AI芯片的初创公司。
但很少有顾客抱怨,至少是公开抱怨。 即使是十多年前就开始制造竞争性人工智能芯片的谷歌,也依赖英伟达的 GPU 来完成一些工作。
谷歌副总裁兼计算基础设施总经理阿明·瓦达特 (Amin Vahdat) 表示,对谷歌自家芯片的需求“巨大”。 但是,他补充道,“我们与 Nvidia 合作非常密切。”
Nvidia 没有讨论价格或芯片分配政策,但行业高管和分析师表示,每个 H100 的成本为 15,000 美元到 40,000 美元以上,具体取决于封装和其他因素 – 大约是前代 A100 芯片的两到三倍。
亚马逊云部门副总裁戴维·布朗(David Brown)表示,定价“是英伟达为其他公司留下很大竞争空间的地方”。他认为,与它也使用的英伟达芯片相比,自家的人工智能芯片很便宜。
黄先生表示,他的芯片的更高性能为客户节省了资金。 他表示:“如果能够将价值 50 亿美元的数据中心的训练时间减少一半,节省的费用将超过所有芯片的成本。” “我们是世界上成本最低的解决方案。”
他还开始推广一款新产品 Grace Hopper,该产品将 GPU 与内部开发的微处理器相结合,对抗竞争对手称运行人工智能服务能耗低得多的芯片。
尽管如此,更多的竞争似乎不可避免。 Rao 先生表示,这场竞赛中最有前途的竞争者之一是 Advanced Micro Devices 销售的 GPU,该公司的初创公司最近被数据和人工智能公司 DataBricks 收购。
AMD 首席执行官苏姿丰 (Lisa Su) 表示:“无论人们如何说一切都完成了,但事情还没有完成。”
凯德·梅斯 贡献了报告。
音频制作者 塔利·阿贝卡西斯。