×
瑞穗证券估计,英伟达控制着用于训练和部署 OpenAI 的 GPT 等模型的 AI 芯片市场的 70% 至 95%。英伟达的定价能力体现在 78% 的毛利率上,对于一家必须制造和运输实体产品的硬件公司来说,这是一个惊人的高数字。
竞争对手芯片制造商英特尔和AMD最新季度的毛利率分别为41%和47%。
一些专家将 Nvidia 在 AI 芯片市场的地位描述为护城河。其旗舰 AI 图形处理单元 (GPU)(例如 H100)与该公司的 CUDA 软件相结合,使其在竞争中占据了先机,以至于转向其他替代产品几乎是不可想象的。
尽管如此,英伟达首席执行官黄仁勋表示,他“担心”这家成立 31 年的公司会失去优势。黄仁勋的净资产在过去五年中从 30 亿美元飙升至约 900 亿美元。他在去年年底的一次会议上承认,许多强大的竞争对手正在崛起。
“我不认为有人想让我破产,”黄仁勋在 11 月表示。“我可能知道他们想这么做,所以这不一样。”
Nvidia 承诺每年发布一种新的 AI 芯片架构,而不是像历史上那样每隔一年发布一种,并推出可以更深入地将其芯片嵌入 AI 软件的新软件。但 Nvidia 的 GPU 并非唯一能够运行生成式 AI 所依赖的复杂数学运算的 GPU。如果性能较弱的芯片也能完成同样的工作,黄仁勋的担忧或许是有道理的。
从训练 AI 模型到所谓的推理(或部署模型)的转变也可能为公司提供替代 Nvidia GPU 的机会,尤其是当它们的购买和运行成本较低时。Nvidia 的旗舰芯片售价约为40,000 美元或更高,这给客户足够的动力去寻找替代品。
“Nvidia 希望能拥有 100% 的市场份额,但客户并不想让 Nvidia 独享 100% 的市场份额,”竞争对手 D-Matrix 的联合创始人 Sid Sheth 说道。“这个机会太大了。如果任何一家公司全部占有,那就太不健康了。”
D-Matrix 成立于 2019 年,计划在今年晚些时候推出一款用于服务器的半导体卡,旨在降低运行 AI 模型的成本和延迟。该公司于 9 月筹集了1.1 亿美元。
除了 D-Matrix,从跨国公司到新兴创业公司,各家公司都在争夺 AI 芯片市场的份额,据市场分析师和 AMD 称,未来五年,该市场的年销售额可能达到 4000 亿美元。过去四个季度,Nvidia 创造了约 800 亿美元的收入,美国银行估计,该公司去年的 AI 芯片销售额为 345 亿美元。
许多采用 Nvidia GPU 的公司认为,不同的架构或某些权衡利弊可以产生更适合特定任务的芯片。设备制造商也在开发技术,最终可能为人工智能完成大量计算,而这些计算目前是在云端的大型 GPU 集群中进行的。
3Fourteen Research 联合创始人 Fernando Vidal向 CNBC 表示:“没有人会否认,如今 Nvidia 是人们训练和运行 AI 模型时最想要的硬件。但从开发自有芯片的超大规模企业,到设计自有芯片的小型初创公司,我们在公平竞争方面已经取得了一些进展。”
AMD 首席执行官 Lisa Su 希望投资者相信该领域有足够的空间容纳许多成功的公司。
“关键在于有很多选择,”苏姿丰去年 12 月在公司推出最新款 AI 芯片时告诉记者。“我认为我们将看到不仅有一个解决方案,还会有多个解决方案。”
传统芯片厂商
AMD 制造用于游戏的 GPU,并像 Nvidia 一样,将其改造用于数据中心内的 AI。其旗舰芯片是 Instinct MI300X。微软已经购买了 AMD 处理器,并通过其 Azure 云提供对它们的访问。
在发布会上,苏姿丰强调了该芯片在推理方面的卓越表现,而不是与 Nvidia 竞争训练。上周,微软表示正在使用 AMD Instinct GPU 为其 Copilot 模型提供服务。摩根士丹利分析师认为,这一消息表明 AMD 的 AI 芯片销售额今年可能超过 40 亿美元,这是该公司公开的目标。
英特尔去年的收入被英伟达超越,目前该公司也在努力在人工智能领域占据一席之地。该公司最近发布了第三版人工智能加速器 Gaudi 3。这一次,英特尔将其与竞争对手进行了直接比较,称其是一种更具成本效益的替代方案,在运行推理方面优于英伟达的 H100,同时在训练模型方面速度更快。
美国银行分析师最近估计,英特尔今年在人工智能芯片市场的份额将不到 1%。英特尔表示,该芯片的订单积压金额达 20 亿美元。
阻碍更广泛采用的主要障碍可能是软件。AMD 和英特尔都加入了一个名为UXL 基金会的大型行业组织,其中包括谷歌,致力于创建 Nvidia CUDA 的免费替代品,用于控制 AI 应用程序的硬件。
除了芯片对手以外,英伟达的客户也在自研芯片。
客户自研芯片
Nvidia 面临的一个潜在挑战是它正在与一些最大的客户竞争。包括谷歌、微软和亚马逊在内的云提供商都在开发用于内部使用的处理器。三大科技公司加上甲骨文,占Nvidia收入的40%以上。
亚马逊于 2018 年推出了自己的人工智能芯片,品牌名称为 Inferentia。Inferentia 目前已推出第二版。2021 年,亚马逊网络服务推出了针对训练的 Tranium。客户无法购买这些芯片,但可以通过 AWS 租用系统,AWS 将这些芯片宣传为比Nvidia 的更具成本效益。
谷歌可能是最致力于自有芯片的云提供商。自 2015 年以来,该公司一直在使用所谓的张量处理单元(TPU) 来训练和部署 AI 模型。今年 5 月,谷歌宣布推出其芯片的第六个版本 Trillium,该公司表示该芯片用于开发其模型,包括 Gemini 和 Imagen。
谷歌也使用 Nvidia 芯片并通过其云端提供这些芯片。
微软在这方面的进展并不快。该公司去年表示,正在开发自己的 AI 加速器和处理器,分别名为 Maia 和 Cobalt。
Meta不是云提供商,但该公司需要大量计算能力来运行其软件和网站并投放广告。虽然 Facebook 母公司正在购买价值数十亿美元的 Nvidia 处理器,但它在 4 月份表示,其部分自主研发的芯片已在数据中心使用,并且与 GPU 相比具有“更高的效率”。
摩根大通分析师 5 月份估计,为大型云提供商打造定制芯片的市场价值可能高达 300 亿美元,并且每年的潜在增长率为 20%。
初创芯片企业
风险投资家看到了新兴公司加入这一领域的机会。根据 PitchBook 的数据,他们在 2023 年向 AI 半导体公司投资了 60 亿美元,略高于一年前的 57 亿美元。
对于初创公司来说,这是一个艰难的领域,因为半导体的设计、开发和制造成本很高。但也存在差异化的机会。
对于硅谷的 AI 芯片制造商 Cerebras Systems 来说,重点是 AI 的基本操作和瓶颈,而不是 GPU 的通用性。据彭博社报道,该公司成立于 2015 年,在最近一次融资中估值为 40 亿美元。
该公司首席执行官安德鲁·费尔德曼 (Andrew Feldman) 表示,Cerebras 芯片 WSE-2 将 GPU 功能以及中央处理和额外内存整合到单个设备中,这更适合训练大型模型。
“我们使用巨型芯片,而他们使用很多小芯片,”费尔德曼说。“他们面临着数据传输方面的挑战,而我们则没有。”
费尔德曼表示,他的公司包括梅奥诊所、葛兰素史克以及美国军方等客户,其超级计算系统正在与 Nvidia 竞争,赢得业务。
费尔德曼说:“竞争非常激烈,我认为这对生态系统来说是有利的。”
D-Matrix 的 Sheth 表示,他的公司计划在今年晚些时候推出一款带有芯片的卡,这样就可以在内存中进行更多计算,而不是在 GPU 等芯片上进行计算。D-Matrix 的产品可以与现有的 GPU 一起插入 AI 服务器,但它可以减轻 Nvidia 芯片的工作量,并有助于降低生成 AI 的成本。
Sheth 说,客户“非常乐于接受新解决方案,并且非常愿意推动其进入市场”。
苹果和高通是X因素
Nvidia 数据中心业务面临的最大威胁可能是处理位置的改变。
开发人员越来越多地押注人工智能工作将从服务器场转移到我们拥有的笔记本电脑、个人电脑和手机。
OpenAI 开发的大型模型需要大量强大的 GPU 集群进行推理,但苹果和微软等公司正在开发“小型模型”,这些模型需要的电量和数据更少,可以在电池供电的设备上运行。它们可能不如最新版本的 ChatGPT 那么熟练,但它们还可以执行其他应用,例如摘要文本或视觉搜索。
苹果和高通正在更新他们的芯片以更有效地运行人工智能,为人工智能模型添加专门的部分,称为神经处理器,这可以具有隐私和速度优势。
高通最近发布了一款 PC 芯片,可让笔记本电脑在设备上运行微软的 AI 服务。该公司还投资了多家芯片制造商,生产低功耗处理器,以便在智能手机或笔记本电脑之外运行 AI 算法。
由于芯片上搭载了神经引擎,苹果一直在宣传其最新款笔记本电脑和平板电脑已针对人工智能进行了优化。在即将召开的开发者大会上,苹果计划展示一系列新的人工智能功能,这些功能很可能会在该公司为 iPhone 提供支持的芯片上运行。