在由OpenAI旗下ChatGPT引领的人工智能(AI)热潮中,芯片巨头英伟达(NVDA.US)无疑是最耀眼的“明星”,一份亮眼的财报和今年以来近160%的股价涨幅足以证明。不过,在可预见的激烈市场竞争里,英伟达的前方并非一路坦途。
一、AI热潮带飞英伟达 需求激增有望提振未来业绩
(资料图片仅供参考)
智通财经APP获悉,英伟达在5月24日美股盘后公布的2024财年第一季度财报显示,营收同比下降13%至71.9亿美元,但好于市场预期的65亿美元,13%的同比降幅也低于上一季度21%的同比降幅。调整后的每股收益为1.09美元,同样好于市场预期的0.92美元。调整后的毛利率为66.8%,与市场预期基本一致;调整后的利润率为37.8%,好于市场预期的34%。
按业务划分,游戏业务营收同比下降38%至22.4亿美元,但好于市场预期的19.8亿美元,同时较上一季度增长了22%。英伟达称,游戏业务营收下滑是由于宏观经济增长放缓造成的需求疲软、以及渠道库存的正常化导致其出货量下降。
AI芯片所在的数据中心业务的营收同比增长14%至42.8亿美元,创下历史新高,好于市场预期的39.1亿美元,同时较上一季度增长18%。英伟达推出的A100/H100 GPU(图形芯片)极度适合AI训练和运行机器学习软件,是支持ChatGPT等生成式人工智能和大型语言模型的最关键底层硬件。
英伟达表示,其数据中心业务的营收增长是由“大型消费者互联网公司和云服务提供商的强劲需求”推动的。该公司表示,这些客户正在部署其GPU,以支持生成式人工智能和大型语言模型。
值得注意的是,最令市场惊喜的在于英伟达给出的第二季度营收指引。英伟达预计,第二季度营收将达到110亿美元左右,较市场预期的71.8亿美元高出53%。这一指引表明,全球企业布局AI将对英伟达业绩带来极大的提振。如此乐观的展望也推动了英伟达在5月25日收涨超24%,市值逼近1万亿美元。
英伟达首席执行官黄仁勋表示,该公司看到对其数据中心产品的“需求激增”。黄仁勋进一步指出,英伟达已做好充分准备,可以从AI热潮带来的机会中获益,因为该公司在去年人们对AI的兴趣激增时就开始为数据中心生产新一波的先进硬件。英伟达首席财务官Colette Kress指出,需求的进一步激增将远远超出第一季度,未来需求的可见性已经“延续了几个季度”。
根据英伟达的预测,其数据中心客户的销售额可能在三个月内翻一番,增长来自广泛领域的客户,包括消费者互联网公司、云计算提供商和企业客户等,他们都急于将生成人工智能应用到业务中。投行Edward Jones分析师Logan Purk认为:“生成式人工智能淘金热的发生应该会在今年余下时间刺激对英伟达芯片的需求。”
瑞银首席投资官Solita Marcelli预计,人工智能硬件和人工智能相关服务市场规模将以高达20%的复合年增长率增长,到2025年将达到900亿美元。Solita Ma表示:“考虑到机器学习和深度学习能力的进步,我们的预计仍然较为保守,大语言模型和其他生成式AI技术的增长可能比预期的更快。”
知名市场研究机构Mordor Intelligence预测,到2028年,企业人工智能市场的总规模将以每年52%的速度快速增长。市场调研机构Technavio在4月公布的一份最新研报显示,AI芯片的市场规模预计在2022-2027年期间以高达惊人的61.51%的复合年增长率爆炸式增长。
二、科技巨头纷纷入局自研AI芯片 英伟达并非稳坐“王位”
得益于强大的产品组合和GPU性能优势,英伟达在数据中心市场的竞争力不断增强,2022年在GPU市场所占份额为82%。英伟达表示,该公司正在与亚马逊(AMZN.US)、微软(MSFT.US)和谷歌(GOOG.US)等合作开发生成人工智能,并与云计算公司合作,帮助小型企业使用生成人工智能。在获得了更多的合作伙伴关系以及继续拓展其产品组合之际,英伟达有望继续通过其产品组合的广度和性能优势获取市场份额。
当前,手握A100、H100系列芯片的英伟达无疑仍是“AI算力王者”。然而,不管是为了降低成本,还是减少对英伟达的依赖、提高议价能力,科技巨头们也都纷纷下场自研AI芯片。
云计算巨头亚马逊已拥有两款AI专用芯片,即训练芯片Trainium和推理芯片Inferentia。Meta(META.US)在本月早些时候透露,该公司正在构建首款专门用于运行AI模型的定制芯片——MTIA(Meta Training and Inference Accelerator)芯片,预计于2025年问世。
此外,据报道,微软正在提供财务支持以加强AMD(AMD.US)研发AI芯片的努力,并与之合作开发代号为“Athena”的自研AI芯片。报道称,微软自2019年以来就一直在开发一款定制的专用芯片,用于为大型语言模型提供动力,目前已在测试阶段。微软希望这款芯片的性能比其斥资数亿美元从其他供应商侧购置的芯片性能更优,这样就可以为价格高昂的人工智能工作节省成本。
值得一说的是近年来在AI芯片上一直与英伟达暗暗较劲的谷歌。最早大规模采购英伟达的GPU进行AI计算的谷歌在2016年推出了TPU(Tensor Processing Unit),以解决英伟达的GPU在深度神经网络应用中存在的内存问题。谷歌的TPU从设计、验证、量产到最后部署进自家数据中心只花了15个月的时间。经过测试,TPU在CNN、LSTM、MLP等AI场景下的性能和功耗大大胜过了英伟达同期的GPU。
2016年以后,谷歌的TPU更新了3代,2021年推出的TPUv4比英伟达的A100计算速度快1.2~1.7倍,同时功耗降低1.3~1.9倍。值得一提的是,并不对外出售TPU,而是将TPU部署在自家的云服务系统中并对外提供AI算力服务,这无疑压缩了英伟达的潜在市场。本轮AI热潮中同样火爆的AI绘图公司Midjourney和聊天机器人Claude所属的人工智能初创公司Authropic都没有购买英伟达的GPU搭建超算,而是使用谷歌的算力服务。
面对谷歌的“背刺”,英伟达也没有坐以待毙。在谷歌推出TPU的5个月后,英伟达推出了Pascal架构,大幅提升了连接带宽和神经网络的计算效率。2017年,英伟达又推出了首个专为深度学习设计的架构Volta。2022年,英伟达又推出了基于Hopper架构的“地表最强GPU”H100。
尽管被称为“终极缝合怪”的H100目前暂时还没有遇到比它更强的量产芯片,但谷歌和英伟达之间的你来我往让业界确信,GPU并不是AI的最优解,定制化专用芯片(ASIC)有破解英伟达垄断地位的可能性,毕竟谁都想在这个市场分一杯羹,全球云计算市场前五大厂商——亚马逊、微软Azure、谷歌云、阿里云和IBM(IBM.US)——也都在研发自己的AI芯片。
除了大客户可能“另起炉灶”之外,一些中小公司也在试图分走英伟达的蛋糕,例如英国的AI芯片初创公司Graphcore,该公司的估值一度达到28亿美元。
AI的发展日新月异。有市场人士表示,如果想让AI对人类生活的渗透像个人电脑、智能手机普及时那样大幅提升,那么算力成本可能需要下降99%,而GPU或许不是解决这个问题的唯一答案。正如研究公司Forrester的主管Glenn O'Donnell所说的那样:“如果你能制造出针对人工智能进行优化的芯片,那么你就会取得巨大的胜利。”英伟达的“王者地位”无疑将受到来自四面八方的挑战。
标签: