首页 > 硬件 > 一夜之间跌去2000亿美元!NVIDIA怎么了
2024
08-30

一夜之间跌去2000亿美元!NVIDIA怎么了

AI需求是否强劲,“卖铲人”第一个感受市场水温。随着云厂商资本支出攀升引发的“AI泡沫论”甚嚣尘上,NVIDIA迎来了最受关注的财报季。当地时间周三收盘后,NVIDIA公布了2025财年Q2财报业绩表现,营收创历史新高——300亿美元,同比增长122%。其中,数据中心业务也破纪录地达到263亿美元。

尽管如此,NVIDIA当日股价持续走低,财报电话会后,该公司股价下跌6.6%。

究其原因,NVIDIA数据中心的环比增长显著放缓,该季度环比只有16%。这表明,云厂商等大客户接下来的资本支出,能否支撑NVIDIA数据中心的高增长,并不确定。电话会上,在被问及如何看待AI资本支出的ROI(投资回报率)时,老黄称:“投资NVIDIA基础设施的人们可以立即获得回报,计算基础设施的投资,是今天有最佳投资回报率的项目。”

言外之意,ChatGPT引发的大模型变革近两年后,确定性的AI机会,仍然只在基础设施层面,这着实考验投资者耐心。

NVIDIA的这份财报给AI半导体圈带来了不小的震荡。和NVIDIA股价一同走低的,还有AI半导体行业上下游的股价。

同一时间,戴尔股价下跌3%、超微股价下跌4%。博通和AMD的股价下跌了约2%。美光科技股价下跌2.6%。芯片设计公司ArmHoldings的股价下跌近3%。

Blackwell推迟出货

截至2024年7月28日的第二季度,NVIDIA总营收300亿美元,较第一季度增长15%,较去年同期增长122%。

一夜之间跌去2000亿美元!NVIDIA怎么了

其中最赚钱的数据中心业务,同比增长154%,达263亿美元。

NVIDIACFOColetteKress解释称,数据中心强劲的增长是由HopperGPU计算平台的需求推动的,该平台用于训练和推理大型语言模型、推荐算法引擎和生成人工智能应用程序。

NVIDIA H200平台从本季度开始量产,向大型云厂商(CSP)、消费者互联网和企业公司供货。与H100相比,H200内存带宽增加了40%以上。

除了大模型相关的使用场景,NVIDIA数据中心的主要使用场景还包括:使用CUDA和AI工作负载对视频、图像和文本数据进行预处理和后处理;合成数据生成;SQL和Vector数据库处理。

在这些计算场景带来的营收上,NVIDIA称Hopper架构的需求仍旧强劲,并预计2025财年下半年出货量将继续增加。同时客户对下一代Blackwell架构的计算单元,需求远超过供给。

其实这一新架构的芯片本该在这一财季批量出货。上个季度,老黄表示Blackwell将在Q2财季开始发货,在Q3增加出货量,并且本财年将看到“Blackwell架构带来的大量收入”。

但本月早些时候,TheInformation爆料NVIDIA下一代计算平台BlackwellGPU的出货将被推迟。

对此,NVIDIA首席财务官Colette Kress表示:“我们对BlackwellGPU掩模(mask)进行了更改,以提高产量。Blackwell的量产计划于第四季度开始,预计第四财季Blackwell营收将达到数十亿美元。”

半导体中的掩模(mask)是设计和制造过程的关键部分,被视为集成电路设计的模板,更换是一个昂贵且耗时的过程。这似乎是导致Nvidia略微延迟Blackwell大批量发货的原因。

值得注意的是,NVIDIA的计算平台整合了处理器、互连、软件、算法、系统和服务。因而,数据中心业务的同比增长主要由计算和网络收入两部分构成。

就网络收入而言,本季度在InfiniBand和以太网(包括Spectrum-X端到端以太网平台)的推动下,NVIDIA数据中心网络收入为37亿美元,同比增长114%。

Kress表示,“AI以太网收入连续翻倍,数百家客户采用了以太网产品,包括马斯克的X.ai。这对我们来说是一个全新的产品,它正在成为一项带来人工智能的数十亿美元的业务。”

在数据中心的业绩表现上,NVIDIA还特别提到了中国市场的力量。Kress称,NVIDIA在中国的数据中心收入在第二财季环比增长,是其数据中心收入的重要贡献者,但其带来的营收占比仍然低于实施出口管制之前的水平。

除了数据中心业务,NVIDIA的其他三个业务部门:游戏、专业可视化和汽车营收也都迎来了不同程度的增长。

其中,游戏收入同比增长16%,环比增长9%。这些增长受GeForce RTX 40系列GPU和游戏机SOC销量的增加。

NVIDIA称,“作为返校季的一部分,第二季度对游戏GPU的需求强劲”。

专业可视化收入同比增长20%,汽车收入同比增长37%。后者是由人工智能驾驶舱解决方案和自动驾驶平台推动的。

终端AI软件应用尚未盈利,数据中心的牵引力还可以持续多久

带着近日对科技股的“死亡凝视”——投资回报率,外界希望从NVIDIA的财报中,能够看到云厂商和其他客户们已经能够获得足够的支出回报,哪怕是能看到获得回报的苗头,从而使得客户有信心能继续投入到NVIDIA的AI硬件中。

但显然,不仅这份财报没有体现,老黄和其CFOKress在电话会上的安抚也未能让大家感到宽慰。

过去一年,随着数据中心业务的暴增,NVIDIA的营收跟着翻了数倍。然而,数据中心的环比增速已经连续四个季度放缓,2025财年Q2的营收只比第一季度增长了16.3%。一年前(2024财年Q2),NVIDIA数据中心营收环比增加140%。这正是这份财报背后的隐忧。

NVIDIA表明,云厂商和消费互联网(ToC)、产业互联网(ToB)公司推动了数据中心的增长。其中,云服务提供商(CSP)约占数据中心收入的45%,消费者互联网和产业互联网公司贡献了超过50%的营收占比。

财报电话会上,老黄拆解这些数据背后的使用分布。除了云厂商等租赁算力的场景之外,消费互联网的AI应用目前主要在推荐算法系统、广告系统和搜索场景。而“从这一季度开始起航”的产业互联网,也只是列举了ServiceNow、SAP等几个SaaS大客户的AI助理场景。

B端、C端都没有出现暴利的、或者可以规模化的AI应用。这种情况下,老黄只能继续给大家科普,为什么NVIDIA数据中心业务开启的是一个一万亿美元的大市场。

首先,对于大模型厂商来说,ScalingLaw依旧是奏效的不二法则,在这种情况下,每当将模型的大小增加一倍时,也必须将数据集的大小增加一倍以上才能训练它。因此,创建该模型所需的失败次数呈二次方增加。因此,下一代模型需要比上一代多10、20、40倍的计算量。算力指数增加的趋势还在延续。

同时,老黄兜售的“主权人工智能”,以国家为界限部署自己的人工智能需求,将在今年为NVIDIA带来几十亿美元的营收。

最后,“加速计算”和“生成式AI”是数据中心业务的绝对拉动力,这是1万亿美元的数据中心市场的“第一性原理”。

过去,数据中心没有GPU,只有CPU。未来,每个数据中心都将配备GPU,因为我们需要加速工作负载来“降本增效”。另一方面,我们需要GPU来实现生成式AI的新时代。

看到这里,你甚至觉得这些话很熟悉,没错,是老黄在任何公开场合都会科普的“愿景”。

经历过那么多个风口,老黄太知道计算的未来了,也太知道要如何把这些未来讲给大家了。只是,这次季报未能等来“耐心资本”。



本文》有 0 条评论

留下一个回复