## 英伟达卖铲，谷歌建厂：两套AI叙事背后，格局已变
3月的GTC 2026，黄仁勋将数据中心定义为"生产Token的工厂"，预测这一市场到2027年将达万亿美元规模。不到六周后的Google Cloud Next 2026，桑达尔·皮查伊给出了另一组数据：谷歌每分钟处理160亿个token，上季度还是100亿，资本开支高达1750亿至1850亿美元。两人都在谈Token，但一个是供给视角，一个是消耗视角——这场竞争的本质，已经悄然位移。

英伟达卖的是生产资料。GPU作为通用算力，从OpenAI到Meta，从字节跳动到主权基金，几乎所有头部AI玩家都在其客户名单之列。CUDA生态汇聚超600万全球开发者、900余个加速库，二十年的生态飞轮早已成为AI算力底层的标准件。2025财年，NVIDIA数据中心业务收入超过1150亿美元，同比增长超200%，毛利率维持在75%以上，在全球AI加速器市场占据约80%份额。换言之，每10块AI算力芯片中，至少8块来自英伟达。这是一门典型的"卖铲子"生意，而且是所有人都离不开的那种。

谷歌的路径截然不同。它不卖单一工具，而是自建完整体系：自研TPU芯片、训练Gemini模型、运行于Google Cloud之上，再对外输出服务。Google云业务年收入已接近600亿美元，过去一年增长约50%，AI需求成为最核心驱动力。这更像是先建一座完整工厂，再将富余产能对外输出。英伟达的逻辑是把设备卖给所有人，谷歌的逻辑是先让体系跑起来，再让别人接入。一个掌握生产资料，一个在组织生产过程——这不是同一场竞争。

值得注意的是，谷歌自2017年TPU v2起至2025年v7 Ironwood，六代产品均采用单颗通用芯片同时承载训练与推理任务。但从最新披露看，TPU的结构设计正发生关键变化，从"一把刀切所有"转向更精细的分工。这一调整意味着什么，值得持续跟踪。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 英伟达, 谷歌, TPU, GPU, AI算力
- **Credibility**: unverified
- **Published**: 2026-04-24 04:27:32
- **ID**: 76669
- **URL**: https://whisperx.ai/en/intel/76669