过去一个月,硅谷的情绪诡异地分裂:

一边是华尔街开始担心“AI 泡沫”;另一边则是 Google、Nvidia、OpenAI 等巨头疯狂扩建数据中心,算力永远不够。

这种割裂,在最新流出的谷歌内部全员会上,再一次被搬上了讨论桌。

谷歌核心高管上来就点名:每6个月就得扩充算力1000倍!

而CEO Sundar Pichai 则更为直白为明年定下了基调:2026年会是紧张的一年,大家不要躺在功劳簿上!

谷歌内部全员会:

算力每半年就得涨1000倍,否则“死”

本月初, 11 月 6 日的全员会上,Google 负责 AI 基础设施的最高负责人 Amin Vahdat 给员工展示一页 PPT,可以说数字让人惊掉了下巴。

上面写着:

“现在我们必须每 6 个月翻一番……未来 4 到 5 年实现 1000 倍增长。”

这是 Google 内部首次明确提出“半年翻倍”的算力目标,意味着工程和资金压力将以指数级方式上涨。

Vahdat 接着说:

“AI 基础设施的竞争,是整个 AI 竞赛中最关键、也最昂贵的部分。”
“我们会花很多钱,但目标不是比竞争对手砸得更多,而是打造全行业最可靠、最高性能、最可扩展的基础设施。”

尽管计算能力提升1000倍听起来雄心勃勃,但 Vahdat 同时指出了一些关键的限制——

“我们必须在成本几乎不变、能耗几乎不变的情况下,在未来五年把算力、存储和网络能力提升 1000 倍。这不容易,但通过协作和共同设计,我们会做到。”

这基本意味着:Google 必须在有限电力与有限预算的前提下,让算力跃迁到另一个时代。

CEO提醒:2026 年会“非常紧张”

最大瓶颈不是用户,而是算力

另外,谷歌 CEO Sundar Pichai 也非常直白的在会上释放了一个预警:

“2026 年将会是非常紧张(intense)的一年。”

原因是 AI 竞争和满足云及算力需求的压力。

内部员工也很犀利,直接对着CEO提问:

“在 AI 投资巨大且市场讨论潜在泡沫破裂的情况下,如果 AI 市场未能如预期成熟,我们如何确保长期可持续性与盈利?”

Pichai 承认了这种担忧:“这是个很好的问题。这绝对是当下的时代氛围,大家都在讨论。”

随后他重申了过去的观点——过度保守、不够积极投入的风险更高。

他在这里点名了谷歌的云业务,其在本季度取得了 34% 的同比增长,收入超 150 亿美元,积压订单达到 1550 亿美元。

这种阶段总是很难,因为投入不足的风险非常高。

我甚至认为,如果我们拥有更多计算资源,云业务本可以更强劲,业绩会更好。

当然对于泡沫带来的风险,谷歌也有所准备,他表示,公司遵循纪律性路径,依托坚实的核心业务和强健的资产负债表。

“我们比其他公司更有能力承受失误。”

随后他举了 Veo(Google 的视频生成产品)的例子:

如果我们能在 Gemini App 中把它提供给更多用户,我们会获得更多用户,但我们做不到,因为我们受限于算力。

可以看出,谷歌更在乎的瓶颈,绝不是泡沫,而是算力资源远远不够发展节奏。

对此,展望2026年,Pichai 表示:

市场情绪毫无疑问会有起伏。

这是竞争非常激烈的时刻,你不能躺在功劳簿上。我们还有很多艰苦工作要做,但我认为我们有足够实力穿越当前阶段。

巨头排队抢卡是事实,已经顾不上担心泡沫

事实上,整个硅谷都在被同样的问题压着。

本周 Nvidia 发布财报,CEO 黄仁勋直接反驳外界的“AI 泡沫论”:

“我们看到的是完全不同的情况。”

Nvidia 的数据中心业务单季度暴涨,再次“供不应求”。Google、OpenAI、Meta、Amazon 全都在排队抢 GPU。

但即便如此,仍然不够。

Google、Microsoft、Meta、Amazon 的资本开支今年总和超过 3800 亿美元,并且还在继续涨。

是不是泡沫放一边,算力短缺确实是不争的事实

  • 市场需求很大,并不是不够

  • 但是,基础设施无法支撑需求

  • 巨头们必须先把地基打够深,才能继续往上走

谷歌如何实现1000倍扩张?

自研 TPU + DeepMind 的效率革命

除了构建必要的物理基础设施以外,Amin Vahdat 在会上点出了谷歌的两张底牌:

其一,自研 AI 芯片(Ironwood,第七代 TPU)

他强调:

“我们通过更高效的模型和自研芯片来增强容量。”

就在上周,谷歌刚刚发布的 TPU Ironwood,比 2018 年第一代 Cloud TPU 能效提升近 30 倍。也就是说,Google 正在用芯片效率去对抗算力瓶颈。

其二,DeepMind 的未来模型研究。

会上,Vahdat 还提到了新形态模型的研究:

“DeepMind 在未来模型方向上的研究,是我们的巨大优势。”

外界普遍将此解读为:

谷歌的未来路径或不是“买更多 GPU”,而是“用更聪明的模型减少对 GPU 的需求”。

关于这一点,越来越多的AI圈人士表示认同,就连 tranformer 之父前不久也公开表示,已经受不了现有的 Tranformer 模型了。(只能靠堆参数、堆算力才能获得大幅 Scaling 的能力,属实难受。)

而这两点,也是未来五年,所有巨头都必须奔向的方向。

硅谷的真正分歧:跑得是否够快

会上,还有一位员工问 Google CFO Anat Ashkenazi:

资本开支涨得比收入还快,未来现金流怎么办?

CFO 回答得非常“硅谷”:

“摆在我们面前的机会太大了,我们不能错过这个势头。”

其实潜台词还是一个“卷速度”的逻辑。

你不投,别人投;你不扩产,别人扩;你不涨算力,用户就会去竞品那里。

这也一直是硅谷的主流判断:

  • 短期:资本市场确实有泡沫情绪;

  • 长期:算力需求远未触顶,巨头必须在这个窗口期全力扩建。

对于谷歌这样的巨无霸来说,唯一危险,只有落后

毕竟,OpenAI 这个实力强横的对手早已亮剑,联手软银、甲骨文打造“星际之门”,3 年内投入 4000 亿美元,这可不是闹着玩的。

参考链接:

https://www.cnbc.com/2025/11/21/google-must-double-ai-serving-capacity-every-6-months-to-meet-demand.html

更多推荐