为什么AI时代不只是拼命建数据中心

AI PM 编辑部 · 2025年08月01日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

Hyperbolic创始人Jasper Zhang提出:AI算力危机的解法不在于无限建数据中心,而在于把大量闲置GPU重新组织起来,像电力市场一样高效流通。

为什么AI时代不只是拼命建数据中心

Hyperbolic创始人Jasper Zhang提出:AI算力危机的解法不在于无限建数据中心,而在于把大量闲置GPU重新组织起来,像电力市场一样高效流通。

一个反直觉的开场:我们并不缺数据中心

“Why we don’t need more data centers”是Jasper Zhang演讲一开始抛出的标题,也是一句刻意的挑衅。他很快澄清:数据中心当然重要,但“仅仅靠建数据中心,解决不了问题”。这个判断的背景是AI需求的爆炸式增长。按照他引用的麦肯锡预测,到2030年,全球需要在四分之一的时间里建成过去四倍的数据中心规模。问题在于,这个速度在现实世界里几乎不可能实现。

Jasper给出了一组冷静但刺眼的数据:当前美国数据中心容量约为55吉瓦,需求却以约22%的年复合增长率上升。即便所有规划中的项目都按时交付,到2030年,美国仍将面临超过15吉瓦的算力缺口。更糟的是,建设本身极慢、极贵:单个大型数据中心动辄数十亿美元,接入电网在北弗吉尼亚甚至要排队7年。他用一句话点破症结:“我们面对的不是单纯的供给不足,而是系统性低效。”

真正的浪费:80%的GPU时间在“睡觉”

为什么在GPU一边难求的同时,问题依然无法缓解?Jasper把矛头转向了利用率。他引用行业数据指出,在企业环境中,GPU平均有约80%的时间处于闲置状态。与此同时,市场上存在100多个GPU云,供应极度碎片化:有需求的人找不到算力,拥有算力的人却用不满。

这正是他认为“继续建数据中心意义有限”的核心原因。如果低效依旧存在,新建的算力很快也会被锁死在长期合同和低利用率中。他在台上直言:“一边是创业者被高价GPU逼疯,一边是大量GPU在机房里吃灰。”在他看来,这个矛盾本身就说明问题不在总量,而在分配方式。解决方案不应该是继续堆硬件,而是像金融市场、电力市场那样,建立一个统一、高流动性的算力市场。

Hyperbolic的解法:把GPU做成一种“商品”

基于这种判断,Jasper和团队创建了Hyperbolic,一个面向开发者的AI云,其核心不是新建机房,而是一个GPU市场和全球调度层。他们开发的软件叫HyperDOS,本质上是一个Kubernetes代理。任何集群只需几分钟安装,就能加入Hyperbolic网络,成为可被调度的算力节点。

在这个体系里,用户不再被迫提前一年锁定算力,而是可以按需租用:现货、按需、长期预留,甚至直接托管模型。Jasper形容这是一种“匹配问题”的解决方案,让GPU真正商品化,“你不需要等数据中心建好,只需要在市场上买算力”。他们的测试结果相当激进:通过聚合分散供给、均衡需求,整体成本可下降50%到75%。他现场给出的数字是,Hyperbolic上H100的价格约为0.99美元/小时,而Google云按需价格约为11美元/小时。

一个具体算账案例:4300万美元如何变成690万

为了让听众真正理解差异,Jasper讲了一个具体的创业场景。假设一家初创公司一开始需要1000张GPU做训练,传统做法通常是一次性按年预订。三个月后实验成功,又临时需要额外算力;半年后训练结束,却只需要500张GPU用于推理,其余全部闲置。

在传统云上,这意味着不断叠加长期合同,成本迅速失控。而在Hyperbolic的模式下,企业可以在需求高峰期短租算力,在需求下降时把闲置GPU重新挂回市场出售。他给出的对比结果非常直观:总成本可以从约4380万美元降到约690万美元。Jasper强调,这不仅是“省钱”,而是生产力的跃迁——“不是成本降了6倍,而是在同样预算下,你的算力和实验空间提升了6倍”。这也意味着,更多创业公司不必只依赖OpenAI或Anthropic这样的封闭模型,而是有条件自己训练模型。

总结

Jasper Zhang的核心观点并不复杂:AI算力的瓶颈,本质是资源配置问题,而不是单纯的硬件不足。无限制地建设数据中心既昂贵又不可持续,还会加剧能源和环境压力。相比之下,通过统一调度和市场化机制,把分散、闲置的GPU重新激活,可能是更快、更便宜也更现实的路径。对开发者和创业者而言,这种思路提供了一种新的想象空间:算力不再是少数巨头的特权,而是一种可以自由流通的基础资源。


关键词: GPU算力, 数据中心, AI云, Hyperbolic, 算力市场

事实核查备注: Jasper Zhang:Hyperbolic CEO兼联合创始人;Hyperbolic定位为AI云与GPU市场;当前美国数据中心容量约55吉瓦;需求年增长率约22%;2030年美国算力缺口超15吉瓦;企业GPU约80%时间闲置;Hyperbolic测试价H100约0.99美元/小时;Google云H100按需约11美元/小时;案例成本对比:约4380万美元 vs 690万美元;涉及公司:Google、OpenAI、Anthropic;核心技术:Kubernetes、HyperDOS。