众力资讯网

算力帝国再扩张!OpenAI豪掷3500-5000亿美元购博通10吉瓦算力

据《金融时报》报道,AI巨头OpenAI再掀算力军备竞赛高潮,已与美国半导体巨头博通达成协议,将采购10吉瓦定制化计算机

据《金融时报》报道,AI巨头OpenAI再掀算力军备竞赛高潮,已与美国半导体巨头博通达成协议,将采购10吉瓦定制化计算机芯片。这笔交易不仅是其近期千亿级算力布局的最新落子,更标志着这家创业公司,预计将在现有约1万亿美元芯片和数据中心协议基础上,追加3500亿至5000亿美元支出,全力冲刺ChatGPT等服务所需的算力储备。

根据协议,OpenAI将主导芯片与系统设计,博通负责联合开发及部署,双方合作开发周期已长达18个月。这批定制芯片专为运行OpenAI自家AI模型打造,计划于2026年下半年启动部署,2029年底前完成全部交付。OpenAI CEO萨姆·奥特曼在播客节目中强调,此次合作是“从晶体管层面重新构思技术架构”,通过优化全技术堆栈,将实现“性能提升、响应加速与成本降低”的三重目标。

待交易完成后,OpenAI累计可调用算力将突破26吉瓦,相当于26个核反应堆的发电规模,其总裁布洛克曼更直言,这一规模相较实现通用人工智能的终极愿景“不过是九牛一毛”。受此消息刺激,博通股价在周一盘前交易中大涨10%。

OpenAI的算力扩张并非一蹴而就,而是通过近三年的密集布局,构建起覆盖多厂商、多技术路线的“算力帝国”,其采购规模与技术自主性均实现指数级提升。

2024年成为OpenAI算力采购的“爆发元年”,其通过与行业头部企业签订大额协议,快速积累基础算力。9月,OpenAI与甲骨文达成五年期云计算服务协议,总价值超3000亿美元,折算年均支出600亿美元,创下云计算行业历史罕见规模。甲骨文联席CEO Clay Magouyrk直言,OpenAI近10亿的用户规模(ChatGPT周活已达8亿)是支撑这笔巨额支出的核心底气。

同期,OpenAI与英伟达的合作进一步升级,后者宣布向其投资最多1000亿美元,用于配置至少10吉瓦算力规模,双方在Hopper架构芯片采购上达成深度绑定,2024年OpenAI订购的英伟达Hopper芯片达23万枚,与腾讯并列全球第二,仅次于微软的48.5万枚。此外,OpenAI还与AMD签署合同,计划部署至少6吉瓦的尖端算力卡,交易规模约2700亿美元,形成对主流芯片厂商的“双线布局”。

2025年,OpenAI的算力策略从“大规模采购”转向“自研+合作”双轮驱动。除最新与博通的10吉瓦定制芯片交易外,公司还启动了更宏大的长期规划。据奥尔特曼向员工透露的信息,OpenAI计划到2033年新建250吉瓦算力,若按当前英伟达芯片价格标准测算,这一规划耗资将高达10万亿美元。而选择与博通合作自研,正是为了突破通用芯片的性能瓶颈,通过将大模型开发经验直接嵌入硬件,OpenAI有望在模型运行效率上实现质的飞跃,同时降低对英伟达专有技术的依赖,分散供应链风险。

值得关注的是,OpenAI的算力布局已呈现“全球协同”特征。除与甲骨文、CoreWeave、谷歌等企业达成算力合作外,其还在自主布局硬件生态,联合博通设计的不仅是芯片,还包括完整的网络系统机架,形成从芯片到整机的全链条优化。甲骨文另一位CEO Mike Sicilia透露,双方已开始将OpenAI的AI模型整合到电子健康档案系统,算力落地场景正从消费端向产业端快速渗透。

不过分析认为,尽管算力储备持续扩容,OpenAI仍面临盈利与能源两大挑战。目前公司估值已达千亿美元,但2024年净亏损仍达50亿美元,巨额算力支出与尚未盈利的现状形成鲜明反差。能源供应方面,26吉瓦算力所需电力相当于26个核反应堆,未来250吉瓦的目标更对全球能源基础设施提出严峻考验。

但是,OpenAI管理层对此表现乐观,Mike Sicilia认为电力供应“只是时间问题”,而奥尔特曼则将这场算力竞赛定义为“人类历史上规模最大的联合工业项目”,其背后是OpenAI争夺AI时代核心话语权的决心。