昨日,多家外媒披露了一条OpenAI的人事变动,这一次是AI基础设施业务,负责“星际之门”(Stargate)计划的三名高管——彼得·赫舍尔、沙梅兹·赫马尼和阿努吉·萨哈兰陆续离职,并一同加入一家尚未公开名称的新公司。
OpenAI随后对外确认了三人的离职消息。与此同时,OpenAI也公布了这轮人事变动后的安排:萨钦·卡蒂将接手工业算力相关工作,而彼得·赫舍尔原来的岗位不会有人递补。
而一天前,OpenAI刚刚宣布暂停其“星际之门英国”(Stargate UK)数据中心项目。该项目于去年9月宣布启动,是美国总统特朗普访英期间签署的《英美科技繁荣协议》的一部分。
一直以来,基础设施团队一直是OpenAI及其竞争对手面临的最大挑战核心:如何以初创企业可承受的成本,获取充足算力以满足AI产品暴涨的需求。
一年前,“星际之门”计划及其背后的5000亿美元巨额投资应运而生。如果项目顺利,这将是OpenAI在迎接AGI时代路上的重要算力基座。
而随着海外项目暂停、三名高管出走,笼罩着各种不确定性的“星际之门”还能如期闪耀吗?
01
三个高管同时跑路
赫舍尔、赫马尼与萨哈兰均为“星际之门”创始团队成员。该计划在特朗普就任总统后不久,于白宫一场公开活动中对外宣布,是OpenAI早期争取长期掌控先进AI模型训练与运行所需基础设施的核心举措。
其中,彼得·赫舍尔负责的是基础设施战略、组织和对外协调,沙梅兹·赫马尼负责的是资源规划、融资和供应商交易,阿努吉·萨哈兰负责的是计算集群和基础设施的具体落地。
也就是说,这三个人是“星际之门”落地链条上的关键节点。
公开资料显示,彼得·赫舍尔长期负责OpenAI的基础设施战略与运营,后担任工业算力副总裁,主要工作集中在数据中心与算力供给体系的建设。
他的职责包括数据中心选址与落地推进、与电力和地产资源方的协调、与芯片和服务器供应商的采购谈判,以及与甲骨文等合作方共同推进大规模算力项目。在Stargate相关项目中,他参与的是从前期规划到实际建设的完整链条。
2025年10月,OpenAI、甲骨文和Related Digital宣布在密歇根推进一个超过1GW的数据中心园区时,公开出面发言的就是他。换言之,他就是OpenAI在这类重大基础设施项目中的对外代表。
沙梅兹·赫马尼毕业于沃顿商学院,曾在亚马逊云服务、Twitch以及私募和投行任职,后来进入OpenAI,负责基础设施战略与财务。
公开资料显示,他具体负责的是GPU、CPU、存储和网络资源的需求规划与分配,并主导与微软、甲骨文等合作方的算力采购与长期合作协议。
这部分工作直接对应的是资源获取和成本控制,包括算力容量锁定、采购周期安排以及相关支出的财务规划。
阿努吉·萨哈兰则更偏执行侧,公开报道提到,他在加入OpenAI前曾在微软工作多年,做过Azure裸金属平台和超级计算相关工作。
去年,他曾通过个人社媒账号披露,OpenAI的算力相比2024年已经增长了15倍,过去60天里建成了60多个集群,用20万块以上GPU支撑GPT-5上线,同时还在规划下一阶段4.5GW基础设施。
另一方面,继任者卡蒂实际上在去年年底就已入职。他入职后,包括赫舍尔在内、此前直接向OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)汇报的多位高管,均划归卡蒂管理,而卡蒂向布罗克曼汇报。
从行业视角看,这种组合在AI公司中并不常见。过去,无论是Google还是Meta,算力体系大多依附在既有云或数据中心体系之上,而OpenAI试图通过“星际之门”把基础设施单独拆出来,形成一条独立的能力链条。
也就是说,这种模式更接近传统能源或电信行业的重资产扩张,而不是互联网公司的典型路径。
有外媒报道中指出,OpenAI内部围绕基础设施推进方式存在分歧,一部分团队更倾向于加大自建投入,另一部分则更现实地依赖合作方和云资源。这种分歧在项目推进过程中不断放大,最终体现在组织层面的调整。
从更现实的角度看,基础设施本身的复杂性也在不断提高。行业分析显示,一个1GW级别的数据中心园区,不只是服务器规模的扩大,还涉及长期电力合同、变电站建设、冷却系统、施工周期以及地方审批等多个环节。
三位高管离开的具体原因尚不得而知,不过最新报道显示,这三个人预计将加入同一家新公司,尚不清楚该公司名称。有一点可以确定,那就是这三起人事变化,和OpenAI在基础设施战略上的调整是同步发生的。
02
“星际之门”落地不易
“星际之门”——当OpenAI在去年1月公布这一项目时,计划在未来四年投入5000亿美元,先启动1000亿美元,用来为OpenAI建设新的数据中心和算力设施。
OpenAI CEO奥特曼此前在基础设施峰会上提到,如果计算能力跟不上,AI的供给就会变得稀缺甚至昂贵,因此建设足够规模的算力基础设施,是推动AI发展的前提之一。
换句话说,“星际之门”不是单纯给OpenAI多租一点服务器,而是要自己更深入地参与数据中心、芯片和电力体系的建设。
从公开信息看,OpenAI一直对“星际之门”寄予厚望。在2025年初的项目规划中,OpenAI方面希望未来几年建设大约10GW级别的AI基础设施,并分阶段推进。
去年7月,OpenAI又宣布与甲骨文合作,新增大约4.5GW数据中心容量,使美国境内在建和规划中的相关容量提高到5GW以上。
到了去年9月,OpenAI进一步披露多个新站点,整体规划已经推进到接近7GW,并对应数千亿美元级别的投资承诺。
这也是“星际之门”和一般AI项目最不一样的地方。过去,大模型公司主要依赖微软Azure、亚马逊AWS这类云厂商提供算力和数据中心资源,自己更多负责模型研发和产品。
但“星际之门”想做的是,把一部分原本掌握在云厂商手里的能力,慢慢拿到模型厂商这边来。
从实际推进情况看,“星际之门”并没有停。德州Abilene园区仍在建设中,已经有部分数据中心建筑投入运行,同时OpenAI与甲骨文之间关于约4.5GW规模的数据中心合作仍在推进,并扩展到多个州的新站点。
此外,OpenAI还在同步推进海外项目,例如挪威和中东相关布局,用于作为区域算力节点。整体来看,“星际之门”仍在扩张阶段,且已经形成多地点并行推进的格局。
只是,模型业务和基础设施业务是两种完全不同的事。模型可以靠AGI的愿景撑起未来,只要技术迭代顺利,资本市场的预期仍然是积极向好。
但基础设施要看土地、电力、施工、设备交付、融资安排和地方审批,能不能建起来,取决于很多因素。
其中最现实的约束,就是电力。以德州的Abilene项目的行业分析提到,这个园区未来会有八座H形建筑,整体功耗超过900MW,不仅要接入电网,还要配现场燃气发电。
于是我们看到了这样的场面:AI公司不仅抢GPU,也要抢土地和电力资源。服务器可以买、芯片可以买,但电厂和机房的建设却不是只砸钱就能实现的。
这也是为什么“星际之门”后来的新站点越来越多地落在德州、新墨西哥、俄亥俄、威斯康星这些地方,因为这些地方更有可能拿到大规模供电、土地和地方政策支持。
同时,大规模项目还涉及地方审批、施工周期以及供应链交付,这些都使得整体推进速度明显慢于模型业务本身。
钱的问题也同样复杂。软银一直在给OpenAI押注,公开报道提到,到去年12月,软银已经对OpenAI累计完成约410亿美元投资。
这当然是一笔很大的钱,但放到“5000亿美元、10GW”这个目标面前,它更像是一个起步资金。
虽然项目整体规划规模达到5000亿美元,但实际资金来源高度依赖外部资本与债务融资,同时部分数据中心项目通过贷款或“建成后租用”的结构推进。
这导致项目推进过程中,多次出现融资谈判受阻或延迟的情况,例如德州Abilene园区原计划新增约600MW扩容,就因融资和需求变化被调整或取消。
开头提到的英国项目暂停,背后也有成本因素的驱动。OpenAI在声明中表示:“我们将继续探索英国‘星际之门’项目,并在合适的条件(例如监管和能源成本)允许时推进该项目。”
最后是需求和策略变化。随着模型迭代节奏加快,OpenAI对算力的需求结构也在变化,一方面需要更快获取算力以支撑模型训练和推理,另一方面也在调整不同地区和不同类型数据中心的布局。
这导致项目不再完全按照最初的统一规划推进,而是不断在不同地点之间重新分配容量。上文提到的Abilene扩容计划被取消后,相关算力被转移到其他州的项目中,而不是继续集中在单一园区。
事实上,不止奥特曼多次表示,公司长期处于“算力受限”状态;就连黄仁勋也曾指出,AI需求的增长速度已经超过基础设施扩张能力。
换句话说,“星际之门”面对的是整个行业的共同瓶颈,三位高管同时离职,无疑给该计划增添了更多不确定性。