马斯克刚刚宣布自己下场造芯片。不是做设计,不是做定制,而是真的建工厂、投产线。
这位曾经预言“芯片短缺很快会变成电力短缺”的科技狂人,为什么突然调转枪口?
答案背后,是一场正在撕裂整个半导体行业的算力大爆炸。
“如果不自己造芯片,就会遇到瓶颈”北京时间4月23日,特斯拉财报电话会。
马斯克说了一句话,让整个科技圈炸了锅。
他宣布特斯拉启动Terafab芯片工厂项目。原因很直接:公司预计未来AI芯片将严重不足。
“就行业增长速度而言,逻辑芯片,甚至更多的是存储芯片——我们预计如果我们不自己制造芯片,就会遇到瓶颈。这就是Terafab的诞生原因。”
你可能觉得,马斯克喊“缺芯”不是第一次了。
确实。2025年他就说过,制约AI发展的瓶颈会从芯片转向“电力设备”短缺,最早2026年年中就会出现“根本性的发电量不足”。

那为什么现在反而自己跳进芯片制造这个烧钱的无底洞?
因为形势变了。
过去,特斯拉和xAI是英伟达GPU的大客户。xAI已经在田纳西州孟菲斯的Colossus计算中心部署了20万块GPU,还计划在旁边新建一个配备100万块GPU的超算中心。
100万块是什么概念?英伟达上一代Hopper架构芯片整个生命周期才出货400万块。
但“买买买”模式走到了尽头。一方面是英伟达供不应求,另一方面是成本压得喘不过气。
于是,xAI被曝正在自研推理芯片,代号X1,用台积电3纳米工艺,计划2026年第三季度量产,首批订单30万块。
特斯拉也在推进自研芯片AI5和AI6,马斯克甚至亲自参与了芯片设计评审。
当一个以“买遍全球”著称的公司,都被逼得自己盖芯片厂,这已经不是“缺芯”两个字能概括的了。
数字不会骗人:AI芯片市场正在疯狂到什么程度?先看一组数据。
全球AI芯片市场,2025年价值约582亿美元(全球市场洞察数据)。预计2026年跳到791亿美元,到2035年达到1.1万亿美元,年复合增长率33.9%。
另一家机构(360iResearch)给出的数字更吓人:2025年1353.8亿美元,2026年1635.1亿美元,2032年5346.5亿美元。
不管你怎么算,都是一个每年增长30%以上的疯狂赛道。
再看整个半导体大盘。SIA数据显示,2025年全球芯片销售额7917亿美元,同比增长25.6%。2026年有望突破万亿美元——比行业之前预测的2030年提前了整整3年。
AI芯片的平均售价:12000美元/颗。行业毛利率:54%。
这个利润率,在整个半导体历史上都排得上号。
那英伟达呢?它预计自己的Blackwell和Rubin AI芯片在2025-2026年将带来5000亿美元的收入。到2026年底前,这两代GPU总出货量预计达到2000万颗——是上一代Hopper的5倍。
但即便如此,缺口依然巨大。
巴克莱银行预测,2026年AI推理计算需求将达到训练需求的4.5倍,占通用AI总计算需求的70%以上,催生近3000亿美元的芯片资本支出缺口。
贝恩报告更震撼:全球AI算力需求以每年4.5倍的速度增长,远超摩尔定律每两年翻一番的效率提升。为满足这一需求,到2030年全球需要新增200吉瓦的算力容量,每年需要约5000亿美元的资本支出。
需求在以指数级狂奔,供给却只能线性爬坡。这个剪刀差,就是马斯克焦虑的根源。
谁在烧钱?三大引擎同时点火这波需求不是凭空产生的。背后有三个巨大的引擎,正在同时全速运转。
引擎一:大模型竞赛,从训练转向推理
2026年,AI产业的重心正在发生根本性转移——从“训练模型”转向“推理应用”。
中国日均词元(Token)调用量,2026年3月已突破140万亿,三个多月增长了40%以上。

每一次聊天、每一张AI生图、每一个智能体调用,背后都是海量词元的生成与消耗。训练是“建模型”,推理是“用模型”。而当应用真正铺开,推理侧的需求会以远超训练侧的速度膨胀。
引擎二:科技巨头的资本开支,没有最疯狂只有更疯狂
亚马逊、谷歌、Meta、微软四大云厂商,2025年资本支出年增幅超过30%。2026年合计资本支出预计将推升至6000亿美元以上,年增40%。
Gartner预测,2026年全球AI总支出将达到2.52万亿美元,同比增长44%。
美银与瑞银预测,2025年AI基础建设投资4230亿美元,2026年5710亿美元。
这不是在花钱,这是在往火堆里扔钱。
引擎三:主权AI,国家层面的算力军备竞赛
各国政府开始把AI算力视为国家战略资源。从欧洲到中东,从东南亚到拉美,主权AI需求正在成为新的增量市场。
这不再只是商业竞争,而是地缘政治的一部分。
芯片突围,有几条路?巨头们的“硅基叛逆”
面对英伟达的“芯片税”,巨头们选择了同一个答案:自己造。
谷歌在2026年4月22日发布了第八代TPU处理器:TPU 8t(训练)和TPU 8i(推理)。采用台积电2纳米制程,TPU 8t训练速度较上代提升2.8倍。
Meta、OpenAI也纷纷加入自研芯片行列。
为什么?
因为英伟达的定价策略就像成衣店的西装——性能强大,但不是为你量身定做的。自研芯片则是“高定礼服”,可以根据自己的模型算法深度定制,砍掉冗余功能,把每一颗晶体管的效能压到极限。
更重要的是:它将永无止境的运营成本,转化为可控的资本开支。
这不是省钱,这是构筑护城河。
GPU不再是唯一答案
过去几年,AI芯片几乎等于GPU。但2026年,这个等式正在被打破。
当推理需求爆发,GPU在某些场景下的效率劣势开始显现。
Intel与SambaNova在2026年4月联合发布了一个针对代理式AI(Agentic AI)的异构推理架构:GPU负责预填充,SambaNova的可重构数据流单元(RDU)负责解码,Intel Xeon 6处理器负责编排。
结果是:峰值吞吐量是竞品的5倍,总拥有成本比GPU低3倍。
与此同时,LPU(Language Processing Unit)架构正在快速崛起。2025年下半年,英伟达豪掷200亿美元整合了Groq的推理技术资产。今年3月,Groq的LPU架构已被深度集成到英伟达的Vera Rubin平台中。
还有华为老兵杨滨创立的LPU初创企业元川微,近期宣布完成数亿元天使轮融资。
近存计算技术成为突破性能瓶颈的关键方向,行业正在逐步摆脱传统的“计算-存储分离”模式。
一句话:2026年的AI芯片,不再只有GPU这一个选项。
中国,从“替代可用”到“自主好用”
在美国出口管制持续升级的背景下,中国AI芯片产业正在加速跑。
2026年,中系高阶云端AI加速器出货预计将达212.3万颗,年增136%。其中华为凭借系统整合优势,在中国市占率将超过5成。
IDC数据显示,2025年国内AI加速卡市场出货约400万张,国产占比已达41%。预计2026年出货量实现翻倍,头部企业收入增速普遍达120%以上。
DeepSeek、千问等国产大模型的出圈,背后正是国产AI芯片在利用效率上做了很大提升。
当然,国产芯片仍面临三大瓶颈:先进制程良率不高、HBM供应不稳、CUDA生态掣肘。
但一个值得关注的观点是:包括很多国际权威机构都预测,中国在AI芯片领域最有望在2026年迎来“DeepSeek时刻”——从“能用上”向“用得好”转变。
比芯片更可怕的瓶颈,正在浮出水面你以为缺芯就是最大的问题?
马斯克告诉你:不是。

他在2025年就预警过:当前制约AI发展的芯片瓶颈,将很快转变为“电力设备”短缺。最早到2026年年中,AI企业就可能面临“根本性的发电量不足”。
国际能源署(IEA)最新报告印证了这个判断。2023年至2026年间,全球数据中心电力消费年均增长率达18%,其中AI计算占比从2023年的15%激增至2026年的35%。
预计到2026年底,全球数据中心总用电量将达到1050太瓦时——相当于德国全年用电量的总和。
摩根士丹利测算,到2028年美国数据中心电力需求或升至80GW,潜在供电缺口约55GW。
贝莱德估算,到2030年需要约148吉瓦的额外电力容量来满足数据中心需求。
芯片可以加班造,电厂可没法一夜建成。
马斯克给出的答案相当激进:太空。
他说:“在未来30到36个月内,在太空部署AI将成为成本最低的选择。”
理由?太空没有昼夜循环与大气衰减,太阳能板有效效率约为地面的5倍,散热可通过真空辐射完成。SpaceX正在为每年1万次发射做准备,目标是构建围绕低地球轨道的“轨道数据中心”。
听起来像科幻?但仔细想想:当芯片短缺变成电力短缺,当电力短缺变成空间短缺——太空,似乎成了唯一的出路。
芯片竞赛的终局,不是芯片本身回看马斯克启动Terafab的举动,以及整个AI芯片市场的全景,我们可以得出一个超越“缺芯”本身的结论。
第一,AI芯片产业正在从“单点竞争”转向“系统竞争”。
衡量AI芯片的硬指标,正在从“算力单点”转向“算力×内存×互联×功耗密度”的综合效率。上游是先进制程与HBM供应,中游从芯片延伸到板卡、整机、机柜与软件平台,下游由云厂、车厂把需求反向固化为规格。
AMD已经完成了对ZT Systems的收购,明确将CPU+GPU+网络+机柜级系统交付能力合并到同一条端到端方案里。
“从硅到机柜”的整合,正在成为行业新标准。
第二,半导体产业正呈现残酷的“K型”分化。
一端是借着AI推理和高性能计算东风扶摇直上的“超级赢家”——逻辑芯片和存储芯片,构成了AI计算系统的“大脑”与“记忆”。另一端则是被困在消费电子低迷与成本通胀中的“受困者”,利润率一度被压至10%以下。
AI芯片正从“周期性产业”迈向“基础性战略物资”。
第三,也是最重要的一点:算力短缺的本质,不是芯片不够多,而是整个计算基础设施的系统性不匹配。
芯片性能的提升速度(即便按照英伟达每年翻番的节奏)仍然追不上算法进步和数据增长的速度。真正限制AI发展的,不是单一芯片的算力,而是从电力供应、芯片制造、封装测试、软件生态到数据中心运营的整个系统工程能力。
当马斯克一边说要造Terafab工厂,一边说要发射数万颗卫星去太空建数据中心,他其实在传递一个信号:
AI芯片的终局,不是谁能造出最强的单颗芯片,而是谁能构建最完整的算力基础设施体系。
从这个角度看,AI芯片的“短缺”,与其说是危机,不如说是一场产业重构的催化剂。
在这场重构中,芯片厂商、云服务商、能源企业和航天公司,都在争夺同一张入场券。
而一个更值得关注的问题正在浮现:当GPU不再是AI算力的唯一答案,当电力取代芯片成为新的瓶颈,当太空数据中心从科幻走向规划——我们或许正在见证一个比“缺芯”本身更宏大、更根本的变革。
这场变革的核心问题不是“谁拥有最多的芯片”,而是“谁能构建最可持续的算力体系”。
答案,还在书写之中。