· 29 min read
AI5芯片真相:為何特斯拉被迫自建Terafab晶圓廠?特斯拉的5000萬顆 AI 芯片秘密大棋局
開場:馬斯克真正焦慮的,不是錢,是芯片
馬斯克現在最缺的,不是錢,不是工程師,而是芯片。如果芯片這件事搞不定,特斯拉的 FSD、Optimus、甚至太空裡的 AI 數據中心,很多規劃都會卡住。
我是小梗。今天要拆解的是 Herbert Ong 頻道的一期節目,他請來了前 Rivian 創始技術成員、前蘋果工程經理 Phil Beisel,一起聊馬斯克為什麼天天唸叨著“芯片、芯片、芯片”。
我選這期,是因為它把特斯拉未來說成一家“AI 芯片公司”,這個角度現在還不算主流,但很可能決定特斯拉 5 年後的天花板。視頻大概是一個月前發佈的,所以裡面有一些信息可能已經過時了,但整體框架還是很有參考價值的。
這期裡,Phil 會把馬斯克最近提的 Terafab、Dojo 調整、以及 AI 芯片,串成一條線,讓人看到他到底在下什麼大棋。
宏大 AI 路線圖:從汽車到機器人再到太空
Herbert 提到,馬斯克前陣子親口說過,每個週六都泡在芯片團隊那邊,腦子裡全是 “chips, chips, chips”。只要他還這樣死盯芯片,說明在他心裡,真正的生死線不在車身、不在工廠,而在 AI 訓練和推理能不能跟上野心。
Herbert 直接下了個定義:特斯拉現在已經不是車公司,也不是能源公司,甚至不算 Robotaxi 公司,也不算 Optimus 公司,而是 AI 公司——更窄一點說,是 AI 芯片公司。其他業務都是這個內核往外長出來的形態。芯片和算力既是瓶頸,也是槓桿,一旦拉開差距,車隊、機器人、能源網絡、甚至太空相關的佈局,才有機會一起被推高。
順著這個思路看,AI4 到 AI7 其實就是特斯拉的總路線圖:
- AI4、AI5:先把車和 FSD 跑順,AI5 再撐起 Robotaxi
- AI6、AI7:給 Optimus 和超大規模訓練集群用,甚至直接瞄準太空
Herbert 提到,等 Robotaxi 和 Optimus 真正量產,每年需要的芯片是“上千萬級”,這個量如果還靠外部供貨,哪怕晚幾個月,整盤棋就會卡住。所以馬斯克才會反覆強調要搞 Terafab,自己把這個瓶頸握在手裡。
Phil 的判斷是:
- AI6:在 AI5 基礎上加更強的訓練能力,重點是高精度浮點運算和矩陣計算的專用核心,讓訓練和推理都能在自家芯片上閉環。
- AI7:更激進,目標直接寫成“太空裡的 AI 算力中心”,芯片本身要適應完全不一樣的散熱環境,還要塞進一個全新的 Dojo 架構裡,充當太空版的 “GPU”。
Herbert 在節目裡也強調,現在的 Dojo 更像是給 AI7 準備的“外殼和房子”,讓它在太空裡像 GPU 那樣工作,而不是當年那種 12 個 SoC 焊在一整片晶圓上的方案。特斯拉這次是把板級、電氣架構按第一性原理重新算了一遍,而且是站在已經看清 FSD、機器人、太空 AI 完整解法的基礎上回頭重做。
為什麼要自研芯片:英偉達、臺積電、三星都“不對路子”
順著這個思路,Herbert 就提到,特斯拉當然可以去臺積電、三星下單,也可以直接買英偉達的 GPU,但馬斯克現在的判斷是,這些通用芯片“很好用,但不對路子”。
Robotaxi、大規模 AI 數據中心、還有太空用的 AI,他現在算清楚了算力、功耗、成本的組合拳,結果就是一句話:被迫自己幹,而且還不是小規模設計,而是要配合 Terafab,在行星級的量級上去生產。
Phil 接著把車端和 Optimus 端的推理芯片拆開講:
- 車上 FSD、機器人身上的推理,都屬於邊緣設備
- 如果直接上英偉達那種通用 GPU,就像你只想要一間臥室,卻被迫買一整棟豪宅
- 很多算力模塊永遠是黑的,白付錢不說,還超出功耗和散熱預算
Optimus 要減每 1 克重量、砍掉每一個沒必要的計算單元,目標是把續航從兩小時拉到 3 小時、5 小時,這時候通用 GPU 就完全頂不住。只有自己做推理芯片,才能在架構裡同時兼顧高峰算力和低功耗,還能把車上芯片成本打到原來的一半左右,供應鏈也握在自己手裡。
Herbert 就追問,那人形機器人和車加起來是千萬級市場,英偉達為什麼不專門做一顆“人形機器人版 GPU”呢?
Phil 的回答核心是:AI 表面上看都是神經網絡那一套,但裡面卻是無數細節決定成敗。
特斯拉在多精度、數值格式、各層怎麼混合這些地方,有自己的秘密配方,這些都是圍繞 FSD 和 Optimus 的具體難題優化出來的。英偉達就算出一顆“機器人 GPU”,也得同時兼顧別的機器人公司、別的自動駕駛方案,所以必然要做得很通用,離特斯拉想要的專用程度差一個數量級。
對特斯拉來說,那樣的芯片能用,但永遠是將就用,真正的解法還是把算法和硅片一起設計。
從 HW3 到 AI5:特斯拉 AI 芯片家族的演進
回頭看特斯拉的芯片路線,其實脈絡很清楚。
2019 年:HW3
- 工藝:三星 14 納米
- 算力:約 144 TOPS
- 功耗:約 100 瓦
- 現在車隊大概 40% 用的是它
- 本質上就是車裡的推理引擎,CPU、GPU、內存都是給這塊神經網絡單元打工
2023 年:AI4 接班
- 工藝:同樣三星,降到 7 納米
- 算力:拉到大概 500 TOPS,是 4–5 倍
- 功耗:也就漲到 160 瓦左右
- 現在所有新車都是它
- 單看 AI4,其實已經夠把 FSD 推進到 V14、做到無人監管和 Robotaxi,這點 Phil 自己也不擔心
關鍵在 AI5。
Phil 的觀點是,前面的 HW3、AI3、HW4、AI4,都是在軟件藍圖沒畫清楚之前先做出來的,屬於“先造通用引擎,再想怎麼玩”。現在不一樣了,特斯拉已經把 FSD 需要什麼、Optimus 是什麼樣的視覺智能,都摸透了,再反過來定芯片。
所以他甚至覺得 AI5 應該叫 “AI1”,因為這是第一代真正意義上的家族芯片:
- 同一套架構,會有不同變體,覆蓋車、機器人、別的終端
- 算力區間大概從 500 到 2500 TOPS
- 中間會塞很多為特定算子定製的硅塊,不再是簡單堆矩陣乘
現在的 AI 團隊也跟 AI4 時代完全不一樣了:
- 他們手上已經有無監督 FSD 的模型和訓練方法,也知道怎麼訓 Optimus
- 這樣坐到芯片團隊對面,可以很具體地說:
- 這 10 個算子最重要
- 這裡要多少吞吐
- 這裡可以犧牲一點精度換功耗
芯片團隊就按這些點去堆硬件模塊,馬斯克再拍板,把不重要的全砍掉,集中在效率和成本。因為他反覆強調,芯片要上量,成本要壓到最低,這樣每個 Optimus 的成本、每英里 FSD 的成本才能壓下去,特斯拉才有護城河。
AI5 聚光燈:汽車和 Optimus 的“命門”芯片
Phil Beisel 才會說,AI5 其實就是特斯拉故事的核心,那些有四個輪子的車和有兩條腿的 Optimus,未來都得靠這顆芯片活。
馬斯克去年 8 月左右直接把 Dojo 訓練超算項目砍了,內部來了一次快刀式的重組,他自己週六一整天一整天泡在 AI5 上,這在特斯拉是很少見的投入力度。
從進度看,AI5 現在已經到了要 “tape-out” 的節點,就是把設計定稿丟給晶圓廠去流片。正常節奏,從現在到真正大規模量產,大概要 6 到 12 個月,再加上新主板設計、整車驗證,所以 Phil 估的是 2027 年 車上才會大規模換到 AI5,可能是 2027 年 Q1 開始新車切換。
性能上,AI5 相對 AI4 是質變級別:
- 基礎算力就拉到幾百到兩千多 TOPS
- 很多算子做成了專用硬件
- 馬斯克舉過 softmax 的例子:
- 以前是 C 代碼跑在 CPU 上
- 現在 AI5 裡做成專用單元
- 同樣算法可以快到 40 倍
再加上 TSMC 和三星雙代工,一邊分散風險,一邊給未來 Terafab 攢經驗。
Phil 的判斷是:
- 單顆 AI5 已經能摸到英偉達 Hopper 那個檔位
- 如果做雙芯片封裝,容量接近 Blackwell
- 但又完全針對特斯拉自己的 FSD 和 Optimus 工作負載來調
對 Optimus 來說,這幾乎就是“終極版”芯片。
統一的大腦:FSD 和 Optimus 的具身智能路線
軟件這邊,Phil 也給了一個很清晰的對比。
以前 FSD 老是左轉抖來抖去,就是因為架構太“拼裝”:
- 感知用 AI,看畫面、認車認人
- 規劃是另一套規則系統,每一小步都在問自己“接下來怎麼辦”
- 兩套系統節奏對不上,車身上就變成一頓一頓的
到了 V12,特斯拉把感知和規劃塞進同一個大模型裡,讓 AI 直接從視頻學“人類司機怎麼開”,所以現在車像是每毫秒都心裡有數,動作就順滑很多。
Phil 說,這套思路其實就是在給 Optimus 打樣,FSD 是 Optimus 大腦訓練方式的原型。
他特別強調,Optimus 不是一堆小模型拼在一起,而是一個統一的神經網絡架構,能力完全靠規模往上疊。特斯拉現在很信 “bitter lesson” 這套,結論就是:
- 算力越多,模型越大
- 網絡裡能壓進去的“技能”就越多
- 全部藏在那個潛在空間裡
問題是,機器人要學的動作和技能,比開車多了 2 到 3 個數量級:
- 從擰螺絲到疊衣服
- 全都要放進同一張“網”裡
這對模型大小和訓練算力的要求,直接比 FSD 高出好幾檔。
他舉了個很直白的例子:
- 特斯拉內部已經在規劃,FSD V14 的模型參數要做到 V13 的大概 10 倍
- V15 再往上再拉一個數量級
- 等到 V15 這種體量,想在車上即時跑起來,基本就不可能靠 AI4 撐住,只能上 AI5
很多人會問,既然 AI4 上都能跑“無監督” FSD 了,為什麼還要砸錢做 AI5?
Phil 的回答就是:他們想把更多長尾場景、更多駕駛技能,全部塞進一個更大的網絡裡,讓車在極端情況也像現在這樣順滑。
即時性:為什麼 FSD 需要巨大的車載算力冗餘
Phil 接著把“時間”這件事掰開講。
現在一輛剛下線的 Model Y,固定就是那幾路攝像頭、那點總像素。特斯拉算過,整套 FSD 從畫面進來算到打方向盤,必須穩定在大概 36 次每秒,這個頻率才夠安全冗餘。
為了守住這 36Hz,他們把 AI4 當成幾乎純 8 位的芯片來打磨:
- 從訓練階段就做多精度模型
- 給每一層量出最大值、最小值
- 再去做極致的量化,讓網絡在 8 位上跑到頭
Phil 說,如果把同一套模型丟到 AI5 上,很多針對 AI4 的手工優化都可以撤掉,網絡本身還更大,推理頻率反而能輕鬆拉到差不多 60 次每秒。這就是為啥他們要上 AI5,不是為了好看參數,而是為了把即時性從“剛好夠用”變成“寬鬆很多”。
還有一點很關鍵,FSD 是硬即時任務,不像你上網跟 ChatGPT、Grok 聊天,忙的時候多等幾秒也就算了。車在路上不行,36Hz 掉到 24Hz,就可能少看到一次突然竄出來的行人。
未來特斯拉還想在同一顆車規芯片上塞進:
- 全語音交互
- 車內 AI 助手
語音可以慢半拍,FSD 絕對不能卡,所以只能用更強的 AI5,把算力頭寸拉高很多,才有空間玩這些“酷功能”。
更狠的是,他們在 AI4 到 AI5 的演進裡,直接把芯片上的 ISP 給幹掉了。
以前流程是:
- 攝像頭收光子
- ISP 一步步做白平衡、降噪、壓縮,變成類似 JPEG 的圖
- 再餵給感知網絡
中間有 10 到 12 個處理環節,耗一大塊硅面積、功耗,還多好幾毫秒延遲。
現在團隊說,神經網絡又不需要像人眼那樣看照片,乾脆把原始光子計數直接餵給網絡,用新的濾波方式去適配,這樣 ISP 整塊區域都省掉,還能把省出來的功耗和麵積拿去堆更大的網絡。
Phil 估計,這一刀下去,光省掉 ISP,就能“賺回”大概 10 次每秒 的推理頻率,加上別的優化,才勉強讓一個越來越大的網絡還能在車上維持 36Hz。
語音與理解:車內自然語言的未來想象
接著往下想,Herbert 直接把畫面拉到未來:
- 司機根本不用點來點去,只要說一句“在前面那個消防栓後面停車”,車就自己挪過去,找好位置,打燈、轉向、入位全都搞定
- 你坐在車裡,還能隨口問,“我們現在在哪個城市”“窗外這個建築是什麼”,車一邊用攝像頭看世界,一邊用語言跟你解釋,相當於把人的感知和車的感知合在一起
但 Phil 馬上潑了個冷水:今天車裡的 Grok 根本還沒到那一步。
現在它只是一個應用:
- 你點一下麥克風,它在雲端推理,再把結果丟回車裡
- 第一,它得有網絡才活得了,地庫、郊區、暴雨斷網都不行,任何跟安全相關的控制都不能指望這個
- 第二,雲端來回一趟有延遲,FSD 那種毫秒級決策完全吃不消
更別說那種“我看到前面有個廣告牌,幫我打電話給上面的公司”這種玩法了。那需要車先做一遍視覺識別,再把結果丟給語言模型。
現在的 Grok 只是把你說的話翻譯成幾條很簡單的指令,比如設個路線、找家餐廳,離“車會看、會想、還會跟你聊”差了好幾級。
要做到 Herbert 描述的那種自然交互,最終還是要落回到:更大的本地模型 + 更強的車載芯片,也就是 AI5 之後的那條線。
Terafab 算術:為什麼特斯拉必須自建巨型芯片工廠
Herbert Ong 之前就在 X 上算過一筆賬:
- 如果 Robotaxi 跑到幾百萬臺
- Optimus 做到幾千萬甚至上億
- 再加上地面和太空的 AI 集群
靠 TSMC 和三星,到 2029 年會少出大概 20 萬到 50 萬顆高端芯片。
馬斯克看到後直接回了兩個詞:“target. Exactly.”
意思就是,這個缺口規模,基本就是他心裡的目標量級。
Phil Beisel 就接著說,很多人第一次在股東大會上聽到 Terafab 這個詞,都覺得馬斯克又在天馬行空。但他自己拿紙筆一算,發現這事其實挺“保守”的。
因為現在真正能大規模做高端 AI 芯片和 SoC 的,就 TSMC 和三星兩家,其他像 Intel 還在追趕階段。
Phil 查的公開數據是:
- TSMC 加三星一年一共也就做出大概 1600 萬到 2500 萬顆這種複雜芯片
- 裡面包括 Nvidia 的 GPU、蘋果的 A 系列和 M 系列
按他估算:
- 要做到每年 100 萬顆這種芯片,大概要 200 萬平方英尺 的廠房面積
- 那如果特斯拉在 2029 年到 2030 年要每年做到 5000 萬顆,就意味著總面積要到 1 億平方英尺,大概是德州超級工廠的 10 倍
再看需求端,馬斯克自己放過風:
- 可能一年要做 1000 萬臺車,每臺車上放兩顆芯片
- 再加上到 2030 年可能有 1 億個 Optimus,就算每個機器人只用一顆,也已經遠超 TSMC 加三星現在所有高端產能
- 哪怕再額外加個 1000 萬顆給太空裡的 AI 數據中心,這就吃掉它們一年差不多一半的產能
你看,這時候 Terafab 就不是什麼“想不想要”的問題,而是“沒有就真的不夠用”。
太空 AI 星座:Starlink 變成真正的“雲”
Phil Beisel 接著說,馬斯克盯上的不是普通數據中心,而是一整張鋪在天上的“星鏈雲”。
現在 Starlink 大概有 1 萬顆衛星,他的想法是:
- 把一部分衛星變成 AI 算力節點
- 用激光互聯,組成訓練或者推理集群
- 對地面的人來說,連到雲裡跑 AI 任務,但這個雲真的在天上,比現在任何公有云都字面意義上的 “cloud”
他舉了個很保守的數:就算只先上 1000 萬顆芯片,按現有晶圓廠的產能,這一版太空數據中心就能吃掉全球高端產能差不多一半,而且還只是 V1,不是終局版本。
這樣一來,Terafab 的芯片就不僅要喂車和 Optimus,還要喂整片太空 AI 網絡,需求直接被拉爆。
Phil 的判斷是,Terafab 多半會是特斯拉加 SpaceX 的聯合項目:
- 特斯拉負責設計 AI 芯片,再賣給 SpaceX
- 由 SpaceX 像運營 Starlink 那樣運營太空數據中心
光是起步就要幾十億美元,要真做到他前面說的規模,總投入肯定得上 100 億美元,這個量級已經超過特斯拉現在大概 400 億到 500 億美元的資產負債表能輕鬆承受的範圍,所以他才會提到,可能要靠未來 SpaceX 上市來籌這筆錢。
Herbert 和 Phil 還聊到一個關鍵點:太空 AI 的價值,遠高於地面機房,因為地球這邊馬上會撞上電力天花板。
- 到 2027 年,可能會有一批高端芯片被造出來卻根本點不亮,除非你先去建核電站,還得等個 3 年
- 馬斯克現在拼命追求 “hyper-efficiency”,就是想讓同樣吞吐,在芯片上把功耗壓到一半甚至更低,這樣等於白送你一倍有效算力
太空這邊,如果能配合太陽能、核能,再疊加高效芯片,整個算力網絡的邊際價值會非常誇張。
重新思考晶圓廠:馬斯克的第一性原理提問
Herbert 就接著說了,現在三星、臺積電這些廠,其實都是沿著過去 40 年的那套在迭代:
- 整座廠房都是潔淨室,負壓環境
- 人進去要全身防護服
- 光刻機一臺臺排在裡面,流程超級複雜
馬斯克聽完就問一句:為什麼要把整個工廠都搞成潔淨室呢?
芯片這麼小,是不是可以反過來,讓每一片晶圓在產線裡單獨被保護起來,比如用氮氣封裝,讓顆粒根本靠近不了。
Phil 就補充說,其實現在晶圓進廠以後,本來就是裝在那種封閉的盒子裡跑來跑去,進 ASML 的光刻機時,機器內部本身就像一個小型潔淨室,完全密封、無塵,再用極紫外光通過掩膜,一層一層把“高速公路”圖案刻在晶圓上。
也就是說,局部封裝這件事,行業已經在做一部分了。
Phil 的理解是,馬斯克其實是在順著這個思路問:
- 既然關鍵步驟都在密閉設備裡完成
- 那是不是整棟樓沒必要做到那麼極端的潔淨等級
- 可以把錢和複雜度,更多砸在設備級、晶圓級的封裝系統上
他自己覺得,這就是馬斯克典型的第一性原理:先問“物理上必須是什麼”,再回頭看哪些是傳統包袱。
Phil 還提到,馬斯克之前和三星在德州 Taylor 那座廠,做的是一個全規格的合作,等於拿到一條完整的量產線規格,這更像是在交學費,系統化地把芯片製造從頭學一遍,而不是隨口吐槽。Herbert 也認同,他現在是把自己當成學生在研究晶圓廠。
結語:特斯拉可能不再是“車公司”
特斯拉現在想清楚的,不是先多賣幾輛車,而是先把“腦子”和“工廠”搞定——也就是 AI5 這一整條芯片家族,以及後面的 Terafab。
從車到 Optimus,再到太空數據中心,最後都卡在算力、功耗和成本上。馬斯克現在是直接把自己扔進最難啃的那塊骨頭裡,連晶圓廠怎麼設計、產能怎麼算,都要親自學一遍。
我自己最大的感受是,如果他真把這套芯片和工廠打通了,特斯拉可能就不再是我們今天理解的那家公司了——車只是一個載體,機器人和太空才是更大的故事。
接下來幾年,AI5 能不能按計劃落地,Terafab 能不能按節奏推進,大概會決定特斯拉 2030 年以後到底長成什麼樣。這個過程,我陪你一起慢慢觀察。




