🍀 Spring Date with Fortune, Prizes with Raffle! Growth Value Phase 1️⃣ 7️⃣ Spring Raffle Carnival Begins!
Seize Spring's Good Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Square] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete Square or Hot Chat tasks such as posting, commenting, liking, speaking to earn growth value
🎁 Every 300 points can raffle once, 10g gold bars, Gate Red Bull gift box, VIP experience card and more prizes waiting for you to win!
Details 👉 https://www.gate.com/ann
本地芯片生产:中国如何建立自己的人工智能生态系统
幾年前,世界努力理解數位產業的真正意義。如今,AI革命中的生產又是什麼?這不僅僅是硬體的製造,而是建立一個創新與獨立融合的完整生態系統。在超過六年的時間裡,中國從希望打造自主解決方案,轉變為真正掌握計算能力的過程。這個故事始於危機,最終演變成一場革命。
瓶頸不是硬體:為何CUDA才是真正的障礙
2018年,華為經歷了一次嚴峻考驗。美國商務部的禁令讓一家擁有8萬員工、年營收達數十億美元的跨國公司在一夜之間陷入癱瘓。沒有高通的晶片,沒有谷歌的Android授權——整個運營陷入停擺。
但更深層次的問題不僅是硬體,而是一個名為CUDA的生態系統。
CUDA,即Compute Unified Device Architecture,是NVIDIA於2006年推出的並行計算平台。在深度學習革命中,它成為整個AI產業的基礎。訓練大型AI模型本質上是巨大的矩陣運算,而GPU在此扮演獨特角色。NVIDIA用十年時間打造了一個完整的生態系統,從底層硬體到上層軟體工具,皆以CUDA為核心。
如今,Google的TensorFlow和Meta的PyTorch等主要AI框架都深度依賴CUDA。每位AI工程師從一開始就開始用CUDA編碼。這形成了一個難以打破的飛輪:開發者越多,工具越豐富,生態越壯大,加入者也越多。
到2025年,CUDA生態系統擁有超過450萬開發者,涵蓋超過3000個GPU加速應用。全球超過90%的AI開發者都依賴這個生態系統。要如何取代這個基礎?答案是可能,但你必須重寫過去十年來所有的經驗、工具和代碼。誰來承擔這個成本?
從推理到訓練:質的變革與本土生產
面對美國持續的規範——2022年用NVIDIA A100和H100,2023年用A800和H800,2024年則是H20——中國AI公司並未放棄直接競爭,而是選擇另一條路:算法層面的優化。
從2024年底到2025年,中國AI公司轉向一個技術方向:專家混合(MoE)架構。以DeepSeek的V3為例,擁有6710億參數,但每次推理只用到370億參數,僅佔總數的5.5%。訓練成本約為557萬美元,而GPT-4預估需7,800萬美元。
這種算法優化直接反映在價格上:DeepSeek API每百萬tokens收費0.028至0.28美元,而GPT-4則是5美元。Claude Opus約15美元。中國的成本比美國低25到75倍。
但真正的突破不僅在價格。到2025年,AI應用已從簡單對話轉向Agent場景,token使用量激增10到100倍。在這種規模下,價格成為決定性因素。
如今,本土生產已從推理擴展到訓練——一個質的飛躍。推理僅運行預訓練模型,而訓練則需要更高的計算能力、更大的互聯帶寬和完整的軟體生態。
生產生態系:從江蘇興化到全球部署
在產業轉型的浪潮中,江蘇興化建立了一條伺服器生產線。這個以不鏽鋼和健康食品聞名的小城,從簽約到投產僅用180天。生產線配備兩款本土晶片:龍芯3C6000處理器和泰楚遠啟T100 AI加速器。
這是一個里程碑:如今的生產不僅關乎數量,更關乎能力。滿負荷運作時,每5分鐘產出一台伺服器,每年達10萬台。
更重要的是,數千個本土晶片集群已開始進行大型模型的實質訓練。2026年1月,華為推出了GLM-Image——首個用本土晶片全訓練的SOTA圖像生成模型。2月,中國電信在上海臨港的本地計算池完成了星辰模型的全部訓練流程。
背後的主要推手是華為昇騰系列。到2025年底,昇騰生態系擁有400萬開發者和超過3000個合作夥伴。43個主要大模型完成了昇騰的預訓練,並有200多個開源模型進行了適配。
2026年3月2日,華為推出了新型SuperPoD基礎設施。昇騰910B的FP16計算能力相當於NVIDIA A100。當生態系在晶片持續改進中同步發展——不等待完美——升級速度將非常快。
能源優勢與計算力:為何中國領先
2026年初,弗吉尼亞停止發放新數據中心許可證,緊接著喬治亞、伊利諾伊和密歇根也跟進。美國的電網已經超出承載能力。
2024年,美國數據中心用電量達183太瓦時,占總消耗的4%。到2030年預計達426 TWh,佔比12%。Arm的CEO表示,到2030年,AI數據中心可能消耗美國20-25%的電力。
當美國擔憂電力供應時,中國卻擁有巨大優勢。中國每年發電量約10.4萬億度,遠高於美國的4.2萬億度——僅是2.5倍。更重要的是,中國的住宅用電僅佔總用電的15%,而美國則高達36%。這意味著中國有更多工業用電容量可用於計算。
中國西部工業區的電價約為每千瓦時0.03美元,而美國AI中心則為0.12至0.15美元。中國在能源成本上有4到5倍的優勢。
Token與市場:新型數字商品的崛起
如今,美國在能源基礎建設上投資的同時,中國則出口一種新產品:tokens。Token是AI模型所能理解的最小信息單位——已成為一種數字商品,在計算工廠中生成,並傳送到全球。
DeepSeek用戶的分佈說明了一切:30.7%來自中國,13.6%來自印度,6.9%來自印尼,4.3%來自美國,3.2%來自法國。支持37種語言,並在巴西等新興市場快速擴展。
2026年2月,在OpenRouter平台上,中國AI模型的每週使用量在三週內激增127%,首次超越美國。去年,中國模型的市場份額不足2%,如今已達到6%,增長了421%。
2026年2月27日,三家本土晶片公司公布財報:康比特營收增長453%,首次實現全年盈利;摩爾科技增長243%,但淨虧損達10億美元;牧星科技增長121%,但虧損近80億美元。
半火半水,火是市場需求。華人巨頭黃仁勳釋出的95%空間由本土公司收入填補。市場需要一個沒有NVIDIA的替代方案,這是一個前所未有的結構性機會。
從歷史中汲取教訓
八年前,曾發生過一個令人震驚的格局。1986年,美日半導體協議重塑產業,日本一度領先——到1988年,日本控制全球半導體市場的51%,而美國為36%。前十名中有六家來自日本。
但通過戰略貿易措施、監管審查和支持韓國競爭者,美國將日本的DRAM市場份額從80%降至10%。曾經的巨頭分崩離析,或被收購、或逐漸淡出。
悲劇在於:日本滿足於全球分工的角色——最好的製造商,卻未建立自主的生態系統。當浪潮退去,他們只剩下製造。
如今,中國的AI產業面臨類似壓力,但選擇了更艱難的道路:極端算法優化、本土晶片從推理到訓練的研發、建立擁有400萬昇騰開發者的生態系,以及全球token分配。每一步都在打造獨立的產業生態。
建設生態系的成本巨大。每一次損失都是真金白銀,用於追趕CUDA的學習成本、軟體補貼和工程師部署費用。這是為了獨立必須付出的“稅”。
這三份財報比任何產業報告都更誠實地反映了競爭的真實狀況。這不是慶祝,而是激烈的爭奪戰,士兵在血戰中崛起。
但數字的形態已經徹底改變。八年前,問題是“我們能否生存?”如今,則是“我們要付出多少代價才能生存?”而這個代價,就是進步。