人工智能的行業競爭,不僅是OpenAI與谷歌等各大互聯網巨頭的大模型之爭,支撐運算的芯片賽道也暗流涌動,大模型“制造機”們也加入了賽道。
OpenAI計劃從CEO Sam Altman投資的一家初創公司Rain AI訂購更高效的NPU芯片;微軟也推出兩款自研芯片Azure Maia 100和Azure Cobalt 100;谷歌剛推出的新模型Gemini 1.0 采用的就是自己設計的芯片TPUs v4 和v5e。
在這之前,英偉達構筑的AI芯片帝國是這些大模型公司的強大輸出方,如今,大模型公司試圖要自給自足一部分。而正式向英偉達發起挑戰,還是芯片賽道上的老玩家。
美國超威半導體公司(AMD)已推出新一代AI芯片MI300X, 還從從英偉達手中分走了Meta、微軟和OpenAI三大客戶。
AI芯片卷起來了,但想要挑戰坐在“王位”英偉達,也絕非易事。
大模型公司自給芯片
今年以來,各種AI大模型和應用百家爭鳴,英偉達 A100、A800、***、H800等能支持AI大模型訓練的芯片被瘋狂搶購。“消費者”不僅是科技公司,還有各國政府和風險投資公司。
“賣水”的英偉達一時風頭無兩,他們家的AI芯片供不應求,AI市場再現GPU短缺。
微軟在 2023 財年報告中就多次指出,對能否為其云運營獲取GPU感到擔憂。OpenAI的CEO Sam Altman也不止一次公開“抱怨”芯片短缺及成本巨大,今年5月,他曾公開表示,OpenAI正在經歷嚴重的算力短缺。這也正在影響用戶體驗,ChatGPT時常卡頓,反應延遲。
據報道,OpenAI 運行 ChatGPT 的成本每天在70 萬美元。路透社指出,每個 ChatGPT 查詢的成本約為 4 美分,如果此類查詢增長到 Google 搜索的1/10,則需要預先投入價值約 480 億美元的 GPU,每年需要花費 160 億美元的芯片才能維持運行。
算力短缺,成本高昂,戴爾亞太和日本總裁 Peter Marrs 就曾預測,買家不會容忍英偉達GPU 的交貨時間過長,這將給大量競爭對手制造機會。
為了擺脫對英偉達的芯片依賴,OpenAI 正在考慮研發自己的AI芯片,以應對全球GPU 的短缺,縮減GPT的訓練成本。
前幾天,OpenAI一份訂購意向書曝光,Altman任職CEO期間,該公司承諾從一家初創公司Rain AI訂購芯片,金額高達5100萬美元,而Altman投資了這家公司。
值得一提的,這款芯片是基于神經擬態(Neuromorphic)技術的 “類腦” AI 芯片NPU,據說“模仿了人腦的結構和功能”,支持并行和分布式地處理信息,非常適合 AI 應用中的“計算密集型任務”,能夠實現低耗、高效地處理信息。但目前,該芯片仍在研發階段。
不僅是OpenAI,微軟和Google等大型科技公司也在一直打造更高效的芯片。
11月16日,微軟在年度IT專業人士和開發者大會Ignite上推出兩款自研芯片——云端AI芯片微軟Azure Maia 100、服務器CPU微軟Azure Cobalt 100。
Maia 100旨在為AI工作負載運行基于云的訓練和推理,而Cobalt 100則用于通用工作負載。微軟的數據中心預計,將在2024年初同時采用Arm CPU和專用AI加速器。微軟表示,除了在 Bing和 Office AI 產品上測試該芯片外,OpenAI也正在測試該芯片。
微軟研發Maia 100 自用及供給合作伙伴OpenAI
谷歌也開始行動,其剛剛發布的、號稱“吊打”GPT-4的大模型Gemini1.0,用的就是谷歌自研的TPUs v4 和 v5e芯片。
谷歌稱,在TPUs上,Gemini的運行速度明顯快于早期規模更小、性能更弱的模型。此外,歌還發布了TPU系統 Cloud TPU v5p,旨在為訓練前沿 AI 模型提供支持,從而加速 Gemini 的開發。
包括蘋果、華為等硬件廠商,越來越多的科技巨頭都開始自主設計和開發自己的芯片,以滿足自身的業務需求和差異化競爭。
英偉達的防御與擴張
大模型公司卷進芯片賽道,真能徹底擺脫對英偉達的依賴嗎?
盡管市面上英偉達*** GPU已漲到了原價的兩倍,依舊供不應求。也即便已經上線自研芯片的谷歌,也依然在大量采購英偉達的芯片。
英偉達有自己的護城河。
據英國《金融時報》 報道,今年以來,英偉達已經投資了二十多家公司,包括從價值數十億美元的大型新人工智能平臺到將人工智能應用于醫療保健或能源等行業的小型初創企業。
雖然英偉達表示,公司在投資時并沒有特殊條款,也不要求被投企業必須使用英偉達的芯片。但某種程度上,這意味著更密切的關系。
英偉達風險投資部門 NVentures 的負責人 Mohamed Siddeek 表示:“對于英偉達來說,進行初創企業投資的首要標準是相關性。” 他強調,“使用我們的技術、依賴我們的技術、在我們的技術上建立業務的公司,我想不出我們投資的公司有哪家沒有使用英偉達的產品。”
根據跟蹤風險投資機構 Dealroom 的估計,英偉達在 2023 年參與了 35 筆交易,幾乎是去年的六倍。Dealroom 指出,這是英偉達人工智能領域交易最活躍的一年,超過了Andreessen Horowitz 和紅杉等硅谷大型風險投資公司。
此外,英偉達CUDA計算平臺以及軟硬件生態,也為英偉達護城河構筑了更加堅固的河堤。
CUDA是一種英偉達推出的并行計算架構,運行相同任務的情況下,支持CUDA系統的英偉達GPU比CPU的速度要快10到100倍。正是得益于CUDA系統,GPU才得以打敗CPU,成為今天運行大數據計算的基礎。
大模型公司自研芯片,擺在眼前的也困難并不少,根源是原材料的供不應求。
The Enderle Group首席分析師 Rob Enderle 就表示,“制造芯片并非易事,代工廠和晶圓廠已經飽和,這使得 OpenAI 的這項工作很可能會失敗。”他補充說,“他們最好與 AMD、高通、英偉達或英特爾合作,因為后者已經擁有自己的鑄造廠。”
還有成本。
Futurum Group的高級分析師Todd R. Weiss表示,創建自己的芯片擺脫依賴“乍一看,是一個很酷的主意”,但設計自己的芯片、建立自己的芯片制造設施,永無止境地開發更新更好的芯片路線圖所需的成本,還要擔心自己的供應鏈問題,“這并不比從他人手中購買芯片更簡單。”
芯片的戰場,還在芯片制造商之間。
12月6日,英偉達最大的競爭對手美國超威半導體公司(AMD)舉行“Advancing AI”發布會,并拉來了微軟、Meta等科技公司高管站臺,發布會上,AMD帶來了新一代AI芯片MI300X。
與英偉達的 *** HGX 相比, MI300 X 加速器在運行大語言模型推理時的吞吐量和時延表現都要明顯高出一截,且價格也更加低廉。Meta、微軟和 OpenAI 公司隨后在 AMD 投資者活動上表態,未來他們將會使用 AMD最新的AI芯片。
真正降低成本的辦法,還得看芯片制造商的“互卷”。AMD、英偉達等芯片大廠進入產能競爭,價格才能打下來。而大模型巨頭自研芯片,無非是為“軍備競賽”多一條奔跑的腿。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。