是的,正如黃仁勛在臺北電腦展2024展前演講中所說,生成式AI技術正在不知不覺中影響著我們的生活與工作。而早在2014年就提出CUDA(通用計算平臺)概念的英偉達,已經嘗到人工智能帶給它的甜頭。
市值從1萬億美元到2.7萬億美元,英偉達僅僅用了一年左右的時間。從紙面數據來看,英偉達毫無疑問是這場AI革命的最大贏家,并且它還在這條道路上不斷前行。
6月2日晚,Computex2024(2024臺北國際電腦展)在臺北貿易中心南港展覽館正式舉行,英偉達創始人和CEO黃仁勛登臺發表了主題為“Don't Walk”的主題演講,向全球系統且全面的展示了英偉達在加速計算和生成式AI的最近成果,同時分享了人工智能時代如何助推全球新產業革命。
在這場兩個小時的演講中,黃仁勛宣布“全球最強大的芯片”Blackwell芯片正式投產,并表示將在2025年推出Blackwell Ultra AI芯片,2026年發布下一代全新架構Rubin,2027年繼續推出升級版Rubin Ultra,以及英偉達在GPU、CUDA、NIM等不同階段的產品線歷史。
老黃這一套連招下來,相信不少人已經被龐大的信息量砸得暈暈乎乎,那么英偉達即將給AI產業帶來什么改變?一起來看看。
一年一更,英偉達GPU架構加速迭代
英特爾和英偉達在不少領域面臨競爭關系,英特爾CEO帕特·基辛格不止一次在公開場合發表過自己對英偉達的看法,在某次采訪中,基辛格感嘆英偉達在人工智能領域“非常幸運”地占據了主導地位,并表示英偉達的“地位”本應該屬于英特爾。
英偉達在人工智能領域的主導地位究竟是不是運氣使然?這次黃仁勛公布的新架構路線圖或許正是最好的回應。
由英特爾創始人之一戈登·摩爾提出的摩爾定律,其核心內容為處理器性能大約每兩年翻一倍,同時價格下降為之前的一半。而英偉達直接將GPU架構的更新頻率從兩年一次更新,加速到一年一次。咱就先不說成本的事,就這更新頻率,大有掀翻摩爾定律的勢頭。當然,從7nm制程開始,一直有人說“摩爾定律已死”,最典型的就是英偉達CEO黃仁勛,英偉達能否給這個討論定下結論,讓我們共同期待。
回到產品本身,Blackwell B200是NVIDIABlackwell架構首款新產品,基于臺積電的4nm工藝打造,采用了將兩個Die連接成一個GPU的雙芯設計,因此每個GPU芯片上擁有2080億個晶體管,比起上一代G***GPU上的800億個晶體管,Blackwell B200GPU算是一次相當大的突破。
在B200的基礎上,英偉達還推出了由兩個BlackwellB200GPU和一個基于Arm的Grace CPU組成的完全體AI芯片組:Blackwell GB200。該架構主要是為了滿足未來AI工作負載的需求,為全球機構運行實時生成式AI提供了可能,而且其成本和能耗只有上一代Hopper GPU架構的二十五分之一。
雖然黃仁勛沒有透露2025年計劃推出Blackwell Ultra的具體情況,但參考Blackwell在性能、成本和能耗方面的提升,同架構升級版本的表現讓人無比期待。
來到2026年,命名源于美國女天文學家Vera Rubin的下一代GPU架構Rubin即將面世,將首次支持8層HBM4高帶寬存儲。屆時代號“Vera”的CPU將于Rubin GPU一同推出,組成Vera Rubin芯片。此外,Rubin平臺還將搭載新一代NVLink6Switch,提供3600GB/s的連接速度,以及1600GB/s的CX9SuperNIC,以保證高效的數據傳輸。
根據爆料,Rubin架構首款產品為R100,采用臺積電3nm EUV制造工藝,四重曝光技術,CoWoS-L封裝,預計2025年第四季度投產。
2027年,升級版“Rubin Ultra”,HBM4內存升級為12堆棧,容量更大,性能更高。
至此,英偉達未來4年的宏偉藍圖正式向我們展開,這一戰略規劃一直延伸到2027年,英偉達提前公布的方式盡顯自信。自信來源于底氣,黃仁勛在演講中直接將英偉達定義為全球生成式AI浪潮的來源及推動者:
人工智能崛起之所以有可能,完全因為我們相信只要讓強大的計算變得越來越便宜,總會有人找到巨大的用途。正因為我們利用特定算法將計算邊際成本降低了100萬級別,今天使用互聯網上的所有數據來訓練大模型才成為了所有人默認合乎邏輯的選擇,不再有人懷疑和質疑這個做法。而在英偉達這么做之前,沒有人預料到,沒有人提出這樣的需求,甚至沒有人理解全部潛力。
我們很難評判這番言論的對錯,但英偉達對全球生成式AI產業的貢獻大家有目共睹,其主張的CUDA已經達到了相對成熟階段,隨著CPU性能增長放緩,利用CUDA等技術加速計算任務又將成為應對計算需求的新寵兒,生成式AI也將成為全球下一次革命性的技術變革。
英偉達還有什么護城河?
在演講中,黃仁勛還介紹了Earth-2數字孿生地球、Isaac機器人平臺、nference Microservices等一系列AI工廠的內容。隨著業務的不斷擴展,我們似乎很難用一個或幾個詞來概括這家萬億市值級別的芯片巨頭了。
過去提起英偉達的優勢,大家最熟悉的必然是GPU、CUDA......,大體可以歸納為軟件構建生態,硬件堆砌算力。說到這里,又要請出老熟人英特爾CEO帕特·基辛格,因為他在酷睿Ultra發布會上表示:英偉達CUDA護城河又小又淺。
來到生成式AI時代,如果CUDA真如基辛格所說,無法成為英偉達的技術護城河,那么英偉達還能依靠什么呢?我想答案或許是AI網絡。
去年5月,英偉達在COMPUTEX2023上發布了全球首個專為人工智能(AI)設計的高性能以太網架構Spectrum-X,其主要面向生成式AI市場。據介紹,Spectrum-X擁有無損網絡、動態路由、流量擁塞控制、多業務性能隔離等主要特性,能降低大模型訓練成本、縮短訓練時間。
AI大模型之所以稱之為大,不僅是因為模型參數量大,還有日常訓練所需的龐大數據,這些先決條件導致大模型的訓練成本極高。
4月初,OpenAI的競爭對手Anthropic的首席執行官達里奧·阿莫代伊接受采訪時指出,目前市場上人工智能模型的培訓成本已高達約1億美元,預計到了2025年和2026年,這一成本將飆升至50億或100億美元。
其中的大部分費用被GPU消耗,以英偉達Blackwell處理器為例,訓練一個擁有1.8萬億參數的AI大模型需要大約2000個BlackwellGPU,如果將GPU換成Hopper,則大約需要8000個。
因此,不少企業選擇打造成千上萬GPU互聯的AI數據中心,其實也就是黃仁勛所說的AI工廠,只不過這個工廠生產的產品是訓練好的大模型。整體算力優勢能有效降低訓練成本,減輕企業從頭搭建AI大模型的復雜步驟,簡單來說,就是AI大模型訓練外包。
除了AI數據中心外,另一個方法就是前面提到的網絡架構。區別于傳統網絡,面向AI計算的網絡架構就是為了解決單一數據中心超載,從而需要多個地區的數據中心協同工作而存在的。
從技術層面來看,Spectrum-X針對AI計算的高穩定性要求,進行了針對性優化,也就是多種軟硬件技術組成的系統級網絡架構,以解決AI訓練過程中N個GPU同步運行的負載,以及處理突發流量的能力。
隨著生成式AI的發展,數據量需求必然劇增,當純GPU和單一數據中心不足以解決數據負載問題時,成熟的網絡架構就會成為英偉達下個技術護城河。或許英偉達在布局時也沒有想到,這個原本用于傳統云計算的技術會成為生成式AI浪潮的關鍵。
寫在最后
英偉達公布的截至2024年4月28日的2025財年第一財季財報顯示,英偉達期內實現營收260.44億美元,同比上漲262%;凈利潤148.81億美元,同比上漲628%。財報數據公布后不久,英偉達股價迅速上漲,據統計,在過去的2023年中,英偉達股價漲幅超230%,今年以來漲幅已達到121.39%。
可以說,全球AI算力芯片龍頭,被稱為“AI時代賣鏟人”的英偉達在這輪生成式AI浪潮中賺得盆滿缽滿,也難怪老黃在演講時春風滿面。現在,英偉達的“卡”供不應求,不只是字節、百度等中國科技巨頭在搶著囤卡以應對極端情況,硅谷科技巨頭如微軟、Meta,也全都在找英偉達買卡。
事實上,入局AI以及AI芯片的玩家越來越多,OpenAI以及谷歌等AI巨頭也將AI產品的競爭方向從大語言模型轉向多模態模型?梢灶A見的是,接下來幾年企業訓練AI的算力需求還會沖上一個新高峰,英偉達作為當前AI算力芯片領域的巨頭,持續增長幾乎是板上釘釘的事情。
當然,谷歌、OpenAI等玩家都在通過自己的方式試圖打破英偉達的算力霸權,短時間內或許很難實現抗衡,但市場不會坐視任何企業一家獨大,所有玩家都會繼續挑戰英偉達,直至成功。
英偉達能否再續輝煌,一年一款大更新帶來的效果究竟會有多驚人,我們很快就能知道答案。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。