3 月 21 日晚上 11 點,英偉達 CEO 黃仁勛的演講,為 GTC 2023 拉開序幕。
ChatGPT 和 GPT-4 掀起這股生成式 AI 熱潮后,為 AI 提供心臟的英偉達成了背后的大贏家,也讓今年的 GTC 注定成為有史以來最受關注的一屆。
黃仁勛沒有讓關注者失望。
「AI 的 iPhone 時刻已經到來。」70 分鐘的演講里,老黃重復了四五遍。
每次講這句話前,他都會分享一項關于生成式 AI 的新進展——對創作、醫療、工業等領域的革命,讓普通人用瀏覽器就能訓練大模型的云服務,以及讓大模型處理成本下降 10 倍的超級芯片……
「AI 的發展會超過任何人的想象。」這句話是對這場演講最好的注腳。
1、讓大語言模型的處理成本下降一個數量級
2012 年,Alex Kerchevsky、Ilya Suskever 和他們的導師 Geoff Hinton 在兩塊 GeForce GTX 580 上,使用 1400 萬張圖像訓練了 AlexNet——這被認為是這一輪 AI 革命的開端,因為它首次證明了 GPU 可以用于訓練人工智能。
4 年后,黃仁勛親手向 OpenAI 交付了第一臺 NVIDIA DGX 超級計算機。此后數年,OpenAI 在大型語言模型上的突破讓 AIGC 開始進入人們的視野,并在去年年底推出 ChatGPT 后徹底破圈。幾個月內這個對話式 AI 產品吸引了超過 1 億用戶,成為歷史上增長最快的 App。
NVIDIA DGX 最初被用作 AI 的研究設備,現在已經被企業廣泛用于優化數據和處理 AI。根據黃仁勛,財富 100 強公司中有一半安裝了 DGX。
在這之中,部署像 ChatGPT 這樣的 LLM 正在成為 DGX 越來越重要的一項工作。對此,黃仁勛宣布了一種新的 GPU——帶有雙圖形處理器 NVLink 的 *** NVL。
基于英偉達的 Hopper 架構,*** 采用 Transformer 引擎,被設計用于專門處理類似 GPT 這樣的模型。與用于 GPT-3 處理的 HGX A100 相比,一個搭載四對 *** 和 NVLINK 的標準服務器的處理速度快 10 倍。根據官網數據,*** 的綜合技術創新。可以將大型語言模型的速度提高 30 倍。
「*** 可以將大型語言模型處理成本降低一個數量級,」黃仁勛說到。
此外,在過去的十年里,云計算每年增長 20%,成為一個 1 萬億美元的行業。為了 AI 和 云計算,英偉達設計了 Grace CPU,在新的架構下,GPU 負責處理 AI 的工作負載,Grace CPU 負責采樣,二者之間通過一個 900 GB/s 的高速傳輸設備連接在一起。
「Grace-Hopper 是處理大規模數據集的最佳選擇。」黃仁勛稱,「我們的客戶希望建立訓練數據大幾個數量級的 AI 大模型,Grace-Hopper 是理想的引擎。」
某種意義上來說,計算成本已經成為今天阻礙生成式 AI 發展的核心問題,OpenAI 為此燒掉了數十億乃至上百億美元,微軟也出于成本考慮始終沒有向更大范圍的公眾開放新 Bing,甚至限制用戶每天的對話次數。
英偉達此時推出更高效的算力方案,無疑是給行業解決了一個大難題。
2、DGX Cloud:讓任何企業都能構建AI能力
今年 GTC 上另一個涉及生成式 AI 的重點,就是 DGX Cloud。
實際上,這并不是英偉達第一次公布 DGX Cloud。此前英偉達四季報發布時,黃仁勛就向外界透露英偉達將與云服務廠商展開合作,讓客戶可以使用網頁瀏覽器,就能通過 NVIDIA DGX Cloud 來使用 DGX 計算機,從而訓練和部署大型語言模型或完成其他 AI 工作負載。
英偉達已經與甲骨文展開合作,預計下個季度微軟 Azure 也會開始托管 DGX 云,而谷歌云也將在不久之后加入這一行列,以托管的方式向那些有意愿構建新產品和發展 AI 戰略的企業提供 DGX 云服務。
黃仁勛稱,這種合作關系將英偉達的生態系統帶到了云服務商手中,同時擴大了英偉達的市場規模和覆蓋面。企業將能夠每月租用 DGX 云集群,確保他們能夠快速輕松地擴展大型多節點 AI 訓練。
3、ChatGPT 只是開始
「加速計算是曲速引擎,AI 就是它的能源。」黃仁勛說道,「生成式 AI 日新月異的能力,給我們重新構想其產品和商業模式帶來了緊迫感。」
ChatGPT 和 GPT-4 為代表的大語言模型在過去幾個月火遍全球,但對英偉達來說,ChatGPT 和大模型并不是 AI 的全部。會上,黃仁勛還分享了更多英偉達在 AI 領域的探索和他本人的觀察。
首先是最火的生成式 AI。


只需要一張手繪的草圖,就能生成 3D 建模的戶型。

撰寫代碼也不在話下。
還有創作音樂。
為了加速那些尋求利用生成 AI 的人的工作,英偉達宣布成立 NVIDIA AI Foundations,這是一個云服務和代工廠,面向需要構建、改進和定制 LLM 和生成式 AI 的用戶,這些客戶使用其專有數據訓練特定領域的 AI。
AI Foundations 的服務包括 NVIDIA NeMo,用于構建文本-文本的生成模型;畢加索,一種視覺語言模型制作服務,面向希望構建基于經授權內容訓練模型的用戶;以及 BioNeMo,幫助生物醫藥研究人員。
作為生產力工具,AI也在發揮巨大的價值,黃仁勛在演講中介紹了幾個非常有意思的案例。
第一個是與美國電信巨頭 AT&T。AT&T 需要定期派遣 3 萬名技術人員,為 700 個區域的 1300 萬名客戶提供服務。這個龐大的數據,調度是一個痛點,如果在 CPU 上運行,調度優化需要一整夜的時間才能完成。
借助英偉達的 CuOpt,AT&T 可以將調度方案的優化時間加快 100 倍,并可實時更新其調度方案。
某種意義上,在英偉達的幫助下,AT&T 做到了美團、滴滴這些需要實時匹配的互聯網公司用好多年積累才做到的事情。
另一個案例是與芯片公司的合作。隨著中美科技戰,大多數人都知道了光刻機這個半導體產業的關鍵設備。但鮮為人知的是,隨著制程技術的發展,芯片設計對算力的需求也是半導體行業的一大痛點。
今天計算光刻是芯片設計和制造領域最大的計算工作負載,每年需要消耗數百億 CPU 小時,并且隨著算法越來越復雜,計算光刻的成本也在提高。
對此,英偉達宣布推出 cuLitho——一個計算光刻庫。并與 ASML、臺積電等巨頭展開合作,從而大幅降低芯片設計過程中的算力消耗,節能減排。
事實上,減少能源消耗,提高計算效率,是黃仁勛眼中AI技術將為人類社會帶來的另一大價值。而在摩爾定律失效的當下,加速計算和 AI 的到來恰逢其時。
「各行業正都在面對可持續發展、生成式 AI 和數字化的挑戰。工業公司正在競相數字化,并重塑為軟件驅動的科技公司——成為顛覆者,而不是被顛覆者,」加速計算讓這些公司可以應對這些挑戰,黃仁勛說道。「加速計算是減少電力消耗、實現可持續性發展和碳中和的最佳方式。」
最后,類似于一個彩蛋,從老黃此次演講的表現不難猜測,視頻中出現的老黃,應該全程是一個虛擬形象。如無意外,很有可能也是「生成式 AI」的產物——在表現 AI 進步的同時,也算是黃仁勛為自己家「核彈算力」再次「現身說法」。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。