6月2日晚間,英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛登臺(tái)演講,透露了不少關(guān)鍵信息。據(jù)他介紹,使用NVIDIA NIM將AI模型部署在云、數(shù)據(jù)中心或工作站上的開發(fā)者,可將模型部署時(shí)間從以前的數(shù)周縮短至幾分鐘。和碩、勞氏公司、西門子等客戶均在使用。
此外,被英偉達(dá)寄予厚望的新一代AI芯片與超級(jí)計(jì)算平臺(tái)Blackwell芯片已開始投產(chǎn),預(yù)計(jì)將在2025年推出Blackwell Ultra AI芯片。
NVIDIANIM可將模型部署時(shí)間從數(shù)周縮短至幾分鐘
6月2日晚間,一身皮衣的英偉達(dá)創(chuàng)始人黃仁勛又在舞臺(tái)上擺弄起了自家產(chǎn)品,重磅介紹了NVIDIANIM,一種推理微服務(wù),可通過(guò)經(jīng)優(yōu)化的容器形式提供模型,旨在助力各種規(guī)模企業(yè)部署AI服務(wù)。
不過(guò),嚴(yán)格來(lái)說(shuō),NVIDIANIM并非新品,最早露面是在今年3月。英偉達(dá)在6月2日晚間宣布,全球2800萬(wàn)開發(fā)者皆可下載NVIDIANIM,將AI模型部署在云、數(shù)據(jù)中心或工作站上,構(gòu)建Copilot(一種AI助理)、ChatGPT聊天機(jī)器人(10.190, -0.13, -1.26%)等生成式AI應(yīng)用。下月起,NVIDIA 開發(fā)者計(jì)劃的會(huì)員可免費(fèi)使用NIM,在其選擇的基礎(chǔ)設(shè)施上進(jìn)行研究、開發(fā)和測(cè)試。
根據(jù)英偉達(dá)的說(shuō)法,新的生成式AI應(yīng)用正變得越來(lái)越復(fù)雜,通常需要使用具有不同功能的多個(gè)模型來(lái)生成文本,如圖像、視頻、語(yǔ)音等。而NVIDIANIM提供了一種簡(jiǎn)單、標(biāo)準(zhǔn)化的方式——將生成式AI添加到應(yīng)用中,可使模型部署時(shí)間從以前的數(shù)周縮短至幾分鐘。
黃仁勛還透露,包括 Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近200家技術(shù)合作伙伴正在將NIM集成到他們的平臺(tái)中,以加快生成式AI部署。“每個(gè)企業(yè)都希望在其運(yùn)營(yíng)中融入生成式AI,但并非每個(gè)企業(yè)都擁有專門的AI研究團(tuán)隊(duì)。NVIDIA NIM 可被集成到任意平臺(tái)中,任何地方的開發(fā)者都可以訪問(wèn),并且可以在任意環(huán)境中運(yùn)行!秉S仁勛稱。
《每日經(jīng)濟(jì)新聞》記者了解到,NIM是預(yù)先構(gòu)建的,目前有近40個(gè)模型可作為NIM的端點(diǎn)供開發(fā)者體驗(yàn);開發(fā)人員可從開源社區(qū)平臺(tái)Hugging Face訪問(wèn)適用于Meta Llama 3模型的NVIDIA NIM微服務(wù),使用Hugging Face推理端點(diǎn)訪問(wèn)和運(yùn)行 Llama 3 NIM。
值得注意的是,英偉達(dá)還透露了一批大客戶的使用情況,如電子制造商Foxconn正在使用NIM開發(fā)針對(duì)特定領(lǐng)域的大語(yǔ)言模型(LLM),用于智能制造、智慧城市和智能電動(dòng)汽車;和碩正在將NIM用于一個(gè)當(dāng)?shù)氐幕旌蠈<遥∕oE)模型;勞氏公司正在用 NVIDIA NIM推理微服務(wù)來(lái)提升員工和客戶的體驗(yàn);西門子正在將其運(yùn)營(yíng)技術(shù)與NIM微服務(wù)整合,用于車間AI工作負(fù)載;還有數(shù)十家醫(yī)療保健公司正在部署NIM,為包括手術(shù)規(guī)劃、數(shù)字助理、藥物發(fā)現(xiàn)和臨床試驗(yàn)優(yōu)化等在內(nèi)的應(yīng)用領(lǐng)域的生成性AI推理提供支持。
Blackwell芯片開始投產(chǎn)
除了上述產(chǎn)品,黃仁勛還在演講中透露,英偉達(dá)Blackwell芯片已開始投產(chǎn),并將在2025年推出Blackwell Ultra AI芯片。
今年5月,黃仁勛在財(cái)報(bào)電話會(huì)上稱,預(yù)計(jì)今年Blackwell架構(gòu)芯片將為公司帶來(lái)大量收入。英偉達(dá)對(duì)Blackwell芯片寄予厚望,還是與市場(chǎng)強(qiáng)勁需求有關(guān)。從最新披露的財(cái)報(bào)數(shù)據(jù)來(lái)看,2025財(cái)年第一財(cái)季,英偉達(dá)實(shí)現(xiàn)營(yíng)收260億美元,較上年同期增長(zhǎng)262%。其中,數(shù)據(jù)中心業(yè)務(wù)營(yíng)收226億美元,與上年同期相比增長(zhǎng)427%,是業(yè)績(jī)收入的“大頭”。
據(jù)英偉達(dá)首席財(cái)務(wù)官科萊特•克雷斯解讀,數(shù)據(jù)中心業(yè)務(wù)的增長(zhǎng)源自Hopper架構(gòu)GPU(例如H100)出貨量的增加;該季度的重要亮點(diǎn)之一就是Meta宣布推出Lama 3開源大模型,使用了近2.4萬(wàn)塊H100 GPU。
除了披露芯片量產(chǎn)進(jìn)度,英偉達(dá)此次還推出了一系列采用NVIDIABlackwell架構(gòu)的系統(tǒng)。
據(jù)悉,這些系統(tǒng)搭載了GraceCPU以及NVIDIA網(wǎng)絡(luò)和基礎(chǔ)設(shè)施,用于助力企業(yè)建立AI工廠和數(shù)據(jù)中心。其中,NVIDIA MGX模塊化參考設(shè)計(jì)平臺(tái)加入了對(duì)NVIDIA Blackwell產(chǎn)品的支持,包括專為主流大語(yǔ)言模型推理、檢索增強(qiáng)生成和數(shù)據(jù)處理提供卓越性能打造的NVIDIA GB200 NVL2平臺(tái)。
英偉達(dá)強(qiáng)調(diào),GB200 NVL2適合用于數(shù)據(jù)分析等新興領(lǐng)域,借助NVLink—C2C互連技術(shù)帶來(lái)的帶寬內(nèi)存性能及Blackwell架構(gòu)中專有的解壓縮引擎,較使用X86CPU時(shí)的數(shù)據(jù)處理速度可最多提速到18倍,能效提高8倍!靶乱惠喒I(yè)革命已經(jīng)開始,眾多企業(yè)和地區(qū)正在與NVIDIA合作推動(dòng)價(jià)值萬(wàn)億美元的傳統(tǒng)數(shù)據(jù)中心向加速計(jì)算轉(zhuǎn)型,并建造一種新型數(shù)據(jù)中心AI工廠來(lái)生產(chǎn)新的商品,人工智能!秉S仁勛稱。
英偉達(dá)方面表示,目前已有超過(guò)25家合作伙伴的90多套已發(fā)布或正在開發(fā)中的系統(tǒng)使用了MGX參考架構(gòu),開發(fā)成本較之前最多降低了四分之三,開發(fā)時(shí)間縮短到六個(gè)月,較之前減少了三分之二。另外,英偉達(dá)還透露,比亞迪(237.100, 8.08, 3.53%)電子、西門子、泰瑞達(dá)和Alphabet旗下公司Intrinsic等全球十多家機(jī)器人企業(yè)正在將NVIDIAIsaac加速庫(kù)、基于物理學(xué)的仿真和AI模型集成到其軟件框架和機(jī)器人模型中,以此提高工廠、倉(cāng)庫(kù)和配送中心的工作效率。