首頁|必讀|視頻|專訪|運(yùn)營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁 >> 相關(guān)報(bào)道 >> 正文

算力狂飆電力承壓 英偉達(dá)、英特爾爭相推出節(jié)能方案

2024年9月2日 07:08  每日經(jīng)濟(jì)新聞  

當(dāng)?shù)貢r(shí)間8月26日,OpenAI硬件設(shè)施負(fù)責(zé)人Trevor Cai在Hot Chips 2024上發(fā)表了長達(dá)一小時(shí)的演講,主題為“構(gòu)建可擴(kuò)展的AI基礎(chǔ)設(shè)施”。他指出,OpenAI的一項(xiàng)重要觀察結(jié)果是,擴(kuò)大規(guī)模可以產(chǎn)生更好、更有用的人工智能(AI)。

作為全球芯片行業(yè)影響力最大的會(huì)議之一,Hot Chips于每年8月份在斯坦福大學(xué)舉行。不同于其他行業(yè)會(huì)議以學(xué)術(shù)研究為主,Hot Chips是一場產(chǎn)業(yè)界的盛會(huì),各大處理器公司會(huì)在每年的會(huì)上展現(xiàn)他們最新的產(chǎn)品以及在研的產(chǎn)品。

《每日經(jīng)濟(jì)新聞》記者注意到,AI浪潮推動(dòng)數(shù)據(jù)中心激增,同時(shí)也伴隨著能源需求的激增。在這樣的背景下,此次的Hot Chips大會(huì)上,圍繞人工智能的議題比以往任何一屆都更加活躍。Trevor Cai的演講著眼于解決能源和算力之間的問題,英特爾、IBM和英偉達(dá)等則是提出了更節(jié)能的技術(shù)方案。

摩根士丹利在8月份發(fā)布的研究中預(yù)測稱,生成式AI的電力需求將在未來幾年內(nèi)每年飆升75%,預(yù)計(jì)到2026年,其消耗的能源量將與西班牙在2022年的消耗量相當(dāng)?萍季揞^們該如何應(yīng)對(duì)能源挑戰(zhàn)?

聚焦“節(jié)能方案”

當(dāng)?shù)貢r(shí)間8月26日,一年一度的半導(dǎo)體企業(yè)盛會(huì)Hot Chips2024在斯坦福大學(xué)紀(jì)念禮堂舉行,今年是第36屆。

從會(huì)議第一天的情況來看,大部分的話題都集中在了更節(jié)能、安全且可擴(kuò)展的大規(guī)模AI服務(wù)器部署方案上。

OpenAI硬件負(fù)責(zé)人Trevor Cai發(fā)表了“可預(yù)測的擴(kuò)展和基礎(chǔ)設(shè)施”主題演講,談到了提升計(jì)算能力所帶來的可預(yù)測的擴(kuò)展效益,這也是OpenAI自成立之初就關(guān)注的重點(diǎn)。一個(gè)重要的觀察結(jié)果是,擴(kuò)大規(guī)模可以產(chǎn)生更好、更有用的人工智能!懊看斡(jì)算量翻倍,都會(huì)得到更好的結(jié)果。模型的能力和計(jì)算資源的消耗是呈指數(shù)級(jí)別上升的。自2018年以來,行業(yè)中前沿模型的計(jì)算量每年增長約4倍!彼f道。

最初,GPT-1只需幾周的時(shí)間完成訓(xùn)練。如今,它已經(jīng)擴(kuò)展到需要龐大的GPU集群。因此,OpenAI認(rèn)為AI的基礎(chǔ)建設(shè)需要大量投資,因?yàn)橛?jì)算能力的提升已經(jīng)產(chǎn)生了超過8個(gè)數(shù)量級(jí)的效益。

似乎是為了呼應(yīng)OpenAI的演講,各大公司的演講也不約而同地提到了大規(guī)模部署AI服務(wù)器的計(jì)劃方案。

IBM在大會(huì)上披露了即將推出的IBM Telum II處理器和IBM Spyre加速器的架構(gòu)細(xì)節(jié)。新技術(shù)旨在顯著擴(kuò)展下一代IBM Z大型機(jī)系統(tǒng)的處理能力,通過一種新的AI集成方法幫助加速傳統(tǒng)AI模型和大型語言 AI模型的協(xié)同使用。IBM特別強(qiáng)調(diào)這次更新的先進(jìn)I/O技術(shù)旨在降低能耗和數(shù)據(jù)中心占用空間。

英偉達(dá)也在大會(huì)上放出了最新的AI集群架構(gòu)Blackwell的相關(guān)消息。英偉達(dá)稱,Blackwell擁有6項(xiàng)革命性技術(shù),可支持多達(dá)10萬億參數(shù)的模型進(jìn)行AI訓(xùn)練和實(shí)時(shí)大語言模型(LLM)推理。值得注意的是,英偉達(dá)的Quasar量化系統(tǒng)用于確定可以使用較低精度的內(nèi)容,從而減少計(jì)算和存儲(chǔ)。英偉達(dá)表示他們的宗旨就是在提高能源效率的同時(shí)為AI和加速計(jì)算性能提供新標(biāo)準(zhǔn)。

除此之外,英特爾、博通、海力士等公司的演講中均提到了更節(jié)能的技術(shù)方案。

能源需求激增

科技巨頭們著眼“更節(jié)能的”技術(shù)方案的根本原因在于,當(dāng)前人工智能熱潮正在增加更強(qiáng)大的處理器以及保持?jǐn)?shù)據(jù)中心冷卻所需的能源需求。

當(dāng)前,微軟、Alphabet和Meta等大型科技公司正在投資數(shù)十億美元建設(shè)數(shù)據(jù)中心基礎(chǔ)設(shè)施,以支持生成式人工智能,但數(shù)據(jù)中心的激增也伴隨著能源需求的激增。

據(jù)彭博社報(bào)道,僅去年,大型科技公司就向數(shù)據(jù)中心設(shè)施投入了約1050億美元。谷歌、蘋果和特斯拉等公司不斷通過新產(chǎn)品和服務(wù)增強(qiáng)AI能力。每項(xiàng)AI任務(wù)都需要巨大的計(jì)算能力,這意味著數(shù)據(jù)中心會(huì)消耗大量電力。國際能源署(IEA)預(yù)測,到2026年,全球數(shù)據(jù)中心每年使用的能源量將相當(dāng)于日本的電力消耗量。

Hugging Face的人工智能和氣候負(fù)責(zé)人Sasha Luccioni提到,雖然訓(xùn)練AI模型需要耗費(fèi)大量能源(例如,訓(xùn)練 GPT-3模型耗費(fèi)了大約1300兆瓦時(shí)的電力,而GPT-4的訓(xùn)練消耗是GPT3的50倍),但通常只進(jìn)行一次。然而,由于查詢量巨大,模型生成響應(yīng)可能需要更多能源。

例如,當(dāng)用戶向ChatGPT等AI模型提問時(shí),需要向數(shù)據(jù)中心發(fā)送請求,然后強(qiáng)大的處理器會(huì)生成響應(yīng)。這個(gè)過程雖然很快,但消耗的能量也是巨大的。根據(jù)艾倫人工智能研究所的數(shù)據(jù),對(duì)ChatGPT進(jìn)行一次查詢所消耗的電量相當(dāng)于為燈泡點(diǎn)亮20分鐘,是簡單Google搜索耗電量的10倍以上。

然而,全球的電力資源有限,而數(shù)據(jù)中心需要持續(xù)穩(wěn)定的電力供應(yīng)來運(yùn)行服務(wù)器和其他核心運(yùn)營設(shè)備。如果能源供應(yīng)不穩(wěn)定,停機(jī)可能會(huì)給企業(yè)和其他用戶造成重大經(jīng)濟(jì)損失。此外,巨大的能源消耗也引發(fā)了人們對(duì)環(huán)境的擔(dān)憂。

為應(yīng)對(duì)這一挑戰(zhàn),科技公司們開始尋找解決方案。

部分公司選擇更清潔且高效的能源供給,如核能。亞馬遜最近在美國賓夕法尼亞州東北部購買了一個(gè)價(jià)值6.5億美元的核能數(shù)據(jù)中心園區(qū)設(shè)施,該設(shè)施將使用核反應(yīng)堆產(chǎn)生的高達(dá)40%的電力,最終使亞馬遜能夠減少對(duì)當(dāng)?shù)仉娋W(wǎng)的依賴。與此同時(shí),微軟聘請了核專家來帶頭尋找這種替代電源。微軟還與核電站運(yùn)營商簽訂了合同協(xié)議,為其位于弗吉尼亞州的一個(gè)數(shù)據(jù)中心提供電力。

除此之外,科技公司們不僅在前文所提到的一系列芯片節(jié)能技術(shù)進(jìn)行努力,也在其他硬件設(shè)施和技術(shù)上下足了功夫。

谷歌正在開發(fā)人工智能專用芯片,例如張量處理單元(TPU),這些芯片針對(duì)人工智能任務(wù)進(jìn)行了優(yōu)化,而不是使用為游戲技術(shù)創(chuàng)建的圖形處理單元(GPU)。

英偉達(dá)針對(duì)Blackwell芯片的直接液體冷卻系統(tǒng)還宣布了一項(xiàng)研究,研究表明了如何重新利用從服務(wù)器中吸收的熱量并將其回收到數(shù)據(jù)中心。據(jù)英偉達(dá)估計(jì),冷卻最多可減少數(shù)據(jù)中心設(shè)施耗電量的28%。

然而,威斯康星大學(xué)麥迪遜分校的教授辛克萊提醒,杰文斯悖論在這里依然適用。“提高人工智能的效率,雖然減少了單次能耗,但整體使用率的增加最終會(huì)導(dǎo)致總體能耗的上升!毙量巳R解釋道。這個(gè)悖論不僅適用于19世紀(jì)的火車煤炭使用,同樣適用于當(dāng)今的人工智能和電力消耗。

(每經(jīng)記者 文巧 實(shí)習(xí)記者 岳楚鵬    每經(jīng)編輯 高涵    )

編 輯:高靖宇
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國電信邵廣祿:面向AI大模型的智算集群及網(wǎng)絡(luò)的實(shí)踐和展望
精彩專題
2024年國際信息通信展
中國信科亮相2024年國際信息通信展
第25屆中國國際光電博覽會(huì)
2024年上半年運(yùn)營商業(yè)績盤點(diǎn)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像