2024年6月14日,第六屆“北京智源大會”在中關(guān)村展示中心開幕。
北京智源大會是智源研究院主辦的“AI內(nèi)行頂級盛會”,以“全球視野、思想碰撞、前沿引領(lǐng)”為特色,匯聚海內(nèi)外研究者分享研究成果、探尋前沿知識、交流實(shí)踐經(jīng)驗。2024北京智源大會邀請到了圖靈獎得主姚期智,OpenAI、Meta、DeepMind、斯坦福、UC Berkeley等國際明星機(jī)構(gòu)與技術(shù)團(tuán)隊代表,以及百度、零一萬物、百川智能、智譜AI、面壁智能等國內(nèi)主流大模型公司CEO與CTO,匯聚了200余位人工智能頂尖學(xué)者和產(chǎn)業(yè)專家,圍繞人工智能關(guān)鍵技術(shù)路徑和應(yīng)用場景展開精彩演講和尖峰對話。
開幕式由智源研究院理事長黃鐵軍主持。
智源研究院院長王仲遠(yuǎn)做2024智源研究院進(jìn)展報告,匯報智源研究院在語言、多模態(tài)、具身、生物計算大模型的前沿探索和研究進(jìn)展以及大模型全棧開源技術(shù)基座的迭代升級與版圖布局。
王仲遠(yuǎn)表示,現(xiàn)階段語言大模型的發(fā)展已經(jīng)具備了通用人工智能非常核心的理解和推理能力,并且形成了一條以語言大模型為核心對齊和映射其他模態(tài)的技術(shù)路線,從而讓模型具備了初步的多模態(tài)理解和生成能力。但這并不是讓人工智能感知、理解物理世界的終極技術(shù)路線,而是應(yīng)該采取統(tǒng)一模型的范式,實(shí)現(xiàn)多模態(tài)的輸入和輸出,讓模型具備原生的多模態(tài)擴(kuò)展能力,向世界模型演進(jìn)。未來,大模型將以數(shù)字智能體的形態(tài)與智能硬件融合,以具身智能的形態(tài)從數(shù)字世界進(jìn)入物理世界,同時,大模型這一技術(shù)手段可為科學(xué)研究提供新的知識表達(dá)范式,加速人類對微觀物理世界規(guī)律的探索與研究突破,不斷趨近通用人工智能的終極目標(biāo)。
智源語言大模型
全球首個低碳單體稠密萬億語言模型Tele-FLM-1T
針對大模型訓(xùn)練算力消耗高的問題,智源研究院和中國電信人工智能研究院(TeleAI)基于模型生長和損失預(yù)測等關(guān)鍵技術(shù),聯(lián)合研發(fā)并推出全球首個低碳單體稠密萬億語言模型 Tele-FLM-1T。該模型與百億級的52B版本,千億級的102B版本共同構(gòu)成Tele-FLM系列模型。
Tele-FLM系列模型實(shí)現(xiàn)了低碳生長,僅以業(yè)界普通訓(xùn)練方案9%的算力資源,基于112臺A800服務(wù)器,用4個月完成3個模型總計2.3Ttokens的訓(xùn)練,成功訓(xùn)練出萬億稠密模型Tele-FLM-1T。模型訓(xùn)練全程做到了零調(diào)整零重試,算力能效高且模型收斂性和穩(wěn)定性好。目前,TeleFLM系列模型已經(jīng)全面開源了52B版本,核心技術(shù)(生長技術(shù)、最優(yōu)超參預(yù)測)、訓(xùn)練細(xì)節(jié)(loss曲線、最優(yōu)超參、數(shù)據(jù)配比和Grad Norm等)均開源,期望技術(shù)開源可以對大模型社區(qū)產(chǎn)生有益促進(jìn)。Tele-FLM-1T版本即將開源,希望可以為社區(qū)訓(xùn)練萬億稠密模型提供一個優(yōu)秀的初始參數(shù),避免萬億模型訓(xùn)練收斂難等問題。
Tele-FLM-52B 版本開源地址 https://huggingface.co/CofeAI/Tele-FLM
Tele-FLM-Chat 試用(純模型單輪對話版)地址https://modelscope.cn/studios/FLM/ChatFLM
在基礎(chǔ)模型的性能方面:BPB 顯示,英文能力上,Tele-FLM-52B接近Llama3-70B,優(yōu)于 Llama2-70B和Llama3-8B;中文能力上,Tele-FLM-52B 為開源最強(qiáng),優(yōu)于 Llama3-70B 和 Qwen1.5-72B。在對話模型性能方面:AlignBench評測顯示,Tele-FLM-Chat(52B)已經(jīng)達(dá)到GPT-4 中文語言能力的96%,總體能力達(dá)到GPT-4 的80%。
通用語言向量模型BGE系列
針對大模型幻覺等問題,智源研究院自主研發(fā)了通用語義向量模型BGE(BAAI General Embedding)系列,基于檢索增強(qiáng)RAG技術(shù),實(shí)現(xiàn)數(shù)據(jù)之間精準(zhǔn)的語義匹配,支持大模型調(diào)用外部知識的調(diào)用。自2023年8月起,BGE模型系列先后進(jìn)行了三次迭代,分別在中英文檢索、多語言檢索、精細(xì)化檢索三個任務(wù)中取得了業(yè)內(nèi)最佳的表現(xiàn),綜合能力顯著優(yōu)于OpenAI、Google、Microsoft、Cohere等機(jī)構(gòu)的同類模型。目前,BGE模型系列下載總量位列國產(chǎn)AI模型首位,并被HuggingFace、Langchain、Llama Index等國際主流AI開發(fā)框架以及騰訊、華為、阿里、字節(jié)、微軟、亞馬遜等主要云服務(wù)提供商集成,對外提供商業(yè)化服務(wù)。
二、智源多模態(tài)大模型
原生多模態(tài)世界模型Emu 3
行業(yè)現(xiàn)有的多模態(tài)大模型多為對于不同任務(wù)而訓(xùn)練的專用模型,例如Stable Diffusion之于文生圖,Sora之于文生視頻,GPT-4V之于圖生文。每類模型都有對應(yīng)的架構(gòu)和方法,例如對于視頻生成,行業(yè)普遍參照Sora選擇了DiT架構(gòu)。但是現(xiàn)有模型的能力多為單一分散的能力組合,而不是原生的統(tǒng)一能力,例如目前Sora還做不到圖像和視頻的理解。
為了實(shí)現(xiàn)多模態(tài)、統(tǒng)一、端到端的下一代大模型,智源研究院推出了Emu3原生多模態(tài)世界模型。Emu3采用智源自研的多模態(tài)自回歸技術(shù)路徑,在圖像、視頻、文字上聯(lián)合訓(xùn)練,使模型具備原生多模態(tài)能力,實(shí)現(xiàn)了圖像、視頻、文字的統(tǒng)一輸入和輸出。Emu3從模型訓(xùn)練開始就是為統(tǒng)一的多模態(tài)生成和理解而設(shè)計的,目前具備生成高質(zhì)量圖片和視頻、續(xù)寫視頻、理解物理世界等多模態(tài)能力。簡單來說,Emu3既統(tǒng)一了視頻、圖像、文字,也統(tǒng)一了生成和理解。值得注意的是,Emu3在持續(xù)訓(xùn)練中,經(jīng)過安全評估之后將逐步開源。
輕量級圖文多模態(tài)模型系列Bunny-3B/4B/8B
為適應(yīng)智能端側(cè)的應(yīng)用,智源研究院推出了輕量級圖文多模態(tài)模型系列 Bunny-3B/4B/8B,該模型系列采用靈活架構(gòu),可支持多種視覺編碼器和語言基座模型。多個榜單的綜合結(jié)果表明,Bunny-8B 的多模態(tài)能力可達(dá)到 GPT-4o 性能的 87%。目前,Bunny 模型參數(shù)、訓(xùn)練代碼、訓(xùn)練數(shù)據(jù)已全部開源。
開源地址:https://github.com/BAAI-DCAI/Bunny
三、智源具身大模型
智源研究院具身智能創(chuàng)新中心在機(jī)器人泛化動作執(zhí)行和智能大小腦決策控制等方面取得了多項世界級突破性成果。
全球領(lǐng)先真機(jī)實(shí)驗成功率突破95% 的泛化抓取技術(shù)ASGrasp
在具身智能通用抓取能力方面,針對跨任意形狀和材質(zhì)的泛化難題,智源率先突破95%的真機(jī)實(shí)驗成功率,從而實(shí)現(xiàn)了全球領(lǐng)先的商業(yè)級動作執(zhí)行水平。借助這項技術(shù),即使在復(fù)雜光線透射、反射的情況下,我們的機(jī)器人依然能夠準(zhǔn)確感知包括透明、高反光物體的形狀和姿態(tài),并預(yù)測出高成功率的抓取位姿。
分級具身大模型系統(tǒng)之能反思、可隨機(jī)應(yīng)變的鉸接物體操作大模型系統(tǒng)SAGE
在分級具身大模型系統(tǒng)方面,智源研發(fā)了能夠從失敗中重思考、再嘗試的鉸接物體操作大模型系統(tǒng)SAGE。該系統(tǒng)有效結(jié)合了三維視覺小模型對空間幾何的精確感知能力和通用圖文大模型的通用物體操作知識,使大模型驅(qū)動的機(jī)器人能夠在任務(wù)執(zhí)行失敗時能夠重新思考并再次嘗試新的交互方式,實(shí)現(xiàn)了傳統(tǒng)機(jī)器人技術(shù)無法企及的智能性和魯棒性。
分級具身大模型系統(tǒng)之全球首個開放指令六自由度拿取放置大模型系統(tǒng)Open6DOR
在分級具身大模型系統(tǒng)方面,智源還研發(fā)了全球首個能做到開放指令控制六自由度物體拿取放置的大模型系統(tǒng)Open6DOR。該系統(tǒng)不僅像谷歌RT系列大模型一樣按照自然語言指令中的要求將物體放到指定位置,還能夠進(jìn)一步對物體的姿態(tài)進(jìn)行精細(xì)化控制。該項技術(shù)極大地提高了具身操作大模型的商業(yè)應(yīng)用范圍和價值。
全球首個端到端基于視頻的多模態(tài)具身導(dǎo)航大模型NaVid
在面向技術(shù)終局的端到端具身大模型層面,智源發(fā)布了全球首個端到端基于視頻的多模態(tài)具身導(dǎo)航大模型NaVid。該模型可直接將機(jī)器人視角的視頻和用戶的自然語言指令作為輸入,端到端輸出機(jī)器人的移動控制信號。不同于以往的機(jī)器人導(dǎo)航技術(shù),NaVid無需建圖,也不依賴于深度信息和里程計信息等其它傳感器信號,而是完全依靠機(jī)器人攝像頭采集的單視角RGB視頻流,并在只利用合成導(dǎo)航數(shù)據(jù)進(jìn)行訓(xùn)練的情況下,通過Sim2Real的方式,實(shí)現(xiàn)在真實(shí)世界室內(nèi)場景甚至是室外場景的zero-shot真機(jī)泛化,是一項勇敢而成功的前沿技術(shù)探索工作。
智能心臟超聲機(jī)器人
智源研究院聯(lián)合領(lǐng)視智遠(yuǎn)研發(fā)了全球首個智能心臟超聲機(jī)器人,實(shí)現(xiàn)了全球首例真人身上的自主心臟超聲掃查,可解決心臟B超醫(yī)生緊缺,診斷準(zhǔn)確率不高,標(biāo)準(zhǔn)化欠缺,效率低的難題;诔曈跋窈蜋C(jī)械臂的受力信息,智能心臟超聲機(jī)器人可在高速動態(tài)環(huán)境下,快速計算,提取心臟特征,實(shí)現(xiàn)了相當(dāng)于自動駕駛L2、 L3 級的智能化水平。臨床驗證結(jié)果顯示,準(zhǔn)確性上,智能心臟超聲機(jī)器人能和高年資醫(yī)生保持一致;穩(wěn)定性上,智能心臟超聲機(jī)器人更高;舒適性上,智能超聲機(jī)器人的力度可以控制在 4 牛以內(nèi),更舒適;效率上,智能超聲機(jī)器人實(shí)驗機(jī)可與人類醫(yī)生持平。
通用計算機(jī)控制框架Cradle
為實(shí)現(xiàn)通用計算機(jī)控制,智源研究院提出了通用計算機(jī)控制框架Cradle,讓智能體像人一樣看屏幕,通過鼠標(biāo)、鍵盤完成計算機(jī)上的所有任務(wù)。Cradle 由信息收集、自我反思、任務(wù)推斷、技能管理、行動計劃以及記憶模塊等 6 個模塊組成,可進(jìn)行 “反思過去,總結(jié)現(xiàn)在,規(guī)劃未來”的強(qiáng)大決策推理。不同于業(yè)界其他方法,Cradle不依賴任何內(nèi)部API實(shí)現(xiàn)了通用性。目前,智源研究院與昆侖萬維研究院等單位合作,在荒野大鏢客、星露谷物語、城市天際線、當(dāng)鋪人生4款游戲,以及Chrome、Outlook、飛書、美圖秀秀以及剪映5種軟件上,對Cradle進(jìn)行了驗證。智能體不僅可以根據(jù)提示自主學(xué)習(xí)玩游戲,還能對圖片、視頻進(jìn)行有想象力的編輯。
未來,智源將依托多模態(tài)大模型技術(shù)優(yōu)勢資源,聯(lián)合北大、清華、中科院等高校院所,銀河通用、加速進(jìn)化等產(chǎn)業(yè)鏈上下游企業(yè),建設(shè)具身智能創(chuàng)新平臺,重點(diǎn)開展數(shù)據(jù)、模型、場景驗證等研究,打造具身智能創(chuàng)新生態(tài)。
四、智源生物計算大模型
全原子生物分子模型OpenComplex 2
此外,智源研究院,還探索了生成式人工智能應(yīng)用于分子生物學(xué)中的應(yīng)用。智源研究院研發(fā)的全原子生物分子模型OpenComplex 2,是世界領(lǐng)先的大分子結(jié)構(gòu)預(yù)測模型,能有效預(yù)測蛋白質(zhì)、RNA、DNA、糖類、小分子等復(fù)合物。在生物分子結(jié)構(gòu)預(yù)測領(lǐng)域國際競賽CAMEO(Continous Automated Model EvaluatiOn)中,OpenComplex 連續(xù)2年穩(wěn)居賽道第一,并獲得了CASP(Critical Assessment of Techniques for Protein Structure Prediction)15的RNA自動化賽道預(yù)測冠軍。
OpenComplex 2 是基于全原子建模的生命分子基礎(chǔ)模型,科研人員發(fā)現(xiàn)不僅可以預(yù)測大分子的穩(wěn)定結(jié)構(gòu),還初步具備預(yù)測分子多構(gòu)型以及折疊過程的能力;谶@樣的能力,生命科學(xué)家可以進(jìn)一步探索蛋白質(zhì)的生物學(xué)功能。目前,智源已和研究伙伴在多項重要疾病上展開了研究,提供成藥性和分子機(jī)理研究。未來,基于OpenComplex的能力,我們有望能夠開啟生命科學(xué)研究的新紀(jì)元,為進(jìn)一步揭示如HIV病毒、神經(jīng)元等復(fù)雜生命機(jī)理提供新的可能。
全球首個實(shí)時孿生心臟計算模型
智源研究院構(gòu)建了全球首個實(shí)時孿生心臟計算模型,可實(shí)現(xiàn)高精度的前提下生物時間/仿真時間比小于1,位于國際領(lǐng)先水平。
實(shí)時心臟計算模型是虛擬心臟科學(xué)研究的開端,是孿生心臟走向臨床應(yīng)用的基礎(chǔ);谶@一模型,智源將創(chuàng)新性地采用物理-數(shù)據(jù)雙驅(qū)動模型,融合第一性原理和人工智能方法,從亞細(xì)胞級、細(xì)胞級、器官級、軀干級仿真出一個“透明心臟”,且能根據(jù)患者的臨床數(shù)據(jù),構(gòu)建出反映患者的個性化生理病理的孿生心臟,從而進(jìn)行藥物篩選、治療方案優(yōu)化、術(shù)前規(guī)劃等臨床應(yīng)用。
目前,智源與北醫(yī)一院共同成立了“北京大學(xué)第一醫(yī)院-北京智源人工智能研究院心臟AI 聯(lián)合研究中心”,正在開展基于超聲影像的急性心肌梗死診斷、心衰的病理仿真、腎動脈造影等課題,與安貞醫(yī)院合作進(jìn)行室速疾病的無創(chuàng)心外膜標(biāo)測技術(shù)的前沿研究,與斯高電生理研究院開展藥物篩選平臺的開發(fā)與應(yīng)用以及與清華長庚醫(yī)院和朝陽醫(yī)院合作開展肥厚性心肌病課題。
智源研究院作為創(chuàng)新性研究機(jī)構(gòu),引領(lǐng)人工智能前沿技術(shù)的發(fā)展,也發(fā)揮第三方中立、非營利機(jī)構(gòu)的優(yōu)勢,搭建公共技術(shù)基座,解決當(dāng)前產(chǎn)業(yè)的痛點(diǎn)。
FlagOpen大模型開源技術(shù)基座2.0,模型、數(shù)據(jù)、算法、評測、系統(tǒng)五大版圖布局升級
為幫助全球開發(fā)者一站式啟動大模型開發(fā)和研究工作,智源研究院推出了面向異構(gòu)芯片、支持多種框架的大模型全棧開源技術(shù)基座FlagOpen 2.0,在1.0的基礎(chǔ)上,進(jìn)一步完善了模型、數(shù)據(jù)、算法、評測、系統(tǒng)五大版圖布局,旨在打造大模型時代的 Linux。
FlagOpen 2.0可支持多種芯片和多種深度學(xué)習(xí)框架。目前,開源模型全球總下載量超 4755 萬次,累計開源數(shù)據(jù)集 57 個,下載量近9萬次,開源項目代碼下載量超 51 萬次。
開源地址:https://github.com/FlagOpen
一、支持異構(gòu)算力集群的大模型“操作系統(tǒng)”FlagOS
為滿足不斷攀升的大模型訓(xùn)練和推理計算需求,應(yīng)對大規(guī)模AI系統(tǒng)和平臺面臨的集群內(nèi)或集群間異構(gòu)計算、高速互聯(lián)、彈性穩(wěn)定的技術(shù)挑戰(zhàn),智源研究院推出了面向大模型、支持多種異構(gòu)算力的智算集群軟件棧 FlagOS。FlagOS融合了智源長期深耕的面向多元AI芯片的關(guān)鍵技術(shù),包括異構(gòu)算力智能調(diào)度管理平臺九鼎、支持多元AI異構(gòu)算力的并行訓(xùn)推框架FlagScale、支持多種AI芯片架構(gòu)的高性能算子庫FlagAttention和FlagGems,集群診斷工具FlagDiagnose和AI芯片評測工具FlagPerf。FlagOS如同“操作系統(tǒng)”一樣,集異構(gòu)算力管理、算力自動遷移、并行訓(xùn)練優(yōu)化、高性能算子于一體。向上支撐大模型訓(xùn)練、推理、評測等重要任務(wù),向下管理底層異構(gòu)算力、高速網(wǎng)絡(luò)、分布式存儲。目前,F(xiàn)lagOS已支持了超過50個團(tuán)隊的大模型研發(fā),支持8種芯片,管理超過4600個AI加速卡,穩(wěn)定運(yùn)行20個月,SLA超過99.5%,幫助用戶實(shí)現(xiàn)高效穩(wěn)定的集群管理、資源優(yōu)化、大模型研發(fā)。FlagOS的推出將為中國新一代智算中心的建設(shè)提供助力,顯著提升智算集群的能力水平,加速大模型產(chǎn)業(yè)的發(fā)展。
二、首個千萬級高質(zhì)量開源指令微調(diào)數(shù)據(jù)集 InfinityInstruct
高質(zhì)量的指令數(shù)據(jù)是大模型性能的“養(yǎng)料”。智源研究院發(fā)布首個千萬級高質(zhì)量開源指令微調(diào)數(shù)據(jù)集開源項目,首期發(fā)布經(jīng)過驗證的300萬條中英文指令數(shù)據(jù),近期將完成千萬條指令數(shù)據(jù)的開源。智源對現(xiàn)有開源數(shù)據(jù)進(jìn)行領(lǐng)域分析,確保合理類型分布,對大規(guī)模數(shù)據(jù)進(jìn)行質(zhì)量篩選保留高價值數(shù)據(jù),針對開源數(shù)據(jù)缺乏的領(lǐng)域和任務(wù),進(jìn)行數(shù)據(jù)增廣,并結(jié)合人工標(biāo)注對數(shù)據(jù)質(zhì)量進(jìn)行控制,避免合成數(shù)據(jù)分布偏差。當(dāng)前開源的300萬條指令數(shù)據(jù)集已經(jīng)顯示出超越Mistral、Openhermes等的SFT數(shù)據(jù)能力。我們期待在提升到千萬級數(shù)據(jù)量級后,基座模型基于該指令微調(diào)數(shù)據(jù)集進(jìn)行訓(xùn)練,對話模型能力可達(dá)GPT-4 水平。
三、全球最大的開源中英文多行業(yè)數(shù)據(jù)集IndustryCorpus
為加速推進(jìn)大模型技術(shù)的產(chǎn)業(yè)應(yīng)用進(jìn)程,智源研究院構(gòu)建并開源了IndustryCorpus中英文多行業(yè)數(shù)據(jù)集,包含總計3.4TB預(yù)訓(xùn)練數(shù)據(jù)集,其中中文1TB,英文2.4TB,覆蓋18類行業(yè),分類準(zhǔn)確率達(dá)到80%,未來計劃增加到30類。
智源通過構(gòu)建多行業(yè)數(shù)據(jù)算子,訓(xùn)練行業(yè)分類和質(zhì)量過濾模型,實(shí)現(xiàn)高效的高質(zhì)量預(yù)訓(xùn)練數(shù)據(jù)處理流程,并提出了一套提升精調(diào)數(shù)據(jù)集問題復(fù)雜度、解答思維鏈和多輪問答質(zhì)量篩選的方法,處理預(yù)訓(xùn)練、SFT和RLHF數(shù)據(jù)。
為驗證行業(yè)數(shù)據(jù)集的性能表現(xiàn),智源訓(xùn)練了醫(yī)療行業(yè)示范模型,對比繼續(xù)預(yù)訓(xùn)練前的模型,客觀性能總體提升了20%,而經(jīng)過我們制作的醫(yī)療SFT數(shù)據(jù)集和DPO數(shù)據(jù)集的精調(diào)訓(xùn)練,相對參考答案的主觀勝率達(dá)到82%,5分制多輪對話能力CMTMedQA評分達(dá)到4.45。
行業(yè)預(yù)訓(xùn)練數(shù)據(jù)集:https://data.baai.ac.cn/details/BAAI-IndustryCorpus
醫(yī)療示范模型地址:https://huggingface.co/BAAI/AquilaMed-RL
醫(yī)療示范模型SFT數(shù)據(jù)集地址:https://huggingface.co/datasets/BAAI/AquilaMed-Instruct
醫(yī)療示范模型DPO數(shù)據(jù)集地址:https://huggingface.co/datasets/BAAI/AquilaMed-RL
四、支持多元AI異構(gòu)算力的并行訓(xùn)練框架FlagScale實(shí)現(xiàn)首次突破
FlagScale首次在異構(gòu)集群上實(shí)現(xiàn)不同廠商跨節(jié)點(diǎn)RDMA直連和多種并行策略的高效混合訓(xùn)練,成為業(yè)界首個在多元異構(gòu)AI芯片上同時支持縱向和橫向擴(kuò)展兩階段增長模式的訓(xùn)練框架。
FlagScale支持語言及多模態(tài)模型的稠密及稀疏訓(xùn)練,可實(shí)現(xiàn)1M長序列大規(guī)模穩(wěn)定訓(xùn)練和推理;支持基于國產(chǎn)算力的8x16B千億參數(shù)MoE語言大模型1024卡40天以上的穩(wěn)定訓(xùn)練,實(shí)現(xiàn)端到端的訓(xùn)練、微調(diào)與推理部署;支持不同架構(gòu)的多種芯片合池訓(xùn)練,基于業(yè)界領(lǐng)先的異構(gòu)并行策略,可達(dá)到85%以上的混合訓(xùn)練性能上界,與同構(gòu)芯片的模型訓(xùn)練效果一致;適配8款國內(nèi)外不同芯片,可在不同集群進(jìn)行規(guī)模訓(xùn)練驗證,實(shí)現(xiàn)Loss逐位與收斂曲線嚴(yán)格對齊。
五、面向大模型的開源Triton算子庫
為更好地支持多元AI芯片統(tǒng)一生態(tài)發(fā)展,智源研究院推出了面向大模型的開源Triton算子庫,包括首個通用算子庫FlagGems和大模型專用算子庫FlagAttention,可基于統(tǒng)一開源編程語言,大幅提升算子開發(fā)效率,同時,面向多元芯片共享算子庫。
目前主流語言和多模態(tài)模型需要的127個算子,通用算子庫FlagGems已覆蓋66個,預(yù)計2024年底實(shí)現(xiàn)全覆蓋。大模型專用算子庫FlagAttention,包含6種高頻使用的且緊跟算法前沿的最新Attention類算子,為用戶提供編程范例,可自定義算子。
應(yīng)用了專為 pointwise 類別的算子設(shè)計的自動代碼生成技術(shù),用戶只需通過簡潔的計算邏輯描述,即可自動生成高效的 Triton 代碼。該技術(shù)目前已經(jīng)應(yīng)用于31個pointwise類算子,占算子庫整體的47%。同時,基于運(yùn)行時優(yōu)化技術(shù),算子運(yùn)行速度提升70%,保障了算子高性能。
六、FlagEval大模型評估全面升級
打造丈量大模型能力高峰的“尺子”乃是充滿挑戰(zhàn)的科研難題。智源秉持科學(xué)、權(quán)威、公正、開放原則,不斷推動評估工具和方法的迭代優(yōu)化。FlagEval大模型評估自2023年發(fā)布以來,已從主要面向語言模型擴(kuò)展到視頻、語音、多模態(tài)模型,實(shí)現(xiàn)多領(lǐng)域全覆蓋,采用主觀客觀結(jié)合以及開卷閉卷綜合的考察方式,首次聯(lián)合權(quán)威教育部門開展大模型K12學(xué)科測驗,與中國傳媒大學(xué)合作共建文生視頻模型主觀評價體系。智源研究院已與全國10余家高校和機(jī)構(gòu)合作共建評測方法與工具,探索基于AI的輔助評測模型 FlagJudge,打造面向大模型新能力的有挑戰(zhàn)的評測集,包括與北京大學(xué)共建的HalluDial幻覺評測集、與北師大共建的CMMU多模態(tài)評測集、多語言跨模態(tài)評測集MG18、復(fù)雜代碼評測集TACO以及長視頻理解評測MLVU等,其中與北京大學(xué)共建的HalluDial是目前全球規(guī)模最大的對話場景下的幻覺評測集,有18000多個輪次對話,和14萬多個回答。
智源研究院牽頭成立了IEEE大模型評測標(biāo)準(zhǔn)小組P3419,與hugging face社區(qū)合作發(fā)布多個榜單,并將先進(jìn)的評測數(shù)據(jù)以及裁判模型與新加坡IMDA合作,共同貢獻(xiàn)到AI Verify Foundation,以促進(jìn)在大模型評估方法和工具上的國際合作。
大模型先鋒集結(jié)共探AGI之路
2024北京智源大會開幕式上,OpenAI Sora及DALL·E團(tuán)隊負(fù)責(zé)人Aditya Ramesh,紐約大學(xué)助理教授謝賽寧,就多模態(tài)模型的技術(shù)路徑以及未來演化方向進(jìn)行了觀點(diǎn)碰撞。
在智源研究院理事長黃鐵軍主持的Fireside Chat中,零一萬物CEO李開復(fù),中國工程院院士、清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)院長張亞勤,分別分享了對通用人工智能技術(shù)發(fā)展的趨勢判斷。
百度CTO王海峰做“大模型為通用人工智能帶來曙光”的報告分享。
在通往AGI的尖峰對話中,智源研究院王仲遠(yuǎn),百川智能CEO王小川,智譜AI CEO張鵬,月之暗面CEO楊植麟,面壁智能CEO李大海針對大模型的技術(shù)路徑依賴與突破、開放生態(tài)與封閉研究、商業(yè)模式探索等熱點(diǎn)話題,展開深度討論。
未來,智源研究院將繼續(xù)堅持原始技術(shù)創(chuàng)新,做前沿方向的路線探索,廣泛鏈接學(xué)術(shù)生態(tài),賦能產(chǎn)業(yè)發(fā)展。