7月18日,OpenAI正式推出新一代入門級別人工智能模型“GPT-4o mini”,稱這款新模型是“功能最強、性價比最高的小參數(shù)模型”。
從OpenAI官網(wǎng)的介紹來看,GPT-4o mini在文本智能和多模態(tài)推理方面的基準性能超越了GPT-3.5 Turbo,在LMSYS(指聊天機器人(9.770, 0.07, 0.72%)對戰(zhàn))排行榜上還超過GPT-4。而價格層面,GPT-4o mini相比GPT-3.5 Turbo便宜了超過60%。
在“大力出奇跡”的Scaling Law(尺度定律)之外,如何做好小模型正在成為大模型廠家的新考題。
OpenAI入局小模型賽場
OpenAI表示,預計GPT-4o mini將通過大幅降低智能的成本,顯著擴展AI應用的范圍。據(jù)官網(wǎng)介紹,GPT-4o mini的優(yōu)勢在于低成本和低延遲,支持廣泛的任務,例如串聯(lián)或并行多個模型調(diào)用的應用程序(例如調(diào)用多個API);向模型傳遞大量上下文(例如完整代碼庫或?qū)υ挌v史);或通過快速、實時的文本響應與客戶互動(例如聊天機器人)。
目前,GPT-4o mini在API中支持文本和視覺功能,未來將支持文本、圖像、視頻和音頻的輸入和輸出。該模型具有128K Token的上下文窗口,數(shù)據(jù)更新至2023年10月。
性能方面,OpenAI稱,GPT-4o mini在涉及文本和視覺的推理任務中優(yōu)于其他小模型,在MMLU(文本智能和推理基準測試)中得分為82.0%,相比之下,Gemini Flash為77.9%,Claude Haiku為73.8%。
在數(shù)學推理和編碼任務方面,GPT-4o mini超過了市場大部分小模型。在MGSM(數(shù)學推理評估)中,GPT-4o mini得分為87.0%,而谷歌發(fā)布的Gemini Flash為75.5%;在HumanEval(編碼性能評估)中,GPT-4o mini得分為87.2%,而Gemini Flash為71.5%。
價格方面,GPT-4o mini每百萬個輸入Token為15美分(約合人民幣1.09元),每百萬個輸出Token為60美分(約合人民幣4.36元)。OpenAI表示,這一價格相較GPT-3.5 Turbo便宜超60%。
OpenAI表示,在過去幾年中,人們見證了AI的顯著進步和成本的大幅降低。例如,自2022年推出文本模型Text-Davinci-003以來,GPT-4o mini的每個Token成本已經(jīng)下降了99%。
按照設想,OpenAI希望未來能夠?qū)⒁粋模型無縫集成到每個應用程序和每個網(wǎng)站中,而GPT-4o mini正在為開發(fā)者更高效和更經(jīng)濟地構建和擴展強大的AI應用程序鋪平道路。
不過,在小模型賽場中,OpenAI的各家競爭對手已經(jīng)早早就位。例如谷歌推出的Gemini Flash,Anthropic旗下的Claude Haike等。近日,Mitral AI與英偉達推出的小模型Mistral Nemo上線,聲稱性能趕超Meta推出的Llama-3 8B。
大模型越卷越“小”
這一年來,“降本增效”已經(jīng)成為大部分大模型公司的共識。
平安證券研報認為,OpenAI新模型GPT-4o mini兼具性能與性價比,有望加速大模型應用落地。當前全球范圍內(nèi)的大模型逐漸呈現(xiàn)由單方面的性能角逐,轉(zhuǎn)向性能與實用性并重的發(fā)展趨勢。大模型能力達到一定水平時必然會走向應用,大模型廠商通過提升其產(chǎn)品性價比,助推下游應用端的推廣部署,有望加速大模型產(chǎn)業(yè)鏈商業(yè)閉環(huán)的形成。
一方面,上半年開打的大模型價格戰(zhàn)不斷蔓延,從兩家海外AI巨頭OpenAI和谷歌開始,到國內(nèi)字節(jié)跳動、阿里、百度、智譜AI、科大訊飛(39.640, 0.34, 0.87%)等企業(yè),入局者不斷增加。從OpenAI此舉來看,這場價格戰(zhàn)還將持續(xù)。
IDC中國研究經(jīng)理程蔭此前在接受《每日經(jīng)濟新聞》記者采訪時就談到,從短期的發(fā)展來看,大模型能力更新迭代后將會走向趨同,無論是國內(nèi)還是國外的技術供應商都不能建立起長久的護城河。一些技術供應商選擇直接砍掉大模型成本上的門檻,除了出于促進大模型落地應用,也有增加曝光度,爭搶用戶、防止用戶流失的動因。
另一方面,通過“小模型”,以更低的成本,垂直覆蓋更多的應用場景,以推動端側(cè)應用的落地同樣成為行業(yè)趨勢。同時,隨著以蘋果為代表的各大手機廠商加速發(fā)力AI手機,端側(cè)大模型正在成為新的競爭焦點。
專注端側(cè)模型的面壁智能CEO李大海此前在接受包括《每日經(jīng)濟新聞》在內(nèi)的記者采訪時就談到,相同智能水平的模型,每8個月其參數(shù)規(guī)模將減少一半,這與摩爾定律具有一定的相似性。在同等性能下,參數(shù)規(guī)模減小,說明大模型的知識密度在不斷提高。李大海表示,隨著大模型知識密度的提升和端側(cè)算力的增強,兩個因素疊加,有信心在2026年年底前研發(fā)出達到GPT-4水平的端側(cè)模型,當端側(cè)模型能夠?qū)崿F(xiàn)GPT-4水平時,很多端側(cè)的產(chǎn)品會更快落地。
李大海認為,當端側(cè)模型可以應用,其成本會更低,且可靠性更高,不需要依賴網(wǎng)絡。例如,在用戶需求交流時,基于端側(cè)模型的陪伴機器人能夠迅速作出反應。這種比較優(yōu)勢使得在適用端側(cè)模型的場景中,大家會更傾向于選擇端側(cè)解決方案。
今年3月,百度也發(fā)布ERNIESpeed、ERNIE Lite、ERNIE Tiny三個輕量模型。百度集團董事長李彥宏在今年4月的一場公開演講中也談到,MoE、小模型和智能體是值得關注的三個方向。“通過大模型,壓縮蒸餾出來一個基礎模型,然后再用數(shù)據(jù)去訓練,這比從頭開始訓小模型效果要好很多,比基于開源模型訓出來的模型效果更好、速度更快、成本更低!崩顝┖瓯硎。