北京時間11月8日晚間消息,知情人士透露,亞馬遜(142.08, -0.63, -0.44%)將投資數(shù)百萬美元訓(xùn)練大型語言模型(LLM),希望它能與OpenAI和Alphabet的頂級人工模型相媲美。
消息人士稱,亞馬遜人工智能模型的內(nèi)部代號為“Olympus”,該模型擁有2萬億個參數(shù),這一規(guī)?赡軙屗蔀楫(dāng)前世界上正在接受訓(xùn)練的最大模型之一。OpenAI的GPT-4是目前全球最好的模型之一,據(jù)傳該模型有1萬億個參數(shù)。
亞馬遜拒絕對此消息發(fā)表評論。
該團隊由Alexa前負(fù)責(zé)人Rohit Prasad領(lǐng)導(dǎo),他現(xiàn)在直接向首席執(zhí)行官安迪·賈西(Andy Jassy)匯報工作。作為亞馬遜人工通用智能(AGI)的首席科學(xué)家,Prasad引入了一直從事Alexa AI研究的研究人員和亞馬遜科學(xué)團隊來研究訓(xùn)練模型,用專門的資源將整個公司的AI工作整合在一起。
截至目前,亞馬遜已經(jīng)訓(xùn)練出了泰坦(Titan)等規(guī)模較小的模型。該公司還與Anthropic和AI21 Labs等人工智能模型初創(chuàng)公司達(dá)成了合作,向亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)用戶提供這些模型。
熟悉內(nèi)情的人士說,亞馬遜認(rèn)為,擁有自主開發(fā)的人工智能模型可以使其在AWS上的產(chǎn)品更具吸引力,因為企業(yè)客戶希望在AWS上獲得性能最佳的模型。這些消息人士還補充說,目前亞馬遜還沒有制定發(fā)布新模型的具體時間表。
LLM是人工智能工具的基礎(chǔ)技術(shù),這些工具可從海量數(shù)據(jù)集中學(xué)習(xí),生成類似人類的反應(yīng)。
考慮到所需的計算能力,訓(xùn)練更大的人工智能模型成本更高。在4月份的財報電話會議上,亞馬遜高管表示,公司將增加對LLM和生成式人工智能的投資,同時削減零售業(yè)務(wù)的交付和運輸規(guī)模。