據(jù)谷歌官博消息,機(jī)器學(xué)習(xí) ML 開發(fā)和部署如今受到了分散和孤立的基礎(chǔ)設(shè)施的影響,這些基礎(chǔ)設(shè)施可能因框架、硬件和用例而異。這種碎片化限制了開發(fā)者的速度,并對(duì)模型的可移植性、效率和生產(chǎn)化造成了障礙。
為此,阿里巴巴、亞馬遜 AWS、AMD、蘋果、Arm、Cerebras、谷歌、Graphcore、Hugging Face、英特爾、Meta 和英偉達(dá) 12 家科技巨頭宣布,聯(lián)合推出 OpenXLA 項(xiàng)目(包括 XLA、StableHLO 和 IREE 存儲(chǔ)庫(kù)),使開發(fā)者能夠編譯和優(yōu)化來(lái)自所有領(lǐng)先 ML 框架的模型,以便在各種硬件上進(jìn)行高效培訓(xùn)和服務(wù)。
據(jù)介紹,OpenXLA 項(xiàng)目提供了一個(gè)最先進(jìn)的 ML 編譯器,可以在復(fù)雜的 ML 基礎(chǔ)設(shè)施中擴(kuò)展。這一通用的編譯器可以將不同的硬件設(shè)備橋接到當(dāng)今使用的多個(gè)框架(例如 TensorFlow、PyTorch),通過(guò) OpenXLA 來(lái)幫助加速 AI 的開發(fā)和交付來(lái)實(shí)現(xiàn) AI 的實(shí)際潛力。
谷歌稱,使用 OpenXLA 的開發(fā)者將看到訓(xùn)練時(shí)間、吞吐量、服務(wù)延遲以及最終上市時(shí)間和計(jì)算成本方面的顯著改進(jìn)。