在Google Cloud Next 24大會(huì)上,谷歌公司宣布了三個(gè)新的開(kāi)源項(xiàng)目,這些項(xiàng)目將幫助用戶構(gòu)建和運(yùn)行生成性人工智能模型,進(jìn)一步推動(dòng)人工智能領(lǐng)域的發(fā)展。同時(shí),谷歌還在其MAXText項(xiàng)目中引入了新的大型語(yǔ)言模型,為用戶提供了更多選擇。
據(jù)悉,MaxText中的新LLM模型包括Gemma、GPT-3、Llama 2和Mistral,這些模型均支持Google Cloud TPU和Nvidia GPU,為用戶提供了更廣泛的硬件選擇。
此次公布的三個(gè)開(kāi)源項(xiàng)目分別是MaxDiffusion、JetStream和Optimum-TPU。MaxDiffusion是擴(kuò)散模型的高性能和可擴(kuò)展參考實(shí)現(xiàn)的集合,建立在JAX框架上,該框架為高性能數(shù)值計(jì)算和大規(guī)模機(jī)器學(xué)習(xí)提供了有力支持。谷歌表示,通過(guò)優(yōu)化JAX和OpenXLA編譯器在云TPU上的性能,以及與英偉達(dá)在大型云GPU集群上的合作,模型構(gòu)建者可以更加專(zhuān)注于數(shù)學(xué)模型,而讓軟件自動(dòng)實(shí)現(xiàn)最有效的性能。
JetStream是一個(gè)支持XLA編譯器的開(kāi)源優(yōu)化LLM推理引擎,旨在滿足用戶對(duì)于高性能且具有成本效益的推理堆棧的需求。Google Cloud計(jì)算和ML基礎(chǔ)設(shè)施總經(jīng)理Mark Lohmeyer表示,JetStream不僅支持使用JAX和PyTorch/XLA訓(xùn)練的模型,還針對(duì)Llama 2和Gemma等流行的開(kāi)放模型進(jìn)行了優(yōu)化,進(jìn)一步提升了其性能。
最后,谷歌還推出了Optimum-TPU,這是為PyTorch用戶推出的一個(gè)性能優(yōu)化工具。Optimum-TPU為培訓(xùn)和推理帶來(lái)了谷歌云TPU性能優(yōu)化,支持Gemma 2b模型,并很快將支持Llama和Mistral等其他模型。
這些新項(xiàng)目的推出,無(wú)疑將進(jìn)一步推動(dòng)生成性人工智能的發(fā)展,為用戶提供更多選擇和更高效的解決方案。同時(shí),谷歌的開(kāi)源策略也體現(xiàn)了其致力于推動(dòng)整個(gè)行業(yè)的創(chuàng)新和進(jìn)步,相信未來(lái)將有更多優(yōu)秀的人工智能產(chǎn)品和技術(shù)涌現(xiàn)出來(lái)。
隨著人工智能技術(shù)的不斷發(fā)展和應(yīng)用,谷歌等科技巨頭正在積極探索新的解決方案,以滿足不同領(lǐng)域的需求。未來(lái),我們期待看到更多創(chuàng)新性的項(xiàng)目和產(chǎn)品問(wèn)世,為人類(lèi)帶來(lái)更加便捷和智能的生活體驗(yàn)。
原創(chuàng)文章,作者:Google,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.2079x.cn/article/646020.html