近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關(guān)模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個版本,允許學術(shù)及商業(yè)使用。
Meta 認為,盡管業(yè)界各大語言模型已在各種編程代碼任務中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務設計的預訓練模型,能夠模擬編譯器對代碼進行優(yōu)化,或?qū)ⅰ耙呀?jīng)過優(yōu)化的代碼轉(zhuǎn)換回原本的語言”。
LLM Compiler 在 5460 億個 LLVM-IR 和匯編代碼標記的龐大語料庫上進行了訓練,據(jù)稱能夠達到 77% 的“代碼優(yōu)化潛力”,開發(fā)者可以自由將相關(guān)模型配合其他 AI 模型一起使用,從而改善生成代碼的質(zhì)量。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://m.2079x.cn/article/664475.html