Meta 推出 CATransformers 框架,AI 減排新利器

Meta AI聯(lián)手佐治亞理工學院研發(fā)低碳AI框架,通過多目標貝葉斯優(yōu)化引擎平衡能耗、精度和碳足跡,針對邊緣推理設備優(yōu)化剪枝大型CLIP模型。研究結(jié)果顯示,綜合優(yōu)化碳排放與延遲的策略可實現(xiàn)19-20%的總排放削減,且延遲損失極小。

5 月 15 日消息,科技媒體 marktechpost 昨日(5 月 14 日)發(fā)布博文,報道稱 Meta AI 旗下 FAIR 團隊攜手佐治亞理工學院,合作開發(fā) CATransformers 框架,將碳排放作為核心設計考量,通過聯(lián)合優(yōu)化模型架構(gòu)與硬件性能,顯著降低總碳足跡,為可持續(xù) AI 發(fā)展邁出重要一步。

Meta 推出 CATransformers 框架,AI 減排新利器

機器學習技術(shù)的普及推動了從推薦系統(tǒng)到自動駕駛的革新,但其環(huán)境代價不容小覷。這些系統(tǒng)需要強大計算資源,常依賴定制硬件加速器運行,訓練和推理階段的高能耗直接導致運營碳排放攀升。

此外,硬件從制造到報廢的全生命周期也產(chǎn)生“隱含碳”,加劇生態(tài)負擔。隨著全球各行業(yè)加速采用 AI 技術(shù),解決運營與隱含碳的雙重來源成為迫切需求。

當前減排方法主要集中于提升運營效率,例如優(yōu)化訓練和推理的能耗,或提高硬件利用率。但這些方法往往忽略硬件設計和制造階段的碳排放,未能整合模型設計與硬件效率的相互影響。

Meta 的 FAIR 團隊與佐治亞理工學院聯(lián)合推出的 CATransformers 框架,將碳排放納入核心設計考量。該框架通過多目標貝葉斯優(yōu)化引擎,聯(lián)合評估模型架構(gòu)與硬件加速器的性能,平衡延遲、能耗、精度和總碳足跡。

特別針對邊緣推理設備,CATransformers 通過剪枝大型 CLIP 模型生成變體,并結(jié)合硬件估算工具分析碳排放與性能。其成果 CarbonCLIP-S 與 TinyCLIP-39M 精度相當,但碳排放降低 17%,延遲控制在 15 毫秒內(nèi);CarbonCLIP-XS 則比 TinyCLIP-8M 精度提升 8%,碳排放減少 3%,延遲低于 10 毫秒。

研究顯示,單純優(yōu)化延遲的設計可能導致隱含碳增加高達 2.4 倍,而綜合優(yōu)化碳排放與延遲的策略可實現(xiàn) 19-20% 的總排放削減,且延遲損失極小。

CATransformers 通過嵌入環(huán)境指標,為可持續(xù)機器學習系統(tǒng)設計奠定基礎。這表明,AI 開發(fā)若從一開始就結(jié)合硬件能力與碳影響考量,可實現(xiàn)性能與可持續(xù)性的雙贏。隨著 AI 規(guī)模持續(xù)擴大,該框架為行業(yè)提供了切實可行的減排路徑。

原創(chuàng)文章,作者:李小白,如若轉(zhuǎn)載,請注明出處:http://m.2079x.cn/article/719095.html

李小白的頭像李小白認證作者

相關推薦

發(fā)表回復

登錄后才能評論