(文章來源:比特網(wǎng))
去年美國馬薩諸塞州大學阿默斯特分校的研究人員曾表示,訓練一臺大型AI機器產(chǎn)生的碳,平均是一個人終其一生駕駛汽車制造的排放量5倍。除此之外,還存在很多其他方面的能源消耗。因此AI未來如何實現(xiàn)可持續(xù)發(fā)展,仍是亟需解決的問題。
近期,在麻省理工一篇最新論文中顯示,其提出了一種比以前更環(huán)保的方式來訓練和運行AI模型的系統(tǒng)。論文中顯示,該方案被稱為是種“一勞永逸”的網(wǎng)絡(luò),它訓練一個大型模型,該模型由許多不同大小的預訓練子模型組成,這些子模型可以在不需要再訓練的情況下針對一系列平臺進行定制。每個子模型都可以在推理時獨立運行而無需重新訓練,系統(tǒng)根據(jù)與目標硬件的功率和速度限制相關(guān)的精度和延遲權(quán)衡來確定最佳子模型。
“漸進收縮”算法有效地訓練大模型,同時支持所有子模型。先訓練大模型,再利用大模型訓練較小的子模型,使其同時學習,最后所有子模型都得到了支持。
在實驗中,研究人員發(fā)現(xiàn),用他們的方法訓練一個包含超過10個五分之一建筑環(huán)境的計算機視覺模型,最終比花幾個小時訓練每個子網(wǎng)絡(luò)要有效得多。此外,它并沒有影響模型的準確性或效率——當使用通用基準(ImageNet)進行測試時,該模型在移動設(shè)備上達到了理想準確性,在推理方面比領(lǐng)先的分類系統(tǒng)快1.5到2.6倍。
也許更令人印象深刻的是,研究人員聲稱,與當今流行的模型搜索技術(shù)相比,計算機視覺模型在訓練時需要大約1/1300的碳排放量。IBM研究員、麻省理工學院沃森人工智能實驗室成員談到這項研究時表示:“如果人工智能要繼續(xù)快速發(fā)展,我們就需要減少其對環(huán)境的影響。”
(責任編輯:fqj)
-
AI
+關(guān)注
關(guān)注
87文章
31000瀏覽量
269333 -
碳排放
+關(guān)注
關(guān)注
0文章
19瀏覽量
9682
發(fā)布評論請先 登錄
相關(guān)推薦
評論