IBM蘇黎世實驗室(IBM Zurich)的研究人員開發出通用的人工智能(AI)預處理建構模塊,據稱可較現有方法加速大數據(Big Data)機器學習算法至少10倍以上。
在日前于美國加州長灘舉行的神經信息處理系統大會(NIPS 2017)上,IBM在發表這種新途徑時解釋,它采用了數學對偶性(duality),在Big Data串流中精心挑選能發揮效用的項目,并略過其余無效的選項。
IBM Zurich研究人員Celestine Dünner說:“我們的動機在于,當缺少足夠的內存來為Big Data機器學習保存所有的數據時,如何使用硬件加速器,如繪圖處理器(GPU)和現場可編程數組(FPGA)。”Celestine Dünner同時也是這一算法的共同發明人。
IBM Zurich數學家Thomas Parnell則表示:“我們應該算是最先提供了可加速10倍的通用解決方案。特別是針對傳統的線性機器學習模型(目前廣泛用于規模太大而無法用于神經網絡進行訓練的數據集),我們在最佳參考方案的基礎上建置相關技術,并展示了至少10倍的加速方案。”
IBM蘇黎世研究人員Thomas Parnell和Celestine Dünner討論在NIPS 2017發表的預處理算法。
在一開始的展示中,研究人員使用Nvidia Quadro M4000 GPU搭配8GB內存,在容量約30GB的4萬張照片數據集上進行訓練——該照片數據集采用支持向量機器(SVM)的算法,先將影像解析為各種類別以進行辨識。SVM算法還可為所學習的模型建立幾何式解讀,這和無法證實其結論的神經網絡是不一樣的。IBM的數據預處理方法讓該算法可在不到1分鐘的時間完成執行,比目前采用有限內存訓練的方法更快10倍。
該技術的關鍵在于對每個數據點進行預處理,查看它是不是已經處理數據點的數學對偶。如果是的話,那么算法就會自動略過,這個過程在數據集進行處理時變得越來越頻繁出現。Dünner說:“我們在每個數據點以進行處理以前,我們先計算每個數據點的重要性,再以測量對偶差距大小的方式進行處理。”
Parnell說,“如果你的問題適于放在加速器的內存空間,那么在內存內部執行將會獲得更好的結果。因此,我們的結果只適用于Big Data的問題。它不僅能讓運行時間加快10倍以上,而且如果在云端執行時,也不必付出太多的成本。”
隨著Big Data數據集越滾越大,這種節省時間和成本的預處理算法將會變得越來越重要。IBM指出,為了顯示其基于對偶性的算法能夠處理任意大小的數據集,該公司在NIPS上展示了8GPU的版本,它能處理網頁廣告的十億次點擊數據。
研究人員正進一步開發該算法,期望在不久部署于IBM BlueMix Cloud——稱為基于對偶差距(duality-gap)的異質學習,適用于包括社群媒體、在線營銷、目標式廣告、查找電信數據模式以及欺詐檢測等Big Data數據集。
-
IBM
+關注
關注
3文章
1759瀏覽量
74738 -
人工智能
+關注
關注
1792文章
47425瀏覽量
238969 -
SVM
+關注
關注
0文章
154瀏覽量
32503
原文標題:這是一個讓基于GPU的AI訓練加速10倍的神奇算法
文章出處:【微信號:gh_bee81f890fc1,微信公眾號:面包板社區】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論