隨著傳統市場走向下坡路和摩爾定律的逐漸失效,半導體行業正在不斷革新,力求了解人工智能、自動駕駛汽車、物聯網等新市場的需求。
而其中最奇特的也許當屬人工智能,因為它的計算范式與傳統的“處理器-內存”方法有著明顯差異。在近期于舊金山舉辦的國際電子器件大會上,法國研究員Damien Querlioz在談及“神經形態計算的新型器件技術”時說道,“長期以來,模式識別和認知任務都是計算機的弱點,比如識別和解讀圖像、理解口語、自動翻譯等。”
大約從2012年起,訓練和推理階段的人工智能技術開始加速發展,但當使用傳統計算架構時,功耗仍是一個巨大挑戰。
Querlioz是法國國家實驗室CNRS的一名研究員,他舉了一個活生生的例子:2016年Google的AlphaGo與圍棋世界冠軍李世石之間的著名圍棋大戰。李世石的大腦在比賽中消耗了大約20瓦,而AlphaGo估計需要超過250,000瓦才能使其CPU和GPU保持運轉。
雖然從那以后Google和其他公司均在功耗方面做出了改進,但越來越多的工作開始側重于為神經形態計算技術設計耗電更少的新器件。
Ted Letavic是格芯的高級戰略營銷人員,他表示,回想人工智能的各個階段,從改進傳統計算技術,到設計耗電更少的全新器件和架構,在整個過程中,先進高效的封裝將發揮關鍵作用。
Letavic稱,“人工智能時代正在逐步到來,我們可以利用現有的技術,再加上衍生技術,通過DTCO(設計技術協同優化)進行全面優化,一直深入到位單元設計層面。”
格芯的技術人員正在努力降低14/12 nm FinFET平臺的功耗并提升其性能,所采用的辦法包括雙功函數SRAM、更快且功耗更低的累加運算(MAC)元件、對SRAM的更高帶寬訪問等。基于FD-SOI的FDX處理器的功耗也將降低,尤其是在部署背柵偏置技術時。Letavic表示,設計師掌握了這些技術后,客戶便可以“重新設計功耗包絡更低的人工智能固有元件,甚至達到7 nm。”
除了這些DTCO改進以外,全球各地也在開展其他研發工作,希望實現基于相變存儲器(PCM)、阻性RAM (ReRAM)、自選扭矩轉換磁性RAM (STT-MRAM)和FeFET的嵌入式內存與內存中計算解決方案。
Querlioz在IEDM專題會議上提到,在IBM Almaden研究中心,由Jeff Welser領導開發的基于PCM的芯片已取得顯著進展,而基于STT-MRAM和ReRAM的人工智能處理器也前景光明。Querlioz表示,“現在,我們極有可能成功為認知類型的任務和模式識別重新發明電子器件。”
Letavic稱,降低功耗的道路還很長,對于推理處理而言尤其如此,而這正促使眾多初創公司開發新的人工智能解決方案,格芯也與其中部分公司及長期合作伙伴AMD和IBM保持著密切合作關系。
Letavic認為,憑借對馮諾依曼計算模式的DTCO改進,我們只能發展到這一步。除了分類邏輯和內存,下一步是發展內存中計算和基于模擬的計算。此外,為計算行業服務了35年的指令集架構(ISA)將需要被新的軟件堆棧和算法取代。他說道:“對于特定領域的計算,必須重新發明軟件。IBM對軟件堆棧有著深刻的見解。”
“各方都必須一同轉向人工智能。格芯將與主要客戶緊密合作,我們不能將算法與技術分開,”Letavic在談及該系統技術協同優化(STCO)方面的緊密合作時說道,“隨著我們邁入計算發展的第四個時代,STCO將是DTCO的自然延伸。我們將朝著特定領域的計算發展,共同迎接這一轉變。”
-
人工智能
+關注
關注
1791文章
47208瀏覽量
238284 -
架構
+關注
關注
1文章
513瀏覽量
25468
發布評論請先 登錄
相關推薦
評論