一個國際研究人員團隊開發了一種用于光子處理器的新方法和體系結構,可加快機器學習領域的復雜數學任務。
越來越多的AI應用程序的出現(例如在自動駕駛汽車,智能城市和語音識別中)給當前的計算機處理器帶來了沉重的負擔,無法滿足需求。
一組科學家開發了一種解決該問題的方法,使用光子(基于光的)處理器將處理和數據存儲結合在單個芯片上。這些可以通過并行且更快地處理信息來超越常規電子芯片。
明斯特大學的Wolfram Pernice教授說:“用于加速機器學習領域任務的輕型處理器使復雜的數學任務能夠以較高的速度和吞吐量進行處理。” “這比依靠電子數據傳輸的傳統芯片(如圖形卡或專用硬件(如TPU))要快得多。”
科學家們開發了一種用于矩陣矢量乘法的硬件加速器,矩陣矢量乘法是人工神經網絡的骨干:受到通常用于處理圖像或音頻數據的生物大腦的松動啟發的網絡。由于不同波長的光不會干涉,因此它們能夠使用多個波長進行并行計算(多路復用),這為光子處理器打開了大門,光子處理器具有更高的數據速率和每單位面積更多的操作。
但是,要抓住這個機會,就需要使用另一種技術作為光源:EPFL開發的基于芯片的“頻率梳”。
EPFL的教授Tobias Kippenberg說:“我們的研究是第一個將頻率梳應用于人工神經網絡領域的研究。” 肯彭貝格(Kippenberg)的工作開創了頻率梳的開發領域,它提供了可以在同一光子芯片內獨立處理的多種波長。
研究人員還選擇將光子結構與相變材料結合起來作為節能存儲元件。這樣就可以在不需要能源的情況下存儲和保存矩陣元素。
制造光子芯片后,研究人員在神經網絡上對其進行了測試,以識別手寫數字。研究人員認為,輸入數據與一個或多個過濾器(可以識別例如圖像的邊緣)之間的操作非常適合其矩陣體系結構,從而使研究人員可以達到前所未有的計算密度。
牛津大學的Johannes Feldman博士是該研究的主要作者,他解釋說:“利用光進行信號傳輸使處理器能夠通過波長多路復用執行并行數據處理,這導致更高的計算密度和僅需執行許多矩陣乘法即可。一個時間步。與通常在低GHz范圍內工作的傳統電子產品相比,光調制速度可以達到50至100GHz范圍。”
這項研究發表在本周的某媒體雜志上,具有極為廣泛的應用。這可能包括更高的AI應用程序數據同步處理;更大的神經網絡,可提供更準確的預測和精確的數據分析;大量的臨床數據有助于診斷;更快速地評估自動駕駛汽車中的傳感器數據,并擴展云計算基礎架構。
責任編輯:YYX
-
神經網絡
+關注
關注
42文章
4811瀏覽量
103052 -
AI
+關注
關注
88文章
34589瀏覽量
276237 -
光子處理器
+關注
關注
0文章
6瀏覽量
2806
發布評論請先 登錄
研究人員開發出基于NVIDIA技術的AI模型用于檢測瘧疾
光子 AI 處理器的核心原理及突破性進展
IEEE新突破:數學解法引領光子晶體激光器創新
常見處理器故障及解決方法
大華股份榮獲中國創新方法大賽一等獎
研究人員利用激光束開創量子計算新局面

基于遺傳算法的QD-SOA設計新方法

一種降低VIO/VSLAM系統漂移的新方法

盛顯科技:拼接處理器連接大屏方法是什么?

大華股份榮獲2024年中國創新方法大賽一等獎
利用全息技術在硅晶圓內部制造納米結構的新方法
一種無透鏡成像的新方法

評論