近日舉行的英特爾研究院開放日,不發新品,只談前沿科技。乍一看覺得還很遙遠,但其實有些已在來路上甚至已經進入應用中,可能是未來五年最重要的技術趨勢了。
在總結之前,先說一下為什么判斷是未來五年?這幾大技術都是英特爾研究院立項時的規劃,三至五年是交付的時間窗,約在五年左右達成。以英特爾在前沿技術上的敏銳和布局,這些技術一旦在不同的時間節點產業化之后,對現有的技術格局將可能是顛覆性的。
趨勢一:光互連I/O已在來路上
這是第一次聽到英特爾提出集成光電這個概念。雖然在大的原理方面與市場上正在提的硅光方案類似,但英特爾的不同之處在于,利用其獨有的技術和工藝優勢,將原本分離的、尺寸較大的模塊全部進行了集成。
隨著數據量的爆發,面臨性能瓶頸的不只是硬件設備的計算能力,同時還有設備之間或設備內部的數據傳輸能力,特別是對于數據中心這類進行大規模數據交換的應用。
集成光電根本上就是為了解決I/O的傳輸瓶頸。由于光互連(optical)在長距離、遠程和地下傳輸中占主導,而電氣互連(electrical)在短距離、主板互連(boardtoboard)和封裝互連(packagetopackage)中有優勢。英特爾的研究愿景就是改變這一現實,將光互連引入服務器中,將光學技術與硅技術集成起來,開發出了硅光子技術,讓光互連具備硅的高產量、低成本等屬性。
目前在硅光子領域,英特爾已經做出了原型演示,混合硅激光器(hybridsiliconlaser)/集成激光器,是英特爾硅光子產品的基礎,已經交付了超過400萬個英特爾100G收發器產品,這款產品結合了硅電子和光學技術,能夠在獨立的硅芯片上實現近乎光速的數據傳輸。不過,雖然這項技術取得了長足的進步,但鑒于目前硅光子模塊和運行功率的成本和物理體積,光互連I/O還不適合短距離傳輸,這是要跨越的下一個巨大障礙。
預計何時會遷移到光互連I/O呢?英特爾首席工程師、英特爾研究院PHY研究實驗室主任的答案是“很快了”。展望通信和數據中心性能的未來,光互連和電氣互連方法之間有一個明顯的拐點,主要原因有兩點:首先,我們正在快速接近電氣性能的物理極限,如果不進行根本性創新,高能效電路設計將存在諸多限制;第二是I/O功耗墻,計算的帶寬需求大約每三年翻一番,但電氣性能擴展卻跟不上帶寬需求的增長速度,導致了I/O功耗墻,即I/O功耗會逐漸高于所有現有的插接電源,導致無法計算。
光互連涉及六大技術要素:光產生、光放大、光探測、光調制、CMOS接口電路和封裝集成。英特爾近來的重大突破是將光學的四個組件,包括集成激光器、半導體光學放大器、全硅光電探測器和微型環調制器與CMOS硅緊密集成的單個技術平臺上,從激光的發射到調制,到接受端檢測、放大,全部通過小型模塊實現。
集成光電是英特爾在硅光子技術領域的技術愿景,目前研究的重點是低成本、低功耗的光互連I/O。借助集成光電技術,能夠將I/O數量從幾百萬個擴展到幾十億個,實現1000倍的提升。未來的光鏈路將讓所有的I/O連接直接從服務器封裝中發出,全面覆蓋整個數據中心。這項技術一旦規模應用,將徹底改變數據中心網絡架構,提高數據傳輸效率。
趨勢二:神經擬態計算降低成本有望普遍應用
隨著深度學習的出現,人工智能取得了驚人的進展,但與此同時,系統功耗不斷增加。訓練一個現代AI神經網絡甚至需要使用數千臺集群服務器,功耗高達數百萬瓦,這正逐漸成為AI不斷發展、以及廣泛普及的瓶頸。那么,如何才能提升AI任務的能效、甚至提高1000倍呢?英特爾幾年前開始了神經擬態計算的探索。
相比傳統計算機架構,神經擬態架構模糊了內存和處理之間的界限。和大腦一樣,它利用的是數據連接、數據編碼和電路活動中所有形式的稀疏(sparsity)。也就是說,處理就發生在信息到達時,二者同步進行。計算是數百萬個簡單處理單元之間動態交互的發展結果,就像大腦中的神經元一樣。這種新型計算機架構旨在將能效、實時數據處理速度、學習數據的效率等提升多個數量級。
英特爾在2017年發布了首款神經擬態研究芯片Loihi,采用英特爾主流的14納米制程。相比其他神經擬態芯片,Loihi在靈活性、集成性和速度方面表現較好,并還具有片上學習功能。它沒有深度學習硬件中普遍存在的浮點數和乘法累加器單元,也沒有片外內存接口,內存來源于芯片神經元之間的連接。和大腦一樣,所有計算都在芯片上進行,通過二進制脈沖信息和低精度信號。
英特爾在神經擬態計算的研究上走到了第五個年頭,如今項目研究也步入下一階段,探索實際應用。此前,Gartner在一份調查報告中預測,到2025年神經擬態計算有望取代GPU,成為下一代AI的主流計算形態。
對此,英特爾中國研究院院長宋繼強認為,神經擬態計算和深度學習的關系應該是兼收并蓄,而不是取代,“對于深度學習已經非常擅長的,模擬人類視覺或者自然語言交互的任務,讓深度學習的網絡去模擬;對于其他不太適合用深度學習做的,如英特爾Loihi芯片做的嗅覺方面的研究,還有機器人操控、多模態甚至于跨模態之間的知識存儲,可以用神經擬態計算去實現?!?/p>
為了進一步擴大該技術的適用范圍,英特爾成立了英特爾神經擬態研究社區(INRC),通過與世界各地不同類型的學術界、政府實驗室和企業研究人員進行交流合作,成為改進Loihi的架構、系統和軟件的重要基礎。INRC成員將使用英特爾的Loihi研究芯片作為研發活動的架構焦點,隨著基礎算法和SDK組件日趨成熟,英特爾希望INRC取得的成果未來能夠推動神經擬態架構、軟件和系統的改進,最終實現商業化。2021年第一季度,英特爾將發布下一代“Lava”軟件開發框架的開源版本,以此觸及更龐大的軟件開發人員社區。
受限于成本問題,英特爾高級首席工程師、英特爾研究院神經擬態計算實驗室主任MikeDavies表示,短期內神經擬態計算要么用于邊緣設備、傳感器等小規模設備,要么用于對成本不敏感的應用,如衛星、專用機器人。隨著時間的推移,預計內存技術的創新能夠進一步降低成本,讓神經擬態解決方案擴大適用范圍,運用于各種需要實時處理數據但受限于體積、重量、功耗等因素的智能設備。
趨勢三:量子計算商業化道阻且長
量子計算有兩個普世價值,一是在某些領域快速解線性方程。比如現在的深度神經網絡底層就是解大量線性方程,因此大家預期量子計算可以加速深度神經網絡的訓練過程;另外一個就是解決現在經典計算很難解決的問題,比如快速加解密;用量子態模擬和實驗各種分子之間的相互關系加速生物制藥研發進展;用量子態模擬不同元素組合的效果研發新材料;對物流系統進行優化求解,實現對超大規模物流或城市系統的管理等等。
英特爾高級首席工程師、英特爾研究院量子應用與架構總監AnneMatsuura對抽象高深的量子計算有個非常形象的比喻:將計算機中的“位”想象成一枚硬幣,硬幣有正反兩面,只能處于一種狀態中。但是,如果想象硬幣開始旋轉,越轉越快,從某種意義上它可以同時出現正反兩面,也就是處于兩種狀態的疊加中。量子位就與此類似,兩枚旋轉的硬幣,也就是兩個相互糾纏的量子位,可以同時混合出現四種狀態。以此類推,n個量子位就表示同時出現2的n次方種狀態。也就是說,量子計算機的計算能力隨著量子位數量的增加呈指數級增長趨勢。從理論上講,如果有50個糾纏的量子位,這樣的量子計算系統所獲得的狀態數量將超過任何一臺超級計算機。如果有300個糾纏的量子位,那能夠同時表示的狀態比宇宙中原子的數量還要多。
這聽起來很強大,但事實上量子位非常脆弱,任何噪音或干擾都會導致信息丟失。實際需要數十萬甚至數百萬個高質量量子位,才能制造一臺商用級量子計算機。也就是說,量子需要具備可擴展性,才能用于實際應用。
目前業界包括英特爾、IBM、谷歌都在研究超導量子位的路徑,除此之外,英特爾還有一個獨一無二的路徑——硅自旋量子位。自旋量子位與英特爾的晶體管技術非常相似,這個路徑非常適合使用現在的整套硅半導體工藝。英特爾已經在12寸的晶圓上制造出2個硅自旋量子位,然后控制它們進行糾纏。
英特爾方面認為,相比其他量子位路徑,自旋量子位技術更能滿足可擴展性需求,因為批量生產高質量量子位的重點并不只是數量,而是需要壽命足夠長、相互之間連接性足夠強的量子位,以便擴展至包含數百萬量子位的商用級量子計算機,從而能夠在實際的應用領域執行有效的量子程序或量子算法。
如果把量子計算商業化比作一場馬拉松比賽,現在才剛剛跑完一英里。量子計算面臨的挑戰還包括量子位控制、全面糾錯,以及可擴展的全棧量子計算機。由于量子計算是一種全新的計算類型,運行程序的方式完全不同,因此需要開發量子專用的軟件、硬件和應用,進行全棧式創新。這方面,英特爾既需利用自身在芯片和電路制造工藝方面的專長,也在不斷加強與業界的研究合作。
趨勢四:IoT時代必不可少的保密計算
當前的加密解決方案主要用于保護在網絡中發送以及存儲的數據,但是,數據在使用過程中依然有遭遇攻擊的風險,保密計算就旨在保護使用中的數據,這項研究對于萬物互聯的IoT時代尤為關鍵。
對于數據安全,業界以往的研究重點通常是結合硬件訪問控制技術和加密技術,以提供保密性和完整性保護。不過,這些研究更多在于保護單臺計算機上的數據。如果有多個系統和數據集,且分屬于不同的所有者,該怎么辦?如何支持多方在協作中安全地使用敏感數據?
英特爾研究院安全智能化項目組首席工程師JasonMartin提到了聯邦學習(federatedlearning)。這也是在深度學習大幅推進的今天,業界普遍推崇的一種方式。
在零售、制造、醫療、金融服務等許多行業,最大的數據集往往被限制在了數據孤島中。而之所以出現數據孤島,一些是因為隱私問題或監管挑戰,或是在某些情況下,數據太過龐大,無法傳輸,對使用機器學習工具從數據中獲取重要洞察造成了巨大障礙。
在消除數據孤島方面,聯邦學習是一種很好的思路,業界目前已有眾多的嘗試。例如在醫療領域,英特爾研究院與賓夕法尼亞大學佩雷爾曼醫學院的生物醫學圖像計算和分析中心就開展了這方面的合作,一篇關于醫學成像領域的聯邦學習的論文表明,采用聯邦學習方法訓練深度學習模型,其準確率可以達到采用傳統非私有方法訓練的相同模型的99%,機構采用聯邦學習訓練模型,比僅用自己的數據訓練模型時的性能平均高出17%。
此外,英特爾研究院還透露了一種全新的加密系統——同態加密(homomorphicencryption),它允許應用在不暴露數據的情況下,直接對加密數據執行計算操作。
完全同態加密的工作原理是什么?傳統加密要求云服務器訪問密鑰,才能解鎖數據用于處理。同態加密允許云對密文或加密數據執行計算操作,然后將加密結果返回給數據所有者,從而簡化并保護了這一過程。
不過一些挑戰也在阻礙完全同態加密的采用,最主要就是算力方面的挑戰。比如在傳輸和存儲數據時,傳統加密機制的開銷相對來說可以忽略不計,但在完全同態加密中,同態密文的篇幅比純數據大得多。有時候甚至大1,000-10,000倍,這將導致計算激增,要求處理能力隨之增加。不僅如此,處理開銷還會隨著計算復雜性而增加,正因如此,同態加密尚未得到廣泛使用。英特爾目前正在研究新的軟硬件方法,并與生態系統和標準機構開展合作,以推動該技術的普及。
趨勢五:機器編程在降低創新門檻
當我們在為找到異構計算平臺作為算力解決方案而歡呼時,另一個問題隨之而來:未來,誰能為這些異構系統編程?答案很可能是:沒有人。舉個例子,能為CPU進行調優的可能有20%的開發人員,能為GPU進行調優的可能也有20%,但同時能為這兩種平臺進行調優的人員,比例一定是大打折扣的,更不用說未來的異構平臺可能是同時整合了CPU+GPU+FPGA+NPU+……
這也意味著,未來,當我們真的需要異構平臺來提供計算支持的話,也需要某種機制讓程序員甚至非程序員,不需要掌握太多技能就能夠充分使用可用資源來發揮創造能力,這也是英特爾機器編程的基本驅動力之一。這一方面或許可以解決跨架構專業編程人員的稀缺,另一方面,也能提升效率,解決軟件開發和維護的痛點。
那么問題來了,一旦機器編程真正實現了,專業的程序員會不會失業?英特爾首席科學家、英特爾研究院機器編程研究主任及創始人JustinGottschlich表示并不會,反而會創造出新的就業機會。他提出這一觀點的邏輯在于,當今存在的大多數機器編程系統都需要大量的數據,這些數據通常以代碼形式存在,而代碼都是由專業程序員編寫的。機器編程盡管可以實現編程自動化,但是仍需要高技能的程序員,專業程序員寫的代碼越多,構建的機器編程系統才能越先進。而更重要的是,如果允許用戶向機器表達他/她的意圖的系統一旦成功,也將降低行業準入門檻,這樣一來,所有人都可以表達他們的想法,通過機器編程實現自己的創意。這也意味著,軟件開發中枯燥的部分被自動化,而人得以有更大的自由、靈活度和時間精力去進行創造性的工作。
此外,機器編程的意義還在于改進軟件調試(Debug),一方面是自動檢測性能漏洞的機器編程系統,另一方面是嘗試查找漏洞,讓軟件變得更加強大、可靠,讓程序員的工作效率更高。
JustinGottschlich認為,三個基本進步正在推動機器編程處于現在的拐點之上。首先是算法,包括確定性算法和隨機算法,為建立機器編程系統提供了大量機會;第二是算力,過去十年在算力方面取得了長足的進步,特別是異構計算,像是解鎖機器編程的第二把鑰匙,成為關鍵轉折點;最后一個是數據,現在的數據量大且豐富,以GitHub為例,2020年夏天,其代碼庫超過了2億,這些源文件,每一個都可能包含數百或數千行代碼,且增長非常快。
寫在最后
英特爾研究院在提出這五個顛覆性研究項目時,同時也提出了1000x提升的目標,但其實有些技術一旦進入實際應用中,在現有基礎上帶來的提升絕不止一千倍,可能是幾個千倍的升級。
如果要預測它們何時來臨?可以引用科幻小說家WilliamGibson的一句話:“未來早已到來,只是分布不均?!边@大概正是科技創新的誘人之處。既要仰望星空,也要腳踏實地。握緊手中的六便士,繼續追逐皎潔月光。
責任編輯人:CC
-
量子計算
+關注
關注
4文章
1097瀏覽量
34941 -
神經擬態計算
+關注
關注
1文章
8瀏覽量
2102
發布評論請先 登錄
相關推薦
評論