IEEE協會首次在京舉辦研討會的時候,中國自動化學會副理事長兼秘書長、中科院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍稱不存在AI芯片。對于這一觀點的爭議非常大,網絡上也是眾說紛紜。大體上看過一些說法后,其中大多數我覺得更有辯論賽上常用的偷換概念的感覺。大家的注意點仿佛并不在AI芯片上,而是在AI這個概念的爭議上。
網上比較常見的智能的定義:
1、首先是最典型的一個現象,幾乎“智能”被當做標簽打滿了各種商品。智能手機、智能電視、智能手環、智能家居,甚至智能掃地機器人、智能洗碗機。所謂智能這個概念仿佛變成了常規的嵌入式設備。但凡能接入個網絡,WiFi也好ZigBee也罷,能做個簡單的語音控制,簡單的圖像識別,好像就成了人工智能設備。與其將MCU、NPU、ARM、MIPS、STM32等常規的嵌入式環境的核心芯片作為所謂的智能,我倒還是傳統一點將其理解為嵌入式芯片罷了。
2、相對另一個極端的理解就是既然是“人工”、“智能”。所謂智能不單純是對話和互聯,這種說法則是上升到意識層面,“人工”制造的這個“智能”應該擁有自己對事物的理解,擁有自己的思維,而不是簡單的重復和推斷。
3、第三個占了不小比重的人群的理解,更是讓我感覺這部分人的理解只是個誤解。仿佛使用了機器學習算法、神經網絡算法、深度學習算法、貝葉斯算法的,仿佛全部都變成了人工智能。
這里也有人為了回避大家在“智能”上偷換概念,提出了強人工智能和弱人工智能概念區分。強人工智能仿佛成了未來的目標,那我們也就姑且以“弱人工智能”這個概念展開來談。
說起來所謂的人工智能熱潮,人工智能寒冬,已經至少是第三次了。
第一次,在20世紀50年代左右,被稱為人工智能之父的約翰麥卡錫創造了lisp語言,也引領了以symbol概念為核心的符號主義人工智能。
第二次,在20世紀70年代左右,BP算法的提出,則是引領了一波以神經網絡這個概念為核心的連接主義人工智能。
而現在這一波人工智能概念重新被人們拉出來炒作,則是所謂以機器學習這個概念爆炒。但單講機器學習這個概念,卻發現無論是蒙特卡洛算法、貝葉斯定理、貝葉斯網絡、NN神經網絡、RNN網絡,還是提出了一個包含多隱層的所謂深度學習,其實大體上我并沒有見到什么新鮮的面孔,反而都是些幾十年前早都已經在玩的東西。可能唯一的不同是現在的硬件性能遠遠高于從前的硬件性能,FPGA、GPU、ZYNQ等更新鮮的設計模型,芯片工藝的大幅提升,讓制作芯片的成本急劇下降,讓從前很多在數學、在理論上早就玩剩下的東西,可以在一個更可以被人所接收的速度和響應環境下工作。
這也就提到了上述我的觀點,我們談算法不談智能。所謂強人工智能,確實不是我們現階段能實現的,獲取暫且是連頭緒都沒有的虛無縹緲的目標。至少人類的認知和意識的模型,我不認為是現在盛行的神經網絡連接主義的主流想法,將大量數據作為“經驗”堆積出的回歸算法。無論是最大似然估計的思維方式、symbole描述的方式,還是貝葉斯最大后驗估計的做法,我們與其說做的是智能,不如講我們在使用“看起來比較智能”的算法。
就像是馮.諾依曼認為蒙特卡洛算法,是最接近上帝的思維方式的算法那樣。一個靠隨機數據堆積的,幾乎不能被稱之為算法的算法,又算得上什么上帝的思維?
有人提出過這樣一個概念。現在有一個屋子,屋子里有一個手速極快、查表極快的、完全不懂中文的熟練工。我們現在向房間里遞入一張寫了一句中文的句子,這個熟練工在提前準備好的表中查得一句中文紙條,并且傳給屋外的人。他們在這樣的情況下,屋外的人跟屋內的人聊得很開心,但屋內的人只是在重復工作,他根本不知道紙條上寫的是什么。這種情況下能否認為這個熟練工掌握了中文?
我覺得這個例子是一個可以經典地映射到現在常見的蒙特卡洛算法、最大似然估計、最大后驗估計的思維方式上。蒙特卡洛算法按照大量隨機經驗去評估一個最合理的做法;最大似然估計或者說多元回歸算法,或者由神經網絡描述的多元回歸算法,也只是基于已有大量經驗數據去評估一個最合理的做法;最大后驗估計模型、貝葉斯算法這種,或者貝葉斯網路這種,我們按照最直白的方式描述,雖然可以評估沒有出現過的狀況,也只是通過已有、已經拆分過的特征概率來做合理性評估。
這就像是屋內的那個例行公事的查表熟練工一樣,其實他什么都不懂,我們哪怕拿出了所謂大數據下、人工智能下的正確答案,也只是通過算法拿出的答案,并不是通過“理解”和“認知”得出的答案。從這個角度來考慮,AI這個概念本就不存在,或者講筆者的個人觀點是Artificial Intelligence中的Intelligence,未免有些狂妄自大。只是不過是用了些數學家們幾十年前玩剩下的算法,就開始炒作所謂智能。
但我們拋開所謂“智能”不談,NN神經網絡、BP神經網絡、貝葉斯公式這些非常簡單的統計學公式,其實在有高性能的硬件和現有的計算機科學的輔助下,超出人類預計的好用。
2談實現不談芯片
既然是好用的算法模型,也是接下來的主流發展趨勢,我們就暫且不考慮這些用詞細節的問題,在上述三種人工智能的理解中,以我個人認為是誤解的第三個理解作為立腳點開始向后繼續。
這個被王飛躍評價為不存在的AI芯片,不過是上述狹義的機器學習派系中大量算法的不同的實現方式罷了。我們與其去談用硬件作為AI算法載體的芯片是否存在,不如去講是用硬件作為算法載體的芯片是否存在。原本AI算法在上述評估后,也只是與常規的算法本質上無異的“算法”而已,既不是什么黑科技,也不是什么新技術。算法是否可以由硬件直接作為載體,而不需要通過軟件這個概念,答案當然是肯定的,原本軟件就是以硬件為載體工作的。那這個意義上的AI芯片當然是存在的。
大多提到芯片,仿佛就成了什么神秘的高科技。但芯片,也就是所謂的集成電路,大規模集成電路,其本質上還是電路本身。只是通過芯片工藝,晶體管技術實現的體積很小的電路而已。物理學已經幾十年沒有更新過基本理論了,芯片相對于電路這個概念本身,跟高中學過的電路圖,電路元件并沒有本質上的區別。
這里我們將芯片暫且狹義地理解為CPU這個概念的話(包含MCU、GPU、SoC等概念,在實際使用中作為核心處理器這個概念存在的芯片),所謂CPU只是集中了大量好用的電路,并將這些芯片內電路的查詢使用方式,通過控制總線、地址總線、數據總線這些概念上的高低電平,然后將這些高低電平邏輯抽象成匯編手冊這個概念,或者datasheet這些概念,可能有些使用了MMU,還會有虛擬地址映射等概念。但說起來,大體上換湯不換料。
近年來炒作最厲害的AI芯片,主要就是NPU這個概念了。這里NPU作為AI芯片分類,也只是上述第三個對智能的定義的考慮方式,仿佛是我們先將一部分原本就存在的算法劃分成了“人工智能算法”,然后使用了這些算法的芯片就都成了“人工智能芯片”。原本我們認為的CPU就是一堆好用的電路的集合,我們將這些常用好用的集成電路中添加一個神經網絡算法的實現電路,就成了另一個噱頭。
原本就成熟的芯片設計工藝和技術,加上原本就成熟的所謂“智能算法”的實現,以一個技術含量并不高的方式拼湊出來的新的賣點罷了。
總 結
這也只是筆者個人的觀點,我們可以談一下算法、機器學習概念、最大似然估計、最大后驗估計這種統計學算法,談一下神經網絡算法的思維方式、多元回歸曲線和決策樹的設計,我們還是不要談什么人工智能吧。講狹義的人工智能我們還可以談談算法,拿“人工智能”當噱頭那是銷售做的事情。
而至于人工智能AI芯片這個概念,著實沒什么好談的,以硬件作為載體實現算法,跟爭論用C語言、Python、Keras、Tensorflow、caffe,還是VHDL、VerilogHDL,還是所謂芯片硬件去實現算法一樣。只是一種算法的實現方式而已,現在的技術除了速度和性能、功耗、算法代碼架構、現有工藝是否存在瓶頸等問題,是設計者需要權衡考慮的事情。算法的實現什么時候成為問題了?
簡單暢想一下人工智能的未來:
現在這波基于機器學習和深度學習算法引爆的人工智能熱潮,筆者個人不認為會維持多久。雖然因為硬件和芯片工藝的提升,讓從前因硬件成為瓶頸的問題得到了一定程度的緩解。但哪怕完全解決了運算速度瓶頸,結合類比上述中文紙條的故事。我們制造的不是智能,只是將計算機與統計學幾十年前的技術做了一次深度結合罷了,機器學的都只是個樣子。
現在吹噓人工智能的比正經寫幾行所謂機器學習代碼的人要多得多,大體上所謂特征提取的人臉識別、語音識別、基于神經網絡算法、基于多項式回歸這些的最大似然估計模型,本質上與從前傳統的圖像處理并沒有什么區別,只是從前由人工做的規律總結和特征提取工作,我們通過一定程度的算法,其本質還是以蒙特卡洛式的瘋狂嘗試去試錯,得到一個最為近似的回歸曲線罷了。
這次掀起了人工智能的熱潮,但人工智能技術的發展本身并沒有出現飛躍,只是按部就班進步罷了。我們整合了大量統計學的公式,以人工智能的名義,快速在常規領域拿出了不少看似喜人的成績。但這種本質上沒有技術突破的舊飯新炒,推進了一波以機器學習技術為中心的人臉識別、語音識別、自動駕駛等技術應用。或許“機器學習”是“人工智能”的一大支撐,但畢竟“機器學習”并不是“人工智能”本身,而且清醒的人們很快會開始逐步意識到最大似然估計這個模型本身就是有瓶頸的,而現在離這個瓶頸現在已經很近了。
接下來會是算法的時代,但人工智能的寒冬注定會在短期內再次降臨。硬件會是有效的加速輔助工具,但人工智能的核心還會是軟件。講AI芯片是個偽概念,筆者認為倒也不算錯。
-
gpu
+關注
關注
28文章
4754瀏覽量
129074 -
算法
+關注
關注
23文章
4622瀏覽量
93063 -
AI
+關注
關注
87文章
31155瀏覽量
269493 -
AI芯片
+關注
關注
17文章
1894瀏覽量
35104
發布評論請先 登錄
相關推薦
評論