目前,ChatGPT的出現引發了輿論對人工智能的一片討論熱潮。
但是,業界和大眾媒體認知錯誤最多、持續時間最長的技術之一就是人工智能了。
為什么本文敢說是“網上最權威”?1980年進入大學期間我最感興趣的技術就是計算機,并且第一個自我選定的學術研究課題就是人工智能,對這一課題的研究持續了40多年。我在研究生期間的圖像與視頻處理專業,研究過圖像的人工智能模式識別,包括利用衛星云圖判斷農作物長勢以及人臉識別。人們對ChatGPT發出的很多驚嘆,我在這40多年間已經見過無數次了,一點都不新鮮。在過去40多年的個人職業生涯中,我不僅做過軟件和硬件開發,而且在計算機、通信、數字廣播領域都有6年以上的職業經歷。我在全球第一個提出海量內存計算機(相關研究分三期發表在1998年8月的《計算機世界報》上),比SAP提出“內存計算”早了十多年;全球第一個提出軟件定義網絡(SDN)概念,比推出OpenFlow(2008年形成概念,2009年底第一版推出)的斯坦福大學早3年。
可能有讀者會對此有疑惑,本文最后會專門討論一下SDN問題以及它與人工智能的技術關聯。此處只簡單提一下,我作為最早SDN概念提出者是OpenFlow協議的Editor也認可的,部分的相關內容正式發表在我2016年出版的《通播網宣言》一書中,所以其他人就不用費心來質疑了。我是業界技術水平最頂尖之一的人工智能視頻公司浙江宇視(《流浪地球2》中各種攝像頭的提供者)的顧問。本文是我40多年研究人工智能的主要結論,可能會顛覆讀者對人工智能的很多認知,但其道理卻又是清晰無比,簡單至極的。
毫無疑問,制造出像人一樣有智能的機器這樣的目標,永遠會是一個非常刺激社會大眾注意力的話題。它可以說是兩大永遠最吸引人的熱點技術話題之一,另外一個就是外星人。與外星人主題一直摸不著門不同,人工智能永遠都似乎近在眼前,永遠都有一些讓人看得見的成果出現,永遠都在獲得驚人的進展,永遠都有人認為未來機器可能超過并統治人類,期待中的產品卻永遠都讓人失望和推遲應用......不是今天才這樣,40年前我開始研究人工智能這個主題的時候就是這樣,并且一直就是這樣。
01
圖靈測試本身就是完全錯誤的
關于人工智能最著名的一個判斷依據就是圖靈測試(The Turing test)。它是由艾倫·麥席森·圖靈提出,指測試者與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試后,如果機器讓平均每個參與者做出超過30%的誤判,那么這臺機器就通過了測試,并被認為具有人類智能。圖靈測試一詞來源于艾倫·麥席森·圖靈寫于1950年的一篇論文《計算機器與智能》,其中30%是圖靈對2000年時的機器思考能力的一個預測。
這個測試事實上也成為機器是否具有人類智能的一個判斷標準,簡單點說就是以人為標準,如果有超過平均30%的比例區分不出人和機器,那就認為這個機器有智能。但是,道理實在是太簡單了:有人能拿諾貝爾物理學獎,有人物理學考零分;有人4歲能譜曲,有人一輩子五音不全......人和人之間都如此之地天差地別,你讓機器怎么和人一樣?
更重要的一個有些荒唐的問題是:如果一個機器什么標準知識點都答得出來,它記憶力無限強大,什么知識都能記得住,那它一定是機器,怎么可能是人?因為至少在記憶能力的智能上太過高于人類而肯定通不過圖靈測試,這該怎么算?如果只是以上純學術的問題,那也就只在純學術領域討論就是了,產生不了什么實際影響。但實際上不是如此,這個事實上的人工智能標準帶來的重要后果是引導了業界這樣的發展目標:研發生產出具有像人類一樣智能的機器。這就產生了基本技術哲學上一系列的根本性誤導,并導致相應的AI錯誤。
02
目標不明
提出人工智能的一開始,就試圖實現“自然語言翻譯”的目標。今天的ChatGPT,它歸屬的領域也是叫自然語言處理(NLP)。當初以為這個事情非常容易,只要把要翻譯的兩種語言的文字輸進機器,就差不多可以實現自然語言翻譯了,但真的一做就發現問題遠遠沒有那么簡單。日本提出的第五代計算機計劃,軟件上采用Prolog語言,也是把處理自然語言作為主要目標,但最后以失敗告終。
“自然”這個詞是一個非常糟糕的概念,因為它意味著沒有任何前提性的約束。從技術哲學上說,人類設計的任何有效的技術產品,都必須要有約束條件,不可能存在沒有任何前提約束條件的技術產品。我們可以設想一下,要開發一種“自然路面高速汽車”,這個該怎么做?
人們可以很快就研發出一個演示性的產品,在沙漠戈壁上跑得很快的第一代“自然路面高速汽車”??墒沁@個達到目標了嗎?當然沒有,它能在湖面跑嗎?不能,因此再增加水陸兩棲功能。這能算“自然路面高速汽車”嗎?似乎有點樣子,但肯定又不能算,如果遇到樹林怎么辦?前面裝上高速切割機,把樹木瞬間切斷,從而可以在樹林里也能高速奔跑。獲得重大進展,人們一片歡騰。但這能算“自然路面高速汽車”嗎?還是不能,遇到不僅比輪胎、甚至比汽車本身還高的大石頭怎么辦?因此車頭上再裝上石頭粉碎機,可以快速通過大石成堆的自然路面。人們又是一片歡騰,但這能算“自然路面高速汽車”嗎?依然不能,遇到前面是懸崖峭壁怎么辦?再裝上攀巖器,能快速攀上懸崖,全社會再次發出一片驚嘆,但這能算“自然路面高速汽車”嗎?當然不能,如果前面是萬丈深淵怎么辦?再裝上可以滑翔的翅膀,能從山頂上滑翔到山底。全社會又是一片歡呼,但這能算“自然路面高速汽車”嗎?不能。還有沼澤、火山、泥石流、洪水、海面9級海況、15級臺風、龍卷風路況......永遠會有沒完沒了的新“自然路面”問題在前面等著。
最近有一個視頻宣傳波士頓機器人的演進過程,從30年前開始,一直演進到今天。進步真的很大,可是30年過去了,直到今天也不確切知道它能用來干什么。前不久曾有一個視頻展示波士頓機器狗被一位漂亮的貴婦當寵物狗牽著漫步,真的很吸引眼球。可是寵物的本質是什么?摸著它的腦袋能讓人產生愛的感情。你摸著這家伙的腦袋試試什么感覺?
還有宣傳波士頓機器狗能干家務。人工智能如果只是秀一下,什么事情都可以干。但真當它們去干的時候必須明白,它必須得是嚴格定義和規范的工作。如果你不能對準備讓它干的家務進行明確定義,真以為它什么家務活都能干,勸你還是拉倒吧!
前幾年因為疫情,在美國很多工作沒人做,終于想到用波士頓機器人做搬運。但專業的搬運機器人早就有了,哪里需要波士頓機器人這么復雜的玩意兒?
有人認為這種可以在復雜山地環境負重的機器人可以在戰爭中向前線運送物資。實在是難以理解,有這功夫做一個很簡單的多旋翼無人機,不就什么路面都可以不用管,直接向山頂上送東西了嗎?波士頓機器人能穿過山間一條十幾米寬的水溝嗎?拉倒吧!這么復雜昂貴的東西哪能當成野戰型的裝備。
中國已經用無人機向山頭上的邊防哨所運送各種物資甚至是新鮮食材的火鍋,完全實用化了。
03
永遠98%識別率的語音輸入
今天很多人在用語音輸入和手寫體識別,我也在用。但如果我告訴你30年前就有,你會作何感想?20世紀90年代初我還在北京郵電大學讀圖像處理研究生時,我的一位大學同學鄭元成在北方交大讀博士,他的研究方向就是語音識別。當時我去他實驗室和他深入研討了這個技術。他說他做的識別率可達到98%。剛開始我很興奮地認為“這馬上就可以實現大規模普及了???”,但深入交流完就明白了,這是一個深到完全無底的深坑。先說為什么語音識別的技術指標永遠都是98%,因為從語言學角度說,一旦一篇文章的差錯超過2%,看起來體驗就會明顯變得很差。如果有超過5%詞匯不認識,閱讀理解就會出現嚴重困難。所以,從很早開始,語音識別的行業人士都會說自己的技術識別率可達到98%,因為不這么說不行。只要輸入的語音規范到一定程度,即使幾十年前水平很差的語音輸入識別率真的就可以達到這個水平。但只要規范性稍微變差,需要的計算難度就會指數級甚至超指數級上升,即使今天的語音輸入識別率也會迅速降到遠低于98%。
40年前的80年代中期,我在北京計算機展會上就看到過可以識別印刷體的OCR產品,參展者是兩位學校的老師,他們聲稱自己的技術識別率可以達到99%以上。90年代初期,曾有一個漢王手寫板輸入裝置在市場上出現過,我在王碼電腦時曾給一些連鍵盤都不會打的老板裝過這個產品。如果非常認真地一筆一畫寫,識別率尚可,但只要稍微潦草一點,它就識別不出來了。因此剛開始很新鮮,但用不了多久就用不下去了。這個產品很快就在市場上再也見不到。
直到今天,簡單按照摩爾定律計算,芯片和算法的能力相比30多年前已經是百萬倍的提升,語音識別的能力的確相比過去體驗顯著改善。但是,只要你說話稍微不規范一點,例如中間不規則停頓多一點,背景有一些吵雜,識別率同樣就會迅速下降。使用它們時一定要很小心,如果不注意被識別成一些罵人的話,直接就在微信等通訊軟件里發給別人可就出大事了。因此,有些人用著用著,出幾次事故后就不愿再用了。如果你能理解人工智能是什么就會明白,必須要給它一定的規范才能有效,不要指望它“和人一樣”。況且,人都不一定能完全聽得懂另一個人說什么,你怎么指望機器能完全準確地做到?在人工智能領域,這個情況不是個案,人們想象出的很多工作是人都不一定做得好的,卻指望機器能做得很好。
中國書法里的狂草有幾個人能看得懂的?
有些書法你要說它就是成心制造誤解也不為過。人都容易理解錯,況且機器。
04
可靠性---智能一定就是好事情嗎?
人們普遍以為,只要智能水平越高就越是好事,機器模仿人的智能越像就越好,這種看法大錯特錯。人的智能的確是人得以自豪的最重要能力,但我們一定要理解到人們平時不太注意的問題另一面:智能并不見得一定就是好事情。如果機器有效地模仿人的智能,有可能是與人一樣聰明、能干,也可能是與人一樣愚蠢、做事情不可預知、不可靠、感情用事......我們生產機器最重要的不是它們的能力如何,而是要可靠。我們為什么要發明機器?不僅是因為提升效率,而且因為人的不可靠、不可預知。所以,人類的文明有很多創造不是出于提升人的智能,反而是出于限制和約束人類的智能。我們之所以需要企業管理,就是因為人是智能的主體,只有通過約束才能使人做出規范和可預測的工作結果。我們對機器的可靠性要求不是達到98%、99%,而是要達到小數點后面4個(99.9999%)甚至6個以上的9(99.999999%)。這種程度的可靠性是擁有智能的人類不可能達到的。一切智能化的主體、包括人,除非是超高強度訓練、紀律性超強的軍隊,否則其可靠性很難超過小數點后面2個9。
花那么大代價做出一個可靠性低劣到向人看齊的機器干什么?和人一樣就一定是好事情嗎?絕對不是。做人工智能的人首先自己得有真正的智慧,而不是盲目去搞什么本質上不可靠、愚蠢、工作結果不可預測的“人工智能”。
一旦將問題進行足夠的限定、規范和簡化,對可靠性的要求不是那么高的領域,人工智能的確可以獲得一些實際應用。但如果問題提得不對、目標不明、可靠性要求又高的領域,又總是會覺得前面還有無限的路要走。
汽車的車牌是一個相對規范的對象,同時在很多場景里,識別存在一定的差錯率是可以容忍的,這樣的話人工智能就可以獲得很好的應用。目前即使做得很好的車牌識別能達到千分之一的差錯率就已經很不錯了,在諸如停車場,道路違規監控等領域,這個水平的差錯率是可以接受的。因為對車輛違規來說,還有多個原始照片可以人工復核。而在高速公路上,阿里也曾做過將支付寶與車牌綁定試圖取代ETC,但這個就沒有普及開來,原因何在?可能原因有多個,但僅從技術上說,高速公路上的大規模車輛自動收費系統,因車流量極大、又涉及收費問題,其可靠性要求是會非常高的,千分之一的差錯率肯定難以接受。ETC系統不僅因為無線信號傳遞本身的可靠性就極高,而且ETC的序列碼等編碼設計本身就帶有校驗碼,如果傳遞過程中出錯它會自動發現并重傳。如果需要,如衛星及其他太空信號傳遞的信號編碼,可能還帶有糾錯碼設計,可以不用重傳就自動糾錯。這些技術的應用可以獲得極高的可靠性,它們是人工智能不可能達到的。所以人們一定要明白這樣一個公式:
人工智能 = 有效的人工智能 + 人工愚蠢+ 人工不靠譜(不可預測、可靠性差)
只有充分理解了以上公式,才能對AI趨利避害地加以有效利用。
05
人工智能會超過人、取代人嗎?
這個問題是與人工智能相伴隨的、被人問得最多的問題,也是最沒有智能的一個問題。真是廢話,人如果做出來的東西不能超過人你做它干什么?直接用人去干不就得了。試問一下人類創造出來的工具和機器有哪一個不是能夠超過人取代人的?200萬年前的原始人打出來的石器切割能力就超過人了,況且是現在做出來的東西。計算機從一開始就在計算速度上超過人了。人類發明的任何機器從一開始就在取代人,只不過是取代的工作對象和取代速度、規模、經濟性不同而已。人們唯一需要考慮的問題是你的工作被機器取代后你該干什么,你該做哪些不會被機器取代的事情,你該如何去利用各種可以取代人的機器,以增強自己的競爭優勢。在人工智能領域,最充分最廣泛地展現了人類是如何地缺乏智慧,甚至表現得非常愚蠢。當人類面臨被機器取代的前景時,可能會產生一種恐懼感。為了平衡這種恐懼感,工業革命時期的工人發動盧德工人運動去砸毀機器。而現在人類知道不能這么干,因此就在心理上尋找其他的各種平衡。幾十年前計算機剛開始蓬勃發展時,出現過一個很奇怪的觀念是“計算機怕水”或“機器人怕水”。總得找出點人工智能的致命弱點,人類才會獲得一些心理安慰是不是?這個好像是有道理,因為水是導電的,如果電路板進水了就會短路甚至燒毀。所以,美國好萊塢的很多科幻大片中,人類的英雄們都是用一盆冷水把造反的機器人置于死地,例如中國很多觀眾熟知的《未來世界》《血洗樂園》等都是如此。他們哪里知道水下機器人是機器人最早獲得應用的門類之一。技術上的道理太簡單了 ---把電路密封起來不就不怕水了。
06
簡化問題與技術能力---為什么
AI無人駕駛永遠不可能成功?
人類解決任何問題永遠是要從兩個方面入手的:
將問題簡化和規范,以極大地降低對技術能力的需求。
提升解決問題的能力,以便解決更難的問題。
人類永遠需要不斷增強解決問題的技術能力,但無論如何提升,技術能力又永遠都是有限的。如果只是從提升能力一個方面入手,表面看似乎水平在不斷提高,卻可能永遠也解決不了問題,因為任何問題本身如果不加限定都可能是無限復雜,從而需要無限強大的能力才可能解決。人類解決交通問題永遠是從道路和車輛兩個方面同時入手,才能有效解決問題?;疖囍皇擒囶^和車箱問題嗎?當然不是,得首先解決鐵路的問題。路如果不行,僅僅通過車頭和車箱的技術改進是不可能獲得成功的。高鐵不僅是高鐵車頭和車箱,更重要的是高鐵的道路與普通鐵路差異巨大。
高速公路為什么可以跑高速?是車有什么不同嗎?不是,車沒什么變化,只是路不同。
什么是道路?它就是對交通問題的簡化。一公里高鐵建造價格在1億多人民幣到幾億人民幣,一公里高速公路造價在3000萬到1個億,由此就知道為了簡化交通問題得付出多么大的代價。如果不首先把問題簡化,是不可能真正有效解決問題的。
沒有無人駕駛道路,怎么可能有無人駕駛汽車的成功?如何才能真正實現無人駕駛?與業界的幻想完全不同,不是通過增強車輛的人工智能,而是嚴格制定無人駕駛車輛的行駛規則,首先建設完善的無人駕駛道路。在無人駕駛道路上行駛時,不允許車輛有任何智能行為,一切行動必須聽道路的指揮。汽車駕駛首要的是安全,安全就需要極端可靠。而人工智能最大的特點就是不可靠,你用人工智能無人駕駛軟件訓練100億、1萬億、1億億億公里道路里程也沒用,怎么可能用它來實現無人駕駛?人駕駛汽車都不可靠,人工智能駕駛汽車怎么可能可靠?現在人駕駛汽車全球每年出車禍死亡130萬人,如果全改成人工智能駕駛每年死個零頭30萬人能不能接受?不可能接受,為什么?因為現在人駕駛汽車每年死一百多萬人是車主或路人自己負責任。一切汽車上的安全措施沒有任何一個是能絕對保證不出車禍的。汽車碰撞實驗的安全規定里,測試車速僅僅是最多64公里/小時,全世界沒有超過這個的。你開的車速達到65公里/小時,出任何車禍都肯定與廠家沒有任何關系,你開的車速55公里/小時出車禍和汽車廠家也未必有什么關系,因為是車主自己在開車,誰知道你自己方向盤打成什么樣了??墒侨绻某扇斯ぶ悄荞{駛,本質上就是100%由汽車廠家的AI軟件在開車,并處置一切行車中的各種情況。由此,出的所有車禍(遠遠不止死了30萬人的案例)當然就全是汽車廠家的責任,必須100%由廠家負責賠償了。想清楚沒有?你賠得起嗎?馬斯克所有的瘋狂目標全實現了,唯有無人駕駛他實現不了?,F在AI無人駕駛還沒有大規模普及,所以根本不懂AI的法律界人士和其他制定政策的人全都處于茫然和幻想的狀態。一旦真的當無人駕駛大規模普及了,有案例了,打幾個官司以后,以上其實簡單至極的基本問題馬上就想明白了。很明顯,車主和他們的律師當然都會從他們的利益最大化角度來進行法庭辯論,車主是在睡大覺,甚至駕駛座根本就沒人,車主是在后排座上睡覺,毫無疑問就是汽車廠家的AI軟件在負責一切操作,出了任何事情當然要由廠家負一切責任,廠家作為被告絲毫辯護的余地都沒有。
現在的汽車保險都由車主每年購買,汽車廠家只對車的質量負責任,對車禍承擔責任的幾乎沒有。這就是現在的汽車全行業的法律關系現狀。如果普及了無人駕駛,法律關系就一定會發生變化,既然車主不再負責開車,就不會再對無人駕駛期間的一切車禍承擔責任。無人駕駛汽車廠家可以將責任轉嫁,但那意味著每年無人駕駛汽車的保險費就全得由廠家出了。
真正的無人駕駛應該怎么做?
嚴格制定無人駕駛道路規則,建設完備的無人駕駛道路,在這樣的道路上行駛是幾乎不會出車禍的,其可靠性會達到與飛機和高鐵相當的程度,使車禍的數量接近個案的偶發水平,死亡數量更是基本為零。此時會由無人駕駛道路的運營者對任何事故負賠償責任,現在的航空和高鐵就是這么做的。他們之所以敢負責任的前提條件,就是出現需要負責任的情況在技術上的概率接近于零。只有這種可靠性級別的無人駕駛才是唯一可能成功的。只要采用人工智能,就不可能達到這種級別的可靠性。具體原因后面一節馬上就會深入討論。
必須首先簡化問題,才有可能真正解決問題。
無人駕駛絕對不是通過增強人工智能,而是通過完全的規則化、徹底屏蔽車上的智能才有可能實現。
如何實現完全的規則化:在無人駕駛道路上所有車輛速度嚴格一樣,車間距嚴格一樣,出現各種情況處理方法嚴格規范......這樣,車上的人就可以在車輛行駛時放心地睡大覺了,或者車上不需要有人。
屏蔽車上的任何智能對車輛行駛的影響,是實現無人駕駛的絕對前提。人類干得最愚蠢的事情就是想通過人工智能控制來實現無人駕駛。連什么是交通的最基本常識都不懂,居然還想開發什么無人駕駛汽車?我很早就在各種場合對人工智能無人駕駛持否定態度,但人們還是聽不明白?,F在中國業界思路逐步變成路車兩方面同時增強智能,也有專家對路的算力是否足夠存在質疑。路的算力怎么可能存在不夠的問題?每10米分配一顆2000塊錢的高性能CPU,每公里也就區區20萬,就算每米分配一顆,也不過200萬。你知道高速公路每公里造價是多少嗎?如果建成無人駕駛道路或者無人駕駛車道,在這些車道上行駛高速費增加50%,很容易就把成本收回來了。每公里最多再增加50%作為無人駕駛道路建設的投資,經濟上就是合理的,怎么可能有道路算力不足的問題?如果想象成用一臺服務器管理幾公里無人駕駛道路,甚至幾百公里高速信息集中到一臺服務器里去處理,那算力當然不夠了。
有人可能會疑惑:現有很多汽車廠家包括特斯拉等都宣稱自己的車達到L3甚至L4級別,也有人用其駕駛在高速上跑,甚至睡大覺了?。∥铱梢愿嬖V你,40年前電視上就報道過有人用當時的計算機秀過這種無人駕駛,手拿報紙讓汽車自己開了很長時間并自己到達目的地。當然,那時的路面是郊外幾乎沒有其他車輛的道路。人工智能就是這樣,秀一下都是可以的,都很好看,真要大規模普及永遠都不行。
想靠車輛的AI實現無人駕駛,此路不通,乘早死了這份心吧!別再浪費投資了。
只有可靠性要求很低的AI功能,諸如自動泊車等,才有可能真正商用化。
07
為什么AI可靠性不會很高?
要理解為什么AI在可靠性上一定不會太高,必須要理解AI的本質到底是什么。理解一切問題都需要從最簡單的原理開始。我們先舉一個用氣象衛星遙感估算農作物產量的最簡單實際例子,來說明人工智能的本質到底是什么。
以下是一個2005年發表的相關論文的例子。
這個論文中是采用NOAA氣象衛星兩個通道的數據,以及NPP-RS模型來對農作物產量進行估算。核心的計算公式是下面這個:
如果不是這個專業的讀者可以完全不用去關心以上讓人頭疼的數學公式,只要知道這樣幾個要點即可:
一是上面的公式是一個經驗公式。
二是公式中的k(區別不同農作物種類的常數),a、b(農作物種類確定后,與其產量相關的常數),這些常數都是通過實際數據大量統計出來的經驗值,就是不知道具體因果關系,只是一種相關關系。在不同情況下(如不同農作物產區)這些常數可能有所不同。
從這個論文的摘要里就可以看到,這種估算的平均相對誤差水平為:
整個吉林省糧食總產,13.6%
玉米,17.6%
水稻,6.7%
這么高的誤差水平,既然已經寫成論文,表明它是已經能拿得出手的東西。
上面這個如果表達成與上述專業細節完全無關的數學形式,就是這樣的經驗公式:
y=ax1+bx2+c
x1,x2是自變量,這些自變量可能是衛星光譜通道,人臉特征值等等。a、b、c是常數,它們是通過大量統計(訓練)出來的經驗值。在不同的變量x1,x2情況下,可以通過這些常數計算出y的值。這個不僅可能用來以衛星遙感的數據估算農作物產量,也可以判斷地面上是哪一種農作物。這是一類被稱為“模式識別”的最、最、最......簡單的所謂人工智能。
雖然這個非常簡單,但它說明了人工智能的一些本質特點:
通過大量數據分析、統計、訓練等獲得一種經驗公式性質的規律或數學模型。
這種數學模型屬于相關關系而不是因果關系。
所有變量的影響帶有相應的常數,這些常數都是一些經驗值。
- 因為以上規律,人工智能必然具有相當可觀的誤差。如果實際應用中出現沒有預料到的新變量,誤差就會顯著增大。
無論是后來采用卷積的深度學習算法,還是現在流行的ChatGPT的所謂大型語言模型(LLM),本質上都是類似以上規律的數學模型,只不過它們的變量和常數的數量可能不是幾個,而可以是幾百、幾千、幾萬、幾千萬......據說,ChatGPT的變量和常數的數量已經達到1760多億,以后可能會到上萬億,百萬億,千萬億億億億......不僅如此,它不是簡單的一維線性經驗公式,而可能是更為復雜、數量極為龐大的多維、超多維數學模型形式。但是,變化的只是量的不同,本質上它們依然是通過各種統計或訓練不斷調整變量和影響它們的常數值,都脫不了誤差非常難以縮小的命運。尤其是一旦遇到新的變量,影響的就不只是系統模型中的參數不同,而可能模型本身的變量集不一樣,此時都會出現比較嚴重的誤差。
因此,如果你是對人工智能真正懂行的人,盡可能尋找到模型中沒有納入的變量進行攻擊,就可以很容易讓這個模型產生極大的誤差。例如,很早就有計算機象棋軟件,因為我下棋水平很低,即使在20多年前我和計算機很初級的象棋軟件對弈也基本上都會輸。但是,后來我試著用自己的“車”把自己的“卒”給吃了,計算機象棋軟件馬上就“瘋了”,不斷走一些莫明其妙的棋,讓我很容易就獲勝了。
不過,人工智能很容易讓人說不清的一點是:一旦我們明確了如何通過某個新的變量戰勝人工智能的方法,只要把這個新的變量增加考慮進去,人工智能馬上就獲得進步,你再用改變這個變量的方法進行攻擊就不再有效了。問題在于:如果不去限定變量的選擇范圍,就永遠會存在現有模型沒考慮到的新變量。
08
智能與智慧
一旦從本質上理解了人工智能,就會明白人類的智慧是如何解決問題的了。例如,人工智能無人駕駛會通過訓練去處理路上出現一只羊該如何應對,從而產生各種越來越復雜的應對規則:
- 如果羊往左邊走,車就從右邊開過去。
- 如果羊往右邊走,車就從左邊開過去。
- 如果羊站在中間車道不動,車就選擇從左車道或右車道過去。
- 如果羊往左邊走,車從右邊開過去時,羊突然驚跳反過來往右邊走,車就轉而從左邊開過去。
- 如果羊往右邊走,車從左邊開過去時,羊突然驚跳反過來往左邊走,車就轉而從右邊開過去。
- 如果羊站在中間車道不動,車選擇從左車道開過去時,羊突然驚跳往左邊走,車就轉而從右邊開過去時,羊又害怕往右邊走,車就轉而再從左邊開過去。
- 如果羊站在中間車道不動,車選擇從右車道開過去時,羊突然驚跳往右邊走,車就轉而從左邊開過去時,羊又害怕往左邊走,車就轉而再從右邊開過去。
- 如果......
- 如果......
- ......
我們也經常在日常生活中見到這樣的案例:兩個人騎車相對而行時,你躲我、我躲你,結果兩者鎖定在一起更容易相撞了。當兩個對象都有智能時,互相以對方為基礎來確定自己的策略,反而可能更難以找到合理的策略,進入震蕩和鎖定的狀態。現在人工智能無人駕駛沒有大規模普及,設想一下如果路上全是人工智能無人駕駛車會是什么情況。兩輛無人駕駛車互相躲避,會進入相互鎖定狀態而更容易相撞。
用人類的智慧解決問題的方法,是嚴格控制和限定變量的范圍,簡化需要處理的變量對象,并且使每一個變量對象都得到嚴格的精確控制,從而獲得最終的極高可靠性。人類建設的高速公路不是通過深度學習和其他什么AI算法建立“羊跑到路上去、羊是什么樣的動作等不同新情況下的處理規則”,而是通過路兩邊的鐵絲網阻攔,根本就不讓羊跑到路面上。如果羊不知什么原因真的就是跑到了路面上,這都屬于統一規定的“意外情況”,遇到一切意外情況時,就暫停道路通行,所有車輛停下,把意外情況處理完,將羊趕出道路阻攔網以外,使道路恢復正常情況后,所有車輛逐步恢復正常通行。
人工智能是現在可以處理1750億個變量和參數,以后準備將模型提升到可以處理7510億個,再然后7萬億個,對每一個變量的控制都是淺嘗則止。
但人類的智慧是首先簡化問題,讓變量不超過750個,并且對每一個變量都能獲得達到小數點后面6個9以上的可靠性,從而使得最終的可靠性也至少為小數點后面4個、5個9。
這就是為什么大家談的ChatGPT案例基本都是一些說不清道不明、仁者見仁、智者見智、當然也就蠢者見蠢、不靠譜者見不靠譜的主題。即使是所謂幫助寫論文,主要也是社會領域等相對不需要那么嚴謹的內容。如果出現各種錯誤,人們也只是哈哈一笑;如果出現很傻、很蠢的錯誤,人們更是會開懷大笑。本來嘛,很多藝術就是一種從嚴格邏輯上說屬于犯錯而產生的美感。例如,猜迷語就是把常規的文字理解成邏輯上與常規含義不同的意思。如果你真想讓它干靠譜的、正經的、可預測、需要高度可靠性的事情,那就要小心了。
09
人工智能會存在奇點嗎?
未來學家庫茲韋爾在《奇點臨近》一書中預言:2045年,奇點來臨,人工智能完全超越人類智能。有這個可能嗎?這種不懂技術的作家都喜歡通過聳人聽聞的預言來提高書的銷量。
一是計算機從一開始就超過人類了,二是人工智能的發展只不過證明了電腦還可以像人一樣不靠譜、不可預測。只有真懂人工智能技術的人才會理解,從1750億個變量增加到1750萬億億個變量,肯定會有區別,但區別也肯定不會像庫茲韋爾所想象的那樣。
10
軟件定義網絡、復雜與簡單
如果你對技術不太懂,可以不用看本節技術方面的內容,只看結論即可。如果你對網絡技術很懂,本節也將會給你帶來新的認知。"軟件定義網絡"(SDN)這個名字本身就起錯了。難道以前的路由器的路由表不是由軟件算出來的嗎?所以,此處我給它起的準確名字如下:傳統計算機網絡的路由器和交換機學名可稱為:
鄰居發現不完備網絡結構信息自主智能遞歸收斂路由。
所謂軟件定義網絡(SDN)嚴格準確的學名可稱為:
完備網絡結構信息集中智能免收斂路由。
如果讀者是網絡技術專業領域的,一看名字就該知道:作為最早提出SDN概念的人對它的理解為什么與一般人不一樣了。既然人們已經習慣SDN這個名字,我也不想改了,本文還是繼續延用SDN這個名字。我是先學習和熟悉了電信網絡的程控交換機技術,而后再學習計算機網絡技術的。最初非常難以理解計算機網絡的路由器和交換機的路由表計算為什么搞得這么復雜。我提出SDN其實算不上什么全新的建議,它本質上其實就是電信領域的人很熟悉的程控交換機路由控制方法。所以,為什么我能最早提出來,原因就在于我是先搞電信網出身,后來又精通了計算機網絡。很多熟悉計算機網絡的人可能已經對它的路由算法習慣成自然了,如果你問他們為什么要這么搞,能說出道理的人卻可能很少。
最初互聯網是美國軍方的項目ARPAnet。它的原始目的是開發出一種具有軍用安全級別的信息網絡,就是在戰爭中無論網絡被炸成什么樣,只要存在物理連接通道,網絡本身就可以自動建立起新的信息連接路由。
電信網的安全性一般采用主備倒換就足夠滿足了,但以上美國軍方的目標采用這種思路卻很難實現。因為平時主用和備用設備一起壞掉的可能性極低,但戰爭中一枚炸彈把主用和備用的網絡設備同時都炸掉卻幾乎是必然。所以,集中式的網絡控制方法不能滿足以上要求,由此就設計了每一個網絡節點可以通過鄰居發現協議、自己去適應網絡的任何變化建立通信路由的技術方案。
但是,這樣不僅需要每一個網絡節點都自己具備很強的路由計算能力,而且因為鄰居發現獲得的網絡結構信息可能不完備,從而使路由計算極為復雜,且有可能導致相互影響。一個路由器計算完自己的路由表傳給鄰居,鄰居節點根據它計算自己的新路由表,然后又傳回來、再根據這個新的路由表重新計算再傳回去。如何能夠快速地收斂就是一個很復雜的問題?,F在的互聯網并不是用于戰爭,而基本都是民用,這就使最初的設計理念成為累贅,但深陷其中的專家們技術路線已經被深度鎖定,已經搞不清楚最原始初心是為什么了。
SDN是基本屏蔽了各個網絡節點的智能,把全網所有結構信息傳給一個集中控制的服務器,由它根據全網完備的網絡結構信息一次性計算出所有節點的合理路由表,并下發。各個節點遵照執行即可,多么簡單可靠!這同樣是智能與智慧之間的區別和差異。
但這個技術出現后為什么發展得并不是太好。道理很簡單,這么一搞所有網絡節點全成標準化產品,那CISCO等公司還怎么活下去?所以CISCO馬上搞出一個自己的新SDN協議OpFlex,并且主推的技術路線是SDN與傳統網絡雙協議棧發展,搞得更復雜了。這根本就不是為了發展SDN,而純屬攪混水?!?技術并不止是技術,背后必然存在相應的利益。如果不理解這一點,是無法理解技術為什么會發展成那樣。
后來很多人又開始炒作軟件定義存儲,軟件定義計算......你都沒搞清楚最早的軟件定義網絡是怎么回事,沒搞清楚”軟件定義“這個詞本身就是錯的,還炒作什么其它的軟件定義XX呢?
領先的公司具有把技術搞復雜的能力,技術越復雜,跟隨型的公司越無法超越。因此就明白CISCO的路由協議、微軟件的操作系統、美國的航天飛機、F-35隱身飛機......為什么搞得那么復雜和大而全了。此時不免讓人想起發明AK47的蘇聯槍械設計師米哈伊爾·季莫費耶維奇·卡拉什尼科夫的一句話:把簡單的事情搞復雜很容易,但把復雜的事情做簡單卻很難。
2020年,微軟的必應(bing)在全球搜索市場的占有率大約在2.69%,遠遠低于谷歌的91.38%。所以,為什么微軟要在2019年給OpenAI投資10億美元,并且在ChatGPT上線后再投100億將其與Bing捆綁?就是希望通過這個途徑在搜索市場上翻身。
理解了以上所有一切,就該明白作為中國公司該如何有效應對了。
-
人工智能
+關注
關注
1792文章
47377瀏覽量
238882 -
ChatGPT
+關注
關注
29文章
1563瀏覽量
7791
發布評論請先 登錄
相關推薦
評論