自動駕駛的不斷發展,也加大了我們對未來的擔憂和倫理探討。畢竟在高速行駛的汽車上,一旦面對最糟糕的結果選擇,人類并不信任機器能做出合適的判斷。
7月初,李彥宏在百度AI開發者大會上實現了“吹過的牛B”,L4級自動駕駛商用車阿波龍的商業化量產,成為自動駕駛領域最新的重磅新聞。
同時發布的還有AI芯片“昆侖”,李彥宏也對“昆侖”不惜溢美之詞,聲稱其能在100W的功耗上實現260Tops性能??梢灶A見,無論被視為一套系統的自動駕駛技術,還是其中作為“駕駛員”這個關鍵決策角色的AI技術,將以超出公眾想象的速度快速迭代進化。
但也引起更多對未來的擔憂和倫理探討。畢竟在高速行駛的汽車上,一旦面對最糟糕的結果選擇,人類并不信任機器能做出合適的判斷。
推理至上與快速迭代
眾所周知,L4級被視為自動駕駛的一個關鍵節點,AI全面接管駕駛工作,人類對駕駛行為的干預不再是必須而實時的。
昆侖芯片在自動駕駛場景中,最重要的工作就是根據傳感器數據,滿足訓練和推斷的需求,根據路況不斷預測未來0.1-10秒的路面局勢變化,這是高等級自動駕駛獨特的能力。
換言之,只有經過訓練的強AI才能獨立處理未知局勢。
例如谷歌的AlphaGo,在CPU之外采用了用于評估局面的4TPU。實際上是卷積神經網絡的應用。它的分支有兩個:價值和策略。不必每一步都窮舉到最后,它就能推斷每一步的價值和對最終獲勝的影響。
按照谷歌首席工程師的說法,在任何一步,AlphaGo都會準確預測如何能贏。
這不是在跳大神,而是自我監督下的AI展現出強大的推理和預測能力。如果采用云端算法,很可能實現強AI。
現在的AlphaGo,已經沒有任何一個活著的人類可以匹敵了。它擁有40層神經網絡和“足夠視野的前瞻性”,能夠看到未來的危險和價值,并采取最優策略。
盡管因為應用場景只局限于園區等固定區域,阿波龍的L4級自動駕駛仍有爭議,但在開放道路上的L4級自動駕駛,強化AI是其中最可能的途徑。它可以避免優步在今年早些時候、在鳳凰城路測發生的悲劇。
此前,在量產車上搭載的行車電腦ECU可以做之前人類才能做的事。在它的指揮下,自動變速箱輕松換擋。在高速行駛中遇到變道行駛或側風、路面傾斜等外部干擾時,駕駛人可以自如操縱方向。低速轉彎時前后輪轉動方向相反,可以輕松通過以前需要多次轉彎才能通過的小彎。
如何滿足不知滿足的人類呢?AI需要超越現有人類認知水平和能力,如同圍棋比賽中那樣,被驚倒的人們自然將王冠奉上,并日益依賴更聰明的AI。
通用AI的再進化
如果計算機有情感,它會發現人類的推理能力實在是弱爆了。邏輯的層級和旁路拓展多到一定地步,人類就無法記住眾多的信息和它們彼此的關聯,更別提放在一起分析了。
但人類也有AI無法企及的地方,人類的直覺值得肅然起敬,并善于將復雜問題簡化,然后用直觀判斷的方式直趨答案。隱藏的信息是否足以支持做出精準的判斷?雖然不總是正確,但這樣耗費的時間和精力都是可接受的。我們放棄了一些表象,捕捉隱含信息(學術上稱為“次表征”),從而追求更快地解決問題。
人們期待計算機的“思考”方式能夠模擬大腦結構。但是,無論谷歌的TPU,還是百度的昆侖,都只能針對限定輸入給出結論。
如果圍棋的棋盤變成20×19,人類棋手穩贏,而AlphaGo則可能不知所措。如果道路標線模糊不清,AI可能選擇讓汽車停下來,而人類駕駛員則可以大致“循跡”行駛,基本不受影響。
那么如何讓計算機看起來不那么蠢呢?
這樣的AI必然立足于“機器學習”。本地算法無法涵蓋所有路況,設計者必須賦予無人駕駛系統一定的自主權,避免在特殊路況下該系統不知所措。和人類一樣,計算機仍然要先搜集大量數據樣本,也就是各種路況下的駕駛行為,就像人類也需要反復練習駕駛技能,鍛煉預見性和形成固定的肌肉記憶。
機器學習,實際上是將人類學習過程“外化”。選擇合適的模型,讓模型學習樣本,從而找出數據的內在規律,從而形成對未知路況的“經驗”。
面對復雜外界條件,AI仍然需要基本的預設應對策略。在人類無法厘清復雜的因果關系時,不需要也無法為AI設立先決條件和成熟策略。事實證明,機器學習,更善于從海量數據中抽象出若干有價值的因素,同時確定因素之間的相關性。從而確立應對策略。
比如,在城市快速路上行駛的駕駛員,主觀上對突然出現的行人缺乏預期,因為法律上禁止行人穿行。AI也同樣很難從樣本中學到,如何在封閉道路上應對突然出現的障礙。
這也就是“逾規則”狀態下的應對能力。理論上,自動駕駛系統的傳感器(比如激光雷達)可以比人類駕駛員更早地發現違規行人,即環境感知。
假設行人采取不明智的做法,如加速奔跑、快速從車前穿行等。人類駕駛員如果發現剎車距離不夠,將面臨兩難,如果直接將剎車踩到底,有很大概率發生碰撞;如果一邊變線一邊剎車,很可能與同向車輛發生碰撞,引發更嚴重的事故。而觀察相鄰車道的情況則導致更多的時間延遲,這種情況下,人類很難做出最佳選擇。
AI系統則會對行人行為模式建立模型,根據其肢體動作,預估其下一步的位置,同時收集相鄰車道和交通標志線信息。在20ms內計算出,多少轉向力度和剎車力,才能保證自身安全和避免碰撞,即決策協同。
最后的動作,則驅動車輛完全實現此前的計算,即控制執行。
其中的核心在于預估對方的行為。只有“強AI”才有可能做到這一點。賦權不夠或者學習能力不足的本地計算機,將無法勝任。這也是未來的無人駕駛系統必然是“強AI”的原因,雖然這個概念備受爭議。
未知導致恐懼
但由此帶來的問題是,在汽車自動駕駛這個關于人類生命安全的應用場景中,如果交通網絡完全由無人駕駛車輛組成,AI本身將形成另一套交通規則,無須而且排斥人類的參與。
這樣的強AI應用場景一旦實現,人類將陷入更深的擔憂。因為其強大的學習能力,自我進化速度極快,很可能產生自我意識,不愿意被人類束縛。而人類對其思維和執行缺乏預見,一旦失控,相比于人類駕駛的場景,后果更加是災難性的。
無知導致恐懼,即便可以執行完全無害的任務,也會因為不可預知性而讓人類害怕。因為強AI的決策過程,基本上是個“黑盒子”。
馬斯克和今年去世的霍金都曾發出嚴厲警告,強AI實現之日,被稱為“奇點”,可能會導致凱文·凱利所稱的“失控”。這也是被視為科學前瞻的科幻小說中,幾乎永遠對人工智能表達出憂患意識甚至末日情緒的根本來源。
但在現實中,面對AI可能的自我意識覺醒,拉里·佩奇表示并不擔心,他認為AI的善惡取決于創造者,眼下的科技公司們仍然普遍致力于增強型AI的研究。
毫無疑問,自動駕駛的終極解決方案是強AI,但有遠見的學者都對此表示強烈的擔憂。這是否意味著我們應該在此之前“踩剎車”或者另辟蹊徑?一條風景極佳的道路盡頭是否深淵?
最糟糕的預期,很可能來自我們恐懼的源頭——人類從未面對過比自己更聰明的實體。
從上帝視角來看,我們是否正不遺余力地奔向懸崖?強AI能解決自動駕駛場景的誘惑,讓我們無暇顧忌可怕的后果。實在不行,拔掉電源插頭總可以吧?
-
機器學習
+關注
關注
66文章
8425瀏覽量
132770 -
自動駕駛
+關注
關注
784文章
13867瀏覽量
166598 -
AI芯片
+關注
關注
17文章
1893瀏覽量
35099
原文標題:自動駕駛會導致AI“奇點”后的失控嗎?
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論