人工智能目前存在哪些技術瓶頸?未來是否可能對人類帶來威脅?今天下午舉行的2020浦江創新論壇全體大會上,圖靈獎獲得者、中國科學院院士姚期智做了題為《人工智能面對的一些挑戰》的演講。在他看來,人工智能有三大技術瓶頸亟待突破,需要科學家“從0到1”的原創研究。
作為現代密碼學的奠基人,姚期智創立的上海期智研究院今年初在滬成立。目前,這家新型研發機構已匯聚4位兩院院士、20多位科學家和多所高校的青年人才。上海期智研究院依托清華大學和復旦大學、上海交通大學、同濟大學等滬上高校和科研機構,瞄準人工智能、現代密碼學、高性能計算系統、量子計算及量子人工智能、物理器件與計算、生物智能等6個方向開展前沿研究,旨在打造中國人工智能“夢之隊”,推動以人工智能為主導的交叉學科發展。
在姚期智看來,脆弱性是人工智能面臨的第一大技術瓶頸。人眼識別十分穩定,一個圖像如有微小改變,人仍能一眼看出它是什么。然而,人工智能在圖像識別方面有點“人工智障”,比如將一只小豬的照片加入一些圖像“雜音”,一些機器視覺系統居然會把它識別為飛機?!靶∝i變飛機”這種漏洞會給人工智能應用帶來安全隱患,比如黑客可以攻擊汽車自動駕駛系統,誘導它將馬路上的“停止”標識當作“通行”,從而引發交通事故。
第二大技術瓶頸是機器學習算法缺乏可解釋性,很多算法處于“黑盒子”狀態。例如一個科研團隊開發了一個房地產估價系統,這個系統通過一套算法學習了有關各地房地產價格的大數據,從而能自動評估房地產價格。然而,這套算法像黑盒子一樣,很難給出估價的完整依據。這在商業應用上是一塊很大的短板,房地產商會懷疑:人工智能系統是否低估了價格?是不是有利益相關方對系統做了手腳,故意壓價?因此,算法的可解釋性問題亟待科研突破,否則會大幅限制人工智能的商業應用進程。
第三大技術瓶頸是人工智能的對抗性較弱。如今,一個無人機群可以輕松完成燈光秀、農林作業等任務,但要看到,這些任務都是在自然環境下完成的,如果是處于高對抗的人為環境中呢?比如在電子競技和軍事戰斗中,無人機群的協同作戰能力就會受到很大考驗,要在對抗中勝出,需要計算機科學、數學等領域的科學家進行深入的強化學習、博弈論研究,讓無人機群能夠在高對抗環境中自主找到最優策略。“這是一個很重要的科研方向,需要從到1的突破。”姚期智說。
隨著人工智能技術的快速發展,未來是否會產生“超級人工智能”,進而對人類產生威脅?姚期智引用了人工智能先驅約翰麥卡錫1977年對這個問題的回答:“我們需要概念上的突破,需要1.7個愛因斯坦和0.3個曼哈頓項目,可能需要5年至500年時間?!边@句話意味著,“超級人工智能”是否會產生、何時產生,存在很大的不確定性。
為應對這種潛在的威脅,姚期智給出了制約智能機器的三個原則:一是利他,即人的利益應凌駕于機器利益;二是謙卑,即機器不能自以為是;三是盡心,即機器能學懂人的偏好?!懊總€原則都要用嚴格的算法來實現,并貫穿于設計之中,這樣就能有效駕馭人工智能?!?br /> 責任編輯:YYX
-
人工智能
+關注
關注
1791文章
47183瀏覽量
238247 -
智能機器
+關注
關注
0文章
96瀏覽量
20282
發布評論請先 登錄
相關推薦
評論