8月19日,中國科學院院士、清華大學人工智能研究院院長張鈸在機器人大會主論壇上表示,純粹靠數據學習生成的人工智能不可解釋,處于不可控狀態(tài),為了避免危險,需要發(fā)展安全、可靠、可信的智能機器人。此外,張鈸對機器人的倫理行為也提出了自己的思考,他認為讓機器人完全遵守道德規(guī)范和機器人的智能化存在矛盾,需要通過研究新的倫理分析工具等方式解決該問題。
要把知識加到數據驅動中
“目前機器是人的奴隸,我們叫它做什么它就做什么。但是我們希望進一步發(fā)展智能機器人,這就存在另一種可能性,即機器人會不會成為我們的主人?現在,大家越來越認識到這個可能性是存在的,阿西莫夫、霍金也提出過相關觀點,如果機器的智能超過我們,我們就失去對它控制,對于這樣的機器人要加以限制,加以治理。”張鈸說。
張鈸表示,當前機器人智能還很低的時候就處于不可控狀態(tài),這讓人類面臨危險。“比如用深度學習的方法處理事情,生成的人工智能算法危險、不魯棒(魯棒性,指系統對異常情況的適應能力),沒有可靠性保證,如果使用這種人工智能算法,必然會對人類帶來傷害,這已經成為現實問題。參考當前人工智能的發(fā)展狀況,此擔心看起來是一個近憂,而不是遠慮。”
在他看來,(人工智能)純粹靠數據驅動的方法必然不魯棒,必然不可解釋,必然不可靠。人在從事人工智能工作的時候就一定要考慮到相關的可能性,要解決這類問題,唯一的可能性就是加上知識,加上模型,辦法很簡單,但執(zhí)行起來很困難,因為把知識加到數據驅動中去,方法上要有很多改變。
張鈸表示,我們提出的第三代人工智能就是要解決第二代人工智能算法不安全,不可靠,不可信,不可控的狀態(tài)。第一代人工智能主要靠知識驅動,第二代人工智能主要靠數據驅動,這兩個方法都有片面性,必須把這兩個方法加起來,才有可能發(fā)展安全的、可靠、可信的智能機器人。
機器人如何遵守道德規(guī)范?
張鈸表示,提出過著名“機器人三定律”的阿西莫夫曾說,如果機器人有了意識,如何讓機器人能夠按照倫理準則行動是一個問題。但實際上,什么是道德以及什么是不道德本身就存在非常大的爭議,如存在電車難題這樣的困惑,而且對于機器來說還要把道德和倫理形式化,這需要法律、道德、倫理各界的共同研究。
他認為,假設給機器一個道德規(guī)范,也涉及機器人的行為可控不可控的問題,“給機器加上人工智能就不可控了,因為完全按照一個規(guī)則來執(zhí)行的,不是智能機器人,只有給予其一定的靈活性,機器人才能有創(chuàng)造性,才能自主解決問題,這是必然要付出的代價。”
“而且我們對于一些技術本身都做不到預測,都不知道怎么做出來的,例如用深度學習做模式識別,識別率提高非常多(記者注:深度學習的輸入和輸出的部分通俗易懂,但其中間的運算部分的構造是一個極其復雜難以理解的‘黑箱’),大家沒有預計到這種方法魯棒性非常差。目前,機器人被濫用的現象非常嚴重,機器人在設計的過程中,要做很好的評估和預測,不能隨便定一個規(guī)劃,對智能機器人要做非常嚴格的評估。”張鈸表示。
在他看來,可以通過研究新的倫理分析工具進行更好的倫理分析結果預測,利用深度學習方法對不道德和道德行為給出樣本進行分析,以及通過仿真模擬大量實驗來解決安全性的問題和倫理問題。
審核編輯 :李倩
-
機器人
+關注
關注
211文章
28380瀏覽量
206918 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238265
原文標題:【峰咖】張鈸院士:純粹數據驅動的人工智能不可靠 存在危險
文章出處:【微信號:robotop2025,微信公眾號:每日機器人峰匯】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論