人工智能顛覆人類的想法已經(jīng)討論了幾十年,科學(xué)家們剛剛就我們是否有能力控制一臺(tái)高級(jí)計(jì)算機(jī)超級(jí)智能做出了自己的判斷。答案呢?很遺憾,幾乎肯定是不可能的。
關(guān)鍵在于,要控制一個(gè)遠(yuǎn)遠(yuǎn)超出人類理解能力的超級(jí)智能,就需要對(duì)我們能夠分析的超級(jí)智能進(jìn)行模擬。但如果我們不能理解它,就不可能建立這樣的模擬。
開展這項(xiàng)研究的科學(xué)家表示,如果我們不了解人工智能將會(huì)出現(xiàn)的情景,那么“不傷害人類”等規(guī)則就無(wú)法設(shè)定。一旦計(jì)算機(jī)系統(tǒng)的工作超出了程序員的能力范圍,我們就不能再設(shè)定限制了。
研究人員解釋道:“與那些打著‘機(jī)器人倫理學(xué)’旗號(hào)的典型研究相比,超級(jí)智能帶來(lái)了一個(gè)從根本上不同的問題。這是因?yàn)槌悄苁嵌喾矫娴模虼擞锌赡苷{(diào)動(dòng)各種資源,以實(shí)現(xiàn)人類可能無(wú)法理解的目標(biāo),更不用說(shuō)控制了。”
該研究團(tuán)隊(duì)的部分推理來(lái)自艾倫圖靈(Alan Turing)在1936年提出的停頓問題。問題的核心是知道計(jì)算機(jī)程序是否會(huì)得出結(jié)論和答案(所以它會(huì)暫停),或者只是不停地循環(huán)試圖找到一個(gè)結(jié)論和答案。
正如圖靈通過一些聰明的數(shù)學(xué)證明的那樣,雖然我們可以知道對(duì)于某些特定程序,但從邏輯上講,不可能找到一種方法讓我們知道每一個(gè)可能編寫的潛在程序都是這樣的。 這使我們回到了AI領(lǐng)域,在超級(jí)智能狀態(tài)下,它可以將所有可能的計(jì)算機(jī)程序同時(shí)保存在內(nèi)存中。
例如,任何旨在阻止人工智能傷害人類和毀滅世界的程序,都可能得出結(jié)論(并停止),或不會(huì)。從數(shù)學(xué)上講,我們不可能絕對(duì)確定哪種情況,這意味著它是不可遏制的。
德國(guó)馬克斯普朗克人類發(fā)展研究所的計(jì)算機(jī)科學(xué)家伊亞德拉赫萬(wàn)說(shuō):“實(shí)際上,這使得遏制算法無(wú)法使用。”
研究人員說(shuō),除了教人工智能一些道德準(zhǔn)則并告訴它不要?dú)缡澜缰猓]有任何算法能夠絕對(duì)肯定地做到這一點(diǎn)),另一種選擇是限制超級(jí)智能的能力。例如,它可能被切斷與部分互聯(lián)網(wǎng)或某些網(wǎng)絡(luò)的連接。
這項(xiàng)新的研究也否定了這個(gè)觀點(diǎn),認(rèn)為這會(huì)限制人工智能的應(yīng)用范圍。理由是,如果我們不打算用它來(lái)解決超出人類理解范圍的問題,那為什么還要?jiǎng)?chuàng)造它呢?
如果我們要推進(jìn)人工智能,我們甚至可能不知道什么時(shí)候會(huì)有一個(gè)我們無(wú)法控制的超級(jí)智能到來(lái),這就是它的不可理解性。這意味著我們需要開始問一些關(guān)于我們要去的方向的嚴(yán)肅問題。
馬克斯普朗克人類發(fā)展研究所的計(jì)算機(jī)科學(xué)家曼紐爾塞布瑞恩(Manuel Cepian)說(shuō):“一臺(tái)控制世界的超級(jí)智能機(jī)器聽起來(lái)像科幻小說(shuō)。但現(xiàn)實(shí)中,已經(jīng)有一些機(jī)器可以在程序員完全不了解它們是如何學(xué)習(xí)的情況下獨(dú)立執(zhí)行某些重要任務(wù)。”
“因此,問題是,這是否會(huì)在某個(gè)時(shí)候變得無(wú)法控制,對(duì)人類來(lái)說(shuō)是危險(xiǎn)的。”
責(zé)任編輯:YYX
-
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7534瀏覽量
88466 -
人工智能
+關(guān)注
關(guān)注
1795文章
47642瀏覽量
239702
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論