誤解一:“我們永遠不可能發(fā)明出和人類智力相當?shù)?a href="http://www.1cnz.cn/tags/ai/" target="_blank">AI?!?/strong>
在一些特定領域,比如說國際象棋、圍棋、股市交易以及人機對話等,我們已經發(fā)明出與人腦匹敵或超越人腦的計算機。電腦和驅動他們的運算法則只會變得更好,電腦精通幾乎任何人類能力只是時間問題。
紐約大學心理學家蓋瑞?馬庫斯(Gary Marcus)曾說過,幾乎所有研究AI的人都認為機器最終將取代人類。“狂熱分子和懷疑論者之間唯一的不同是對時間早晚的判斷?!蔽磥碇髁x者,像雷?庫茲韋爾,認為機器統(tǒng)治人類會在幾十年后發(fā)生,而其他人則說可能得幾個世紀。
最初設想的機器智能可能缺乏一種或多種這些屬性。最終,我們可能制造出極其聰明的AI,但是它不能通過主觀的自我意識感受這個世界。沙納罕說也許能夠將智力和意識結合在一個機器內,但是我們也要認識到智力和意識終究是兩種不同的概念。
AI懷疑論者認為生物腦在本質上是有獨特之處的,這是無法解決的科技難題,其實這些是沒有說服力的。我們的大腦是生物學意義的機器,但也不過是機器。他們存在于現(xiàn)實世界里,就要遵循基本的物理法則。人腦沒有東西是不可知的。
誤解二:“人工智能將會有意識。”
關于機器智能的一個普遍假設是:將來機器智能會有意識。也就是說,機器會像人一樣思考。評論家們,如微軟創(chuàng)始人之一的保羅?艾倫,則更進一步認為我們還未達到人工通用智能,即機器能夠像人類一樣執(zhí)行任何需要智力的任務,因為我們缺乏關于意識的科學理論。正如倫敦帝國理工學院認知機器人研究者穆雷?沙納罕(Murray Shanahan)所指出的那樣,我們應該避免混淆認知和意識這兩種概念。
“探究意識確實是一門迷人且重要的課題,但是我認為意識對于人類水平的人工智能來說是并不是必要的?;蛘吒_地說,我們用‘意識’這個詞來指代心理的和認知的屬性,這些在人類身上是捆綁在一起的?!?/p>
最初設想的機器智能可能缺乏一種或多種這些屬性。最終,我們可能制造出極其聰明的AI,但是它不能通過主觀的自我意識感受這個世界。沙納罕說也許能夠將智力和意識結合在一個機器內,但是我們也要認識到智力和意識終究是兩種不同的概念。
不能僅僅因為一臺機器通過了圖靈測試,就認為它有意識。先進的AI留給我們的印象是它們是有意識的,但是再先進的AI對于自己的認識也不會比一塊石頭或一個計算器多。
誤解三:“超級人工智能會很友好?!?/strong>
哲學家康德認為智能與道德密不可分。神經學家David Chalmers在他的論文《非凡的哲學分析》中吸取了康德的著名觀點,并將其運用于人工智能的提升中。
如果這個觀點是正確的話,我們可以想到AI因智力爆發(fā)性增長致使道德感急劇升高的狀況??梢韵氲剑珹SI系統(tǒng)變得超級智能的同時會具有無上的道德感,因此我們可以認為它們是善良的。
但是,這個“先進的AI從本質上將是好的、開明的”的觀點是站不住腳的。正如Armstrong指出,存在很多聰明的戰(zhàn)犯。智力和道德感間的關系在人類中貌似并不存在,所以他懷疑該假設在其他智能形式中,恐怕也是難以成立的。
“聰明的人的不道德行為可以比他們的笨蛋同胞造成更大規(guī)模的破壞,”他說?!爸橇χ皇墙o了他們變得更壞的能力,它并沒有把他們變成好人?!?/p>
誤解四:“簡單的程序修補就能解決AI的控制難題?!?/strong>
假設創(chuàng)造出比人類更偉大的AI,我們將面臨一個嚴重的問題,那就是:控制問題。如何在家里安置以及控制ASI?如何確保ASI對人類是友好的?在這些問題上,未來主義者和AI理論家們完全不知所措。最近,佐治亞理工學院的研究人員天真地認為AI可以通過閱讀簡單的故事來學習人類的價值觀和社會習俗。這可能遠不是讀幾個小故事能解決的。
“人們推薦了很多可能解決整個AI控制問題的簡單技巧,”阿姆斯特朗說。示例包括為ASI編寫取悅人類的程序,或者僅僅使ASI作為人類的工具使用。再或者,我們可以將積極的概念,比如愛或尊敬整合進他的源代碼。為了防止ASI對社會只有單一偏激的看法,我們可以給它編寫欣賞智力、文化和社會多樣性的程序。
但是這些方法要么太過簡單,這就好比試圖給復雜的人類喜惡確定一個簡單膚淺的定義,要么就是把復雜的人類價值觀生硬地壓縮成一個簡單的字詞或想法。比如,對“尊敬”這個詞,要確定內涵一致又普遍接受的定義是極度困難的。
“并不是說這些簡單的技巧是沒用的。這些對策里面有很多給研究指明了道路,對解決這個終極難題有所幫助。但是這些只是想法,具體的操作還需要我們做更多的開發(fā)研究工作?!卑⒛匪固乩收f。
正如《機械姬》里所描述的一樣,要控制比人類還聰明的人工智能將會十分困難
誤解五:“人工超智能很聰明,不會犯錯。”
AI研究者兼Surfing Samurai機器人開發(fā)者Richard Loosemore認為大多數(shù)假設的AI毀滅世界的情景都不符合邏輯。人們總假想在這種情景下,AI可能會說:“我知道毀滅人類文明只是我的設計故障,但我不得不這么做。”Loosemore指出如果AI像這樣打算毀滅人類時,那它一生會很多這樣的邏輯矛盾,也會因此摧毀自己的知識庫,導致自己變得愚蠢,而不足以對我們造成傷害。他還斷言,那些認為“AI只會按照指定程序做事”的人,與當初用這樣的話評價電腦不具備靈活性的人一樣,犯了同樣的錯誤。
就職于牛津大學人類未來研究所(Future of Humanity Institute)的皮特?麥金泰爾(Peter McIntyre)和斯圖爾特?阿姆斯特朗(Stuart Armstrong)都對此有不同看法。他們認為人工智能將很大程度上受到編程的限制。他們相信AI也會犯錯誤,或者他們還沒有聰明到了解人類想從他們那里得到什么。
“從定義上講,超級人工智能(ASI)是一個擁有智力的載體,它在各個相關領域都要比最優(yōu)秀的人類大腦更聰明?!丙溄鹛柸缡歉嬖VGizmodo。 “它將十分清楚我們用他們來做什么。”麥金泰爾和阿姆斯特朗相信AI只會做程序編寫的任務,如果它能變得足夠聰明的話,它將能理解依照程序完成任務與領略規(guī)則精髓的不同,也將能理解人類的意圖。
麥金泰爾把人類未來的困境比作老鼠的困境。老鼠想要在人類居所尋求食物和棲息地,人類不愿居室內有老鼠,兩者沖突。麥金泰爾說,“正如我們明白老鼠的目的,超級智能系統(tǒng)也能知道人類想要的,但仍對此漠不關心?!?/p>
誤解六:“我們將被超級人工智能毀滅。”
沒有任何證據(jù)表明我們會被AI毀滅或無法控制它們。正如AI研究者Eliezer Yudkowsky所說:“AI既不會恨,也不會愛,但人類由原子構成的,除了智能以外,人類還有感情。”
牛津大學的哲學學者Nick Bostrom在他的書《超級智能:路徑、危險與策略》中提到,真正的超級人工智能一旦完成,將比以往人類的任何發(fā)明都危險。一些著名的學者如Elon Musk, Bill Gates, and Stephen Hawking(后者曾警告AI也許是人類史上最糟糕的錯誤)也提出了警告。
但沒有什么事是可以確定的,沒人知道AI將采取什么行動以及如何威脅到人類。正如Musk指出的,人工智能可以用來控制、調節(jié)和監(jiān)視其它人工智能。也許可以它灌輸人類的價值觀,使之毫無保留地對人類保持友好。
誤解七:“我們不應該害怕AI。”
一月份,臉書創(chuàng)辦者馬克扎克伯格說我們不應該害怕AI,AI會為世界帶來難以估量的好處。扎克伯格只說對了一半。我們隨時準備從AI身上收獲巨大的利益——從自動駕駛汽車到新藥物的研制,但是沒有人能保證AI的所有影響都是良性的。
高度智能化的系統(tǒng)也許了解某一特定任務的一切,例如解決令人厭煩的財務問題,或者黑進對手的系統(tǒng)。但是在這些特殊領域之外,高度智能系統(tǒng)會變得極其無知無覺。谷歌的DeepMind系統(tǒng)精通圍棋,但除圍棋以后,它在其他方面沒有探索的理性和能力。
在中東國家使用Flame病毒進行網(wǎng)絡間諜活動
誤解八:“AI和機器人造成的風險是相同的?!?/strong>
這是一個特別常見的錯誤認識,不加鑒別發(fā)布消息的媒體和好萊塢電影比如《終結者》系列使這一錯誤更加深入人心。
如果一個超級人工智能比如天網(wǎng)想要毀滅人類,它不會使用端著機槍的機器人。其實還有更高效的辦法,如散播瘟疫,引發(fā)納米級灰霧(grey goo,具備自我復制能力的微小機器人)災難,甚至僅僅破壞大氣層。人工智能有潛在的危險,不是因為它所昭示的機器人的未來,而是它在世界上的自我定位。
誤解九:“未來的AI和科幻小說里的AI是相同的。”
的確,科幻作品被作家和未來主義者們用來預測美好的將來,但ASI所帶來的圖景完全不是一回事。更重要的是,與人類本性不同的AI不會讓我們知道并預測它們確切的本性和形式。
科幻作品考慮到我們人類是弱小的,大多數(shù)AI被設定地與人類很類似。“有一些觀點認為,即使是在人類中,也存在著多種類型的心智模式,你和你的鄰居也是不同的,但人與人之間的心智區(qū)別要同其他可能存在的心智形式相比是微不足道的,”McIntyre說道。
大多數(shù)科幻小說旨在講一個引人入勝的故事,但不夠科學準確。因此,科幻小說中的沖突往往是存在于實力接近的實體之間。Armstrong說,“沒有意識、喜樂或仇恨的AI毫無阻力地消滅所有的人類、達到一個本身無趣目標,可以想見這樣的電影情節(jié)會有多無聊。”
誤解十:“AI將會搶走我們所有的工作?!?/strong>
人工智能把我們大部分的工作自動化和它能毀滅人類的潛在性,這是兩件完全不相關的事情。根據(jù)《機器人的崛起》的作者Martin Ford所說,這兩件事常常被混為一談。思考在遙遠的將來AI的意義是很好的,但只有這不影響到我們思考未來的幾十年遇到的問題時,這樣做才有意義。其中最主要的是大規(guī)模的自動化。
毫無疑問,人工智能將取代很多現(xiàn)存的職業(yè),包括從車間工人到高級白領。一些專家預測在不久的將來美國的一半工作將被自動化所取代。但這不意味著我們沒有能力應付局面。最理想的情況是為我們人類實現(xiàn)人人稱贊的目標,達到接近烏托邦的境界,無論是腦力勞動者還是體力勞動者,人人都從勞役中解放了出來。
機器人將在未來的幾十年取代數(shù)以百萬計的崗位。我們必須強調:“在未來的幾十年里AI將抹殺許多工作,但這是件好事,”Miller說。例如,自動駕駛汽車將取代卡車司機,這樣可以節(jié)約運輸成本,使貨物的價格更便宜。“如果你靠做卡車司機謀生,你失業(yè)了,但其他人都賺了,因為他們的工資買到了更多的東西,”Miller說?!斑@些人所省下的錢用于其它的商品和服務,這可以為人類創(chuàng)造新的就業(yè)機會?!?/p>
在所有的可能性中,人工智能將創(chuàng)造出創(chuàng)造財富的新方法,同時解放出人類去做其他的事情。人工智能的進步將引領其它領域的進步,特別是制造業(yè)的進步。在未來,它將更容易滿足我們的基本需求,而不是相反。
?
評論
查看更多