成熟的人工智能可以讓世界變得更美好。它可能會讓我們戰勝癌癥,改善世界各地的醫療保健,或者干脆讓我們擺脫主宰我們生活的卑微工作。
這是上個月工程師、投資者、研究人員和政策制定者在人類層面人工智能聯合會議上聚集在一起的主要話題。
然而,一股恐懼的潛流也在一些談判中出現了。有些人擔心被機器人或代碼取代工作;其他人則害怕機器人起義。恐懼和合理擔憂之間的界限在哪里?
為了將兩者分開,Futurism在會議上向五位人工智能專家詢問了他們對未來的人工智能的恐懼。
希望,考慮到他們的擔憂,我們將能夠引導社會朝著更好的方向發展,我們將人工智能用于所有的好東西,比如對抗全球流行病或給予更多的人接受教育,而不是那些壞的東西。
問:當我們談人工智能,我們在害怕什么?
KENNETH STANLEY,佛羅里達中央大學教授,高級工程經理和優步艾實驗室的工作人員
答:我認為最明顯的擔憂是當人工智能被用來傷害人類的時候。有很多不同的應用程序可以想象這種情況的發生。我們必須非常小心,讓壞的一面消失。解決如何讓人工智能負責是一個非常棘手的問題;它有更多的維度,而不僅僅是科學。這意味著所有的社會都需要參與到回答這個問題中來。
關于如何開發安全AI:
所有的技術都可以被用來做壞事,我認為人工智能只是另一個例子。人類一直在努力不讓新技術用于邪惡目的。我相信我們可以做到這一點:我們可以把正確的制衡機制放在適當的位置,使之更安全。
我想我不知道我們應該做些什么,但我可以提醒我們,我們要非常小心、循序漸進地對人工智能的影響做出反應,并在我們前進的過程中學習。
IRAKLI BERIDZE,聯合國UNICRI的人工智能和機器人中心主任
答:我認為人工智能最危險的是它的發展速度。危險與否取決于它的發展速度以及我們能以多快的速度適應它。如果我們失去了平衡,我們可能會陷入麻煩。
關于恐怖主義、犯罪和其他風險來源:
我認為,對人工智能的危險應用,將是犯罪分子或大型恐怖組織利用它來擾亂大型進程,或者僅僅是造成純粹的傷害。***可能通過數字戰爭造成傷害,也可能是機器人、無人機、人工智能和其他東西的結合,這可能是非常危險的。
當然,其他的風險也來自于失業。如果大量失業沒有找到解決辦法,那將是極其危險的。像致命的自動武器系統之類的東西應該被妥善管理——否則就會有巨大的濫用的可能性。
關于如何前進:
人工智能技術具有雙重性。當然,我的信念是,人工智能不是一種武器;人工智能是一種工具。它是一個強大的工具,這個強大的工具可以用于好的或壞的東西。我們的任務是確保其用于好的事情,從中獲得的好處最多,而且大多數風險都是可以理解和減輕的。
JOHN LANGFORD,微軟首席研究員
答:我認為我們應該警惕無人機。我認為自動化無人機在很多方面都是潛在的危險。船上的無人駕駛武器的計算效率還不夠高,不足以做一些有用的事情。但在五到十年的時間里,我可以想象一架無人機可以在船上進行足夠的計算,這樣它就能真正有用了。你可以看到,無人機已經在戰爭中被使用,但它們仍然是人類控制的。他們沒有理由不能攜帶某種學習系統,而且相當有效。這是我擔心的問題。
HAVA SIEGELMANN,美國國防部高級研究計劃局技術辦公室項目經理
答:每一種技術都可以被用來做壞事。我認為它掌握在使用它的人手中。沒有不好的技術,只有不好的人。這取決于誰能接觸到這項技術以及我們如何使用它。
TOMAS MIKOLOV,FACEBOOK AI研究科學家
答:當有很多人對某件事有興趣,并進行投資時,一些人便開始濫用它。我發現有些人甚至在我們做人工智能之前就已經開始銷售人工智能了,這讓我感到不安,他們正在假裝知道它將解決什么問題。
這些奇怪的創業公司也有一些很有前景的東西,這些都是很好的人工智能例子,當它們的系統基本上是在優化一條路徑時,可能有人根本就不關心它,比如聊天機器人,它比上一個版本稍微好一點。也許在花費了數萬個小時的工作之后,通過過度優化一個單一的價值,一些創業公司就會有這樣的大主張,他們確實取得了一些以前沒有人能做的事情。
但是,讓我們誠實地說,這些團體最近的許多突破,我不想說,沒有人關心,他們也沒有賺到錢。它們更像魔術。特別是那些認為人工智能只是過度優化單一任務的人,他們無法將其擴展到除了非常簡單的問題之外的其他任何事情。
有些人甚至對這些系統有一點批評,很快就會遇到與公司的崇高主張相違背的問題。
-
人工智能
+關注
關注
1791文章
47207瀏覽量
238279
原文標題:當我們談人工智能,我們在害怕什么?
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論