人工智能(AI)和超級智能機器是人類可能發生的最好還是最壞的事情?自1940年代以來,這一直是一個問題,當時計算機科學家艾倫·圖靈(Alan Turing)想知道并開始相信,有時機器可以通過模仿進化的過程對人類產生無限影響。
人工智能(AI)對人類構成威脅嗎?
ADOBE STOCK
牛津大學教授尼克·博斯特羅姆(Nick Bostrom)的《紐約時報》暢銷書《超級情報:道路,危險,策略》于2014年首次出版時,它聚焦于所有可能出錯的地方,引起了這場辯論的緊張。但是,在我最近與Bostrom的對話中,他還承認人工智能技術具有巨大的發展潛力。
您可以在此處查看我們對話的完整視頻:
今天在:創新undefined
自Bostrom在2014年撰寫這本書以來,人工智能以及機器和深度學習的進步非常迅速。人工智能已經成為公眾討論的話題,大多數政府都制定了一些解決人工智能的戰略或路線圖。在他的書中,他談到AI有點像孩子們玩的炸彈,隨時可能爆炸。
博斯特倫解釋說:“就我們的智慧而言,我們的成熟水平,我們作為一個物種進行合作的能力,另一方面我們利用技術來改變世界的工具能力之間存在著不匹配。就像我們變得比睿智變得更快更強大。”
沒有后悔嗎?:我希望我在大學里遵循的建議
各種各樣令人興奮的AI工具和應用程序開始以多種方式影響經濟。這些不應被假設的未來點的過度宣傳所掩蓋,在該點上,您獲得的AI具有與人類以及超智能機器相同的一般學習和計劃能力。這是需要注意的兩個不同的上下文。
如今,迫在眉睫的威脅不是來自超級智能,而是目前使用的有用的(但有潛在危險)應用程序AI。
人工智能有多危險?
如果我們專注于當今AI可能帶來的影響,那么以下是我們應該考慮并計劃的人工智能潛在的負面影響:
改變人類要做的工作/工作自動化:人工智能將改變人類的工作場所和工作。人工智能技術將失去一些工作,因此人類將需要適應變化并尋找新的活動,以為其提供工作所帶來的社會和精神利益。
政治,法律和社會方面的后果:正如Bostrom所建議的那樣,與其避免追求AI創新,不如說:“我們的重點應該放在使自己處于最佳位置,以便在所有方面都做好準備時,我們就做好了功課。我們“已經開發了可擴展的AI控制方法,我們對道德和政府等問題進行了認真的思考。然后進一步進行研究,希望由此產生非常好的結果。”如果我們的政府和商業機構現在不花時間制定規則,法規和職責,那么隨著AI的不斷成熟,可能會產生重大的負面影響。
人工智能引發的恐怖主義:人工智能將改變自動無人駕駛飛機,機器人群以及遠程和納米機器人攻擊的戰斗方式。除了關注核軍備競賽之外,我們還需要監視全球自動武器競賽。
社交操縱和AI偏見:到目前為止,AI仍然有被制造它的人偏見的風險。如果訓練AI的數據集存在偏差,則該偏差將影響AI動作。與2016年美國總統大選時一樣,如果使用不當,人工智能可能會被用于社會操縱和擴大錯誤信息。
人工智能監視:人工智能的面部識別功能為我們提供了便利,例如能夠解鎖手機并無需鑰匙即可進入建筑物,但它也啟動了許多公民自由組織認為令人震驚的對公眾的監視。在中國和其他國家/地區,警察和政府通過使用面部識別技術來侵犯公共隱私。博斯特羅姆解釋說,人工智能從監視數據,攝像機和采礦社交網絡通信中監視全球信息系統的能力無論好壞都有很大的潛力。
Deepfakes:AI技術使創建真實人物的“假”視頻變得非常容易。可以在未經個人許可的情況下使用這些信息來傳播假新聞,以實際上不參與其中的人的身份制造色情內容,并且不僅損害個人聲譽,而且損害人們的生計。該技術變得越來越好,人們被它欺騙的可能性很高。
正如尼克·博斯特倫(Nick Bostrom)解釋的那樣,“最大的威脅是長期問題,引入了一些超級智能的根本方法,無法使其與人類價值觀和意圖保持一致。這是一個很大的技術問題。在解決安全和對準問題之前,我們已經成功解決了能力問題。”
如今,尼克將自己描述為“可怕的樂觀主義者”,他對AI如果我們能做到正確就可以做什么感到非常興奮。他說:“近期的影響是壓倒性的。長期影響更多是一個懸而未決的問題,很難預測。如果我們做功課,并且在我們可以利用的任何時間里,我們越能成為一個世界和一個物種,我們在一起做的事情越多,我們為此做好的準備就越多,獲得有利結果的幾率就越大。在那種情況下,這可能是非常有利的。”
-
人工智能
+關注
關注
1791文章
47208瀏覽量
238297 -
計算機科學
+關注
關注
1文章
144瀏覽量
11359 -
數據集
+關注
關注
4文章
1208瀏覽量
24691
發布評論請先 登錄
相關推薦
評論