關于人工智能的爭論已經激烈到了一個臨爆點。想要尋找一個戲劇化的沖突場景?不妨追一追正在播出的《西部世界》、《真實的人類》等美劇。
樂觀主義者對AI的熱情更盛,他們渴望將日常生活中的更多事物自動化。懷疑論者對AI的態度更加謹慎,他們認為AI對人類社會帶來的顛覆可能不全是有益的,并且刻意減少對AI工具的使用。
拒絕AI賦能,或許會使一大群人在未來的社會競爭中處于劣勢。因為對AI信任的程度可能導致就業機會的差異,從而影響每個人社會經濟地位的變化。AI追隨者和AI否定者之間的沖突可能最終會迫使政府出臺不利于創新的政策。想讓AI充分發揮其潛力,我們必須找到讓人們信任它的方法。
每期監測和精編中文視野之外的全球高價值情報,為你提供先人一步洞察機會的新鮮資訊,為你提供升級思維方式的深度內容,是為[ 紅杉匯內參 ]。
三個方法緩解
AI信任危機
除非你過著隱居生活,否則你的生活中一定充斥著關于機器學習和人工智能的各式新聞。人工智能的一系列突破性進展,似乎已經讓它具備了預測未來的能力。警察利用人工智能來確定犯罪活動可能發生的時間、地點;醫生用它來測算病人什么時間最可能心臟病發作或是中風;研究人員甚至嘗試著賦予人工智能想象能力,讓其能夠預測未來。
當然,我們生活中的許多決定需要基于準確的預測,而AI一般都比人類能作出更好的預測。但是,盡管取得了如此的技術進步,人們似乎對AI的預測結果依然充滿不信任。
想讓AI給人類帶來實在的好處,我們必須要找到一種方式,使其獲得人類的信任。
我們應該信任機器人醫生嗎?
利用世界上最強大的超級計算機系統,IBM推出的針對癌癥的人工智能軟件Watson可以給醫生提供最好的癌癥治療建議。該軟件聲稱可為12種癌癥提供高質量的治療建議,這包括了世界上80%的癌癥病例。目前,已有超過14000名患者接受了它計算出的治療建議。
然而,當醫生們開始和Watson人機互動的時候,他們發現自己陷入了相當尷尬的境地。一方面,如果Watson提供了符合他們觀點的治療建議,醫生就不覺得它的建議有價值。
計算機只是告訴了醫生們已經知道的東西,這些建議也沒有改變目前采用的療法。它可能作為定心丸,讓醫生們對自己的決定更加自信。但是IBM目前還沒提供Watson真的可以提高癌癥患者存活率的證據。
另一方面,如果Watson的建議正好跟專家的意見相左,醫生們則會認為它能力不足(或是將這一不權威的解決辦法歸咎于系統故障)。更多的情況是,機器無法解釋為何其治療方法很可能是有效的,因為其機器學習算法過于復雜,人們沒法完全理解。結果,這又導致了更大的不信任,讓很多醫生直接無視了看起來有點古怪的人工智能建議。
信任問題的根源在于人類自身
很多專家認為未來社會將建立在有效的人機合作上,但是人類對機器缺乏信任是阻礙這一未來實現的最重要因素。
Watson存在的問題在于醫生的不信任。人類的信任往往是基于其他人怎么想,以及擁有關于其可靠性的經驗。這兩者都可以幫助人們建立心理上的安全感。而人工智能目前對大多數人而言仍是相對較新穎的東西。它采用復雜的系統性分析,從大量數據中識別出潛在模式和虛弱信號。
即使技術上可以解釋得清楚(但情況往往并非如此),人工智能的決策過程對很多人而言依然過于難以理解。與我們不能理解的事物互動,則可能會導致焦慮和失控的感覺。很多人并不熟悉人工智能真正起作用的情況,因為這往往發生在幕后,但是他們卻能十分清醒地看到人工智能發生重大錯誤的情況:
?將有色人種視為大猩猩的谷歌算法;
?在圣弗朗西斯科闖紅燈的Uber自動駕駛汽車;
?自動生成的、將廣告投放于反猶太和恐同視頻旁的YouTube廣告宣傳活動;
?某個搭載了亞馬遜語音助手Alexa的設備給兒童提供成人內容;
?游戲“口袋怪物”的算法再次出現種族隔離問題,使其火上澆油;
?微軟聊天機器人變成了白人至上主義者;
?自動駕駛模式的特斯拉汽車發生了一起致命事故。
這些不幸的事件收獲了過多的媒體關注度,再次強調人類不能總是依靠技術這一信息。最后,所有的一切都會回到機器學習也會出錯這一簡單事實上。
《終結者》的觀影影響:
被AI分裂的社會?
人類對AI的感情可謂復雜。但是為什么有些人能接受AI,而另一些人卻對其深表懷疑呢?
2017年12月有一組實驗,要求各種不同背景的實驗對象觀看一些關于AI的科幻電影,并在觀影之前和之后分別邀請他們填寫關于他們對自動化看法的調查問卷。詢問的內容包括他們對互聯網的總體態度、他們在AI技術方面的體驗、將日常生活中某些任務自動化的意愿:哪些任務是樂意用假想的AI助手實現自動化的、以及哪些任務是想要堅持自己執行的。
令人驚訝的是,像《終結者》《云端情人》或《機械姬》這類電影,為我們描繪的是一個烏托邦還是反烏托邦的未來都并不重要。實驗發現,無論人們觀看的電影是以積極還是消極的角度去描繪AI,只是單純的在電影世界里觀看到高科技未來,就能使參與者的態度變得極端化。樂觀主義者會對AI的熱情變得更盛,他們渴望自動化日常生活中的更多事物。相反,懷疑論者對AI的態度就變得更加謹慎,他們質疑AI的潛在益處,并且更愿意積極抵制朋友和家人使用AI工具。
從這些發現中得到的啟示是令人擔憂的。一方面,這表明人們帶著偏見使用AI相關證據來支持他們現有的態度,這是一種根深蒂固的人性趨勢,被稱為“確認性偏差”。這種認知偏差是在研究中觀察到的極端化效應背后的主要推手。
另一方面,由于技術進步的步伐不減,拒絕接受AI所能帶來的優勢,可能會使一大批人處于嚴重的不利地位。隨著人工智能在大眾文化和媒體中的出現頻率越來越高,它可能會促成嚴重的社會分裂,使其分裂為兩撥人,一撥是AI的信仰者(并因此受益的人),一撥是拒絕AI的人。
更中肯地來講,拒絕接受AI提供的優勢,或許也會使一大群人處于嚴重的劣勢。這是因為AI信任上的差異可能導致就業機會的差異,從而導致社會經濟地位的差異。AI追隨者和AI否定者之間的沖突可能會促使政府采取無情的監管措施,從而遏制創新。
緩解AI信任危機
因此,要想讓AI充分發揮其潛力,我們必須找到讓人們信任它的方法,特別是當AI提出的建議與我們習慣采取的建議截然不同時。幸運的是,隧道的盡頭總有光——我們已經有提高對AI信任的方法了。
?體驗:一種解決方案是在日常環境下為自動化應用程序和其他AI應用程序提供更多的實際操作體驗(例如一個可以從冰箱為你拿啤酒的機器人)。這對于那些對這項技術沒有很深入了解的公眾來說尤其重要。
?洞見:另一種解決方案或許就是打開機器學習算法的“黑匣子”,讓其運作方式稍微變得透明些。Google、Airbnb和Twitter等公司已經開始定期發布透明度報告,對AI系統采取類似做法可以幫助人們更好地理解算法決策是如何做出的。
?控制:最后,協作決策過程的建立將有助于信任的建立,并讓AI能從人類經驗中學習。賓夕法尼亞大學的一組研究人員最近發現,給予人們對算法的控制可以幫助人們增加對AI預測的信任。在他們的研究中,被賦予了稍微修改算法的權利的人會對AI感到更滿意,更有可能相信它的卓越性,并且更有可能在未來使用它。
人們并不需要了解AI系統復雜的內部運作,但如果他們至少能得到一些如何執行的信息,并能對執行過程擁有一定的控制權,他們就會更樂于接受人工智能。
2000萬歐元
5月25日,歐洲“史上最嚴”的數據保護條例——通用數據保護條例(GDPR)生效。對于違規收集個人信息的互聯網公司,最高可罰款2000萬歐元或全球營業額的4%(以較高者為準)。“GDPR正將必要的意識引入到生態系統中,并通過提醒公司在隱私領域承擔多大的責任來引導它們。”牛津大學教授Sandra Wachter如此評論。
#原來,創業者愛玩德撲是有道理的#
撲克牌中蘊含的商業原理
?耐心和紀律。玩牌時經常一坐數小時并一絲不茍堅持游戲規則,同樣地,商業成功也沒有捷徑可走。
?評估風險。能夠識別機遇和投入資金是成功企業家的關鍵素質,無論是否擁有王牌,都不能害怕承擔輸牌的風險。
?控制情緒。我們不會總贏——無論是撲克還是商業,不要讓情緒化的回應把你踢出局。
#來自貝佐斯的建議#
CEO如何應對排山倒海的批評?
2017年,安德瑪的股價大幅下跌45%。首席執行官凱文?普蘭克受到了大量批評,導致他向重量級企業家求助。杰夫?貝佐斯給出的建議初聽起來有悖直覺,但卻絕妙:
?這些批評是正確的嗎?80%或90%的批評可能是不正確的,但如果有值得思考的地方,至少要以謙虛、耐心和成熟的心態去接受。
?不為自己辯護。你知道你的公司經歷了種種困難才走到今天,一兩個人對小錯揪住不放并不意味著你已有的成就不值一提。
?篩選批評者。過于認真地看待每一條批評會陷入自我懷疑的困境,選擇你愿意接受或考慮接受其意見的批評者及他們的有益批評。
-
機器人
+關注
關注
211文章
28390瀏覽量
206951 -
AI
+關注
關注
87文章
30763瀏覽量
268908 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238290
原文標題:信AI還是信自己?這是一個問題|紅杉匯內參
文章出處:【微信號:Sequoiacap,微信公眾號:紅杉匯】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論