世界各地的政府和機構(gòu)越來越依賴人工智能。美國、英國和其他地方的警察部門已經(jīng)開始使用面部識別技術(shù)來識別潛在的嫌疑人。法官和法院也已經(jīng)開始依靠機器學(xué)習(xí)來指導(dǎo)判決。在英國,據(jù)說每三個地方政府中就有一個使用算法或機器學(xué)習(xí)(ML)工具來決定諸如福利待遇申索之類的問題。政府對扔工智能的這些應(yīng)用非常廣泛,以至于人們不禁要問:這是一個按算法管理的時代嗎?
許多批判人士對刑事公正和福利等敏感政策領(lǐng)域迅速擴大使用自動決策表示擔憂。其中最常表達的擔憂是偏差問題:當機器學(xué)習(xí)系統(tǒng)在有偏差的數(shù)據(jù)集上進行訓(xùn)練時,它們不可避免地將數(shù)據(jù)潛在的社會不平等嵌入模型之中。數(shù)據(jù)科學(xué)和人工智能社區(qū)現(xiàn)在對數(shù)據(jù)偏差問題高度敏感,因此開始更加關(guān)注人工智能的倫理問題。同樣地,個別政府和國際組織也發(fā)表了旨在管理人工智能使用的原則聲明。
人工智能倫理的一個共同原則是可解釋性。產(chǎn)生擴大社會偏見的人工智能的風(fēng)險促使人們提高算法或機器學(xué)習(xí)決策過程的透明度。隨著人工智能系統(tǒng)的使用激增,能夠解釋一個給定的模型或系統(tǒng)是如何工作的將是至關(guān)重要的,特別是對于那些由政府或公共部門機構(gòu)使用的模型或系統(tǒng)。然而,光靠解釋并不是靈丹妙藥。雖然決策過程的透明度對于民主至關(guān)重要,但認為這是解決算法決策將給我們的社會帶來的困境的一種簡單解決方法是錯誤的。
原因有兩個。首先,對于一般的機器學(xué)習(xí),特別是神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí),在性能和可解釋性之間往往會有一個權(quán)衡。模型越大、越復(fù)雜,就越難解釋,盡管它的性能通常更好。不幸的是,對于具有許多交互影響的復(fù)雜情況,策略的許多關(guān)鍵領(lǐng)域都是如此,機器學(xué)習(xí)往往越是黑匣子就越有用。因此,追究這些系統(tǒng)的責任幾乎總是一個事后監(jiān)測和評價的問題。例如,如果一個給定的機器學(xué)習(xí)算法的決策有明顯的偏差,那么系統(tǒng)或其所訓(xùn)練的數(shù)據(jù)則需要進行修改。然而,即使是事后審計,說起來容易做起來難。在實踐中,令人驚訝的是,幾乎沒有對政策結(jié)果進行系統(tǒng)的監(jiān)測,盡管在如何監(jiān)測方面并不缺乏指導(dǎo)。
第二個原因是一個更為重大的挑戰(zhàn)。許多政策的目的往往不明確,典型的原因是政策是追求不同目標的人之間的妥協(xié)。當算法的任務(wù)是執(zhí)行政策決策時,公共政策中的這些必要妥協(xié)對其提出了挑戰(zhàn)。公共政策中的妥協(xié)并不總是壞事;它使得決策者既能解決沖突,又能避免對所期望的確切結(jié)果提出尖銳的問題。然而,這是算法的一個主要問題,因為他們需要明確的目標才能發(fā)揮作用。強調(diào)更大的模型可解釋性永遠無法解決這一挑戰(zhàn)。
在自動決策或預(yù)測的許多領(lǐng)域,目標的困境不會突然出現(xiàn),在這些領(lǐng)域中,受影響和運行蘇阿法的人的利益是一致的。然而,在公共決策的大多數(shù)領(lǐng)域,存在著多重重疊,有時甚至是相互競爭的利益。通常也存在信任缺失,特別是在刑事司法、治安和福利政策方面。在這種情況下,相信以算法強制實現(xiàn)的目標透明度將解決政治沖突是極其天真的。在部署機器進行決策之前,第一步不是堅持算法的可解釋性和透明度,而是恢復(fù)機構(gòu)自身的可信度。
責任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1792文章
47425瀏覽量
238962 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8425瀏覽量
132770
發(fā)布評論請先 登錄
相關(guān)推薦
評論