人工智能目前容易受到偏見和其他缺陷的影響。
人工智能(AI)正在或即將顛覆每個行業。項技術將帶來巨大的生產力提高、成本大幅降低和研發的巨大進步。到2030年,人工智能將使全球GDP增長超過15.7萬億美元,人們很容易認為這項技術只能是一種不受約束的好東西。那將是一個危險的錯誤。
與任何技術一樣,人工智能可能會對個人、社會和經濟產生有害影響:一些常見的擔憂包括,它提供的工具可能被犯罪分子利用,危害個人和組織的網絡安全,或者人工智能的預測能力引發了一系列隱私問題。但是,對于人工智能來說,最危險的可能性之一,它將被用來削弱強大組織內部的責任結構,同時使現有的不公正偏見長期存在于受保護的特征上,如年齡、性別或種族。
市場往往傾向于不優先考慮個人道德和道德原則的目的。雖然在人工智能標準的開發方面有一些非常棒的舉措,比如IEEE倫理一致的設計或人工智能的ISO標準,但人們不能依靠自律來讓這項技術發揮作用。與其相反,人們必須通過建立符合目的的監管框架來保護其道德,這將迫使最佳做法和減少該行業的惡意活動。
人工智能的社會挑戰
如前所述,人們認為使監管制度具有說服力的兩個挑戰是偏見問題和問責制問題。
眾所周知,如果人工智能的設計、開發或部署不當,就會造成不良的社會偏見。這是因為數據固有地帶有社會在整個歷史中發展起來的偏見。這意味著,如果模型使用有偏見的數據進行訓練,這些數據代表或不足代表某些特征、結果或群體,那么該模型最終可能會基于該偏見做出社會不公正的決策。例如,許多負責整個美國警務工作的人工智能都接受了關于犯罪與種族之間聯系的現成偽造數據的培訓,這導致這些模型將其決策偏向少數族裔。
對于問責制,在整個人工智能系統的設計、開發和運行中,涉及個人和組織的責任存在一定程度的模糊性。考慮被自動駕駛汽車撞倒的人員的情況,那么應該對誰負責?傳統上,車輛制造商應對其車輛設計造成的損壞負責,但人工智能開辟了一個復雜的責任鏈,可以推卸責任:有人可以說是制造商,即簽約開發駕駛人工智能的軟件開發商,批準人工智能的合規性官員或批準過錯的自動駕駛人工智能規范的行業組織。
可以要求一定程度責任的利益相關者網絡意味著,那些因人工智能的過失而尋求賠償或正義的人可能會面臨官僚的噩夢??紤]到人工智能模型可以做出影響個人未來的重大決策,而個人無力追究組織的責任會使個人無力反抗機構的無能或惡意。
為什么監管是解決這些挑戰的辦法
值得慶幸的是,專家們在開發針對上述兩種社會問題的工具和流程方面取得了進展。
為了減輕偏見,從事人工智能的人員知道如何在選擇訓練數據時更加嚴格。在網絡安全領域,人們已經承認,盡管不可能引入使系統無法被黑客入侵的萬能技術,但是可以引入流程和接觸點,以確保減輕網絡安全漏洞的最佳實踐。
同樣,在算法偏差的情況下,可以引入相關流程和最佳做法來確保減輕不希望的偏差。通過利用領域專家和人工智能可解釋性技術的知識,組織能夠減輕風險并將可解釋性引入關鍵流程。這樣可確保將來自訓練數據的系統性偏差降至最低,從而防止模型做出歧視性決策。關于恢復問責制,人們還可以在整個人工智能生命周期中引入相關的接觸點,從而將人員置于決策過程中,以確保在整個過程中都有問責制結構。
但是,人們不能指望私營企業確保上述做法得到廣泛實施。取而代之的是,這些與偏見、恢復責任制和改善可解釋性的最佳做法必須從外部進行激勵。這就是人工智能呼吁監管環境的原因。為此,決策者和開發人員將需要團結起來,跨學科參與協作,以平衡技術、社會和法律要求。
合規性的另一個效果是,它將在現場獲得更大的信心和穩定性。如果實施得當,一個良好的監管制度將迫使采用人工智能部署的最佳實踐,可以創造新的工作來實施這些實踐,吸引更多的行業投資,并刺激更多的創新以使人工智能變得人性化,并具有變革性。
責任編輯:tzh
-
網絡
+關注
關注
14文章
7557瀏覽量
88737 -
AI
+關注
關注
87文章
30763瀏覽量
268906 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238284 -
自動駕駛
+關注
關注
784文章
13787瀏覽量
166404
發布評論請先 登錄
相關推薦
評論