摘要:當前,因“算法黑箱”而導致的人工智能系統的不透明與不可解釋問題是人工智能信任與問責的一大困擾。在這樣的背景下,國內外立法開始從權利、義務等不同角度對人工智能的可解釋性進行規制,提出了算法解釋權、算法說明義務等規則。但可解釋性要求的有效落實仍面臨著技術可行性、經濟成本、法律規則和價值沖突、社會需求差異等多方面挑戰。面向未來,人工智能可解釋性要求的實現,需要法律、技術、市場、規范等多種力量共同發揮作用,側重通過“算法說明書”、算法相關信息披露等方式增進算法透明、促進用戶理解。
當前,人工智能應用的持續創新和廣泛普及,主要得益于以深度學習為代表的機器學習技術的發展進步。機器學習技術使得人工智能系統可以自主進行感知、學習、決策和行動,但這些所謂的“學習算法”(Learning Algorithm)卻為“黑箱問題”(Black Box Problem)所困擾。
雖然人們可以知曉一個算法模型的輸入和輸出,但在很多情況下卻難以理解其運作過程。人工智能開發者設計了算法模型,但通常卻不決定某個參數的權重以及某個結果是如何得出的。這意味著,即便開發者可能也難以理解他們所開發的人工智能系統。
對人工智能系統如何運作缺乏理解,是人工智能帶來諸如安全、歧視、責任等新的法律、倫理問題的一個主要原因。作為“黑箱”的深度學習模型易于遭受對抗攻擊,容易產生種族、性別、年齡等方面歧視,可能導致追責困難。在醫療、借貸、刑事司法等攸關個人重大權益的應用場景中,人工智能的不透明性尤其是有問題的。
因此,考慮到人工智能的不透明性和不可解釋性,對人工智能進行適當的監管和治理顯得尤為重要。
在實踐中,人工智能的規?;瘧猛茝V,在很大程度上依賴于用戶能否充分理解、合理信任并且有效管理人工智能這一新型伙伴。為此,確保人工智能產品、服務和系統具有透明性(Transparency)與可解釋性(Explainability)是至關重要的。
實際上,各界已經將透明性和可解釋性確立為人工智能研發應用的一個基本的指導性原則。
在倫理層面,歐盟發布的《可信人工智能的倫理指南》(Ethics Guidelines for Trustworthy AI)將可解釋性作為可信人工智能的四個倫理原則這一,將透明性作為可信人工智能的七個關鍵要求之一。聯合國發布的首個全球性人工智能倫理協議《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence),提出了人工智能系統生命周期的所有行為者都應當遵循的十個原則,其中就包括“透明度和可解釋性”。中國國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》針對人工智能提出了包括透明性和可解釋性在內的多項倫理要求;中國國家互聯網信息辦公室等9個部門聯合發布的《關于加強互聯網信息服務算法綜合治理的指導意見》將“透明可釋”作為算法應用的基本原則,呼吁企業促進算法公開透明,做好算法結果解釋。
在技術層面,自從2015年美國國防高級研究計劃局(DARPA)提出可解釋人工智能(Explainable AI,簡稱為XAI)研究項目以來,XAI已日漸成為人工智能領域的重要研究方向,研究人員和主流科技公司紛紛探索技術上的和管理上的解決方案,IEEE、ISO等國際標準制定組織則積極推動制定與XAI相關的技術標準。
在立法方面,無論是在中國,還是在美國、歐盟等其他國家和地區,人工智能都已進入了立法者和監管者的視野。個人信息、人工智能等方面的國內外立法嘗試從權利、義務、責任等不同角度對人工智能的透明性和可解釋性進行規制。
雖然可解釋性要求已經成為人工智能監管的一個重要維度,但可解釋性要求的有效落實依然面臨著諸多困難和挑戰。例如,可解釋性要求的落實至少需要回答五個關鍵問題:向誰解釋?為什么解釋?何時解釋?如何解釋?解釋的方法是什么?除了這些問題,人工智能系統的可解釋性要求也面臨著與個人隱私、模型安全、預測準確性、知識產權等諸多其他價值追求相平衡的問題。
本文旨在厘清這些問題,并從技術和產業發展的狀況出發,為人工智能可解釋性要求的法律規制之完善優化提出具體可行的思路。
人工智能可解釋性要求及其立法現狀
(一)人工智能系統的可解釋性及其價值
一般而言,解釋(Explanation)是指“說明某事的含義、原因、理由等”。根據這一定義,人工智能系統的可解釋性意味著通過提供關于決策和事件如何產生的信息,來促進利益相關者和AI系統之間的交互,但開發者、領域專家、終端用戶、監管者等不同的利益相關者對于AI模型具有不同的解釋需求。
聯合國的《人工智能倫理問題建議書》將人工智能的可解釋性界定為:“讓人工智能系統的結果可以理解,并提供闡釋說明”,也包括“各個算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統結果”。美國國家標準與技術研究院(NIST)在其研究報告《可解釋人工智能的四個原則》(Four Principles of Explainable Artificial Intelligence)中提出了可解釋的AI系統的四個基本特征:
(1)解釋(Explanation),即AI系統對其決策過程和結果提供依據或理由;
(2)有效性(Meaningful),即AI系統提供的解釋對于目標受眾而言是清晰易懂的;
(3)解釋準確性(Explanation Accuracy),即解釋可以準確反映AI系統產生特定輸出的原因,或者準確反映AI系統的運作過程;
(4)知識局限性(Knowledge Limits),即AI系統只有在其設計條件下對其輸出具有充分的信心時才可運行。
因此,AI系統的可解釋性不僅關注AI系統的特定輸出結果,而且關注AI系統的內在原理和運作過程;例如,負責信貸審批的AI系統需要向用戶解釋為什么拒絕發放貸款,推薦系統需要讓用戶理解基于用戶的搜索歷史、瀏覽記錄、交易習慣等個人數據進行個性化推薦的基本原理。
在解釋的分類上,業界一般區分事前解釋(Ante-Hoc Explanation)和事后解釋(Post-Hoc Explanation)。
事前解釋一般指自解釋模型(Self-Interpretable Model),是可以被人類直接查看和理解的算法模型,即模型自身就是解釋。比較常見的自解釋模型包括決策樹、回歸模型(包括邏輯回歸)等。
事后解釋通常是由其他軟件工具或者人工方式生成的解釋,旨在描述、說明特定算法模型如何運作或特定輸出結果如何得出。對于具有“黑箱”屬性的深度學習算法,通常只能訴諸事后解釋。事后解釋分為局部解釋(Local Explanation)和全局解釋(Global Explanation):局部解釋聚焦于理解算法模型的特定輸出結果,全局解釋側重于對算法模型整體的理解。
此外,英國信息專員辦公室(ICO)在其發布的指南《解釋人工智能的決策》(Explaining Decisions Made with AI)中區分基于過程的解釋(Process-Based Explanation)和基于結果的解釋(Outcome-Based Explanation),并從解釋所涉內容的角度提出了解釋的六個主要類型:
(1)原理解釋,即說明AI系統作出決策的理由;
(2)責任解釋,即AI系統開發、管理和運行過程中的參與人員,以及對決策進行人工審查的聯系人員;
(3)數據解釋,即AI系統的決策使用了哪些數據以及是如何使用的;
(4)公平性解釋,即為確保決策的公平性和非歧視性而采取的步驟和措施;
(5)安全和性能解釋,即為確保AI系統的決策和行為的準確性、可靠性、安全性和穩健性而采取的步驟和措施;
(6)影響解釋,即為監測、評估AI系統的使用及其決策對個人和社會的影響而采取的步驟和措施。英國ICO的分類對于理解可解釋性要求的具體解釋內容具有較大參考意義。
人工智能的可解釋性與透明度、責任、問責等概念密切相關。透明度意味著保障用戶等相關對象對AI系統的知情,包括將在產品或服務中使用AI系統的事實告知用戶,也包括給用戶提供關于AI系統的適當的信息,在必要時甚至包括源代碼、數據集等。因此,人工智能的可解釋性與透明度息息相關;具體而言,增進透明度是人工智能的可解釋性的一個主要目標,而可解釋性則是實現人工智能的透明度的一個有效方式。此外,在很多時候,AI系統的可解釋性要求主要是為了確保能夠對AI系統進行問責并讓相關行動者承擔責任。因此可以說,AI系統的可解釋性要求本身不是最終目的,而是實現諸如責任、問責等其他目的的手段和前提條件。
增進AI系統的可解釋性具有多方面的價值:
第一,增強用戶對AI系統的信任。用戶信任是AI系統的可用性的一個重要條件。在現實中,用戶對AI系統的不信任,往往源于用戶不理解AI系統的內在決策過程,不知道AI系統如何作出決定。尤其是在諸如金融、醫療、司法等高風險的應用場景中,如果AI模型缺乏可解釋性,就可能不被用戶信任。DARPA的研究發現,相比于只提供決策結果的AI系統,用戶更傾向于既提供決策結果又提供附帶解釋的AI系統。
第二,防范算法歧視,確保AI系統的公平性。增進AI系統的可解釋性,有助于人們對AI系統進行審計或者審查,進而可以識別、減少、消除算法歧視。
第三,支持內部治理,幫助打造可信的、負責任的AI系統。開發者只有充分理解AI系統,才能及時發現、分析、修正缺陷,進而才有可能打造出更加可靠的AI系統。
第四,從人機協作的角度看,用戶只有理解AI系統,才能更好地與之進行交互,在實現AI系統的預期目的的同時,幫助AI系統更好地進行改進和完善。
第五,解決人工智能造成損害的法律責任難題,對人工智能進行解釋可以幫助探查因果,進而有助于實現法律責任的目的,包括實現法律責任的預防目的。正因如此,可解釋性要求已經成為人工智能的法律規制的一個核心考量。
(二)人工智能可解釋性要求的立法進展
全球來看,歐盟《一般數據保護條例》(GDPR)較早對人工智能算法的可解釋性進行法律規制,主要體現在GDPR第22條。GDPR第22條重點規制產生法律效果或類似的重大效果(如影響信貸、就業機會、健康服務、教育機會等)的完全自動化決策(Solely Automated Decision-Making,即完全通過技術方式作出的決策,不存在人類參與)。
具體而言,對于完全自動化決策,一方面,數據主體的知情權和訪問權至少涉及以下三個方面:(1)告知存在該項處理的事實;(2)提供關于內在邏輯的有意義的信息;(3)解釋該項處理的重要性和預想的后果。
另一方面,數據主體有權請求人為干預,表達其觀點并提出質疑;根據GDPR前言部分(Recitals)的內容,數據主體的權利甚至包括獲得解釋的權利和挑戰該項決策的權利,即所謂的“算法解釋權”。
中國對人工智能透明度和可解釋性的法律規制,在很大程度上借鑒了歐盟GDPR的立法思路。
首先,根據中國《個人信息保護法》第7條規定的公平、透明原則,以及第44條賦予個人的知情權、決定權,AI系統在處理個人信息時需要對用戶保持必要的透明度。
其次,該法第24條對基于個人信息的算法自動化決策作出了專門規定:一是,要求個人信息處理者保證算法自動化決策的透明度和結果公平、公正,此為透明度要求;二是,對于旨在進行個性化信息推薦的算法自動化決策應用,個人可以選擇退出(Opt-Out),此為退出權;三是,對于對個人權益有重大影響的算法自動化決策,個人享有要求說明的權利和拒絕個人信息處理者僅通過自動化決策方式作出決定的權利,此為算法說明權。這些規定尤其是第24條的規定被認為是構成了中國版的算法解釋權。
中國國家互聯網信息辦公室出臺的《互聯網信息服務算法推薦管理規定》則提出了算法解釋義務,核心是對算法相關信息的公示義務和對算法決策結果的說明義務。具體而言:
一是,提供算法推薦服務需要遵循公平公正、公開透明等原則。
二是,算法推薦服務提供者需要制定并公開算法推薦服務相關規則。
三是,該法規鼓勵算法推薦服務提供者優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性。
四是,算法推薦服務提供者需要告知用戶其提供算法推薦服務的情況,并公示算法推薦服務的基本原理、目的意圖和主要運行機制等。
五是,算法推薦服務提供者需要向用戶提供便捷的關閉算法推薦服務的選項。
六是,對于對用戶權益造成重大影響的算法應用,算法推薦服務提供者需要提供說明并承擔相應責任。
總結來看,中國對人工智能可解釋性的法律規制主要有兩個路徑:
其一,一般性地給AI系統的開發者施加公開算法相關信息、優化算法可解釋性等義務,從而促進用戶對AI系統整體的理解;
其二,在個案意義上,對于給個人權益造成重大影響的算法決策結果,通過配置算法解釋或說明的權利與義務來保障用戶權益,并解決用戶與開發者之間信息和權力不對稱的問題。
但在實踐中,這兩種路徑依然面臨著一些問題,例如算法解釋相關的權利與義務應適用于哪些AI系統?為了全局可解釋的目的,AI系統的哪些信息需要對外提供以及應當以什么方式提供?如何確保解釋的準確性和有效性?等等。
人工智能可解釋性規制面臨的問題分析
首先,雖然立法可以對算法解釋提出一般性要求,但可解釋性要求的實現卻并非易事,不僅面臨因“算法黑箱”而帶來的技術挑戰,而且需要考慮諸多因素,下文將一一進行分析。
其一,對象。技術開發人員、終端用戶、監管者等不同的利益相關者對算法解釋的需求是有差異的。而且普通用戶感興趣或能理解的因素及其復雜程度,可能與專業的審查人員或法律調查人員需要的恰當信息存在很大不同。例如,普通用戶可能想知道為什么AI系統作出了特定的決策,以便于能夠有理由質疑AI系統的決策,如果用戶認為決策是不公平的或錯誤的。專業人員則需要更全面的、更多技術細節的解釋,以便于評估AI系統是否滿足可靠、準確等方面的一般性要求或者監管要求。這意味著普通用戶需要的往往是明白易懂的、非技術語言的解釋,而非充斥著技術細節的詳盡解釋。不向普通用戶提供詳盡的解釋可能有悖常理,但在實踐中卻是有益的。為了解釋AI系統及其輸出結果而給普通用戶提供底層的數學公式,即便這可能是技術上最準確的解釋,但普通用戶卻不大可能理解。普通用戶也許只是希望確保AI系統的輸入與輸出是公平合理的,而非希望對背后的計算具有深層次的理解。因此,明白不同利益相關者的真正需求才是至關重要的,而不是采取一刀切的路徑。
表1:不同階段的不同主體的算法解釋目的
其二,應用場景。應用場景的不同也可能影響提供解釋的時間與方式。并非所有的應用場景都需要對AI算法模型及其決策結果做出事無巨細的解釋,這取決于AI算法決策是否對受眾的合法權益產生實質性的影響。例如,對于在餐廳分配位置或自動整理手機相冊的算法,與審批貸款或輔助判刑的算法,就需要區別對待。如果一刀切地要求提供詳盡的解釋,缺乏合理性和必要性。所以歐盟的人工智能法草案按照應用場景的不同將AI系統分為高風險、有限風險和最小風險,并只針對高風險AI系統提出了算法解釋義務。
其三,時間與地點。從目前的技術來看,要求AI面向全部應用場景,實時地、大規模地提供解釋頗具挑戰性且難以實現。行業中的可解釋AI實踐更多聚焦于不同應用場景下的事后解釋。
其四,解釋的關聯性或者說解釋的目的。為什么需要進行解釋?AI系統的目的與應用場景至關重要。相比于執行影響較小的任務的AI系統(如推薦電影的AI系統),AI系統被用來進行影響人身安全或財產安全的決策時(如醫療診斷、司法審判、金融借貸等),需要更多的投入與深度的解釋。
其五,技術與經濟可行性。一些先進的、復雜的AI系統在向人類解釋其運作時可能存在技術限制。在經濟可行性上,也需要考慮成本維度,大規模地提供解釋所需成本與投入也需要考慮在內,以避免不合理的細節或嚴格的要求阻礙有價值AI系統的部署。盡管投入足夠的時間、精力、專業知識與正確的工具,通??梢灾獣詮碗sAI系統是如何運作的,理解AI系統的行為背后的原因,但如果在實踐中不加區分地要求解釋,不僅在規模應用上欠缺經濟可行性,而且可能適得其反地阻礙具有巨大價值的(例如拯救生命)AI系統的應用部署。因為解釋的成本十分高昂,所投入的技術資源也更加巨大。如果采取一個極高的標準,要求AI系統的每一個結果都做到完全可追溯并提供詳盡的解釋,那么這在實踐中可能極大地將AI系統限制在最基本的技術(如靜態的決策樹)。這最終會極大地限制人工智能的社會與經濟效益。比如,一個醫療算法,如果每次診斷結果都要求提供詳盡的解釋,可能這個算法永遠無法投入使用,產生價值。因為每次輸出一個決策,可能得花費數天時間來提供解釋。
其次,需要考慮可解釋性要求與效率、準確性、安全、隱私、網絡安全、商業秘密、知識產權等其他重要目的之間的平衡問題。一些形式的透明性和可解釋性看似有吸引力,但卻可能帶來相當嚴重的風險,而且對于增進責任與打造信任幾乎無甚助益。例如,披露源代碼或單個用戶的數據,無助于理解AI系統如何運行以及它為何做出特定決策,但卻可能讓AI系統被濫用或操縱,給用戶隱私與商業秘密帶來顯著風險。
實際上,分享、開放源代碼是最低端、最無效的算法透明與解釋方式;因為AI系統太過復雜,即使技術專家也無法測量。所以開放源代碼無助于普通用戶理解AI系統。此外,算法不是越透明越好,例如,把算法變得簡單,可以增加可解釋性,同時卻可能讓算法更不準確。這是因為AI模型的預測準確性和可解釋性之間存在著天然的緊張關系。實際上,在可解釋與準確性之間,如果AI應用對性能要求不那么高,則可解釋性可以超過準確性;如果安全是優先的,則可解釋性可以讓位于準確性,只要存在能夠確保問責的保障措施即可。
正如聯合國《人工智能倫理問題建議書》所指出的那樣,公平、安全、可解釋性這些原則本身是可取的,但在任何情況下這些原則之間都可能會產生矛盾,需要根據具體情況進行評估,以管控潛在的矛盾,同時考慮到相稱性原則并尊重個人權利等。
人工智能可解釋性規制的未來進路
從以上分析可知,對人工智能系統進行解釋是一件非常復雜的事情,而且中國現行立法還遠未形成一個統一的規制路徑。無論解釋的出發點是權利,還是義務,抑或是責任,都尚未確立清晰明確的規則。面向未來,對人工智能的透明度和可解釋性進行規制,需要法律、技術、市場、規范等多種力量共同發揮作用。
(一)立法宜遵循基于風險的分級分類分場景監管思路
常識告訴我們,技術應用不可能完美無缺、永不錯誤,那種認為技術應用應當符合絕對性要求的觀點是偏頗的、誤導性的。在這個意義上,新技術治理應當是風險導向的,不是為了徹底消除風險,而是對風險進行有效管理。因此,立法不宜采取過度嚴苛的監管要求,避免在透明度與可解釋性方面對AI算法應用提出“一刀切”(One-Size-Fits-All)的要求,也不宜簡單粗暴要求公開算法的源代碼等技術細節;而是需要采取包容審慎的立場,建立分級分類分場景的監管方式,支持AI算法應用不斷創新和發展,兼顧政府、科技企業以及社會公眾的整體利益,在鼓勵科技創新、追求科技向善、維護社會公共利益之間找到平衡點。
具體而言,在人工智能可解釋性要求的實現方式上,首先,披露AI算法模型的源代碼是無效的方式,不僅無助于對AI算法模型的理解,反倒可能威脅數據隱私、商業秘密以及技術安全;其次,不宜不加區分應用場景與時空場合地要求對所有的算法決策結果進行解釋或說明;再次,側重應用過程中的披露義務,部署AI系統的主體對于任何披露與記錄要求負有責任,需要披露AI系統實質性參與決策或與人類互動的事實,披露應當以清晰易懂、有意義的方式提供關于AI參與的關鍵任務的模式;最后,避免強制要求披露用來訓練AI模型的數據集,這不僅不具有可操作性,而且容易與版權保護沖突,侵犯用戶的數據隱私或違反合同義務。
此外,法律對AI系統的可解釋性要求應側重滿足終端用戶的需求。到目前為止,AI系統的可解釋性主要服務于AI開發人員和監管者的需求,例如幫助開發人員排查漏洞并改進AI系統,幫助監管者對AI應用進行監管。而非讓終端用戶可以理解AI系統。2020年的一項研究發現,企業部署可解釋人工智能更多是為了支持工程開發等內部目的,而非增強用戶或其他的外部利益相關者的透明度和信任。因此,為了促進用戶對AI系統的理解,一種可行的思路是,借鑒食品營養成分表、產品說明書、藥品或醫療器械的使用說明、風險告知等既有的信息披露機制,針對符合條件的AI系統建立“算法說明書”機制。歐盟的人工智能立法采取了類似的思路,歐盟人工智能法草案遵循分類監管的思路,針對高風險的AI系統提出了較高的透明度和信息提供要求,即開發者應確保高風險AI系統的運作足夠透明,向用戶提供使用說明(Instructions of Use)等信息,并披露系統開發者的基本信息、高風險系統的性能特征、監督措施以及維護措施等信息。
(二)探索建立合理適度的、適應不同行業與應用場景的人工智能可解釋性標準
法律治理固然重要,但可解釋人工智能的實現也離不開技術人員和技術社群的直接參與。到目前為止,XAI已經成為人工智能領域最重要的發展方向之一,但正如美國DARPA關于XAI的回顧報告所發現的那樣,XAI的進展仍十分有限,面臨著諸多難題和挑戰。當前最重要的是建立人工智能可解釋性的技術標準。在這方面,首先需要明確的一個關鍵問題是,人工智能的評價標準不應是“完美級”(Perfection),而應在與既有流程或人類決策對比的基礎上,界定評價AI系統的最低可接受標準。所以即使AI系統需要解釋,也必須考慮可解釋的程度。因為要求AI系統滿足可解釋性的“黃金標準”(遠遠超過既有的非AI模式即人類決策所要求的),可能不當地阻礙AI技術的創新性使用。因此需要采取折中路徑,考慮技術限制與不同可解釋標準需要的利益權衡,以便平衡使用復雜AI系統帶來的好處與不同的可解釋性標準帶來的實踐限制。筆者認為,用戶友好型的解釋應當是準確的、清晰的、明確的、有效的,且考慮不同應用場景的需求,以提高對AI系統的整體理解:解釋是否準確傳遞了支撐AI系統的推薦的關鍵信息(Key Information)?解釋是否有助于對AI系統整體功能的理解?解釋是否清晰(Clear)、明確(Specific)、相關(Relatable)、可執行(Actionable)?解釋是否適當考慮了敏感性(Sensitivity)?例如用戶的敏感信息。
具體可以從以下方面來推進AI可解釋性標準:
第一,針對AI系統的每一個應用場景都提供可解釋性標準的指南,是不現實的,但可以針對一些示范性的應用場景提供可解釋標準的指南。這能夠給行業和企業提供有益參考,來平衡不同AI模型的性能與不同標準的可解釋性要求。
第二,對于政策相關方而言,發布AI可解釋的最佳實踐做法案例集,以及具有負面影響的負面做法,都是值得嘗試的。包括用以提供解釋的有效的用戶界面,以及面向專家和審計人員的記錄機制(例如詳細的性能特征、潛在用途、系統局限性等)。
第三,可以創建一個說明不同級別的可解釋性的圖譜。這個圖譜可被用來給不同行業與應用場景提供最小可接受的衡量標準。例如,如果某個失誤的潛在不利影響是非常微小的,那么可解釋性則不怎么重要。相反,如果某個失誤是危及生命財產安全的,則可解釋性變得至關重要。類似地,如果用戶可以容易地擺脫算法自動化決策的約束,則對深入理解AI系統的需求就不那么旺盛。
(三)支持行業自律,發揮市場的力量來促進可解釋性人工智能的發展
根據美國科技行業的經驗,可解釋人工智能的工作應主要由企業與行業主導而非由政府強制監管,采取自愿性機制而非強制性認證。因為市場力量會激勵可解釋性與可復制性,會驅動可解釋人工智能的發展進步。
一方面,從市場競爭的角度看,為了獲得競爭優勢,企業會主動提高其AI系統、產品與服務的可解釋程度,從而讓更多人愿意采納或使用其人工智能應用,進而維持自身的市場競爭力;
另一方面,從用戶的角度看,用戶會用腳投票,即如果用戶不理解AI系統的運作,在使用AI系統、產品與服務時可能存在顧慮,這意味著可解釋性不足、難以被用戶理解的AI系統、產品與服務將無法獲得用戶的持久信任,因而用戶對此類AI應用的需求也會降低。
就目前而言,主流科技公司紛紛重視AI的可解釋性研究與應用,已在積極探索人工智能可解釋性的實現方式。
例如,谷歌的模型卡片機制(Model Cards),旨在以通俗、簡明、易懂的方式讓人們看懂并理解算法的運作過程,對模型的輸入、輸出、模型架構、性能、局限性等進行描述。
IBM的AI事實清單機制(AI Fact Sheets),旨在提供與AI模型或服務的創建和部署有關的信息,包括目的、預期用途、訓練數據、模型信息、輸入和輸出、性能指標、偏見、魯棒性、領域轉移、最佳條件、不良條件、解釋、聯系信息等。面向未來,應著重通過最佳實踐做法、技術指南、自律公約等行業自律措施來支持可解釋人工智能的發展。
(四)替代性機制和倫理規范作為對可解釋性要求的有益補充
雖然可解釋性是完善AI技術的最優解之一,但并非所有的AI系統及其決策都可以解釋,或者都需要解釋。當AI系統過于復雜,導致難以滿足可解釋性要求,或是導致解釋機制失靈、效果不樂觀時,就要積極轉變規制的思路,探索更多元化、實用化的技術路徑。
目前在技術上主張的是采取適當的替代性機制,如第三方反饋、申訴機制與人類審查介入、常規監測、審計(Auditing)等,這些替代性機制可以對AI算法的決策起到監督和保障作用。
例如,第三方標記反饋機制允許人們針對AI系統提供使用上的反饋,常見的標記反饋技術包括用戶反饋渠道(“點擊反饋”按鈕)、漏洞獎勵機制等。
用戶申訴機制能夠對AI系統及其開發者形成有效監督,也是實現AI可責性的重要保障。中國的《信息安全技術個人信息安全規范》《網絡安全標準實踐指南》等標準都對用戶的投訴、質疑、反饋以及人工復核等機制作出了具體規定。
常規監測包括嚴格且持續的測試、對抗測試等,旨在發現系統中的問題并及時改進。
審計機制作為確保AI可責性的重要方式,是對AI算法應用情況的記錄、回溯和追查,通過算法審計可以達到反向解釋的作用,降低算法黑箱的不良影響。
此外,考慮到監管的滯后性和技術的持續迭代性,倫理原則、倫理指南、倫理審查委員會等倫理規范和落地制度將能發揮更大價值,即使對于不具有可解釋性的人工智能應用,也能確保企業以可信的、負責任的方式予以部署、使用。
人工智能的透明性和可解釋性,連同公平性評價、安全考慮、人類AI協作、責任框架等,都是人工智能領域的基本問題。隨著人工智能監管的持續加強,立法對人工智能系統的透明性和可解釋性規制也將走向深入。
一個首要的問題是,監管者在針對人工智能系統設計透明性和可解釋性要求時,需要考慮他們想要實現什么目標,以及在特定情境下如何更好地匹配這些目標。因為透明性和可解釋性本身不是目的,而是增進責任與問責,賦能用戶,打造信任與信心的方式和手段。
將來立法在設定可解釋性要求與標準時,不僅需要考慮受眾需求、應用場景、技術與經濟可行性、時空等因素,而且需要考慮可操作性、務實性,同時還需要注重做好與效率、準確性、安全、隱私、網絡安全、知識產權保護等目的之間的平衡。很難遵從或者遵從成本很高的可解釋標準會阻礙AI系統的應用。如果在所有的情形下都要求最詳盡的解釋,而不考慮實際的需求,則可能會阻礙創新,也會給企業及社會帶來高昂的經濟成本。
所以,適當的可解釋性標準不應超過合理且必要的限度。舉例而言,社會不會要求航空公司向乘客解釋為什么飛機采取了算法決定的航線。類似地,一個相似的務實性、情境特定的路徑應適用于AI系統的可解釋性標準要求。就像取得駕照,相信汽車可以安全駕駛,并不需要人人都成為專業的汽車工程師一樣,當使用AI系統時,解釋并不總是必須的。
最后,“算法說明書”在增進算法透明、促進用戶對算法的理解上的價值,值得進一步探討論證。
審核編輯 :李倩
-
算法
+關注
關注
23文章
4608瀏覽量
92845 -
AI
+關注
關注
87文章
30763瀏覽量
268909 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238292
原文標題:萬字長文詳解:人工智能系統可解釋性要求的法律規制
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論