英國人工智能新方法詳解
英國科學、創新和技術部(DSIT)于2023年3月29日發布了一份人工智能(AI)白皮書,描述了其監管人工智能的新方法。該提案旨在創建一個支持創新的監管框架,通過創建與不同部門使用人工智能相關的風險成比例的規則來促進公眾對人工智能的信任。它還承諾建立一個監管沙箱,將監管者和創新者聚集在一起,讓他們更好地了解監管如何影響新興的人工智能技術。
與歐盟(EU)不同,英國在人工智能方面的做法短期內不會專注于新的立法。取而代之的是,它將專注于制定指導方針,賦予監管者權力,并只在必要時采取法定行動。下面先解釋白皮書的核心內容,然后再分析其優缺點。
一、特定環境監管是什么意思?
根據英國科學、創新和技術部(DSIT)發布的白皮書,針對具體情況的監管側重于結果,而不是為整個行業或技術制定規則。針對特定背景的監管將基于人工智能的特定用途可能產生的結果,如醫療診斷、機械折舊或服裝退貨,并可以區分不同部門的背景,如關鍵基礎設施或客戶服務。特定背景的人工智能法規承認,特定領域的所有人工智能技術都有不同程度的風險。這種監管權衡了特定人工智能使用的風險和放棄人工智能使用而錯過機會的成本。DSIT認為,針對特定背景的人工智能監管將有助于英國利用該技術的好處。
二、英國對AI的定義是什么?
在白皮書中,DSIT將人工智能定義為“具有‘適應性’和‘自主性’的產品和服務。”“在將人工智能定義為適應性強時,白皮書旨在解決解釋人工智能邏輯和結果的困難,因為該技術基于推斷模式和聯系進行訓練和操作,這些模式和聯系不易被人類理解或其程序員最初的設想。自主性描述了為人工智能技術的結果分配責任的難度,因為該技術可以在沒有人類意圖或控制的情況下做出決定。通過關注適應性強和自主的產品和服務,英國政府希望其人工智能定義經得起未來考驗,而不是關注機器學習或大型語言模型(LLM)等特定方法或技術。
三、英國目前對人工智能的監管情況如何?
在英國,各個監管機構之間的協調和執行不一致,包括健康和安全執行局、平等和人權委員會以及競爭和市場管理局,管理人工智能。這種不一致的協調是白皮書呼吁全系統協調的原因,以澄清誰對跨領域的人工智能風險負責,并避免重復要求。
一些不同類型的法律和法規已經涵蓋了人工智能,包括2010年《平等法》,以防止根據受保護的特征進行歧視;《英國通用數據保護條例》公平處理個人數據;《產品安全法》;電子設備、醫療器械和玩具的特定產品立法;和消費者權益法來保護消費者。其他相關法律包括1998年《人權法》、《公共部門平等義務法》、《2018年數據保護法》以及特定部門的公平要求,如《金融行為管理局手冊》。
四、提議的人工智能框架的目標是什么?
DSIT將提議的人工智能框架描述為支持創新、相稱、可信、適應性強、清晰和協作。新的監管框架將適用于英國經濟的所有部門,依靠與現有立法的互動來實施框架,除非必要,否則不會引入新的法律要求。政府希望通過不立即(如果有的話)引入新的立法來最小化域外影響;但這種方法不會改變現有立法的域外影響。
此外,DSIT稱其監管框架有三個目標:
(1)推動增長和繁榮,使負責任的創新更容易,減少監管不確定性,并在人工智能領域獲得長期的市場優勢。
(2)通過解決人工智能的風險和保護基本價值觀來增加公眾對AI的信任,這反過來將推動AI的采用。
(4)加強英國作為全球人工智能領導者的地位,使其對創新者和投資者保持吸引力,同時最大限度地減少與其他國際方法的跨境摩擦。
這個監管框架不會影響與數據訪問、計算能力、可持續性或“內容制作者和人工智能開發者的權利平衡”有關的問題。
五、英國監管AI的五大原則是什么?
在白皮書中,英國政府重點關注政府認為應該管理人工智能的五項原則,以促進負責任的技術開發和使用。這五項原則的應用最初將由監管者自行決定,隨后可能會有一項法定義務要求監管者適當考慮這些原則。
(1)安全性、可靠性和穩健性
人工智能應用程序應該是安全的,可靠的,健壯的,并帶有謹慎管理的風險。根據這一原則,監管機構可能會采取措施,確保人工智能在整個生命周期中是安全的;評估人工智能帶來風險的可能性,以采取相應的措施來管理這些風險;并定期測試人工智能系統的功能、彈性和安全性,以創建未來的基準。
(2)適當的透明度和可解釋性
人工智能創新者和企業必須適當透明,并能夠解釋他們的AI決策過程和風險。適當水平的透明度和可解釋性被定義為“監管者擁有關于AI系統及其相關輸入和輸出的足夠信息,以對其他原則產生有意義的影響。”監管機構可能會將產品標簽和技術標準作為收集這些信息的選擇。監管者還需要澄清特定人工智能技術的適當和可實現的可解釋程度。
(3)公平
AI應該是公平的,不歧視個人或商業成果,也不損害他們的合法權利。監管機構可能需要使用相關法律,如《2010年平等法案》、《1998年人權法》、《公共部門平等義務》、《英國通用數據保護條例》、《2018年數據保護法案》、《消費者和競爭法》以及特定部門的公平要求,制定并發布適用于其監管領域內人工智能系統的公平描述。
(4)問責制和治理
管理AI的監管措施需要充分地讓AI生命周期中的適當行為者對人工智能的結果負責。監管者必須確保對法規遵從性有明確的預期,并且可能需要使用治理程序來鼓勵法規遵從性。DSIT承認,在AI產品的生命周期中,誰應該被分配責任還不清楚,因此不建議在這個階段進行干預。相反,DSIT將召集專家、技術人員和律師來考慮未來的適度干預。
(5)爭議和補救
用戶和其他利益相關者需要明確的途徑來質疑人工智能造成的任何傷害。政府希望監管機構澄清現有的途徑,并鼓勵和指導受監管的實體,以確保受影響的各方可以通過非正式或正式的渠道明確質疑有害的人工智能結果。
六、在新框架下,監管機構將做些什么?
雖然DSIT的白皮書沒有提供監管AI技術的現有監管機構的詳盡列表,但所描繪的監管框架取決于授權這些監管機構制定針對具體情況和跨部門的人工智能方法。這篇論文解釋說,創建一個新的專門針對AI的監管機構會給整個監管機構列表帶來更多的復雜性和混亂。目前AI的監管機構包括健康和安全執行局、平等和人權委員會以及競爭和市場管理局,但該列表可以包括白皮書中沒有提到的其他機構。
根據人工智能的新方法,這些監管機構將采取以下措施:
(1)采取相應的、支持增長和支持創新的方法,重點關注特定AI帶來的特定風險。
(2)考慮采取相應的措施解決優先風險,考慮由政府或為政府進行的風險評估。
(3)設計、實施和執行適當的監管要求,將新的AI監管原則整合到現有流程中。
(4)制定聯合指南,以支持AI遵守原則和相關要求。
(5)考慮工具,如保證技術和技術標準,如何支持法規遵從性。
(6)參與政府對框架的監測和評估。
七、英國將如何實施這一注重原則的框架?
白皮書中定義的人工智能五項原則將首先在現有法規中實施,并得到中央政府職能部門的支持。監管機構將首先實施這些原則,以適應人工智能的背景和使用。監管機構還將合作找出實施這些原則的障礙。政府將發揮核心支持作用,以確保該框架按比例運作,并有利于AI創新。
只有在必要的情況下,政府才會出臺新的立法,制定進一步的措施,要求監管機構適當考慮這些原則,即授權監管機構實施與其部門或領域相關的原則。
八、政府將如何評估其人工智能框架?
政府界定了七項中央職能,這將有助于政府確定框架是否有效,并確定提高清晰度和協調的機會:
(1)監控、評估和反饋
政府將通過從行業、監管機構、政府和民間社會收集相關數據,評估該框架的跨經濟和特定部門影響。它還將支持和裝備監管機構,以監測和評估制度的內部。通過跟蹤框架的有效性、相稱性和對創新的影響,政府希望提供改進建議、可能需要額外干預的情況以及反饋循環和利益攸關方參與的必要情況。
(2)支持原則的一致實施
政府將制定和維護中央監管指南,以幫助監管機構實施AI原則,確定可能妨礙實施的障礙,并解決監管機構解釋原則的不一致和差異。政府將利用這些任務進一步監測這些原則的相關性以及是否需要對其進行調整。
(3)跨部門風險評估
政府將建立一個跨經濟和全社會的人工智能風險登記冊。跨部門風險評估職能將支持監管機構的內部風險評估;監控、審查和優先處理已知和新的風險;明確新風險中的責任;支持監管機構之間的合作;確定風險覆蓋范圍的差距;并分享風險評估的最佳做法。
(4)支持創新者(包括試驗臺和沙箱)
政府將消除創新障礙,最大限度地降低法律和合規風險,以幫助人工智能創新者駕馭監管格局。根據首席科學顧問Patrick Vallance爵士的建議,政府還將建立一個多監管機構的人工智能沙盒。沙盒將測試監管框架如何運作,以及監管機構或政府是否應該解決不必要的創新障礙。政府將首先在一個人工智能投資高的行業試點一個多監管機構沙箱,并計劃隨著時間的推移將這一能力擴展到更多的行業。政府傾向于一個沙箱,向參與創新者提供技術專家和監管專家的定制建議,幫助他們克服監管障礙。
(5)教育和意識
政府將引導企業、消費者和公眾在AI和AI監管領域導航。政府還將鼓勵監管機構利用宣傳活動教育AI用戶有關風險。
(6)地平線掃描
政府將監測AI的新興趨勢和機遇,積極召集利益相關者討論人工智能監管框架如何支持AI創新和應對AI風險,并支持進一步的AI風險評估。
九、確保與國際監管框架的互操作性
政府將支持英國與國際合作伙伴在人工智能監管方面的合作,方法是監測英國原則與全球方法的一致性,并利用跨境協調使英國框架與國際司法管轄區保持一致,并創建監管互操作性。
DSIT希望這一新的監管框架的適應性和相稱性將有助于它為面向未來的AI監管設定全球規范。例如,基礎模型是通用AI,它針對各種任務對大量數據進行訓練。因為確定基礎模型如何工作、它們的能力和它們的風險具有挑戰性,所以框架對中心功能的使用以及對保證技術和技術標準等工具的潛在使用可能有助于最小化它們的潛在風險,同時允許基礎模型進入英國市場。DSIT還承認,基礎模型生命周期中的責任問題將越來越重要,因為模型中的任何缺陷都會迅速影響到所有下游產品。
然而,白皮書認為,對有限責任公司和其他基金會模式采取具體的監管行動為時過早。干預過快可能會妨礙英國在各種用例中采用這些模型的能力。相反,英國將監測和評估LLM的影響,探索標準和其他工具是否能夠支持負責任的創新,然后讓監管者與行動者合作并對模式發展做出反應。對于有限責任公司,白皮書建議監管機構可以就適當的透明度措施發布指導意見。英國政府將監測和評估這些模型,直到監管機構和標準可以干預,以支持良好的治理和實踐。
十、英國想要可信人工智能的工具
DSIT認為,可信人工智能的工具對于負責任和安全地采用AI至關重要。白皮書建議將這些工具分為兩類,以幫助符合其提議的監管框架。
第一類包括人工智能保證技術——包括影響評估、審計、性能測試和正式驗證方法——可能有助于英國AI保證行業的發展。這些技術將測量、評估和描述AI在其整個生命周期中的可信度。這些技術沒有具體說明,但政府將在2023年春季推出一個投資組合。
第二類由AI技術標準組成,這些標準提供了跨供應商的共同理解,當實現時,表明符合框架的原則。AI技術標準將包括風險管理、透明度、偏見、安全性和穩健性方面的通用基準和實用指南。政府將與行業、國際合作伙伴、英國合作伙伴和英國AI標準中心合作。
英國政府表示,它將對人工智能技術標準采用分層方法:
第一層將提供跨監管權限的一致性和共同基礎。監管機構將尋求采用非特定部門的標準,并可用于支持五項AI原則的跨部門實施。
第二層將使治理實踐適應特定背景下AI的特定風險,以便監管機構可以鼓勵采用針對偏見和透明度等問題的新標準。
最后,監管機構可以在適當的時候鼓勵采用特定部門的技術標準,以支持遵守特定部門的監管要求。
十一、關于人工智能的全球對話
英國計劃繼續與國際伙伴密切合作,支持AI帶來的積極的全球機遇,并防范全球風險和危害。政府打算繼續其國際合作努力,以了解、影響和加強全球監管和非監管發展。此外,政府將繼續采取包容性的方法,幫助伙伴國家建立對AI的認識和能力,并支持其他國家實施負責任和可持續的AI監管。
英國還計劃繼續在經濟合作與發展組織(OECD)AI治理工作組中發揮積極作用;AI全球伙伴關系;G7;歐洲委員會AI委員會;聯合國教育、科學及文化組織;以及國際標準化組織和自主智能系統倫理開放社區等全球標準組織。英國將繼續與歐盟、歐盟成員國、美國、加拿大、新加坡、日本、澳大利亞、以色列、挪威和瑞士以及其他國家政府合作,發展它們的人工智能方法。
十二、英國AI新監管框架的下一步計劃
在接下來的六個月里,英國政府和DSIT將與關鍵利益相關方——如公共部門、監管機構和民間社會——就該框架進行磋商。然后,政府將公布其回應,并發布監管機構實施該框架的跨部門原則和初步準則。政府還將發布AI監管路線圖,以建立該框架的中央政府職能,并試點新的AI沙盒。最后,政府將委托研究項目對潛在的合規障礙,生命周期問責制,如何實施該框架,以及報告AI風險的最佳做法。
在未來6至12個月內,政府和DSIT將建立舉措和伙伴關系,以履行該框架的核心職能。政府還將鼓勵監管機構發布指導意見,幫助解釋人工智能原則將如何在其職權范圍內適用。此外,政府將就中央監測和評估職能如何運作提出建議,并公開這些建議供利益攸關方協商。最后,政府將繼續發展其多監管者沙箱。
12個月后,政府將履行框架的核心職能。它還將鼓勵仍需要發布指導意見的監管機構,發布跨經濟體AI風險登記冊,并在測試試點沙盒后開發其監管沙盒。此外,政府將公布第一套報告,評估AI原則如何發揮作用以及中央職能如何發揮作用。這些報告將分析原則的管理特征——實施是否有利于創新、相稱、可信、適應性強、清晰和協作——同時還考慮新迭代或法定干預的需要。最后,政府將更新其核心職能的人工智能監管路線圖,以確定它是否能長期發揮作用,或者獨立機構是否更有效。
英國人工智能的新監管框架有四個關鍵優勢,將有利于其科技行業。
(1)焦點較窄
該框架的范圍狹隘地聚焦于AI成果,而不是AI產品。它使用了AI的靈活定義,定義了AI的特征——無論它們是自適應的還是自主的——而不是具體的算法特征或產品類型。這種狹窄的焦點和靈活的定義將使英國能夠更好地應對新的風險,即使技術在快速發展。
(2)監管沙盒
創建一個多監管機構的AI沙箱將允許創新者與監管機構合作,開發最佳實踐,幫助AI產品安全上市。監管沙盒將有助于增加各個部門監管機構的專業知識,以便他們能夠支持未來AI創新的開發和采用。
(3)沒有新的立法
通過不引入新的立法,而是專注于原則框架和監管者授權,英國的人工智能方法使用寬松的監管來支持AI的發展和采用,并解決特定部門和跨部門的監管問題。當輔之以注重結果或傷害的方法時,寬松監管可以識別和糾正有害影響,而不會對無害行為施加成本或懲罰。一個明顯的例子是,白皮書承認現在干預基礎模型還為時過早,因為現在的任何干預都可能對英國采用新技術及其應用產生不利影響。
(4)國際意識
承認英國不是唯一關注AI的國家將有利于英國提升其人工智能和技術中心地位的能力。政府對國際協調的承諾將減少英國科技公司進入其他市場的障礙。隨著其他地區和國家磨練他們的AI框架,即歐盟的人工智能法案和美國的人工智能權利法案,這種前景將是至關重要的。為了提高效率,英國決策者可能不得不花費大量的國際政治資本,特別是為了抵御歐盟的監管壓力。
編輯:黃飛
評論
查看更多