人工智能法律問題的三個層面
近年來,人工智能技術發(fā)展取得了極大的進步,在一些領域甚至超越了人類自身的認知能力。人工智能也從一個純粹的技術領域一躍成為社會各界共同關注的話題。各國紛紛出臺人工智能戰(zhàn)略,加強頂層設計,人工智能由此成為國際競爭的新焦點。人工智能的跨學科研究迅速興起,尤其是國內(nèi)的法學界出現(xiàn)了人工智能法律研究的熱潮,但卻沒有學者嘗試從法律上對人工智能的概念進行界定,導致各種研究頗具自說自話的色彩,缺乏統(tǒng)一的認知基礎。此外,社會公眾由于對人工智能技術缺乏足夠的了解,生發(fā)了人工智能取代人類工作、超級智能威脅人類生存等擔憂。
那么,人工智能法律能否成為一門顯學?現(xiàn)在又有哪些新的問題需要研究和應對?對此,微軟總法律顧問Brad Smith曾有精辟論述。他寫道,未來會產(chǎn)生所謂的「人工智能法律」這一全新的法律領域嗎?今天,人工智能法律和1998年的時候隱私法剛興起時的境況差不多。一些既有的法律已經(jīng)適用于人工智能,尤其是侵權法和隱私法。在一些特定的領域比如自動駕駛汽車等,開始出現(xiàn)新的監(jiān)管。但是,人工智能法律尚未作為一個獨立的領域存在。到2038年的時候,我敢肯定這一狀況將有所改變。那時候,不僅有從事人工智能法律的執(zhí)業(yè)律師,而且這些律師和其他所有律師都將依賴人工智能來輔助其執(zhí)業(yè)。因此,真正的問題不是是否會出現(xiàn)人工智能法律,而是其如何出現(xiàn),以及在什么期限內(nèi)出現(xiàn)。
這一預測在某種程度上可以給當前的人工智能法律研究背書,即學者的研究并非鏡花水月,空中樓閣,而是服務于未來將可能產(chǎn)生的一個全新的法律領域。綜觀目前的人工智能法律研究,主要存在法律人格、正義與平等、安全與認證、隱私與權力、責任、知識產(chǎn)權歸屬、競爭與消費者保護、人工智能產(chǎn)品監(jiān)管、自主武器等九個主題,這些主題可被抽象為三個層面。
其一,權利的挑戰(zhàn)。在以機器學習為代表的現(xiàn)代人工智能系統(tǒng)出現(xiàn)之前,人類是這個星球上唯一具有行為能力的主體,國家和公司作為法律上擬制的人,其自身不具有行為能力,需要由人類主體來代表。人工智能,作為通過一個評估過程自主作出選擇的非自然實體(即機器),開始表現(xiàn)出像人一樣的行為能力,例如達成交易、批準貸款、駕駛汽車、創(chuàng)作內(nèi)容等等。因此其一方面帶來主體地位的挑戰(zhàn),另一方面帶來創(chuàng)造成果歸屬和保護的挑戰(zhàn)。其二,責任的挑戰(zhàn)。以自動駕駛為例,其自主性和不可預測性斬斷了人類與事故之間的因果關系。其三,倫理的挑戰(zhàn)。體現(xiàn)為兩個方面:一是技術應用的邊界問題,例如將人工智能應用于人類增強或者武器和戰(zhàn)爭的限度在哪里;二是技術發(fā)展可能改變?nèi)祟悅惱恚廊灰宰詣玉{駛汽車為例,隨著自動駕駛系統(tǒng)的安全性能不斷提高,當其顯著超越人類駕駛水平之時,是否有必要重新考慮人類駕駛汽車的活動的道德性。
人工智能治理的三點認知
在計算機與信息技術的發(fā)展史上,網(wǎng)絡法經(jīng)歷了三次重大轉變,每個階段都有其特殊的問題并產(chǎn)生了相應的法律規(guī)制。第一階段的關注焦點是計算機,各國圍繞計算機的安全、犯罪、欺詐、濫用等問題制定了一系列法律,這個階段的典型立法包括美國1984年的《計算機欺詐與濫用法案》等。互聯(lián)網(wǎng)興起之后,技網(wǎng)絡法發(fā)展到第二階段,信息大爆炸趨勢下,信息成為關注焦點,法律規(guī)制圍繞信息的隱私、保護、傳播、濫用等問題展開,這個階段的立法包括歐盟1995年的《個人數(shù)據(jù)保護指令》、美國1996年的《通信規(guī)范法》等。當前,網(wǎng)絡法已經(jīng)發(fā)展到了第三階段,作為關注焦點的數(shù)據(jù)和人工智能算法帶來新的問題,預計將出現(xiàn)一系列人工智能法律,例如歐盟的GDPR已經(jīng)針對人工智能應用進行了制度安排,歐盟議會發(fā)布的《算法責任與透明治理框架》則在考慮建立算法治理框架。就人工智能治理而言,本文提出三點認知。
其一,數(shù)據(jù)保護方面,明確企業(yè)間數(shù)據(jù)獲取與利用的基本規(guī)則,加強對企業(yè)數(shù)據(jù)資產(chǎn)及其合法利益的保護。人工智能的發(fā)展應用離不開數(shù)據(jù),數(shù)據(jù)已經(jīng)成為「新石油」,只有加強保護企業(yè)數(shù)據(jù)權益,才能為人工智能創(chuàng)新發(fā)展提供堅實的基礎。我國法院在諸多涉及數(shù)據(jù)獲取與利用的不正當競爭案件中認為企業(yè)對其投入勞動采集、加工、整理、生成的數(shù)據(jù)享有財產(chǎn)性權益,典型的案件包括陽光訴霸才、大眾點評訴愛幫網(wǎng)、鋼聯(lián)訴縱橫、拓迪、大眾點評訴百度、微博訴脈脈、酷米客訴車來了、淘寶訴美景、同花順公司訴燈塔公司等。其實早在International News Service訴Associated Press一案中,美國最高法院就認為,信息、設計等無形物可以因勞動、金錢等投入而產(chǎn)生一種「準財產(chǎn)權」(quasi-property right),從而可以基于反不正當競爭法禁止他人不當盜用。
根據(jù)國內(nèi)外相關司法判例,不當獲取與利用數(shù)據(jù)主要有兩種方式:一是未經(jīng)許可或超出許可,采取侵入的方式獲取非公開數(shù)據(jù),通常表現(xiàn)為侵入服務器、破解或規(guī)避技術措施或者使用他人ID、密碼等;二是采取爬蟲等手段復制、抓取數(shù)據(jù),一般針對公開數(shù)據(jù)。根據(jù)前述判例,法院在認定這些行為的不正當性時一般采取兩個測試標準:一是實質替代標準,即將獲取的數(shù)據(jù)用于足以產(chǎn)生替代效果的競爭性產(chǎn)品、服務,此標準主要體現(xiàn)在大眾點評系列案件中。二是正當商業(yè)利益標準,其出發(fā)點是企業(yè)對其投入勞動搜集、獲取、加工、整理、生成的數(shù)據(jù)和數(shù)據(jù)產(chǎn)品享有競爭法上的財產(chǎn)性利益,他人未經(jīng)授權予以利用具有不正當性。例如,在奮韓網(wǎng)訴58同城案中,法院認定58同城網(wǎng)站偽裝個人名義在網(wǎng)站上發(fā)布復制于奮韓網(wǎng)的侵權信息,未付出相應勞動即將他人成果據(jù)為己有,其行為掠奪了奮韓網(wǎng)流量、影響經(jīng)營利益,嚴重損害了韓華公司的合法權益,違背誠實信用原則及公認的商業(yè)道德,構成不正當競爭。
其二,人工智能治理方面,考慮采取包容審慎、靈活有彈性的規(guī)制方式。一方面,需要為自動駕駛汽車等人工智能新事物革除既有的監(jiān)管法律政策障礙,例如關于駕駛人的法律要求、高速公路測試限制等,避免過時的法律要求阻礙人工智能創(chuàng)新發(fā)展。因為隨著人工智能技術持續(xù)滲透到各行各業(yè),帶來新的產(chǎn)品和服務,未來新事物與舊制度的沖突會越來越多,呼吁監(jiān)管法律政策的革新和創(chuàng)新。另一方面,由于技術以及商業(yè)模式快速發(fā)展和迭代,草率的立法不可能期待會產(chǎn)生正面的效果,而且成文或專門的立法恐難跟上技術步伐,故應避免嚴格、細致的法律要求,而是可以采取事后監(jiān)管、追責或者通過出臺標準、行業(yè)公約、倫理框架、最佳實踐、技術指南等「軟法」性質的規(guī)范來調整人工智能的發(fā)展應用,支持行業(yè)自律。這意味著敏捷靈活的政策路徑,例如中國國家新一代人工智能治理專業(yè)委員會6月17日發(fā)布的《新一代人工智能治理原則——發(fā)展負責任的人工智能》也提出了敏捷治理的原則。
更進一步,作為對技術應用的「軟法」規(guī)制,可以通過科技倫理來對科技行業(yè)的狹隘的技術向度和利益局限進行糾偏和矯正。所以需要通過預警性思考、廣泛的社會參與和多學科評估來充分討論可能存在的風險和危害,制定出切實可行的指導方針和倫理準則來引導、規(guī)范人工智能研發(fā)應用,以更好地應對人工智能應用可能引發(fā)的社會治理危機。
其三,算法透明與責任方面,應根據(jù)人工智能技術特征和復雜性追求有意義的透明。具體而言,技術透明不是對算法的每一個步驟、算法的技術原理和實現(xiàn)細節(jié)進行解釋,簡單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術安全應用。考慮到AI的技術特征,理解AI系統(tǒng)整體是異常困難的,對理解AI作出的某個特定決策也收效甚微。所以,對于現(xiàn)代AI系統(tǒng),通過解釋某個結果如何得出而實現(xiàn)透明將面臨巨大的技術挑戰(zhàn),也會極大限制AI的應用;相反,在AI系統(tǒng)的行為和決策上實現(xiàn)有效透明將更可取,也能提供顯著的效益。例如,考慮到人工智能的技術特征,GDPR并沒有要求對特定自動化決策進行解釋,而僅要求提供關于內(nèi)在邏輯的有意義的信息,并解釋自動化決策的重要性和預想的后果。在具體落地層面,根據(jù)歐盟議會的《算法責任與透明治理框架》,對于政府和公共部門使用的算法系統(tǒng),可考慮建立「算法影響評估」(AIA)機制;但不宜針對商業(yè)領域的所有算法系統(tǒng)應用都建立算法影響評估機制,因為這將給企業(yè)帶來不成比例的財務和管理負擔,相反可考慮建立分級監(jiān)管機制,即對于具有與政府和公共部門的算法系統(tǒng)應用相似的重大影響的商業(yè)算法系統(tǒng),可以考慮采取AIA機制,而對于其他商業(yè)算法系統(tǒng),則采取事后追究法律責任的機制。
科技共同體承擔倫理責任,踐行科技向善
華裔AI科學家李飛飛在推動成立「斯坦福以人為本的人工智能研究院」(Stanford Institute for Human-Centered Artificial Intelligence)時表示,現(xiàn)在迫切需要讓倫理成為人工智能研究與發(fā)展的根本組成部分。顯然,在當前的人工智能技術背景下,我們比歷史上任何時候都更加需要注重技術與倫理的平衡。因為一方面技術意味著速度和效率,應發(fā)揮好技術的無限潛力,善用技術追求效率,創(chuàng)造社會和經(jīng)濟效益。另一方面,人性意味著深度和價值,要追求人性,維護人類價值和自我實現(xiàn),避免技術發(fā)展和應用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準繩的「技術算法」和以倫理為準繩的「人性算法」之間實現(xiàn)平衡,才能確保「科技向善」。
因此,企業(yè)不能只顧財務表現(xiàn),只追求經(jīng)濟利益,還必須肩負社會責任,追求社會效益,服務于好的社會目的和社會福祉,給社會帶來積極貢獻,實現(xiàn)利益與價值的統(tǒng)一。在這方面,國內(nèi)外的科技公司開始主動承擔倫理責任,一方面注重技術應用的廣泛社會影響,另一方面積極采取措施避免技術被濫用和惡用。例如、谷歌、微軟等都提出了其研發(fā)和應用人工智能所要遵循的倫理原則;DeepMind成立了專門的倫理與社會部門,在技術研發(fā)投入之外,積極應對人工智能技術可能帶來的倫理與社會問題;此外,技術倫理委員會日益受到科技行業(yè)的青睞,科技公司開始采取多學科評估的方式來把脈、約束人工智能研發(fā)應用。
在國內(nèi),以騰訊為例,自2018年1月在國內(nèi)首次提出「科技向善」以來,騰訊已將「科技向善」作為新的愿景與使命,并積極踐行「科技向善」理念,例如將人工智能應用于醫(yī)療健康領域,致力于打造「救命的AI」;將計算機視覺技術應用于失蹤人口尋找,協(xié)助警方打拐尋人,包括基于「跨年領人臉識別」助力警方尋回被拐十年兒童,這在人工智能之前依靠人力幾乎是不可能實現(xiàn)的;此外,發(fā)起FEW項目,將人工智能應用于食物、能源和水資源(FEW),致力于解決人類所面臨的最大挑戰(zhàn)。此外,在今年3月提交的建議案《關于加強科技倫理建設 踐行科技向善理念的建議》中,全國人大代表、騰訊董事會主席兼首席執(zhí)行官馬化騰呼吁在全社會、全行業(yè)積極倡導「科技向善」「負責任創(chuàng)新」「創(chuàng)新與倫理并重」等理念,并建議加強科技倫理的制度化建設,加強科技倫理的教育宣傳。
最后作為總結,現(xiàn)代數(shù)字技術與經(jīng)濟社會以異乎尋常的速度整合和相互建構,但其高度的專業(yè)化、知識化和技術化使圈外人很難對其中的風險和不確定性有準確的認知和判斷,沒有來自科技共同體內(nèi)部的風險預警和自我反思,任何一種社會治理模式都很難奏效。因此只有通過科技倫理教育宣傳增進科研人員和社會公眾在倫理上的自覺,使其不僅僅考慮狹隘的經(jīng)濟利益,而且對技術發(fā)展應用的潛在影響及其防范進行反思和進行預警性思考(precautionary thinking),才有可能通過廣泛社會參與和跨學科研究評估的方式來實現(xiàn)對人工智能前沿技術的良好治理。
評論
查看更多