未來,人工智能的發展將充滿各種不確定性。算法歧視、數據濫用和人類失業等問題或將接踵而至,給人類社會帶來前所未有的挑戰。如何避免人工智能發展帶來的重大風險,更好地利用人工智能技術造福社會?只有讓倫理先行,給“無所不能”的人工智能加以“緊箍咒”,才能使人工智能前往正確的方向,成為幫助人類探索未來的得力助手。
“人工智能倫理”緣何重要?
科學技術是中性的,可以用于造福人類,也可以用于為害人類。隨著科學技術的迅猛發展,其威力越大,可能帶來的惡果也越嚴重,這種影響是全球性的和全人類的。歷史上每一項重大技術發明,如電力、蒸汽機、互聯網等,都會給社會帶來新的風險和挑戰,諸如失業、隱私、安全等問題。科技進步不止一次地帶來了倫理的難題,科技究竟會帶給人類什么?是進步?是毀滅?這是一個永遠都爭論不清的問題。
馬克思在第二次工業革命之開端曾指出,機器體系不同于一般工具,是“人手創造出來的人腦器官”,既是一種異己的強大的機體,也受控于全社會所共同積累和分享的“普遍智能”。在弱人工智能時代,人類對于機器的喜明顯大于憂,機器可以搬運重物,機器可以無人駕駛,機器可以快速計算……隨著技術的高歌猛進,人工智能逐步可以實現某種可計算的感知、認知和行為,在功能上模擬人的智能和行動,表現出對人類思維這一區別人類和其他生物的核心器官的替代。人工智能不再是單純的工具,開始不斷模糊物理世界和個人的界限,刷新人的認知和社會關系,延伸出復雜的倫理、法律和安全問題。
早在70多年前,阿西莫夫在短篇小說《環舞》(1942年)中提出通過內置的“機器倫理調節器”使機器人服從道德律令,他構想出機器人三定律:
● 第一定律,機器人不得傷害人類或坐視人類受到傷害;
● 第二定律,在與第一定律不相沖突的情況下,機器人必須服從人類的命令;
● 第三定律,在不違背第一與第二定律的前提下,機器人有自我保護的義務。
后來,為了克服第一定律的局限性,他還提出了優先級更高的機器人第零定律:機器人不得危害人類整體或坐視人類整體受到危害。
回到人工智能的現實發展,隨著無人機、自動駕駛、工業機器人、致命性自主武器等應用的發展,涌現出大量新的社會問題。然而,人工智能的未來發展還有著很多可能性和不確定性,法律規制因具有一定的滯后性和保守性,難以實現對人工智能的有效監管。只有建立完善的人工智能倫理規范,超前給人工智能加以倫理道德的“緊箍咒”,才能更多地獲得人工智能紅利,讓技術造福人類。當下科學界的主流觀點是機器不能不講道德,否則,這個世界將無法想象。按麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授的說法是,“機器越自由,就越需要道德準則。”
世界各國正積極推出人工智能倫理規則
英國哲學家大衛·科林格里奇(David Collingridge)在《技術的社會控制》一書中提到:一項技術的社會后果不能在技術生命的早期被預料到。然而,當不希望的后果被發現時,技術卻往往已經成為整個經濟和社會結構的一部分,以至于對它的控制十分困難。這就是控制的困境,也被稱為“科林格里奇困境”。
要避免人工智能技術創新治理陷入“科林格里奇困境”,就必須預先研判,提前布局。盡管人們對于人工智能未來將走向何方眾說紛紜,但對人工智能加以倫理規制,已經成為一個基本共識。
2016年6月6日,日本人工智能學會倫理委員起草了面向研究人員的倫理綱要草案。草案中提出了AI給人類社會帶來危害的可能性,要求采取措施消除威脅和防止惡意利用”。草案指出:人工智能具有廣泛性和潛在的獨立性,可能在研發人員未預知的領域給人類帶來影響,對人類社會和公共利益來說可能是有害的。草案提出警戒:“決不能使人類創造出來的東西,毀掉人類自己的幸福”。此外,草案中還指出,應消除AI對人類安全的威脅,針對其潛在的危險向社會敲響警鐘,并就防止惡意利用制定了相關條款。
2016年9月,英國標準行業協會發布業界首個關于機器人倫理設計的公開指標——《機器人和機器系統的倫理設計和應用指南》,旨在保證人類生產出來的智能機器人能夠融入人類社會的道德規范。
2016年9月,亞馬遜、谷歌、Facebook、微軟和IBM等五大科技巨頭宣布成立一家非盈利組織:人工智能合作組織(Partnership on AI, 全稱為:Partnership on Artificial Intelligence to Benefit People and Society),目標包括:一、為人工智能的研究提供示范,涉及的領域包括倫理、公平、和包容性;透明性、隱私性和共同使用性;人和AI系統之間的合作;以及相關技術的可靠性與魯棒性。二、從專業的角度促進公眾對人工智能的理解與科普,并定期分享人工智能領域的進展。三、為人工智能領域的研究人員提供一個可供討論和參與的開放式平臺,讓研究者們之間的溝通更簡單無阻。
2016年11月,美國電氣和電子工程師協會(IEEE)發布世界首個《人工智能道德準則設計草案(Ethically Aligned Design)》。希望借助該文件幫助科技行業打造能夠造福人類的AI自動化系統,改變道德倫理無需擔慮等想法。
2017 年 1 月,在加利福尼亞州阿西洛馬舉行的 Beneficial Al 會議上,近千名人工智能相關領域的專家,聯合簽署了著名的《阿西洛馬人工智能23條原則》。使未來人工智能的研究人員、科學家和立法者遵循,確保安全、倫理和有益。
2017年11月,為確保人工智能發展的未來仍然具有倫理和社會意識,美國電氣和電子工程師協會(IEEE)宣布了三項新的人工智能倫理標準:機器化系統、智能系統和自動系統的倫理推動標準、自動和半自動系統的故障安全設計標準、道德化的人工智能和自動系統的福祉衡量標準。
2018年4月25日,歐盟委員會發布《歐盟人工智能》文件,提出人工智能的歐盟道路。文件表示歐盟要竭力確保在人工智能領域有國際競爭力,讓所有歐盟國家都能跟上這場數字變革并以歐盟價值觀作為新技術的基礎。在歐洲價值觀的基礎上,歐盟委員會提出了發展人工智能的一種三管齊下的方法:增加公共和私人投資,為人工智能帶來的社會經濟變革做好準備,并建立起適當的道德和法律框架。
2018年4月,英國上議院人工智能特別委員會發布報告說,在發展和應用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項技術更好地造福人類。報告提出,應確立一個適用于不同領域的“人工智能準則”,其中主要包括5個方面:人工智能應為人類共同利益服務;人工智能應遵循可理解性和公平性原則;人工智能不應用于削弱個人、家庭乃至社區的數據權利或隱私;所有公民都應有權利接受相關教育,以便能在精神、情感和經濟上適應人工智能發展;人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。
2019年4月,歐盟委員會發布正式版的《可信賴AI的倫理準則(Ethics Guidelines for Trustworthy AI)》,提出了實現可信賴人工智能全生命周期的框架。根據官方解釋,“可信賴的人工智能”有兩個必要的組成部分:一是應尊重基本人權、規章制度、核心原則及價值觀;二是應在技術上安全可靠,避免因技術不足而造成無意的傷害。
人工智能倫理建設,中國應如何發力?
近年來,中國人工智能產業發展之迅猛,世界已經有目共睹。但中國境內關于人工智能倫理的討論,卻遠未形成氣候,與歐美甚至日韓都有明顯的差距。從長遠來看,人工智能倫理規則的缺失,必然會導致人工智能產品競爭力的下降,導致人工智能標準話語權的喪失。建設基于全球價值觀、符合中國特色的人工智能倫理規范,已經刻不容緩。中國社會的現代化、智能化轉型,除了要經歷人工智能等先進技術的洗禮之外,更需要經受現代倫理的心靈熏陶。
一是要從戰略上高度重視前沿科技的倫理監管。與人工智能類似,機器人、基因編輯、大數據、3D打印和“納米技術”等前沿科技都可能會引發倫理道德危機,其中涉及的數據濫用、個人隱私和歧視問題,都具有一定的相似性。這些倫理危機如不能提前預防、有效化解,對前沿技術的發展將造成嚴重阻礙。對此,我應從戰略上高度重視前沿技術的倫理監管,統籌相關部門資源,積極探索契合前沿科技發展的倫理準則。
二是促進社會各界人士共同參與人工智能倫理規則制定。為避免人工智能發展過程中的倫理風險,人工智能學術界和產業界,以及倫理、哲學、法律等社會學科各界應參與原則制定并緊密合作。現有人工智能倫理的研究,常常缺少產業界資深研發人員的參與,或導致人工智能倫理規則難以落地。只有社會各界人士的廣泛參與,人工智能倫理規則才能更具普適性、可操作性,才能發揮更大的社會價值。
三是積極開展對外交流,凝聚全球共識。隨著全球文化和倫理價值的日益多元化,人工智能技術的倫理標準和價值需要達成國際性共識。目前,人工智能倫理研究多由美歐來主導,缺少來自發展中國家的聲音,也缺乏來自東方文化的聲音。對此,我應積極開展對外交流,凝聚全球共識,增強我國在人工智能標準制定上的話語權,搶占未來發展先機。
-
人工智能
+關注
關注
1791文章
47201瀏覽量
238271
原文標題:技經觀察 |?給人工智能加以“緊箍咒”:世界各國積極推出人工智能倫理規則
文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論