2020年8月29日,埃隆馬斯克(Elon Musk)在加州弗里蒙特舉行了一場發布會,正式向全世界展示了自己的腦機科學公司Neuralink對豬進行腦機接口技術的成果,該芯片可以實時監測到小豬的腦電信號,遺憾的是我們還無法知道小豬在想什么,但這項技術所揭示的未來太令人期待了,這則報道迅速轟動世界也是人們內心偏好的真實反映,它重新激發了人們對于腦機接口技術(pain-computer interface,BCI)的熱情。
所謂的腦機接口,通俗來說就是在人腦(或動物)與外部設備之間建立直接的聯系,由此形成信號的接收與發送,并實現相應的功能。按照腦機接入的方式可以分為兩類:侵入式腦機接口(馬斯克這次演示的就屬于此類)與非侵入式腦機接口。前者的優點在于獲得的腦電信號更好,便于分析與處理,而后者收集到的信號質量較差、容易受到噪聲干擾。因此,侵入式腦機接口是目前國際學術研究的前沿。腦機接口已經實實在在地出現在我們的面前,隨著植入頭腦的各類芯片與傳感器的日益微型化、功能集成化、加上近年來人類對大腦功能了解的深入、腦機融合的日趨完善、創口的微小化、以及電池功能的增強,腦機接口技術取得重大突破絕非幻想,而是一種可以預見得到的發展趨勢。
人們之所以對腦機接口技術的發展趨勢持樂觀態度,是因為社會上對于腦機接口技術有著巨大的市場需求,它所擁有的潛在商業價值是推動該項技術發展的重要推手。僅就目前可以想象得到應用來看,腦機接口市場前景廣闊,下述三種情形是最有可能優先發展的領域,如果該項技術成熟,那么日益困擾老年人的老年癡呆癥現象將得到極大緩解;修復殘疾患者的大腦缺陷,從而實現部分身體功能的恢復,以及可以實現治療抑郁等精神疾?。桓猩跽呖梢詫崿F神經增強功能,如大腦的計算速度與記憶能力都是遠超人類的,如果未來植入的芯片與大腦更好地兼容,那么人類的計算速度與記憶能力都將得到根本性的改變,制造超人不再是夢想。上述三種情形在科學上幾乎都有成功案例。如對殘疾人來說,通過意念實現部分身體功能,這類實驗成功的很多,如已經被廣泛采用的腦深部電刺激技術,這就是大名鼎鼎的“腦起搏器”,其原理就是通過植入腦部的電極向大腦的特定部位發送電脈沖,這一技術主要用于治療帕金森病和強迫性精神障礙等疾病,已經被美國食品藥品監督管理局批準。
再比如,美國著名的視覺腦機接口專家都博勒(William Dobelle,1941-2004),他的皮層視覺腦機接口主要用于后天失明的病人。1978年,都博勒在一位男性盲人杰瑞(Jerry)的視覺皮層植入了68個電極的陣列,并成功制造了光幻視(Phosphene)。植入后患者能看到清晰度以及更新率較低的圖像。如果說都博勒的工作是40年前技術的體現,那么現在這方面的研究也有了最新進展,失明患者看到的視野比以前要好許多,有理由預測,隨著一些關鍵難題的突破,視覺腦機接口將惠及更多的失明患者。
還有科學家把人造海馬體植入到因海馬體受損而喪失記憶形成功能的老鼠腦中,并成功讓老鼠恢復了部分記憶形成功能(伯杰等人)。基于上述案例,我們大體上可以清晰判斷出腦機接口技術正在向日常生活領域擴散,一旦有技術上的突破,這種趨勢將無可逆轉。
問題是腦機接口技術雖然具有如此廣闊的應用前景,但也不可避免地帶來某些人類從來沒有遭遇過的倫理困境。對此,瑞典數學家奧勒 哈格斯特姆曾指出,腦機接口技術帶來的兩種常見的倫理問題是:隱私和認知能力的“軍備競賽”。關于隱私問題,這已經成為高科技時代具有普遍性的倫理困境,每一次技術升級,都會導致隱私狀態隨之發生改變,從人類歷史上看,從農業社會、工業社會到后工業社會,人類的隱私范圍是逐漸縮小的??傮w而言,技術進步導致公共領域擴張,而私人領域日益被技術侵蝕,隱私也隨之日益變小,人變成了透明人,隱私的消失也就意味著個人自由的萎縮。對于腦機接口技術而言,這種情況尤為緊迫。一旦通過大腦植入設備可以輕易獲取我們大腦內的電信號,其內容完全可以被破譯出來,這就導致有很多個人或機構想要獲取這些信息,從而利用這些信息實施對我們基于特殊目的的操控,如商家的促銷、管理者對于雇員的監視、或者國家對于全民的監視等。這種過程是漸進的,在溫水煮青蛙效應中,人類的隱私一點點失去,我們不知道這是否就是人類為技術進步所必須付出的代價。上述擔憂絕非杞人憂天,據資料介紹,1999年斯坦利(Garrett Stanley,現在埃默里大學Emory University任職)教授,在哈佛大學通過解碼貓的丘腦外側膝狀體內的神經元放電信息來重建視覺圖像。他們記錄了177個神經元的脈沖列,使用濾波的方法重建了向貓播放的八段視頻,從重建的結果中可以看到可辨認的物體和場景。同理,利用這套技術也可以重建人類的視覺內容??吹竭@類實驗,你還認為腦機接口所引發的隱私問題還很遙遠嗎?更何況遙遠并不意味著不可能。
再來說說由腦機接口所帶來的認知能力的“軍備競賽”問題。由于電腦在精確計算、數據傳輸與記憶方面比人類的表現強很多,那么,隨著技術的發展與完善,總會有一些人嘗試在大腦中植入一些芯片,使自己的能力與計算機的能力進行整合,這將造就認知超人,試問我們正常人再怎么努力也無法達到電腦所具有的記憶能力,這種事情一旦開始就無法停下來,從而陷入“軍備競賽”的游戲框架下,因為沒有人敢于停下來,否則他將被淘汰。問題是這種神經增強完全打破了人類由自然選擇以來所形成的所有關于公平的規范,此時優秀將不再是對于人的能力的褒獎,而是對他植入大腦的設備的褒獎?那么人類的價值又何在呢?也許影響更為深遠的是,腦機接口技術的軍備競賽式濫用,還會造成整個社會分層的固化,畢竟任何新技術在早期都是昂貴的,其最初的使用者大多是有錢有勢者,這種現實決定了腦機接口技術會更深層次地造成社會的固化,從而使社會秩序遭到毀滅性的破壞。
以腦機接口技術為標志的人工智能發展引發出一系列我們目前尚無法完全預料到的后果,它事關人類的未來,因此,必須從倫理層面對于它的發展進行有目的的約束。2020年上半年,美國五角大樓正式公布人工智能的五大倫理原則,即負責、公平、可追蹤、可靠和可控。這個說法作為倫理原則沒有錯,但是如何在實踐中落實,仍存在很多不明確之處,為此,我們需要構建一套全流程的倫理規范機制,把倫理責任分解,采取分布式倫理,即人工智能從制造到應用每個環節都承擔相應的倫理責任,只有這樣,人工智能才能最大限度上既增進社會的福祉,又把其潛在的風險最小化。目前的調查與研究顯示,在新技術發展的進程中,每個人的責任都是有限的,但是其后果卻是嚴重的。由于人類對于微小的惡的不敏感性,導致最初對于風險呈現出整體的麻木狀態,到后來小風險的累積就成為高科技面臨的嚴重倫理問題。這已成為一種風險擴散的普遍模式,為此,我們需要構建一個新的倫理責任體系。
由于人工智能本身的復雜性,以及未來發展的不確定性,導致人工智能責任的明確歸屬變得更為困難和模糊,如何防范其可能帶來的風險也就變得越發困難,甚至會出現無法追責的倫理缺席現象。因此,傳統的針對單一主體的倫理規范原則開始失靈,為此我們必須構建一種新的倫理約束機制,從而實現對人工智能從前端、中端到末端全覆蓋的有效倫理風險防范機制。為此,我們借用英國倫理學家盧恰諾 弗洛里迪提出的分布式道德概念構建人工智能的倫理風險防范框架示意圖,根據這張框架圖我們可以把人工智能倫理風險防范分為三部分:首先,是前端的AI設計者的倫理責任(責任1,簡稱R1),其次,是中端使用者的倫理責任(責任2 ,簡稱R2),第三,是末端受眾的責任(責任3,簡稱R3)。
我們不妨假設人工智能所引發的倫理風險總量用公式表示為:ΣR=R1+R2+R3,其中,R1≥R2≥R3。這三段式倫理分布的規約機制分別是:1、對于設計者而言,他有多種動機(從善、中性到惡的選擇),這一部分倫理風險要通過具有強制性的政策手段(嚴重違規就上升到法律規約)來遏制,所有負責任創新都是從動機上防范倫理風險的發生;2、對于使用者而言,他要為自己的使用承擔相應的倫理責任;3、受眾作為社會成員,有監督人工智能使用的間接責任(個體責任最小,但是由于公眾數量龐大,無數微小的努力匯聚起來就是強大的倫理風險防范力量),2與3的激活需要利用科學文化的規訓作用,在高科技時代沒有人是旁觀者,只有倫理責任的全覆蓋,高科技的倫理風險才會被最大限度上遏制,具體內涵見下圖:
責任編輯:YYX
-
人工智能
+關注
關注
1792文章
47425瀏覽量
238955 -
腦機接口
+關注
關注
9文章
375瀏覽量
21562
發布評論請先 登錄
相關推薦
評論