假設一輛自動駕駛的汽車正在駛向一座橋,坡度很合適,但是橋面上有冰,還有一輛翻車的公交車擋住了車道,公交車里全是小孩。
孩子們正在通過窗戶撤離,并在人行道四處打轉。即使是反應速度比人腦快很多的自動駕駛汽車也來不及停下來。車子向一側掉頭,可能會從橋上掉下去,轉向另一側則會撞入一撞土墻,無論哪種情況很可能造成乘客的傷亡。這輛車是完全自主的,即使時間充足,它也沒有人的自控力。這種情況下,它應該怎么做。
這是一個著名倫理道德思想實驗“手推車問題”的版本。大眾的呼聲是站在一個功利主義的立場的:汽車應該選擇挽救大多數人,即使是以自己車上的乘客為代價。
但如果它是你的車呢?如果車上坐的都是你的家人呢?你會購買一輛明知道可能會殺死你和你的親人以拯救別人的汽車嗎?至少梅賽德斯—奔馳認為你不會,并且已經采取了自動駕駛汽車保護乘客的立場。對于司機來說,這種回應是有道理的。沒人會期望有人為了救人故意把車開進墻。但是自動駕駛汽車卻無法有這種感覺。作為公民,我們是否應該和自動駕駛汽車共享道路,面臨著它可能殺死路人以保護乘客的威脅。如果這種問題是來自于汽車傳感器或編程中的錯誤,而不是天氣或其所能控制之外的其他力量,那么答案會有所不同嗎?
自動駕駛困境是智能系統的出現引發的嚴峻的公共政策問題之一,但它絕不是唯一的問題。芯片以及系統的設計師和制造商很難控制高級自動化對勞動市場或第三方數據收集的法律環境的影響。然而,在多數情況下,系統設計師要么執行政府法規,在沒有相關法規的情況下,就需要制定或為固有的道德和政策決定進行辯解。就自動駕駛汽車而言,美國國家公路交通安全管理局已經為汽車制造商和監管機構的實踐提出了指導方針,在制定最終規則前允許技術發展。制造商的行為必將在未來塑造監管環境方面發揮重要作用。
更多的智慧為現實世界帶來更多后果
這些困境在某種程度上意味著智能系統日益復雜化。沒有人真正關心音樂推薦引擎是否把Duke Ellington和Robillard混為一談。然而,隨著系統功能變得更強大,從推薦癌癥治療到確定哪些刑事被告有資格獲得假釋或保釋,他們的行為可能具有真實世界的后果。
因為任何數據收集都是有限的,電子前沿基金會首席計算機科學家Peter Eckersley認為,忽略變量偏差可能是無法避免的。他說,這絕對是正在使用的算法的一個功能,而不僅僅是訓練集的潛在偏差。根據美國公民自由聯盟高級政策分析師杰伊斯坦利的觀點,至少有可能存在偏倚的數據和偏倚的算法,因此必須以透明的方式部署具有公共政策影響力的算法。政府官員,納稅人和受影響的人員需要能夠理解和挑戰算法決策。為了應對這些挑戰,設計師需要建立審計線索。滿足這一要求實際上困難得多;今天,智能體系通過其獲得“正確”結果的能力來判斷,但是給定結果的具體基礎可能并不明確。
機器和人類之間的接口存在一些潛在問題。如果機器學習系統是使用專家標記的數據進行訓練的,那么它很可能會將這些專家的偏見帶入自己的計算中。從交通站點到紐約時報的訃告頁面,我們有充分的理由懷疑人為生成的數據集存在偏差。另一方面,如果系統僅僅被賦予一個數據集并被告知尋找模式,那么它很容易被忽略變量偏差。該系統只能從它實際擁有的數據中得出結論,這些數據是數據集創建者認為很重要的數據。這些變量之間的相關性可能很有用,但不一定會顯示任何有關潛在原因的信息。
斯坦利承認,在執法和政府項目管理等情況下,對智能系統的使用態度各有不同。決策者存在偏見,即使是一種不太完美的算法也可能是一種改進。另一方面,有證據表明決策者會使用算法結果來證明和他們認同的決定,而忽略他們不認同的建議。
保證數據集和結論
審計跟蹤對維護系統的完整性和安全性也至關重要。隨著智能系統通過人類進行更敏感的任務,惡意破壞或者利用他們的動機將會增加。如果一個面部識別系統決定哪些航空公司的乘客將受到更嚴格的檢查,那么有能力訪問訓練數據庫的人可以使特定的個人或特定特征或多或少地引起注意。
訓練數據庫的完整性在人類創建和維護大部分靜態數據集的應用程序中相對容易受到保護。目前的大多數應用都屬于這一類。然而,展望未來,許多物聯網應用涉及將來自不同來源的大量數據收集到中央存儲庫中,并自動進行分析。個人設備上的缺陷傳感器或惡意用戶是否可能損壞此類數據集?如果發現了非法設備,是否可以在不中斷其他設備的情況下鎖定系統?他可以清除所有數據嗎?大量數據泄露意味著企業需要投入更多精力來解決這些問題。
以最少的人為干預來提供強大的安全性需求,說明依賴于物理不可克隆功能的安全方案價值。例如,在去年的Semicon West Imec技術論壇上,Thomas Kallstenius提出了一個取決于MOS晶體管陣列擊穿特性的關鍵機制。 單個晶體管的擊穿是隨機的,因此陣列中的圖案既不可預測也不可克隆。它唯一標識獨立于所有者或安裝位置的設備。
邊緣計算是否安全?
在中央存儲庫中收集大型數據集也引發了重大的隱私問題, Facebook /劍橋Analytica丑聞也強調了這一點。正如馬里蘭大學的金哲金所說,公司有動力收集盡可能多的數據,因為他們的用戶愿意給他們,在未來某個時候這些數據會有用。
能夠訪問大量數據的公司具有明顯的市場優勢。谷歌的圖像識別和機器翻譯工具的優勢部分在于大量用戶使用它們,從而為Google提供穩定的數據流。Facebook是廣告商的寶貴平臺,因為數十億人希望與他們的朋友使用相同的網絡。
而濫用數據的后果由個人用戶承擔。大公司所面臨的風險包括身份盜用,信用卡欺詐以及欺詐性廣告。擁有更大數據庫的智能系統可能會潛在地對弱勢人群進行有針對性的攻擊,針對高速公路或電網的基礎設施攻擊等等。
用戶越來越意識到數據隱私問題,因為智能系統進入了越來越多地涉及隱私問題的應用。Alexa可以聽到一定范圍內發生的任何事情。 智能電表可以告訴你是否在家,甚至可以告訴你在那里做什么。更多消息靈通的用戶可能會要求更嚴格的隱私標準監管和實施,并且如果他們擔心它會被濫用或與不受信任的第三方共享,他們并不愿意共享數據。邊緣計算已經可以降低功耗并縮短響應時間,可以通過將敏感數據留在用戶手中來幫助緩解這些擔憂。
然而中央計算提供了真正的好處。具有更多數據的算法可以提供更準確的結果。 更大的數據樣本可以幫助減少偏差。可以相互通信的自動車輛可以更有效地共享道路信息。在每個應用程序中,系統設計人員需要平衡本地和集中式計算的優點和缺點,以實現性能優化和用戶信任。
為AI制定法規
政府監管總是落后于技術發展是一個真理。歐盟的“通用數據保護條例”在2016年頒布,那是進入社交媒體時代第十年。在美國,參議院第2217號法案“人工智能法令的未來”是聯邦立法中處理人工智能影響的首批法案之一,如果僅通過建立研究委員會的非常有限的程序。華盛頓參議員瑪麗亞坎特韋爾,贊助商之一,指出政策制定者還不知道AI技術將如何使用。 各國正在規范在其境內部署自動駕駛汽車,但幾乎無法控制洲際數據流。
未來幾年可能為系統設計人員和公民塑造人工智能的未來提供了最好的機會。
-
數據集
+關注
關注
4文章
1208瀏覽量
24726 -
自動駕駛
+關注
關注
784文章
13839瀏覽量
166555 -
邊緣計算
+關注
關注
22文章
3097瀏覽量
49069
原文標題:AI的未來發展之路
文章出處:【微信號:SSDFans,微信公眾號:SSDFans】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論