希臘、匈牙利、拉脫維亞的安全機構正在開展一個試點計劃,利用基于人工智能技術的「虛擬警察」來判斷出入境旅客是否「心懷不軌」。但記者測試后卻發現,這個「虛擬警察」好像很容易「謊報軍情」。
測試「虛擬警察」的記者來自美國調查新聞網站 The Intercept,他們在今年年初通過塞爾維亞-匈牙利邊境時展開了測試。記者誠實地回答了所有問題,但最后卻被「虛擬警察」判斷為說謊,在 16 道測試題中答錯了 4 道,得分為 48 分(滿分 100)。評估記者測謊結果的匈牙利警察說,系統建議她接受進一步的檢查,盡管這些檢查后來并沒有進行。
這個「虛擬警察」被稱為 Silent Talker,它是一個測謊儀,用于加強歐洲的邊境管理,使旅客在獲準通過海關前接受測謊儀測試。
具體流程如下:
在抵達機場之前,旅客使用自己的電腦登錄一個網站,上傳護照照片,然后出現一位身穿藍色海軍制服的棕發虛擬警察。
這位虛擬警察會提出問題,比如「您姓什么?」、「您的國籍以及旅行目的是什么?」。旅客需要回答此類問題以及虛擬警察提出的其他問題,然后它會使用電腦攝像頭掃描面部和眼球運動,以搜尋說謊的跡象。
在與虛擬警察交互的最后,系統提供給旅客一個二維碼,旅客需要在抵達邊境之時向警衛出示此二維碼。然后警衛使用手持平板設備掃描二維碼,提取指紋,重新審核虛擬警察捕捉到的面部圖像,以查看是否與護照一致。警衛平板設備上會顯示分數(總分 100 分),從而獲知虛擬警察對旅客是否說謊的判斷。
如果旅客被判定試圖欺騙系統,則將其分類為「高度危險」或「中度危險」,這將取決于該旅客被發現問題回答錯誤的次數。
那些被認定危險的旅客可能會被拒絕入關,盡管在大多數情況下,他們無法知道虛擬警察測試在決策中是否起到了作用。此外,虛擬警察的測試結果通常不會透露給旅客。
虛擬警察的前世今生
虛擬警察是 iBorderCtrl 項目的產物,該項目的參與者包括匈牙利、拉脫維亞和希臘的安全機構。目前,測謊儀測試是自愿的,實驗計劃也將于 8 月結束。如果該計劃取得成功,歐盟其他國家可能也會展開相應項目。該項目的發展潛力也在歐盟大陸引起了爭議,媒體爭相報道。
目前,歐盟的一個研究計劃已經向 iBorderCtrl 項目投入了 450 萬歐元,并由 13 個合作伙伴組成的財團進行管理,包括希臘安全研究中心、德國漢諾威萊布尼茨大學以及匈牙利 BioSec、西班牙 Everis 和波蘭 JAS 等技術與安全公司。
IBorderCtrl 測謊系統是由英國曼徹斯特城市大學的研究人員開發出來的,他們表示,該技術可以在人們在電腦上回答問題時捕捉到「微姿態」,從而對面部表情、眼球運動和姿勢進行分析。此外,他們還認為這種測謊系統代表了邊境安全的未來發展方向。
在 2018 年 6 月發表的一篇論文中,他們就表示這種虛擬警察「非常適合在入境海關對話中檢測出旅客是否說謊,因為它能夠有效地捕捉到旅客回話中涵蓋的信息。」
論文地址:https://www.researchgate.net/publication/328399576_Intelligent_Deception_Detection_through_Machine_Based_Interviewing
然而,一些學者對 IBorderCtrl 測謊系統的價值提出了質疑,認為它依賴偽科學來判定旅客是否誠實。
質疑聲不斷的測謊系統
測謊依據站不住腳
英國德比大學(University of Derby)刑事偵察學教授 Ray Bull 曾協助英國警方提升面談技巧,精通測謊技術。他認為,iBorderCtrl 項目是「不可信的」,因為沒有證據表明監測人們的面部微姿態是判斷他們是否說謊的準確方法。
Bull 表示:「iBorderCtrl 測謊系統的研發人員在欺騙大家,他們說自己這種技術非常有效,但其實浪費了大量金錢。該技術對人們在誠實和欺騙時的行為產生了根本性誤解。」
技術不夠透明
IBorderCtrl 是一種輔助預篩查流程的技術。但是主張透明度的活動人士表示,在獲取更多相關技術信息(如決策所使用的算法)之前不應推廣該項目。
今年早些時候,米蘭赫爾墨斯透明度與數字人權中心(Milan-based Hermes Center for Transparency and Digital Human Rights)的研究人員利用信息自由法獲取了 IBorderCtrl 測謊系統的內部文件,包含數百頁內容。但是,文件內容遭到了大量的修改,并且很多頁面完全被涂抹掉了。
赫爾墨斯中心的研究人員 Riccardo Coluccini 表示:「通過隱瞞處理這些問題的文件來試圖抑制對該系統的討論,這種做法真是太可怕了。了解技術背后的資助流程非常有必要。這些內部文件里到底寫了些什么?這些財團又如何證明使用這種偽科學技術的合理性呢?」
系統存在種族偏見
曼徹斯特的研究人員也對 iBorderCtrl 系統進行了研究,他們測試了 32 個人,結果顯示該系統的準確率僅為 75%。但他們注意到,參與測試的人員在種族和性別上分布不均衡,其中亞裔或阿拉伯裔參與者人數少于歐洲白人,并且女性少于男性。
歐盟數據保護監管機構負責人 Giovanni Buttarelli 對此表示擔憂,認為 iBorderCtrl 系統可能會根據人們的種族出身而歧視他們。
iBorderCtrl 系統發言人拒絕回答有關種族歧視的問題。該項目的一個網站承認「該測謊系統將影響到旅客的基本權利,但目前測試是自愿的,因此不會出現歧視、人格尊嚴等問題。」
學界對情感分析工具可靠性的質疑
用 AI 進行情感識別是該領域的一大研究熱點,但正如上述測謊儀所揭露的一樣,這項技術好像并沒有那么靠譜。
近日,來自美國東北大學心理學系、加州理工學院人文社會科學院的研究者對利用 AI 技術進行情感識別的可靠性提出了質疑。他們對憤怒、厭惡、恐懼、快樂、悲傷和驚訝等六種最流行的情緒類別進行了研究,指出現有的情感識別工具用于判斷情感類型的依據還太過簡單、寬泛,不適合大規模利用。
論文:Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements
論文鏈接:https://journals.sagepub.com/eprint/SAUES8UM69EN8TSMUGF9/full#
這份研究表明,人類情感的表達方式具有多樣性,因此僅僅根據一組面部表情來推斷情感類型很難得出可靠的結論。「數據表明,人們在生氣時只有不到 30% 的時間會皺眉,」其中一位研究者表示,「因此皺眉并不等于生氣,只是生氣的一種表現。」也就是說,人們在超過 70% 的情況下生氣是不皺眉的,更重要的是,人們在不生氣時反而經常皺眉。
此外,不同文化背景、情境下的人表達情感的方式,甚至不同的人表達同一情緒的方式也不盡相同。而且,相似的面部表情可能會表達多種情感。
當然,這篇論文并沒有否認典型面部表情的存在,而是反對利用面部表情進行「可靠」的情感識別。
之前很多研究認為某些面部表情與情緒之間存在很強的關聯,但它們往往存在方法上的缺陷。例如,這些研究以實驗參與者做出的夸張表情作為某種情感表現的研究起點。然后,他們要求參與測試的對象對這些表情打上標簽,由于可選擇的表情范圍非常有限,所以迫使他們達成某種共識。
研究者表示,人類理解情緒的方式比這要復雜得多。「我們生氣的時候可能會大吼大叫,可能會哭,有時還會大笑,或者只是靜靜地思考如何報復敵人」。
然而,那些銷售情感分析工具的公司卻很少考慮這些微妙之處。以微軟的算法為例,該公司表示,他們的算法可以「根據通用的面部表情識別出 8 種核心情感狀態……」這項研究反駁的正是這種論調。
當然,這種批評也不是最近才提出的。論文作者及其他研究者早在數年前就開始發出警告,稱這些情感識別模型過于簡單。
面對這些質疑,那些售賣情感分析工具的公司表示,他們的分析依據的不只是面部表情,還有很多其他信號。目前,一些比較領先的公司也嘗試在情感分析中加入語音、步態、眼動等信號,但難點在于他們是如何平衡這些信號。
這種不成熟的情感分析工具的使用也很容易被人利用。就像我們知道點贊某些圖片會影響我們的廣告推送一樣,我們也可以根據對這些工具的了解而刻意做出某種表情。
研究者表示,他們的研究最想表達的一點是,我們需要以一種更加復雜的方式來識別情感。情感的表達非常多樣、復雜而且有一定的語境。她將這種思維的轉變與達爾文的研究進行類比,「達爾文認識到,一個物種的生物學范疇并不是固定不變的,而是由高度變化的個體組成的。」研究者表示,「情感領域也是如此。」
-
測謊儀
+關注
關注
0文章
11瀏覽量
7787 -
人工智能技術
+關注
關注
2文章
216瀏覽量
10546
原文標題:歐盟邊檢AI測謊儀上線了,第一天就差點讓記者進了小黑屋
文章出處:【微信號:smartman163,微信公眾號:網易智能】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論