采用人工智能的社交媒體監控可能會讓某些人失去工作、影響大學錄取、租賃房屋等等——而且人們不會知道它是怎么發生的。
AirBnB公司希望在客戶租用其別墅之前了解其是否具有“馬基雅維利(狡詐)”個性。
根據其客戶在Facebook、Twitter和Instagram上發布的信息,AirBnB公司可能會用人工智能軟件來判斷租賃別墅的客戶是否值得信任。
他們將使人工智能系統失去社交性,運行算法并獲得結果。對于處于此過程另一端的人們來說,該過程將沒有透明度,沒有任何信息,也沒有上訴程序。
該公司擁有一項技術專利,該技術旨在通過分析潛在訪客的社交媒體活動來確定他們是否是可能損害房東的高風險客戶,從而對客戶的“個性”進行評分。
他們技術的最終產品是為AirBnB每個客戶分配“可信度評分”。據報道,這不僅將基于社交媒體活動,而且還將基于在線發現的其他數據,其中包括博客文章和法律記錄。
這項技術是由AirBnB公司三年前收購的Trooliy公司開發的。Trooly公司創建了一個基于人工智能的工具,旨在“預測可信任的關系和互動”,并將社交媒體作為一個數據源。
該軟件根據軟件識別出的感知“個性特征”來建立分數,包括一些可能預測到的特質(例如認真、開放、外向、隨和,還有一些怪異的特質——例如“自戀”和“狡詐”(有趣的是,該軟件還尋找客戶涉及民事訴訟的行為,這表明他們可能會基于對客戶可能提起訴訟行為進行預測)。
AirBnB公司尚未透露他們是否使用該軟件。
如果人們對此消息感到驚訝,震驚或不滿意,則就像大多數人一樣,他們不知道使用適用于社交媒體的人工智能來判斷人們(客戶、公民、員工和學生)的巨大且快速增長的做法。
AirBnB公司并不是掃描社交媒體來判斷個性或預測行為的唯一組織。其他機構和組織包括美國國土安全部、美國中央情報局、雇主、學區、警察局、保險公司等。
有人估計,一半以上的大學招生員使用基于人工智能的社會監測工具作為申請人甄選過程的一部分。
人力資源部門和招聘經理在招聘前也越來越多地使用人工智能社交媒體監控。美國政府機構(特別是雇用需要安全檢查人員的政府機構)也依靠社交媒體監控來檢查不信任的員工。
而且,正如在這個領域所報告的那樣,當人們進入美國國境時,美國海關和邊境保護局搜索的智能手機數量每年都在急劇增長。這些搜索包括社交媒體帳戶,以后可以使用人工智能對其進行監視和分析。
不僅越來越多的學校監控學生的社交媒體活動,一些州也開始依法要求這樣做。基于人工智能的社交媒體監控是一種潮流。各種各樣的組織都在積極參與。
基于人工智能的社交媒體監控不是那么智能
多年來,各種組織一直在質疑社交媒體監控。但是最近基于人工智能的監視工具應運而生,并創建了新的行業和專業。
這些工具尋找的是諸如智力、社會責任、經濟責任和遵紀守法和負責任行為等人格特征。問題不是人工智能是否適用于數據收集。當然可以。問題在于社交媒體是否揭示了有關用戶的真相。也有一些專家在質疑其數據的質量。
例如,掃描某人的Instagram帳戶可能“表明”他非常富有,曾經環游世界,并享用香檳和魚子醬。事實可能是他已經破產,面臨的經濟壓力很大,他們在酒店和餐廳用餐時以社交方式進行炫耀,他們的自拍純粹是為了建立聲譽而精心偽造的照片。有些人利用社交工具刻意塑造自己的高大形象。
Twitter帳戶可能會表明用戶是一個正直、有建設性和富有成效的社會成員,但如果第二個匿名帳戶被社交媒體監控系統所知,則可能會顯示出這個人可能是一個反社會的不法分子。人們有多個社交媒體帳戶可以反映其個性的不同方面。其中一些是匿名的。
而且,某人的Facebook帳戶可能充斥著一些冷幽默信息,其內容低俗并且夸張,監控工具可能會得出這樣的結論,顯示出一種不可信任的性格,而實際上問題是人工智能并沒有幽默感或諷刺意味。而人工智能工具的創造者本身可能對個性沒有真正的理解。
例如,在網上的不良行為可能會降低對某人的信任度得分,因為人們認為這表明缺乏道德。但最近的研究表明情況恰恰相反,通常來說,這樣的人可能更值得信任,也更聰明、更誠實、更有能力、更專業。那么開發人工智能軟件的開發人員知道或關心人類個性的微妙性和復雜性嗎?
如今,一些人是許多社交媒體網站的持續用戶。其他人從不使用社交媒體。大多數都介于兩者之間。
當然也存在代際鴻溝。從統計上看,年輕人不太可能公開發布信息,他們更喜歡私人信息和小組社交。基于人工智能的社交媒體監控從根本上說是年齡歧視嗎?
女人比男人更有可能在社交媒體上發布個人信息(關于自己的信息),而男人比女人更可能發布非個人信息。發表有關個人事務的信息可能更能揭示人格。人工智能是以社交媒體監控為基礎的性別歧視嗎?
而采用這種可能造成極端后果的監視技術之前,有人問過這些問題嗎?
像AirBnB這樣的公司正試圖解決一個真正的問題。就AirBnB而言,它們本質上是一項配對服務,其中一個用戶的“產品”是另一個用戶。這是質量保證的問題。它們如何最大程度地減少對用戶的傷害?
需要注意的是:在過去40年中,科技的作用總是被夸大。而人工智能現在成為這一新科技。業界人士擔心的是像AirBnB這樣的公司會出現問題,他們認為解決問題的辦法就是讓人工智能魔法神奇地解決問題。他們會使人工智能系統脫離社交網絡,運行算法,然后得到結果。人工智能系統會告訴他們哪些人不可以進入學校,哪些人不能雇傭,哪些人可以剝奪他們的安全許可,哪些人禁止進入AirBnB。
人工智能拒絕了合適的應聘者嗎?怎么會有人知道?一些被人工智能視為“值得信賴”的人員是不是通過某種方式欺騙這個系統而獲得了這種區別?怎么會有人知道?
如果人們在互聯網上瀏覽有關社交媒體監控的信息,就會發現很多關于“在網上發布的內容”的建議,這聽起來很合理,直到人們真正思考這些建議的含義。他們說,如果某人是一個真正應該被解雇的人,而不是根據其社交媒體活動被學校錄用或拒絕的人,那么真的需要變得聰明一些,模仿或假冒一個不令人反感的人員的社交媒體活動。
隨著關于社交媒體監控范圍的知識的傳播,限制人們在社交網站上的一些不良行為(向人工智能受眾提供假數據,以便機器判斷是否值得信賴)將變得司空見慣。
從政府機構到企業,再到硅谷的一些科技公司,許多類型的組織都在緊跟基于人工智能的社交媒體監控的發展潮流。專門提供這些工具的數十家公司正在崛起,這種做法越來越普遍。
而當公眾意識到這一普遍做法的現實時,他們的反應必然是改變社交媒體的行為,采用正確方法來維持自己的“可信分數”,黑客的攻擊使整個事情變得毫無意義和過時。
現在是開始關注基于人工智能的社交媒體監控的時候
人們可以從掃描社交網絡中獲得一些啟發,即使沒有人工智能技術也是如此。知識淵博、熱衷科技的公眾通常對“監視資本主義”的做法持謹慎態度,并且輕視個人數據收集、網絡活動跟蹤,以及廣泛使用各種網站和應用程序的隨機用戶的聯系數據庫的做法,利用這些行為,企業可以未經用戶了解并許可,即可訪問其認識的每個人的個人信息。
同時,人們很少聽到關于基于人工智能的社交媒體監控的在線對話。然而,潛在的“危害”是巨大的,導致一些人失業、被學校拒絕錄取,或者使保險費率提高等。
在這里沒有“不值得信賴”的秘訣來欺騙人工智能系統并獲得機器信任。而且基于人工智能的社交媒體監視來確定“可信賴性”本身就是不可信賴的。
責任編輯:ct
評論
查看更多