谷歌最近重新推出Duplex,向餐廳主人和沙龍工作人員明確透露,他們正在與 Google 智能助理對話并正在錄制。
人工智能助理
人們越來越期望,當你向企業發送消息時,你可能會與人工智能聊天機器人進行交互。但是當你真正聽到人類說話時,你通常會認為這是一個真實的人。
我們正處于人們與AI定期進行有意義的互動的初期,而且該領域的進展已經引起了人們的恐懼,即黑客可能會利用AI代理進行惡意攻擊。
在最佳情況下,具有惡意意圖的AI機器人可能會冒犯人,我們可能面臨更多可怕的威脅。例如,人工智能可以學習特定的語言模式,使技術更容易適應操縱人,模仿受害者,以及階段性釣魚(語音網絡釣魚)攻擊和類似活動。
許多專家認為威脅是真實的。在CIO專欄中,Steven Brykman闡述了可以利用Duplex這樣的技術的不同方式:“至少在人類呼喚人類的情況下,仍有一個限制因素 - 人類每天每小時只能撥打這么多電話。人類必須得到報酬,休息等等。但人工智能聊天機器人可以通過無限多種方式向無限數量的人撥打無限數量的電話!“
在這個階段,我們聽到的大部分內容都是猜測; 我們仍然不知道語音助手出現時可能出現的威脅程度和嚴重程度。但是,如果提供技術的公司在與AI代理交互時明確地與用戶通信,那么涉及基于語音的助理的許多潛在攻擊都可以被解除。
隱私問題
圍繞使用Duplex等技術的另一個問題是潛在的隱私風險。人工智能系統需要用戶數據來訓練和改進他們的算法,雙工也不例外。它如何存儲,保護和使用這些數據非常重要。
新的法規正在出現,要求公司在想要收集信息時獲得用戶的明確同意,但它們主要用于涵蓋用戶有意發起互動的技術。這對于用戶激活的像Siri和Alexa這樣的AI助手來說很有意義。但目前尚不清楚新規則如何適用于未經觸發而觸及用戶的AI助手。
在他的文章中,Brykman強調有必要建立監管保障措施,例如要求公司宣布存在AI代理人的法律 - 或者當您詢問聊天機器人是否是聊天機器人時,需要說,“是的,我是聊天機器人。“ 這些措施將使人類對話者有機會脫離或至少決定他們是否想要與記錄他們的聲音的AI系統進行交互。
即使有這樣的法律,隱私問題也不會消失。“我預見的技術目前最大的風險是,它將為企業提供更多關于我們尚未擁有的私人生活的數據。到目前為止,他們只知道我們的在線交流;他們現在將獲得真正的洞察力我們真實的對話。
最近涉及國外大型科技公司的隱私丑聞,他們以可疑的方式利用用戶數據來獲取自己的收益,這讓人們產生了一種不信任的感覺,即給他們更多的窗戶進入我們的生活。“人們普遍認為,大型硅谷公司將其視為庫存而非客戶,并且對他們所做的幾乎任何事情都有很大程度的不信任,無論它最終會如何開創性和改變生活”。
功能失敗
盡管具有自然的聲音和音調以及使用類似人類的聲音,例如“mmhm”和“ummm”,Duplex與其他當代AI技術沒有什么不同,并且受到相同的限制。
無論是語音還是文本都用作界面,AI代理都善于解決特定問題。這就是為什么我們稱它們為“ 狹窄的人工智能 ”(與“一般人工智能”相對的 - 這種人工智能可以像人類思維一樣進行一般的問題解決)。雖然狹窄的AI可以非常好地執行它所編程的任務,但是當它給出一個偏離其問題域的場景時,它可能會非常失敗。
如果消費者認為他們正在與人交談,他們可能會問一些不在AI正常腳本之外的東西,然后當機器人不理解時會得到令人沮喪的反應。
相比之下,當一個人知道他們正在與一個經過培訓以便在餐廳預訂餐桌的人工智能交談時,他們會盡量避免使用會混淆人工智能并使其以意想不到的方式行事的語言,特別是如果它帶來的話他們是客戶。
接受雙工呼叫的工作人員也應該得到一個簡單的介紹,即這不是一個真實的人。這將有助于工作人員和AI之間的溝通更加保守和清晰。
出于這個原因,直到(以及如果)開發出能夠與人類智能相提并論的人工智能,企業本身的利益是對他們使用人工智能保持透明。
-
AI
+關注
關注
87文章
30763瀏覽量
268906 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238284
發布評論請先 登錄
相關推薦
評論