飛機可接受的故障率是多少?好吧,這不是零 ……無論我們多么想相信其他方式。有一個數字,但它是一個很小的數字。在機器,計算機,人工智能等方面,它們是不完美的。會犯錯誤。推薦不當。人工智能永遠不會完美。這并不意味著它們不提供價值。人們需要了解機器為什么會出錯,并據此設定自己的信念。這意味著了解AI失敗的三個關鍵領域:隱性偏見,不良數據和期望。
第一個挑戰是隱性偏見,即人們對云的思想和行為的無意識感知。考慮一下,最近關于種族正義和警察暴行的抗議活動以及“ 黑人生活至關重要”的有力信息。《福布斯》(Forbes)文章AI屈膝:法律下的改善平等待遇的行動,很好地說明了隱性偏見如何在歧視中發揮作用,以及使用AI減少對我們的偏見有多困難(但并非不可能)執法和司法系統。人工智能向人學習。如果隱性偏見正在訓練中,則AI將學習該偏見。此外,當AI執行工作時,該工作將反映這種偏見……即使該工作是為了社會公益。
以Allegheny家庭篩選工具為例。它旨在預測哪些福利兒童可能會受到養父母虐待的威脅。但是,此解決方案的最初推出面臨一些挑戰。當地的人類服務部承認該工具可能存在種族和收入偏見。疏忽之類的誘因常常被生活在貧困中的寄養父母與注意力不集中或虐待相聯系而混淆或誤解。自從學習了這些問題以來,采取了巨大的措施來減少e篩選工具中的隱性偏差。消除困難得多。當談到偏見時,人們如何處理未知的未知數?如何處理社會環境?“正確”或“公平”行為是什么意思?如果人們無法識別,定義和解決這些問題,那么他們將如何教機器?這是一個主要的驅動程序,由于隱性偏見,AI將是不完美的。
第二個挑戰是數據。數據是人工智能的動力。機器通過大量的真實數據(即如何制定決策的規則,而不是決策本身)進行訓練,并從大量大數據中進行訓練,以學習數據中的模式和關系。如果我們的數據不完整或有缺陷,那么人工智能將無法很好地學習。考慮COVID-19。約翰·霍普金斯(John Hopkins),COVID追蹤項目,美國疾病控制中心(CDC)和世界衛生組織全部報告不同的數字。有了這樣的變化,人工智能很難從數據中閃現出有意義的模式,更不用說找到那些隱藏的見解了。更具挑戰性的是,不完整或錯誤的數據該怎么辦?想象一下,教一個關于醫療保健的AI,但只提供有關女性健康的數據。這阻礙了我們如何在醫療保健中使用人工智能。
隨之而來的挑戰是人們可能會提供過多的數據。這可能無關緊要,毫無意義,甚至會分散注意力。考慮一下IBM是何時讓Watson閱讀《城市詞典》的,然后它無法區分何時使用普通語言還是使用語和罵人的單詞。問題變得如此嚴重,以至于IBM必須從Watson的內存中刪除Urban Dictionary。同樣,一個AI系統需要聽大約1億個單詞才能流利使用一種語言。然而,一個人類孩子似乎只需要大約1500萬個單詞就能流利。這意味著我們可能不知道什么數據有意義。因此,AI培訓師可能實際上專注于多余的信息,這可能導致AI浪費時間,甚至更糟的是識別錯誤的模式。
第三個挑戰是期望。即使人類犯錯,人們仍然希望機器是完美的。在醫療保健領域,專家估計誤診率可能高達20%,這意味著五分之一的患者有可能被誤診。考慮到這些數據以及AI輔助診斷的錯誤率可能為十萬分之一,大多數人仍然喜歡只看人類醫生。為什么?給出的最常見原因之一是AI的誤診率太高(即使它比人類醫生低得多)。人們期望AI完美。人們甚至期望人類AI培訓師也很完美,甚至有可能變得更糟。
2016年3月23日,微軟發布了Twitter機器人Tay(對您的想法)。微軟已經對AI進行了培訓,使其達到了一名19歲美國女孩的語言水平和互動能力。在一次盛大的社交實驗中,Tay被釋放到全世界。96,000條推文之后,微軟不得不在發布后約16小時關閉Tay,因為它轉變了性別歧視,種族主義并促進了納粹主義。遺憾的是,有些人決定教Tay有關煽動性語言的內容,以使其腐化。同時,Microsoft并未考慮教Tay有關不當行為的信息,因此沒有任何理由(或理由)知道諸如不當行為和惡意意圖之類的東西。盛大的社會實驗導致失敗,可悲的是,這可能更多地證明了人類社會,而不是人工智能的局限性。
內隱的偏見,不良的數據以及人們的期望表明,人工智能將永遠不會是完美的。這不是許多人希望擁有的神奇的解決方案。人工智能仍然可以為人類做一些非凡的事情,如恢復失去肢體的活動能力或在減少資源的情況下改善糧食生產。人們不應該折衷我們可以得到的價值。我們應該永遠記住:AI就像我們一樣,是不完美的。
-
人工智能
+關注
關注
1791文章
47208瀏覽量
238294 -
大數據
+關注
關注
64文章
8884瀏覽量
137409
發布評論請先 登錄
相關推薦
評論