偏差是人工智能(AI)中的一個嚴重問題。研究表明,流行的智能揚聲器在理解非美國本土口音方面的可能性降低了30%,而且像Cognitec那樣的面部識別系統 在非洲裔美國人臉上表現得更差。事實上,根據IBM最近委托進行的一項研究,由于潛在的責任問題,三分之二的企業對采用AI持謹慎態度。
為了幫助企業解決這一問題,IBM今天宣布推出基于云的全自動服務,該服務“不斷為人工智能系統制定決策提供洞察力”。它還會掃描偏見的跡象,并建議調整,例如算法調整或平衡數據,這可能會減少其影響。
該服務解釋了哪些因素影響了給定的機器學習模型的決策,以及它的整體準確性,性能,公平性和屬性。此外,它使人們對其減輕偏差的建議以及任何促成這種信心的因素充滿信心。
IBM表示,它適用于流行的機器學習框架和AI構建環境,包括IBM Watson,Tensorflow,SparkML,AWS SageMaker和AzureML,并且可以根據各個企業的工作流程進行定制。
IBM在認知解決方案高級副總裁David Kenny表示:“IBM在為新的AI技術開發建立信任和透明度原則方面處于行業領先地位。” “現在是將想法付諸實踐的時候了。我們正在為使用人工智能的企業提供新的透明度和控制權,并面臨任何有缺陷的決策帶來的最大潛在風險。“
除了宣布之外,IBM還在開源軟件中推出了一個工具包:AI Fairness 360工具包,包含一個算法,代碼和教程庫,演示了在模型中實現偏差檢測的方法。
在白皮書發布一個月之后,IBM公司采取了一些措施,其中一些研究人員為AI系統提出了“情況說明”。自愿性情況說明書,正式稱為“供應商符合性聲明”(DoC),將回答有關系統操作和培訓數據,基礎算法,測試設置和結果等問題。更細粒度的主題可能包括用于跟蹤AI服務的數據工作流的治理策略,測試中使用的方法以及對數據集執行的偏差緩解。
“就像食品的營養標簽或家用電器的信息表一樣,人工智能服務的情況說明書將提供有關產品重要特征的信息,”IBM研究院AI基金會負責人兼AI Science for Social Good計劃的聯合主任Aleksandra Mojsilovic寫道在介紹該論文的博客文章中。“人工智能的信任問題是IBM和許多其他技術開發商和提供商的首要考慮因素。人工智能系統具有改變我們生活和工作方式的巨大潛力,但也存在一些漏洞,例如暴露于偏見,缺乏可解釋性以及易受敵對攻擊。必須解決這些問題才能使人工智能服務受到信任。“
IBM并不是唯一一個開發緩解算法偏見的平臺。在5月舉行的F8開發者大會上,Facebook宣布了Fairness Flow,這是一項針對數據科學家的自動化偏向捕獲服務。微軟和埃森哲已經發布了類似的工具。
-
IBM
+關注
關注
3文章
1755瀏覽量
74679 -
AI
+關注
關注
87文章
30758瀏覽量
268902 -
機器學習
+關注
關注
66文章
8408瀏覽量
132572
發布評論請先 登錄
相關推薦
評論