人工智能技術的透明度和道德倫理問題正引發越來越多的關注,這促使云計算服務提供商推出新工具,解釋人工智能算法背后的決策過程。
會計和金融等強監管行業的高管表示,數據科學家和非技術業務經理都必須能理解算法決策背后的流程。這至關重要。這樣的理解在防范潛在道德違規和監管違規方面可能會帶來深遠影響,尤其考慮到企業級人工智能算法正變得越來越普遍。
畢馬威創新和企業解決方案部門負責智能自動化、認知和人工智能的高管維諾德·斯瓦米納桑(Vinodh Swaminathan)表示:“我認為,除非具備這種解釋能力,否則人工智能在企業中的規模不可能超過數百個試點應用?!?/p>
對人工智能的解釋問題已經促使IBM和谷歌等公司在云計算人工智能服務產品中引入透明度和道德倫理工具。
IBM商業價值研究所近期的一項研究調查了5000名企業高管。約60%的受訪者表示,他們關心如何解釋人工智能使用數據作出決策,以達到監管和合規標準。這個比例較2016年時的29%大幅上升。
甚至對數據科學家和相關企業高管來說,人工智能的決策過程有時都是“黑盒”。在深度學習工具,例如用于模式識別的神經網絡中尤其如此。這樣的神經網絡試圖模擬人腦的運轉方式。
盡管這些系統可以以前所未有的準確率和速度得出結論,但外界并不總是非常清楚,計算網絡是如何做出具體的決策。
畢馬威內部的數據科學家正在開發自主的可解釋性工具,此外該公司也在利用IBM新的透明度工具。斯瓦米納桑表示,這樣做的目的是確保技術和業務兩方面的員工都能“打開黑盒”,準確地了解人工智能算法是如何做出結論的。
IBM上周發布了新的云計算人工智能工具,可以向用戶展示哪些主要因素影響了人工智能做出的建議。這些工具還可以實時分析人工智能決策,以識別固有偏見,并推薦數據和方法來解決這些偏見。IBM負責認知解決方案的高級副總裁大衛·肯尼(David Kenny)表示,這些工具可以與IBM人工智能服務,以及谷歌等其他云計算服務提供商的工具配合使用。
谷歌研究科學家和軟件工程師發布的博文則顯示,谷歌去年開始為開源的機器學習代碼發布新工具,“作為更廣泛研究的一部分,滿足對可解釋性的政策目標”。谷歌本月早些時候發布的另一款人工智能工具允許非程序員檢查和調試機器學習系統,以評估算法的公平性。
微軟正通過Azure來提供人工智能服務。該公司發言人表示,人工智能系統的設計需要有公平、透明和安全的保護,從而確保信任。微軟正在這方面做出持續的努力。亞馬遜沒有對此問題做出回應。
來自強監管金融行業的Capital One Financial Corp和美國銀行正在研究,如何解釋人工智能算法得出答案的背后原理。兩家公司都表示,目標是利用人工智能來優化對欺詐的監測,但首先它們需要了解這些算法是如何工作的。
-
云計算
+關注
關注
39文章
7774瀏覽量
137351 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238246
原文標題:GGAI 趨勢 | AI透明度引發關注 科技巨頭推工具解釋算法決策過程
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論