一份新的政府報告顯示,英國不需要專門的人工智能(AI)監管機構-但仍需要在公共部門的使用和道德規范方面更加明確。
報告“人工智能與公共標準:公共生活標準委員會的審查”(pdf,未選擇加入,共78頁)表示,盡管“擔心開放”,但政府仍未做到“開放”。框AI‘(通過數據無法解釋的方法產生結果)在很大程度上被放錯了位置。
報告指出:“公共部門組織在使用AI方面不夠透明,因此很難找到政府目前在哪里使用機器學習。”“現在判斷公共部門機構是否成功維持責任制還為時過早。”
該報告提倡使用諾蘭原則(公職人員期望達到的七個道德標準)為英國公共部門引入人工智能,認為他們不需要重新制定。然而,在三個方面-開放性,問責制和客觀性-報告說,當前的標準不足。
報告提出的15項總體建議中,許多建議圍繞準備,道德操守和透明度:
公眾需要了解指導在公共部門使用AI的高級道德原則(當前為FAST SUM原則,OECD AI原則和數據道德框架)
所有公共部門組織應在使用AI進行公共服務交付之前發布聲明,說明如何使用AI符合相關法律和法規
不需要專門的AI監管者,但是應該成立監管保證機構來發現監管領域的空白,并就與AI相關的問題向各個監管者和政府提供建議
政府應利用其在市場上的購買力來設定采購要求,以確保為公共部門開發AI解決方案的私營公司符合正確的標準
政府應考慮如何將AI影響評估要求整合到現有流程中,以評估AI對公共標準的潛在影響
政府應為公共機構建立有關AI系統聲明和披露的指南
IT服務提供商Insight的技術策略師Alex Guillen在報告發布后發表評論說,這些建議是可行的,但請注意。
“AI引入政府,同時遵循諾蘭原則應該是完全可能的,”吉蘭說AI新聞。“首先,公共部門需要記住,當前,人工智能和機器學習等技術的最有效使用是在增強而不是替代人類工人。幫助公共部門的工人做出更明智的決定或更快地采取行動,不僅會改善公共服務;這將有助于滿足69%的受訪者的意見,他們說如果人類對任何決定做出最終判斷,他們將更喜歡使用AI的公共機構。
“但是,無論在公共部門如何使用AI,都必須將其視為員工,并且要獲得完成其工作所需的培訓和信息,” Guillen補充說。與任何依賴數據的技術一樣,垃圾進入意味著垃圾掉。從警務中的面部識別到在NHS上幫助診斷和治療患者,AI需要正確的數據和正確的管理方式,以免造成超出其解決范圍的問題。
“否則,任何實施都會受到道德關注和數據偏見或歧視指控的困擾。”
-
人工智能
+關注
關注
1792文章
47354瀏覽量
238832 -
機器學習
+關注
關注
66文章
8422瀏覽量
132743
發布評論請先 登錄
相關推薦
評論