人工智能(AI)提供了巨大的機會,不僅可以提高效率和降低成本,而且還可以幫助重新考慮業務并解決關鍵問題。然而,盡管AI擁有所有的希望,但在各個經濟體和社會中都存在同樣程度的焦慮。許多人認為先進技術將帶來注定和不可避免的深刻變化。
隨著AI變得越來越復雜,它將開始制定或協助對個人生活產生更大影響的決策。隨著人們適應自動決策在社會中發揮的更大和更突出的作用,這將帶來道德挑戰。
因此,企業領導者和決策者需要認真對待這些擔憂,并承擔啟用和應用“負責任的AI”的責任。
如果使用AI評估新工作的申請,如何確保申請人得到公正和公正的審查?潛在的員工如何對AI不易出錯或基于如何培訓而固有偏見充滿信心?
自動化流程可能會通過我們可能不理解或無法解釋的程序來“學習”導致我們可能不希望的結果的模式。算法可能會使社會中現有的偏見和歧視永久化,這加劇了人們對實施AI缺乏信任。
例如,弗吉尼亞大學的研究人員在廣泛使用的照片數據集上訓練了一個AI程序,后來發現該系統隨后放大了傳統的性別偏見。在后來的培訓中,它甚至將站在火爐旁的男人分類為女人,這是人類不會做的。
領導者需要揭示機器決策。他們的AI必須產生可解釋的結果,促進算法的責任感并消除偏見。這意味著領導者需要找到方法,例如審核算法和對處理后的數據進行評估,以便發現偏差。當系統犯錯誤時,必須明確責任在哪里。
建立消費者對AI和自動化系統的信任將需要安全性和保障性。建立財務責任是做到這一點的一種方法,但是確保人身安全和保障是關鍵。
例如,最高級的討論圍繞自動駕駛汽車展開。德國于2017年通過了一項新法律,根據駕駛員或自動駕駛汽車的控制權在駕駛員和制造商之間分配責任。在這種方法的支持下,汽車制造商表示,如果在使用“交通擁堵駕駛員”的情況下發生事故,他們將承擔責任。
在舊有保險結構的背景下,此處新出現的是考慮由汽車制造商提供服務的責任。組織可以通過闡明和發展對責任的更普遍理解來幫助解決某些問題。但是,除了建立財務責任之外,安全和安保組織還需要解決一些合理的問題,包括確保通過設計將安全性應用到自治系統中。
這包括確保對AI進行訓練以“舉起手”,尋求有經驗的聰明才智的人的幫助,以幫助在極端情況下做出最終決定,而不是如果對某事有51%的把握就繼續進行。
-
人工智能
+關注
關注
1791文章
47183瀏覽量
238264 -
數據集
+關注
關注
4文章
1208瀏覽量
24689
發布評論請先 登錄
相關推薦
評論