人工智能系統(tǒng)僅與我們放入其中的數(shù)據(jù)一樣好。錯誤的數(shù)據(jù)可能包含隱含的種族,性別或意識形態(tài)偏見。許多AI系統(tǒng)將繼續(xù)使用不良數(shù)據(jù)進行訓練,這將成為一個持續(xù)存在的問題。但是我們相信可以克服偏見,并且能夠解決偏見的AI系統(tǒng)將是最成功的。
對于人類和機器而言,至關(guān)重要的原則是避免偏見并因此防止歧視。AI系統(tǒng)中的偏差主要發(fā)生在數(shù)據(jù)或算法模型中。在開發(fā)我們可以信賴的AI系統(tǒng)的過程中,至關(guān)重要的是使用無偏數(shù)據(jù)開發(fā)和訓練這些系統(tǒng),并開發(fā)易于解釋的算法。
隨著人類和AI越來越多地共同做出決策,研究人員正在研究確保人類偏見不影響用于告知這些決策的數(shù)據(jù)或算法的方法。
麻省理工學院-IBM Watson AI實驗室致力于共同繁榮的努力,借鑒了AI和計算認知建模的最新進展,例如道德的契約方法,以描述人們在決策中使用的原則并確定人類的思維方式。目標是制造在決策過程中應用某些人類價值觀和原則的機器。IBM科學家還設計了一個獨立的偏差評估系統(tǒng),可以確定AI系統(tǒng)的公平性。
識別和緩解AI系統(tǒng)中的偏見對于在人與學習機器之間建立信任至關(guān)重要。當AI系統(tǒng)發(fā)現(xiàn),理解并指出決策中的人為矛盾時,它們還可以揭示我們偏partial,狹och和認知偏見的方式,從而使我們采取更加公正或平等的觀點。在認識我們的偏見和教導我們關(guān)于共同價值觀的過程中,我們可能會比AI進步更多。我們可能會改善自己。
-
算法
+關(guān)注
關(guān)注
23文章
4608瀏覽量
92845 -
AI
+關(guān)注
關(guān)注
87文章
30763瀏覽量
268909 -
人工智能系統(tǒng)
+關(guān)注
關(guān)注
0文章
38瀏覽量
10585
發(fā)布評論請先 登錄
相關(guān)推薦
評論