機器是種族主義者嗎? 算法和人工智能具有天生的偏見嗎?Facebook,Google和Twitter是否有政治偏見?這些答案很復雜。
但是,如果問題在于科技行業(yè)是否在解決這些偏見方面做得足夠,那么直接的回答是“否”。
警告AI和機器學習系統(tǒng)正在使用“不良數(shù)據”進行訓練。經常被吹捧的解決方案是確保人們使用無偏數(shù)據來訓練系統(tǒng),這意味著人類需要避免自己偏見。但這意味著科技公司正在培訓其工程師和數(shù)據科學家以了解認知偏差以及如何“應對”偏差。有沒有人停下來問那些給機器喂食的人是否真的了解偏見是什么意思?
諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見的算法而反復受到攻擊。為了應對這些合理的恐懼,他們的領導人發(fā)誓要進行內部審計,并聲稱他們將與這一指數(shù)級威脅作斗爭。正如無數(shù)的研究和出版物所表明的那樣,人類無法完全避免偏見。堅持不這樣做是對一個非常現(xiàn)實的問題的一種理智上的不誠實和懶惰的反應。
在Facebook的六個月中,我被聘為公司業(yè)務誠信部全球選舉誠信運營負責人,參與了有關該主題的眾多討論。我不知道有人故意將偏見納入工作。但是我也沒有找到任何人真正知道以任何真實和有條理的方式抵制偏見的含義。
在擔任CIA官員十多年的時間里,我經歷了數(shù)月的結構性方法培訓和例行再培訓,以檢查假設和理解認知偏見。這是情報人員發(fā)展的最重要技能之一。分析人員和操作人員必須磨練測試假設的能力,并在分析事件時認真地評估自己的偏見,并進行不舒服且通常耗時的工作。他們還必須檢查那些向收藏家提供信息的人(資產,外國政府,媒體,對手)的偏見。
傳統(tǒng)上,這類培訓是為那些需要批判性分析思維的人員而設的,據我所知和經驗,在技術領域這種培訓很少見。盡管高科技公司通常會接受強制性的“管理偏見”培訓來幫助解決多樣性和包容性問題,但我沒有看到有關認知偏見和決策領域的任何此類培訓,特別是與產品和流程的構建和保護有關的培訓。
從我的Facebook同事提出的一些想法來看,我花了多年時間做的所有事情-結構化的分析技術,權衡證據,沒有得出結論,具有挑戰(zhàn)性的假設-都不是正常的做法,即使在解決問題時也是如此。他們制造的產品在現(xiàn)實世界中的后果。在很大程度上,“快速行動”文化與這些技術相反,因為在面臨重要決策時需要放慢速度。
-
算法
+關注
關注
23文章
4608瀏覽量
92845 -
Facebook
+關注
關注
3文章
1429瀏覽量
54725 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238294
發(fā)布評論請先 登錄
相關推薦
評論