在好萊塢的電影中,有很多關(guān)于人工智能(AI)在未來世界發(fā)生的故事。可以肯定地說,這個未來不會很快到來——雖然人工智能具有很多功能和能力,但人類的創(chuàng)造力和知識能力還有待匹配。這意味著做出的重大決策仍然掌握在人類的手中。
在當(dāng)今世界,人工智能可以選擇求職面試的應(yīng)聘者,并決定誰有資格獲得工作職位,并且可以為患者進(jìn)行診斷。而在這些情況下采用人工智能取代人類,在速度和效率方面取得了長足的進(jìn)步。
甚至有人認(rèn)為,人工智能可以在未來幾年內(nèi)取代30%的勞動力。但是,擁有強(qiáng)大的力量也會有巨大的責(zé)任。為了確保獲得最佳結(jié)果,需要開發(fā)可以更公平分享這些好處的人工智能。
事實上,人類可以與新興技術(shù)實現(xiàn)共生發(fā)展,雖然這意味著人工智能可以從人類身上得到最好的結(jié)果,但它也可能導(dǎo)致最壞的結(jié)果,因為人工智能也納入了一些人們最糟糕的惡習(xí)。如果現(xiàn)在不采取必要的措施,無意識的偏見已經(jīng)是社會最大的挑戰(zhàn)之一,這可能會一直持續(xù),甚至成為根深蒂固的結(jié)構(gòu)性偏見。
數(shù)據(jù)可以告訴人們很多信息,但不會告訴一切。人們最不想看到的是可以評判自己的世界,不是關(guān)注的能力或潛力,而是留下的數(shù)據(jù)線索。很明顯,要想讓人工智能成為一支良好的力量,它需要針對其設(shè)定任務(wù)和公平性進(jìn)行優(yōu)化。
無意識的偏見是一個數(shù)據(jù)問題
“垃圾輸入,垃圾輸出”這個短語在軟件開發(fā)行業(yè)中是一個眾所周知的格言,并且有著充分的理由。盡管人工智能已經(jīng)變得如此復(fù)雜和強(qiáng)大,但它仍然是為執(zhí)行特定任務(wù)而設(shè)計和訓(xùn)練的一系列算法。人工智能完全依賴于為其發(fā)展提供的數(shù)據(jù)。
它只能分析所擁有的數(shù)據(jù),并試圖從中獲得最佳結(jié)果。在行業(yè)人士看來,糟糕的決定實際上是從一組糟糕的數(shù)據(jù)中做出的最佳決策。不過,這并沒有降低問題的嚴(yán)重性。
像微軟公司的Tay chatter bot或Yandex公司的Alice虛擬助理這樣的案例實驗很好地展示了當(dāng)自學(xué)習(xí)解決方案輸入錯誤數(shù)據(jù)時會發(fā)生什么。在這兩種情況下,人們都期望公開、持續(xù)的人際互動將有助于解決方案發(fā)展出令人信服的個性。不幸的是,與一連串進(jìn)攻性的接觸創(chuàng)造了一種系統(tǒng),這種人工智能系統(tǒng)學(xué)會習(xí)慣性地攻擊。
然而,當(dāng)人工智能做出的決定開始影響人們的生活時,其后果可能會嚴(yán)重得多。在未來決策由數(shù)據(jù)驅(qū)動的情況下,人們必須確保數(shù)據(jù)集中的少數(shù)群體不會被剝奪應(yīng)該獲得的權(quán)利。
例如一種面部識別算法,該算法只使用淺膚色模型的圖像進(jìn)行訓(xùn)練。當(dāng)人工智能算法遇到膚色較深的用戶時,它可能會錯誤識別,甚至根本無法識別他們。
如果這項人工智能面部識別技術(shù)成為招聘或薪酬體系的基礎(chǔ),想象一下會產(chǎn)生什么樣的影響。通過這種方式,某些群體可能處于不利地位,會有更糟糕的用戶體驗,甚至根本無法獲得服務(wù)。這種歧視可能不是故意的,但其影響同樣具有破壞性。
無意識的人工智能偏見從根本上來說是一個數(shù)據(jù)問題。如果沒有一個包含多樣、全面數(shù)據(jù)的大型數(shù)據(jù)庫,未來的人工智能就有可能在沒有完整背景的情況下自動創(chuàng)造出社會的贏家和輸家。因此,組織采購最大和最廣泛的數(shù)據(jù)集至關(guān)重要。
當(dāng)然,他們還需要確保他們的人工智能解決方案能夠有效地使用所有這些數(shù)據(jù)。這意味著強(qiáng)大的數(shù)據(jù)管理工具和政策,確保數(shù)據(jù)被分類、整合、簡化,以供人工智能使用。如果企業(yè)缺乏完善的基礎(chǔ)設(shè)施和治理,那么收集和存儲所有這些數(shù)據(jù)是沒有意義的。
數(shù)據(jù)多樣性
解決方案并不像越來越多地收集數(shù)據(jù)那么簡單。僅僅因為企業(yè)要從比其他公司擁有更多的數(shù)據(jù)中提取數(shù)據(jù),并不意味著數(shù)據(jù)集的質(zhì)量更高,也不會產(chǎn)生更公平的結(jié)果。
例如,工程部門的人力資源部門可能有大量的歷史數(shù)據(jù)可供參考,但如果該部門歷史上一直由男性員工主導(dǎo),那么女性應(yīng)聘者可能很難被人工智能算法視為理想候選人。
要解決人工智能中的無意識偏見,最好的辦法就是意識到這些。很多公司將人工智能視為輸入和輸出的黑盒解決方案,但要確保算法的公平性,就需要深入了解解決方案的工作原理及其與數(shù)據(jù)的交互方式。
在設(shè)計階段,企業(yè)需要清楚地了解想要避免的結(jié)果以及想要實現(xiàn)的結(jié)果。然后將該理由應(yīng)用于人工智能將訓(xùn)練的數(shù)據(jù)集,確保所有性別、社會和種族群體的公平代表性。
企業(yè)如何決定什么是“公平”這是一個更大、更微妙的話題,甚至可能解決人工智能中的偏見。道德標(biāo)準(zhǔn)因企業(yè)而異,因此企業(yè)領(lǐng)導(dǎo)及其員工應(yīng)制定一個他們能達(dá)成一致,并進(jìn)而影響其解決方案的道德框架。然而,透明度是關(guān)鍵——任何組織都不應(yīng)害怕向公眾或其員工解釋這些決定是如何達(dá)成的,或是如何實施的。
自上而下的方法并不是一個最好的方法。對一個人來說公平的東西對另一個人來說可能是有問題的,或者看起來是錯誤的。創(chuàng)建共識的一個好方法是建立一個多元化委員會,由來自企業(yè)的利益相關(guān)者組成。而多元化委員會的決定可以轉(zhuǎn)化為人工智能解決方案和支持它的數(shù)據(jù)集。
限制偏見影響
每個人都會被無意識的偏見所困擾,人們可能很難承認(rèn)這一點,甚至也沒有意識到這些偏見。要確保未來發(fā)展的人工智能中沒有這種偏見,最好的方法是首先承認(rèn)這種偏見的存在。
然后,人們可以制定減少和限制偏見影響的策略,并確保不將其傳遞給人工智能技術(shù)。同樣,對于如何培養(yǎng)和發(fā)展人工智能,人們也應(yīng)該進(jìn)行培訓(xùn)和發(fā)展。
-
算法
+關(guān)注
關(guān)注
23文章
4608瀏覽量
92844 -
人工智能
+關(guān)注
關(guān)注
1791文章
47208瀏覽量
238284 -
面部識別
+關(guān)注
關(guān)注
1文章
375瀏覽量
26632
發(fā)布評論請先 登錄
相關(guān)推薦
評論