科技發展到今天,學界和業界一直在討論它的負面影響。如何運用不同的方式監管科技公司的責任和道德一直是討論的焦點。
fast.ai聯合創始人&研究員Rachel Thomas就這個問題采訪了《紐約時報》首席數據科學家Chris Wiggins。在討論的過程中,他給出了一個有用的框架。
Chris Wiggins除了從2014年1月開始擔任《紐約時報》首席數據科學家外,還是哥倫比亞Data Science Institute的創始成員和HackNY的聯合創始人,并且在哥倫比亞大學教授關于數據歷史和倫理學的課程。
這個框架大致上可分為內部力量和外部力量兩大類:
外部力量:
政府
規則
訴訟
對違反規則和被起訴的忌憚
公眾
消費者聯合抵制
數據抵制
人才抵制
其他公司
承擔責任,增加企業價值
直接作用,如去平臺化
媒體
內部力量:
如何定義道德
典型例子:Belmont原則
尊重人類
行善
正義
如何踐行道德
從領導做起
時刻關注用戶體驗
為此,《紐約時報》制定了標準化流程,包括數據刪除流程和保護個人識別信息(PII)的流程。例如,在存儲聚合信息(例如關于頁面視圖)時,不需要保留查看頁面的個人的PII。
如何影響科技公司:外部力量
在采訪中,Chris引用了Bill Janeway的Doing Capitalism in the Innovation Economy一書。他說,在思考關于影響公司的外部力量時受到了這本書的啟發。在書中Janeway寫了一個在三個參與者之間不穩定的博弈:政府、公眾和公司。政府的權利體現在了各種條例和訴訟上,具體來說體現在了條例和訴訟所具有的威懾力。
第二個外力是公眾的力量。最著名的行使公眾權力的例子是消費者抵制,即當我們不同意公司的做法時,不給他們錢。還有一個數據抵制,不允許公司訪問我們的數據。還有一個人才抵制,拒絕為他們工作。
在過去的一年里,我們看到谷歌(Google)、微軟(Microsoft)和亞馬遜(Amazon)的工程師為了要求改變,逐漸開始行使這種權力。然而,大多數工程師和數據科學家仍然沒有意識到他們擁有的集體力量。工程師和數據科學家對公司很重要,他們應該利用這一點來推動公司更加具有道德意識。
第三種外部力量是其他公司的力量。例如,公司可以將承擔責任作為企業價值的一部分,將其與競爭對手區分開來。搜索引擎DuckDuckGo一直將隱私作為他們吸引力的核心部分。
近年來,Apple以倡導保護用戶隱私而聞名。在70年代和80年代,保護消費者是一個流行的想法,但現在似乎被人們忽略。因此,更多的公司可以讓保護消費者和企業責任感成為他們產品價值的一部分。
內在力量:倫理定義與倫理設計
公司也可以直接相互施加影響,例如,Apple在Google和Facebook違反其隱私政策后撤銷了它們的開發者權限,將他們從平臺中去除。
媒體對其他公司的影響不可估量,當然這里有許多相互聯系的地方:媒體影響公眾,而公民、選民和消費者進影響政府和公司。
Chris認為明確區分我們如何定義道德和我們如何踐行道德是很重要的。當人們無法區分這兩者時,討論就會變得混亂。
定義道德需要確定你的原則。道德有一個尺度:我們需要明確的原則來使它有意義,但也不要死板,因為它們是靈活的規則,會一直改變。例如,“不要作惡”太寬泛,沒有意義。
定義道德的原則與實施這些原則是不同的,定義原則意味著愿意在大原則下,致力于定義更具體的規則,或者隨著技術或環境的變化重新定義它們。例如,美國《權利法案》中提出了許多道德原則。
Chris指出,數據在為倫理而設計這一方面需要從公司最高層開始。領導者設定公司戰略目標(Goals),然后轉化為執行對象(Objectives),這些對象又會轉化為KPI(關鍵績效指標),最終這些KPI將運用于運營中。
運營反饋和KPI將不斷反映出這些道德原則是否受到保護或挑戰,或重新審視系統中的不足。大多數主流技術公司所忽略的一個運營指標就是用戶使用體驗(user experiences)監控,尤其是一些有害的用戶體驗。當公司將內容審查(content moderation)的業務外包時,也就說明該公司將他們這方面的內容審查放到了較低的優先級。內容審查只可以解決不良內容一部分,但不良內容所包含的方面還有很多。
Chris在一篇博客中談到了這個話題,他說,有些監控工作是難以用數量來衡量的,主要是因為我們不能提前知道用戶會遇到哪些問題,我們也不能提前知道哪些指標能夠量化這些現象。為此,數據科學家和機器學習工程師必須配合或學習用戶體驗研究的技能,給用戶一個提醒。
向貝爾蒙報告和IRB學習
現在關于倫理史的討論其實并不深入,很多人對它不太熟悉,但我們可以從其他領域中借鑒,比如人類學研究。在經歷了塔斯基梅毒研究(Tuskegee Syphilis Stuy)的可怕和倫理顛倒之后,1974年的《國家研究法》獲得通過,研究人員花了大量時間確定并規范道德倫理原則。
這些原則都是在貝爾蒙原則(Belmont Principles)的倫理研究原則中被涉及。貝爾蒙原則也是一個倫理框架,后來促使了機構審查委員會(IRB)的建立,也是用于審查和批準涉及人類受試者的研究。
貝爾蒙原則(Belmont Principles)的核心原則可以概括為:
尊重個體:
知情同意
尊重個體自主權
尊重個體之間的沖突
保護自治權和決策權受損害的個體
提供福利:
不要造成傷害
評估風險
公正:
對等
研究利益的公平分配
公平的主體
負擔的公平分配
需要注意的是,“提供福利”的原則可作為“目的證明手段”的論據,“尊重個體”的原則可作為“手段證明目的”的論據,因此這里含有豐富的內涵。
這一話題是Kramer等在2014年的《國家新聞》上發表的,當時Facebook的研究人員操縱用戶情緒,受到了很多批評和關注。還有另外兩名Facebook的研究人員發表了一篇后續論文:“對IRB的改進:為行業研究建立強有力的審查”,這表明目前Facebook已經實施了IRB設計(IRB Design)中的模式。
對于那些想要更多了解這個話題的人,Chris推薦馬修·薩爾加尼克(Matthew Salganik)書中的第6章:“一點一點:數字時代的社會研究”。這本書是Chris在哥倫比亞大學教授的“數據的歷史和道德”這門課程中的參考書。
注:薩爾加尼克是普林斯頓大學的一名教授,從事計算社會科學研究。
數據的歷史和道德:
https://data-ppf.github.io/
Chris還說,他從法律理論家那里學到了很多東西。大多數工程師可能對法律理論家不太注意,但他們在處理標準、原則和規則之間的平衡方面,有著悠久的歷史。
影響力強的區域
道德需要公司高層的注意。當領導者認真對待這一點時,將會產生最廣泛的影響。為道德倫理發聲的人,他們在公司的組織架構中是什么層級就反映了該公司對于道德的重視程度是怎樣的。因為對于大多數公司來說,這個人可以不是CEO,盡管應該是CEO最先注意到。
如上所述,工程師不了解他們自己的能力,但他們需要充分使用他們的能力。Chris回憶說,他曾聽到一群數據科學家說:他們希望他們的公司像另一家公司那樣制定道德政策(ethical policy)。但是,他們可以做到!他們只需要下定決心使用他們集體發聲的權力。
-
谷歌
+關注
關注
27文章
6171瀏覽量
105473 -
工程師
+關注
關注
59文章
1571瀏覽量
68546 -
數據科學
+關注
關注
0文章
165瀏覽量
10071
原文標題:由內而外,如何給科技公司設定技術倫理框架
文章出處:【微信號:BigDataDigest,微信公眾號:大數據文摘】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論