色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

怎么讓機器理解“什么是公平”

454398 ? 來源:ST社區 ? 作者:ST社區 ? 2022-12-22 22:06 ? 次閱讀

來源:ST社區

“什么是公平”,就算是人類自己也沒有統一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平是至關重要的,但說起來容易做起來難。正因為如此,我們要如何才能將社會上所說的“公平”的細微差別傳遞給人工智能(AI)系統呢?

IBM研究院的一組研究人員是著手解決該難題的先驅。IBM為開發人員推出了一款名為“AI Fairness 360”的工具包。作為這項工作的一部分,IBM為企業提供一種新的“基于云的、偏差(bias)檢測和消除服務”,企業可以使用它來測試和驗證AI驅動的系統的行為。

在接受EE Times的電話采訪時,IBM研究院院士SaskaMojsilovic告訴我們,科學家和AI從業者太過于關注AI的準確性。通常,人們關于AI的第一個問題是,“機器可以擊敗人類嗎?”

但公平呢?例如,AI中的公平缺位可能會導致在醫療保健中或自動駕駛車輛造成災難性后果,她說。

如果用于訓練機器的數據集有偏差怎么辦?如果AI無法解釋它是如何做出決定的,那么我們怎樣才能驗證其“正確性?”AI可以揭示在AI處理過程中數據是否被以某種方式操縱過嗎?AI是否可以向我們保證其數據從未(包括處理前和處理后)受到攻擊或篡改嗎?簡言之,是否存在AI內省?簡單回答:沒有。

Mojsilovic表示,如果不對AI用戶、開發人員和從業者開放,AI系統就無法獲得社會的信任。

分解公平

一個更大的問題是如何教導機器什么是公平。Mojsilovic指出,“因為我們是科學家,我們做的第一件事就是分解‘公平’。我們需要從這著手。”他們將公平分解為AI實現中的指標、算法和偏差。

IBM研究科學家Kush Varshney解釋說,其團隊研究了AI算法和AI決策的偏差和公平性。“有個人的公平,也有團體的公平。我們研究了群體的不同屬性——從性別到種族。還考慮了法律和監管問題。”最后,團隊最終測量了30個不同的指標,以尋找數據集、AI模型和算法中的偏差。

這些發現已納入IBM不久前推出的AI Fairness 360工具箱中。IBM將其描述為“一個全面的指標開源工具包,用于檢查數據集和機器學習模型中不期望的偏差。”

雖然許多科學家已經在努力發現AI算法中的歧視(discrimination),但Mojsilovic說IBM的方法不同,它不僅包括發現偏差的算法,且還包括用于消除偏差的工具。

在基礎層面,你必定會問:由計算機科學家——定義公平?這通常不是社會科學家的活嗎?意識到這種不搭調,IBM明確表示Mojsilovic和Varshney都沒有閉門造車。他們引入了許多學者和研究機構。Varshney參加了由卡內基國際事務倫理委員會主辦的Uehiro-Carnegie-Oxford倫理會議。 Mojsilovic參加了由加州大學伯克利分校法學院贊助的加州伯克利人工智能工作組。

算法中立嗎?

一段時間以來,社會科學家一直在指出AI偏差問題。
威斯康星大學麥迪遜分校新聞與大眾傳播學院教授Young Mie Kim解釋說,“AI歧視(或AI偏差)可能發生在它隱含或明確地強化現有不平等的社會秩序和偏見(例如,性別、種族、年齡、社會/經濟狀況等)時。”例子從抽樣誤差(例如,由于抽樣方法的不適當或困難導致某些人口統計數據不充分)到機器訓練(建模)中的人為偏差。 Kim認為,即使在設計或建模中采用的“戰略決策”也存在AI偏差,例如政治廣告算法。

在她最近題為“算法機會:數字廣告和政治參與的不平等”的研究中,Kim展示了在基于算法的決策中不平等是如何被強化的。

技術社區可能會爭辯說“算法是中立的”或者可以“受過教育”(訓練有素)。 Kim指出,“也就是說,他們并不承認在算法開發的任何階段都會出現偏差。”

可解釋的AI

不只是消費者害怕AI。許多計算機科學家也表達了擔憂。

威斯康星大學計算機科學助理教授AwsAlbarghouthi告訴EE Times,“從短期看,我擔心越來越多地使用數據驅動的決策,這有可能傳播偏見和不公正。從長遠看,我擔心AI在戰爭自動化方面的使用。”

AI無法解釋其決策帶來持續焦慮。威斯康星大學計算機科學助理教授Loris D'Antoni告訴我們,“現在,程序員開始將強大的機器學習算法作為編程工具箱中的工具。然而,這些算法復雜、難以預測、難以解釋。例如,沒人知道由此產生的機器學習模型究竟做了什么。在他看來,“總的來說,自動化決策需要被理解和規范,并且可能以正規的方式進行。”

對于流程的每個步驟,從訓練數據和處理到測試和部署,IBM指出其工具包提供的解釋 可顯示:在兩種決策中、哪些因素傾向于支持哪一方;對推薦的信心以及支持這種信心的因素。

IBM希望AI Fairness 360工具包將被廣泛使用,以便開發人員可以為其做出貢獻,幫助建立對AI的信任。

與此同時,IBM將為企業提供其新的軟件服務,旨在自動檢測偏差并解釋AI在需要做決策時,是如何做出決策的。它在IBM Cloud上運行,可幫助企業管理AI系統。

IBM稱,其在IBM Cloud上的公平性監控服務將與來自各種機器學習框架模型和AI構建環境(如Watson、TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。“這意味著組織可以借力這些新控制以服務于企業使用的大多數流行的AI框架,”IBM稱。IBM也承諾提供定制服務。“還可對軟件服務進行編程,以監控任何業務工作流程的獨特決策因素,使其能夠根據特定的組織用途進行定制。”

好的開始

越來越意識到AI中算法公平問題的AI研究界,對IBM的新產品表示歡迎。威斯康星大學的計算機科學家D'Antoni告訴我們,“看到公平檢查技術進入業界并付諸實踐,真的令人興奮。”他補充道,“我認為該工具將使AI研究界更加意識到該問題的重要性。”

Albarghouthi稱IBM的努力“開了個好頭”。

但是為了讓AI Fairness 360工具包真正變得有效,應該使許多需要理解它的開發人員能用到它。Albarghouthi解釋說,該工具需要“與研究界探索的最新的公平技術共同發展。”

他告誡說,“如果研究和理解超越了目前的定義和技術,”那么該工具很可能會停滯不前。

公平問題

最后,任何成全或破壞AI公平工具包的因素都會回溯到如何定義公平這一棘手問題。IBM的Mojsilovic承認,在不同應用中,公平有不同表現。正如人類對公平有不同看法,用戶、客戶和公眾可能會根據情況對公平有不同評判。

當被問及AI公平工具包的缺陷時,Albarghouthi表示,問題之一是“存在于公平性定義的選擇以及其是否足夠。”畢竟,公平“在很大程度上取決于領域、其敏感性和涉及的監管。”他補充說:“我確信,這些工具只有在其使用成為機器學習管道的標準部分時才有效。”

D'Antoni表達了他自己的擔憂。“有很多關于公平和偏差的定義,很難將它們全部考慮在內且其實現也并非能畢其功于一役。”換句話說,“公平定義往往是‘沖突的,’他說。“存在的不可能出現的結果表明,某些公平概念不能同時訴諸實施。”
此外,還有一個事實是“機器學習社區目前尚未接受過如何了解現有的公平和偏差定義的含義以及如何使用它們,”他補充道。

社會科學家Kim同意。“對這種[AI偏見]問題的認識是抗擊AI歧視的第一步,也是最重要的一步。”她指出,“在人類社會中,我們提出了一些減輕不平等和歧視的政策和法規。但問題是AI仍是個秘密。與大多數情況一樣,數據和建模是專有的。這使得任何公共政策或監管討論/辯論更加困難。“

透明度

理解了定義公平性時的復雜性和權衡取舍之后,IBM研究人員認為,優先事項應該是AI實踐和實施的透明度。

IBM的Mojsilovic建議由AI服務開發商和提供商完成并自愿發布供應商的符合性聲明(她稱之為情況說明書)“以提高其服務的透明度并產生對它們的信任。”她將其比作“食品營養標簽”,或“器具信息表”。

業界需要有關部署在不同服務中的AI系統信息的標準。 IBM敏銳地意識到這不會在一夜之間發生。正如營養標簽花了很長時間才逐步發展起來一樣,情況說明書的開發可能是個漫長過程。Mojsilovic警告說,業界才剛剛開始其人工智能之旅。

與IBM類似,研究界也在與AI公平問題斗爭。在這個懸而未決的領域,IBM的AI Fairness工具箱似乎具有開創性。 D'Antoni告訴我們,“我不知道現有的用于AI模型的通用公平檢查工具。”

另一方面,他補充說,“研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來自我們自己團隊的FairSquare。”

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器
    +關注

    關注

    0

    文章

    781

    瀏覽量

    40712
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24690
收藏 人收藏

    評論

    相關推薦

    “兼具”性能與成本,INDEMIND新一代視覺方案機器人落地更輕松!

    機器人開發更快速,落地更穩健。
    的頭像 發表于 12-06 14:46 ?108次閱讀
    “兼具”性能與成本,INDEMIND新一代視覺方案<b class='flag-5'>讓</b><b class='flag-5'>機器</b>人落地更輕松!

    機器人技術的發展趨勢

    能力。 機器人能夠通過學習和訓練,不斷優化自身的行為和性能,實現更高效、更智能的工作。 自然語言處理與理解 : 隨著自然語言處理技術的進步,機器人開始具備理解和表達情感的能力,能夠更好
    的頭像 發表于 10-25 09:27 ?848次閱讀

    工業自動化時代,如何理解機器換人”和“人機協作”

    應運而生。本文將從不同角度解讀“機器換人”和“人機協作”的內涵,分析其優勢和劣勢,并給出相應的思考和建議。如何理解機器換人?“機器換人”意味著人們用
    的頭像 發表于 09-06 15:08 ?1173次閱讀
    工業自動化時代,如何<b class='flag-5'>理解</b>“<b class='flag-5'>機器</b>換人”和“人機協作”

    【「時間序列與機器學習」閱讀體驗】+ 簡單建議

    這本書以其系統性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學習融合應用的宏偉藍圖。作者不僅扎實地構建了時間序列分析的基礎知識,更巧妙地展示了機器學習如何在這一領域發揮巨大潛力,使得
    發表于 08-12 11:21

    平衡創新與倫理:AI時代的隱私保護和算法公平

    機制,還包括了數據的來源、處理方式以及使用目的的明確披露。這樣不僅有助于監管機構進行審查,也普通用戶能夠理解AI系統的決策依據,從而減少因“黑箱操作”帶來的不信任和誤解。例如,在AI輔助醫療診斷中
    發表于 07-16 15:07

    什么是機器視覺opencv?它有哪些優勢?

    機器視覺(Machine Vision)是一種利用計算機和圖像處理技術來模擬人類視覺系統的功能,實現對圖像的識別、分析和理解的技術。OpenCV(Open Source Computer
    的頭像 發表于 07-16 10:33 ?770次閱讀

    如何理解機器學習中的訓練集、驗證集和測試集

    理解機器學習中的訓練集、驗證集和測試集,是掌握機器學習核心概念和流程的重要一步。這三者不僅構成了模型學習與評估的基礎框架,還直接關系到模型性能的可靠性和泛化能力。以下是一篇深入探討這三者概念、作用、選擇方法及影響的文章。
    的頭像 發表于 07-10 15:45 ?3813次閱讀

    ROS機器人開發更便捷,基于RK3568J+Debian系統發布!

    本帖最后由 Tronlong創龍科技 于 2024-7-19 17:18 編輯 ROS系統是什么 ROS(Robot Operating System)是一個適用于機器人的開源的元操作系統。它
    發表于 07-09 11:38

    Al大模型機器

    理解能力強大: AI大模型機器人可以理解和生成自然語言,能夠進行復雜的對話和語言任務。它們能夠識別語言中的語義、語境和情感,并據此作出適當的回應。廣泛的知識儲備: 這些模型基于大規模的數據集進行訓練,擁有
    發表于 07-05 08:52

    大語言模型(LLM)快速理解

    自2022年,ChatGPT發布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言模型。一、發展歷史大語言模型的發展
    的頭像 發表于 06-04 08:27 ?961次閱讀
    大語言模型(LLM)快速<b class='flag-5'>理解</b>

    一句話理解線程和進程

    今天給大家分享一下線程與進程,主要包含以下幾部分內容:一句話說明線程和進程操作系統為什么需要進程為什么要引入線程一圖說明線程和進程的關系一句話理解進程和線程進程:是指?個內存中運?的應?程序
    的頭像 發表于 06-04 08:04 ?1174次閱讀
    一句話<b class='flag-5'>讓</b>你<b class='flag-5'>理解</b>線程和進程

    大神幫忙理解一下該電路的原理?

    反饋原理是同一級電路的是一樣的嗎,請大佬講解 ③該電路作為AD前端的信號調理,我覺得好像這個電路把電壓給衰減了,那么后端AD芯片量化的數值就產生誤差了,所以不理解,這個調理電路的意義
    發表于 04-16 00:51

    華為云攜手樂聚機器人,探索人形機器人大模型開發

    根據雙方約定,他們還將共同設計并打造一款通用的具身智能解決方案,以構建互通互聯的“人形機器人+”開放生態系統。據悉,華為云的先行者——盤古大模型,擁有卓越的語義理解、動態規劃以及多模態信號理解等多項能力,為樂聚
    的頭像 發表于 03-22 11:53 ?767次閱讀

    Harvard FairSeg:第一個用于醫學分割的公平性數據集

    為了解決這些挑戰,我們提出了第一個大規模醫學分割領域的公平性數據集, Harvard-FairSeg。該數據集旨在用于研究公平性的cup-disc segmentation,從SLO眼底圖像中診斷青光眼,如圖1所示。
    的頭像 發表于 01-25 16:52 ?547次閱讀
    Harvard FairSeg:第一個用于醫學分割的<b class='flag-5'>公平</b>性數據集

    計算機視覺:AI如何識別與理解圖像

    計算機視覺是人工智能領域的一個重要分支,它致力于機器能夠像人類一樣理解和解釋圖像。隨著深度學習和神經網絡的發展,人們對于如何AI識別和理解
    的頭像 發表于 01-12 08:27 ?1418次閱讀
    計算機視覺:AI如何識別與<b class='flag-5'>理解</b>圖像
    主站蜘蛛池模板: 奇米狠狠干| 性啪啪chinese东北女人| 亚洲天堂久久久| 超碰在线视频地址| 久草在线一免费新视频| 日本少妇内射视频播放舔| 杨幂视频在线观看1分30秒| 草莓视频在线免费观看| 久久青草免费91线频观看站街| 色人阁综合| 99re久久热在线播放快| 好紧好湿太硬了我太爽了小说| 热久久伊大人香蕉网老师| 中文字幕在线视频观看| 国产一卡在线观看完整版| 日本湿姝在线观看| 2020亚洲色噜噜狠狠网站| 狠狠射首页| 天天影视色欲 影视| xxx日本hd| 麻豆精选2021| 亚洲免费无码中文在线亚洲在| 国产CHINESE HD精品| 欧美性视频xxxxhd| 18岁末年禁止观看免费1000个| 国产在线精品亚洲| 三级黄色网| japanese from色系| 蜜桃成熟时2在线| 野花社区视频WWW高清| 国产日韩久久久精品影院首页 | swag合集120部| 口内射精颜射极品合集| 亚洲免费在线视频| 国产深夜福利视频在线| 帅哥操帅哥| 岛国大片在线观看完整版| 欧美日韩北条麻妃一区二区| 1000视频在线播放| 久久免费看少妇高潮A片特爽| 亚洲天堂av2017|