色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

科技巨頭們現在是怎么討論AI倫理的?

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-04-26 09:28 ? 次閱讀

對于人工智能(以下簡稱 AI),研究人員經常說,一流的機器學習實際上更像一門藝術而不是科學。有效的公共關系也是如此,選擇合適的詞語來傳達積極的語調或重塑有關 AI 的話題是一項需要技巧的任務:做得好,就可以加強一個人的品牌形象,但做不好,可能會引起更強烈的反對和抵制。

科技巨頭們對這一點肯定是心知肚明。過去幾年里,他們不得不快速學會這門藝術,因為公眾對他們的行為越來越不信任,他們的 AI 研究和技術也面臨越來越多的批評。

現在,他們想向公眾證明他們十分關注 AI 開發方式的合理性,但又想確保這樣不會招來過多的審查,因此開發了一種新詞匯。以下是一則解讀他們的語言、挑戰他們的假設和價值觀的內部指南。

Accountability(責任,名詞)—— 即你的 AI 系統失敗時,讓其他人為其后果負責的行為。

Accuracy(準確性,名詞)—— 技術正確性。這是評估 AI 模型性能時最重要的成功衡量標準,參見 validation。

Adversary(對手,名詞)—— 即一個能破壞你強大的盈利 AI 系統的獨立工程師,參見 robustness 和 security。

Alignment(結盟,名詞)—— 即設計 AI 系統的挑戰,該系統需執行我們的命令,重視我們所重視的一切,故意轉移注意力。避免使用造成不良意外后果的真實例子,參見 safety。

Artificial general intelligence(人工一般智能,短語)—— 假設的 AI 上帝,可能會在遙遠的未來出現,但也可能馬上就會到來。可好可壞,只要說得通即可,但你明顯在打造一個好的 AI 上帝。這代價不菲,因此,你需要更多的資金,參見 long-term risks。

Audit(審計,名詞)—— 你花錢請別人對你的公司或 AI 系統進行審查,這樣你無需做任何改變就可以顯得更透明,參見 impact assessment。

Augment(增加,動詞)—— 即提高白領工人的生產力。副作用:自動化讓藍領無工可做,雖令人難過但不可避免。

Beneficial(有益的,形容詞)—— 即對你要構建的體系的籠統描述,定義不明更好,參見 value。

By design(精心設計,詞組)—— 如 “精心設計而來的公平” 或 “精心設計而來的責任”,這個詞組表明你從一開始就在認真思考重要的事情。

Compliance(服從,名詞)—— 即行為遵守法律,凡是不違法的都可以。

Data Labelers(數據標簽者,詞組)—— 據說這些人藏身于亞馬遜的 “土耳其機器人接口背后,以低廉的價格做數據清理工作,不確定他們是誰,從未見過他們。

Democratize(民主化,動詞)—— 即不惜一切代價擴展技術,也是集中資源的理由,參見 scale。

Diversity、equity、and inclusion(多樣性、公平和包容,詞組)—— 即雇傭邊緣群體的工程師和研究人員的行為,這樣你就可以把他們公之于眾,如果他們挑戰現狀,就可以解雇他們。

Efficiency(效率,名詞)—— 即使用較少的數據、內存、人員或精力來建立一個 AI 系統。

Ethics board (道德委員會,詞組)—— 即一個沒有實權的顧問小組,召集起來讓你的公司表現出樂于傾聽的樣子。如谷歌的 AI 道德委員會(已取消),Facebook 的監督委員會(仍存在)。

Ethics principles(倫理原則,詞組)—— 用來表明你動機良好的老生常談。保持高水平,語言越模糊越好,參見 responsible AI。

Explainable(可解釋的,形容詞)—— 描述一個你、開發者和用戶都能理解的 AI 系統,但對用戶來說就很難實現這一點,可能不值得這么做,參見 interpretable。

Fairness (公平,名詞)—— 一個用來描述公平算法的復雜概念,可根據你的偏好以幾十種方式下定義。

For good (永久地,詞組) —— 如 “永久的 AI” 或 “一勞永逸的數據”。一個與你的核心業務完全無關的倡議可以幫你起到良好的宣傳效果。

Foresight (遠見,名詞)—— 即展望未來的能力。這基本上是不可能的,因此,你的 AI 系統為何無法擺脫意外后果也就有了非常合理的解釋。

Framework (框架,名詞) –即一套指導決策的方針。這是一個讓你在實際過程中拖延決策時顯得深思熟慮和慎重的好辦法。

Generalizable (可推廣的,形容詞)—— 一個好 AI 模型的標志,即盡管條件不斷變化仍能繼續工作的 AI 模型,參見 real world。

Governance (管理方式,名詞) —— 即官僚體系。

Human-centered design (以人為本的設計,詞組)—— 這個過程包括代入 “角色” 來想象一個普通用戶可能想從你的 AI 系統中得到什么,只要有時間的話,可能需要征求實際用戶的反饋,參見 stakeholders。

Human in the loop (人機回圈,詞組) —— 人人都是 AI 系統的一份子。責任范圍很廣,從偽造系統的能力到規避對自動化的指責。

Impact assessment(影響評估,詞組)—— 你自己對你的公司或 AI 系統進行的評估,來表明你愿意在不做改變的情況下看到其缺點,參見 audit。

Interpretable (可說明的,形容詞)—— 對一個 AI 系統的描述,作為開發者的你可以一步步遵循其計算過程來理解該系統是如何得出答案的。實際上可能只是線性回歸。AI 聽起來更好。

Integrity(誠信,名詞)—— 即破壞你模型的技術性能或你公司擴張能力的因素。不要將之與對社會有害的問題弄混淆,也不要把 honesty(誠實)與之混淆。

Interdisciplinary(跨學科的,形容詞)—— 凡是有不懂編碼的人員的團隊或項目就會用這個術語,這些人員包括用戶研究者、產品經理、道德哲學家,尤其是道德哲學家。

Long-term risks(長期風險,名詞)—— 在遙遠的未來可能帶來災難性后果的壞事情,這也可能永遠不會發生,但研究和避免長期風險比避免現有 AI 系統帶來的直接危害更重要。

Partners(伙伴,名詞)—— 其他精英團體,他們與你有相同的世界觀,并能與你一起維持現狀,參見 stakeholders。

Privacy trade-off(隱私取舍,詞組)—— 犧牲個人對個人信息的控制來實現群體利益,比如 AI 驅動的醫療保健進步,這也是非常有利的。

Progress (進步,名詞) —— 科學和技術進步。一種固有優勢。

Real world(真實世界,詞組)—— 與模擬世界相反,即一個充滿意外驚喜的動態物理環境,AI 模型經過訓練可在該環境生存。不要將之與人類社會混淆。

Regulation(監管,名詞)—— 你呼吁把減輕有害 AI 的責任轉嫁給政策制定者。不要將之與阻礙你發展的政策混淆。

Responsible AI(負責任的人工智能,名詞)—— 即公司內凡是公眾認為確實在努力減輕 AI 系統危害的工作。

Robustness(穩健性,名詞)——AI 模型在惡意輸入破壞數據的情況下仍能連貫無誤工作的能力。

safety(安全性,名詞)—— 即挑戰構建不違背設計者意圖的 AI 系統。不要將之與構建不會失敗的 AI 系統混淆,參見 alignment。

Scale(規模,名詞)—— 即任何好 AI 系統事實上都應該努力實現的最終狀態。

Security(保障,名詞)—— 即保護有價值或敏感數據和 AI 模型不被壞人破壞的行為,參見 adversary。

Stakeholders(利益相關者,名詞)—— 即股東、監管機構、用戶。你想讓掌權的人滿意。

Transparency(透明度,名詞)—— 即顯示你的數據和代碼。這對所有人和敏感信息不利。因此做到這一點非常困難,坦白來說,可以說是不可能。不要將之理解為闡明你系統的實際工作原理

Trustworthy(可信賴的,形容詞)—— 對一個在足夠協調的宣傳下制造出來的 AI 系統的評價。

Universal basic income(普遍基本收入,詞組)—— 向每個人支付固定工資的想法可以平息自動化導致大規模失業帶來的大規模經濟動蕩,受到了 2020 年的總統候選人楊安澤的推廣,參見 wealth redistribution。

Validation(驗證,名詞)—— 對 AI 模型進行數據測試來檢查模型是否仍準確的過程,而不是對它接入的數據進行測試。

Value(價值,名詞)—— 給你的用戶帶來的無形利益,這讓你賺得盆滿缽滿。

Value(價值觀,名詞)—— 提醒人們你有價值觀。

Wealth redistribution(財富再分配,詞組)—— 當人們因為你使用了太多資源和賺了太多錢審查你時,這個想法很有用。財富再分配如何運作呢?當然是靠普遍基本收入。這需要監管,也不是你自己能搞清楚的,參見 regulation。

Withhold publication(拒絕公開,詞組)—— 選擇不開放源代碼的慈善行為,因為這可能會落入壞人的手中。最好是限制買得起源代碼的合作伙伴的使用權。

原文標題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6166

    瀏覽量

    105339
  • AI
    AI
    +關注

    關注

    87

    文章

    30814

    瀏覽量

    268965

原文標題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    名單公布!【書籍評測活動NO.49】大模型啟示錄:一本AI應用百科全書

    過程中,作者還邀請了 數十位產業一線從業者參與共創 ,他們中的許多人曾是“共識粉碎機”主辦的“AI 顛覆軟件討論會”的嘉賓,來自全球頂尖科技公司、大模型創業公司、投資基金公司及大學的前沿實驗室。我們將在
    發表于 10-28 15:34

    AI大模型的倫理與社會影響

    AI大模型的倫理與社會影響是一個復雜且多維度的話題,以下是對其倫理與社會影響的分析: 一、倫理挑戰 數據隱私與安全性 AI大模型學習通常依賴
    的頭像 發表于 10-23 15:13 ?474次閱讀

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    了傳統學科界限,使得科學家能夠從更加全面和深入的角度理解生命的奧秘。同時,AI技術的引入也催生了一種全新的科學研究范式,即數據驅動的研究范式,這種范式強調從大量數據中提取有價值的信息,從而推動科學研究
    發表于 10-14 09:21

    AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    偏見、倫理道德等問題。此外,如何更好地將AI與科學研究人員的傳統工作模式相融合,也是一個亟待解決的問題。未來,隨著技術的不斷進步和應用場景的拓展,AI for Science有望在更多領域發揮關鍵作用
    發表于 10-14 09:16

    AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    ,還促進了新理論、新技術的誕生。 3. 挑戰與機遇并存 盡管人工智能為科學創新帶來了巨大潛力,但第一章也誠實地討論了伴隨而來的挑戰。數據隱私、算法偏見、倫理道德等問題不容忽視。如何在利用AI提升科研效率
    發表于 10-14 09:12

    RISC-V如何支持不同的AI和機器學習框架和庫?

    RISC-V如何支持不同的AI和機器學習框架和庫?還請壇友多多指教一下。
    發表于 10-10 22:24

    全球科技巨頭競相加碼AI領域,中國企業不甘示弱

    在2024年這一科技浪潮涌動的年份,中國科技巨頭繼續深化在人工智能(AI)技術領域的布局,展現出強大的投資力度與戰略眼光。據最新報道,BAT(百度、阿里巴巴、騰訊)三大巨頭在上半年于AI
    的頭像 發表于 08-30 14:43 ?597次閱讀

    平衡創新與倫理AI時代的隱私保護和算法公平

    在人工智能技術飛速發展的今天,它不僅帶來了前所未有的便利和效率,也暴露出了一系列倫理和隱私問題。從數據隱私侵犯到“信息繭房”的形成,再到“大數據殺熟”、AI歧視和深度偽造技術的威脅,AI的應用似乎
    發表于 07-16 15:07

    蘋果與Meta討論建立AI合作伙伴關系

    在人工智能(AI)技術日新月異的今天,各大科技巨頭紛紛搶灘AI賽道,力圖通過技術革新引領行業變革。近日,有知情人士透露,Facebook的母公司Meta正與蘋果公司探討一項重大合作——將Meta的生成式人工智能模型整合到蘋果最新
    的頭像 發表于 06-24 18:09 ?1336次閱讀

    八大科技巨頭攜手推進UALink,加速數據中心AI互聯

    近日,英特爾、Google、微軟、Meta等八家科技巨頭宣布共同成立超加速器鏈接(UALink)推廣小組,致力于推動數據中心內AI加速器芯片的連接組件發展。UALink旨在優化數據中心內AI硬件的互聯性能,提高數據處理效率。
    的頭像 發表于 05-31 10:59 ?834次閱讀

    亞馬遜、Meta等科技巨頭同時投資AI創企Scale AI

    在OpenAI的ChatGPT引領下,人工智能領域掀起新浪潮。谷歌、亞馬遜、Meta等科技巨頭紛紛加大在生成式人工智能和大模型研發上的投入,并積極投資人工智能初創公司。亞馬遜對Anthropic的投資高達40億美元,微軟則投資了法國Mistral AI
    的頭像 發表于 05-22 14:33 ?461次閱讀

    16家科技巨頭保證AI模型安全開發

    據路透社報道,微軟、谷歌以及OpenAI等16家全球科技巨頭在5月21至22日舉行的“人工智能(AI)首爾峰會”上,公開表態承諾進行AI模型的安全開發,并在無法有效控制最極端風險時,對其尖端系統進行關閉。
    的頭像 發表于 05-22 11:55 ?700次閱讀

    微軟、谷歌等科技巨頭承諾安全開發AI模型

    近日,微軟、谷歌、OpenAI等16家科技巨頭在“人工智能(AI)首爾峰會”上達成共識,承諾在AI模型的開發過程中注重安全性,并在無法控制最極端風險時關閉其尖端系統。
    的頭像 發表于 05-22 11:25 ?500次閱讀

    FPGA的高階應用與發展方向討論

    FPGA可編程器件做高階應用如圖像處理、語音識別等需要具備哪些能力,需要怎樣更有效從入門到精通 ? FPGA與當下的AI發展結合的怎樣?大家可以交流討論
    發表于 03-30 18:09

    全球科技巨頭聯手遵循人工智能倫理建議

    教科文組織總干事阿祖萊對此表示贊賞,他指出,隨著《人工智能倫理問題建議書》于2021年11月獲批,實現全球科技界的類似公開承諾成為了一項當務之急。
    的頭像 發表于 02-18 16:29 ?670次閱讀
    主站蜘蛛池模板: 欧美激情视频在线观看一区二区三区| 亚洲精品tv久久久久久久久久| 国产综合在线视频| 97成人在线视频| 亚洲成人mv| 日本午夜精品理论片A级APP发布| 幻女FREE性俄罗斯学生| 第一次玩老妇真实经历| 最近2018年手机中文字幕| 亚洲mv在线观看| 日韩 国产 欧美视频二区| 久久青青草原精品国产软件| 国产精品99久久免费黑人人妻| 2021全国精品卡一卡二| 亚洲免费在线视频观看| 歪歪漫画羞羞漫画国产| 欧美一区二区三区激情视频| 老师给美女同学开嫩苞| 国产中文欧美日韩在线| 国产av在在免费线观看美女| 99久久亚洲精品日本无码| 在线一本码道高清| 亚洲欧美日韩人成| 亚州天堂在线视频av| 色欲av蜜臀av高清| 日本xxxx96| 任你懆视频 这里只有精品| 女人被躁到高潮嗷嗷叫69| 狂操空姐电影| 老熟女重囗味HDXX| 精品亚洲国产成AV人片传媒| 国内久久久久影院精品| 国产青青草原| 国产色精品久久人妻无码看片软件| 草莓国产视频免费观看| xxx性欧美在线| va亚洲va天堂va视频在线| 99在线视频免费观看视频| 99精品影视| 阿v天堂2017在无码| jiucao在线观看精品|