當(dāng)我們?cè)诿襟w報(bào)道和會(huì)議報(bào)告看到“人工智能倫理”時(shí),大概率也會(huì)看到“人工智能治理”這個(gè)詞。有趣的是,這些報(bào)道關(guān)于人工智能倫理的討論非常多,卻很少提及和厘清“人工智能治理”的內(nèi)涵和范疇。
關(guān)于人工智能治理有三個(gè)簡(jiǎn)單卻重要的問(wèn)題尚無(wú)答案:第一,“人工智能治理”的定義是什么。雖然我們知道“治理”這個(gè)詞的含義,但人工智能治理到底要做什么,怎么做并不清楚。
第二,組織中(政府組織或者商業(yè)組織)哪些主管或職能部門負(fù)責(zé)人應(yīng)該直接承擔(dān)人工智能治理的責(zé)任。
第三,如何考核和追蹤人工智能治理情況。這三個(gè)問(wèn)題恰恰是一個(gè)組織在人工智能治理實(shí)踐中面臨的最基本的問(wèn)題,而其具體內(nèi)容的缺失導(dǎo)致人工智能治理落地實(shí)踐上面臨著很大的挑戰(zhàn)。
目前,這三個(gè)問(wèn)題沒(méi)有得到充分討論,究其原因,大概有以下三點(diǎn):第一,眾多機(jī)構(gòu)和國(guó)際會(huì)議更多停留在人工智能議題探討階段,較少能夠真正出臺(tái)相關(guān)的治理報(bào)告和倡議。
第二,行業(yè)參與者經(jīng)常將人工智能治理與人工智能倫理這兩個(gè)概念混用,誤以為倫理道德標(biāo)準(zhǔn)的制定即為治理。
第三,即使是已經(jīng)出臺(tái)的人工智能的相關(guān)治理報(bào)告和倡議,亦缺乏進(jìn)一步更為明確的治理路徑與方案,難以推動(dòng)具有共識(shí)性和約束力的全球治理機(jī)制的產(chǎn)生。
因此,盡管許多企業(yè)都編纂了人工智能倫理準(zhǔn)則,但它們?nèi)绾危ɑ蚴欠衲埽┺D(zhuǎn)化為日常的工作準(zhǔn)則并不清楚。根據(jù)德勤的調(diào)查,32%的受訪者將人工智能倫理列為人工智能的三大風(fēng)險(xiǎn)之一,但大多數(shù)公司并沒(méi)有處理人工智能倫理風(fēng)險(xiǎn)的具體方法。比如,基本上所有的人工智能倫理準(zhǔn)則都提及人工智能要公平,不能歧視特定的人群,絕大多數(shù)的公司也能認(rèn)可這一準(zhǔn)則。但是在落地實(shí)踐上,員工很難理解具體工作中應(yīng)該如何執(zhí)行這一準(zhǔn)則,這其中有太多的模糊性和主觀性。
事實(shí)上,有研究表明,僅僅是熟悉和了解道德準(zhǔn)則本身并不會(huì)直接改變員工的行為。為了讓人工智能倫理準(zhǔn)則能夠確實(shí)指導(dǎo)員工的行為,其治理實(shí)踐必須要有一整套相對(duì)應(yīng)的制度設(shè)計(jì)和安排,并且將這套制度深度融入到整個(gè)組織的系統(tǒng)結(jié)構(gòu)中。商業(yè)領(lǐng)域的公司治理主要通過(guò)正式與非正式、內(nèi)部與外部的機(jī)制確保以公司利益和股東利益最大化的目標(biāo),比如獨(dú)立董事制度,股東投票制度等。類似的,人工智能治理的具體范疇?wèi)?yīng)該是在人工智能倫理的標(biāo)準(zhǔn)下,對(duì)管理和執(zhí)行人工智能倫理規(guī)范的制定,以及后續(xù)的維護(hù)、監(jiān)管、問(wèn)責(zé)等具體機(jī)制的建立和執(zhí)行。同時(shí),正如人的理性認(rèn)知是動(dòng)態(tài)變化的,人工智能治理的內(nèi)容也是一個(gè)協(xié)調(diào)多個(gè)利益相關(guān)方且持續(xù)互動(dòng)的過(guò)程。此外,不同的公司文化、現(xiàn)有的組織架構(gòu)、數(shù)字化成熟度以及風(fēng)險(xiǎn)承受能力同樣也會(huì)影響人工智能治理框架。
綜上所述,隨著人工智能技術(shù)社會(huì)影響力的增大,人工智能治理要落到實(shí)處就需要厘清和建立具體的、可執(zhí)行的制度安排。因此,下一步,人工智能治理實(shí)踐將會(huì)經(jīng)歷從人工智能倫理討論到人工智能治理機(jī)制落地的加速演化的過(guò)程。
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1791文章
47200瀏覽量
238270
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論