人工智能正以出乎想象的速度走進我們的生活,滲透到了制造、家居、金融、交通、安防、醫(yī)療、物流等各行各業(yè)。據(jù)預測,2018年全球AI產(chǎn)業(yè)市場規(guī)模將逼近2700億元;2020年全球市場規(guī)模將達4000億元;至2025年,全球范圍內(nèi)人工智能產(chǎn)業(yè)收入的年均復合增長率將大幅提升,達到57%以上。
誠然,人工智能的飛速發(fā)展一定程度上改變了人們的生活,但與此同時,由于人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私的政策、法律和標準問題引起人們的日益關(guān)注。具備超快學習能力的人工智能是否將進化的比人類還要先進?是否有一天將擺脫人類的控制?一旦出現(xiàn)人機情感危機問題應如何解決?人工智能是否應該作為法律意義上的人承擔事故責任?……諸如此類的問題層出不窮,使得人們在享受人工智能帶來的便利的同時,也難掩內(nèi)心的恐慌。
就人工智能技術(shù)而言,安全、倫理和隱私問題直接影響人們與人工智能工具交互經(jīng)驗中對人工智能技術(shù)的信任。如果不能消除人們內(nèi)心的懷疑和忌憚,必將影響人工智能技術(shù)的發(fā)展。
人工智能的安全問題不容忽視
人工智能最大的特征是能夠?qū)崿F(xiàn)無人類干預的,基于知識并能夠自我修正地自動化運行。在開啟人工智能系統(tǒng)后,人工智能系統(tǒng)的決策不再需要操控者進一步的指令,這種決策可能會產(chǎn)生人類預料不到的結(jié)果。設(shè)計者和生產(chǎn)者在開發(fā)人工智能產(chǎn)品的過程中可能并不能準確預知某一產(chǎn)品會存在的可能風險。因此,對于人工智能的安全問題不容忽視。
由于人工智能的程序運行并非公開可追蹤,其擴散途徑和速度也難以精確控制。在無法利用已有傳統(tǒng)管制技術(shù)的條件下,想要保障人工智能的安全,必須另辟蹊徑,保證人工智能技術(shù)本身及在各個領(lǐng)域的應用都遵循人類社會所認同的倫理原則。
其中應特別關(guān)注的是隱私問題,因為人工智能的發(fā)展伴隨著越來越多的個人數(shù)據(jù)被記錄和分析,而在這個過程中保障個人隱私則是社會信任能夠增加的重要條件。總之,建立一個令人工智能技術(shù)造福于社會、保護公眾利益的政策、法律和標準化環(huán)境,是人工智能技術(shù)持續(xù)、健康發(fā)展的重要前提。
必須設(shè)定人工智能技術(shù)的倫理要求
人工智能是人類智能的延伸,也是人類價值系統(tǒng)的延伸。在其發(fā)展的過程中,應當包含對人類倫理價值的正確考量。設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則:
一是人類利益原則,即人工智能應以實現(xiàn)人類利益為終極目標。這一原則體現(xiàn)對人權(quán)的尊重、對人類和自然環(huán)境利益最大化以及降低技術(shù)風險和對社會的負面影響。在此原則下,政策和法律應致力于人工智能發(fā)展的外部社會環(huán)境的構(gòu)建,推動對社會個體的人工智能倫理和安全意識教育,讓社會警惕人工智能技術(shù)被濫用的風險。此外,還應該警惕人工智能系統(tǒng)作出與倫理道德偏差的決策。二是責任原則,即在技術(shù)開發(fā)和應用兩方面都建立明確的責任體系,以便在技術(shù)層面可以對人工智能技術(shù)開發(fā)人員或部門問責,在應用層面可以建立合理的責任和賠償體系。在責任原則下,在技術(shù)開發(fā)方面應遵循透明度原則;在技術(shù)應用方面則應當遵循權(quán)責一致原則。
為個人隱私提供更強有力的保護
人工智能的近期發(fā)展是建立在大量數(shù)據(jù)的信息技術(shù)應用之上,不可避免地涉及到個人信息的合理使用問題,因此對于隱私應該有明確且可操作的定義。人工智能技術(shù)的發(fā)展也讓侵犯個人隱私的行為更為便利,因此相關(guān)法律和標準應該為個人隱私提供更強有力的保護。
此外,人工智能技術(shù)的發(fā)展使得政府對于公民個人數(shù)據(jù)信息的收集和使用更加便利。大量個人數(shù)據(jù)信息能夠幫助政府各個部門更好地了解所服務的人群狀態(tài),確保個性化服務的機會和質(zhì)量。但隨之而來的是,政府部門和政府工作人員個人不恰當使用個人數(shù)據(jù)信息的風險和潛在的危害應當?shù)玫阶銐虻闹匾暋?/p>
人工智能語境下的個人數(shù)據(jù)的獲取和知情同意應該重新進行定義。首先,相關(guān)政策、法律和標準應直接對數(shù)據(jù)的收集和使用進行規(guī)制,而不能僅僅征得數(shù)據(jù)所有者的同意;其次,應當建立實用、可執(zhí)行的、適應于不同使用場景的標準流程以供設(shè)計者和開發(fā)者保護數(shù)據(jù)來源的隱私;再次,對于利用人工智能可能推導出超過公民最初同意披露的信息的行為應該進行規(guī)制。最后,政策、法律和標準對于個人數(shù)據(jù)管理應該采取延伸式保護,鼓勵發(fā)展相關(guān)技術(shù),探索將算法工具作為個體在數(shù)字和現(xiàn)實世界中的代理人。
上文所涉及的安全、倫理和隱私問題是人工智能發(fā)展面臨的挑戰(zhàn)。安全問題是讓技術(shù)能夠持續(xù)發(fā)展的前提。技術(shù)的發(fā)展給社會信任帶來了風險,如何增加社會信任,讓技術(shù)發(fā)展遵循倫理要求,特別是保障隱私不會被侵犯是亟需解決的問題。為此,需要制訂合理的政策、法律、標準基礎(chǔ),并與國際社會協(xié)作。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47200瀏覽量
238269
原文標題:【今日頭條】當“機”智過人成為現(xiàn)實 我們的恐慌要如何消除?
文章出處:【微信號:ChinaAET,微信公眾號:電子技術(shù)應用ChinaAET】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論