科技云報道原創(chuàng)。
毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。
而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數(shù)據(jù)支持。
ChatGPT的“入侵”已經(jīng)引起了各行各業(yè)對內(nèi)容抄襲的擔憂,以及網(wǎng)絡(luò)數(shù)據(jù)安全意識的提高。
雖然AI技術(shù)是中立的,但并不能成為規(guī)避責任與義務的理由。
最近,英國情報機構(gòu)——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機器人將是一個新的安全威脅。
盡管ChatGPT的概念出現(xiàn)沒有多久,但對網(wǎng)絡(luò)安全和數(shù)據(jù)安全帶來威脅的問題已經(jīng)成為業(yè)內(nèi)關(guān)注的焦點。
對于目前還處于發(fā)展初期的ChatGPT,如此擔憂是否杞人憂天?
安全威脅或正在發(fā)生
去年年底,初創(chuàng)公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術(shù)開發(fā)的聊天機器人“必應聊天(Bing Chat)”。
由于此類軟件能夠提供酷似人類的對話,目前這項服務已風靡全球。
GCHQ的網(wǎng)絡(luò)安全部門指出,提供AI聊天機器人的公司可以看到用戶輸入的查詢內(nèi)容,就ChatGPT而言,其開發(fā)商OpenAI就能夠看到這些。
ChatGPT通過大量文本語料庫進行訓練,其深度學習能力很大程度上依賴于背后的數(shù)據(jù)。
出于對信息泄露的擔憂,目前已有多家公司和機構(gòu)發(fā)布“ChatGPT禁令”。
倫敦金融城律師事務所Mishcon de Reya禁止其律師將客戶數(shù)據(jù)輸入ChatGPT,因為擔心在法律上享有隱私特權(quán)的資料可能會遭泄露。
國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔心客戶的機密數(shù)據(jù)最終會落入他人之手。
英國電腦芯片公司Arm的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入公司人員的身份信息或機密數(shù)據(jù)。
今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行。
花旗集團和高盛集團緊隨其后,前者禁止員工在整個公司范圍內(nèi)訪問ChatGPT,后者則限制員工在交易大廳使用該產(chǎn)品。
而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數(shù)據(jù),因為這些信息可能會被用作進一步迭代的訓練數(shù)據(jù)。
事實上,這些人工智能聊天機器人背后是大型語言模型(LLM),用戶的這些查詢內(nèi)容將會被存儲起來,并且會在未來某個時候被用于開發(fā)LLM服務或模型。
這就意味著,LLM提供商能夠讀取到相關(guān)查詢,并可能以某種方式將它們合并到未來的版本中。
盡管LLM運營商應該采取措施保護數(shù)據(jù),但不能完全排除未經(jīng)授權(quán)訪問的可能性。因此,企業(yè)需要確保他們有嚴格的政策,提供技術(shù)性支持,來監(jiān)控LLM的使用,以最大限度地降低數(shù)據(jù)暴露的風險。
另外,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡(luò)安全和數(shù)據(jù)安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。
此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。
因此,AI可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。
在自動化、AI、“攻擊即服務”等技術(shù)和模式加持下,網(wǎng)絡(luò)安全攻擊呈現(xiàn)出暴漲趨勢。
在ChatGPT火爆之前,已發(fā)生了多次黑客使用AI技術(shù)進行的網(wǎng)絡(luò)攻擊。
事實上,人工智能被用戶調(diào)教“帶偏節(jié)奏”的案例并不鮮見,6年前,微軟推出智能聊天機器人Tay,上線時,Tay表現(xiàn)得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結(jié)束了短暫的生命。
另一方面,距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經(jīng)意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導致數(shù)據(jù)泄露和合規(guī)風險。
AI應用要打好安全底座
ChatGPT作為大語言模型,其核心邏輯事實上是海量數(shù)據(jù)的收集、加工、處理和運算結(jié)果的輸出。
總的來說,這幾個環(huán)節(jié)可能會在技術(shù)要素、組織管理、數(shù)字內(nèi)容三個方面伴生相關(guān)風險。
雖然ChatGPT表示,存儲訓練和運行模型所需的數(shù)據(jù)會嚴格遵守隱私和安全政策,但在未來可能出現(xiàn)網(wǎng)絡(luò)攻擊和數(shù)據(jù)爬取等現(xiàn)象,仍存在不可忽視的數(shù)據(jù)安全隱患。
特別是涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程,需平衡數(shù)據(jù)安全保護與流動共享。
除了數(shù)據(jù)與隱私泄露隱患外,AI技術(shù)還存在著數(shù)據(jù)偏見、虛假信息、模型的難解釋性等問題,可能會導致誤解和不信任。
風口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關(guān)口前移,建立數(shù)據(jù)安全防護墻也至關(guān)重要。
尤其是當AI技術(shù)逐漸完善,它既能成為生產(chǎn)力進步的有力抓手,又易淪為黑產(chǎn)犯罪的工具。
奇安信威脅情報中心監(jiān)測數(shù)據(jù)顯示,2022年1月份-10月份,超過950億條的中國境內(nèi)機構(gòu)數(shù)據(jù)在海外被非法交易,其中有570多億條是個人信息。
因此,如何確保數(shù)據(jù)存儲、計算、流通過程中的安全問題,是數(shù)字經(jīng)濟發(fā)展的大前提。
從整體看,應該堅持頂層設(shè)計與產(chǎn)業(yè)發(fā)展齊頭并進,在《網(wǎng)絡(luò)安全法》的基礎(chǔ)上,要細化風險與責任分析體系,確立安全問責機制。
同時,監(jiān)管部門可開展常態(tài)化監(jiān)查工作,安全領(lǐng)域企業(yè)協(xié)同發(fā)力,構(gòu)建全流程數(shù)據(jù)安全保障體系。
對于數(shù)據(jù)合規(guī)和數(shù)據(jù)安全的問題,特別是在《數(shù)據(jù)安全法》推出后,數(shù)據(jù)隱私越來越重要。
如果在應用AI技術(shù)的過程中無法保證數(shù)據(jù)安全和合規(guī),可能會給企業(yè)造成很大風險。
特別是中小企業(yè)對數(shù)據(jù)隱私安全方面的知識比較匱乏,不知道應當如何保護數(shù)據(jù)不會受到安全威脅。
數(shù)據(jù)安全合規(guī)并不是某個部門的事情,而是整個企業(yè)最為重要的事情。
企業(yè)要對員工進行培訓,讓他們意識到每個使用數(shù)據(jù)的人,都有義務保護數(shù)據(jù),包括IT人員、AI部門、數(shù)據(jù)工程師、開發(fā)人員、使用報表的人等,人和技術(shù)要結(jié)合在一起。
面對前述潛藏風險,監(jiān)管方和相關(guān)企業(yè)如何從制度和技術(shù)層面加強AIGC領(lǐng)域的數(shù)據(jù)安全保護?
相較于直接針對用戶終端采取限制使用等監(jiān)管措施,明確要求AI技術(shù)研發(fā)企業(yè)遵循科技倫理原則會更具成效,因為這些企業(yè)能夠在技術(shù)層面限定用戶的使用范圍。
在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護制度。
例如,可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對訓練數(shù)據(jù)集中的數(shù)據(jù)進行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進行分級。
在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護標準與共享機制。
目光投向企業(yè),還需加快推動“隱私計算”技術(shù)在AIGC領(lǐng)域的應用。
這類技術(shù)能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權(quán)限的方式,在進行數(shù)據(jù)的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數(shù)據(jù)不泄露給其他參與方。
此外,全流程合規(guī)管理的重要性愈加凸顯。
企業(yè)首先應關(guān)注其所運用的數(shù)據(jù)資源是否符合法律法規(guī)要求,其次要確保算法和模型運作的全流程合規(guī),企業(yè)的創(chuàng)新研發(fā)還應最大限度地滿足社會公眾的倫理期待。
同時,企業(yè)應制定內(nèi)部管理規(guī)范,設(shè)立相關(guān)的監(jiān)督部門,對AI技術(shù)應用場景的各個環(huán)節(jié)進行數(shù)據(jù)監(jiān)督,確保數(shù)據(jù)來源合法、處理合法、輸出合法,從而保障自身的合規(guī)性。
AI應用的關(guān)鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規(guī)、隱私保護,對企業(yè)來說或?qū)⑻N含“更大風險點”。
AI是把雙刃劍,用得好讓企業(yè)如虎添翼;用不好疏忽了安全、隱私和合規(guī),會給企業(yè)帶來更大損失。因此,在AI應用前,需要構(gòu)筑更加穩(wěn)固的“數(shù)據(jù)底座”,正所謂,行穩(wěn)方能致遠。
【關(guān)于科技云報道】
專注于原創(chuàng)的企業(yè)級內(nèi)容行家——科技云報道。成立于2015年,是前沿企業(yè)級IT領(lǐng)域Top10媒體。獲工信部權(quán)威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創(chuàng)報道云計算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領(lǐng)域。
審核編輯黃宇
-
AI
+關(guān)注
關(guān)注
87文章
30728瀏覽量
268892 -
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238265 -
大數(shù)據(jù)
+關(guān)注
關(guān)注
64文章
8882瀏覽量
137403 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1558瀏覽量
7596
發(fā)布評論請先 登錄
相關(guān)推薦
評論