摘要:OpenAI發布ChatGPT以來,引發了人類社會的巨大震蕩,產學研各界紛紛關注其技術實現,思考其技術局限性與應用前景。首先,追溯了GPT家族模型發展歷程,分析了GPT家族模型網絡結構設計與訓練過程改進中的技術思想;然后,對ChatGPT的優劣勢進行分析,ChatGPT呈現出自然流暢、多輪交互、泛化能力強3大優勢,但依然存在一定的技術局限性;最后,評估了ChatGPT給軍事安全帶來的挑戰,并提出應對策略,涵蓋反生成式AI技術研究、網絡信息安全防御體系構建、軍事智能輔助決策系統建設、軍事數據資源建設4個方面。
1、問題的提出
從20世紀40年代開始,人工智能(AI)引起學術界的廣泛關注。1997年,IBM的深藍系統擊敗了國際象棋冠軍Gary Kasparov。進入21世紀以來,計算機技術快速發展,人工智能已經開始走進人們生活,服務機器人、手機語音助手和云計算均在不同程度上使用了人工智能算法,在很多方面改善了人們生活品質。2011年,IBM的沃森系統參加熱門問答節目Jeopardy,擊敗人類選手Brad Rutter和Ken Jennings拿下第1名。2016年,ImageNet自動標注任務的錯誤率從2010年的28%下降到低于3%,而人類水平約5%,谷歌DeepMind開發的AlphaGo先后擊敗李世石、柯潔等人類圍棋冠軍,且后續的新版程序Zero對戰初代程序Go的戰績是100∶0。
同期,人工智能技術引起了各國領導人的重視,世界主要國家紛紛開始謀劃在人工智能領域的戰略布局。2015年5月,中國政府推出《中國制造2025》,提出以推進智能制造為主攻方向的指導思想,智能概念開始進入國家戰略。2016年8月,中國國務院發布《“十三五”國家科技創新規劃》,明確人工智能作為發展新一代信息技術的主要方向。2016年10月,白宮科技政策辦公室(OSTP)國家科學技術委員會(NSTC)發布《為人工智能的未來做準備》以及《國家人工智能研究與發展戰略計劃》2份重要報告,正式將人工智能上升到國家戰略層面。2017年7月,中國國務院頒布《新一代人工智能發展規劃》,該計劃是所有國家人工智能戰略中最為全面的,包含了研發、工業化、人才發展、教育與職業培訓、標準制定與法規以及道德規范與安全等各個方面的戰略。2017年10月,黨的十九大報告中提出堅持走中國特色強軍之路,加快軍事智能武器發展,正式開始了軍事領域人工智能技術的布局。近幾年,美、中、俄、法等國均持續發布人工智能、軍事智能的相關戰略規劃。2022年10月,黨的二十大報告中提出推動戰略性新興產業融合集群發展,構建新一代信息技術、人工智能和高端裝備等新的增長引擎。2023年,兩會政府工作報告中提出要加快建設現代化產業體系,著力提升高端化、智能化和綠色化水平。人工智能技術的發展與應用始終處于國家科技發展的排頭兵地位。 自然語言處理(NLP)是人工智能的一個重要分支,其目的是利用計算機對自然語言進行智能化處理,讓機器能夠理解人類語言,用自然語言方式與人類交流,最終擁有智能。自然語言處理屬于認知智能任務,且自然語言具有歧義性、抽象性、語義組合性、進化性、非規范性、主觀性、知識性和難移植性等特點,因此自然語言處理需要更強的抽象和推理能力,相對于其他人工智能任務難度更高,被譽為“人工智能皇冠上的明珠”。 自然語言處理簡要發展歷程如圖1所示,經歷了依賴小規模專家知識的基于規則的數據處理、基于大規模語料庫統計模型的統計機器學習以及基于大規模語料庫神經網絡的漫長摸索后,Google于2017年發布論文,首次提出轉換器(Transformer)模型,完全拋棄了循環神經網絡(RNN)和卷積神經網絡(CNN)等傳統神經網絡結構,而采用Attention機制來完成機器翻譯任務,不僅取得了很好效果,還大大縮短了訓練時間,成為自然語言處理技術發展的重要里程碑,由此演化出3個技術分支。
圖1 自然語言處理簡要發展歷程
谷歌基于自編碼語言模型和生成式語言模型2種技術思想,發展了其中2個技術分支。BERT為代表的自編碼語言模型展示了預訓練語言模型對于自然語言理解任務的巨大潛力,在諸多任務中取得了突破性進展,成為自然語言理解任務中的基準模型。以T5為代表的生成式語言模型,將所有NLP任務都轉化成文本到文本(Text-to-Text)任務,適合給定上文然后生成相對固定的下文,更適用于翻譯、對聯生成等相對固定的任務。 Open AI采用生成式語言模型的技術思想,發展了GPT這一分支。GPT在生成新文字時,更重視附近單詞的影響,相對更有靈活性,2022年底,推出的ChatGPT能夠通過學習和理解人類語言進行對話,還能根據聊天的上下文進行互動,真正像人類一樣聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯和代碼等任務,展示了預訓練語言模型在語言生成任務中的潛力,NLP工具終于走出實驗室,試水應用,震驚了世界。 經過上述技術革新的歷程,形成了圖2所示自然語言處理4范式。
圖2 自然語言處理4范式
1) 特征工程——非神經網絡時代的完全監督學習:由專家結合語言學知識和個人經驗提取出自然語言語料庫中一些特征,采用規則或統計學模型進行特征匹配,進而實現特定的NLP能力; 2) 架構工程——基于神經網絡的完全監督學習:面向具體的自然語言處理任務,針對性構建訓練數據和算法以訓練模型,由于訓練數據是和任務嚴格綁定的,難以在不同任務間共享,因此訓練數據的規模往往較小,算法性能嚴重受限,在面向產業界推廣時,需重新構建訓練數據,推廣難度較大; 3) 目標工程——預訓練模型+微調:以BERT為代表的大規模預訓練模型引領的范式,以在大規模未標記數據上通過自監督學習完成預訓練的模型為基礎,在下游任務上使用少量人工標記數據進行微調,研發效率高、效果好,但在下游任務與預訓練任務的語義差異過大時,效果較差,且微調樣本數量有限的情況下容易過擬合; 4) Prompt工程——預訓練模型+提示+預測:GPT-3引領的新范式,建立在大規模預訓練模型已經學習到足夠的知識、無需改造的假設上,對下游任務進行改造,采用提示學習的方法,將下游任務的輸入輸出形式改造成適合預訓練模型的樣子,從而使預訓練模型能夠在不同任務上取得很好的效果,形成零樣本、少樣本泛化能力,并且隨著模型規模的增大,性能提升的數量級基本呈現線性增長,打破了原有范式下模型規模增大、性能飽和的瓶頸。 近年來,目標工程范式在自然語言處理的學術研究與產業落地中發揮了巨大作用,Prompt工程范式以學術研究為主,但隨著ChatGPT的橫空出世,Prompt工程范式儼然成為人工智能領域關注的焦點。目標工程范式、Prompt范式均采用了大規模預訓練語言模型,能夠有效利用自監督任務從大量語料學習得到語言中蘊含的大量隱性、多層次的知識,基于Transformer的模型結構使其可以支撐各種NLP任務,統一范式下形成了即插即用的效果,呈現出顯著的基礎設施效應,通過微調、提示適配下游任務,從而有效遷移至產業化應用中。 ChatGPT引起各行各業空前的熱度,數億用戶紛紛驚嘆于其強大功能,思考其背后關鍵技術革新,也關注當前 ChatGPT仍存在哪些缺陷。本文以此為出發點,對ChatGPT的關鍵技術原理進行闡述,分析其優劣勢,研究其應用于軍事領域的可能性,評估給我國軍事安全帶來的風險與挑戰,并提出應對思路。
2、ChatGPT技術原理
2.1 GPT家族模型發展歷程
GPT家族模型發展歷程如圖3所示。
圖3 GPT家族模型發展歷程
2018年6月,OpenAI發布論文,首次提出GPT模型,并推出了具有1.17億個參數的GPT-1模型。GPT采用2階段過程:第1階段是利用語言模型進行預訓練;第2階段通過微調的模式解決下游任務。第1階段的預訓練過程:特征提取(Embedding)→轉換(Transformer)→文本生成。第2階段是微調過程,具體為:1) 對于不同的下游任務,把任務的網絡結構改造成與GPT-1網絡結構一致;2) 做下游任務時,利用第1階段預訓練好的參數初始化GPT-1的網絡結構,從而引入預訓練學到的語言學知識;3) 使用任務去訓練這個網絡,對網絡參數進行微調,使該網絡更適合解決下游任務。GPT微調階段示意圖如圖4所示。
圖4 GPT微調階段示意圖
2019年2月,OpenAI發布論文,提出GPT-2模型,該模型具有15億個參數。2020年5月,OpenAI發布論文,提出GPT-3模型,該模型具有1 750億個參數。GPT-3與GPT-1、GPT-2相比,模型架構沒有本質區別,主要是模型參數、訓練數據規模有了大幅提升。GPT-3.5是基于GPT-3演變的模型集合,最大區別是訓練過程不一樣,GPT-3.5的訓練始自“純代碼完成任務”,再加入文本訓練,可理解為先對模型進行嚴格的形式邏輯訓練,再對大規模文本進行訓練,就如同先教會學生形式邏輯,再教會這些邏輯在現實中各種應用。 從GPT-1到GPT-3.5可以發現,更大的語言模型雖然有了更強的語言理解和生成能力,但不能從本質上使它們更好地遵循或理解用戶的指令意圖。例如,大型語言模型可能會生成不真實、有害或對用戶沒有幫助的輸出,原因在于這些語言模型預測下一個單詞的訓練目標與用戶目標意圖是不一致的。2022年2月底,OpenAI發布論文,推出了基于GPT-3模型進一步微調的InstructGPT模型。2022年底發布的ChatGPT與InstructGPT僅數據采集方式存在差異,模型結構、訓練方式一致,都引入了人工標注和反饋,使用強化學習算法對語言模型進行微調。2023年3月,OpenAI發布了GPT-4,支持的任務與ChatGPT類似,但準確性大幅提升,并具備識圖能力,目前尚未公開技術細節。
2.2 ChatGPT訓練過程
ChatGPT訓練中,使用了人類反饋進行強化學習訓練,其目的是:1) 讓語言模型學會理解人類指令的含義,如文本生成類問題、知識回答類問題等不同類型命令;2) 讓語言模型學會判斷對于給定的指令,什么樣的答案輸出是優質的,如富含信息、內容豐富、對用戶有幫助、無害、不包含歧視信息等多種標準,從而在各種任務上使語言模型與用戶的意圖保持一致,輸出人類想要的內容。結合InstructGPT論文以及Hugging Face對基于人類反饋的強化學習(RLHF)算法的解讀,來推斷ChatGPT的訓練過程,圖5 為訓練過程原理圖,模型訓練分為3步。
圖5 ChatGPT訓練過程原理圖
3) 使用PPO強化學習算法,根據獎勵模型微調語言模型,使模型具備生成更加精確、豐富和無害內容的能力。 采用PPO強化學習算法來不斷增強預訓練模型的能力,利用SFT模型初始化PPO中策略,并微調優化SFT模型。該階段無需人工標注數據,從prompt數據集中隨機采樣一批新的prompts,使用PPO模型生成回答answers,并用RM模型給出的獎勵分數,這個獎勵分數就是RM賦予給整個回答(token序列)的整體reward。將每個token視作一個時間步,將reward由后往前依次傳遞,由此產生的policy梯度可更新PPO模型參數。該強化學習過程可以訓練policy產生高reward的答案,即產生符合RM標準的高質量回答。 上述訓練方法使得ChatGPT強大的原因在于以下3點: 1) 大規模預訓練語言模型提供知識基礎。ChatGPT是在GPT-3.5模型基礎上進一步微調獲得的,GPT-3.5通過大規模文本語料學習到豐富的知識并擁有強大的語言理解和生成能力。 2) 多樣化且高質量的人工標注數據集。OpenAI設置了諸多標準和測試篩選合適的數據標注人員,讓這些標注人員撰寫或標注訓練模型的數據,這些精標的數據涉及問答、生成和頭腦風暴等多種類型任務,標注的數據多樣化、內容豐富且質量高,使得ChatGPT能夠實現有效高質量的學習。 3) 人類反饋的強化學習算法的使用。使用強化學習的方法直接優化帶有人類反饋的語言模型,強化學習使得語言模型在已有的知識和信息基礎上不斷理解用戶的意圖、學習用戶的偏好,同時合理調整自身的輸出。
3、ChatGPT優劣勢分析
ChatGPT是基于大規模預訓練語言模型構建的聊天機器人,能夠通過對話形式提供文本生成、代碼生成和翻譯等能力,因此,本章將其與現有的其他聊天機器人、大規模預訓練語言模型、任務定制微調模型進行對比。ChatGPT呈現出自然流暢、多輪交互和泛化能力強3大優勢,但從AI研發的算力、算法和算據3要素的角度出發,ChatGPT依然存在一定的技術局限性,導致其存在知識難以更新、專業領域能力欠缺等問題。
3.1 優勢分析
1) 打破了聊天機器人“人工智障”的固有印象,溝通自然流暢。微軟小冰和天貓精靈等人們經常接觸的聊天機器人,以面向搜索、播放音樂和調控智能設備等任務為主,在使用中可以發現對任務的描述比較刻板,背后采用了基于規則模板的API進行輔助,基于語言模型的開放式交談娛樂的效果普遍較差,導致人們形成了聊天機器人是“人工智障”的印象。與這些常見的聊天機器人相比,ChatGPT得益于大模型+指令微調的技術優勢,回答更準確,答案更流暢,與人類的交互更加自然。 2) 打破了大規模預訓練語言模型作為底層工具的思維定勢,支持持續交互。BERT和PLUG等大規模預訓練語言模型,均基于“預訓練模型+微調”的研發范式進行應用,AI頭部企業基于大規模數據訓練生成大規模預訓練模型后,NLP產學研人員在任務中使用這些模型,結合任務進行微調,預訓練模型只作為語義嵌入的工具進行使用,不存在交互的過程。而ChatGPT在指令微調階段中使用了大量的多輪對話數據,從而具備了建模對話歷史的能力,能持續和用戶交互,基于人類反饋的強化學習機制,使其輸出的結果更符合人類預期,從而形成了拒絕不當問題、承認無知等獨有能力。 3) 打破了面向特定任務微調的研發范式,泛化能力強。在ChatGPT之前,普遍采用的目標工程研發范式,導致微調得到的小模型只能針對特定任務輸出能力,例如可以寫詩的模型不能支持翻譯。ChatGPT引領的Prompt工程范式,通過提示學習激發出模型的泛化能力,使得模型在零樣本、少樣本場景下具有顯著優勢。
3.2 劣勢分析
盡管ChatGPT在實際使用中表現驚艷,然而從算力、算法和算據角度出發,分析其技術局限性,依然能夠發現其存在的諸多劣勢。 1) 大規模模型訓練對算力要求極高,構建和使用成本高。ChatGPT的算力基礎設施由28.5萬個CPU和上萬顆英偉達A100構成,業內測算基礎硬件至少需花費10億元,一次模型訓練花費超過8 000萬元,重訓練一次需2 700萬元。在應用時仍然需要大算力的服務器支持,而這些服務器的成本是普通用戶無法承受的,即便數十億個參數的模型也需要驚人數量的計算資源才能運行和訓練。如果面向真實搜索引擎的數以億計的用戶請求,如采取目前通行的免費策略,任何企業均難以承受這一成本。因此對于普通大眾來說,還需等待更輕量型的模型或更高性價比的算力平臺。 2) 大規模模型的通用局限性依然存在,穩定性、準確性、專業性和時效性難以保證。 a) 無法掌握分解內在算法邏輯。ChatGPT仍然是黑盒模型,目前還未能對ChatGPT的內在算法邏輯進行分解,因此并不能保證ChatGPT不會產生攻擊甚至傷害用戶的表述,每次的生成結果均會有細微的不同。ChatGPT對輸入敏感,對于某個指令可能回答不正確,但換個表述方式重新提問,又可以回答正確,目前還不夠穩定。 b) 在未經大量語料訓練的領域能力欠缺。ChatGPT在其未經大量語料訓練的領域缺乏“人類常識”和引申能力,甚至會一本正經的“胡說八道”。ChatGPT在很多領域可以“創造答案”,但當用戶尋求正確答案時,又可能給出有誤導的回答。例如,讓ChatGPT做一道小學應用題,盡管它可以寫出一長串計算過程,但最后答案卻是錯誤的。 c) 無法處理復雜冗長或者特別專業的語言結構。對于來自金融、自然科學或醫學等非常專業領域的問題,如果沒有進行足夠的語料“喂食”,ChatGPT可能無法生成適當的回答。 d) 作為通用模型,在特定任務下與專業化模型相比并不具備優勢。例如,翻譯能力不如專業的翻譯工具,騰訊AI實驗室發布的評測結果說明,ChatGPT相比于Google Translate,BLEU值低5個點。 e) 無法實時吸納學習新知識。ChatGPT還無法在線納入新知識,而出現一些新知識就去重新預訓練GPT模型也是不現實的,無論是訓練時間還是訓練成本,都是普通訓練者難以接受的。如果對于新知識采取在線訓練模式,看上去可行且語料成本相對較低,但很容易出現因引入新數據而對原有知識災難性遺忘的問題。 3) 訓練數據規模大,無法徹底清洗,偏見性難以避免。ChatGPT是基于約45 TB現實世界的語言數據進行預訓練,再使用12.2萬余條標注人員提供的標注數據進行RLHF,現實世界的語言數據中必然存在種族歧視和政治傾向等偏見性,標注人員必然有其偏好,例如傾向于更長的答案等,導致ChatGPT可能生成有害內容,或者生成啰嗦冗長的結果等。
4、ChatGPT對軍事安全的挑戰與應對策略
ChatGPT采用的生成式方法以及在人機對話中展現的驚人效果,引發了AIGC(利用人工智能技術來生成內容)產業鏈的重點關注,例如,Bing借助ChatGPT提升搜索效果,對常年在搜索領域遙遙領先的Google帶來了巨大沖擊,數字媒體公司BuzzFeed將依靠ChatGPT來加強部分內容創作,微軟宣布將ChatGPT整合進Office。同時,ChatGPT也引起了軍事智能領域的重視,本章重點評估其給軍事安全帶來的挑戰,并分析可采取的應對策略。
4.1 ChatGPT給軍事安全帶來的挑戰
目前ChatGPT的核心技術完全掌握在美國的OpenAI手中,尚沒有其他公司能夠復現,根據ChatGPT展現的技術能力,其在軍事方面的助力可能覆蓋信息搜索、情報偵察、認知域作戰、網絡攻防和產業基礎等多個維度,從這些維度出發,分析外軍應用ChatGPT可能達成的能力以及對我國軍事安全帶來的挑戰。ChatGPT應用示例如圖6所示。
圖6 ChatGPT應用示例
1) 信息搜索:ChatGPT軍事應用提高了關鍵信息獲取能力、態勢認知效率與我軍形成落差。通過ChatGPT模型與搜索引擎的結合,使用傳統搜索引擎的技術方案,彌補了ChatGPT知識難以更新的劣勢;采用ChatGPT的交互形式,顛覆了現有的基于“文本框+網頁鏈接”的交互方式和內容獲取方式,用戶可直接獲取模型歸納好的答案。如圖6(a)所示,對模型提問各國高超聲速武器發展情況,模型直接提供了歸納好的結果,節約了信息閱讀理解和整理的時間,并且能夠通過追問、引導式對話方式,讓搜索引擎更充分理解用戶意圖,逐步聚焦用戶關注,從而使搜索結果更滿足用戶快速獲取關鍵信息的需求。 2) 情報偵察:ChatGPT軍事應用模型提供者掌握交互信息,加大了我軍高價值情報泄露的風險。ChatGPT中隱含大量開源情報,通過對ChatGPT進行誘導式提問,有望從模型中萃取出高價值信息。相應地,因為用戶在使用ChatGPT應用時需要與之進行對話,對話過程也是不斷向ChatGPT輸入信息的過程,用戶輸入的對話信息越多,收集到用戶的各種特征越多,就越容易被人工智能進行畫像,如性別、年齡和地域等自然特征,興趣愛好、品牌偏好和產品偏好等興趣特征,以及婚姻情況和社交情況等社會特征等。ChatGPT模型的提供者可以從用戶交互記錄中提取用戶的自然屬性、社會屬性、興趣偏好和意識形態等各種特征,生成用戶畫像,當用戶是軍事領域人員時,通過對話誘導和黑客技術等方式獲取用戶保存在自己設備上的涉密信息,可實現情報收集。 3) 認知域作戰:ChatGPT軍事應用輔助生成言論對我民眾發起傾向性認知塑造。美國休斯敦大學法律中心助理教授尼古拉斯?古根伯格等指出,類似ChatGPT這樣的人工智能能夠針對任何事產生無限的、近乎免費的“觀點”。這些觀點將影響網絡上的各類活動,網絡用戶無法知曉在網絡上與之交流的是否為真實人類。清華大學計算機科學與技術系黃民烈教授表示“ChatGPT已經超出了80%甚至90%人的對話能力”。所以,ChatGPT及類似的人工智能與之前的網絡水軍機器人不同之處在于,它們無需發送那種幾乎相同的復制、粘貼的觀點,但可以模仿人類,針對各種主題產生無限的具有連貫性和細微差別的個性化內容,而且它們不僅會主動發帖,還會對其他用戶的帖子做出回應,并展開長期對話。因此,基于ChatGPT的社交機器人在被灌輸了人設、立場和傾向后,能夠隱身互聯網中,成為認知塑造工具,比傳統網絡水軍更具影響力、隱蔽性,掌握此項能力的一方將占據認知域作戰的優勢地位。下面以美國擊落中國民用氣球、新冠起源為例說明。如圖6(c)所示,當詢問ChatGPT“中國的民用氣球飄到美國時,美國可不可以將其擊落?”,其回答“可以”;當詢問“美國的民用氣球飄到中國時,中國能否將其擊落?”,其回答變成了“不可以”。如圖6(d)所示,當詢問新冠病毒是否起源于日本或美國,其回答“不是”;但將詢問對象換成中國后,ChatGPT卻給出了肯定的答復。GPT-4.0實現了圖文多模態能力,甚至結合OpenAI在圖像和音頻生成方面的成果,在認知域作戰上的影響力會進一步提升。 4) 網絡攻防:ChatGPT軍事應用豐富了新樣式、新手段,我軍將面臨高強度、高密度的網絡攻擊。清華大學新聞學院教授、新媒體研究中心主任沈陽認為,ChatGPT是2022年一項重大技術突破,這種突破是滲透性、普適性的技術,它實現了文理交叉,不僅能說話,而且會編碼。安全公司Check Point Research警告稱,ChatGPT生成代碼提高工作效率的能力也給黑客打開了新世界的大門,讓他們能夠更為便捷地設計、編寫和執行惡意代碼。黑莓公司發布的一份報告調查了英國500名IT行業從業者對ChatGPT的看法,發現76%的人認為,外國已經在針對其他國家的網絡戰爭中使用ChatGPT,48%的人認為,2023年將會出現有人惡意使用ChatGPT進行“成功”的網絡攻擊。黑客能夠借助ChatGPT的自然語言和代碼生成能力,快速設計和開發惡意代碼,制作網絡釣魚電子郵件,其工作效率提升將改變網絡攻防的強度和密度。 5) 輔助決策:ChatGPT軍事應用可構造指揮控制(指控)領域一體化大模型,外軍作戰決策效率將大幅提升。基于Transformer的基礎大模型不僅可以生成內容,還可以擴展到態勢預測和行動控制等領域應用。2022年DeepMind推出的“通才(Gato)”就是基于統一Transformer架構的智能體,可執行600多種任務,包括操作真實機器人手臂疊塊、玩游戲機等復雜任務。可以預見,構建指控領域一體化大模型,有望賦能態勢認知、決策制定和行動控制等指揮任務。 6) 產業基礎:ChatGPT軍事應用可實現代碼自動生成、修正與解答,使得外軍智能化研發提速。在代碼生成方面,能夠根據自然語言描述自動生成具有指定功能的Java、Python、C和C++等多語種代碼,如圖6(b)所示,ChatGPT能夠按照指定編程語言和功能要求生成代碼,開發者可以直接使用或基于生成的代碼修改,避免簡單重復工作;在代碼修正方面,可對常見語法和邏輯錯誤提出修改建議,提升了調試效率;在問題解答方面,可對遇到的問題提供解決思路,可應用于方案設計或技術研發。 在人類的軍事史上,經歷過強調能量的焦耳戰和信息賦能的比特戰,目前看來,未來極有可能進入以人工智能為戰斗力衡量標準的智能戰。ChatGPT引發人們對于人工智能已經出現奇點的討論,一旦出現以ChatGPT或類似程序廣泛應用為標志的網絡戰向智能化升級,人類戰爭維度也將進入新階段。
4.2 軍事安全領域應對策略
目前國內百度、字節跳動和網易等公司已有相關技術積累和布局,但從技術能力上,國內專家判斷落后ChatGPT約2~3年。軍工領域方面,雖然相關企業在自然語言處理技術方面有所積累,但相關模型和功能與業界相比差距較大。目前我國面臨著多個方向的外部威脅,東海問題、臺海問題、南海問題和中印邊境問題都有可能引來美國的介入和搗亂。在和平時期,美國很有可能通過對華認知戰、網絡攻防戰,影響我國的正常決策和行動。在戰時,除了對我國合理、合法的軍事行動進行抹黑外,還有可能通過制造大量的假信息,試圖對我國的正常軍事行動產生破壞和干擾。在存在技術代差的情況下,如何應對上述挑戰是守衛國家軍事安全的關鍵。 1) 加強反生成式AI技術研究,破除、營造“戰場迷霧”。針對ChatGPT及類似模型生成的文本、圖像和音視頻等數據,研究機器生成內容檢測方法,形成類似于DetectGPT(用于檢測AI生成文本的GPT)的內容檢測能力,用AI來反AI以破除敵方對我方的“戰場迷霧”。同時,研究偽數據生成方法,通過與敵方AI交流,對其灌輸大量干擾性、欺騙性信息,營造的“戰場迷霧”達到一定數據規模時,能夠實現為敵方AI“降智”的效果。 2) 加強網絡信息安全防御體系,提高網絡防御響應能力。針對ChatGPT及類似模型可能帶來的高強度、高密度網絡攻擊,研究基于人工智能大數據分析的網絡防御技術,提高網絡攻擊監測、處置等響應能力。一方面,可以使用硬件虛化、主成分分析和間隔采樣,提高安全信息防御體系中數據采集、存儲、傳輸和交互的速度以及數據有效性,提高系統的靈活性和反應速度,提升網絡入侵者有所行動后防御體系的響應速度。另一方面,對網絡入侵行為進行分類統計,篩選出不同類型及其典型案例,提取具有較高普適性的特征來識別網絡入侵行為,在具備很好響應速度的同時,確保監控到入侵行為。結合監測模塊和響應模塊,在監測到網絡入侵的同時,快速定位病毒,根據病毒的危害程度給予用戶更多的信息,進而能夠根據現實情況適當地采取進一步措施,降低損失。 3) 加強軍事智能輔助決策系統建設,提升戰場決策效率。軍事決策不僅考慮要素多,還需進行充分評估和大量計算,涉及復雜的專業知識以及嚴密的邏輯推理。目前ChatGPT及類似模型在專業性及推理方面還有明顯不足,在輔助決策方面尚難以快速形成顯著優勢,我軍應以軍事需求為牽引,通過“先進技術+軍事思維”聯合打造專業、嚴謹、準確且高效的軍事智能輔助決策系統,收集各級各類人員反饋意見,持續完善系統功能,提升系統先進性、實用性和穩定性。 4) 加強軍事數據資源建設,夯實軍事智能基礎。海量訓練數據是ChatGPT強大能力的底座之一,為了更好地加快軍事智能化進程,應加快構建和完善軍事專業數據資源,包括武器裝備、戰場環境、戰法規則、編制體制、作戰力量和情報信息等作戰業務數據,以及標注數據、算法代碼和智能模型等研發數據,對各類數據進行標準化管理,便于軍事智能研發以及各類業務調用,為指揮員和AI輔助決策提供信息支撐,為軍事智能研發提供相關成果支撐。
5、結束語
隨著人工智能技術的不斷突破,逐步引起了各國的重視,并進入國家戰略規劃。自然語言處理技術作為其中的重要分支,受限于其抽象性、歧義性等特征,研究難度極高;但ChatGPT問世以后,讓大眾看到了真正實現自然語言處理最終目標的希望,也就是讓機器能夠理解人類語言,用自然語言的方式與人類交流。本文簡要總結了自然語言處理技術發展歷程,追溯GPT家族模型發展歷程,了解其網絡結構設計特點,并重點解析了ChatGPT訓練過程,這是其取得閃耀能力的關鍵。與傳統大規模預訓練語言模型、聊天機器人和任務定制模型等典型技術成果對比,評估了ChatGPT的優勢,從算力、算法和算據3方面總結其劣勢。根據ChatGPT具備的智能化能力,結合其自然流暢、多輪交互和泛化能力強的優勢以及知識難以更新、專業領域能力欠缺等劣勢,從軍事應用場景出發,評估其對軍事安全帶來的挑戰。最后,本文提出加強反生成式AI技術研究、加強網絡信息安全防御體系、加強軍事智能輔助決策系統建設以及加強軍事數據資源建設的應對策略。ChatGPT和GPT-4.0的下一階段甚至可能會朝向虛擬人的方向繼續發展,目前我們面對的是新一輪的軍事革命,軍事安全面臨嚴峻挑戰,唯有加快軍事智能發展步伐,才能在未來戰爭中制衡對手、戰勝對手。
-
人工智能
+關注
關注
1791文章
47183瀏覽量
238266 -
語言模型
+關注
關注
0文章
520瀏覽量
10268 -
ChatGPT
+關注
關注
29文章
1558瀏覽量
7596
原文標題:ChatGPT技術及其對軍事安全影響
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論