2023年9月6日,美國海軍部(DON)簽署并發布了“生成式人工智能(AI)和大語言模型(LLM)使用指南”,旨在為使用生成式AI和LLM提供臨時指導。
生成式AI模型能以前所未有的速度和效率自動化地執行某些任務,具有改變任務流程的潛力,既可以輸出文本,也可以輸出圖像、音頻、視頻和電磁信號,甚至可以快速生成代碼。目前,生成式AI正廣泛應用于ChatGPT、谷歌公司的Bard聊天機器人、Meta公司的LLaMA模型等。 雖然生成式人工智能(AI)和大語言模型(LLM)大語言模型應用前景廣闊,但美國國家指揮當局(National Command Authority)、新興技術行業的領導、以及學術界都發出警示,對其應用需要持謹慎態度。美國海軍部(DON)的指南提出的警示包括以下5點。
01對于一般用途
生成式AI智能工具并不一定可靠,可能會產生“幻覺”和有偏差的結果。“幻覺”是指產生的響應包括或結合了看似真實的虛構數據。因此,這類工具必須經過嚴格的審查,包括利用人類專業知識進行批判性思考。
02對于軍事用途
除非已提出了安全控制要求,并對其進行了全面的調查和識別、批準其用于受控環境,否則不建議將商業AI語言模型用于作戰。
03數據安全和保護性
大語言模型會保存其收到的每一個提示,這會帶來持續的安全操作風險。在商業生成式AI模型中使用專有數據或敏感信息可能會導致數據泄露。個人生成的AI輸入和輸出的集合可能會導致敏感或機密信息的意外泄露。為了應對這些安全問題,DON正在通過Jupiter(DON的企業數據和分析平臺)建立參與和訪問LLM技術的規則,同時將繼續保持既有的安全措施,以確保符合現有政策并保護政府數據。
04驗證和確認
為了有效利用這些智能工具的全部潛力,必須補充人類專業知識。開發政府專用的人工智能,需要在模型生成之前進行細致的信息驗證,此時人類的專業知識不可或缺。目前AI技術的響應速度并不完美,并且沒有方法確保一致的、可預測的輸出。AI的集成必須以“負責任的人工智能(RAI)”為核心原則。這不僅需要校對并核查輸入和輸入的準確性,還需要核實來源的可信度,并積極處理可能侵犯知識產權的行為。同時,所有AI生成的軟件代碼在實現之前都要在受控的、非生產環境中經過全面的審查、評估和測試。
05責任和問責
用戶因使用大語言模型而引起的漏洞、違規行為和意外后果,其責任由各組織的領導層來承擔。 綜上所述,生成式AI可以作為一種力量倍增器,但它也存在固有的安全漏洞和風險。因此,在探索生成式AI和大語言模型(LLM)的應用時,應認真考慮這些問題。
-
人工智能
+關注
關注
1792文章
47409瀏覽量
238924 -
語言模型
+關注
關注
0文章
529瀏覽量
10295 -
生成式AI
+關注
關注
0文章
508瀏覽量
501
原文標題:美國海軍部發布生成式人工智能和大語言模型使用指南
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論