2023年9月6日,美國海軍部(DON)簽署并發(fā)布了“生成式人工智能(AI)和大語言模型(LLM)使用指南”,旨在為使用生成式AI和LLM提供臨時(shí)指導(dǎo)。
生成式AI模型能以前所未有的速度和效率自動(dòng)化地執(zhí)行某些任務(wù),具有改變?nèi)蝿?wù)流程的潛力,既可以輸出文本,也可以輸出圖像、音頻、視頻和電磁信號,甚至可以快速生成代碼。目前,生成式AI正廣泛應(yīng)用于ChatGPT、谷歌公司的Bard聊天機(jī)器人、Meta公司的LLaMA模型等。 雖然生成式人工智能(AI)和大語言模型(LLM)大語言模型應(yīng)用前景廣闊,但美國國家指揮當(dāng)局(National Command Authority)、新興技術(shù)行業(yè)的領(lǐng)導(dǎo)、以及學(xué)術(shù)界都發(fā)出警示,對其應(yīng)用需要持謹(jǐn)慎態(tài)度。美國海軍部(DON)的指南提出的警示包括以下5點(diǎn)。
01對于一般用途
生成式AI智能工具并不一定可靠,可能會(huì)產(chǎn)生“幻覺”和有偏差的結(jié)果?!盎糜X”是指產(chǎn)生的響應(yīng)包括或結(jié)合了看似真實(shí)的虛構(gòu)數(shù)據(jù)。因此,這類工具必須經(jīng)過嚴(yán)格的審查,包括利用人類專業(yè)知識(shí)進(jìn)行批判性思考。
02對于軍事用途
除非已提出了安全控制要求,并對其進(jìn)行了全面的調(diào)查和識(shí)別、批準(zhǔn)其用于受控環(huán)境,否則不建議將商業(yè)AI語言模型用于作戰(zhàn)。
03數(shù)據(jù)安全和保護(hù)性
大語言模型會(huì)保存其收到的每一個(gè)提示,這會(huì)帶來持續(xù)的安全操作風(fēng)險(xiǎn)。在商業(yè)生成式AI模型中使用專有數(shù)據(jù)或敏感信息可能會(huì)導(dǎo)致數(shù)據(jù)泄露。個(gè)人生成的AI輸入和輸出的集合可能會(huì)導(dǎo)致敏感或機(jī)密信息的意外泄露。為了應(yīng)對這些安全問題,DON正在通過Jupiter(DON的企業(yè)數(shù)據(jù)和分析平臺(tái))建立參與和訪問LLM技術(shù)的規(guī)則,同時(shí)將繼續(xù)保持既有的安全措施,以確保符合現(xiàn)有政策并保護(hù)政府?dāng)?shù)據(jù)。
04驗(yàn)證和確認(rèn)
為了有效利用這些智能工具的全部潛力,必須補(bǔ)充人類專業(yè)知識(shí)。開發(fā)政府專用的人工智能,需要在模型生成之前進(jìn)行細(xì)致的信息驗(yàn)證,此時(shí)人類的專業(yè)知識(shí)不可或缺。目前AI技術(shù)的響應(yīng)速度并不完美,并且沒有方法確保一致的、可預(yù)測的輸出。AI的集成必須以“負(fù)責(zé)任的人工智能(RAI)”為核心原則。這不僅需要校對并核查輸入和輸入的準(zhǔn)確性,還需要核實(shí)來源的可信度,并積極處理可能侵犯知識(shí)產(chǎn)權(quán)的行為。同時(shí),所有AI生成的軟件代碼在實(shí)現(xiàn)之前都要在受控的、非生產(chǎn)環(huán)境中經(jīng)過全面的審查、評估和測試。
05責(zé)任和問責(zé)
用戶因使用大語言模型而引起的漏洞、違規(guī)行為和意外后果,其責(zé)任由各組織的領(lǐng)導(dǎo)層來承擔(dān)。 綜上所述,生成式AI可以作為一種力量倍增器,但它也存在固有的安全漏洞和風(fēng)險(xiǎn)。因此,在探索生成式AI和大語言模型(LLM)的應(yīng)用時(shí),應(yīng)認(rèn)真考慮這些問題。
-
人工智能
+關(guān)注
關(guān)注
1789文章
46397瀏覽量
236614 -
語言模型
+關(guān)注
關(guān)注
0文章
492瀏覽量
10229 -
生成式AI
+關(guān)注
關(guān)注
0文章
472瀏覽量
439
原文標(biāo)題:美國海軍部發(fā)布生成式人工智能和大語言模型使用指南
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論