0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AIGC時代的多模態(tài)知識工程思考與展望

深度學習自然語言處理 ? 來源:知識工場 ? 2023-04-14 10:24 ? 次閱讀

內容簡介:ChatGPT的火爆出圈使得AI生成(AIGC)技術受到了全社會前所未有的廣泛關注。此消彼長之下,傳統(tǒng)的知識工程遭受了諸多質疑。在多模態(tài)智能領域,AIGC的能力不斷提升,多模態(tài)知識工程工作應該何去何從?是否仍有價值?在本次分享中,講者將探討當前AIGC技術耀眼“光芒”背后的“暗面”,思考與展望AIGC時代的多模態(tài)知識工程研究。

關于AIGC時代的多模態(tài)知識工程思考與展望,我們將從以下六個方面展開介紹:

第一部分,我們回顧一下AIGC技術的發(fā)展歷程和它帶來的劃時代影響力;

第二部分,我們對AIGC技術的不足(阿克琉斯之踵)之處進行分析與總結;

第三部分,我們將介紹多模態(tài)認知智能的框架和兩種實現(xiàn)路徑,并進行對比分析;

第四~六部分,我們會展望當前AIGC大模型和MMKG多模態(tài)圖譜間如何競與合。

01

AIGC時代:未來已來

d1dd9862-d9b9-11ed-bfe3-dac502259ad0.png

隨著人工智能總體階段的發(fā)展,生成式人工智能技術(AIGC)也在不斷迭代。從20世紀50年代到90年代中期,是AIGC的早期萌芽階段,這一時期受限于技術水平,AIGC僅限于小范圍實驗。這一時期的AIGC典型事件包括:1950年,艾倫·圖靈提出的著名的“圖靈測試”,給出判斷機器是否具有“智能”的方法;1966年,世界上第一款可人機對話機器人“Eliza”的問世;以及在80年代中期IBM公司創(chuàng)造的語音控制打字機“Tangora”的出現(xiàn)。

而從20世紀90年代到21世紀10年代中期,AIGC處于沉淀積累階段,這一階段的AIGC技術從實驗性向實用性轉變,但仍因受限于算法瓶頸,無法直接進行內容生成。這一階段的AIGC典型事件則包括2007年世界上第一部完全由人工智能創(chuàng)作的小說《1 the road》的問世;以及2012年微軟開發(fā)的全自動同聲傳譯系統(tǒng)的出現(xiàn),它能夠將英文語音自動翻譯成中文語音。

自21世紀10年代中期至今,是AIGC快速發(fā)展的階段,得益于深度學習算法不斷迭代,人工智能生成內容百花齊放。2014年,Goodfellow提出的生成對抗網絡GAN用于生成圖像;2019年,英偉達發(fā)布StyleGAN模型可以自動生成高質量圖片;2019年DeepMind發(fā)布DVD-GAN用于生成連續(xù)性視頻,直到2022年,OpenAI發(fā)布ChatGPT模型生成流暢的自然語言文本。

可以說,ChatGPT的爆紅出圈宣告了AIGC時代的到來。

d1ee876c-d9b9-11ed-bfe3-dac502259ad0.png

現(xiàn)在的AIGC技術可以生成的內容包括文本、圖像、音頻和視頻等。如今,已經有很多強大的算法被發(fā)明出來,如用于圖像生成的Stable Diffusion算法。此外,還有很多走在技術前沿的創(chuàng)業(yè)公司不斷推動AIGC技術的應用落地,如Jasper AI的AI寫作軟件和midjourney的AI繪畫工具的發(fā)明都在解放著人類的內容創(chuàng)作生產力。這些共同促進了一個萬物皆可AI生成的AIGC時代。

右圖是一張來自互聯(lián)網的趣味圖片——機器人一家三口在人類博物館中觀賞人類的最后一篇推文“GPT-5也沒啥了不起的”——表達了創(chuàng)作者對當今AIGC技術飛速發(fā)展的隱隱擔憂。

d1f8083c-d9b9-11ed-bfe3-dac502259ad0.png

那么,我們首先看一下多模態(tài)大模型的分類與發(fā)展脈絡。如上圖所示,多模態(tài)大模型發(fā)展非常迅速,我們可以將多模態(tài)大模型簡單分為多模態(tài)統(tǒng)一大模型和多模態(tài)文圖生成大模型,前者用于統(tǒng)一的多模態(tài)生成和理解,后者特指具備強大的多模態(tài)文到圖生成能力的大模型。

d20094ca-d9b9-11ed-bfe3-dac502259ad0.png

當前,文圖生成大模型已經可以生成逼真、高清以及風格化的意境圖像。

d20ca076-d9b9-11ed-bfe3-dac502259ad0.png

還有一些文圖生成大模型,如斯坦福大學提出的ControlNet,其生成能力更加精致、可控。它不僅可以生成各類質地細膩、細節(jié)精致的圖片,也可以通過簡筆畫來對圖像生成進行操控。

d216de06-d9b9-11ed-bfe3-dac502259ad0.png

AIGC大模型生成的視頻在某種程度上也可謂自然流暢、栩栩如生。

d2212636-d9b9-11ed-bfe3-dac502259ad0.png

我們還看到Google發(fā)布的PaLM-E模型,展現(xiàn)了多模態(tài)AIGC大模型驅動的具身智能的情景。這個具備5620億參數(shù)的具身多模態(tài)大模型,可以將真實世界的傳感器信號與文本輸入相結合,建立語言和感知的鏈接,可以用自然語言操控機器人完成操作規(guī)劃、視覺問答等任務。

d22bbdda-d9b9-11ed-bfe3-dac502259ad0.png

AIGC的驚艷效果不禁讓很多人對符號主義(知識工程)的研究產生了疑問。Rich Sutton在著名文章《苦澀的教訓》中提出,唯一導致AI進步的因素是更多的數(shù)據和更有效的計算。而DeepMind的研究主任Nando de Freitas也宣稱,“AI現(xiàn)在完全取決于規(guī)模,AI領域更難的挑戰(zhàn)已經解決了,游戲結束了!”。我們也看到,在大多數(shù)領域,大模型已經(暫時)戰(zhàn)勝了精心設計的知識工程。然而,AI的流派之爭真的結束了嗎?

02

AIGC的阿克琉斯之踵

第二部分,讓我們來看一下當前AIGC大模型實際存在的一些問題。

d23b02b8-d9b9-11ed-bfe3-dac502259ad0.png

盡管今天的ChatGPT(包括GPT-4)很強大,它的諸多問題仍舊難以忽視:

第一、強語言弱知識的問題,ChatGPT無法理解用戶查詢中的知識性錯誤,它具備強大的語言能力,但知識能力仍舊較弱;

第二、實時信息自更新慢,新舊知識難以區(qū)分,目前ChatGPT的知識還停留在2021年,而每一次信息更新都需要成本高昂的重新訓練;

第三、其邏輯推理能力并不可靠,應該說尚不具備復雜數(shù)學邏輯推理與專業(yè)邏輯推理能力;

第四、由于缺乏領域知識,它也無法真正為領域類問題提供專業(yè)靠譜的答案。

d243380c-d9b9-11ed-bfe3-dac502259ad0.png

當前的多模態(tài)大模型的跨模態(tài)生成能力也尚不完善。上圖是我們用文圖生成大模型Stable Diffusion生成的一些案例。具體來說,當前的文圖生成存在組合泛化、屬性泄露、方位理解混亂、語義理解錯誤等問題。因此,盡管我們看到AIGC跨模態(tài)生成的視覺效果驚艷,但往往存在較大的模態(tài)間信息不對稱問題。

d24b9d80-d9b9-11ed-bfe3-dac502259ad0.png

此外,當前多模態(tài)大模型的多模態(tài)理解能力也存在問題。上圖是來自BLIP2進行視覺問答任務的錯誤樣例。我們看到:

1)模型由于缺乏事實知識,無法知曉球拍上的“w”圖案是品牌“Wilson”的logo,因而錯誤回答成“nike”;

2)模型由于欠缺邏輯推理能力,不理解圖像場景和問題的邏輯關系,因而回答錯誤;

3)模型由于常識儲備不足,對某個具體場景(沖浪)下的意圖理解犯了常識性錯誤。

d25614ea-d9b9-11ed-bfe3-dac502259ad0.png

讓我們再來看一下Google的具身多模態(tài)大模型PaLM-E,雖然依賴如此大規(guī)模的參數(shù)實現(xiàn)了初步的機器人操控,但其demo視頻中所展示的空間范圍、物品種類、規(guī)劃和操作任務的復雜度等都非常有限。我們可以想象,如果要在真實世界的復雜場景中達到實用級別,PaLM-E的參數(shù)規(guī)模是否還需要增大百倍、千倍甚至萬倍?如果一味用海量參數(shù)存儲所有知識,那么智慧涌現(xiàn)的代價是否過于昂貴?

d2734ede-d9b9-11ed-bfe3-dac502259ad0.png

至此,我們對多模態(tài)大模型做個簡單的小結。首先,多模態(tài)大模型的本質是“用語言解釋視覺,用視覺完善語言”。換句話說,我們要將文本中的語言符號知識,與視覺中的可視化信息建立統(tǒng)計關聯(lián)。所謂“用語言解釋視覺”,就是將語言中蘊含的符號知識體系和邏輯推理能力延伸至對視覺內容的理解;而所謂“用視覺完善語言”,是指豐富的視覺信息可以成為符號知識體系和邏輯推理能力的重要完善和補充。

我們知道,多模態(tài)大模型能發(fā)揮重大作用的重要前提是:

1)具有海量高質量圖文配對數(shù)據;

2)文字富含事實知識和常識;

3)其邏輯推理過程可顯式化被學習。

而我們所面臨的現(xiàn)實情況卻是:

1)數(shù)據量大但質量差,信息不對稱;

2)純文字中的知識與常識也不完備;

3)其邏輯推理是隱性難以學習的。

正因為這些理想與現(xiàn)實間的差距,導致了前面提到的多模態(tài)大模型的種種問題與不足。綜上,我們認為,統(tǒng)計大模型始終難以較低成本,全面、準確地掌握人類知識、常識和邏輯推理能力。

03

多模態(tài)認知智能

第三部分,我們引出多模態(tài)認知智能,其研究旨在解決前一部分提到的問題。

d27df2da-d9b9-11ed-bfe3-dac502259ad0.png

上圖是我們提出的一個多模態(tài)認知智能的研究框架??偟膩碚f,多模態(tài)認知智能主要研究基于多模態(tài)數(shù)據的知識獲取、表示、推理與應用。在多模態(tài)知識獲取層面,我們從語料中通過抽取、生成、群智等方法獲取知識或者從語言模型中萃取知識。在多模態(tài)知識表示層面,可以使用多模態(tài)圖譜、常識圖譜、語言模型、大規(guī)模知識網絡等方法進行知識表示。基于多模態(tài)知識表示,可以進一步支撐多模態(tài)理解、推理和元認知等能力,從而賦能諸如跨模態(tài)搜索、推薦、問答、生成等多模態(tài)知識的應用。

d2858676-d9b9-11ed-bfe3-dac502259ad0.png

多模態(tài)認知智能目前有兩種實現(xiàn)路徑。一種是多模態(tài)大模型,其代表了聯(lián)結主義和經驗主義的思想,從海量預訓練數(shù)據中學習概率關聯(lián),是簡單而魯棒的,它屬于統(tǒng)計學習范疇,具備端到端、干預少和“數(shù)”盡其用的優(yōu)勢,其劣勢在于難以學習到從因到果、從主到次、從整體到部分、從概括到具體、從現(xiàn)象到本質、從具體到一般等邏輯關系。

另一種實現(xiàn)路徑是多模態(tài)知識工程,其代表了符號主義的思想,從精選數(shù)據和專家知識中學習符號關聯(lián),是精細而脆弱的,它往往通過專家系統(tǒng)和知識圖譜實現(xiàn),具備易推理、可控、可干預、可解釋的優(yōu)點,但是它的劣勢主要在于將數(shù)據轉換成符號知識的過程往往伴隨著巨大的信息損失,而其中隱性知識等難以表達的知識往往是信息損失的主體。

結合多模態(tài)大模型和多模態(tài)知識工程的優(yōu)劣勢分析,我們認為:在AIGC大模型時代,多模態(tài)知識工程依然不可或缺。

d293fa08-d9b9-11ed-bfe3-dac502259ad0.png

當前,多模態(tài)知識工程的主要形式之一是多模態(tài)知識圖譜(MMKG)。多模態(tài)知識圖譜是在傳統(tǒng)知識圖譜的基礎上,增加多種模態(tài)數(shù)據以豐富符號知識表達的方法,其多模態(tài)數(shù)據包括但不限于圖像、視頻、語言、代碼等。多模態(tài)知識圖譜可以將符號接地到具象的視覺等模態(tài)對象上,實現(xiàn)跨模態(tài)語義對齊。

d2a5aea6-d9b9-11ed-bfe3-dac502259ad0.png

目前多模知識圖譜的主流形式有兩種。

一種是A-MMKG,其中多模態(tài)數(shù)據僅作為文字符號實體的關聯(lián)屬性存在;

另一種是N-MMKG,其中多模態(tài)數(shù)據也可作為圖譜中的實體存在,可與現(xiàn)有實體發(fā)生廣泛關聯(lián)。

d2b19b58-d9b9-11ed-bfe3-dac502259ad0.png

至此,我們進一步分析AIGC多模態(tài)大模型和大規(guī)模多模態(tài)知識圖譜各自的優(yōu)缺點。

多模態(tài)大模型的優(yōu)點是:

1)關聯(lián)推理能力強:可以學習掌握大量跨模態(tài)知識模式,隱空間的關聯(lián)推理能力強,具有很強的泛化能力;

2)多任務通吃:一套大模型處理各類跨模態(tài)任務;

3)人工成本低:不依賴人工schema設計與數(shù)據標注;

4)適配能力強:可通過調優(yōu)訓練或prompt對話等方式來適配新的領域和任務。

而其不足之處在于:

1)可靠程度低:所生成的內容可靠性堪憂,存在誤差累積、隱私泄露等問題,無法勝任高精度嚴肅場景需求;

2)知識推理弱:沒有真正掌握數(shù)據背后的知識,缺乏知識推理能力,更無因果推理能力;

3)可解釋性弱:雖有CoT加持,但可解釋性仍然不足;

4)訓練成本高:需要消耗大量計算資源和時間來進行訓練,需要強大的計算設備和高效的算法。

而與之對應的,多模態(tài)知識圖譜的優(yōu)點是:

1)專業(yè)可信度高:其結構和關系清晰,易于理解和解釋,可為人類決策提供參考,通常為某個具體應用場景構建,可提供更精準和針對性的知識支持;

2)可解釋性好:以結構化形式表示知識 ,知識的可訪問性、可重用性、可解釋性好,對人類友好;

3)可擴展性強:知識圖譜的內容可以隨著應用場景的需要進行不斷擴展和更新,可以不斷完善和改進。

而多模態(tài)知識圖譜的缺點在于:

1)推理能力弱:只能表示已有的知識和關系,對于未知或不確定的領域難以進行有效的知識建模和推理;

2)人工成本高:其構建需要依賴于人工或半自動的方式進行知識抽取和建模,難以實現(xiàn)完全自動化;

3)架構調整難:其基本schema架構通常是靜態(tài)的,不易根據新的數(shù)據或場景進行修改和調整。

由上分析可見:多模態(tài)大模型的優(yōu)點常常是多模態(tài)知識圖譜的不足,而多模態(tài)大模型的不足又往往是多模態(tài)知識圖譜的優(yōu)勢。因此,我們認為:當前階段,大模型與知識圖譜仍應繼續(xù)保持競合關系,互相幫助,互為補充。

04

AIGC for MMKG

第四部分,我們思考與展望一下AIGC大模型如何輔助MMKG的構建與應用。

d2bd29d2-d9b9-11ed-bfe3-dac502259ad0.png

第一,AIGC大模型為知識獲取降本增效。

(1)通過知識誘導(萃?。?,可以快速獲取大量知識或常識。例如,我們可以從語言大模型中誘導語言知識和關系知識;我們也可以從多模態(tài)大模型中誘導跨模態(tài)對齊知識和視覺常識知識。

d2c5aa30-d9b9-11ed-bfe3-dac502259ad0.png

(2)AIGC大模型的出現(xiàn)使得零樣本、少樣本、開放知識抽取成為可能。例如,我們可以利用ChatGPT對話大模型的理解和生成能力,從給定文本中抽取三元組知識;我們也可以利用多模態(tài)AIGC大模型的跨模態(tài)生成和理解能力,從給定圖文數(shù)據中抽取多模態(tài)知識。

d2cdaef6-d9b9-11ed-bfe3-dac502259ad0.png

(3)AIGC大模型可以顯著增強垂域多模態(tài)知識獲取能力。GPT-4、ChatPDF模型等已經顯示了強大的領域知識抽取能力,如基于多模態(tài)文檔的知識抽取。

d2d9fbe8-d9b9-11ed-bfe3-dac502259ad0.png

第二,AIGC大模型助圖譜設計一臂之力。

大模型在部分領域上擁有領域常識知識,可以輔助完成schema的半自動化設計。在多模態(tài)場景中,也有一些嘗試,例如可以用多模態(tài)AIGC大模型生成cms領域的schema。

d2e34270-d9b9-11ed-bfe3-dac502259ad0.png

第三,AIGC大模型為知識推理保駕護航。

基于大模型的跨模態(tài)生成與推理能力,可以輔助完成KG表示學習、圖譜補全等任務。

d2ed6c3c-d9b9-11ed-bfe3-dac502259ad0.png

第四,AIGC大模型為知識融合掃清障礙。

利用大模型的泛化能力和海量知識,可以輔助完成多模態(tài)知識圖譜融合。利于對于兩個MMKG的對齊,多模態(tài)AIGC大模型在兩者之間可以生成實體知識或語義層面的特征,輔助完成實體對齊。

d2f4e7fa-d9b9-11ed-bfe3-dac502259ad0.png

第五,AIGC大模型為知識更新舔磚加瓦。

基于大模型的常識知識和通用抽取能力可以輔助MMKG進行知識更新??梢岳枚嗄B(tài)AIGC大模型從新事實中輔助抽取新知識;當新知識抽取完成后,可以借助多模態(tài)AIGC大模型輔助更新多模態(tài)知識圖譜。此外,還可以借助多模態(tài)AIGC大模型輔助過期事實檢測,從而將過期知識從知識圖譜中刪除。

d2fdf4ee-d9b9-11ed-bfe3-dac502259ad0.png

第六,AIGC大模型為知識問答錦上添花。

利用大模型的語言理解能力和解析能力,可以幫助更好的構建多模態(tài)知識問答系統(tǒng)。在ChatGPT的知識問答評測結果顯示其在很多問題類型上效果顯著,且跨語言低資源情況下具有碾壓級效果,但是其數(shù)值類問題效果不及SOTA。因此,使用AIGC大模型助力MM-KGQA和K-VQA等任務,可以提升問題解析能力,強化知識推理能力,提供外部知識輔助等。

05

MMKG for AIGC

第五部分,我們總結與展望一下MMKG如何助力AIGC大模型的提升與完善。

d304f3ca-d9b9-11ed-bfe3-dac502259ad0.png

第一,MMKG參與AIGC大模型的生成能力評估。

基于多模態(tài)知識圖譜中的知識構建測試集,可對大模型的生成能力進行各方面評估。例如利用各類百科知識圖譜進行事實性檢驗評估,也可以利用各類MMKG構建測試集進行符號推理能力評估、視覺常識推理能力評估、非語言推理能力評估等。

d3123c60-d9b9-11ed-bfe3-dac502259ad0.png

第二,MMKG引導AIGC大模型的可控約束生成。

已有工作在文本AIGC模型中引入指定約束(如包含/避免某主題)進行可控生成。可以展望未來會出現(xiàn)多模態(tài)知識引導大模型約束生成的工作。比如對于圖像生成,可通過將文本鏈接到多模態(tài)知識圖譜的具體實體,提供實體圖像信息,幫助正確生成實體對應圖像;對于文本生成,通過鏈接到多模態(tài)知識圖譜的具體實體,提供實體關系屬性和實體圖像等實體畫像信息,幫助正確生成符合實體性質和特點的文本。

d322c8b4-d9b9-11ed-bfe3-dac502259ad0.png

第三,MMKG幫助AIGC大模型進行知識編輯。

目前已有在文本大模型上的知識編輯的相關工作??梢灶A見,未來也會出現(xiàn)利用多模態(tài)知識圖譜來對多模態(tài)大模型進行知識編輯的研究工作。

d32ddaba-d9b9-11ed-bfe3-dac502259ad0.png

第四,MMKG輔助AIGC大模型的領域(任務)適配。

用多模態(tài)知識圖譜做領域知識微調可以將大模型的能力適配到領域任務。例如,在電商領域跨模態(tài)檢索場景,常常存在語義不匹配的問題。這種情況下,大模型如何低成本、高效率地解決該領域的具體問題是其應用落地的關鍵。我們與阿里合作的這篇工作提出了通過微調大模型,加上多模態(tài)知識輔助的方式,實現(xiàn)了大模型的輕量級領域適配。

06

AIGC+MMKG

第六部分,我們展望一下AIGC大模型和MMKG如何進一步合作。

d337a658-d9b9-11ed-bfe3-dac502259ad0.png

我們認為,走向通用人工智能需要AIGC大模型和MMKG攜手并進。在未來,基于知識工程和統(tǒng)計模型的語言認知和多模態(tài)感知將會相互結合,并且借助MMKG和AIGC大模型,共同走向多模態(tài)認知的發(fā)展道路上。從視覺感知和語言認知到多模態(tài)認知,從連接主義和符號主義到神經符號主義,通用人工智能必將是一條融合之路。

d33db142-d9b9-11ed-bfe3-dac502259ad0.png

AIGC和MMKG的第一種融合方式是注入知識以增強預訓練大模型。目前知識增強的預訓練語言模型已有多種路徑實現(xiàn)。在多模態(tài)知識增強預訓練的方向上,也有工作將場景圖知識融入視覺語言預訓練模型的預訓練過程中以增強跨模態(tài)語言理解能力。未來還有很多方式方法來將MMKG中的知識以更多方式融入到大模型當中。

d347a8aa-d9b9-11ed-bfe3-dac502259ad0.png

AIGC和MMKG的第二種融合方式是基于知識檢索增強的多模態(tài)生成。例如,給定文本提示,訪問外部多模態(tài)知識庫以檢索相關圖文對,將其用作生成圖像的參考。

d3532a54-d9b9-11ed-bfe3-dac502259ad0.png

AIGC和MMKG的第三種融合方式是因果知識增強的多模態(tài)生成。已有工作利用因果圖譜中的因果關系和圖推理能力,輔助大模型的因果決策,通過在因果圖譜上的檢索、推理和融合將因果信息融入大模型推理中??梢哉雇磥硪蚬R也可被用在對多模態(tài)大模型的理解與生成能力優(yōu)化上。

d365289e-d9b9-11ed-bfe3-dac502259ad0.png

AIGC和MMKG的第四種融合方式是個性化知識接入的多模態(tài)生成。在未來,或許每個個體或企業(yè)都會擁有AI私有化助手,那么如何管理個性化多模態(tài)知識,諸如個人畫像知識圖譜、企業(yè)畫像知識圖譜、價值觀知識圖譜、自媒體知識圖譜等,將這些知識以一種可插拔式的方式接入AIGC大模型中,提高大模型的個性化生成能力將是非常值得探索的方向。

d36fd08c-d9b9-11ed-bfe3-dac502259ad0.png

實際上,Microsoft 365 Copilot就可以看作是知識庫與大模型良好協(xié)作的一款劃時代產品。借助Microsoft Graph(可以看做是一種知識庫)與AIGC大模型的協(xié)作融合,助力Word、PowerPoint、Excel的生產力大提升。

d378b09e-d9b9-11ed-bfe3-dac502259ad0.png

此外,在行業(yè)落地層面,AIGC大模型和MMKG的融合更具價值。由于利用海量通用語料和通用知識訓練的通用大模型與行業(yè)應用場景之間依然存在鴻溝,因此需要進行行業(yè)數(shù)據挖掘和行業(yè)特色知識獲取來進一步訓練更加實用的行業(yè)大模型。

d380f704-d9b9-11ed-bfe3-dac502259ad0.png

基于上述原因,行業(yè)落地往往需要多層次的模型,并有效與知識庫和外部工具進行配合,才能真正解決好行業(yè)問題。通用多模態(tài)預訓練生成大模型、行業(yè)領域預訓練模型、任務小模型以及行業(yè)知識庫、外部工具將構成一個模型共同體,協(xié)作解決行業(yè)復雜問題。

07

總 結

d38c726e-d9b9-11ed-bfe3-dac502259ad0.png

最后總結一下本次分享的主要觀點。首先,AIGC技術的發(fā)展必將加速邁向通用人工智能的步伐。但是僅憑AIGC技術無法真正實現(xiàn)通用人工智能。在多模態(tài)領域,MMKG的構建與應用仍具重要價值。我們認為,AIGC和MMKG應該相互借力,我們分別從AIGC用于MMKG、MMKG用于AIGC、MMKG和AIGC如何融合三方面給出了二者競合方式的探索和展望。未來,符號知識和統(tǒng)計模型的競合方式有待進一步深入探索。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29359

    瀏覽量

    267643
  • 深度學習
    +關注

    關注

    73

    文章

    5431

    瀏覽量

    120790
  • ChatGPT
    +關注

    關注

    28

    文章

    1523

    瀏覽量

    7249

原文標題:AIGC時代的多模態(tài)知識工程思考與展望

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    lABCIWQmultyWindows模態(tài)窗口2010

    lABCIWQmultyWindows模態(tài)窗口2010。
    發(fā)表于 05-17 17:47 ?0次下載

    文化場景下的模態(tài)情感識別

    自動情感識別是一個非常具有挑戰(zhàn)性的課題,并且有著廣泛的應用價值.本文探討了在文化場景下的模態(tài)情感識別問題.我們從語音聲學和面部表情等模態(tài)分別提取了不同的情感特征。包括傳統(tǒng)的手工定制
    發(fā)表于 12-18 14:47 ?0次下載

    模態(tài)MR和特征融合的GBM自動分割算法

    模態(tài)MR和特征融合的GBM自動分割算法
    發(fā)表于 06-27 11:45 ?32次下載

    AI下一個風口來臨 AIGC產業(yè)生態(tài)迎來發(fā)展快車道

    一是基礎的生成算法模型不斷突破創(chuàng)新;二是預訓練模型引發(fā)了AIGC技術能力的質變;三是模態(tài)技術推動了AIGC的內容多邊形,讓AIGC具有了更
    發(fā)表于 02-10 11:53 ?792次閱讀

    中文模態(tài)對話數(shù)據集

    隨著大量預訓練語言模型在文本對話任務中的出色表現(xiàn),以及模態(tài)的發(fā)展,在對話中引入模態(tài)信息已經引起了大量學者的關注。目前已經提出了各種各樣的
    的頭像 發(fā)表于 02-22 11:03 ?1245次閱讀
    中文<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>對話數(shù)據集

    AIGC最新綜述:從GAN到ChatGPT的AI生成歷史

    本調查全面回顧了生成模型的歷史、基本組件、AIGC 從單模態(tài)交互和模態(tài)交互的最新進展。我們從單峰性的角度介紹了文本和圖像的生成任務和相關模型。我們從
    的頭像 發(fā)表于 03-13 10:13 ?2644次閱讀

    ChatGPT/AIGC研究框架原理和應用實踐

    隨著ChatGPT等語言大模型落地,AIGC技術落地在各行各業(yè)中得到發(fā)展和推進。根據模型的分類,AIGC的應用可被分為單模態(tài)模態(tài)兩類。單
    發(fā)表于 03-30 10:35 ?647次閱讀

    如何利用LLM做模態(tài)任務?

    大型語言模型LLM(Large Language Model)具有很強的通用知識理解以及較強的邏輯推理能力,但其只能處理文本數(shù)據。雖然已經發(fā)布的GPT4具備圖片理解能力,但目前還未開放模態(tài)輸入接口并且不會透露任何模型上技術細節(jié)
    的頭像 發(fā)表于 05-11 17:09 ?833次閱讀
    如何利用LLM做<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>任務?

    技術與市場:為具身智能突破技術瓶頸:AIGC

    而進入AIGC時代,GPT等AI大模型提供了新的解決方案,已有不少研究者嘗試將模態(tài)的大語言模型作為人類與機器人溝通的橋梁。即通過將圖像、文字、具身數(shù)據聯(lián)合訓練,并引入
    的頭像 發(fā)表于 05-19 09:49 ?1531次閱讀
    技術與市場:為具身智能突破技術瓶頸:<b class='flag-5'>AIGC</b>

    展望時代增量 “AIGC浪潮與算力變革”媒體沙龍在京召開

    的視角深入探討并展望AIGC浪潮與算力變革下的產業(yè)發(fā)展趨勢。? 數(shù)字經濟中的算力與AIGC: 創(chuàng)新與增長的驅動力 數(shù)字經濟蓬勃發(fā)展,在國家政策層面,對于數(shù)字經濟的建設布局在持續(xù)強化。2022年中國GDP數(shù)字經濟規(guī)模占比超過41%
    的頭像 發(fā)表于 06-25 14:30 ?276次閱讀
    <b class='flag-5'>展望</b><b class='flag-5'>時代</b>增量 “<b class='flag-5'>AIGC</b>浪潮與算力變革”媒體沙龍在京召開

    創(chuàng)芯派 | 專訪青丘片場:AIGC技術驅動下的創(chuàng)意視頻革新之路

    2022年,AIGC產品密集爆發(fā),利用人工智能生成內容成為了網絡作品創(chuàng)作的新潮流。不再局限于文字生成,AI技術的助力正成為AIGC生態(tài)圈的重要部分,使AIGC時代的創(chuàng)作擴展到“
    的頭像 發(fā)表于 07-04 19:30 ?425次閱讀
    創(chuàng)芯派 | 專訪青丘片場:<b class='flag-5'>AIGC</b>技術驅動下的創(chuàng)意視頻革新之路

    VisCPM:邁向多語言模態(tài)大模型時代

    隨著 GPT-4 和 Stable Diffusion 等模型模態(tài)能力的突飛猛進,模態(tài)大模型已經成為大模型邁向通用人工智能(AGI)目標的下一個前沿焦點。總體而言,面向圖像和文本的
    的頭像 發(fā)表于 07-10 10:05 ?664次閱讀
    VisCPM:邁向多語言<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型<b class='flag-5'>時代</b>

    DreamLLM:多功能模態(tài)大型語言模型,你的DreamLLM~

    由于固有的模態(tài)缺口,如CLIP語義主要關注模態(tài)共享信息,往往忽略了可以增強多模態(tài)理解的模態(tài)特定知識。因此,這些研究并沒有充分認識到
    的頭像 發(fā)表于 09-25 17:26 ?653次閱讀
    DreamLLM:多功能<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大型語言模型,你的DreamLLM~

    華為戰(zhàn)略研究院院長周紅:面向智能時代思考展望

    4月17日,華為分析師大會在深圳舉辦。華為戰(zhàn)略研究院院長周紅發(fā)表了題為《面向智能時代思考展望》的主題演講。
    的頭像 發(fā)表于 04-18 09:38 ?1002次閱讀
    華為戰(zhàn)略研究院院長周紅:面向智能<b class='flag-5'>時代</b>的<b class='flag-5'>思考</b>和<b class='flag-5'>展望</b>

    云知聲推出山海模態(tài)大模型

    在人工智能技術的浩瀚星海中,模態(tài)交互技術正成為引領未來的新航標。繼OpenAI的GPT-4o掀起滔天巨浪后,云知聲以創(chuàng)新之姿,推出了其匠心獨運的山海模態(tài)大模型,正式宣告“Her
    的頭像 發(fā)表于 08-27 15:20 ?315次閱讀