0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-05-08 00:07 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,阿里云宣布通義實(shí)驗(yàn)室研發(fā)的視頻生成模型EMO正式上線通義App,免費(fèi)對所有人開放。借助這一功能,用戶可以在歌曲、熱梗、表情包中任選一款模板,然后通過上傳一張肖像照片就能讓 EMO 合成演戲唱歌視頻。

阿里云在視頻生成領(lǐng)域的創(chuàng)新

EMO(Emote Portrait Alive)是一個(gè)由阿里巴巴集團(tuán)智能計(jì)算研究院開發(fā)的框架,一個(gè)音頻驅(qū)動的 AI 肖像視頻生成系統(tǒng),能夠通過輸入單一的參考圖像和語音音頻,生成具有表現(xiàn)力的面部表情和各種頭部姿勢的視頻。

據(jù)介紹,通義 App 首批上線了80多個(gè) EMO 模板,包括熱門歌曲《上春山》《野狼 Disco》等,還有網(wǎng)絡(luò)熱?!袄徖忞u”“回手掏”等。EMO自2月底公布模型論文以來,在海內(nèi)外引發(fā)廣泛關(guān)注,并與OpenAI的Sora模型相提并論。

具體來看,EMO的功能包括,音頻驅(qū)動的視頻生成,通過輸入一段音頻(如語音、歌曲等)和一張參考圖片(通常是人物的肖像),就能生成一個(gè)動態(tài)的、與音頻內(nèi)容同步的視頻。

阿里EMO使用先進(jìn)的音視頻擴(kuò)散模型和注意力機(jī)制,能夠生成具有高度真實(shí)感和豐富表現(xiàn)力的肖像視頻。肖像的表情和動作會非常自然和流暢,與音頻內(nèi)容緊密同步。

阿里EMO的應(yīng)用場景非常廣泛。它不僅可以用于娛樂和創(chuàng)作領(lǐng)域,如讓歷史人物“復(fù)活”、為電影角色配音等,還可以用于教育、廣告、游戲等多個(gè)領(lǐng)域,為用戶提供更多樣化、個(gè)性化的視頻內(nèi)容。

另外,阿里EMO采用高效的算法和計(jì)算框架,能夠在較短的時(shí)間內(nèi)生成高質(zhì)量的肖像視頻。這為用戶節(jié)省了大量的時(shí)間成本,提高了工作效率。

阿里EMO的框架還具有良好的可擴(kuò)展性和靈活性,可以根據(jù)用戶的具體需求進(jìn)行定制和優(yōu)化。例如,可以通過調(diào)整參數(shù)或添加新的模型組件來優(yōu)化生成視頻的質(zhì)量和性能。

阿里在視頻生成領(lǐng)域做過非常多創(chuàng)新,此前還推出過VideoComposer,這是一個(gè)結(jié)合了空間條件和時(shí)序條件的視頻生成框架。它利用單張圖像或草圖作為空間條件,同時(shí)結(jié)合運(yùn)動矢量和深度序列等時(shí)序條件,來生成具有高度視覺逼真度的視頻。

阿里云還發(fā)布了AtomoVideo模型,這是一種能夠從單一靜態(tài)圖像生成高保真視頻序列的技術(shù)。它結(jié)合了個(gè)性化文本到圖像(T2I)模型,能夠根據(jù)文字描述和靜態(tài)圖片生成符合描述的視頻內(nèi)容。

此外,阿里云視覺智能開放平臺提供了豐富的視頻生產(chǎn)能力,包括視頻摘要、視頻編輯、視頻人臉融合等功能。這些功能可以應(yīng)用于電商、影視、廣告等多個(gè)領(lǐng)域,幫助用戶快速生成高質(zhì)量的視頻內(nèi)容。

視頻生成使用到的AI技術(shù)和算法

視頻生成是一個(gè)涉及多個(gè)步驟和技術(shù)的過程,目前國內(nèi)外有多款視頻生成工具,如Pixverse、Pika、Runway Gen-2、Kaiber、Plaiday、Genmo等。其中,Pika因其高質(zhì)量和穩(wěn)定的畫面生成能力而受到用戶好評,Runway Gen-2則可以將midjourney生成的圖像轉(zhuǎn)換為高質(zhì)量動畫。另外,Sora作為一款新興的視頻生成工具,其獨(dú)特之處在于能夠生成高質(zhì)量的長視頻內(nèi)容,并理解長文本指令以生成詳盡細(xì)節(jié)的視頻內(nèi)容。

從算法的角度來看,視頻生成涉及到一些基本的算法和技術(shù)。例如,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中的GRU和LSTM可以有效避免梯度下降和衰減的問題,而encoder-decoder架構(gòu)則使得機(jī)器翻譯等任務(wù)的效果大幅提升。在視頻生成領(lǐng)域,這些算法和技術(shù)可能用于生成視頻的內(nèi)容、結(jié)構(gòu)、風(fēng)格等方面。

視頻生成采用了相當(dāng)多的技術(shù),包括深度學(xué)習(xí)模型,這是視頻生成中最為關(guān)鍵的技術(shù)之一。深度學(xué)習(xí)模型,特別是生成對抗網(wǎng)絡(luò)(GANs)和變分自編碼器(VAEs),被廣泛應(yīng)用于視頻生成中。這些模型能夠?qū)W習(xí)并模仿視頻數(shù)據(jù)的分布,從而生成新的、與原始數(shù)據(jù)相似的視頻。

計(jì)算機(jī)圖形學(xué),它在視頻生成中扮演著重要角色,特別是在創(chuàng)建虛擬場景、角色和特效時(shí)。通過計(jì)算機(jī)圖形學(xué)技術(shù),可以生成逼真的虛擬場景和角色,并將其與真實(shí)視頻相結(jié)合,創(chuàng)造出獨(dú)特的視覺效果。

物理模擬,為了生成更逼真的視頻,物理模擬技術(shù)被用來模擬物體的運(yùn)動和交互。這包括模擬物體的運(yùn)動軌跡、碰撞效果、光影變化等,以使得生成的視頻更加真實(shí)可信。

自然語言處理,隨著技術(shù)的發(fā)展,自然語言處理(NLP)也被應(yīng)用于視頻生成中。通過解析文本描述,NLP技術(shù)可以指導(dǎo)視頻生成模型生成與文本內(nèi)容相匹配的視頻。這為視頻生成提供了更多的創(chuàng)意和可能性。

還有音頻合成技術(shù),除了視覺元素外,音頻也是視頻的重要組成部分。音頻合成技術(shù)可以生成與視頻內(nèi)容相匹配的音效和背景音樂,從而提升視頻的觀看體驗(yàn)。此外,還有一些其他的技術(shù)也被用于視頻生成中,如增強(qiáng)學(xué)習(xí)、遷移學(xué)習(xí)等。這些技術(shù)使得視頻生成更加靈活、高效和多樣化。

寫在最后

經(jīng)過近些年的發(fā)展,視頻生成技術(shù)也逐漸成熟,并且在新聞報(bào)道、廣告制作、教育培訓(xùn)、電影與游戲制作、醫(yī)療健康等領(lǐng)域有不少實(shí)際的應(yīng)用案例。未來,娛樂與媒體、廣告與營銷、教育培訓(xùn)、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)、醫(yī)療健康等都將會成為視頻生成技術(shù)的主流應(yīng)用。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4574

    瀏覽量

    92333
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29348

    瀏覽量

    267631
  • 阿里云
    +關(guān)注

    關(guān)注

    3

    文章

    928

    瀏覽量

    42873
收藏 人收藏

    評論

    相關(guān)推薦

    今日看點(diǎn)丨Vishay裁員800人,關(guān)閉上海等三家工廠;字節(jié)跳動發(fā)布兩款視頻生成大模型

    企業(yè)市場開啟邀測。 ? 火山引擎介紹,豆包視頻生成模型基于DiT架構(gòu),通過高效的DiT融合計(jì)算單元,能更充分地壓縮編碼視頻與文本,讓視頻在大動態(tài)與運(yùn)鏡中自由切換,擁有變焦、環(huán)繞、平搖、縮放、目標(biāo)跟隨等多鏡頭語言能力。此外,豆包
    發(fā)表于 09-25 15:48 ?641次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標(biāo)志著火山引擎在視頻內(nèi)容生成領(lǐng)域邁出了重要
    的頭像 發(fā)表于 09-25 14:11 ?190次閱讀

    阿里通義將發(fā)布視頻生成大模型

    在即將召開的云棲大會上,阿里通義將震撼發(fā)布其自主研發(fā)的視頻生成大模型。目前,用戶已可通過通義App頻道及通義萬相PC端預(yù)約體驗(yàn)這一創(chuàng)新功能,盡管具體使用尚未開放。
    的頭像 發(fā)表于 09-19 17:01 ?267次閱讀

    阿里首推AI視頻生成利器Tora:指尖畫圈,自由操控物體運(yùn)動軌跡

    近日,阿里巴巴團(tuán)隊(duì)震撼發(fā)布了一項(xiàng)革命性的創(chuàng)新成果——Tora,一個(gè)前所未有的AI視頻生成框架。Tora深度融合了文本、視覺與軌跡條件,依托其獨(dú)創(chuàng)的軌跡導(dǎo)向擴(kuò)散變換器(DiT)
    的頭像 發(fā)表于 08-06 16:41 ?691次閱讀

    MediaTek與快手?jǐn)y手創(chuàng)新,端側(cè)視頻生成技術(shù)引領(lǐng)AI新紀(jì)元

    在科技日新月異的今天,MediaTek與快手再次攜手,于近日宣布了一項(xiàng)重大技術(shù)突破——高效端側(cè)視頻生成技術(shù)的誕生。這項(xiàng)技術(shù)不僅是對即將于2024年世界移動通信大會(MWC 2024)上
    的頭像 發(fā)表于 07-05 11:52 ?862次閱讀

    MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù)

    MediaTek 與快手共同宣布,推出高效端側(cè)視頻生成技術(shù),共同探索并推進(jìn)生成AI 技術(shù)的革新。作為對 2024 世界移動通信大會(MW
    的頭像 發(fā)表于 07-05 11:23 ?4443次閱讀

    Google開發(fā)專為視頻生成配樂的人工智能技術(shù)

    近日,科技巨頭Google旗下的人工智能研究實(shí)驗(yàn)室DeepMind宣布了一項(xiàng)引人注目的技術(shù)突破——V2A技術(shù)(Video to Audio),這是一項(xiàng)專為視頻生成配樂的人工智能技術(shù)。這
    的頭像 發(fā)表于 06-20 11:03 ?434次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方面均取得了顯著的進(jìn)步,為創(chuàng)作者們帶來了前所未有的便利和可能性。
    的頭像 發(fā)表于 06-19 09:25 ?478次閱讀

    新火種AI|圍攻光明頂:Sora效應(yīng)下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領(lǐng)域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?558次閱讀

    除了刷屏的Sora,國內(nèi)外還有哪些AI視頻生成工具

    。Sora的發(fā)布也讓AI生成視頻有了突破性進(jìn)展。 ? 過去一年多,全球科技公司都在發(fā)布各種大模型,然而AI生成內(nèi)容更多集中在文本和圖片方面,
    的頭像 發(fā)表于 02-26 08:42 ?4144次閱讀
    除了刷屏的Sora,國內(nèi)外還有哪些<b class='flag-5'>AI</b><b class='flag-5'>視頻生成</b>工具

    openai發(fā)布首個(gè)視頻生成模型sora

    美國當(dāng)?shù)貢r(shí)間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個(gè)文生視頻案例和技術(shù)報(bào)告 ,正式入局視頻生成領(lǐng)域 。Sora能夠根據(jù)提示詞
    的頭像 發(fā)表于 02-21 16:45 ?1120次閱讀

    OpenAI新年開出王炸,視頻生成模型Sora問世

    近日,OpenAI在AI生成視頻領(lǐng)域取得重大突破,發(fā)布了全新的生成式人工智能模型“Sora”。該模型在視頻生成方面展現(xiàn)出了驚人的能力,通過文
    的頭像 發(fā)表于 02-20 11:46 ?682次閱讀

    AI視頻年大爆發(fā)!2023年AI視頻生成領(lǐng)域的現(xiàn)狀全盤點(diǎn)

    2023年,也是AI視頻元年。過去一年究竟有哪些爆款應(yīng)用誕生,未來視頻生成領(lǐng)域面臨的難題還有哪些?
    的頭像 發(fā)表于 02-20 10:40 ?1053次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>視頻</b>年大爆發(fā)!2023年<b class='flag-5'>AI</b><b class='flag-5'>視頻生成</b>領(lǐng)域的現(xiàn)狀全盤點(diǎn)

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽(yù)的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成
    的頭像 發(fā)表于 02-19 11:03 ?828次閱讀

    OpenAI發(fā)布首個(gè)視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)視頻創(chuàng)作帶入了一個(gè)全新的紀(jì)元,為用戶提供了前所未有的創(chuàng)作可能性。
    的頭像 發(fā)表于 02-18 10:07 ?950次閱讀