0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

文生視頻,硬件成本是最大攔路虎

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2024-02-26 09:13 ? 次閱讀



電子發(fā)燒友網(wǎng)報道(文/周凱揚)自文本與圖片類的AIGC爆火以來,幾乎所有互聯(lián)網(wǎng)公司和應用開發(fā)商都在跟進。然而近期隨著Sora的爆火,決定開發(fā)同類應用的廠商卻少之又少,這就不得不談到硬件成本的問題,畢竟一個能夠實現(xiàn)文生視頻的應用,服務器成本要遠遠高于GPT類應用。

從文生視頻模型的配置談硬件成本

對于目前市面上的一些文生視頻模型而言,其配置往往決定了體驗的好壞。就拿Runway的Gen-2模型來說,其最大的特點在于可以生成4K級別分辨率的視頻,且具備影視級別的構圖和運鏡,支持圖片和文本的指令輸入。

然后是最近一炮走紅的Sora,其將最大時長做到了1分鐘,且支持符合部分物理規(guī)律的世界模型,以及多鏡頭的切換等。不過與Gen-2模型一樣,其對分辨率也進行了限制,甚至只能生成1080p的視頻。

其他文生視頻模型的配置則更加捉襟見肘,比如Meta的Emu Video只能生成最長4秒的512x512分辨率視頻等等。從以上文生視頻模型看來,由于為了確保畫面一致性,視頻分辨率、視頻長度和每秒幀數(shù)往往決定了生成單個視頻的硬件負載。目前對于硬件要求最高的應該是Runway的Gen-2和OpenAI的Sora。

這也是為何文生視頻應用均采用訂閱模式,甚至是按量訂閱的付費策略,比如生成視頻的項目數(shù)量、存儲空間、導出質量等,文生視頻考驗的不僅是服務器算力,還有存儲成本。畢竟為了方便用戶回溯,這些生成的視頻依然需要存儲在服務器上一段時間。

就以Runway為例,要想完全無限制地生成視頻功能,每月訂閱費用高達76美元,且這僅僅意味著450s的Gen-2視頻生成,如果用戶需要生成更多內容,則還需要額外購買??梢姙榱司S持服務器費用,文生視頻應用面臨的成本壓力要遠大于GPT類應用。

不只是云端,硬件成本也決定了本地部署的難度

從ChatGPT和Stable Diffusion這兩個最火的AIGC應用就可以看出,硬件是開發(fā)這類應用的最大門檻之一?;诘统杀居布蛟斓念怌hatGPT應用響應時間慢,生成內容質量差。而Stable Diffusion這類文生圖模型,已經可以在消費級硬件上實現(xiàn)不錯的效果,甚至可以普及到一些低功耗的端側設備上。

但對于Sora這類文生視頻的模型而言,要想在消費級實現(xiàn)本地部署可謂是難于登天,在完成內容的基本生成工作后,還需要經歷風格化、分鏡、遮罩、渲染和自定義等一系列流程,可以說不僅考驗硬件的AI算力,也對視頻渲染能力提出了更高的要求。

據(jù)了解,一批開源開發(fā)者已經在構建OpenAI Sora的復制版本,且可以在使用消費級英偉達GPU的高配電腦上跑通。不過馬斯克也評論道,他也認為這是可行的,但是幀渲染速率會非常低。如果需要花上數(shù)小時,才能生成出一個質量較差的4秒視頻,對于絕大多數(shù)用戶來說,必然不是好的體驗。

寫在最后

要論硬件成本的話,對于應用開發(fā)者和用戶而言,文生視頻目前還是一個較為昂貴的“玩具”。但我們也不能否認其前景,隨著算力成本逐漸下降,未來文生視頻不僅可以作為內容創(chuàng)作途徑,也可以作為輔助工具,替代掉一部分重復性工作,尤其是在廣告視頻行業(yè)。

不過這類應用的出現(xiàn),也會讓我們開始重新審視起GPU在AIGC硬件市場的地位,畢竟多出了圖形渲染這一額外的硬件要求,其他的ASIC方案在這方面固然會遜色GPU一籌。再加上英偉達GPU在物理仿真上的優(yōu)勢,或許文生視頻會給英偉達帶來更多的市場機遇。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29380

    瀏覽量

    267659
  • AIGC
    +關注

    關注

    1

    文章

    338

    瀏覽量

    1449
  • 大模型
    +關注

    關注

    2

    文章

    2212

    瀏覽量

    2232
  • Sora
    +關注

    關注

    0

    文章

    75

    瀏覽量

    177
收藏 人收藏

    評論

    相關推薦

    智譜AI正在研發(fā)國產文生視頻模型,對標OpenAI Sora

    國內AI領域的獨角獸企業(yè)智譜AI正全力研發(fā)一款與OpenAI的Sora相媲美的國產文生視頻模型。據(jù)悉,該模型的技術研發(fā)已取得顯著進展,預計最快將于今年內正式對外發(fā)布。
    的頭像 發(fā)表于 05-13 11:14 ?591次閱讀

    智譜AI正研發(fā)對標Sora的國產文生視頻模型

    智譜AI,這家國內估值超過200億的AI大模型獨角獸企業(yè),正全力投入研發(fā)一款與OpenAI的Sora相媲美的國產文生視頻模型。據(jù)公司內部人士透露,該模型預計最快將在今年內發(fā)布,將成為AI視頻生成領域的一大亮點。
    的頭像 發(fā)表于 05-07 09:22 ?476次閱讀

    OpenAI發(fā)布文生視頻大模型Sora、英偉達市值超谷歌

    OpenAI加入文生視頻大模型的戰(zhàn)局,AI大模型進入視頻生成的階段,這將進一步刺激AI芯片的需求。 OpenAI發(fā)布文生視頻大模型Sora,
    的頭像 發(fā)表于 03-28 18:13 ?798次閱讀

    7萬張H100打造的OpenAI文生視頻Sora功能原理詳解|Sora注冊全攻略

    近日,OpenAI發(fā)布的基于Transformer架構的文生視頻Sora,可謂是在AI圈掀起新的熱潮。該模型具有強大的視頻生成能力,可產生高達一分鐘的高清視頻,并且用戶可以自由指定
    的頭像 發(fā)表于 02-29 11:48 ?932次閱讀
    7萬張H100打造的OpenAI<b class='flag-5'>文生</b><b class='flag-5'>視頻</b>Sora功能原理詳解|Sora注冊全攻略

    OpenAI文生視頻模型Sora要點分析

    近日,美國人工智能公司OpenAI發(fā)布了首個視頻生成模型Sora。不同于此前許多AI大模型文生圖或視頻時,會出現(xiàn)人物形象前后不一致等問題
    的頭像 發(fā)表于 02-22 16:37 ?933次閱讀
    OpenAI<b class='flag-5'>文生</b><b class='flag-5'>視頻</b>模型Sora要點分析

    OpenAI新推文生視頻大模型Sora引發(fā)熱議,首批受益者涌現(xiàn)

    在科技浪潮中,OpenAI再次引領潮流。繼2023年的文生文大語言模型之后,2024年春節(jié)期間,OpenAI推出的文生視頻大模型Sora迅速成為全球科技界的焦點。這款模型能夠根據(jù)文本內容生成高質量的
    的頭像 發(fā)表于 02-22 14:15 ?647次閱讀

    OpenAI發(fā)布人工智能文生視頻大模型Sora

    近日,人工智能領域的領軍企業(yè)OpenAI宣布推出其最新的人工智能文生視頻大模型——Sora。這款模型在繼承DALL-E 3卓越畫質和遵循指令能力的基礎上,實現(xiàn)了對真實物理世界的深度模擬,為視頻制作領域帶來了前所未有的變革。
    的頭像 發(fā)表于 02-20 13:54 ?760次閱讀

    OpenAI發(fā)布文生視頻模型Sora,開啟AI內容創(chuàng)作新紀元

    近日,人工智能領域的領軍企業(yè)OpenAI在其官網(wǎng)上正式發(fā)布了名為Sora的文生視頻大模型。這款模型具備根據(jù)用戶提示生成長達一分鐘視頻的能力,并在視頻連貫性、角色一致性等方面表現(xiàn)出色,幾
    的頭像 發(fā)表于 02-20 13:44 ?560次閱讀

    英偉達市值躍居全球第四 文生視頻大模型Sora帶動

    英偉達市值躍居全球第四 文生視頻大模型Sora帶動 文生視頻大模型Sora引發(fā)市場關注;OpenAI的首款文生
    的頭像 發(fā)表于 02-19 16:48 ?928次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領AI視頻生成新紀元

    在人工智能(AI)領域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻
    的頭像 發(fā)表于 02-19 11:03 ?831次閱讀

    OpenAI推出全新文生視頻模型Sora

    近日,全球領先的人工智能研究公司OpenAI宣布推出其最新的文生視頻大模型“Sora”。該模型具有突破性的功能,能夠根據(jù)用戶提供的文本指令或靜態(tài)圖像,自動生成長達1分鐘的高清視頻。這些視頻
    的頭像 發(fā)表于 02-19 10:56 ?726次閱讀

    奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型Sora正式亮相

    奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型Sora正式亮相 2月16日凌晨OpenAI的首個文生視頻模型Sora正式亮相。Sora只需輸入文字,便可生成一段長達60秒的高
    的頭像 發(fā)表于 02-18 17:41 ?900次閱讀

    OpenOCD是什么?J-Link、J-Trace、Open JTAG的區(qū)別

    最近在調試一些單板,對于這個調試工具我真的是又愛又恨,熟悉了那就是金箍棒,不熟悉那就是攔路虎。
    的頭像 發(fā)表于 12-12 09:43 ?1w次閱讀
    OpenOCD是什么?J-Link、J-Trace、Open JTAG的區(qū)別

    連接器的真正成本是多少?

    連接器通常是根據(jù)購買價格來選擇的,而沒有充分考慮與使用它們相關的成本。連接器的真正成本是多少?
    的頭像 發(fā)表于 12-01 16:14 ?1165次閱讀

    哪位大佬能提供一下中科微CSM32RV003單片機開發(fā)系統(tǒng)中gpio.h文件的中文解釋,及用法

    卻是攔路虎,還有那些英文水平差的人,電子技術水平較低的人,很是打擊學習的積極性。哪位大佬能把gpio.h加上中文注釋,在函數(shù)中怎么用的,配套的電路圖等,讓初學者少走些彎路。
    發(fā)表于 10-26 09:47