0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

明線與暗線:讀懂云廠商鏖戰(zhàn)大模型

腦極體 ? 來源: 腦極體 ? 作者: 腦極體 ? 2023-09-16 09:48 ? 次閱讀

天氣轉(zhuǎn)涼,夏天即將過去。如果有人問,云計算廠商在這個火熱的夏天做了什么。答案是,他們做了三件事:大模型、大模型,以及大模型。

7月,在華為開發(fā)者大會2023(Cloud)期間,華為云公布了盤古大模型3.0,隨后進行了生態(tài)等方面的升級。而在此前更早時候,阿里云公布了通義千問大模型,并在8月3日宣布其正式開源。

來到9月,云計算廠商的大模型發(fā)布更加密集。9月5日,百度智能云在2023百度云智大會發(fā)布了千帆大模型平臺2.0,進一步集成百度的文心系列大模型,只隔兩天,騰訊就在2023騰訊全球數(shù)字生態(tài)大會發(fā)布了混元大模型,其主要出口則是騰訊云。

至此,中國幾大云計算廠商可以說是在大模型領域重兵集結(jié)。相較于AI算法公司與研究機構(gòu),云計算廠商做的大模型更貼近產(chǎn)業(yè)與應用的一線,而且大模型與云廠商原本的業(yè)務體系、營收模塊有著相對復雜的關系。因此,云廠商的大模型之爭,絕不是簡單的模型之間技術對比。

那么,云計算大廠做大模型究竟是為什么?云+大模型之戰(zhàn)的決勝點在哪?

本文中,我們希望通過多個層次的對比與梳理,和大家一起解答這個問題。

首先要明確兩個前提:一是伴隨著各行業(yè)IT投入的降低,云計算廠商普遍面臨著增速放緩,營收不利的情況。根據(jù)IDC報告預測,未來五年中國云計算行業(yè)的平均增長速度將下調(diào)10%左右,云計算廠商的正在普遍降低業(yè)務預期。因此,大模型突然爆火,對于云計算行業(yè)來說是難得的窗口,這個機會或許利益沒有想象中大,但目前也不得不做。

另一個情況是,從用戶界面來看云+大模型的需求是十分復雜的。有的用戶需要直接調(diào)取模型,有的用戶需要AI算力來自己訓練模型,還有用戶需要大量的模型定制化與解決方案集成。因此云廠商做大模型并不是很多人想象的短兵相接白刃戰(zhàn)。大模型相關業(yè)務,需要面向多個市場,多種商業(yè)模式。這場賽事更像是一場陣地戰(zhàn),各個戰(zhàn)略節(jié)點都不能出現(xiàn)缺口。

在這場大模型鏖戰(zhàn)的各個層面,都有一條明線和一條暗線在牽引著局勢的發(fā)展。

IaaS層:明線堆卡,暗線啟動國產(chǎn)AI算力

大模型帶給云計算廠商最直接的變化,其實并不來自于模型本身,而是大模型火了之后,涌現(xiàn)出來的大模型熱潮需要龐大的AI算力。大模型數(shù)據(jù)規(guī)模巨大,且訓練模型需要專屬的AI算力,這就給云計算服務商短期帶來了用云量的升級。在云計算IaaS層市場整體相對低迷的情況下,大模型的出現(xiàn)也算是注入了一針強心劑。

這個層面上云計算廠商的競爭節(jié)點,用一個詞概括就是“堆卡”。誰能提供充沛少排隊,且盡量價格低廉的AI算力,誰就算贏了。而AI算力的來源主要是英偉達GPU,于是就出現(xiàn)了云計算廠商買空市面上GPU的現(xiàn)象,以及“云廠商都是給英偉達打工”的說法。

但不管怎么說,云計算廠商在IaaS層的堆卡競賽都不會結(jié)束,大量用戶依舊會以計算成本和計算效率來作為選擇公有云AI算力的考量依據(jù)。這個層面上,云計算廠商就需要提升在計算集群性、計算兼容性方面的能力,盡量發(fā)揮出每一張GPU的價值。

比如說,百度智能云就承諾在萬卡集群訓練大模型時,有效訓練時間達到95%以上,從而降低用戶的訓練時間成本,實現(xiàn)更好的計算加速比。阿里云則提出了能夠支持高達十萬卡GPU的單集群規(guī)模,可讓多個萬億參數(shù)大模型同時在線訓練。

而在堆卡這條明線之外,云+大模型在基礎設施層的競賽其實還有一條暗線,就是AI算力的國產(chǎn)化。

不久之前,英偉達高端GPU面向中國市場供應鏈不穩(wěn)定的消息沸沸揚揚,后來又傳出了“中國特供版GPU”價格貴、性能低的問題。這些現(xiàn)象愈發(fā)讓各界看到了AI算力走向自主可控的必然性。

在這輪大模型熱潮中,AI算力的國產(chǎn)化與云上獲取從趨勢變成了現(xiàn)實。其主要方式有兩種,一種是云計算廠商兼容更多的***,提供多樣化的AI算力。比如騰訊云、百度智能云等廠商都在強化自身的國產(chǎn)軟硬件兼容性,并且構(gòu)建AI計算的相關生態(tài)。

在這一點上,華為云擁有天然的優(yōu)勢。受到制裁后的幾年里,華為逐漸將自主AI計算生態(tài)做大做強,已經(jīng)成為國產(chǎn)AI計算中比較成熟的一支。伴隨著盤古大模型的升級,華為云同時宣布將提供自主化的AI云服務,為大模型訓練提供算力底座,這意味著華為的自主化AI算力正式由線下走上云端。

強調(diào)大模型、AI框架的自主可控已經(jīng)是大勢所趨。接下來,有理由相信公有云+國產(chǎn)AI算力的模式,將在宏觀趨勢的推動下持續(xù)向上。最終成為左右IaaS市場的關鍵變量。

模型層:明線MaaS落地,暗線降低定制化成本

從產(chǎn)業(yè)層面上看,大模型帶給云計算的最大變化是什么?就目前情況來看,MaaS的新商業(yè)模式是云廠商最為看重的一點。所謂MaaS,是指云廠商直接向用戶輸送AI大模型,從而實現(xiàn)模型即服務。

至少在目前的開局階段,各家云廠商對MaaS這個全新模式寄予厚望,甚至有廠商直接用MaaS替換了此前的SaaS,似乎經(jīng)歷了久久為功之后,SaaS模式終于要被云產(chǎn)業(yè)放棄了。這也難怪。畢竟在中國市場SaaS的客單價較低,但需要進行的定制化工作卻很多,并且異常消耗后期服務。以大廠的綜合成本來看,SaaS始終難以擺脫食之無味棄之可惜的雞肋定位。

既然如此,還不如轉(zhuǎn)頭擁抱更加火熱的大模型。于是可以看到各個云廠商在2023年集體發(fā)力MaaS的新商業(yè)模式,并且為此做出了系列工作。

進軍MaaS的第一階段,云廠商主要布局在三個方面:

1.基礎模型要多且精,能夠滿足用戶在NLP、CV、多模態(tài)等幾個大方向的多樣性需求。同時,基礎模型還是云廠商的大模型門面?;A模型的體驗,決定著用戶與開發(fā)者對云廠商大模型能力的第一印象。比如文心一言的火爆,就給文心系列大模型與百度智能云的MaaS服務帶來了明顯的品牌加持效應。

2.重點領域要重點覆蓋,在可能被高頻次調(diào)用的行業(yè)類別與應用類別上,廠商要盡量做出成熟的大模型,以及基于大模型開發(fā)的應用,盡量實現(xiàn)低門檻集成與開箱即用。比如騰訊云的行業(yè)大模型精選商店,既提供混元大模型,還上架了金融、文旅、零售等20多個領域的行業(yè)大模型。行業(yè)大模型,已經(jīng)成為MaaS模式的中堅力量。

3.要提供充沛的工具能力。除了基礎模型、高頻定制模型之外,還有海量的大模型需求。這要求用戶和開發(fā)者具備一定的開發(fā)能力,而云廠商需要提供模型精調(diào)、應用開發(fā)方面的工具鏈。比如百度智能云的千帆平臺,就在模型之外還提供預制數(shù)據(jù)集、應用范式,以及其他幫助企業(yè)應用大模型的工具。

但看似如火如荼的MaaS模式,實則也隱藏了一個暗線問題:SaaS不賺錢,于是轉(zhuǎn)頭擁抱MaaS,但誰說MaaS就賺錢了呢?

云廠商做AI也已經(jīng)很多年了。但結(jié)果往往是效果很好,利潤很差。這其中的關節(jié)依舊在SaaS失速的那個關鍵原因上:定制化成本。

無論是企業(yè)應用AI還是現(xiàn)在應用大模型,本質(zhì)上都難逃AI作為軟件的不確定性。不同企業(yè)之間的不同需求天差地別,加上AI在算力、數(shù)據(jù)與人才上都有極高的成本,任何定制行為都會產(chǎn)生一連串的連鎖反應。專家下工廠聽上去很美,但說一千道一萬,工廠最終是無法負擔專家薪資的。但如果不提供定制化,又會出現(xiàn)絕大多數(shù)AI需求無法被滿足的尷尬。

于是,怎么從頂層設計階段就降低MaaS模式可能產(chǎn)生的定制化成本,已經(jīng)成了大模型一戰(zhàn)最為核心的競爭暗線。

在這個方面,各家廠商的探索幅度與實現(xiàn)方式各不相同。比如百度智能云更傾向用預置模型、預置應用的方式來降低定制化。除了模型平臺之外,百度智能云還發(fā)布了“AI 原生應用 Family”,通過模型+大模型應用的模式讓企業(yè)滿足自身需求。

在這方面,目前探索幅度最大的是華為云。華為云的盤古大模型3.0,從框架設計上搭建了一個“5+N+X”的三層架構(gòu)。這個架構(gòu)把大模型分為L0、L1、L2三層體系。其中L0層包括NLP、CV、多模態(tài)、預測、科學計算五個基礎大模型;L1則是N個行業(yè)大模型,比如政務、礦山、金融等;L2是面向各行業(yè)的細化場景模型,比如先導藥物篩選、傳送帶異物檢測等。

這個框架的設計理念,是用戶和伙伴、開發(fā)者可以根據(jù)自身需要,調(diào)用不同等級的模型進行組合拼裝,既可以直接調(diào)用集成模型,也可以基于模型進行精調(diào),還可以獲得由不同開發(fā)者訓練的具體場景模型。這一思路的設計形式,就有了工業(yè)革命中模塊化、零部件化的特征,而具體效果如何,還有待在產(chǎn)業(yè)中檢驗。

整體而言,云廠商在MaaS上最討厭的就是定制化高、復用度低、后續(xù)服務工作量大的需求。這會把原廠有限的資源過度分散,最終回報難以達標。這也就是云計算行業(yè)經(jīng)常討論的“小作坊式AI開發(fā)”。

在目前階段,云廠是可以在MaaS上只投入,不產(chǎn)出的。但長遠來看,從小作坊到流水線的改變能否實現(xiàn),是決定MaaS生死的背水一戰(zhàn)。

生態(tài)層:明線聚合眾力,暗線開源之爭

我們需要接著說大模型那個問題,定制化成本太高。正因為定制成本高,單一服務商的綜合資源有限,因此云廠商必須把大量工作分包出去。要由合作伙伴來完成咨詢、服務、分銷等工作。否則原廠會被漫長的流程與巨大的服務成本反復折磨。這也就導致,在走向MaaS模式的時候,云計算公司比以往更加需要伙伴生態(tài)的搭建。

另一方面,云廠商在目前不僅需要伙伴,開需要盡量聚攏應用開發(fā)者。AI大模型是個新東西,其能誕生的新應用模式具有很大的想象力。就像iPhone時刻有賴于大量的APP開發(fā)者,大模型這個“新iPhone時刻”也有賴于大量具有突破能力的AI開發(fā)者。為此,互聯(lián)網(wǎng)大廠一方面在自己做應用,另一方面也需要聚攏更多應用開發(fā)者。因為任何應用火了,都會為提供基礎模型與算力的云廠商帶來一系列連鎖效應。

這些因素綜合起來,讓云+大模型之戰(zhàn),在最開始就變成了一場生態(tài)爭奪戰(zhàn)。各個廠商可以說是擺開陣勢,盡一切可能來吸引伙伴和開發(fā)者加入自身的生態(tài)體系。其中,基礎措施是提供開發(fā)者與伙伴所需的技術與能力,進階模式則是推動基于大模型的技能培訓、應用開發(fā)大賽、免費資源、聯(lián)合創(chuàng)業(yè)計劃,在商業(yè)層面賦能伙伴和開發(fā)者。也有云廠商主張與伙伴進行全域協(xié)同,聯(lián)合創(chuàng)新,在細分市場與細分場景中以伙伴為主進行大模型落地。

而在如何吸引開發(fā)者、伙伴的生態(tài)之爭中,隱藏暗線是一個非常具有互聯(lián)網(wǎng)思維特征的命題:能不能干脆把模型開源免費,用極端降低成本的方式來吸納伙伴加入?

這也是最近被熱烈討論的“大模型開源閉源之爭”其來源之一。

支持開源者認為,免費就是最好的生態(tài)聚合策略,且靠免費引流的策略在互聯(lián)網(wǎng)時代屢試不爽。加上AI大模型作為基礎軟件,走向開源恐怕是早晚之事。

而反對者認為,大模型還處在剛剛發(fā)展的階段。廠商需要持續(xù)投入大量研發(fā)成本進行升級,盲目的免費會導致大模型發(fā)展陷入停滯,攪亂科技進步秩序。并且大模型開源不僅能降低伙伴和開發(fā)者的成本,也會導致市場最終定價降低,攤薄伙伴的利潤,最終導致企業(yè)不愿意投入研發(fā)創(chuàng)新。

不管怎么說,大模型開源與閉源的對壘,已經(jīng)從產(chǎn)業(yè)探討變成了云計算市場的現(xiàn)實。8月3日,阿里云宣布通義千問開源,成為首個宣布大模型開源的中國互聯(lián)網(wǎng)云廠商,并且阿里云打造的AI模型社區(qū)魔搭ModelScope還以開源、免費、可商用作為主要買點,提供國內(nèi)外的各種開源大模型。

此后,究竟是越來越多的云廠商在鲇魚效應下走向開源,還是依舊會保持高技術與低成本之間的對壘?讓我們拭目以待。

以我個人觀點來看,大模型的發(fā)展?jié)摿€很大,可探索空間眾多。處于發(fā)展中的技術其實并不適合快步走向開源,因此相當部分的大模型保持閉源商業(yè)模式,是一個更大概率事件。

解決方案層:明線首批大客戶,暗線政企上云新窗口

無論說的多么熱鬧,其實企業(yè)直接通過API接口調(diào)用大模型,這種MaaS服務模式的利潤并不高。甚至可以說,在目前“百模大戰(zhàn)”的背景下,簡單調(diào)用大模型變成了一件頗為廉價的事情。

而持續(xù)投入的云計算行業(yè),顯然不能滿足于這種商業(yè)模式,因此必然要爭取一些客單價高,利潤大的項目。而政企大客戶選用基于大模型的數(shù)字化解決方案,就成為了云計算廠商眼中的新機會窗口。

在眾多類型的政企大客戶中,又有錢,又有數(shù)字化能力,且愿意盡快探索大模型可能性的只有兩類:智慧城市與金融。其他更偏向?qū)嶓w的制造、能源、交通等行業(yè),則相對來說更加謹慎,還處在對大模型的觀望了解之中。

因此,爭奪政務與金融大客戶訂單,就成為了云計算廠商進入大模型賽道后的一個標準動作。比如我們可以看到在2023百度云智大會上,百度智能云發(fā)布了基于大模型的數(shù)字政府解決方案九州。華為云則在強化和推廣金融、智慧城市等領域結(jié)合盤古大模型的解決方案。

在可見的未來,云計算廠商除了在模型能力與模型平臺的競爭之外,還將在以城市、金融為代表的重點領域進行爭奪。而回答好這些領域為什么需要大模型,大模型能帶來哪些與以往不同的價值,是云廠商必須回答的第一道考題。

在為大客戶構(gòu)建解決方案層面,也隱藏著一條暗線。這條線索直接關乎于云計算廠商的焦慮感:大型政企客戶,不那么愿意上云了。

在幾年前,大型政企上云是一種大勢所趨,可謂是能上盡上,多上快上,但在目前階段,政企客戶更加強調(diào)數(shù)據(jù)與數(shù)字化系統(tǒng)的安全可控,盲目上云被認為并不可取。尤其是否能把大量關鍵數(shù)據(jù)放互聯(lián)網(wǎng)云平臺上,開始逐漸變成一種疑問。目前階段,國資云、國家云的提法不斷強化,即使上云,大型政企也會優(yōu)先考慮以我為主,多云采購的策略,而這在無形中就分散了云廠商的利潤空間。

在這樣的背景下,云廠商對大模型的一個隱性期待,是能夠讓其成為推動大型政企繼續(xù)上云的技術契機。畢竟在云上獲取大模型,有天然的成本與可操作性優(yōu)勢。

因此,能不能更好展現(xiàn)出大型政企、重點實體行業(yè)部署大模型解決方案的重要性,同時打消政企在數(shù)據(jù)安全、自主可控、持續(xù)服務、品牌信任等領域的疑問,就成為了云廠商鏖戰(zhàn)大模型的另一道必答題。

事實上,云計算與大模型的結(jié)合,還有很多賽點可以討論。比如大模型與PaaS的結(jié)合;云廠商在辦公、網(wǎng)盤等toB應用結(jié)合大模型的情況等。整體而言,算力、MaaS、生態(tài)、大型政企解決方案,構(gòu)成了云計算廠商能否在大模型之戰(zhàn)中獲得競爭力的四個層面。

無論對于哪家公有云廠商來說,這場競賽的目標都是一致的:讓模型有用,讓成本下降,讓AI成為盈利的起點

大模型最終會變成又一個雞肋,還是新時代的大門?路漫漫其修遠兮,云計算還需要上下求索。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 云計算
    +關注

    關注

    39

    文章

    7653

    瀏覽量

    137011
  • SaaS
    +關注

    關注

    1

    文章

    360

    瀏覽量

    36795
  • IaaS
    +關注

    關注

    0

    文章

    67

    瀏覽量

    18541
  • 大模型
    +關注

    關注

    2

    文章

    2203

    瀏覽量

    2227
  • 盤古大模型
    +關注

    關注

    1

    文章

    109

    瀏覽量

    220
收藏 人收藏

    評論

    相關推薦

    科技報到:大模型時代下,向量數(shù)據(jù)庫的野望

    科技報到:大模型時代下,向量數(shù)據(jù)庫的野望
    的頭像 發(fā)表于 10-14 17:18 ?136次閱讀

    亞馬遜科技上線Meta Llama 3.2模型

    亞馬遜科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMak
    的頭像 發(fā)表于 10-11 18:08 ?348次閱讀

    亞馬遜科技正式上線Meta Llama 3.2模型

    亞馬遜科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?370次閱讀

    科技報到:從計算到AI大模型,巨頭生態(tài)革命邁出關鍵一步

    ”,導致整個行業(yè)陷入到了“低水平內(nèi)卷”的境地。 如今,在大模型的促進下,千行萬業(yè)的智能化轉(zhuǎn)型愈演愈烈,而化算力作為靈活高效、性價比極高的算力資源獲取方式,正在成為各AI廠商新的算力底座。如果說芯片是智能時代的“石油”,那
    的頭像 發(fā)表于 08-26 15:00 ?203次閱讀
    科技<b class='flag-5'>云</b>報到:從<b class='flag-5'>云</b>計算到AI大<b class='flag-5'>模型</b>,<b class='flag-5'>云</b>巨頭生態(tài)革命邁出關鍵一步

    阿里設備的物模型數(shù)據(jù)里面始終沒有值是為什么?

    如上圖,不知道講清楚沒有。 IG502自定義TOPIC 上發(fā)到阿里沒問題。采用阿里模型的格式來上發(fā)就不行。請大佬指教!
    發(fā)表于 07-24 07:49

    華為HDC 2024看點 華為盤古大模型5.0正式發(fā)布

    在華為開發(fā)者大會2024(HDC 2024)上,華為常務董事、華為CEO張平安正式發(fā)布盤古大模型5.0,在全系列、多模態(tài)、強思維三個方面全新升級;張平安還分享了盤古大模型在自動駕駛、工業(yè)設計
    的頭像 發(fā)表于 06-23 11:41 ?1194次閱讀
    華為HDC 2024看點  華為<b class='flag-5'>云</b>盤古大<b class='flag-5'>模型</b>5.0正式發(fā)布

    阿里 all in AI 的決心

    “第一個提出MaaS的阿里,能否成為廠商在AI時代變革的新范本?”如何抓住AI的機會?這是進入大模型時代后,面對新的起點,各大
    的頭像 發(fā)表于 05-17 08:04 ?323次閱讀
    阿里<b class='flag-5'>云</b> all in AI 的決心

    插座線與照明線非同一線路電路配置

    首先,插座線路和照明線路的電流負荷不同。插座線路通常用于給家用電器供電,其電流負荷較大,一般分為10A和16A兩種類型。
    的頭像 發(fā)表于 04-12 09:28 ?430次閱讀
    插座線與照<b class='flag-5'>明線</b>非同一線路電路配置

    廠商再次大降價,加速計算在各行業(yè)的發(fā)展和普及?

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近年來,計算市場的競爭愈發(fā)激烈,各大廠商紛紛通過降價來爭奪市場份額。前不久,阿里宣布了全線產(chǎn)品的降價計
    的頭像 發(fā)表于 03-25 09:23 ?1612次閱讀

    華為盤古大模型通過金融大模型標準符合性驗證

    近日,在中國信通院組織的可信AI大模型標準符合性驗證中,華為的盤古大模型表現(xiàn)出色,成功通過了金融大模型標準的符合性驗證,并榮獲優(yōu)秀級(4+級)評分。此評級不僅是本次金融大
    的頭像 發(fā)表于 03-05 10:12 ?534次閱讀

    +大模型的2024格局

    廠商要如何經(jīng)營好AI時代的“火鍋店”,助力千行百業(yè)智能化?
    的頭像 發(fā)表于 02-27 09:52 ?2153次閱讀
    <b class='flag-5'>云</b>+大<b class='flag-5'>模型</b>的2024格局

    一文讀懂,什么是BLE?

    一文讀懂,什么是BLE?
    的頭像 發(fā)表于 11-27 17:11 ?1988次閱讀
    一文<b class='flag-5'>讀懂</b>,什么是BLE?

    科技報道:再現(xiàn)降價潮背后:廠商們的“焦慮”

    降價背后廠商的增長焦慮
    的頭像 發(fā)表于 11-27 15:15 ?737次閱讀

    華為發(fā)布三大基礎方案和AI出海計劃 加速大模型生態(tài)發(fā)展

    今天,以“開放同飛,共贏行業(yè)AI新時代”為主題的華為盤古大模型主題論壇·深圳站成功舉辦。華為與多位不同行業(yè)的客戶和伙伴圍繞AI大模型、技術創(chuàng)新應用和產(chǎn)業(yè)發(fā)展新機遇等話題展開深入交流
    的頭像 發(fā)表于 11-23 11:25 ?447次閱讀

    模型的云端構(gòu)想,廠商的必爭風口

    此前,大模型的影響稱不上顯著。但隨著微軟、谷歌、亞馬遜相繼披露季度財報,直觀的增長擺在眼前。因而,多家服務商都調(diào)高了業(yè)務期待,預計影響將逐漸從2023年第四季度起體現(xiàn)。
    的頭像 發(fā)表于 11-09 15:48 ?533次閱讀