2023過去,當(dāng)我們回顧這一年的最受產(chǎn)業(yè)關(guān)注的芯片,相信大多數(shù)人會將票投向GPU。2023年中,我們總能聽到“GPU緊缺”、“英偉達(dá)狂飆”、“黃仁勛分享成功秘訣”。
無可否認(rèn),2023年生成式AI的熱潮無邊無際,全球高科技公司都涌入了AI的軍備競賽。隨之帶來的是算力告急、全球瘋搶GPU。
01 全球最火的GPU
2023年層出不窮地傳出,人工智能AI大模型的消息。OpenAI、百度、谷歌、騰訊都在搭建屬于自己的大模型。對于這些五花八門的大模型,我們不多贅述,但大模型的搭建,最需要的就是GPU,而2023年需求量最大的GPU不外乎:A100/H100。
首當(dāng)其沖的就是A100GPU。OpenAI使用的是3,617臺HGXA100服務(wù)器,包含近3萬塊英偉達(dá)GPU。國內(nèi)云計算相關(guān)專家認(rèn)為,做好AI大模型的算力最低門檻是1萬枚英偉達(dá)A100芯片。
TrendForce研究則顯示,以A100的算力為基礎(chǔ),GPT-3.5大模型需要高達(dá)2萬枚GPU,未來商業(yè)化后可能需要超過3萬枚。
H100也是業(yè)內(nèi)追求的對象。H100于去年9月量產(chǎn),由臺積電4N工藝代工。相較于前任A100,H100單卡在推理速度上提升3.5倍,在訓(xùn)練速度上提升2.3倍;如果用服務(wù)器集群運(yùn)算的方式,訓(xùn)練速度更是能提高到9倍,原本一個星期的工作量,現(xiàn)在只需要20個小時。
考慮到整體系統(tǒng)成本,H100每美元產(chǎn)生的性能比A100還要高4到5倍之多。與A100相比,H100的單卡價格更貴,但是由于其訓(xùn)練、推理效率增加,成為了最具性價比的產(chǎn)品。
正因如此,科技大廠各個都搶著要買英偉達(dá)H100GPU,或者更準(zhǔn)確地說,是英偉達(dá)的8-GPU HGX H100SXM服務(wù)器。
英偉達(dá)成為了最受關(guān)注的賣鏟人。針對中國市場,還按照A800操作模式(A100芯片的降維版本),推出了完全符合出口規(guī)定的H100的降維版本芯片。
02 熱情的買家
“GPU就是新時代的比特幣。”O(jiān)penAI首席科學(xué)家IlyaSutskever將這句話寫在他個人的X賬號上。在算力激增的背景下,英偉達(dá)的GPU成為了“硬通貨”。
夸張的是,甚至有海外初創(chuàng)企業(yè)開始利用GPU進(jìn)行抵押融資,一家硅谷的創(chuàng)業(yè)公司使用H100拿到了23億美元的債務(wù)融資。
購買H100和A100的公司有三種。第一種,是需要超過1000張的公司,包括訓(xùn)練LLM的創(chuàng)業(yè)公司,如OpenAI、Anthropic;云服務(wù)提供商,如谷歌云、AWS、騰訊云;其他大公司,如特斯拉。第二種,是需要超過100張的公司,也就是對開源模型進(jìn)行大量微調(diào)的初創(chuàng)公司。第三種,需要10張的公司,就是大部分創(chuàng)業(yè)公司和開源勢力,熱衷使用大模型的輸出微調(diào)小模型。
這些買家需要多少GPU呢?OpenAI可能需要5萬張、Inflection要2.2萬張、Meta需要2.5萬張、大型云廠商(Azure、GoogleCloud、AWS、Oracle),每家可能需要3萬張,Lambda和CoreWeave以及其他私有云可能總共需要10萬張,Anthropic、Helsing、Mistral、Character,每家可能要1萬張。
僅僅這幾家公司,就已經(jīng)需要43.2萬張H100,如果以每塊約3.5萬美元計算,GPU的價值約為150億美元。而這還沒有包括字節(jié)、百度、騰訊等國內(nèi)公司。
在AI大模型競爭上,榜上有名的幾個國家:中國、美國、沙特阿拉伯、阿聯(lián)酋,都是英偉達(dá)的座上賓。
沙特阿拉伯已通過公共研究機(jī)構(gòu)阿卜杜拉國王科技大學(xué)(Kaust)購買了至少3000塊英偉達(dá)的H100芯片。這些芯片將于2023年底全部交付,總價值約為1.2億美元,用于訓(xùn)練AI大模型。
阿聯(lián)酋也獲得了數(shù)千顆英偉達(dá)芯片的使用權(quán),并已推出自己的開源大語言模型“Falcon40B”,“Falcon40B”使用了384個A100芯片進(jìn)行訓(xùn)練。
03 GPU的出貨量
英偉達(dá)H100的出貨量也備受關(guān)注。研究機(jī)構(gòu)Omdia披露,英偉達(dá)在2023年第二季度的H100出貨量為900噸。按照單片H100GPU的重量約為3千克,那么英偉達(dá)在二季度售出了約30萬片H100。
到了三季度,英偉達(dá)大約賣出了50萬臺H100和A100 GPU。每家能夠分到的GPU數(shù)量有限,Meta和微軟各自采購了15萬個H100GPU,谷歌、亞馬遜、甲骨文和騰訊則各采購了5萬片。
如此龐大的GPU需求量,導(dǎo)致基于H100的服務(wù)器需要36~52周的時間才能交付。按照英偉達(dá)官方的說法,2024年一季度之前的GPU芯片早已全部售罄。
業(yè)內(nèi)預(yù)估,明年英偉達(dá)的出貨量將達(dá)到150萬-200萬顆。
04 2024,GPU能降價嗎?
GPU能否降價,還要看明年的供需情況。上圖是GPUUtils列出的目前對GPU市場供需變化最有直接影響的科技公司,包括了:開發(fā)出Chat-GPT的OpenAI、臺積電、微軟、Meta以及成立僅僅一年便募得13億美元資金的AI新創(chuàng)Inflection。
買方
有的人不想買。谷歌、Meta都覺得英偉達(dá)的GPU太貴了。
Meta最近已經(jīng)宣布構(gòu)建了自己的DLRM推理芯片,并且得到廣泛部署。Meta大大方方承認(rèn),自己即將發(fā)布的AI芯片并不能直接替代英偉達(dá)的芯片,但是自研芯片可以降低成本。
就算在谷歌I/O開發(fā)者大會兩個小時的演講中,谷歌方面一直在贊賞英偉達(dá)的H100GPU芯片。這也不妨礙,谷歌開始“騎驢找馬”,谷歌的云服務(wù)器上已經(jīng)用上了自家TPU。
Google TPU v5e于2023年8月發(fā)布,成為人工智能硬件領(lǐng)域的強(qiáng)大力量,專為大型語言模型和生成式人工智能量身定制。與前代產(chǎn)品相比,TPUv5e的每美元訓(xùn)練性能顯著提高2倍,每美元推理性能顯著提高2.5倍,可大幅節(jié)省成本。其突破性的多片架構(gòu)可實(shí)現(xiàn)數(shù)萬個芯片的無縫連接,突破了以往的限制,為處理海量人工智能任務(wù)開辟了途徑。
有的人不能買。中國是英偉達(dá)的第三大市場,占據(jù)其收入的1/5以上。隨著美國政府宣布進(jìn)一步禁止中國銷售英偉達(dá)H800和A800芯片,賣不出去的GPU,必然會對英偉達(dá)產(chǎn)生負(fù)面影響。
此外,明年AI或許迎來退潮。2023年的AI熱潮,除了大模型震驚業(yè)界外,炒作的因素也不在少數(shù)。毫無疑問,ChatGPT是2023年的世界頂流。因?yàn)樗?,OpenAI網(wǎng)站的流量在4月份就超過了18億,進(jìn)入了全球流量排名前20。然而,網(wǎng)絡(luò)分析公司Similarweb公布的數(shù)據(jù)顯示,在狂飆半年后,ChatGPT的訪問量首次出現(xiàn)負(fù)增長,6月份的訪問量環(huán)比下滑9.7%。
在大模型創(chuàng)業(yè)狂飆200多天后,探索者們的心態(tài),從理想亢奮來到現(xiàn)實(shí)落地。大模型的維護(hù)依賴大量的高性能芯片,而單要建構(gòu)、維護(hù)生成式AI工具的成本就非常巨大。這對于大公司而言還好,但是對于許多組織與創(chuàng)作者而言,這卻是一筆難以負(fù)擔(dān)的支出。
對于生產(chǎn)式AI,2024年還會再次迎來大眾的檢驗(yàn)。行業(yè)分析師認(rèn)為,2023年關(guān)于生成式人工智能的炒作非常大,AI被過度吹捧,因?yàn)橄嚓P(guān)技術(shù)需要克服許多障礙才能將其推向市場。
退潮之后,能夠剩下的高性能GPU需求還能有多少?
賣方
我們先來看看英偉達(dá)這個最大的賣家。優(yōu)先關(guān)注兩個方面:能不能供應(yīng)足夠的GPU,明年是否有新品刺激市場需求。
第一個供貨方面,眾所周知,英偉達(dá)只與臺積電合作生產(chǎn)H100,臺積電一共有4個生產(chǎn)節(jié)點(diǎn)是為5nm芯片提供產(chǎn)能:N5、N5P、N4、N4P。而H100只在N5或者是N5P的中的4N節(jié)點(diǎn)上生產(chǎn),這是一個5nm芯片的增強(qiáng)型節(jié)點(diǎn),同時英偉達(dá)還必須與蘋果、AMD和高通共享這個節(jié)點(diǎn)的產(chǎn)能,至于A100顯卡則是在臺積電的N7生產(chǎn)線制作的。從短期的情況看,三星和英特爾都因?yàn)橹瞥碳夹g(shù)的問題,無法替英偉達(dá)緩解供應(yīng)緊張的問題。因此,預(yù)計明年市場,英偉達(dá)的GPU供應(yīng)仍會緊缺。
第二個新品方面,英偉達(dá)在2023年11月底時,發(fā)布了H100的下一代繼承者——H200。表示在處理Llama2等LLM時,H200的推理速度比H100GPU提高了近2倍。從2024年開始,亞馬遜網(wǎng)絡(luò)服務(wù)、谷歌云、微軟Azure和甲骨文云基礎(chǔ)設(shè)施將成為首批部署基于H200實(shí)例的云服務(wù)提供商。盡管還沒有公布H200的價格,但一定比H100目前每臺2.5萬美元至4萬美元的價格更加昂貴。
從兩個方面看,英偉達(dá)的GPU供需還存在較大的不確定性。不過。賣家市場,會有更多廠商加入。
明年GPU的另一大賣家,就是回過神來的AMD。
從最近的財報來看,AMD預(yù)計四季度GPU收入將達(dá)到4億美元,到2024年底將超過10億美元。其CEO蘇姿豐對明年充滿期待:“MI300將成為自2020年后,銷售額達(dá)到10億美元最快的產(chǎn)品?!?/p>
2023年11月,AMD正式發(fā)布了對標(biāo)H100的產(chǎn)品——MI300。據(jù)AMD展示,由8塊MI300X組成的服務(wù)器在大模型推理方面的表現(xiàn),要比同樣規(guī)模的H100速度最高提升1.6倍之多。對于AMD來說,這種直接對標(biāo),實(shí)屬罕見。
有意思的是,Meta、微軟和OpenAI公司在AMD投資者活動上表態(tài),未來他們將會使用AMD最新的人工智能(AI)芯片InstinctMI300X。
不過,英偉達(dá)對AMD的對標(biāo)也態(tài)度強(qiáng)硬,官方發(fā)布博客,駁斥AMD的評測不客觀。英偉達(dá)表示,如果H100GPU使用了優(yōu)化過的軟件進(jìn)行正確的基準(zhǔn)測試,它的性能將大大超過MI300X。
由于MI300還未正式應(yīng)用,對于我們對于AMD和英偉達(dá)之間的“官司”很難分說,但不論如何,AMD已經(jīng)走到了高性能GPU的起跑線。
總而言之,2024年的GPU還充滿變數(shù)。在AI大模型冷靜后、在買家不想當(dāng)冤大頭后、在賣家越來越多后,GPU還會維持天價嗎?相信各位看官心中自有答案。從市場的角度看,無論是當(dāng)下多先進(jìn)的技術(shù),到最后終將會越來越普世。就看GPU玩家們,在2024年如何進(jìn)攻戰(zhàn)場了。
-
gpu
+關(guān)注
關(guān)注
27文章
4632瀏覽量
128448 -
人工智能
+關(guān)注
關(guān)注
1789文章
46348瀏覽量
236520 -
OpenAI
+關(guān)注
關(guān)注
9文章
1014瀏覽量
6347 -
大模型
+關(guān)注
關(guān)注
2文章
2212瀏覽量
2236
原文標(biāo)題:2024年,GPU能降價嗎?
文章出處:【微信號:ICViews,微信公眾號:半導(dǎo)體產(chǎn)業(yè)縱橫】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論