0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

省成本還是省時間,AI計算上的GPU與ASIC之選

E4Life ? 來源:電子發(fā)燒友 ? 作者:周凱揚 ? 2023-07-17 00:01 ? 次閱讀
電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算逐漸蠶食通用計算的份額,數(shù)據(jù)中心硬件市場已經(jīng)開始出現(xiàn)了微妙的變化。最搶手的目前已經(jīng)成了GPU,反觀CPU、ASICFPGA等硬件,開始成為陪襯。但高昂的售價以及強綁定的供應(yīng)關(guān)系,還是讓不少企業(yè)開始探索別的出路。
仍在被瘋搶的GPU
在今年第一季度AI熱潮高漲下,全球已經(jīng)開啟了一波GPU搶購。無論是借助GPU開發(fā)各自大模型應(yīng)用的互聯(lián)網(wǎng)廠商,還是想借此發(fā)展其AI服務(wù)器業(yè)務(wù)的云服務(wù)廠商,都在搶購英偉達目前主推的A100和H100兩大GPU。
就連臺積電哪怕第一季度業(yè)績下滑明顯,其CEO魏哲家在法說會上也表示在AI相關(guān)的需求上觀察到了增量上行,將幫助其在今年實現(xiàn)可觀的庫存消化。
H100 GPU / 英偉達
在美國商務(wù)部半導(dǎo)體出口新規(guī)剛推出不久,A100在非正常渠道的單價就飆升至20000美元,是原價的兩倍左右。為此英偉達僅僅面向中國市場推出了A800和H800,只不過將高速互聯(lián)總線NVLink限制在了400GB/s,但好歹仍足以滿足大部分AI計算的需求。
可好景不長,隨著緊缺和搶購的趨勢很快蔓延到了A800和H800上,據(jù)了解,國內(nèi)市場的A800單價一周上漲了30%,從原來9萬元上升至13萬元,甚至連帶使得搭載該卡的服務(wù)器現(xiàn)貨同樣漲價,頗有當年礦潮期顯卡漲價整機一并漲價的趨勢。
使其狀況更加惡化的是,英偉達據(jù)傳大量削減了A800的供應(yīng),而是轉(zhuǎn)為推廣更高端也更昂貴的H800,單價在25萬元左右。高端的GPU無疑能夠帶來更高的性能,但性價比相對較低,大規(guī)模部署的成本也會更加難以承受。所以從全球市場的購買表現(xiàn)上來看,互聯(lián)網(wǎng)公司和云服務(wù)廠商顯然覺得A100或A800更香一點。
可為了更高的利潤轉(zhuǎn)化,英偉達決心調(diào)整A800和H800的供應(yīng)比例的話,也就說得過去了。A100的市場流通率較高,而A800這種面世不久的特供產(chǎn)品,也更方便在供應(yīng)上加以限制。
省時和省錢
既然GPU困人已久,為何不打破這一限制,轉(zhuǎn)用大規(guī)模量產(chǎn)成本更低的ASIC產(chǎn)品呢?事實上,很多廠商早就有類似的心思,只不過執(zhí)行起來卻是寸步難行。首先對于大模型這樣的AI應(yīng)用來說,硬件性能只是一個方面,擁有優(yōu)質(zhì)的軟件生態(tài)也很重要。
英偉達的CUDA成了任何進軍AI產(chǎn)業(yè)的公司在軟件生態(tài)上的一頭攔路虎,遲遲沒法突破。固然ASIC的方案可以省下不少硬件成本,但在軟件上仍有不小的障礙。初創(chuàng)公司ASIC硬件的軟件生態(tài)不成熟,巨頭自研的產(chǎn)品又難以與第三方開發(fā)結(jié)合起來,或者說能打造出爆品應(yīng)用的概率更低。
反觀CUDA,發(fā)展這么多年積累的各種library已經(jīng)逐漸趨于成熟,甚至在英偉達的GPU上優(yōu)化到了最佳狀態(tài),開發(fā)者只需要調(diào)用API即可實現(xiàn)所需的效果。這堵墻就連同為GPU廠商的AMD等競爭對手都未能攻破,因為AI時代下省時才能搶占先機,省錢是之后采取考慮的事。
話雖如此,相關(guān)的嘗試依舊沒有停止,諸如谷歌的TPU、亞馬遜的Trainium以及微軟最近在研究的Chiplet Cloud等等,都是廠商們對ASIC持續(xù)看好的表現(xiàn)??梢钥闯觯尰ヂ?lián)網(wǎng)企業(yè),尤其是芯片設(shè)計能力欠缺的企業(yè),去走ASIC這條路線是很難的。而托管了諸多第三方芯片設(shè)計平臺、大模型和AI計算負載的云服務(wù)廠商,有這個技術(shù)積累,也有實力組建或已組建達標的芯片設(shè)計隊伍,最終做到省時又省錢。
寫在最后
ASIC固然前景可觀,但目前廠商們在購置GPU上花的錢多半是多于自研投入的,這也就是GPU作為通用計算硬件的future proofing性質(zhì)??赡茉贕PT爆火的今年,這款A(yù)SIC提供了遠超GPU的性能或成本優(yōu)勢,但未來保不齊會出現(xiàn)其他的爆品應(yīng)用。GPU可以很快調(diào)轉(zhuǎn)勢頭,但ASIC就可能會被淘汰。所以對這些公司來說,無論是購買A100還是A800,不僅是對現(xiàn)在的投資,也是對未來的投資。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1176

    瀏覽量

    120138
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4631

    瀏覽量

    128440
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29359

    瀏覽量

    267635
收藏 人收藏

    評論

    相關(guān)推薦

    如何計算上拉電阻的值

    ,但在對性能有更高要求或特定條件下,則需要通過更為精確的計算來確定電阻值。本文將詳細介紹如何計算上拉電阻的值。 首先,我們需要理解上拉電阻在I2C總線中的基本作用。在I2C的開漏輸出設(shè)計中,上拉電阻負責在無設(shè)備驅(qū)動總線時,將SC
    的頭像 發(fā)表于 09-09 17:20 ?300次閱讀

    人工智能在項目管理中的應(yīng)用:Atlassian Intelligence六大自動化任務(wù)方法詳解,讓Jira與Confluence效率翻倍

    的情況下節(jié)省時間和金錢的有效方法之一。無論是設(shè)置提醒還是改進寫作,AI都可以幫助您高效地完成工作。AtlassianIntelligence將AI的強大功能與At
    的頭像 發(fā)表于 08-12 11:44 ?1350次閱讀
    人工智能在項目管理中的應(yīng)用:Atlassian Intelligence六大自動化任務(wù)方法詳解,讓Jira與Confluence效率翻倍

    為什么GPUAI如此重要?

    GPU在人工智能中相當于稀土金屬,甚至黃金,它們在當今生成式人工智能時代中的作用不可或缺。那么,為什么GPU在人工智能發(fā)展中如此重要呢?什么是GPU圖形處理器(GPU)是一種通常用于進
    的頭像 發(fā)表于 05-17 08:27 ?603次閱讀
    為什么<b class='flag-5'>GPU</b>對<b class='flag-5'>AI</b>如此重要?

    Microsoft Teams最新AI功能深化智慧協(xié)作,共創(chuàng)高效會議

    Copilot 正在全球范圍內(nèi)助力用戶節(jié)省時間、高效工作。微軟計劃于今年五月升級Microsoft Teams會議功能,借助Copilot提供更全面的會議記錄與關(guān)鍵信息提煉能力,同時利用AI技術(shù)優(yōu)化混合會議體驗,確保溝通流暢。
    的頭像 發(fā)表于 05-07 10:12 ?540次閱讀

    科技驅(qū)動未來,提升AI算力,GPU擴展正當時

    GPU可以大幅縮短AI算法的訓練和推斷時間,從而節(jié)省時間成本
    的頭像 發(fā)表于 04-16 18:22 ?898次閱讀
    科技驅(qū)動未來,提升<b class='flag-5'>AI</b>算力,<b class='flag-5'>GPU</b>擴展正當時

    AI服務(wù)器異構(gòu)計算深度解讀

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%)。
    發(fā)表于 04-12 12:27 ?507次閱讀
    <b class='flag-5'>AI</b>服務(wù)器異構(gòu)<b class='flag-5'>計算</b>深度解讀

    NVLink技術(shù)GPUGPU的通信

    在多 GPU 系統(tǒng)內(nèi)部,GPU 間通信的帶寬通常在數(shù)百GB/s以上,PCIe總線的數(shù)據(jù)傳輸速率容易成為瓶頸,且PCIe鏈路接口的串并轉(zhuǎn)換會產(chǎn)生較大延時,影響GPU并行計算的效率和性能。
    發(fā)表于 03-27 09:40 ?3188次閱讀
    NVLink技術(shù)<b class='flag-5'>之</b><b class='flag-5'>GPU</b>與<b class='flag-5'>GPU</b>的通信

    FPGA在深度學習應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    基礎(chǔ)設(shè)施,人們?nèi)匀粵]有定論。如果 Mipsology 成功完成了研究實驗,許多正受 GPU 折磨的 AI 開發(fā)者將從中受益。 GPU 深度學習面臨的挑戰(zhàn) 三維圖形是 GPU 擁有如此
    發(fā)表于 03-21 15:19

    GPU理想成本揭秘,性價比

    如果新的 GPU 能夠為頻繁和不頻繁升級的玩家提供最佳性能提升,從而滿足最廣泛的 PC 游戲玩家的需求,那么這一代將被認為更加成功。
    發(fā)表于 03-15 11:15 ?508次閱讀
    <b class='flag-5'>GPU</b>理想<b class='flag-5'>成本</b>揭秘,性價比<b class='flag-5'>之</b><b class='flag-5'>選</b>

    汽車通信芯片匯總梳理

    的控制中心,優(yōu)點在于調(diào)度管理、協(xié)調(diào)能力強,但CPU計算能力相對有限。因此,對于AI高性能計算而言,人們通常用GPU/FPGA/ASIC來做加
    的頭像 發(fā)表于 02-20 16:44 ?1441次閱讀
    汽車通信芯片匯總梳理

    到底什么是ASIC和FPGA?

    ? 最后,我們還是要繞回到AI芯片的話題。 上一期,小棗君埋了一個雷,說AI計算分訓練和推理。訓練是GPU處于絕對領(lǐng)先地位,而推理不是。我
    發(fā)表于 01-23 19:08

    FPGA、ASIC、GPU誰是最合適的AI芯片?

    CPU、GPU遵循的是馮·諾依曼體系結(jié)構(gòu),指令要經(jīng)過存儲、譯碼、執(zhí)行等步驟,共享內(nèi)存在使用時,要經(jīng)歷仲裁和緩存。 而FPGA和ASIC并不是馮·諾依曼架構(gòu)(是哈佛架構(gòu))。以FPGA為例,它本質(zhì)上是無指令、無需共享內(nèi)存的體系結(jié)構(gòu)。
    發(fā)表于 01-06 11:20 ?1229次閱讀
    FPGA、<b class='flag-5'>ASIC</b>、<b class='flag-5'>GPU</b>誰是最合適的<b class='flag-5'>AI</b>芯片?

    英偉達用AI設(shè)計GPU算術(shù)電路有何優(yōu)勢

    大量的算術(shù)電路陣列為英偉達GPU提供了動力,以實現(xiàn)前所未有的AI、高性能計算計算機圖形加速。因此,改進這些算術(shù)電路的設(shè)計對于提升 GPU
    發(fā)表于 12-05 11:05 ?370次閱讀

    ASICGPU,誰才是AI計算的最優(yōu)解?

    電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算開始有著風頭蓋過通用計算開始,不少芯片廠商都將其視為下一輪技術(shù)革新。CPU、GPU、FPGA和ASIC
    的頭像 發(fā)表于 12-03 08:31 ?1948次閱讀
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>,誰才是<b class='flag-5'>AI</b><b class='flag-5'>計算</b>的最優(yōu)解?

    大模型算驅(qū)動AI服務(wù)器行業(yè)報告

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%);AI
    發(fā)表于 11-28 09:18 ?216次閱讀
    大模型算驅(qū)動<b class='flag-5'>AI</b>服務(wù)器行業(yè)報告