FPGA > GPU > CPU,產(chǎn)生這樣結(jié)果的根本原因:對于計算密集型算法,數(shù)據(jù)的搬移和運算效率越高的能耗比就越高。ASIC和FPGA都是更接近底層IO,所以計算效率高和數(shù)據(jù)搬移高,但是FPGA有冗余晶體管和連線,運行頻率低,所以沒有ASIC能耗比高。GPU和CPU都是屬于通用處理器,都需要進行取指令、指令譯碼、指令執(zhí)行的過程,通過這種方式屏蔽了底層IO的處理,使得軟硬件解耦,但帶來數(shù)據(jù)的搬移和運算無法達到更高效率,所以沒有ASIC、FPGA能耗比高。GPU和CPU之間的能耗比的差距,主要在于CPU中晶體管有大部分用在cache和控制邏輯單元,所以CPU相比GPU來說,對于計算密集同時計算復(fù)雜度低的算法,有冗余的晶體管無法發(fā)揮作用,能耗比上CPU低于GPU。" />
0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU將失寵,ASIC 才是AI 前景所在

M8kW_icbank ? 來源:未知 ? 作者:伍文輝 ? 2018-01-02 15:58 ? 次閱讀

GPU人工智能AI)運算大放異彩,激勵兩家GPU 大廠Nvidia、超微(AMD)股價狂飆。但是分析師警告,明年GPU 在AI 的地位,也許會遭「特殊應(yīng)用集成電路」(ASIC)取代。

12 日Nvidia 下跌1.96%,13 日續(xù)跌2.44% 收在186.18 美元。12 日超微下跌2.56%,13 日反彈2.12% 收在10.11 美元。

MarketWatch、Smarter Analyst報導(dǎo),Susquehanna分析師Christopher Rolland 12日報告稱,2017年AI GPU當(dāng)?shù)溃?018年可能換成ASIC發(fā)威。AI運用深度學(xué)習(xí)解決真實世界問題,也使用在語音和影像辨識、自動駕駛、醫(yī)療等,Nvidia是AI工作量大增的受惠者,股價暴沖。不過,Susquehanna和多位業(yè)界領(lǐng)袖討論,判斷ASIC可能會取代GPU。

Rolland 以虛擬貨幣挖礦為例,解釋此一變化。早期礦工挖掘虛幣時,多用GPU,不過隨著挖礦難度不斷提高,礦工逐漸改用ASIC。現(xiàn)在比特幣礦工多半采用ASIC,以太幣礦工也會在今年改用ASIC。市面上更出現(xiàn)以太幣專用ASIC,效能遠勝GPU。

報告稱,Nvidia 有ASIC 相關(guān)部門,未來仍會在AI 扮演重要角色。但是市場將有更多競爭者,有望受惠的ASIC 業(yè)者,包括協(xié)助谷歌研發(fā)AI 芯片博通、Cavium、Marvell、Microsemi 等。

另外,現(xiàn)場可程式化閘陣列(Field-Programmable Gate Array,FPGA)也可能從AI 熱潮沾光,賽靈思(Xilinx)的FPGA 就用于亞馬遜云端服務(wù)。

芯片商Cerebras 正在研發(fā)AI 專用的ASIC,該公司執(zhí)行長Andrew Feldman 強調(diào),GPU 并非最適合AI 運算的芯片。GPU 原本是為了電玩開發(fā),如今卻碰巧適用于另一個毫不相干的新市場。這種幸運的巧合不會發(fā)生,最可能的解釋是,GPU 只是當(dāng)前最佳的解決方案,讓業(yè)界能繼續(xù)往前,暗示ASIC 才是AI 前景所在。

Barron's.com 8 月23 日報導(dǎo),摩根士丹利(Morgan Stanley,通稱大摩)發(fā)表研究報告指出,現(xiàn)場可程式化閘陣列在機器學(xué)習(xí)進行「推論」(inference)時扮演的角色,可能比市場想像還要大,Xilinx 有望受惠。

GPU、FPGA、ASIC,誰更適合人工智能?

圍繞著人工智能的計算,有上述三種方案,我們來看一下哪一種會是AI首選。

GPU主要擅長做類似圖像處理的并行計算,所謂的“粗粒度并行(coarse-grain parallelism)”。圖形處理計算的特征表現(xiàn)為高密度的計算而計算需要的數(shù)據(jù)之間較少存在相關(guān)性,GPU 提供大量的計算單元(多達幾千個計算單元)和大量的高速內(nèi)存,可以同時對很多像素進行并行處理。

GPU中一個邏輯控制單元對應(yīng)多個計算單元,同時要想計算單元充分并行起來,邏輯控制必然不會太復(fù)雜,太復(fù)雜的邏輯控制無法發(fā)揮計算單元的并行度,例如過多的if…else if…else if… 分支計算就無法提高計算單元的并行度,所以在GPU中邏輯控制單元也就不需要能夠快速處理復(fù)雜控制。

這里GPU計算能力用Nvidia的Tesla K40進行分析,K40包含2880個流處理器(Stream Processor),流處理器就是GPU的計算單元。每個流處理器包含一個32bit單精度浮點乘和加單元,即每個時鐘周期可以做2個單精度浮點計算。GPU峰值浮點計算性能 = 流處理器個數(shù) GPU頻率 每周期執(zhí)行的浮點操作數(shù)。以K40為例,K40峰值浮點計算性能= 2880(流處理器) 745MHz 2(乘和加) = 4.29T FLOPs/s即每秒4.29T峰值浮點計算能力。

GPU芯片結(jié)構(gòu)是否可以充分發(fā)揮浮點計算能力?GPU同CPU一樣也是指令執(zhí)行過程:取指令 ->指令譯碼 ->指令執(zhí)行,只有在指令執(zhí)行的時候,計算單元才發(fā)揮作用。GPU的邏輯控制單元相比CPU簡單,所以要想做到指令流水處理,提高指令執(zhí)行效率,必然要求處理的算法本身復(fù)雜度低,處理的數(shù)據(jù)之間相互獨立,所以算法本身的串行處理會導(dǎo)致GPU浮點計算能力的顯著降低。

上圖是GPU的設(shè)計結(jié)構(gòu)。GPU的設(shè)計出發(fā)點在于GPU更適用于計算強度高、多并行的計算。因此,GPU把晶體管更多用于計算單元,而不像CPU用于數(shù)據(jù)Cache和流程控制器。這樣的設(shè)計是因為并行計算時每個數(shù)據(jù)單元執(zhí)行相同程序,不需要繁瑣的流程控制而更需要高計算能力,因此也不需要大的cache容量。

FPGA作為一種高性能、低功耗的可編程芯片,可以根據(jù)客戶定制來做針對性的算法設(shè)計。所以在處理海量數(shù)據(jù)的時候,F(xiàn)PGA 相比于CPU 和GPU,優(yōu)勢在于:FPGA計算效率更高,F(xiàn)PGA更接近IO。

FPGA不采用指令和軟件,是軟硬件合一的器件。對FPGA進行編程要使用硬件描述語言,硬件描述語言描述的邏輯可以直接被編譯為晶體管電路的組合。所以FPGA實際上直接用晶體管電路實現(xiàn)用戶的算法,沒有通過指令系統(tǒng)的翻譯。

FPGA的英文縮寫名翻譯過來,全稱是現(xiàn)場可編程邏輯門陣列,這個名稱已經(jīng)揭示了FPGA的功能,它就是一堆邏輯門電路的組合,可以編程,還可以重復(fù)編程。上圖展示了可編程FPGA的內(nèi)部原理圖。

里FPGA計算能力用Xilinx的V7-690T進行分析,V7-690T包含3600個DSP(Digital Signal Processing),DSP就是FPGA的計算單元。每個DSP可以在每個時鐘周期可以做2個單精度浮點計算(乘和加)。FPGA峰值浮點計算性能 = DSP個數(shù) FPGA頻率 每周期執(zhí)行的浮點操作數(shù)。V7-690T運行頻率已250MHz來計算,V7-690T峰值浮點計算性能 = 3600(DSP個數(shù)) 250MHz 2(乘和加)=1.8T FLOPs/s即每秒1.8T峰值浮點計算能力。

FPGA芯片結(jié)構(gòu)是否可以充分發(fā)揮浮點計算能力?FPGA由于算法是定制的,所以沒有CPU和GPU的取指令和指令譯碼過程,數(shù)據(jù)流直接根據(jù)定制的算法進行固定操作,計算單元在每個時鐘周期上都可以執(zhí)行,所以可以充分發(fā)揮浮點計算能力,計算效率高于CPU和GPU。

ASIC是一種專用芯片,與傳統(tǒng)的通用芯片有一定的差異。是為了某種特定的需求而專門定制的芯片。ASIC芯片的計算能力和計算效率都可以根據(jù)算法需要進行定制,所以ASIC與通用芯片相比,具有以下幾個方面的優(yōu)越性:體積小、功耗低、計算性能高、計算效率高、芯片出貨量越大成本越低。但是缺點也很明顯:算法是固定的,一旦算法變化就可能無法使用。目前人工智能屬于大爆發(fā)時期,大量的算法不斷涌出,遠沒有到算法平穩(wěn)期,ASIC專用芯片如何做到適應(yīng)各種算法是個最大的問題,如果以目前CPU和GPU架構(gòu)來適應(yīng)各種算法,那ASIC專用芯片就變成了同CPU、GPU一樣的通用芯片,在性能和功耗上就沒有優(yōu)勢了。

我們來看看FPGA 和 ASIC 的區(qū)別。FPGA基本原理是在芯片內(nèi)集成大量的數(shù)字電路基本門電路以及存儲器,而用戶可以通過燒入 FPGA 配置文件來來定義這些門電路以及存儲器之間的連線。這種燒入不是一次性的,即用戶今天可以把 FPGA 配置成一個微控制器 MCU,明天可以編輯配置文件把同一個 FPGA 配置成一個音頻編解碼器。ASIC 則是專用集成電路,一旦設(shè)計制造完成后電路就固定了,無法再改變。

比較 FPGA 和 ASIC 就像比較樂高積木和模型。舉例來說,如果你發(fā)現(xiàn)最近星球大戰(zhàn)里面 Yoda 大師很火,想要做一個 Yoda 大師的玩具賣,你要怎么辦呢?

有兩種辦法,一種是用樂高積木搭,還有一種是找工廠開模定制。用樂高積木搭的話,只要設(shè)計完玩具外形后去買一套樂高積木即可。而找工廠開模的話在設(shè)計完玩具外形外你還需要做很多事情,比如玩具的材質(zhì)是否會散發(fā)氣味,玩具在高溫下是否會融化等等,所以用樂高積木來做玩具需要的前期工作比起找工廠開模制作來說要少得多,從設(shè)計完成到能夠上市所需要的時間用樂高也要快很多。

FPGA 和 ASIC 也是一樣,使用 FPGA 只要寫完 Verilog 代碼就可以用 FPGA 廠商提供的工具實現(xiàn)硬件加速器了,而要設(shè)計 ASIC 則還需要做很多驗證和物理設(shè)計 (ESD,Package 等等),需要更多的時間。如果要針對特殊場合(如軍事和工業(yè)等對于可靠性要求很高的應(yīng)用),ASIC 則需要更多時間進行特別設(shè)計以滿足需求,但是用 FPGA 的話可以直接買軍工級的高穩(wěn)定性 FPGA 完全不影響開發(fā)時間。但是,雖然設(shè)計時間比較短,但是樂高積木做出來的玩具比起工廠定制的玩具要粗糙(性能差)一些(下圖),畢竟工廠開模是量身定制。

另外,如果出貨量大的話,工廠大規(guī)模生產(chǎn)玩具的成本會比用樂高積木做便宜許多。FPGA 和 ASIC 也是如此,在同一時間點上用最好的工藝實現(xiàn)的 ASIC 的加速器的速度會比用同樣工藝 FPGA 做的加速器速度快 5-10 倍,而且一旦量產(chǎn)后 ASIC 的成本會遠遠低于 FPGA 方案。

FPGA 上市速度快, ASIC 上市速度慢,需要大量時間開發(fā),而且一次性成本(光刻掩模制作成本)遠高于 FPGA,但是性能高于 FPGA 且量產(chǎn)后平均成本低于 FPGA。目標(biāo)市場方面,F(xiàn)PGA 成本較高,所以適合對價格不是很敏感的地方,比如企業(yè)應(yīng)用,軍事和工業(yè)電子等等(在這些領(lǐng)域可重配置真的需要)。而 ASIC 由于低成本則適合消費電子類應(yīng)用,而且在消費電子中可配置是否是一個偽需求還有待商榷。

我們看到的市場現(xiàn)狀也是如此:使用 FPGA 做深度學(xué)習(xí)加速的多是企業(yè)用戶,百度、微軟、IBM 等公司都有專門做 FPGA 的團隊為服務(wù)器加速,而做 FPGA 方案的初創(chuàng)公司 Teradeep 的目標(biāo)市場也是服務(wù)器。而 ASIC 則主要瞄準(zhǔn)消費電子,如 Movidius。由于移動終端屬于消費電子領(lǐng)域,所以未來使用的方案應(yīng)當(dāng)是以 ASIC 為主。

由于不同的芯片生產(chǎn)工藝,對芯片的功耗和性能都有影響,這里用相同工藝或者接近工藝下進行對比,ASIC芯片還沒有商用的芯片出現(xiàn),Google的TPU也只是自己使用沒有對外提供信息,這里ASIC芯片用在學(xué)術(shù)論文發(fā)表的《DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-Learning》作為代表。

GPU將失寵,ASIC 才是AI 前景所在

從上面的對比來看,能耗比方面:ASIC > FPGA > GPU > CPU,產(chǎn)生這樣結(jié)果的根本原因:對于計算密集型算法,數(shù)據(jù)的搬移和運算效率越高的能耗比就越高。ASIC和FPGA都是更接近底層IO,所以計算效率高和數(shù)據(jù)搬移高,但是FPGA有冗余晶體管和連線,運行頻率低,所以沒有ASIC能耗比高。GPU和CPU都是屬于通用處理器,都需要進行取指令、指令譯碼、指令執(zhí)行的過程,通過這種方式屏蔽了底層IO的處理,使得軟硬件解耦,但帶來數(shù)據(jù)的搬移和運算無法達到更高效率,所以沒有ASIC、FPGA能耗比高。GPU和CPU之間的能耗比的差距,主要在于CPU中晶體管有大部分用在cache和控制邏輯單元,所以CPU相比GPU來說,對于計算密集同時計算復(fù)雜度低的算法,有冗余的晶體管無法發(fā)揮作用,能耗比上CPU低于GPU。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1624

    文章

    21573

    瀏覽量

    600653
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1178

    瀏覽量

    120152
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4639

    瀏覽量

    128471
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29435

    瀏覽量

    267733

原文標(biāo)題:GPU將失寵,明年的AI市場看ASIC

文章出處:【微信號:icbank,微信公眾號:icbank】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI算力GPU開始騰飛,背后是電源管理的持續(xù)支持

    電子發(fā)燒友網(wǎng)報道(文/黃山明)近期,IDC出具了一份報告顯示,AI PC在中國PC市場中新機的裝配比例將在未來幾年內(nèi)快速攀升,預(yù)計2024年迅速增長至55%,在2027年達到85%,而今年也將成
    的頭像 發(fā)表于 03-30 00:12 ?4095次閱讀
    <b class='flag-5'>AI</b>算力<b class='flag-5'>GPU</b>開始騰飛,背后是電源管理的持續(xù)支持

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?79次閱讀

    英偉達或明年革新AI GPU設(shè)計,采用插槽設(shè)計

    10月11日最新消息,集邦咨詢Trendforce于今日(10月11日)發(fā)表博文透露,英偉達預(yù)計在今年第四季度推出GB200后,正考慮在其下一代AI GPU產(chǎn)品中采納獨立GPU插槽設(shè)計,以取代現(xiàn)有的板載解決方案。這一變動預(yù)計將對
    的頭像 發(fā)表于 10-11 17:05 ?341次閱讀

    ai大模的應(yīng)用前景是什么?

    人工智能(AI)大模型的應(yīng)用前景非常廣泛,涉及到各個行業(yè)和領(lǐng)域。以下是對AI大模型應(yīng)用前景的介紹: 醫(yī)療健康領(lǐng)域 AI大模型在醫(yī)療健康領(lǐng)域的
    的頭像 發(fā)表于 07-16 10:13 ?471次閱讀

    AI大模型的發(fā)展歷程和應(yīng)用前景

    領(lǐng)域取得重要突破。本文深入解析AI大模型的基本原理、發(fā)展歷程、應(yīng)用前景以及面臨的挑戰(zhàn)與爭議,為讀者提供一個全面而深入的科普視角。
    的頭像 發(fā)表于 07-03 18:20 ?968次閱讀

    AI手機市場前景廣闊,五大關(guān)鍵洞察助廠商保持競爭優(yōu)勢

    技術(shù)進步推動用戶對AI手機體驗的期待提升。端側(cè)運行AI模型和應(yīng)用,優(yōu)化專用處理器如ASICGPU及其他零部件至關(guān)重要。隨著技術(shù)的進步,軟件和服務(wù)能力將成為關(guān)鍵因素。
    的頭像 發(fā)表于 05-29 11:19 ?379次閱讀

    為什么跑AI往往用GPU而不是CPU?

    GPU的能力,并且支持的GPU數(shù)量越多,就代表其AI性能越強大。那么問題來了,為什么是GPU而不是CPU?GPU難道不是我們?nèi)粘J褂玫碾娔X里
    的頭像 發(fā)表于 04-24 08:27 ?1680次閱讀
    為什么跑<b class='flag-5'>AI</b>往往用<b class='flag-5'>GPU</b>而不是CPU?

    AI訓(xùn)練,為什么需要GPU?

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個問題,首先需要了解當(dāng)前人工智能(
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b>訓(xùn)練,為什么需要<b class='flag-5'>GPU</b>?

    AI服務(wù)器異構(gòu)計算深度解讀

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%)。
    發(fā)表于 04-12 12:27 ?516次閱讀
    <b class='flag-5'>AI</b>服務(wù)器異構(gòu)計算深度解讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或取代GPU

    對神經(jīng)網(wǎng)絡(luò)進行任何更改,也不需要學(xué)習(xí)任何新工具。不過你可以保留你的 GPU 用于訓(xùn)練?!?Zebra 提供了深度學(xué)習(xí)代碼轉(zhuǎn)換為 FPGA 硬件指令的抽象層 AI 硬件前景
    發(fā)表于 03-21 15:19

    到底什么是ASIC和FPGA?

    2022年底,發(fā)布了AI ASIC芯片AIU。 三星早幾年也搞過ASIC,當(dāng)時做的是礦機專用芯片。沒錯,很多人認(rèn)識ASIC,就是從比特幣挖礦開始的。相比
    發(fā)表于 01-23 19:08

    2024年,GPU還會維持天價嗎?

    云廠商作為AI算力需求的主要承載方,一場由GPU主導(dǎo)的變革正在悄然興起,這場變革的突出表現(xiàn)在云廠商紛紛下場造芯,結(jié)合GPU的短缺、高昂成本、應(yīng)對云服務(wù)更加智能化、自主化、靈活化和可擴展化的需求和廣闊
    的頭像 發(fā)表于 01-14 11:28 ?1217次閱讀
    2024年,<b class='flag-5'>GPU</b>還會維持天價嗎?

    FPGA、ASIC、GPU誰是最合適的AI芯片?

    CPU、GPU遵循的是馮·諾依曼體系結(jié)構(gòu),指令要經(jīng)過存儲、譯碼、執(zhí)行等步驟,共享內(nèi)存在使用時,要經(jīng)歷仲裁和緩存。 而FPGA和ASIC并不是馮·諾依曼架構(gòu)(是哈佛架構(gòu))。以FPGA為例,它本質(zhì)上是無指令、無需共享內(nèi)存的體系結(jié)構(gòu)。
    發(fā)表于 01-06 11:20 ?1260次閱讀
    FPGA、<b class='flag-5'>ASIC</b>、<b class='flag-5'>GPU</b>誰是最合適的<b class='flag-5'>AI</b>芯片?

    AI ASIC芯片帶動封測與載板需求,臺廠打入供應(yīng)鏈

    在晶圓測試領(lǐng)域,京元電在gpu芯片測試領(lǐng)域的市場占有率較高,成為美國ai芯片工廠的主要測試伙伴,最快將從明年開始在ai asic芯片測試領(lǐng)域逐漸擴大規(guī)模。在京元電整體業(yè)績中,
    的頭像 發(fā)表于 12-07 16:44 ?820次閱讀

    ASICGPU,誰才是AI計算的最優(yōu)解?

    電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算開始有著風(fēng)頭蓋過通用計算開始,不少芯片廠商都將其視為下一輪技術(shù)革新。CPU、GPU、FPGA和ASIC紛紛投入到這輪AI革命中來,但斬獲的戰(zhàn)果
    的頭像 發(fā)表于 12-03 08:31 ?1957次閱讀
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>,誰<b class='flag-5'>才是</b><b class='flag-5'>AI</b>計算的最優(yōu)解?