0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2022-08-10 14:35 ? 次閱讀

本文將分析CNN,還有近期比較火的SwinTransformer以及存內(nèi)計(jì)算對AI芯片發(fā)展趨勢的影響,Transformer的出現(xiàn)讓專用AI芯片變得岌岌可危,命懸一線。 所謂AI芯片算力一般指INT8精度下每秒運(yùn)作次數(shù),INT8位即整數(shù)8比特精度。AI芯片嚴(yán)格地說應(yīng)該叫AI加速器,只是加速深度神經(jīng)網(wǎng)絡(luò)推理階段的加速,主要就是卷積的加速。一般用于視覺目標(biāo)識別分類,輔助駕駛或無人駕駛還有很多種運(yùn)算類型,需要用到多種運(yùn)算資源,標(biāo)量整數(shù)運(yùn)算通常由CPU完成,矢量浮點(diǎn)運(yùn)算通常由GPU完成,標(biāo)量、矢量運(yùn)算算力和AI算力同樣重要,三者是平起平坐的。AI算力遠(yuǎn)不能和燃油車的馬力對標(biāo),兩者相差甚遠(yuǎn)。 AI芯片的關(guān)鍵參數(shù)除了算力,還有芯片利用率或者叫模型利用率。AI芯片的算力只是峰值理論算力,實(shí)際算力與峰值算力之比就是芯片利用率。

baa4c488-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上表為英偉達(dá)旗艦人工智能加速器T4的芯片利用率,芯片的利用率很低,大部分情況下93%的算力都是閑置的,這好比一條生產(chǎn)線,93%的工人都無所事事,但工資還是要付的。實(shí)際上芯片利用率超過50%就是非常優(yōu)秀,利用率低于10%是很常見的,極端情況只有1%,也就是說即使你用了4片英偉達(dá)頂級Orin,算力高達(dá)1000TOPS,實(shí)際算力可能只有10TOPS。 這也就是AI芯片主要的工作不是AI芯片本身,而是與之配套的軟件優(yōu)化,當(dāng)然也可以反過來,為自己的算法模型定制一塊AI芯片,如特斯拉。但應(yīng)用面越窄,出貨量就越低,攤在每顆芯片上的成本就越高,這反過來推高芯片價(jià)格,高價(jià)格進(jìn)一步縮窄了市場,因此獨(dú)立的AI芯片必須考慮盡可能適配多種算法模型。 這需要幾方面的工作:

首先主流的神經(jīng)網(wǎng)絡(luò)模型自然要支持;

其次是壓縮模型的規(guī)模并優(yōu)化,將浮點(diǎn)轉(zhuǎn)換為定點(diǎn);

最后是提供編碼器Compiler,將模型映射為二進(jìn)制指令序列。

早期的AI運(yùn)算完全依賴GPU,以致于早期的神經(jīng)網(wǎng)絡(luò)框架如Caffee、TensorFlow、mxnet都必須考慮在GPU上優(yōu)化,簡單地說就是都得適應(yīng)GPU的編碼器CUDA,這也是英偉達(dá)為何如此強(qiáng)的原因,它無需優(yōu)化,因?yàn)樵缙诘纳窠?jīng)網(wǎng)絡(luò)就是為GPU訂做的。CUDA為英偉達(dá)筑起了高高的城墻,你要做AI運(yùn)算,不兼容CUDA是不可能的,所有的程序員都已經(jīng)用習(xí)慣了CUDA。但要兼容CUDA,CUDA的核心是不開源的,無論你如何優(yōu)化,都不如英偉達(dá)的原生CUDA更優(yōu)。車載領(lǐng)域好一點(diǎn),可以效仿特斯拉。 卷積運(yùn)算就是乘積累加,Cn=A×B+Cn-1,A是輸入矩陣,簡單理解就是一副圖像,用像素?cái)?shù)字矩陣來表示一副圖像,B是權(quán)重模型,就是深度學(xué)習(xí)搜集訓(xùn)練數(shù)據(jù),經(jīng)過幾千萬人民幣的數(shù)據(jù)中心訓(xùn)練出的算法模型,也可以看做是一種特殊的濾波器,右邊的C是上一次乘積的結(jié)果。左邊的C就是本次計(jì)算的輸出結(jié)果。卷積運(yùn)算后經(jīng)過全連接層輸出,畫出Bounding Box并識別。用代碼表示如下。

bab84774-1851-11ed-ba43-dac502259ad0.png

bae43000-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

這些計(jì)算中有大量相同的數(shù)據(jù)存取,如下表。

baf88302-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

每一次運(yùn)算都需要頻繁讀取內(nèi)存,很多是重復(fù)讀取,這非常耗費(fèi)時(shí)間和功率,顯然是一種浪費(fèi),AI芯片的核心工作就是提高數(shù)據(jù)的復(fù)用率。 AI芯片分為兩大流派,一是分塊矩陣的One Shot流派,也有稱之為GEMM通用矩陣乘法加速器,典型代表是英偉達(dá)、華為。二是如脈動陣列的數(shù)據(jù)流流派,典型代表是谷歌、特斯拉。還有些非主流的主要用于FPGA的Spatial,F(xiàn)FT快速傅里葉變換。

華為AI芯片電路邏輯

bb105c66-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

以華為為例,其將矩陣A按行存放在輸入緩沖區(qū)中,同時(shí)將矩陣B按列存放在輸入緩沖區(qū)中,通過矩陣計(jì)算單元計(jì)算后得到的結(jié)果矩陣C按行存放在輸出緩沖區(qū)中。在矩陣相乘運(yùn)算中,矩陣C的第一元素由矩陣A的第一行的16個(gè)元素和矩陣B的第一列的16個(gè)元素由矩陣計(jì)算單元子電路進(jìn)行16次乘法和15次加法運(yùn)算得出。矩陣計(jì)算單元中共有256個(gè)矩陣計(jì)算子電路,可以由一條指令并行完成矩陣C的256個(gè)元素計(jì)算。 由于矩陣計(jì)算單元的容量有限,往往不能一次存放下整個(gè)矩陣,所以也需要對矩陣進(jìn)行分塊并采用分步計(jì)算的方式。將矩陣A和矩陣B都等分成同樣大小的塊,每一塊都可以是一個(gè)16×16的子矩陣,排不滿的地方可以通過補(bǔ)零實(shí)現(xiàn)。首先求C1結(jié)果子矩陣,需要分兩步計(jì)算:第一步將A1和B1搬移到矩陣計(jì)算單元中,并算出A1×B1的中間結(jié)果;第二步將A2和B2搬移到矩陣計(jì)算單元中,再次計(jì)算A2×B2 ,并把計(jì)算結(jié)果累加到上一次A1×B1的中間結(jié)果,這樣才完成結(jié)果子矩陣C1的計(jì)算,之后將C1寫入輸出緩沖區(qū)。由于輸出緩沖區(qū)容量也有限,所以需要盡快將C1子矩陣寫入內(nèi)存中,便于留出空間接收下一個(gè)結(jié)果子矩陣C2。 分塊矩陣的好處是只計(jì)算了微內(nèi)核,速度很快,比較靈活,編譯器好設(shè)計(jì),增加算力也很簡單,只要增加MAC的數(shù)量即可。成本低,消耗的SRAM容量小。

bb22093e-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

上圖為一個(gè)典型的脈動陣列,右側(cè)是一個(gè)乘加單元即PE單元的內(nèi)部結(jié)構(gòu),其內(nèi)部有一個(gè)寄存器,在TPU內(nèi)對應(yīng)存儲Weight,此處存儲矩陣B。左圖是一個(gè)4×4的乘加陣列,假設(shè)矩陣B已經(jīng)被加載到乘加陣列內(nèi)部;顯然,乘加陣列中每一列計(jì)算四個(gè)數(shù)的乘法并將其加在一起,即得到矩陣乘法的一個(gè)輸出結(jié)果。依次輸入矩陣A的四行,可以得到矩陣乘法的結(jié)果。PE單元在特斯拉FSD中就是96*96個(gè)PE單元。

bb38cb06-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過最后還要添加累加器,需要多個(gè)SRAM加入。 脈動式優(yōu)點(diǎn)是流水線式,不依賴一次一次的指令,一次指令即可啟動。吞吐量很高。算力做到1000TOPS易如反掌,單PE占硅片面積小。但是其編譯器難度高,靈活度低,要做到高算力,需要大量SRAM,這反過來推高成本。 在實(shí)際應(yīng)用當(dāng)中,情況會比較復(fù)雜,完整的深度學(xué)習(xí)模型都太大,而內(nèi)存是很耗費(fèi)成本的,因此,模型都必須要壓縮和優(yōu)化,常見的壓縮有兩種,一種是Depthwise Convolution,還包括了Depthwise Separable Convolution。另一種是Pointwise Convolution。Depthwise層,只改變feature map的大小,不改變通道數(shù)。而Pointwise層則相反,只改變通道數(shù),不改變大小。這樣將常規(guī)卷積的做法(改變大小和通道數(shù))拆分成兩步走。

bb6131b8-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

常規(guī)卷積,4組(3,3,3)的卷積核進(jìn)行卷積,等于108。

bb749992-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

Depthwise卷積,分成了兩步走,第一步是3*3*3,第二步是1*1*3*4,合計(jì)是39,壓縮了很多。 谷歌TPU v1的算力計(jì)算是700MHz*256*256*2=92Top/s@int8,之所以乘2是因?yàn)檫€有個(gè)加法累積。高通AI100的最大算力計(jì)算是16*8192*2*1600MHz=419Top/s@int8,高通是16核,每個(gè)核心是8192個(gè)陣列,最高運(yùn)行頻率1.6GHz,最低估計(jì)是500MHz。

性能最大化對應(yīng)的模型要求

bb9dcd30-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

對谷歌TPU v1來說,其最優(yōu)性能是輸入為256,而不少Depthwise是3*3,其利用率為9/256,即3.5%。對高通AI100來說,如果算法模型輸入通道是256,那么效率會降低至16/256,即6.3%。顯然對于精簡算法模型,TPU非常不適合。對于精簡模型來說,高通AI100非常不適合。 以上這些都是針對CNN的,目前圖像領(lǐng)域的AI芯片也都是針對CNN的。近期大火的Swin Transformer則與之不同。2021年由微軟亞洲研究院開源的SwinTransformer的橫掃計(jì)算機(jī)視覺,從圖像分類的ViT,到目標(biāo)檢測的DETR,再到圖像分割的SETR以及3D人體姿態(tài)的METRO,大有壓倒CNN的態(tài)勢。但其原生Self-Attention的計(jì)算復(fù)雜度問題一直沒有得到解決,Self-Attention需要對輸入的所有N個(gè)token計(jì)算N的二次方大小的相互關(guān)系矩陣,考慮到視覺信息本來就是二維(圖像)甚至三維(視頻),分辨率稍微高一點(diǎn)就會暴增運(yùn)算量,目前所有視覺類AI芯片都完全無法勝任。

Swin Transformer的模型結(jié)構(gòu)

bbc96850-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

從圖上就能看出其采用了4*4卷積矩陣,而CNN是3*3,這就意味著目前的AI芯片有至少33%的效率下降。再者就是其是矢量與矩陣的乘法,這會帶來一定的浮點(diǎn)矢量運(yùn)算。 假設(shè)高和寬都為112,窗口大小為7,C為128,那么未優(yōu)化的浮點(diǎn)計(jì)算是4*112*112*128*128+2*112*112*112*112*128=41GFLOP/s。大部分AI芯片如特斯拉的FSD和谷歌的TPU,未考慮這種浮點(diǎn)運(yùn)算。不過華為和高通都考慮到了,英偉達(dá)就更不用說了,GPU天生就是針對浮點(diǎn)運(yùn)算的??雌饋?1GFLOP/s不高,但如果沒有專用浮點(diǎn)運(yùn)算處理器,效率也會急速下降。

bbf9153c-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

與CNN不同,Swin Transformer的數(shù)據(jù)選擇與布置占了29%的時(shí)間,矩陣乘法占了71%,而CNN中,矩陣乘法至少占95%。

bc1c4106-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對Swin Transformer的AI芯片最好將區(qū)塊模型與數(shù)據(jù)流模型分開,指令集與數(shù)據(jù)集當(dāng)然也最好分開。

bc456d38-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

針對Swin Transformer,理論上最好的選擇是存內(nèi)計(jì)算也叫存算一體,上圖是存內(nèi)計(jì)算架構(gòu)與傳統(tǒng)AI芯片的馮諾依曼架構(gòu)的功耗對比,存內(nèi)計(jì)算架構(gòu)在同樣算力的情況下,只有馮諾依曼架構(gòu)1/6的功耗。

馮諾依曼架構(gòu)與存內(nèi)計(jì)算架構(gòu)對比

bc752618-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

典型的存內(nèi)計(jì)算架構(gòu)芯片

bc8ab9ce-1851-11ed-ba43-dac502259ad0.png

圖片來源:互聯(lián)網(wǎng)

不過目前存內(nèi)計(jì)算離實(shí)用距離還非常遙遠(yuǎn):

第一,內(nèi)存行業(yè)由三星、美光和SK Hynix三家占了90%的市場,行業(yè)門檻極高,這三家極力保持內(nèi)存價(jià)格穩(wěn)定。

第二,目前AI模型都是越來越大,用存內(nèi)計(jì)算存儲大容量AI模型成本極高。三星的存內(nèi)計(jì)算芯片測試用的是二十年前的MNIST手寫字符識別,這種AI模型是kb級別的。而自動駕駛用的至少也是10MB以上。

第三,精度很低,當(dāng)前存內(nèi)計(jì)算研究的一個(gè)重點(diǎn)方法是使用電阻式RAM(ReRAM)實(shí)現(xiàn)位線電流檢測。由于電壓范圍,噪聲和PVT的變化,模擬位線電流檢測和ADC的精度受到限制,即使精度低到1比特也難以實(shí)現(xiàn),而輔助駕駛目前是8比特。

第四,電阻式RAM可靠性不高。經(jīng)常更新權(quán)重模型,可能導(dǎo)致故障。

最后,存內(nèi)計(jì)算的工具鏈基本為零。最樂觀的估計(jì),存內(nèi)計(jì)算實(shí)用化也要5年以上,且是用在很小規(guī)模計(jì)算,如AIoT領(lǐng)域,自動駕駛領(lǐng)域十年內(nèi)都不可能見到存內(nèi)計(jì)算。即使存內(nèi)計(jì)算實(shí)用化,恐怕也是內(nèi)存三巨頭最有優(yōu)勢。

Transformer的出現(xiàn)讓專用AI芯片變得非常危險(xiǎn),難保未來不出現(xiàn)別的技術(shù),而適用面很窄的AI專用芯片會完全喪失市場,通用性比較強(qiáng)的CPU或GPU還是永葆青春,至于算力,與算法模型高度捆綁,但捆綁太緊,市場肯定很小,且生命周期可能很短。 聲明:本文僅代表作者個(gè)人觀點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4726

    瀏覽量

    100313
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1844

    瀏覽量

    34792
  • 算力
    +關(guān)注

    關(guān)注

    1

    文章

    871

    瀏覽量

    14651

原文標(biāo)題:Transformer挑戰(zhàn)CNN,AI芯片需要改變

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    盤點(diǎn)2023年國產(chǎn)廠商推出ASIL-D芯片新品

    電子發(fā)燒友網(wǎng)報(bào)道(文/劉靜)在過去的一年,半導(dǎo)體行業(yè)企業(yè)陷入水深火熱,業(yè)績集體“滑鐵盧”。國內(nèi)廠商紛紛轉(zhuǎn)向汽車芯片研發(fā),企圖通過開拓這一需求旺盛的市場來挽救岌岌可危的業(yè)績。即便最終業(yè)績沒有多大
    的頭像 發(fā)表于 01-21 10:08 ?6573次閱讀
    盤點(diǎn)2023年國產(chǎn)廠商推出ASIL-D<b class='flag-5'>芯片</b>新品

    新思科技解讀是什么AI芯片設(shè)計(jì)與眾不同?

    Intelligence)時(shí)代,人工智能(AI)和安全已經(jīng)成為超越傳統(tǒng)芯片設(shè)計(jì)界限的關(guān)鍵因素。 半導(dǎo)體行業(yè)的迅猛增長主要是由AI(人工智能)、ML(機(jī)器學(xué)習(xí))和DL(深度學(xué)習(xí))等技術(shù)的廣泛應(yīng)用所驅(qū)動的,這些技術(shù)對計(jì)算要求極高,
    發(fā)表于 07-30 11:50 ?287次閱讀

    只能跑TransformerAI芯片,卻號稱全球最快?

    電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))近日,一家由哈佛輟學(xué)生成立的初創(chuàng)公司Etched,宣布了他們在打造的一款“專用AI芯片Sohu。據(jù)其聲稱該芯片的速度將是英偉達(dá)H100的20倍,但只能
    的頭像 發(fā)表于 07-01 09:03 ?1203次閱讀

    AI初創(chuàng)公司Etched獲1.2億美元A輪融資,加速專用AI芯片研發(fā)

    舊金山的一家人工智能(AI)初創(chuàng)公司Etched宣布,在最近完成的A輪融資中成功籌集了1.2億美元的資金。這筆資金將主要用于進(jìn)一步開發(fā)其專用AI芯片,以支持日益增長的人工智能應(yīng)用需求
    的頭像 發(fā)表于 06-26 14:13 ?640次閱讀

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    risc-v多核芯片AI方面的應(yīng)用

    RISC-V多核芯片AI方面的應(yīng)用主要體現(xiàn)在其低功耗、低成本、靈活擴(kuò)展以及能夠更好地適應(yīng)AI算法的不同需求等特點(diǎn)上。 首先,RISC-V適合用于高效設(shè)計(jì)實(shí)現(xiàn),其內(nèi)核面積更小,功耗更
    發(fā)表于 04-28 09:20

    生成式AI觸手及 ——AirBox 正式開放預(yù)定

    生成式AI觸手及 ——AirBox 正式開放預(yù)定
    的頭像 發(fā)表于 04-26 08:34 ?730次閱讀
    <b class='flag-5'>讓</b>生成式<b class='flag-5'>AI</b>觸手<b class='flag-5'>可</b>及 ——AirBox 正式開放預(yù)定

    光伏產(chǎn)業(yè)風(fēng)云再起,巨頭地位岌岌可危

    面對洶涌的輿論,光伏巨頭也坐不住了,隆基綠能表示:“市場變化很大,企業(yè)會根據(jù)經(jīng)營情況、市場環(huán)境變化和未來產(chǎn)業(yè)結(jié)構(gòu)調(diào)整,做相應(yīng)的資源分配?!本О目萍?、晶科能源等也陸續(xù)對相關(guān)傳聞做出了回應(yīng),但都否認(rèn)了裁員消息。
    發(fā)表于 01-26 10:31 ?258次閱讀

    2023年中國智能手機(jī)市場:華為、小米表現(xiàn)突出,蘋果份額下滑

    相較之下,iPhone在當(dāng)期的整體活躍用戶數(shù)量同比減少了10.6%,且在最后一個(gè)12月僅領(lǐng)先第二名為小米0.18%,與小米、華為之間的距離逐漸縮短,其市場地位已呈岌岌可危之勢。主要原因在于國產(chǎn)高端旗艦小米14系列和華為Mate60系列銷量強(qiáng)勁,反觀iPhone 15系列銷量飽受沖擊。
    的頭像 發(fā)表于 01-10 09:44 ?1521次閱讀

    “可靠”變得“更快更安全”的數(shù)據(jù)傳輸協(xié)議:SCTP

    SCTP(Stream Control Transmission Protocol,流控傳輸協(xié)議)的出現(xiàn),并不是萬丈高樓平地起,而是站在TCP這個(gè)巨人肩膀上,數(shù)據(jù)傳輸從“可靠”變得“更快更安全”。
    的頭像 發(fā)表于 12-28 17:25 ?1248次閱讀
    <b class='flag-5'>讓</b>“可靠”<b class='flag-5'>變得</b>“更快更安全”的數(shù)據(jù)傳輸協(xié)議:SCTP

    Transformer大模型部署在端側(cè),IPC SoC正在普惠AI

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)AI大模型襲卷而來,而如何終端產(chǎn)品插上AI的翅膀會是芯片廠商研發(fā)的方向和市場的機(jī)會。如今網(wǎng)絡(luò)攝像機(jī)作為智慧城市、智能家居等應(yīng)用的主流終端發(fā)展迅速,IPC
    的頭像 發(fā)表于 12-08 13:50 ?965次閱讀
    把<b class='flag-5'>Transformer</b>大模型部署在端側(cè),IPC SoC正在普惠<b class='flag-5'>AI</b>

    異構(gòu)專用AI芯片的黃金時(shí)代

    異構(gòu)專用AI芯片的黃金時(shí)代
    的頭像 發(fā)表于 12-04 16:42 ?542次閱讀
    異構(gòu)<b class='flag-5'>專用</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>的黃金時(shí)代

    AI智能網(wǎng)關(guān)如何助力化品安全監(jiān)測

    得益于AI技術(shù)的蓬勃發(fā)展,當(dāng)前人們可以充分利用AI技術(shù),實(shí)現(xiàn)對各類化品的高敏感、高精度、實(shí)時(shí)可靠監(jiān)測管控,有效防范減少安全事故發(fā)生。
    的頭像 發(fā)表于 11-23 17:30 ?339次閱讀
    <b class='flag-5'>AI</b>智能網(wǎng)關(guān)如何助力<b class='flag-5'>危</b>化品安全監(jiān)測

    #芯片 #AI 世界最強(qiáng)AI芯片H200性能大揭秘!

    芯片AI
    深圳市浮思特科技有限公司
    發(fā)布于 :2023年11月15日 15:54:37

    半導(dǎo)體行業(yè)新起之秀RISC-V | ARM地位竟被它逼的岌岌可危?

    RISC-V(Reduced Instruction Set Computing-five)是一個(gè)基于精簡指令集(Reduced Instruction Set Computing,RISC)原則的開源指令集架構(gòu)(ISA)。
    的頭像 發(fā)表于 10-30 15:54 ?526次閱讀
    半導(dǎo)體行業(yè)新起之秀RISC-V | ARM地位竟被它逼的<b class='flag-5'>岌岌可危</b>?