0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

全新AI芯片,能效超GPU的100倍

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-06-16 16:33 ? 次閱讀


最近硬件業(yè)界有些熱鬧:IBM研發(fā)出能效超GPU 100倍的新型存儲(chǔ)器,英特爾預(yù)計(jì)2020年發(fā)布第一批獨(dú)立GPU,清華的Thinker芯片論文入選ISCA-18。從學(xué)術(shù)界到產(chǎn)業(yè)界,芯片研究者的探索從未停止,進(jìn)展也在切實(shí)發(fā)生。英特爾中國(guó)研究院院長(zhǎng)宋繼強(qiáng)博士,清華大學(xué)教授、微納電子學(xué)系主任魏少軍博士對(duì)未來AI芯片趨勢(shì)進(jìn)行了展望。

芯片是當(dāng)前科技、產(chǎn)業(yè)和社會(huì)關(guān)注的熱點(diǎn),也是 AI 技術(shù)發(fā)展過程中不可逾越的關(guān)鍵階段。無論哪種 AI 算法,最終的應(yīng)用必然通過芯片來實(shí)現(xiàn)。

在剛剛結(jié)束的計(jì)算機(jī)體系結(jié)構(gòu)頂會(huì)ISCA 2018上,2017年的圖靈獎(jiǎng)得主、體系結(jié)構(gòu)領(lǐng)域的兩位宗師級(jí)人物John L. Hennessy和David A. Patterson在演講中指出,隨著摩爾定律和登納德縮放比例定律(Dennard Scaling)的放緩甚至停滯,單處理器核心的性能每年的提升已降為3%左右——相比上世紀(jì)60年代的黃金時(shí)期,那時(shí)候由于體系結(jié)構(gòu)的創(chuàng)新,計(jì)算機(jī)性能每年提升在60%左右。

通用處理器性能提升的形勢(shì)看上去已經(jīng)十分嚴(yán)峻,但接下來我們要帶來一些好消息。從IBM、英特爾到微軟,從學(xué)術(shù)界到產(chǎn)業(yè)界,芯片研究者的探索從未停止,進(jìn)展也切切實(shí)實(shí)在發(fā)生。

IBM Nature論文:全新AI芯片,能效超GPU的100倍

在最近發(fā)表在Nature上的一篇論文中,IBM Research AI團(tuán)隊(duì)用大規(guī)模的模擬存儲(chǔ)器陣列訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN),達(dá)到了與GPU相當(dāng)?shù)木?。研究人員相信,這是在下一次AI突破所需要的硬件加速器發(fā)展道路上邁出的重要一步。

未來人工智能將需要大規(guī)模可擴(kuò)展的計(jì)算單元,無論是在云端還是在邊緣,DNN都會(huì)變得更大、更快,這意味著能效必須顯著提高。雖然更好的GPU或其他數(shù)字加速器能在某種程度上起到幫助,但這些系統(tǒng)都不可避免地在數(shù)據(jù)的傳輸,也就是將數(shù)據(jù)從內(nèi)存?zhèn)鞯接?jì)算處理單元然后回傳上花費(fèi)大量的時(shí)間和能量。

模擬技術(shù)涉及連續(xù)可變的信號(hào),而不是二進(jìn)制的0和1,對(duì)精度具有內(nèi)在的限制,這也是為什么現(xiàn)代計(jì)算機(jī)一般是數(shù)字型的。但是,AI研究人員已經(jīng)開始意識(shí)到,即使大幅降低運(yùn)算的精度,DNN模型也能運(yùn)行良好。因此,對(duì)于DNN來說,模擬計(jì)算有可能是可行的。

但是,此前還沒有人給出確鑿的證據(jù),證明使用模擬的方法可以得到與在傳統(tǒng)的數(shù)字硬件上運(yùn)行的軟件相同的結(jié)果。也就是說,人們還不清楚DNN是不是真的能夠通過模擬技術(shù)進(jìn)行高精度訓(xùn)練。如果精度很低,訓(xùn)練速度再快、再節(jié)能,也沒有意義。

在IBM最新發(fā)表的那篇Nature論文中,研究人員通過實(shí)驗(yàn),展示了模擬非易失性存儲(chǔ)器(NVM)能夠有效地加速反向傳播(BP)算法,后者是許多最新AI進(jìn)展的核心。這些NVM存儲(chǔ)器能讓BP算法中的“乘-加”運(yùn)算在模擬域中并行。

研究人員將一個(gè)小電流通過一個(gè)電阻器傳遞到一根導(dǎo)線中,然后將許多這樣的導(dǎo)線連接在一起,使電流聚集起來,就實(shí)現(xiàn)了大量計(jì)算的并行。而且,所有這些都在模擬存儲(chǔ)芯片內(nèi)完成,不需要數(shù)字芯片里數(shù)據(jù)在存儲(chǔ)單元和和處理單元之間傳輸?shù)倪^程。

IBM的大規(guī)模模擬存儲(chǔ)器陣列,訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)達(dá)到了GPU的精度。來源:IBM Research

由于當(dāng)前NVM存儲(chǔ)器的固有缺陷,以前的相關(guān)實(shí)驗(yàn)都沒有在DNN圖像分類任務(wù)上得到很好的精度。但這一次,IBM的研究人員使用創(chuàng)新的技術(shù),改善了很多不完善的地方,將性能大幅提升,在各種不同的網(wǎng)絡(luò)上,都實(shí)現(xiàn)了與軟件級(jí)的DNN精度。

單獨(dú)看這個(gè)大規(guī)模模擬存儲(chǔ)器陣列里的一個(gè)單元,由相變存儲(chǔ)器(PCM)和CMOS電容組成,PCM放長(zhǎng)期記憶(權(quán)重),短期的更新放在CMOS電容器里,之后再通過特殊的技術(shù),消除器件與器件之間的不同。研究人員表示,這種方法是受了神經(jīng)科學(xué)的啟發(fā),使用了兩種類型的“突觸”:短期計(jì)算和長(zhǎng)期記憶。

這些基于NVM的芯片在訓(xùn)練全連接層方面展現(xiàn)出了極強(qiáng)的潛力,在計(jì)算能效(28,065 GOP/sec/W) 和通量(3.6 TOP/sec/mm^2)上,超過了當(dāng)前GPU的兩個(gè)數(shù)量級(jí)。

這項(xiàng)研究表明了,基于模擬存儲(chǔ)器的方法,能夠?qū)崿F(xiàn)與軟件等效的訓(xùn)練精度,并且在加速和能效上有數(shù)量級(jí)的提高,為未來設(shè)計(jì)全新的AI芯片奠定了基礎(chǔ)。研究人員表示,他們接下來將繼續(xù)優(yōu)化,處理全連接層和其他類型的計(jì)算。

英特爾首款獨(dú)立GPU最早2020年問世,曝光14nm獨(dú)立GPU原型

另一芯片大廠英特爾自然也不會(huì)回避這場(chǎng)游戲。

昨天,英特爾發(fā)推正式確認(rèn),其首款獨(dú)立GPU最早將于2020年問世,并附上了一張英特爾首席架構(gòu)師Raja Koduri的照片。

Raja Koduri在去年11月加入英特爾,此前曾在AMD擔(dān)任高級(jí)副總裁、RTG負(fù)責(zé)人。Raja Koduri有超過25年的視覺和加速計(jì)算技術(shù),將推進(jìn)英特爾的“計(jì)算和圖形領(lǐng)先”戰(zhàn)略。

Raja Koduri

不過,英特爾的推特并沒有說明這些GPU的發(fā)展方向,也沒有透露哪一款產(chǎn)品將率先上市,但預(yù)計(jì)數(shù)據(jù)中心和游戲PC都是目標(biāo)。

英特爾此前在2018年ISSCC會(huì)議(國(guó)際固態(tài)電路會(huì)議)上展示了首個(gè)14nm 獨(dú)立GPU原型,它是一個(gè)雙芯片解決方案。第一個(gè)芯片包含兩個(gè)關(guān)鍵部件:GPU本身和一個(gè)系統(tǒng)代理;第二個(gè)芯片是一個(gè)與系統(tǒng)總線連接的FPGA。目前,GPU組件基于英特爾的Gen 9架構(gòu),并具有三個(gè)執(zhí)行單元(EU)集群。這三個(gè)集群連接到一個(gè)復(fù)雜電源/時(shí)鐘(power/clock)管理機(jī)制,該機(jī)制有效地管理每個(gè)EU的電源和時(shí)鐘速度。

還有一個(gè)雙時(shí)鐘機(jī)制,可以使時(shí)鐘速度(即升壓狀態(tài))增加一倍,超過現(xiàn)在的Gen 9 EU可以在英特爾iGPU上處理的時(shí)鐘速度。一旦達(dá)到合適的能效水平,英特爾將使用新一代的EU,并利用新工藝流程擴(kuò)大EU數(shù)量,開發(fā)更大型的獨(dú)立GPU。

Raja Koduri長(zhǎng)期以來一直是圖形行業(yè)受人尊敬的領(lǐng)導(dǎo)者,他的加盟表明英特爾有意再次認(rèn)真對(duì)待圖形產(chǎn)品。盡管很少有人質(zhì)疑英特爾芯片設(shè)計(jì)的能力,但從頭開始構(gòu)建新的GPU架構(gòu)不是一件小事,英特爾在三年內(nèi)會(huì)推出圖形產(chǎn)品的難度非常大。

Shrout Research的分析師Ryan Shrout表示,英特爾把目標(biāo)定在2020年,目的是與AMD的Radeon和Nvidia的GeForce產(chǎn)品競(jìng)爭(zhēng)。但英特爾需要與AMD和英偉達(dá)保持同樣的性能和效率,或者至少在20%的差距內(nèi)。

微軟:云計(jì)算招聘AI芯片工程師

微軟在芯片領(lǐng)域最近也有動(dòng)作。

3月下旬,微軟在其Azure公共云部門發(fā)布了至少三個(gè)職位空缺,尋找適合AI芯片功能的應(yīng)聘者。后來,該部門又掛出一個(gè)硅谷項(xiàng)目經(jīng)理的職位空缺,以及“一個(gè)軟件/硬件協(xié)同設(shè)計(jì)和人工智能加速優(yōu)化工程師”職位。

在與亞馬遜AWS和谷歌云競(jìng)爭(zhēng)之際,微軟愿意不惜一切代價(jià)打造一個(gè)功能齊全的云服務(wù)。專門的處理器是微軟證明其在云計(jì)算領(lǐng)域?yàn)槠髽I(yè)提供人工智能服務(wù)的一種方式。

半導(dǎo)體領(lǐng)域?qū)ξ④泚碚f并不是全新的領(lǐng)域。微軟已經(jīng)通過FPGA芯片增強(qiáng)云計(jì)算的AI計(jì)算能力,并推出Project Brainwave項(xiàng)目。現(xiàn)在,這些芯片可用于使用Azure的即用型機(jī)器學(xué)習(xí)軟件進(jìn)行AI模型的訓(xùn)練和運(yùn)行。

去年微軟表示,它正在為HoloLens的下一個(gè)版本構(gòu)建定制AI芯片,但這不在其云計(jì)算部門之內(nèi)。

微軟的一位發(fā)言人告訴CNBC,新的職位空缺不屬于FPGA計(jì)劃的一部分,但與公司在設(shè)計(jì)自己的云硬件方面所做的工作有關(guān),該計(jì)劃名為Project Olympus。

谷歌由于在云計(jì)算市場(chǎng)上落后于AWS和微軟,首次提出了在云計(jì)算中為人工智能開發(fā)定制芯片的想法,并且推出的TPU已經(jīng)進(jìn)行了第三次迭代,成為了GPU的一種替代方案。然而,這是一個(gè)代價(jià)非常高昂的努力。

Moor Insights & Strategy的分析師Patrick Moorhead估計(jì),谷歌在其TPU項(xiàng)目上已經(jīng)花費(fèi)了2億至3億美元。跟英特爾、谷歌一樣,微軟做AI芯片的過程也將非常艱辛。

不過,現(xiàn)在微軟已經(jīng)表明了它的支出意愿,上個(gè)季度的資本支出達(dá)到了創(chuàng)紀(jì)錄的35億美元。

宋繼強(qiáng)、魏少軍:AI芯片尚在發(fā)展初期,擁有巨大創(chuàng)新空間

通過芯片技術(shù)來大幅增強(qiáng)人工智能研發(fā)的條件已經(jīng)成熟,未來十年將是AI芯片發(fā)展的重要時(shí)期,不論是架構(gòu)上還是設(shè)計(jì)理念上都將有巨大的突破。

賽靈思在今年3月宣布將推出新一代AI芯片架構(gòu) ACAP(Adaptive Compute Acceleration Platform),這是一款高度集成的多核異構(gòu)計(jì)算平臺(tái),能根據(jù)各種應(yīng)用于工作負(fù)載的需求對(duì)硬件層進(jìn)行靈活變化;英偉達(dá)在終端側(cè)和服務(wù)中心分別提供不同性能和能效比的GPU芯片。

英特爾中國(guó)研究院院長(zhǎng)宋繼強(qiáng)博士,清華大學(xué)教授、微納電子學(xué)系主任魏少軍博士在今年的《人工智能》雜志第二期《AI 芯片:從歷史看未來》中寫道,架構(gòu)創(chuàng)新是AI芯片面臨的一個(gè)不可回避的課題。

我們要回答一個(gè)重要問題:是否會(huì)出現(xiàn)像通用 CPU 那樣獨(dú)立存在的 AI 處理器?如果存在的話,它的架構(gòu)是怎樣的? 如果不存在,那么目前以滿足特定應(yīng)用為主要目標(biāo)的 AI 芯片就一定只能以 IP 核的方式存在,最終被各種各樣的 SoC 所集成。這樣是一種快速滿足具體應(yīng)用要求的方式。

從芯片發(fā)展的大趨勢(shì)來看,現(xiàn)在還是 AI 芯片的初級(jí)階段,無論是科研還是產(chǎn)業(yè)應(yīng) 用都有巨大的創(chuàng)新空間。從確定算法、領(lǐng)域的 AI 加速芯片向具備更高靈活性、適應(yīng)性的智能芯片發(fā)展是科研發(fā)展的必然方向。神經(jīng)擬態(tài)芯片技術(shù)和可重構(gòu)計(jì)算芯片技術(shù)允許硬件架構(gòu)和功能隨軟件變化而變化,實(shí)現(xiàn)以高能效比支持多種智能任務(wù),在實(shí)現(xiàn) AI 功能時(shí)具有獨(dú)到的優(yōu)勢(shì),具備廣闊的前景。

下文選自《AI芯片:從歷史看未來》文章第四節(jié)和第五節(jié)。

四、AI 芯片的發(fā)展趨勢(shì)

AI 應(yīng)用落地還有很長(zhǎng)的路要走,而對(duì)于芯片從業(yè)者來講,當(dāng)務(wù)之急是研究芯片架 構(gòu)問題。從感知、傳輸?shù)教幚恚俚絺鬏?、?zhí)行,這是 AI 芯片的一個(gè)基本邏輯。但是智慧處理的基本架構(gòu)是什么?還沒有人能夠說得清,研究者只能利用軟件系統(tǒng)、處理器等去模仿。軟件是實(shí)現(xiàn)智能的核心,芯片是支撐智能的基礎(chǔ)。我們認(rèn)為,短期內(nèi)以異構(gòu)計(jì)算(多種組合方式)為主來加速各類應(yīng)用算法的落地(看重能效比、性價(jià)比、可靠性);中期要發(fā)展自重構(gòu)、自學(xué)習(xí)、自適應(yīng)的芯片來支持算法的演進(jìn)和類人的自然智能;長(zhǎng)期則朝著通用 AI 芯片的方面發(fā)展。

通用 AI 計(jì)算

AI 的通用性實(shí)際上有兩個(gè)層級(jí):第一個(gè)層級(jí)是可以處理任意問題;第二個(gè)層級(jí)是同時(shí)處理任意問題。第一層的目標(biāo)是讓一種 AI 的算法可以通過不同的設(shè)計(jì)、數(shù)據(jù)和訓(xùn) 練方法來處理不同的問題。例如現(xiàn)在流行的深度增強(qiáng)學(xué)習(xí)方法,大家用它訓(xùn)練下棋、打撲克、視覺識(shí)別、語音識(shí)別、行為識(shí)別、運(yùn)動(dòng)導(dǎo)航等等。但是,不同的任務(wù)使用不同的數(shù)據(jù)集來獨(dú)立訓(xùn)練,模型一旦訓(xùn)練完成,只適用于這種任務(wù),而不能用于處理其它任務(wù)。 所以,我們可以說這種 AI 的算法和訓(xùn)練方法是通用的,而它訓(xùn)練出來用于執(zhí)行某個(gè)任 務(wù)的模型(是對(duì)具體解決這個(gè)任務(wù)的算法的表示,可以理解為程序中的一個(gè)模塊)是不通用的。第二層的目標(biāo)是讓訓(xùn)練出來的模型可以同時(shí)處理多種任務(wù),就像人一樣可以既會(huì)下棋,又會(huì)翻譯,還會(huì)駕駛汽車和做飯。這個(gè)目標(biāo)更加困難,首先是還沒有發(fā)現(xiàn)哪一個(gè)算法可以如此全能,其次是如何保證新加入的能力不會(huì)影響原有能力的穩(wěn)定性,反而 可以彌補(bǔ)原來能力的不足,從而更好的完成任務(wù)。例如,我們知道多模態(tài)數(shù)據(jù)融合可以比只使用單模態(tài)數(shù)據(jù)有更好的準(zhǔn)確性和魯棒性。

通用 AI 芯片

“通用 AI 芯片”就是能夠支持和加速通用 AI 計(jì)算的芯片。關(guān)于通用 AI(有時(shí)也 成為強(qiáng) AI)的研究希望通過一個(gè)通用的數(shù)學(xué)模型,能夠最大限度概括智能的本質(zhì)。那么,什么是智能的本質(zhì)?目前比較主流的看法,是系統(tǒng)能夠具有通用效用最大化能力:即系統(tǒng)擁有通用歸納能力,能夠逼近任意可逼近的模式,并能利用所識(shí)別到的模式取得一個(gè)效用函數(shù)的最大化效益。這是很學(xué)術(shù)化的語言,如果通俗地說,就是讓系統(tǒng)通過學(xué)習(xí)和訓(xùn)練,能夠準(zhǔn)確高效地處理任意智能主體(例如人)能夠處理的任務(wù)。通用 AI 的難點(diǎn) 主要有兩個(gè),一個(gè)是通用性(算法和架構(gòu)),第二個(gè)是實(shí)現(xiàn)復(fù)雜度。

通用 AI 芯片的復(fù)雜度來自于任務(wù)的多樣性和對(duì)自學(xué)習(xí)、自適應(yīng)能力的支持。所以, 我們認(rèn)為通用 AI 芯片的發(fā)展方向不會(huì)是一蹴而就地采用某一種芯片來解決問題,因?yàn)槔碚撃P秃退惴ㄉ形赐晟?。最有效的方式是先用一個(gè)多種芯片設(shè)計(jì)思路組合的靈活的異構(gòu)系統(tǒng)(heterogeneous system of AI chips)來支持,各取所長(zhǎng),取長(zhǎng)補(bǔ)短。當(dāng)架構(gòu)成熟,就可以考慮設(shè)計(jì)SoC(System on Chip)來在一個(gè)芯片上支持通用 AI。

五、面臨的挑戰(zhàn)

AI 芯片是當(dāng)前科技、產(chǎn)業(yè)和社會(huì)關(guān)注的熱點(diǎn),也是 AI 技術(shù)發(fā)展過程中不可逾越 的關(guān)鍵階段。無論哪種 AI 算法,最終的應(yīng)用必然通過芯片來實(shí)現(xiàn),不論是 CPU 還是文 中提及的各種 AI 芯片。由于目前的 AI 算法都有各自的長(zhǎng)處和短處,只有給它們?cè)O(shè)定一個(gè)合適的應(yīng)用邊界才能最好地發(fā)揮它們的作用。因此,確定應(yīng)用領(lǐng)域就成為發(fā)展 AI 芯 片的重要前提。遺憾的是,AI 的“殺手”級(jí)應(yīng)用目前尚未出現(xiàn),已經(jīng)存在的一些應(yīng)用 對(duì)于老百姓的日常生活來說也還不是剛需,也還不存在適應(yīng)各種應(yīng)用的“通用”算法。其實(shí),也不需要全部通用,能像人一樣可以同時(shí)擁有數(shù)十種能力,并且可以持續(xù)學(xué)習(xí)改進(jìn),就已經(jīng)很好了。因此,AI 芯片的外部發(fā)展還有待優(yōu)化。

架構(gòu)創(chuàng)新是 AI 芯片面臨的一個(gè)不可回避的課題。我們要回答一個(gè)重要問題:是否 會(huì)出現(xiàn)像通用 CPU 那樣獨(dú)立存在的 AI 處理器?如果存在的話,它的架構(gòu)是怎樣的? 如果不存在,那么目前以滿足特定應(yīng)用為主要目標(biāo)的 AI 芯片就一定只能以 IP 核的方式存在,最終被各種各樣的 SoC 所集成。這樣是一種快速滿足具體應(yīng)用要求的方式。

從芯片發(fā)展的大趨勢(shì)來看,現(xiàn)在還是 AI 芯片的初級(jí)階段,無論是科研還是產(chǎn)業(yè)應(yīng)用都有巨大的創(chuàng)新空間。從確定算法、領(lǐng)域的 AI 加速芯片向具備更高靈活性、適應(yīng)性的智能芯片發(fā)展是科研發(fā)展的必然方向。神經(jīng)擬態(tài)芯片技術(shù)和可重構(gòu)計(jì)算芯片技術(shù)允許 硬件架構(gòu)和功能隨軟件變化而變化,實(shí)現(xiàn)以高能效比支持多種智能任務(wù),在實(shí)現(xiàn) AI 功能時(shí)具有獨(dú)到的優(yōu)勢(shì),具備廣闊的前景。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9819

    瀏覽量

    171122
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46348

    瀏覽量

    236517
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1844

    瀏覽量

    34792

原文標(biāo)題:【超GPU 100倍】IBM新型AI芯片發(fā)Nature,英特爾、微軟出大招

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GPU齊平,低功耗AI公司的轉(zhuǎn)型

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))隨著LLM在內(nèi)的AI模型從規(guī)模和計(jì)算復(fù)雜性上成倍增加,與數(shù)年前相比,訓(xùn)練優(yōu)秀AI模型的成本已經(jīng)上升到了一個(gè)新的高度。從最近不斷溢價(jià)、缺貨搶貨的GPU市場(chǎng)也可以看出
    的頭像 發(fā)表于 10-23 09:03 ?1319次閱讀
    與<b class='flag-5'>GPU</b><b class='flag-5'>能</b><b class='flag-5'>效</b>齊平,低功耗<b class='flag-5'>AI</b>公司的轉(zhuǎn)型

    AI芯片界的領(lǐng)頭羊進(jìn)軍機(jī)器人行業(yè)

    算法的兼顧,英偉達(dá)不僅能用GPU滿足AI構(gòu)建的訓(xùn)練需求,還能用TeslaRT用來部署,很好實(shí)現(xiàn)AI構(gòu)建,所以英偉達(dá)也率先成了這一波AI熱潮的最大受益者。給機(jī)器人“造腦”,英偉達(dá)發(fā)布
    發(fā)表于 06-11 08:20

    ai芯片gpu的區(qū)別

    ai芯片gpu的區(qū)別▌車載芯片的發(fā)展趨勢(shì)(CPU-GPU-FPGA-ASIC)過去汽車電子芯片
    發(fā)表于 07-27 07:29

    當(dāng)AI遇上FPGA會(huì)產(chǎn)生怎樣的反應(yīng)

    是人工智能大躍進(jìn)的基礎(chǔ),在線下模型訓(xùn)練中Xeon-Phi、GPU等發(fā)揮著巨大的作用,而在線上的推理任務(wù)中,浪潮FPGA深度學(xué)習(xí)加速解決方案則能夠?qū)崿F(xiàn)7以上的比提升。 卷積網(wǎng)絡(luò)之父
    發(fā)表于 09-17 17:08

    IBM全新AI芯片設(shè)計(jì)登上Nature,解決GPU的算力瓶頸

    現(xiàn)如今的人工智能的神經(jīng)網(wǎng)絡(luò)與GPU密不可分,但是GPU的算力對(duì)于未來神經(jīng)網(wǎng)絡(luò)的發(fā)展是不夠用的,好在IBM全新AI芯片設(shè)計(jì),能夠解決
    發(fā)表于 06-13 09:28 ?1385次閱讀

    Imagination推出全新A系列GPU,性能將提升2.5

    Imagination公司發(fā)布了全新的A系列GPU,該系列分為AXE、AXM、AXT三款。據(jù)悉,全新的A系列GPU相較之前的GPU,提升幅度
    的頭像 發(fā)表于 12-03 14:29 ?3391次閱讀

    NVIDIA推出A100 80GB GPU,助力實(shí)現(xiàn)新一輪AI和科學(xué)技術(shù)突破

    NVIDIA于今日發(fā)布NVIDIA A100 80GB GPU,這一創(chuàng)新將支持NVIDIA HGX AI超級(jí)計(jì)算平臺(tái)。該GPU內(nèi)存比上一代提升一
    的頭像 發(fā)表于 11-17 09:59 ?2356次閱讀

    IBM 新款高能 AI 芯片比高過 NVIDIA A100

    ,ISSCC 2021 亦被許多廠商視為發(fā)布其領(lǐng)先芯片技術(shù)的權(quán)威舞臺(tái)。 本屆會(huì)議上,IBM 發(fā)表了據(jù)稱是 “全球首款”的高能 AI 芯片,該芯片
    的頭像 發(fā)表于 02-19 11:03 ?2030次閱讀
    IBM 新款高能<b class='flag-5'>效</b> <b class='flag-5'>AI</b> <b class='flag-5'>芯片</b>:<b class='flag-5'>能</b><b class='flag-5'>效</b>比高過 NVIDIA A<b class='flag-5'>100</b>

    AMD:用于AI訓(xùn)練及高性能計(jì)算將在2025年提高30

    )今日宣布將在2025年實(shí)現(xiàn)AMD EPYC(霄龍)處理器和AMD Instinct加速器提高30的目標(biāo),這些產(chǎn)品將為運(yùn)行在加速計(jì)算節(jié)點(diǎn)上的AI訓(xùn)練和高性能計(jì)算應(yīng)用提供算力支持。
    發(fā)表于 10-08 13:49 ?825次閱讀

    GTC2022大會(huì)亮點(diǎn):NVIDIA發(fā)布全新AI計(jì)算系統(tǒng)—DGX H100

    GTC2022大會(huì)亮點(diǎn):NVIDIA發(fā)布全新AI計(jì)算系統(tǒng)—DGX H100,借助NVLink連接,DGX使八塊H100成為了一個(gè)巨型GPU。
    的頭像 發(fā)表于 03-24 15:06 ?1847次閱讀
    GTC2022大會(huì)亮點(diǎn):NVIDIA發(fā)布<b class='flag-5'>全新</b><b class='flag-5'>AI</b>計(jì)算系統(tǒng)—DGX H<b class='flag-5'>100</b>

    平頭哥全新RISC-V高能處理器玄鐵C908實(shí)現(xiàn)突破

    11月3日,在2022云棲大會(huì)上,阿里平頭哥發(fā)布全新RISC-V高能處理器玄鐵C908。玄鐵C908計(jì)算全球領(lǐng)先,較業(yè)界同性能處理器
    的頭像 發(fā)表于 11-03 17:37 ?1052次閱讀

    AMD甩出最強(qiáng)AI芯片 單個(gè)GPU跑大模型

    專為生成式AI設(shè)計(jì)的GPU:HBM密度是英偉達(dá)H100的2.4,帶寬是英偉達(dá)H100的1.6
    的頭像 發(fā)表于 06-20 10:47 ?835次閱讀

    ai芯片gpu芯片有什么區(qū)別?

    ai芯片gpu芯片有什么區(qū)別? AI芯片GPU
    的頭像 發(fā)表于 08-08 18:02 ?5196次閱讀

    英偉達(dá):預(yù)計(jì)下一代AI芯片B100短缺,計(jì)劃擴(kuò)產(chǎn)并采用新架構(gòu)

    近期熱門的 H100 芯片運(yùn)期短縮數(shù)天后,英偉達(dá)新型 AI 旗艦芯片 B100搭載全新的 Bla
    的頭像 發(fā)表于 02-25 09:29 ?802次閱讀

    AMD披露高效數(shù)據(jù)中心策略,預(yù)計(jì)至2027年提升

    會(huì)議期間,蘇姿豐談?wù)摿薃MD如何通過實(shí)施30x25戰(zhàn)略推動(dòng)2025年計(jì)算節(jié)點(diǎn)提升30的目標(biāo)。她進(jìn)一步透露,AMD已找到2026年至2027年間將能提升
    的頭像 發(fā)表于 05-24 17:37 ?959次閱讀