0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)接近芯片算力極限?如何擺脫被淘汰的命運(yùn)

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-10-30 08:13 ? 次閱讀

關(guān)于深度學(xué)習(xí),它正在快速接近其極限。雖然事實(shí)可能的確如此,但我們?nèi)晕茨茉谌粘I钪懈惺艿饺娌渴鹕疃葘W(xué)習(xí)的影響。

MIT:算力將探底,算法需改革

MIT 發(fā)出警告:深度學(xué)習(xí)正在接近現(xiàn)有芯片的算力極限,如果不變革算法,深度學(xué)習(xí)恐難再進(jìn)步。

根據(jù)麻省理工學(xué)院,MIT-IBM Watson AI 實(shí)驗(yàn)室,Underwood 國際學(xué)院和巴西利亞大學(xué)的研究人員在最近的研究中發(fā)現(xiàn),持續(xù)不斷的進(jìn)步將需要通過改變現(xiàn)有技術(shù)或通過尚未發(fā)現(xiàn)的新方法來更有效地使用深度學(xué)習(xí)方法。

目前深度學(xué)習(xí)的繁榮過度依賴算力的提升,在后摩爾定律時(shí)代可能遭遇發(fā)展瓶頸,在算法改進(jìn)上還需多多努力。

深度學(xué)習(xí)不是偶然的計(jì)算代價(jià),而是設(shè)計(jì)的代價(jià)。共同的靈活性使它能夠出色地建模各種現(xiàn)象,并且性能優(yōu)于專家模型,這也使其在計(jì)算上的成本大大提高。

研究人員估計(jì),三年的算法改進(jìn)相當(dāng)于計(jì)算能力提高 10 倍??傮w而言,在深度學(xué)習(xí)的許多領(lǐng)域中,訓(xùn)練模型的進(jìn)步取決于所使用的計(jì)算能力的大幅度提高。另一種可能性是,要改善算法本身可能需要互補(bǔ)地提高計(jì)算能力。

在研究過程中,研究人員還對預(yù)測進(jìn)行了推斷,以了解達(dá)到各種理論基準(zhǔn)所需的計(jì)算能力以及相關(guān)的經(jīng)濟(jì)和環(huán)境成本。

即使是最樂觀的計(jì)算,要降低 ImageNet 上的圖像分類錯(cuò)誤率,也需要進(jìn)行 10 的五次方以上的計(jì)算。

根據(jù)多項(xiàng)式和指數(shù)模型的預(yù)測,通過深度學(xué)習(xí)獲得相應(yīng)性能基準(zhǔn)所需的算力(以 Gflops 為單位),碳排放量和經(jīng)濟(jì)成本,最樂觀的估計(jì),ImageNet 分類誤差要想達(dá)到 1%,需要 10^28 Gflops 的算力,這對硬件來說是不小的壓力。

爆炸式增長結(jié)束,頂部提升有機(jī)會

用于深度學(xué)習(xí)模型的計(jì)算能力的爆炸式增長已經(jīng)結(jié)束了,并為各種任務(wù)的計(jì)算機(jī)性能樹立了新的基準(zhǔn)。但是這些計(jì)算限制的可能影響迫使機(jī)器學(xué)習(xí)轉(zhuǎn)向比深度學(xué)習(xí)更高效的技術(shù)。

過去算力的提升歸納了兩個(gè)原因:

一個(gè)是底部的發(fā)展,即計(jì)算機(jī)部件的小型化,其受摩爾定律制約;

另一個(gè)是頂部的發(fā)展,是上面提到的軟件、算法、硬件架構(gòu)的統(tǒng)稱。

在后摩爾定律時(shí)代,提升計(jì)算性能的方法,雖然底部已經(jīng)沒有太多提升的空間,但頂部還有機(jī)會。

在軟件層面,可以通過性能工程(performance engineering)提高軟件的效率,改變傳統(tǒng)軟件的開發(fā)策略,盡可能縮短軟件運(yùn)行時(shí)間,而不是縮短軟件開發(fā)時(shí)間。另外,性能工程還可以根據(jù)硬件的情況進(jìn)行軟件定制,如利用并行處理器和矢量單元。

在算法層面,在已有算法上的改進(jìn)是不均勻的,而且具有偶然性,大量算法進(jìn)展可能來源于新的問題領(lǐng)域、可擴(kuò)展性問題、根據(jù)硬件定制算法。

在硬件層面,由于摩爾定律的制約,顯然需要改進(jìn)的是硬件的架構(gòu),主要問題就是如何簡化處理器和利用應(yīng)用程序的并行性。

通過簡化處理器,可以將復(fù)雜的處理核替換為晶體管數(shù)量需求更少的簡單處理核。由此釋放出的晶體管預(yù)算可重新分配到其他用途上,比如增加并行運(yùn)行的處理核的數(shù)量,這將大幅提升可利用并行性問題的效率。

深度學(xué)習(xí)時(shí)代 AI 模型需規(guī)模化擴(kuò)展

現(xiàn)代 AI 模型需要消耗大量電力,而且對電力的需求正以驚人的速度增長。在深度學(xué)習(xí)時(shí)代,構(gòu)建一流 AI 模型所需要的計(jì)算資源平均每 3.4 個(gè)月翻一番。

在當(dāng)今以深度學(xué)習(xí)為中心的研究范式當(dāng)中,AI 的主要進(jìn)步主要依賴于模型的規(guī)模化擴(kuò)展:數(shù)據(jù)集更大、模型更大、計(jì)算資源更大。

在訓(xùn)練過程中,神經(jīng)網(wǎng)絡(luò)需要為每一條數(shù)據(jù)執(zhí)行一整套冗長的數(shù)學(xué)運(yùn)算(正向傳播與反向傳播),并以復(fù)雜的方式更新模型參數(shù)

在現(xiàn)實(shí)環(huán)境中部署并運(yùn)行 AI 模型,所帶來的能源消耗量甚至高于訓(xùn)練過程。實(shí)際上,神經(jīng)網(wǎng)絡(luò)全部算力成本中的 80%到 90%來自推理階段,而非訓(xùn)練階段。

因此,數(shù)據(jù)集規(guī)模越大,與之對應(yīng)的算力與能源需求也在飛速增長。模型中包含的參數(shù)量越大,推理階段所帶來的電力需求就越夸張。

深度學(xué)習(xí)是 AI 核心,但局限性明顯

AI 領(lǐng)域需要在根本上做出長期轉(zhuǎn)變。需要退后一步,承認(rèn)單純建立越來越龐大的神經(jīng)網(wǎng)絡(luò)并不是通往廣義智能的正確路徑。

深度學(xué)習(xí)是近年來人工智能技術(shù)發(fā)展的核心,雖然取得了巨大成功,但它具有明顯的局限性。與人類視覺系統(tǒng)相比,深度學(xué)習(xí)在通用性、靈活性和適應(yīng)性上要差很多,而在遇到復(fù)雜的自然圖像時(shí),深度學(xué)習(xí)可能還會遇到機(jī)制性困難。

研究人員表示,目前形式的深度神經(jīng)網(wǎng)絡(luò)似乎不太可能是未來建立通用智能機(jī)器或理解思維的最佳解決方案,但深度學(xué)習(xí)的很多機(jī)制在未來仍會繼續(xù)存在。

深度網(wǎng)絡(luò)還存在巨大挑戰(zhàn),而我們要實(shí)現(xiàn)通用人工智能和理解生物視覺系統(tǒng),就必須克服這些挑戰(zhàn)。

雖然深度網(wǎng)絡(luò)會是解決方案的一部分,但還需要涉及組合原則和因果模型的互補(bǔ)方法,以捕捉數(shù)據(jù)的基本結(jié)構(gòu)。此外,面對組合性爆炸,需要要再次思考如何訓(xùn)練和評估視覺算法。

每一次人工智能低谷來臨之前,都會有科學(xué)家夸大和炒作他們創(chuàng)造的潛力,僅僅說他們的算法就能夠很好地完成某項(xiàng)任務(wù)是不夠的。

對大多數(shù)問題來說,深度學(xué)習(xí)并不是正確的解決方法,不要試圖為所有的問題尋找通用人工智能解決方案,因?yàn)樗揪筒淮嬖凇?/p>

結(jié)尾:

深度學(xué)習(xí)的發(fā)展可能已達(dá)極限,但其影響還將持續(xù)深遠(yuǎn)。為了避免在“人工智能冬天”中被淘汰的命運(yùn),能做的最好的事情就是明確你要解決的問題,并理解其本質(zhì);然后,尋找為特定問題提供解決方案的直觀路徑的方法。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    452

    文章

    50033

    瀏覽量

    419884
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5449

    瀏覽量

    120811
收藏 人收藏

    評論

    相關(guān)推薦

    億鑄科技熊大鵬探討AI大芯片的挑戰(zhàn)與解決策略

    在SEMiBAY2024《HBM與存儲器技術(shù)與應(yīng)用論壇》上,億鑄科技的創(chuàng)始人、董事長兼CEO熊大鵬博士發(fā)表了題為《超越極限:大芯片的技術(shù)挑戰(zhàn)與解決之道》的演講,深入剖析了AI大模型
    的頭像 發(fā)表于 10-25 11:52 ?199次閱讀

    芯片 高性能 CPU/GPU/NPU 微架構(gòu)分析》第1-4章閱讀心得——之巔:從基準(zhǔn)測試到CPU微架構(gòu)的深度探索

    學(xué)習(xí)。不過我相信學(xué)習(xí)之路,I am not alone!在此,我首先分享我計(jì)劃第一部分(本書1-4章)的閱讀心得。 1 從TOP500到MLPerf:
    發(fā)表于 10-19 01:21

    GPU租用平臺怎么樣

    GPU租用平臺以其成本效益、靈活性與可擴(kuò)展性、簡化運(yùn)維以及即時(shí)訪問等優(yōu)勢,在深度學(xué)習(xí)、科學(xué)計(jì)算、圖形渲染等多個(gè)領(lǐng)域發(fā)揮著重要作用。
    的頭像 發(fā)表于 10-17 10:03 ?116次閱讀

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書概覽

    詳細(xì)。了解芯片機(jī)制原理、架構(gòu)組織形式邏輯等,對我們軟件開發(fā)芯片方案能起到很好的促進(jìn)作用。
    發(fā)表于 10-15 22:08

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    這個(gè)想法否決了,因?yàn)橥度胼^大、難以落地,且客戶對的認(rèn)同遠(yuǎn)不及今天這種高度。 這幾年間其實(shí)我們聯(lián)系甚少,但是作者一直沒有脫離對芯片的應(yīng)用和關(guān)注。特別是目睹GPU從消費(fèi)電子轉(zhuǎn)向
    發(fā)表于 09-02 10:09

    力系列基礎(chǔ)篇——與計(jì)算機(jī)性能:解鎖超能力的神秘力量!

    在《力系列基礎(chǔ)篇——101:從零開始了解》中,相信各位粉絲初步了解到人工智能的“發(fā)動機(jī)”和核心驅(qū)動力:
    的頭像 發(fā)表于 07-11 08:04 ?104次閱讀
    <b class='flag-5'>算</b>力系列基礎(chǔ)篇——<b class='flag-5'>算</b><b class='flag-5'>力</b>與計(jì)算機(jī)性能:解鎖超能力的神秘力量!

    芯耀輝科技解讀高速互連對于AI和大芯片而言意味著什么?

    近年來,隨著人工智能技術(shù)的迅猛發(fā)展,大芯片已成為推動AI技術(shù)創(chuàng)新的關(guān)鍵力量。然而,隨著芯片內(nèi)部計(jì)算單元數(shù)量的增加和任務(wù)復(fù)雜度的提升,互連已成為一個(gè)嚴(yán)重的瓶頸,制約著
    的頭像 發(fā)表于 07-08 11:39 ?818次閱讀

    商湯科技采購40000顆英偉達(dá)芯片,縮小中美差距

    徐冰認(rèn)為,國產(chǎn)芯片崛起以及商品化帶來的投資價(jià)值,使中美差距有望逐步縮小。只要中國持續(xù)在
    的頭像 發(fā)表于 05-28 11:25 ?922次閱讀

    摩爾線程張建中:以國產(chǎn)助力數(shù)智世界,滿足大模型需求

    摩爾線程創(chuàng)始人兼CEO張建中在會上透露,為了滿足國內(nèi)對AI的迫切需求,他們正在積極尋求與國內(nèi)頂尖科研機(jī)構(gòu)的深度合作,共同推動更大規(guī)模的AI智集群項(xiàng)目。
    的頭像 發(fā)表于 05-10 16:36 ?768次閱讀

    揭秘芯片:為何它如此關(guān)鍵?

    在數(shù)字化時(shí)代,芯片作為電子設(shè)備的核心組件,其性能直接關(guān)系到設(shè)備的運(yùn)行速度和處理能力。而芯片,即其計(jì)算能力,更是衡量芯片性能的重要指標(biāo)。
    的頭像 發(fā)表于 05-09 08:27 ?796次閱讀
    揭秘<b class='flag-5'>芯片</b><b class='flag-5'>算</b><b class='flag-5'>力</b>:為何它如此關(guān)鍵?

    芯片:未來科技的加速器?

    在數(shù)字化時(shí)代,芯片作為電子設(shè)備的核心組件,其性能直接關(guān)系到設(shè)備的運(yùn)行速度和處理能力。而芯片,即其計(jì)算能力,更是衡量芯片性能的重要指標(biāo)。
    的頭像 發(fā)表于 02-27 09:42 ?807次閱讀
    高<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>:未來科技的加速器?

    智能規(guī)模超通用,大模型對智能提出高要求

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)是設(shè)備通過處理數(shù)據(jù),實(shí)現(xiàn)特定結(jié)果輸出的計(jì)算能力,常用FLOPS作為計(jì)量單位。FLOPS是Floating-point Operations Per Second
    的頭像 發(fā)表于 02-06 00:08 ?5803次閱讀

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發(fā)布于 :2024年01月25日 14:54:52

    淺談為AI大而生的存-體芯片

    大模型爆火之后,存一體獲得了更多的關(guān)注與機(jī)會,其原因之一是因?yàn)榇?b class='flag-5'>算一體芯片的裸相比傳統(tǒng)架構(gòu)的AI
    發(fā)表于 12-06 15:00 ?340次閱讀
    淺談為AI大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-體<b class='flag-5'>芯片</b>

    芯片里的HBM,你了解多少?

    最近,隨著人工智能行業(yè)的高速崛起,大芯片業(yè)成為半導(dǎo)體行業(yè)為數(shù)不多的熱門領(lǐng)域HBM(高寬帶內(nèi)存:High-bandwidthmemory)作為大
    的頭像 發(fā)表于 12-05 16:14 ?1502次閱讀
    大<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>里的HBM,你了解多少?