0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MIT研發(fā)“神經架構搜索”算法,將AI優(yōu)化的AI設計過程加速240倍或更多

IEEE電氣電子工程師 ? 來源:YXQ ? 2019-04-15 16:49 ? 次閱讀

自2017年以來,AI研究人員一直在使用AI神經網絡來幫助設計更好、更快的AI神經網絡。迄今為止,應用AI來實現(xiàn)更好的AI很多程度上是一種學術追求——主要是因為這種方法需要數(shù)萬個GPU小時。

然而,下個月,麻省理工學院(MIT)的一個研究小組將展示一種所謂的“神經架構搜索”算法,該算法可以將AI優(yōu)化的AI設計過程加速240倍或更多。這將使AI更快、更準確,在實際應用中達到可應用于圖像識別算法和其他相關應用的程度。

MIT電子工程和計算機科學助理教授Song Han表示:“在模型大小、推理延遲、準確性和模型容量之間存在各種各樣的權衡?!彼a充說:“(這些)加起來就是一個巨大的設計空間。以前,人們設計了基于啟發(fā)法的神經網絡。神經架構搜索試圖將這種勞動密集型的、基于啟發(fā)法的探索轉變?yōu)榛趯W習的、基于AI的設計空間探索。就像AI可以學習下圍棋一樣,AI也可以學習如何設計一個神經網絡?!?/p>

就像在圍棋和國際象棋中獲勝的AI程序已經向這些游戲的大師們教授新策略一樣,AI優(yōu)化的AI設計結果為AI神經網絡設計提供了新的方法。

MIT的新算法加速了其開發(fā)的AI神經網絡的類型為卷積神經網絡(CNN)。CNN通常是用于圖像識別程序的首選神經網絡。除了圖像和視頻領域的應用外,CNN在自然語言處理和藥物發(fā)現(xiàn)等領域也有所應用。

MIT的Han指出,一旦他們的算法建立起最優(yōu)的CNN,所得到的系統(tǒng)很可能將圖像分類的速度提高到其他神經架構搜索構建的AI的1.8倍。

Han說,其團隊能夠以如此驚人的速度精確定位最優(yōu)的CNN設計,得益于三個重要的想法。

首先,他們減少了運行神經架構搜索的GPU的內存負載。一個標準的神經結構搜索可以同時檢查網絡中神經層之間所有可能的連接。相反,Han的團隊每次只在GPU的內存中保存一條路徑。這個技巧可以在僅使用十分之一內存空間的情況下對參數(shù)空間進行完整的搜索,從而使他們的搜索覆蓋更多的網絡配置,而不會耗盡芯片上的空間。

他們的第二個錦囊妙計是從已被丟棄的神經網絡搜索中刪除整個路徑,這顯著加快了神經網絡搜索的速度。(通常,神經結構搜索只丟棄單個“神經元”,刪除掉所有次優(yōu)的神經網絡連接。)

第三個創(chuàng)新之處涉及使神經網絡搜索意識到AI系統(tǒng)可能正在運行的每種類型硬件的延遲時間——無論是直接的CPU還是用于移動平臺的GPU加速系統(tǒng)。

Han說,令人驚訝的是,關于一些類型的圖像識別神經網絡的傳統(tǒng)觀點是錯誤的。從某種意義上說,AI網絡設計師在設計主要運行在GPU系統(tǒng)上的網絡時,他們的想法仍然停留在CPU時代。

CNN在其圖像識別算法中使用過濾器,這些過濾器是由3×3、5×5或7×7像素組成的正方形網格。傳統(tǒng)上,很少使用7×7大小的過濾器,因為人們認為運行多層3×3過濾器比運行單個7×7過濾器更快。

然而,Han說,AI優(yōu)化的AI使用了相當數(shù)量的7×7過濾器——Han認為,這是當今大多數(shù)AI計算中GPU占主導地位的一個原因。

“我們發(fā)現(xiàn),在GPU上運行多層7×7過濾器更容易,因為GPU具有很大的并行性,”Han說。“而且調用一個大型內核調用比調用幾個小型內核調用更有效?!?/p>

在談到他們團隊的算法時,Han說:“它為人類工程師設計未來的神經網絡提供了良好的反饋?!比欢?,這并不意味著AI能夠構建其自身的更強大版本。(那些擔心會發(fā)生AI大災難的人,可能無法從目前的研究中找到對其觀點有利的證據(jù)。)

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29373

    瀏覽量

    267654
  • MIT
    MIT
    +關注

    關注

    3

    文章

    253

    瀏覽量

    23327

原文標題:MIT研發(fā)出一種“神經架構搜索”算法 ?使用AI來實現(xiàn)更好的AI

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    未來AI大模型的發(fā)展趨勢

    上得到了顯著提升。未來,算法架構的進一步優(yōu)化推動AI大模型在性能上實現(xiàn)新的突破。 多頭自注意力機制、前饋
    的頭像 發(fā)表于 10-23 15:06 ?24次閱讀

    AI for Science:人工智能驅動科學創(chuàng)新》第4章-AI與生命科學讀后感

    的深入發(fā)展。 3. 挑戰(zhàn)與機遇并存 盡管AI在生命科學領域取得了顯著的成果,但也面臨著諸多挑戰(zhàn)。例如,數(shù)據(jù)隱私、算法偏見、倫理道德等問題都需要我們認真思考和解決。同時,如何更好地AI
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    偏見、倫理道德等問題。此外,如何更好地AI與科學研究人員的傳統(tǒng)工作模式相融合,也是一個亟待解決的問題。未來,隨著技術的不斷進步和應用場景的拓展,AI for Science有望在更多
    發(fā)表于 10-14 09:16

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    ,如果醫(yī)生和患者都能了解AI推薦治療方案的原因,大大增加對技術的接受度和信任。 算法公平性的保障同樣不可或缺。AI系統(tǒng)在設計時就需要考慮到多樣性和包容性,避免因為訓練數(shù)據(jù)的偏差而
    發(fā)表于 07-16 15:07

    微軟被曝AI研發(fā)外包給OpenAI

    網絡安全公司Okta的首席執(zhí)行官托德·麥金農(Todd McKinnon)在CNBC的專訪中分享了關于當前科技巨頭在人工智能(AI)領域的戰(zhàn)略布局的見解。他特別指出,谷歌在捍衛(wèi)其搜索引擎霸主地位的同時,正努力保持AI
    的頭像 發(fā)表于 06-12 15:57 ?322次閱讀

    OpenAI否認推出搜索產品GPT-5

    此消息對致力于ChatGPT嵌入必應搜索引擎的微軟或許有所積極影響。早期已有報導披露,該AI企業(yè)有意研發(fā)競品以抗衡谷歌搜索引擎。
    的頭像 發(fā)表于 05-13 15:14 ?328次閱讀

    risc-v多核芯片在AI方面的應用

    得RISC-V多核芯片能夠更好地適應AI算法的不同需求,包括深度學習、神經網絡等,從而提高芯片的性能和效率,降低成本,使AI邊緣計算晶片更具競爭力。 再者,RISC-V的多核設計可以進
    發(fā)表于 04-28 09:20

    Arm推動生成式AI落地邊緣!全新Ethos-U85 AI加速器支持Transformer 架構,性能提升四

    電子發(fā)燒友網報道(文/黃晶晶)在嵌入式領域,邊緣與端側AI推理需求不斷增長,Arm既有Helium 技術使 CPU 能夠執(zhí)行更多計算密集型的 AI 推理算法,也有Ethos 系列
    的頭像 發(fā)表于 04-16 09:10 ?4426次閱讀
    Arm推動生成式<b class='flag-5'>AI</b>落地邊緣!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速</b>器支持Transformer <b class='flag-5'>架構</b>,性能提升四<b class='flag-5'>倍</b>

    開發(fā)者手機 AI - 目標識別 demo

    Network Runtime 神經網絡運行時,作為中間橋梁連通上層AI推理框架和底層加速芯片,實現(xiàn)AI模型的跨芯片推理計算。提供統(tǒng)一AI
    發(fā)表于 04-11 16:14

    FPGA在深度學習應用中取代GPU

    系統(tǒng)等其他行業(yè)也面臨著類似的挑戰(zhàn)。 FPGA 和深度學習 FPGA 是可定制的硬件設備,可對其組件進行調節(jié),因此可以針對特定類型的架構 (如 卷積神經網絡) 進行優(yōu)化。其可定制性特征降低了對電力的需求
    發(fā)表于 03-21 15:19

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當準備使用神經網絡的relocatable方式,ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術原理、應用場景及優(yōu)勢

    ,可以減少數(shù)據(jù)在傳輸過程中被竊取篡改的風險,提高數(shù)據(jù)安全性。 - 低能耗:通過優(yōu)化神經網絡模型和硬件設計,NanoEdge AI 可以在有
    發(fā)表于 03-12 08:09

    國科微:持續(xù)優(yōu)化邊緣AI戰(zhàn)略布局

    國科微近日在接受調研時透露,公司正積極推進搭載自研NPU架構的芯片研發(fā),主要聚焦在邊緣側應用。公司表示,持續(xù)優(yōu)化邊緣AI戰(zhàn)略布局,加快
    的頭像 發(fā)表于 02-23 11:23 ?751次閱讀

    優(yōu)美科攜手微軟打造AI平臺,加速電動汽車電池材料研發(fā)

    優(yōu)美科,一家在電動汽車電池材料領域處于領先地位的公司,近日與全球科技巨頭微軟正式簽署合作協(xié)議。雙方共同開發(fā)一個基于人工智能(AI)的電池材料研發(fā)平臺,旨在通過AI技術
    的頭像 發(fā)表于 02-18 17:29 ?632次閱讀

    【國產FPGA+OMAPL138開發(fā)板體驗】(原創(chuàng))5.FPGA的AI加速源代碼

    OMAP-L138(定點/浮點DSP C674x+ARM9)+ FPGA處理器的開發(fā)板。 編寫一個用于AI加速的FPGA程序是一個相當復雜的過程,涉及硬件描述語言(如VHDLVer
    發(fā)表于 02-12 16:18