0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過Transformer架構(gòu)賦能新一代邊緣AI應(yīng)用

Arm社區(qū) ? 來源:Arm社區(qū) ? 2024-04-08 10:45 ? 次閱讀

人工智能 (AI) 和機器學(xué)習(xí) (ML) 的加速發(fā)展既得益于基礎(chǔ)硬件的不斷改進,也離不開軟件領(lǐng)域的發(fā)展成果。

以 Transformer 架構(gòu)為例。2017 年,谷歌在一篇研究論文中[1]首次提出這一架構(gòu),它采用自注意力機制 (self-attention),使模型能夠在進行預(yù)測時對不同的輸入詞元 (token) 賦予不同權(quán)重。利用自注意力機制,Transformer 模型能夠捕捉數(shù)據(jù)中的遠程依賴關(guān)系,因此在執(zhí)行語言翻譯、圖像處理、文本生成和情感分析等任務(wù)時非常高效。例如,生成式預(yù)訓(xùn)練模型 (GPT) 就是當(dāng)前流行訓(xùn)練有素的 Transformer 模型。這些模型已經(jīng)在語音助手和 AI 圖像生成工具中得到應(yīng)用。

這之于感知器 (perceptron) 還是存在很大的差別。感知器是早期的一種神經(jīng)網(wǎng)絡(luò),由單層人工神經(jīng)元組成,可在模式識別任務(wù)(例如,識別手寫數(shù)字)中做出二元決策。相較于卷積神經(jīng)網(wǎng)絡(luò) (CNN),Transformer 架構(gòu)已開始受到更多青睞。CNN 對數(shù)據(jù)架構(gòu)方式會進行內(nèi)置假設(shè),它關(guān)注附近的關(guān)系,以及觀察圖像或視頻中的對象移動或變化方式。

而 Transformer 架構(gòu)則不會做出這些假設(shè)。相反地,它利用自注意力來理解序列的不同部分如何相互關(guān)聯(lián),而忽略其位置信息。得益于這種靈活性,基于 Transformer 的模型能夠更加輕松地適應(yīng)不同的任務(wù)。

這是如何實現(xiàn)的?Transformer 架構(gòu)及其采用的注意力機制徹底改變了 AI 應(yīng)用的格局,因為注意力機制具備的相關(guān)功能可以為諸多用例提供支持。文本(及語言)本身就是編碼信息,圖像、音頻以及其他形式的串行數(shù)據(jù)同樣如此。由于編碼信息可以解讀為一種語言,因此 Transformer 模型可以廣泛應(yīng)用于不同的用例中。這種適應(yīng)性對于理解視頻、填充圖像的缺失部分或同時分析來自多個攝像頭的數(shù)據(jù)或多模態(tài)數(shù)據(jù)來源(參見下文示例)等任務(wù)非常有效。

2020 年問世的 Vision Transformer (ViT) 是將 Transformer 架構(gòu)成功應(yīng)用于圖像分類的最早一批神經(jīng)網(wǎng)絡(luò)技術(shù)[2]之一。ViT 將圖像劃分為多個圖塊,并使用自注意力機制對這些圖塊之間的交互進行建模。

自此,Transformer 模型被迅速應(yīng)用于各類視覺任務(wù)中,例如:

圖像分類

目標檢測

語義分割

圖像超分辨率

圖像生成

視頻分類

在硬件上優(yōu)化模型

那么,硬件與這一切有什么關(guān)系呢?關(guān)系相當(dāng)密切!而且硬件將是未來發(fā)展的關(guān)鍵因素。

GPU、TPU 或 NPU(甚至 CPU)都可以處理 Transformer 模型所需的密集矩陣運算和并行計算。同時,Transformer 架構(gòu)可使更復(fù)雜的模型運行于資源更為受限的邊緣設(shè)備上。

主要有以下三個原因:

與 CNN 或循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 相比,Transformer 架構(gòu)從本質(zhì)上而言更具可并行性。這一特性能更有效地利用硬件,從而可以在計算資源受限的邊緣設(shè)備上部署基于 Transformer 的模型。

自注意力機制意味著通過較小的 Transformer 模型所帶來的性能表現(xiàn),可以媲美基于 CNN 或 RNN 的較大模型,從而降低邊緣部署的算力與內(nèi)存需求。

模型壓縮技術(shù)(例如剪枝、量化、知識提煉和注意力稀疏)的提升可進一步縮小 Transformer 模型的大小,同時又不會造成性能或準確性的明顯下降。

Transformer 架構(gòu)提升

現(xiàn)在,不妨想象一下功能更強大的計算資源,畢竟這一切并不遙遠。通過優(yōu)化支持 Transformer 架構(gòu)的硬件,創(chuàng)新者可充分發(fā)掘這些強大神經(jīng)網(wǎng)絡(luò)的全部潛力,并為跨不同領(lǐng)域和模式的 AI 應(yīng)用帶來全新的可能性。

例如,硬件性能和效率的提升可以:

加快 Transformer 模型的推理速度,從而提高響應(yīng)能力,并改善用戶體驗。

部署更大的 Transformer 模型,從而在語言翻譯、文本生成和圖像處理等任務(wù)中獲得更佳表現(xiàn)。

提高在一系列應(yīng)用和部署場景中的邊緣設(shè)備、云服務(wù)器或?qū)S?AI 加速器中部署 Transformer 解決方案的可擴展性。

探索全新架構(gòu),并不斷優(yōu)化 Transformer 模型。這其中包括嘗試不同的層配置、注意力機制和正則化技術(shù),以進一步提高模型的性能和效率。

顯著提高能效,鑒于某些模型的規(guī)模增長,這一點至關(guān)重要。

試想一下,當(dāng)你打開手機或智能眼鏡上[3]的某個視覺應(yīng)用,它可以識別某個款式的襯衫,并從你的衣柜中推薦與之搭配的下半身穿著?;蛘哂捎谒懔μ嵘霈F(xiàn)的新的圖像生成功能[4]。

增加計算資源并不困難。集成子系統(tǒng)可提供經(jīng)過驗證的各種處理單元塊,包括 CPU、NPU、互連、內(nèi)存和其他組件。而軟件工具可以根據(jù)處理器來優(yōu)化 Transformer 模型,以獲得性能和效率的最大化。

擁抱未來

通過硬件優(yōu)化,Transformer 模型架構(gòu)有望推動一些令人驚嘆的新應(yīng)用。借助優(yōu)化的硬件配置以及集成子系統(tǒng)、互連和軟件開發(fā),無論是更快的推理速度,為更大的模型提供更好的性能,還是更出色的可擴展性等等,這一切都將成為可能。這條通往創(chuàng)新和探索的全新旅程,正在蓬勃發(fā)展,引領(lǐng)我們走向更遠的未來。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4729

    瀏覽量

    100347
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46435

    瀏覽量

    236661
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8330

    瀏覽量

    132220
  • AI加速器
    +關(guān)注

    關(guān)注

    1

    文章

    67

    瀏覽量

    8619

原文標題:大咖觀點 | 通過 Transformer 架構(gòu)賦能新一代邊緣 AI 應(yīng)用

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    螞蟻數(shù)科發(fā)布AI新一代數(shù)據(jù)標注產(chǎn)品

    在近日舉行的2024 Incluison·外灘大會上,螞蟻數(shù)科憑借其技術(shù)創(chuàng)新的深厚底蘊,正式推出了新一代AI數(shù)據(jù)標注產(chǎn)品,旨在為企業(yè)客戶提供全方位、智能化的數(shù)據(jù)解決方案。這款產(chǎn)品的問世,標志著螞蟻數(shù)科在AI數(shù)據(jù)服務(wù)領(lǐng)域邁出了堅實
    的頭像 發(fā)表于 09-10 16:04 ?334次閱讀

    Pegatron通過AI的數(shù)字孿生來模擬并優(yōu)化工廠運營

    制造商在縮短生產(chǎn)周期、提高生產(chǎn)力與質(zhì)量方面所面臨的壓力越來越大,而且還要在做到這切的同時降低成本。為了應(yīng)對這些挑戰(zhàn),他們正在通過投資工業(yè)數(shù)字化和 AI
    的頭像 發(fā)表于 07-02 11:53 ?588次閱讀

    螞蟻數(shù)科發(fā)布新一代融合AI風(fēng)控引擎“AIR Engine”

    在數(shù)字化浪潮的推動下,金融科技領(lǐng)域的風(fēng)控技術(shù)正迎來新的突破。近日,螞蟻數(shù)科旗下的蟻盾風(fēng)控團隊正式發(fā)布了新一代融合AI風(fēng)控引擎——“AIR Engine(AIFUSERiskEngine)”,該引擎在原有的決策式AI
    的頭像 發(fā)表于 06-26 18:20 ?1132次閱讀

    邊緣AI實現(xiàn)性能和功耗的平衡,英飛凌新一代PSOC? Edge MCU如何做到?

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)傳統(tǒng)AI的使用場景有定局限性,難以面對實際應(yīng)用場景的多樣化,基于云端算力的AI大模型對特定場景的適配性較差,因而算力下沉、數(shù)據(jù)下沉的邊緣
    的頭像 發(fā)表于 06-26 00:14 ?5334次閱讀
    讓<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>實現(xiàn)性能和功耗的平衡,英飛凌<b class='flag-5'>新一代</b>PSOC? Edge MCU如何做到?

    英特爾新一代AI PC酷睿Ultra處理器強勢來襲

    近日,在臺北國際電腦展上,英特爾展示了大力加速AI生態(tài)的前沿技術(shù)和架構(gòu),遍及數(shù)據(jù)中心、云與網(wǎng)絡(luò)邊緣和PC。得益于更高計算處理性能、出色的效表現(xiàn)、和更低的總體擁有成本(TCO),用戶能
    的頭像 發(fā)表于 06-15 11:39 ?820次閱讀

    推出最新的邊緣AI服務(wù)器及內(nèi)置耐AI芯片的PC設(shè)備

    加速棒和邊緣服務(wù)器,與領(lǐng)先的 GPU 配合使用時,可將其能耗降低 30%。 2024年6月5日,耐今天于2024年臺北國際電腦展(COMPUTEX 2024)上宣布推出最新的邊緣AI
    的頭像 發(fā)表于 06-05 10:21 ?513次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業(yè)軟件支持,實現(xiàn)邊緣實時醫(yī)療、工業(yè)和科學(xué) AI 應(yīng)用

    美敦力、SETI協(xié)會以及領(lǐng)先的制造商正在構(gòu)建? NVIDIA IGX 系統(tǒng), 為 ?AI 在工業(yè)邊緣 ? ? COMPUTEX — 2024 年 6 月 2 日 — NVIDIA
    發(fā)表于 06-03 09:48 ?264次閱讀
      NVIDIA <b class='flag-5'>通過</b> Holoscan 為 NVIDIA IGX 提供企業(yè)軟件支持,實現(xiàn)<b class='flag-5'>邊緣</b>實時醫(yī)療、工業(yè)和科學(xué) <b class='flag-5'>AI</b> 應(yīng)用

    步解讀英偉達 Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    2024年3月19日,[英偉達]CEO[黃仁勛]在GTC大會上公布了新一代AI芯片架構(gòu)BLACKWELL,并推出基于該架構(gòu)的超級芯片GB200,將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計自動化
    發(fā)表于 05-13 17:16

    英特爾AI產(chǎn)品助力其運行Meta新一代大語言模型Meta Llama 3

    英特爾豐富的AI產(chǎn)品——面向數(shù)據(jù)中心的至強處理器,邊緣處理器及AI PC等產(chǎn)品為開發(fā)者提供最新的優(yōu)化,助力其運行Meta新一代大語言模型Meta Llama 3
    的頭像 發(fā)表于 04-28 11:16 ?525次閱讀

    DPU技術(shù)一代AI算力基礎(chǔ)設(shè)施

    4月19日,在以“重構(gòu)世界 奔赴未來”為主題的2024中國生成式AI大會上,中科馭數(shù)作為DPU新型算力基礎(chǔ)設(shè)施代表,受邀出席了中國智算中心創(chuàng)新論壇,發(fā)表了題為《以網(wǎng)絡(luò)為中心的AI算力底座構(gòu)建之路》主題演講,勾勒出在通往AGI之路上,DPU技術(shù)
    的頭像 發(fā)表于 04-20 11:31 ?754次閱讀

    Supermicro 擴展邊緣計算產(chǎn)品組合,推出新一代嵌入式解決方案,加速物聯(lián)網(wǎng)和邊緣 AI 工作負載的處理速度

    、云計算、存儲和 5G/邊緣提供全方位信息技術(shù)解決方案的供應(yīng)商,?Supermicro, Inc.(納斯達克股票代碼:SMCI)宣布,推出新一代物聯(lián)網(wǎng)和嵌入式系統(tǒng),旨在提升遠程邊緣智能應(yīng)用的性能表現(xiàn)
    的頭像 發(fā)表于 04-10 14:09 ?384次閱讀
    Supermicro 擴展<b class='flag-5'>邊緣</b>計算產(chǎn)品組合,推出<b class='flag-5'>新一代</b>嵌入式解決方案,加速物聯(lián)網(wǎng)和<b class='flag-5'>邊緣</b> <b class='flag-5'>AI</b> 工作負載的處理速度

    研揚攜手英特爾,聯(lián)合舉辦創(chuàng)AI百城行(武漢站):用OpenVINO?AI邊緣計算平臺

    邊緣計算作為實現(xiàn)智能化、高效化數(shù)據(jù)處理的關(guān)鍵技術(shù),日益受到業(yè)界的廣泛關(guān)注。為了進步推動AI邊緣計算技術(shù)的發(fā)展與應(yīng)用,3月27日研揚科技與英特爾在武漢共同舉辦了以“用OpenVINO
    的頭像 發(fā)表于 04-04 08:05 ?167次閱讀
    研揚攜手英特爾,聯(lián)合舉辦創(chuàng)<b class='flag-5'>AI</b>百城行(武漢站):用OpenVINO?<b class='flag-5'>賦</b><b class='flag-5'>能</b><b class='flag-5'>AI</b>于<b class='flag-5'>邊緣</b>計算平臺

    國產(chǎn)六核CPU,三屏異顯,新一代商顯

    處理器共同推出米爾MYC-YD9360核心板及開發(fā)板,新一代車載智能、電力智能、工業(yè)控制、新能源、機器智能等行業(yè)發(fā)展,滿足多屏的顯示需求。
    發(fā)表于 12-22 18:07

    云天勵飛發(fā)布新一代邊緣AI芯片,采用Chiplet技術(shù),可運行百億級大模型

    工藝,內(nèi)含國產(chǎn)RISC-V核,支持大模型推理部署。 ? 云天勵飛新一代自研AI SoC DeepEdge10 ? 大模型在邊緣運行對AI 芯片提出新的要求 ? 人工智能正在帶來史無前例
    的頭像 發(fā)表于 11-23 01:08 ?2458次閱讀
    云天勵飛發(fā)布<b class='flag-5'>新一代</b><b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>芯片,采用Chiplet技術(shù),可運行百億級大模型

    國內(nèi)首個“AI大模型產(chǎn)業(yè)中心”在京落地

    ? ? ? 10月27日10點,“AI大模型產(chǎn)業(yè)中心”啟動儀式在北京市海淀區(qū)五道口的智優(yōu)沃科技大廈成功舉辦?!?b class='flag-5'>AI大模型產(chǎn)業(yè)
    的頭像 發(fā)表于 10-30 10:27 ?1398次閱讀
    國內(nèi)首個“<b class='flag-5'>AI</b>大模型產(chǎn)業(yè)<b class='flag-5'>賦</b><b class='flag-5'>能</b>中心”在京落地