0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TPU內(nèi)存(一)

jf_pJlTbmA9 ? 來源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-08-18 11:29 ? 次閱讀

首先我們來看一下TPU的簡要架構(gòu)。

wKgZomTeyeaAZIfgAAHD0ac5UQY873.jpg

我們可以從ppt中了解到一個TPU中包含多個NPU(Neuron Processing Unit),主要由一個local memory和多個執(zhí)行單元組成。前者用于存儲要運算的數(shù)據(jù),后者是TPU上最小的計算單元。每個NPU一次可以驅(qū)動它的所有EU做一個MAC操作。

就整體 TPU 內(nèi)存而言,它由system memory和local memory組成。 system memory的主要部分是global memory,其實就是一塊DDR。 有時根據(jù) TPU 的特殊設(shè)計還會有其他組件,但我們不會在視頻中提及這些部分,所以現(xiàn)在了解global memory就足夠了。 而對于local memory,我們暫時只需要知道是一組Static RAM就可以了。 稍后我會進一步解釋。

通常global memory很大,用于存儲來自host端的整個數(shù)據(jù)塊。

而local memory雖然有限但在計算速度上更有優(yōu)勢。

所以有時候?qū)τ谝粋€很大的張量,我們需要把它切分成幾個部分,送到local memory中進行計算,然后把結(jié)果存回global memory。

為了在 TPU 上執(zhí)行這些操作,我們就需要用到指令。

wKgaomTeyeiALJ1CAAIDykCTHHk383.jpg

指令主要有兩種:

  1. GDMA用于system memory和local memory間或system memory內(nèi)的數(shù)據(jù)傳輸;
  2. BDC用于驅(qū)動執(zhí)行單元在NPU上做計算工作;
    另外,對于那些不適合并行加速的計算,比如NMS,SORT,我們還需要HAU指令,但是這意味著我們需要額外的處理器

對于local memory的構(gòu)成,它是由多個Static RAM組成的。每個 SRAM 稱為一個bank。此外,我們將這些 SRAM 分成多個部分給同樣數(shù)量的NPU,每個部分稱為一個lane。

wKgZomTeyeqAXvi9AAFu4L8pxm8967.jpg

而對于每個NPU,它只能訪問屬于它的那部分local memory,這使得單個NPU的執(zhí)行單元只能處理自己local memory上的那部分張量。

wKgaomTeyeuAfgPDAAF-yNBzCFA101.jpg

一旦我們調(diào)用單個 BDC 指令,所有 NPU 的執(zhí)行單元將在每個 NPU 的相同位置執(zhí)行相同的操作。 這就是 TPU 加速運算的方式。

此外,TPU 可以同時處理的數(shù)據(jù)數(shù)量取決于每個 NPU 上的執(zhí)行單元數(shù)量。

對于一個特定的TPU,EU Bytes是固定的,所以對于不同類型的數(shù)據(jù),EU的個數(shù)會有所不同。

例如當(dāng)EU Bytes為64時,則表示一個NPU可以同時處理64個int8數(shù)據(jù)。

wKgaomTeye2Ad3tgAAHvEqSiXMk797.jpg

同理,我們可以根據(jù)數(shù)據(jù)的字節(jié)計算出對應(yīng)的EU_NUM。

對于地址分配,假設(shè)我們的local memory由16個SRAM組成,總內(nèi)存為16MB,有64個NPU,那么每個NPU的內(nèi)存為256KB。

wKgZomTeyfCAAJ_6AAHhbitBbHs249.jpg

單個通道中每個bank的內(nèi)存大小則為16KB,相當(dāng)于16x1024 字節(jié)。

所以這個塊的地址范圍是從0到16x1024 – 1。

同理,NPU0中下個bank的地址從16x1024開始到32x1024-1

按照這個規(guī)則,我們就可以得到local memory上的所有地址。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DDR
    DDR
    +關(guān)注

    關(guān)注

    11

    文章

    701

    瀏覽量

    65093
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    8

    文章

    2942

    瀏覽量

    73727
  • TPU
    TPU
    +關(guān)注

    關(guān)注

    0

    文章

    138

    瀏覽量

    20668
收藏 人收藏

    評論

    相關(guān)推薦

    TPU-MLIR開發(fā)環(huán)境配置時出現(xiàn)的各種問題求解

    按照 TPU-MLIR 開發(fā)指南進行環(huán)境配置: 2.1. 代碼下載? 代碼路徑: https://github.com/sophgo/tpu-mlir 克隆該代碼后, 需要在Docker中編譯
    發(fā)表于 01-10 08:02

    CORAL-EDGE-TPU:珊瑚開發(fā)板TPU

    包括個上系統(tǒng)模塊(SOM)和護壁板。SOM基于iMX 8M應(yīng)用處理器,還包含LPDDR4內(nèi)存,eMMC存儲,雙頻Wi-Fi和Edge TPU。Edge TPU是由Google設(shè)計的小
    發(fā)表于 05-29 10:43

    TPU透明副牌.TPU副牌料.TPU抽粒廠.TPU塑膠副牌.TPU再生料.TPU低溫料

    清源塑膠經(jīng)營. 供應(yīng)TPU塑膠原料.副牌.再生顆粒料.TPU塑膠.TPU透明副牌. 再生粒子.白色.黑色.透明. 注塑料.擠出料. 壓延等等..聚醚. 脂肪料. 聚酯料.硬度70A--98A.
    發(fā)表于 11-21 17:21

    TPU副牌低溫料.TPU熱熔料.TPU中溫料.TPU低溫塑膠.TPU低溫抽粒.TPU中溫塑料

    清源塑膠公司.供應(yīng)TPU塑膠原料.副牌.再生顆粒料.TPU塑膠.TPU透明副牌. 再生粒子.白色.黑色.透明. 注塑料.擠出料. 壓延等等..聚醚. 脂肪料. 聚酯料.硬度70A--98A. 高硬度
    發(fā)表于 11-21 17:33

    供應(yīng)TPU抽粒工廠.TPU再生工廠.TPU聚醚料.TPU聚酯料.TPU副牌透明.TPU副牌.TPU中低溫料

    清源塑膠經(jīng)營.進口.國內(nèi).供應(yīng)TPU原料.副牌TPU塑膠.TPU透明副牌. 再生粒子.白色.黑色.透明. 注塑料.擠出料. 壓延等等..聚醚. 脂肪料. 聚酯料.硬度70A--98A. 高硬度
    發(fā)表于 11-21 17:47

    采購TPU復(fù)牌料.復(fù)牌TPU原料.TPU復(fù)牌透明塑料.TPU廢邊料.TPU廢膜料.TPU低溫料

    全球大量采購① tpu,透明,白色,副牌,再生粒,注塑,擠出料,TPU邊角膜料. TPU廢卷膜. 進口.國內(nèi)料. 200噸,② TPU低溫,中溫.副牌料,膠塊料. 200噸, ③ PB
    發(fā)表于 11-22 02:38

    如何驗證MC68332 TPU配置是否正確?

    a) 以下 TPU 模塊配置在項目中完成 *M332_TPU_TMCR = 0x1e4c;/* 選擇 TCR1 時基 = 250nsec, TCR2 = 4usec,仿真模式
    發(fā)表于 05-09 08:17

    BM1684中各種內(nèi)存的概念

    A53專用 + 4GB TPU專用 + 4GB VPP/VPU專用。 設(shè)備內(nèi)存(Device Memory)和系統(tǒng)內(nèi)存(Host Memory): 根據(jù)BM168x產(chǎn)品類型或工作模式的不同,設(shè)備
    發(fā)表于 09-19 07:47

    tpu是什么材料_tpu硬度范圍_tpu的應(yīng)用

    TPU(Thermoplastic polyurethanes)名稱為熱塑性聚氨酯彈性體橡膠。主要分為有聚酯型和聚醚型之分,它硬度范圍寬(60HA-85HD)、耐磨、耐油,透明,彈性好,在日用品
    發(fā)表于 12-01 15:55 ?2w次閱讀

    文了解CPU、GPU和TPU的區(qū)別

    很多讀者可能分不清楚 CPU、GPU 和 TPU 之間的區(qū)別,因此 Google Cloud 將在這篇博客中簡要介紹它們之間的區(qū)別,并討論為什么 TPU 能加速深度學(xué)習(xí)。
    的頭像 發(fā)表于 09-06 16:53 ?2.8w次閱讀

    文搞懂 CPU、GPU 和 TPU

    張量處理單元(TPU)是種定制化的 ASIC 芯片,它由谷歌從頭設(shè)計,并專門用于機器學(xué)習(xí)工作負(fù)載。TPU 為谷歌的主要產(chǎn)品提供了計算支持,包括翻譯、照片、搜索助理和 Gmail 等。 在本文中,我們將關(guān)注
    的頭像 發(fā)表于 09-15 10:46 ?4.4w次閱讀

    TPU內(nèi)存(二)

    TPU內(nèi)存(二)
    的頭像 發(fā)表于 08-18 11:29 ?401次閱讀
    <b class='flag-5'>TPU</b><b class='flag-5'>內(nèi)存</b>(二)

    TPU和NPU的區(qū)別

    和NPU之間的區(qū)別。 什么是TPU? TPU,即Tensor Processing Unit,是由Google公司開發(fā)的專用於深度學(xué)習(xí)的加速器。它被設(shè)計成個ASIC(應(yīng)用特定集成電路),可延長深度學(xué)習(xí)模型的訓(xùn)練和推理速度。
    的頭像 發(fā)表于 08-27 17:08 ?7167次閱讀

    谷歌發(fā)布多模態(tài)Gemini大模型及新TPU系統(tǒng)Cloud TPU v5p

    谷歌亦發(fā)布新TPU 系統(tǒng)——Cloud TPU v5p,以幫助訓(xùn)練尖端的 AI 模型。目
    的頭像 發(fā)表于 12-12 10:50 ?1235次閱讀
    谷歌發(fā)布多模態(tài)Gemini大模型及新<b class='flag-5'>一</b>代<b class='flag-5'>TPU</b>系統(tǒng)Cloud <b class='flag-5'>TPU</b> v5p

    tpu材料的用途和特點

    TPU材料,即熱塑性聚氨酯(Thermoplastic Polyurethane),是種聚合物材料,具有廣泛的應(yīng)用領(lǐng)域和獨特的特點。 TPU材料的主要用途如下: 鞋類行業(yè):TPU材料
    的頭像 發(fā)表于 01-16 10:17 ?2799次閱讀