電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

電子發(fā)燒友網>存儲技術>華邦4Gb LPDDR4x DRAM助力Flex Logix X1 AI推理加速器樹立邊緣AI新標桿

華邦4Gb LPDDR4x DRAM助力Flex Logix X1 AI推理加速器樹立邊緣AI新標桿

收藏

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

評論

查看更多

相關推薦

高通推出其首款基于云端的AI加速器:Qualcomm Cloud AI 100,正式宣布進軍云計算領域

本月,高通推出其首款基于云端的 AI 加速器:Qualcomm Cloud AI 100,正式宣布進軍云計算領域。根據高通的說法,Qualcomm Cloud AI 100 是一款用于數(shù)據中心的 AI 推理處理器。
2019-04-29 17:46:595450

華邦電LPDDR4X DRAM 技術助力邊緣運算

存儲器廠商華邦電 3 日宣布,旗下低功耗、高效能的 LPDDR4X DRAM 技術將用于 Flex Logix 全新 InferX X1 邊緣推理加速器,滿足物體識別等高要求 AI 應用的需求,助力 Flex Logix邊緣運算領域取得突破性成果。
2021-02-04 10:27:242435

5G手機配置曝光,宏旺半導體LPDDR4X 助力5G時代

限度地降低DRAM容量增加所帶來的功耗增加。ICMAX LPDDR4X搭配5G 手機,將能使手機功耗降低20%左右,降低手機的發(fā)熱度,提高了手機的續(xù)航能力,待機時間更長。作為與CPU交互的存儲
2019-08-17 10:10:01

LPDDR4LPDDR3與LPDDR4X的區(qū)別是什么?

LPDDR4、LPDDR3與LPDDR4X分別是什么?LPDDR4LPDDR3區(qū)別是什么?LPDDR4XLPDDR4區(qū)別是什么?
2021-06-18 07:59:30

LPDDR4XLPDDR4的區(qū)別到底在哪里?

LPDDR4XLPDDR4的區(qū)別到底在哪里?LPDDR4XLPDDR4的基礎上有哪些提升?
2021-06-18 09:07:43

LPDDR4X是什么?LPDDR4X與UFS2.1有什么差別?

手機參數(shù)為什么都是8GB+128GB?手機的這些參數(shù)是越大越好嗎?這些數(shù)字代表什么?LPDDR4X是什么?UFS2.1又是什么?LPDDR4X與UFS2.1有什么差別?
2021-06-18 07:54:29

LPDDR5和LPDDR4X兩者究竟有多大區(qū)別?

有人說嵌入式閃存芯片LPDDR5和LPDDR4X差不多?真的如此嗎?兩者究竟有多大區(qū)別?
2021-06-18 06:15:11

LPDDR5和LPDDR4X有什么區(qū)別?

LPDDR5和LPDDR4X有什么區(qū)別?
2021-06-18 07:01:11

LPDDR5和LPDDR4X的區(qū)別在哪里?

LPDDR5代表著什么意思?LPDDR4X又代表著什么意思?LPDDR5和LPDDR4X的區(qū)別在哪里?
2021-06-18 07:07:26

X-CUBE-AI和NanoEdge AI Studio在ML和AI開發(fā)環(huán)境中的區(qū)別是什么?

我想知道 X-CUBE-AI 和 NanoEdge AI Studio 在 ML 和 AI 開發(fā)環(huán)境中的區(qū)別。我可以在任何一個開發(fā)環(huán)境中做同樣的事情嗎?使用的設備有什么限制嗎?
2022-12-05 06:03:15

助力硬科技項目成長,秋第八屆硬創(chuàng)賽與安創(chuàng)加速器達成戰(zhàn)略合作

;3. 對符合安創(chuàng)加速器需求、經過商業(yè)模式驗證的創(chuàng)業(yè)團隊,安創(chuàng)加速器提供合理的投資對接服務,為其快速孵化成長提供助力。中國硬件創(chuàng)新創(chuàng)客大賽(簡稱秋硬創(chuàng))是新時代硬件創(chuàng)業(yè)者綜合性服務平臺,大賽始于
2022-06-22 17:39:27

秋電子與嘉楠科技合作,推廣勘智全系AI產品

發(fā)布全球首款RISC-V架構商用邊緣AI芯片,探索AISC技術在高性能計算和人工智能領域的最大潛能。目前,嘉楠科技自主研發(fā)兩代視覺神經網絡加速器IP核,勘智系列AI芯片在智能家居、智能門禁、STEAM
2022-07-22 11:11:33

秋硬創(chuàng)聯(lián)合安創(chuàng)加速器,加速和創(chuàng)新賦能技術驅動型創(chuàng)業(yè)者

區(qū)定制創(chuàng)新方案,助力科技加速與產業(yè)升級;注重本土產業(yè)與國際市場的合作,通過全球化布局幫助國外先進技術在國內落地,以及國內項目在國外推廣和落地。 權益介紹 為助力第九屆中國硬件創(chuàng)新創(chuàng)客大賽,安創(chuàng)加速器將為
2023-08-18 14:37:37

秋第八屆硬創(chuàng)賽助力硬科技項目成長,與安創(chuàng)加速器達成戰(zhàn)略合作

;3. 對符合安創(chuàng)加速器需求、經過商業(yè)模式驗證的創(chuàng)業(yè)團隊,安創(chuàng)加速器提供合理的投資對接服務,為其快速孵化成長提供助力。中國硬件創(chuàng)新創(chuàng)客大賽(簡稱秋硬創(chuàng))是新時代硬件創(chuàng)業(yè)者綜合性服務平臺,大賽始于
2022-06-22 17:41:43

秋第八屆硬創(chuàng)賽與安創(chuàng)加速器達成戰(zhàn)略合作

;3. 對符合安創(chuàng)加速器需求、經過商業(yè)模式驗證的創(chuàng)業(yè)團隊,安創(chuàng)加速器提供合理的投資對接服務,為其快速孵化成長提供助力。中國硬件創(chuàng)新創(chuàng)客大賽(簡稱秋硬創(chuàng))是新時代硬件創(chuàng)業(yè)者綜合性服務平臺,大賽始于
2022-06-22 17:34:34

秋第八屆硬創(chuàng)賽與安創(chuàng)加速器達成戰(zhàn)略合作,助力硬科技項目成長

;3. 對符合安創(chuàng)加速器需求、經過商業(yè)模式驗證的創(chuàng)業(yè)團隊,安創(chuàng)加速器提供合理的投資對接服務,為其快速孵化成長提供助力。中國硬件創(chuàng)新創(chuàng)客大賽(簡稱秋硬創(chuàng))是新時代硬件創(chuàng)業(yè)者綜合性服務平臺,大賽始于
2022-06-22 17:32:45

邊緣計算與AI布署應用電力物聯(lián)網解決方案-RK3588開發(fā)平臺

/PyTorch/Caffe 等一系列框架的網絡模型 ·具有高性能的 4 通道外部存儲接口(LPDDR4/LPDDR4X/LPDDR5),能夠支持苛刻的存儲帶寬
2023-04-26 10:14:06

CORAL-EDGE-TPU:珊瑚開發(fā)板TPU

和功能規(guī)格邊緣TPU模塊CPU:i.MX 8M應用處理(四核Cortex-A53,Cortex-M4F)GPU:集成的GC7000 Lite圖形ML加速器:Google Edge TPU協(xié)處理RAM
2019-05-29 10:43:33

EdgeBoard FZ5 邊緣AI計算盒及計算卡

的高可靠性AI BOX本次推出的EdgeBoard FZ5計算盒及計算卡基于XCZU5EV(4核Cortex-A53融合FPGA)自適應可伸縮計算架構;支持二次開發(fā),支持快速模型迭代;4GB/8GB
2020-08-31 14:12:48

FP-AI-MONITOR1功能包相關資料介紹

FP-AI-MONITOR1 功能包有助于為使用 X-CUBE-AI 或 NanoEdge? AI Studio 設計的基于傳感監(jiān)控的應用程序啟動邊緣 AI 實施和開發(fā)。
2022-11-29 06:33:39

MLU220-M.2邊緣端智能加速卡支持相關資料介紹

??梢暂p松實現(xiàn)終端設備和邊緣段設備的AI賦能方案。MLU220-M.2加速卡用于離線模型的部署,離線模型在MLU220上運行, 不依賴AI框架,只需要利用CNRT庫,即可實現(xiàn)高效的AI推理運算。如果需要
2022-08-08 17:37:55

NVIDIA 在首個AI推理基準測試中大放異彩

NVIDIA GPU訓練和評估其識別模型并對其1750億條Pin貼文執(zhí)行實時推理。Snap使用NVIDIA T4加速器在谷歌云平臺上執(zhí)行推理。相比于僅采用了CPU的系統(tǒng),這提高了其廣告的效果,同時降低
2019-11-08 19:44:51

RK3588與RK3588S在ARM陣列服務上的應用

  RK3588、RK3588S是瑞芯微2022年初量產的旗艦8核高能處理,CPU、GPU、NPU性能強勁,并支持最高32GB 內存LPDDR4/LPDDR4x/LPDDR5,特別適合arm陣列
2022-07-18 17:54:32

STM32L1和STM32L0可以用于AI開發(fā)嗎?

STM32L1 和 STM32L0 可以用于 AI 開發(fā)(運行神經網絡推理)嗎?我希望將這些芯片與 X-CUBE-AI 一起使用。然而,當我閱讀用戶手冊時,這些芯片被排除在微控制列表之外。為什么會這樣?
2022-12-28 08:21:26

TB-96AI是什么?TB-96AI核心板有哪些核心功能

LPDDR3+16GB eMMC(可選6GB LPDDR3+16GB eMMC或8GB LPDDR3+16GB eMMC),內置千兆以太網PHY芯片。TB-96AI設計為通過4個100Pin的松下高速板對板連接
2022-06-20 16:28:28

XCKU115板卡資料:1-基于Xilinx XCKU115的半高PCIe x8 硬件加速

硬件加速。板卡設計滿足工業(yè)級要求。如下圖所示: 圖 1:硬件加速卡實物圖 二、技術指標圖 2:硬件加速卡結構框圖 標準PCIe半高、半長卡,符合PCI Express 3.0 規(guī)范。 支持PCIe x1
2019-10-25 16:00:50

i.mx8m加支持lpddr4lpddr4x嗎?

i.mx8m 加支持 lpddr4lpddr4x
2023-04-21 06:11:49

linux上的X-CUBE-AI擴展包中缺少stm32ai應用程序怎么解決?

大家好,我目前正在 manjaro linux 上使用 STM32CubeMX。我直接從嵌入式軟件包管理下載了X-CUBE-AI人工智能v5.2.0包。我主要對 stm32ai 命令行界面感興趣
2023-01-09 07:12:17

AI加速器架構設計與實現(xiàn)》+第2章的閱讀概括

首先感謝電子發(fā)燒友論壇提供的書籍和閱讀評測的機會。 拿到書,先看一下封面介紹。這本書的中文名是《AI加速器架構設計與實現(xiàn)》,英文名是Accelerator Based on CNN Design
2023-09-17 16:39:45

【ICMAX】手機存儲芯片LPDDR4X雙通道和單通道內存的區(qū)別

隨著技術的發(fā)展,宏旺半導體ICMAX LPDDR4X 8GB已經實現(xiàn)量產,走在行業(yè)前端,現(xiàn)在部分高端旗艦手機已經使用了LPDDR4X,我們可以將LPDDR4X理解為LPDDR5之前的一個過渡技術
2019-07-04 14:24:29

【youyeetoo X1 windows 開發(fā)板體驗】少兒AI智能STEAM積木平臺

更新。 更新完系統(tǒng),一切準備妥當,那就跑分好了。 使用魯大師進行了評測,具體情況如下:綜合評分:AI評分: 四、項目計劃 要進行的項目,是作為一個探索型的項目,將在youyeetoo X1硬件和系統(tǒng)平臺
2024-02-01 00:20:33

【書籍評測活動NO.18】 AI加速器架構設計與實現(xiàn)

后2個星期內提交不少于一篇試讀報告要求300字以上圖文并茂。4、試讀報告發(fā)表在電子發(fā)燒友論壇>> 社區(qū)活動專版標題名稱必須包含《 AI加速器架構設計與實現(xiàn)》+自擬標題 注1
2023-07-28 10:50:51

【瑞芯微RK1808計算棒試用體驗】RK1808S_AI計算棒—開箱

邊緣計算產品的深度學習開發(fā)者,是具備強大的人工智能編程及深度學習能力的AI加速器1、開箱讓AI開發(fā)更簡單RK1808S計算棒正面照RK1808人工智能計算棒算是眾多邊緣計算設備中的佼佼者,外觀時尚
2019-10-17 22:48:34

【算能RADXA微服務試用體驗】Radxa Fogwise 1684X Mini 規(guī)格

通過網絡可以了解到,算能RADXA微服務的具體規(guī)格: 處理:BM1684X 算力:高達32Tops INT8峰值算力 內存:16GB LPDDR4X 內存 存儲:64GB eMMC 編程框架
2024-02-28 11:21:57

使用AMD-Xilinx FPGA設計一個AI加速器通道

介紹使用 AMD-Xilinx FPGA設計一個全連接DNN核心現(xiàn)在比較容易(Vitis AI),但是利用這個核心在 DNN 計算中使用它是另一回事。本項目主要是設計AI加速器,利用Xilinx
2023-02-21 15:01:58

利用設計網關的 IP 內核在 Xilinx VCK190 評估套件上加速人工智能應用

成為 AI 邊緣計算應用或云加速器卡的理想選擇。該平臺集成了用于嵌入式計算的下一代標量引擎、用于硬件靈活性的自適應引擎,以及由 DSP 引擎和用于推理和信號處理的革命性 AI 引擎組成的智能引擎。其
2022-11-25 16:29:20

壓縮模型會加速推理嗎?

你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型對推理時間沒有影響。aiRun 程序在 8
2023-01-29 06:24:08

同樣1ynm制程的LPDDR4XLPDDR5在性能上兩者究竟有多大區(qū)別?

LPDDR5究竟是什么?有什么特點?同樣1ynm制程的LPDDR4XLPDDR5在性能上兩者究竟有多大區(qū)別?
2021-06-18 06:48:12

嘉楠勘智K510開發(fā)板簡介——高精度AI邊緣推理芯片及應用

。K510是嘉楠公司推出的第二代AI加速芯片,它采用雙核RISC-V CPU@800Mhz,內置DSP協(xié)處理和強大的AI運算單元KPU,支持 BF16浮點數(shù)據格式,可在邊緣端進行高精度推理,是國內少有
2022-11-22 15:52:15

在i.MX93 EVKCM上的EthosU NPU上推斷AI模型時遇到錯誤怎么解決?

內部默認 加速器時鐘 1000 MHz 設計峰值 SRAM 帶寬 16.00 GB/s 設計峰值 DRAM 帶寬 3.75 GB/s 使用的 SRAM 總量 370.91 KiB 使用的 DRAM
2023-06-05 11:36:22

基于SRAM的方法可以加速AI推理

基于SRAM的方法可加速AI推理
2020-12-30 07:28:28

基于Xilinx XCKU115的半高PCIe x8 硬件加速卡解決方案

硬件加速。板卡設計滿足工業(yè)級要求。如下圖所示: 圖 1:硬件加速卡實物圖二、技術指標圖 2:硬件加速卡結構框圖標準PCIe半高、半長卡,符合PCI Express 3.0 規(guī)范。支持PCIe x1、x4
2018-07-27 16:49:30

基于Xilinx XCKU115的半高PCIe x8硬件加速

。 支持PCIe x1、x4、x8模式。 支持2x72bit(數(shù)據位寬64bit+ECC)DDR4存儲,數(shù)據傳輸速率2400Mb/s。 DDR4單簇容量4GB,總容量為8GB。 板載4個用戶可編程LED
2018-08-22 17:31:55

好奇~!谷歌的 Edge TPU 專用 ASIC 旨在將機器學習推理能力引入邊緣設備

TPU 本體。該 SoM 具有加密協(xié)處理、板載 Wi-Fi 并支持藍牙 4.1,外加 1G LPDDR4 內存與 8GB eMMC。更多細節(jié)配置信息,請參閱該單片的產品參數(shù)表。Coral 開發(fā)單片,以及
2019-03-05 21:20:23

嵌入式邊緣AI應用開發(fā)指南

保駕護航。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型、隨時隨地訓練模型并將其無縫部署到TI處理上,從而實現(xiàn)硬件加速推理。圖1邊緣AI應用的開發(fā)流程第1步:選擇模型邊緣AI系統(tǒng)開發(fā)
2022-11-03 06:53:28

開箱啦!帶你玩轉飛凌高算力“魔盒”——AI邊緣計算終端FCU3001

Carmel(ARM v8.2 64位,具有6 MB L2 + 4 MB L3緩存),主頻最高位1.4GHz;384核Voltra GPU;加上包含48個張量核心和兩個深度學習加速器(DLA) 引擎
2021-12-10 10:18:20

無新產能導致淡季變旺,DRAM合約價再飆漲到Q3【硬之城電子元器件】

南亞科第二季營收將成長于5%,獲利有機會季增3~5成。南亞科及電下半年旺值得注意的是,南亞科20奈米制程微縮順利,下半年8GB DDR4將進入量產,年底前可望完成LPDDR4試產并進入量產,屆時
2017-06-13 15:03:01

深度剖析OpenHarmony AI調度管理與推理接口

1 簡介AI任務管理與統(tǒng)一的推理能力提供了接口的統(tǒng)一標準系統(tǒng)上CPU提供了AI任務調度管理的能力,對AI的能力進行了開放的推理推理,同時,提供了一個不同的生命周期框架層級的應用程序。推理接口
2022-03-25 11:15:36

深度學習推理和計算-通用AI核心

商業(yè)發(fā)行之前就已經過時了。算法明天需要對架構、內存/數(shù)據進行徹底改革資源和能力。推理的夢幻建筑重新定義重寫在計算和交付突破性的人工智能加速和靈活的計算能力超越了服務級CPU和比GPU/ASIC通用
2020-11-01 09:28:57

瑞芯微Toybrick AI開發(fā)平臺

預估,內存預估模擬調試,量化精度分析,可視化功能Toybrick 1808計算棒提供主動和被動兩種工作模式被動模式下,模型部署在上位機,計算棒是一個通用計算棒,擔當AI加速器的功能;主動模式下,模型部署
2020-07-24 10:58:40

相比較于LPDDR4XLPDDR5有哪些優(yōu)勢?

LPDDR4X、LPDDR5這些究竟指的是什么意思?它們又有什么區(qū)別?相比較于LPDDR4XLPDDR5有哪些優(yōu)勢?
2021-06-18 07:17:28

硬件幫助將AI移動到邊緣

芯片之間的價格差異[用于支持硬件,如DRAM,引導ROM,閃存,通常是PMIC] “。FPGA AI加速FPGA也適用于邊緣AI,因為它們可以提供可編程的硬件加速。雖然大型高端FPGA可能對我們的智能
2019-05-29 10:38:09

網絡邊緣實施AI的原因

AI推向邊緣的影響通過在邊緣運行ML模型可以使哪些具體的AI項目更容易運行?
2021-02-23 06:21:10

論手機運行內存 LPDDR 4XLPDDR4的基礎上有哪些提升

2019年下半年開始了,新一代旗艦手機內存容量越來越大,6GB只是起步,8GB才算是標準,而除了容量更大、頻率越高之外,手機內存還有趨勢,那就是LPDDR4X類型的內存越來越多,與標準的LPDDR4
2019-07-03 11:39:09

請問怎樣去設計一種MPEG-4 加速器?

如何去選擇并優(yōu)化IDCT快速算法?怎樣去設計一種MPEG-4加速器?如何對MPEG-4加速器進行仿真驗證?
2021-06-04 07:20:42

超低功耗FPGA解決方案助力機器學習

本帖最后由 曾12345 于 2018-5-23 15:49 編輯 全新的毫瓦級功耗FPGA解決方案為機器學習推理在大眾市場物聯(lián)網應用中實現(xiàn)快速部署創(chuàng)造機遇。1. 將AI加速部署到快速增長
2018-05-23 15:31:04

香蕉派 BPI-W3采用瑞芯微RK3588開源硬件開發(fā)板公開發(fā)售

能力的AI加速器NPU。板載4GB 64bit LPDDR4X 內存,32GB eMMC 存儲,高達8K@60 HDMI OUT, 并支持HDMI IN, MIPI DSI, MIPI CSI
2023-04-24 09:29:06

香蕉派BPI-M6 采用深蕾半導體Vs680芯片設計,板載4G LPDDR4和16G eMMC存儲

,Imagination GE9920 GPU。 NPU高達6 .75 tops算力。 板載4GB LPDDR4內存和16GB EMMC存儲,支持4個USB 3.0接口,1個千兆網口。 板載1個HDMI-rx
2022-11-24 16:15:16

尤里云科技推理運算加速卡UXC2000

尤里云科技推理運算加速卡UXC2000內置TF16110高性能異構處理及大容量內存,兼容各類標準外擴式機架服務,可直接提供業(yè)務層級的軟件交互接口。12.8TOPS@INT818GB
2022-11-17 14:05:09

AI邊緣計算盒子

AI 邊緣計算盒子(MF-AI-020)        1、產品簡介 MF-AI
2023-07-31 13:02:16

三星電子開發(fā)新一代LPDDR3移動DRAM技術

關于新一代LPDDR3移動DRAM技術,三星電子表示,這是繼去年12月在電子行業(yè)首次開發(fā)30納米級4Gb LPDDR2移動DRAM之后,不到九個月又成功開發(fā)出使用30納米級工藝的4Gb LPDDR3移動DRAM技術的新一代產
2011-09-30 09:30:132176

LPDDR4X內存表現(xiàn)亮眼 竟比LPDDR4節(jié)能多達40%

2017年新一代旗艦手機內存容量越來越大,4GB只是起步,6GB才算是標準,而除了容量更大、頻率越高之外,手機內存還有趨勢,那就是LPDDR4X類型的內存越來越多,與標準的LPDDR4內存相比它的多數(shù)指標相同,但是電壓更低,有效降低了內存能耗,降幅40%以上也不奇怪。
2017-05-09 16:21:3774924

三星10nm級16Gb LPDDR4X DRAM開始量產,主要用于汽車

4月25日,三星電子宣布已開始批量生產汽車用10nm級16Gb LPDDR4X DRAM。這款最新的LPDDR4X產品具備高性能,同時還顯著提高需要在極端環(huán)境下工作的汽車應用的耐熱性水平。這款
2018-08-23 15:48:262143

Flex Logix公司稱它解決了深度學習的DRAM問題

需要快速連續(xù)地將數(shù)百萬個權重加載到網絡中,這就是每秒要做數(shù)萬億次到數(shù)十萬億次運算的AI系統(tǒng)為什么需要那么多DRAM芯片的原因。DRAM芯片上的每個引腳每秒最多可以傳輸4Gb數(shù)據,因此要達到所需的每秒數(shù)百Gb的數(shù)據傳輸速度,就需要多個芯片。
2018-11-08 14:12:262990

美光推出內容量最高的單片式的LPDDR4X DRAM

美光科技股份有限公司推出業(yè)內容量最高的單片式 16Gb 低功耗雙倍數(shù)據率 4X (LPDDR4XDRAM。美光16Gb LPDDR4X 能夠在單個智能手機中提供高達 16GB1 的低功耗 DRAM (LPDRAM),顯示了美光為當前和下一代移動設備提供卓越內存容量和性能的前沿地位。
2019-09-10 10:28:004268

2020年9月16日,高性能的AI推理加速器Qualcomm Cloud AI 100正面向全球部分客戶出貨

2020年9月16日,Qualcomm宣布,高性能的AI推理加速器Qualcomm Cloud AI 100正面向全球部分客戶出貨。憑借先進的信號處理能力和領先的能效,Qualcomm Cloud
2020-09-17 17:04:232217

一文詳談AI邊緣推理與數(shù)據中心的差異和應用

雖然推理加速器最初用于數(shù)據中心,但它們已經迅速發(fā)展到應用程序的邊緣推理,如自動駕駛和醫(yī)學成像。通過這種轉變,客戶發(fā)現(xiàn),同樣的加速器,在數(shù)據中心處理圖像很順利,但移到邊緣推斷方面卻顯得糟糕。其實原因很簡單:一個處理數(shù)據池,而另一個處理的是數(shù)據流。
2020-09-19 11:31:441522

Flex Logix宣布高性能芯片InferX X1芯片出貨

InferX X1芯片面積為54mm2, 僅為1美分硬幣的1/5大小,更是遠遠小于其它同類產品。InferX X1 芯片的批量價格僅有目前行業(yè)領軍產品的1/10左右。這是高質量、高性能的AI推理產品第一次真正走向普羅大眾。原本昂貴的AI推理將不再遙不可及。
2020-10-22 10:24:062640

高通交付首批CloudAI100加速器邊緣方案開發(fā)套件:從終端到云端AI的聯(lián)合

倍以上。 而在 2020 年 9 月 16 日,高通宣布 AI 推理加速器 Cloud AI 100 已經面向全球部分客戶出貨。 高通 Qualcomm Cloud AI 100 加速器擁有先進的信號處理
2020-10-28 17:59:392408

Flex Logix推出InferX X1P1 PCIe板卡,搭載高效率的InferX X1加速器

Flex Logix公司推出了InferX X1P1 PCIe板卡,并宣布了其系列產品的技術路線圖。該系列PCIe板卡都將搭載Flex Logix專為邊緣側系統(tǒng)設計的高性能、高效率的 InferX X1加速器。
2020-10-29 15:53:531628

什么是AI加速器 如何確需要AI加速器

AI加速器是一類專門的硬件加速器或計算機系統(tǒng)旨在加速人工智能的應用,主要應用于人工智能、人工神經網絡、機器視覺和機器學習。
2022-02-06 12:47:003645

NVIDIA發(fā)布最新Orin芯片提升邊緣AI標桿

在首次參加行業(yè) MLPerf 基準測試時,基于 NVIDIA Ampere 架構的低功耗系統(tǒng)級芯片 NVIDIA Orin 就創(chuàng)造了新的AI推理性能紀錄,并在邊緣提升每個加速器的性能。
2022-04-08 10:14:444199

NVIDIA Jetson AGX Orin提升邊緣AI標桿

最新發(fā)布的 NVIDIA Jetson AGX Orin 提升邊緣 AI 標桿,使我們在最新一輪行業(yè)推理基準測試中的領先優(yōu)勢更加明顯。
2022-04-09 08:24:141192

加速邊緣設備中計算機視覺和語音的AI推理模型

  SiFive 將 RISC-V 處理器 IP 引入其下一代 AI 推理加速器,為邊緣設備中的計算機視覺和語音提供更快、更高效的計算能力。
2022-05-31 10:47:55770

Flex Logix InferX X1M邊緣推理加速器

  此外,開放神經網絡交換 (ONNX) 格式的兼容性允許 InferX X1M 工具以最佳方式自動將框架中表示的任何模型映射到 X1 加速器。
2022-07-11 09:56:46909

用基于SRAM的測試芯片實現(xiàn)加速AI推理

瑞薩電子開發(fā)了一種新的內存處理器 (PIM) 技術,用于在低功耗邊緣設備中加速 AI 推理。用于基于 SRAM 技術的測試芯片實現(xiàn)了 8.8 TOPS/W 的運行卷積神經網絡 (CNN) 工作負載
2022-07-21 15:50:321072

用于 AI 應用的硬件加速器設計師指南

AI 設計人員將硬件加速器整合到用于訓練和推理應用的定制芯片中時,應考慮以下四個因素
2022-08-19 11:35:551267

邊緣設備中計算機視覺和語音的AI推理加速器應用

  SiFive 將 RISC-V 處理器 IP 引入其下一代 AI 推理加速器,為邊緣設備中的計算機視覺和語音提供更快、更高效的計算能力。
2022-08-16 11:24:05829

昆侖芯AI加速器組R480-X8介紹

昆侖芯AI加速器組R480-X8,基于OCP-OAI設計標準,UBB基板搭載8個包含昆侖芯2代芯片的OAM模組。 提供高達1 Peta FLOPS@FP16算力,支持200 GB/s片間互聯(lián)聚合帶寬,適用于云數(shù)據中心大規(guī)模訓練和推理場景。 規(guī)格參數(shù) 審核編輯?黃宇
2023-02-10 17:05:40514

lpddr4x過時了嗎?lpddr4x顯卡怎么樣?電腦LPDDR4X夠用嗎?

lpddr4x過時了嗎?lpddr4x顯卡怎么樣?電腦LPDDR4X夠用嗎?? LPDDR4X是低功耗雙數(shù)據速率第四代SDRAM的一種版本,主要用于低功耗移動設備。它在功耗、性能和尺寸上,都有了很大
2023-08-21 17:16:463706

筆記本lpddr4xlpddr5區(qū)別?

能力的優(yōu)化,同時也為設備提供了更好的性能。雖然這兩種方法很相似,但它們之間還存在一些區(qū)別。下面將詳細討論LPDDR4XLPDDR5之間的區(qū)別,以及它們如何影響設備的性能和使用情況。 1. 存儲速度和容量 LPDDR4X的最大存儲容量為16GB,而LPDDR5的最大容量為32GB。這意味著使
2023-08-21 17:28:273862

lpddr4xlpddr5區(qū)別 lpddr4x和ddr5的區(qū)別大不大

lpddr4xlpddr5區(qū)別 lpddr4x和ddr5的區(qū)別大不大 隨著智能手機、平板電腦、筆記本電腦等消費電子產品的不斷升級和發(fā)展,人們對設備運行速度和效率的要求也越來越高。在這樣的背景
2023-08-21 17:28:2919733

DDR4、LPDDR4和LPDDR4x的區(qū)別

已保留有6位SDR空間。最后,它占用的片上空間更少,單個封裝最多可以包含12GBDRAM。不利的一面是,LPDDR4X不能與LPDDR4向后兼容。即使設備與更快的LPDDR4內存兼容,它也可能不適用于LPDDR4X。
2023-09-19 11:09:368386

低功耗下,高能效AI加速器如何設計?

如果在數(shù)據中心和邊緣設備中部署上人工智能(AI加速器,那么它們將能夠快速處理PB級的數(shù)據量,還能幫助克服傳統(tǒng)的馮·諾依曼瓶頸。
2023-10-26 09:18:43810

PCIe在AI加速器中的作用

從線上購物時的“猜你喜歡”、到高等級自動駕駛汽車上的實時交通信息接收,再到在線視頻游戲,所有的這些都離不開人工智能(AI加速器。AI加速器是一種高性能的并行計算設備,旨在高效處理神經網絡等AI工作負載并提供近乎實時的處理方案,從而實現(xiàn)一系列應用。
2023-11-18 10:36:301144

已全部加載完成