0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【AI簡報第20230210期】 ChatGPT爆火背后、為AIoT和邊緣側(cè)AI喂算力的RISC-V

RTThread物聯(lián)網(wǎng)操作系統(tǒng) ? 來源:未知 ? 2023-02-12 12:35 ? 次閱讀

1. ChatGPT爆火背后:AI芯片迎接算力新挑戰(zhàn)

原文:

https://www.163.com/dy/article/HT7BHN3C05199NPP.html

ChatGPT的出圈走紅為AIGC打開全新市場增量,催生了更高的算力需求。

作為人工智能三大核心要素之一,算力也被譽為人工智能“發(fā)動機”。華泰證券研報顯示,根據(jù)OpenAI測算,自2012年以來,全球頭部AI模型訓練算力需求3-4個月翻一番,每年頭部訓練模型所需算力增長幅度高達10倍。AI深度學習正在逼近現(xiàn)有芯片的算力極限,也對芯片設(shè)計廠商提出了更高要求。

由此可見,AIGC未來進一步的應用和普及離不開算力的強勁支撐。受下游算力需求高漲消息影響,2月9日,半導體及元件板塊再度轉(zhuǎn)頭向上,整體上漲4.58%。截至當日收盤,半導體及元件板塊近一周漲幅2.53%。

板塊走勢的分化也體現(xiàn)出市場對AI芯片的態(tài)度。近日,在接受21世紀經(jīng)濟報道記者采訪時,多家AI芯片廠商表示,AIGC等相關(guān)業(yè)務(wù)需要結(jié)合下游最終端應用的實際情況考慮。

“大模型動輒千萬美元起步的基礎(chǔ)設(shè)施建設(shè)投入和海量的訓練數(shù)據(jù)需求,也注定了它極高的研發(fā)門檻?!卑俣壤鲂痉矫嫦?1世紀經(jīng)濟報道記者指出,“(大模型)對計算的要求主要體現(xiàn)在三個方面,一是算力,二是互聯(lián),三是通用性,對于昆侖芯來說,場景需求一直是架構(gòu)研發(fā)、產(chǎn)品迭代的最重要的‘指南針’?!?/span>

科技新賽道

AIGC(Artificial Intelligence Generated Content)指的是人工智能系統(tǒng)生成的內(nèi)容,是繼 UGC、PGC 之后的新型內(nèi)容創(chuàng)作方式,包括文字、圖像、音頻視頻等。AIGC可以通過自然語言處理、機器學習計算機視覺等技術(shù)幫助AI系統(tǒng)識別理解輸入內(nèi)容,并生成“創(chuàng)作”全新的內(nèi)容。

目前,AIGC已在多應用領(lǐng)域?qū)崿F(xiàn)落地,2022年更是被AI業(yè)內(nèi)人士稱作AIGC“元年”。2022年8月,文本生成圖像模型Stable Diffusion火爆出圈,催生了AI作畫的熱潮;12月,OpenAI推出的人工智能聊天機器人模型 ChatGPT ,可以使用大量訓練數(shù)據(jù)模擬人類語言行為,通過語義分析生成文本從而與用戶進行自然交互,在全球范圍內(nèi)掀起AIGC的熱潮。

隨著人工智能應用向縱深發(fā)展,對AI模型訓練所需要的算力支持提出了更高要求。

作為算力的硬件基石,AI芯片是針對人工智能算法做了特殊加速設(shè)計的芯片。信達證券發(fā)布研究報告稱,在技術(shù)架構(gòu)層面,AI芯片可以分為 GPU(圖形處理器)、FPGA(現(xiàn)場可編程門陣列)、ASIC(專用集成電路)和類腦芯片,同時CPU也可用以執(zhí)行通用AI計算。

在應用層面,AI芯片又可以劃分為云端、邊緣端和終端三個類型,不同場景對芯片的算力和功耗的要求不同,單一芯片難以滿足實際應用的需求。

在云端層面,由于大多數(shù)AI訓練和推理工作負載都在此進行,需要運算巨量、復雜的數(shù)據(jù)信息,因此對于 AI 芯片的性能和算力要求最高;邊緣端是指處理云端和終端之間的傳輸網(wǎng)絡(luò),承擔著匯集、分析處理和通信傳輸數(shù)據(jù)的功能,一定程度上分擔云端的壓力,降低成本、提升效率。

終端AI芯片由于直面下游產(chǎn)品,大多以實際需求為導向,主要應用于消費電子、智能駕駛、智能家居和智慧安防等領(lǐng)域,終端產(chǎn)品類型和出貨量的增加,也相應刺激了對芯片的需求。

信達證券研究團隊總結(jié)稱,AIGC 推動 AI 產(chǎn)業(yè)化由軟件向硬件切換,半導體+AI 生態(tài)逐漸清晰,AI芯片產(chǎn)品將實現(xiàn)大規(guī)模落地。據(jù)前瞻產(chǎn)業(yè)研究院的數(shù)據(jù),我國人工智能芯片的市場規(guī)模增速驚人,到2024 年,將達到785 億元。

2. 不出所料,自動駕駛向ChatGPT下手了!

原文:

https://mp.weixin.qq.com/s/a5A2mfG8WQElIuo5vT2s7w

ChatGPT 的技術(shù)思路與自動駕駛能碰撞出什么樣的火花呢?

去年底,ChatGPT 橫空出世。真實自然的人機對話、比擬專家的回答以及一本正經(jīng)的胡說八道,使它迅速走紅,風靡全世界。

不像之前那些換臉、捏臉、詩歌繪畫生成等紅極一時又很快熱度退散的 AIGC 應用,ChatGPT 不僅保持了熱度,而且還有全面爆發(fā)的趨勢?,F(xiàn)如今,谷歌、百度的 AI 聊天機器人已經(jīng)在路上。

比爾蓋茨如此盛贊:「ChatGPT 的意義不亞于 PC 和互聯(lián)網(wǎng)誕生。

為什么呢?

首先,人機對話實在是剛需。人工智能技術(shù)鼻祖的圖靈所設(shè)計的「圖靈測試」,就是試圖通過人機對話的方式來檢驗人工智能是否已經(jīng)騙過人類。能從人機問題中就能獲得準確答案,這可比搜索引擎給到一大堆推薦網(wǎng)頁和答案更貼心了。要知道懶惰乃人類進步的原動力。

其次,ChatGPT 實在是太能打了。不僅在日常語言當中,ChatGPT 能夠像人類一樣進行聊天對話,還能生成各種新聞、郵件、論文,甚至進行計算和編寫代碼,這簡直就像小朋友抓到一只「哆啦 A 夢」—— 有求必應了。

除了看看熱鬧,我們也可以弱弱地問一句:ChatGPT 為啥這么能打呢?希望大家可以在原文中找到答案。

3. 為AIoT和邊緣側(cè)AI喂算力的RISC-V

原文:

https://mp.weixin.qq.com/s/qQWahKqVkkS7bToN7-eHQQ

在去年底由晶心科技舉辦的RISC-V CON上,英特爾RISC-V投資部門的總經(jīng)理Vijay Krishnan闡述了自己的Pathfinder for RISC-V計劃。通過搭建這個平臺,英特爾將助力解決RISC-V軟件開發(fā)生態(tài)上的挑戰(zhàn),并表示首先側(cè)重于AIoT和邊緣端市場。

但我們也都知道這一計劃持續(xù)不到半年就被砍了,可即便如此,RISC-V在AIoT領(lǐng)域的探索也早早就已經(jīng)處于進行時了。針對AIoT和邊緣側(cè)AI開發(fā)的RISC-V芯片、開發(fā)板也都紛紛上市,為RISC-V搶占這一市場的份額添磚加瓦。

GreenWave-GAP9

法國公司GreenWave作為一家面向電池供電IoT設(shè)備市場的廠商,主要產(chǎn)品就是超低功耗的RISC-V應用處理器,GAP系列。他們率先推出的GAP8就是一個用于大規(guī)模智能邊緣設(shè)備部署的IoT應用處理器,但由于算力并不高,所以只能負責一些占用管理、人臉識別、關(guān)鍵詞識別之類的簡單任務(wù)。

而他們的第二代產(chǎn)品GAP9則是一款為TWS降噪耳機設(shè)計的RISC-V芯片,做到超低延遲的同時,使用神經(jīng)網(wǎng)絡(luò)來完成聲學場景檢測、降噪、3D環(huán)繞和ASRC等功能。其實用于高端TWS耳機主動降噪的低延遲RISC-V早已面世并大規(guī)模出貨了,即中科藍訊的藍訊迅龍系列。而GreenWave的GAP9為了進一步增加算力,則在其架構(gòu)中塞入了1個RISC-V控制器核心,9個RISC-V計算核心和AI加速器。


嘉楠-勘智K510

嘉楠的勘智K210作為2019年發(fā)布的一款RISC-V芯片,采用了雙核64位CPU的算力,在300mW的功耗下即實現(xiàn)了1TOPS的算力。而且在神經(jīng)網(wǎng)絡(luò)加速器KPU的助力下,該芯片可以直接在本地處理人臉識別、圖像識別等機器視覺任務(wù),可廣泛應用于門禁、智能水電表等應用中,陸吾智能甚至將其用于XGOmini這樣的四足機器狗中。

而嘉楠科技于2021年發(fā)布的勘智K510,則是一款定位中高端邊緣AI推理的芯片,將其神經(jīng)網(wǎng)絡(luò)加速器KPU升級到了2.0版本,不僅降低了芯片功耗,還將算力提升了3倍,單芯片算力高達2.5TFLOPS,支持INT8和BF16兩種精度,也支持TensorFlow、PyTorch等主流框架。

可以說,K510的出現(xiàn),進一步增加了在AIoT和邊緣側(cè)AI上的算力和精度。而且由于K510還搭載了3D ISP,可以進行圖像降噪、畸變矯正等處理任務(wù),對于AIoT和邊緣側(cè)AI常見的低照度環(huán)境和廣角鏡頭來說起到了決定性的作用。像上面提到的機器狗應用,也可以因為這龐大的算力來完成更復雜的手勢識別、人體姿態(tài)識別等工作。

小結(jié)

從RISC-V在AIoT目前的布局情況來看,產(chǎn)品主要面向TWS、音頻/圖像檢測與識別、智能抄表和智能家居等對AI算量不高的應用,但它們?nèi)栽诶^續(xù)推進更高的算力和更多的深度學習框架支持。相信在優(yōu)秀RISC-V IP核、低功耗、可編程和向量擴展等優(yōu)勢的吸引下,未來我們能在該領(lǐng)域看到更多的RISC-V產(chǎn)品。

固然RISC-V在AIoT這個市場已經(jīng)取得了不小的進展,也有了與主流的Arm生態(tài)一戰(zhàn)之力,但后者的智能生態(tài)依然是全方位的。在超低功耗的IoT設(shè)備和傳感器應用上,RISC-V至少在性能上已經(jīng)不輸于人了。但到了智能設(shè)備、智能網(wǎng)關(guān)、本地服務(wù)器乃至云端,需要的AI算力是成倍提升的,雖然不少RISC-V IP廠商都已經(jīng)開始主推AI核心了,但我們?nèi)匀恍枰嗦涞氐腞ISC-V AI處理器。

4. 強化學習中的Transformer發(fā)展到哪一步了?清華、北大等聯(lián)合發(fā)布TransformRL綜述

原文:

https://mp.weixin.qq.com/s/v7QJIAy7xctByJZ9lz9viQ

論文地址:

https://arxiv.org/pdf/2301.03044.pdf

強化學習(RL)為順序決策提供了一種數(shù)學形式,深度強化學習(DRL)近年來也取得巨大進展。然而,樣本效率問題阻礙了在現(xiàn)實世界中廣泛應用深度強化學習方法。為了解決這個問題,一種有效的機制是在 DRL 框架中引入歸納偏置。

在深度強化學習中,函數(shù)逼近器是非常重要的。然而,與監(jiān)督學習(SL)中的架構(gòu)設(shè)計相比,DRL 中的架構(gòu)設(shè)計問題仍然很少被研究。大多數(shù)關(guān)于 RL 架構(gòu)的現(xiàn)有工作都是由監(jiān)督學習 / 半監(jiān)督學習社區(qū)推動的。例如,在 DRL 中處理基于高維圖像的輸入,常見的做法是引入卷積神經(jīng)網(wǎng)絡(luò)(CNN)[LeCun et al., 1998; Mnih et al., 2015];處理部分可觀測性(partial observability)圖像的常見做法則是引入遞歸神經(jīng)網(wǎng)絡(luò)(RNN) [Hochreiter and Schmidhuber, 1997; Hausknecht and Stone, 2015]。

近年來,Transformer 架構(gòu) [Vaswani et al., 2017] 展現(xiàn)出優(yōu)于 CNN 和 RNN 的性能,成為越來越多 SL 任務(wù)中的學習范式 [Devlin et al., 2018; Dosovitskiy et al., 2020; Dong et al., 2018]。Transformer 架構(gòu)支持對長程(long-range)依賴關(guān)系進行建模,并具有優(yōu)異的可擴展性 [Khan et al., 2022]。受 SL 成功的啟發(fā),人們對將 Transformer 應用于強化學習產(chǎn)生了濃厚的興趣,希望將 Transformer 的優(yōu)勢應用于 RL 領(lǐng)域。

Transformer 在 RL 中的使用可以追溯到 Zambaldi 等人 2018 年的一項研究,其中自注意力(self-attention)機制被用于結(jié)構(gòu)化狀態(tài)表征的關(guān)系推理。隨后,許多研究人員尋求將自注意力應用于表征學習,以提取實體之間的關(guān)系,從而更好地進行策略學習 [Vinyals et al., 2019; Baker et al., 2019]。

除了利用 Transformer 進行表征學習,之前的工作還使用 Transformer 捕獲多時序依賴,以處理部分可觀測性問題 [Parisotto et al., 2020; Parisotto and Salakhutdinov, 2021]。離線 RL [Levine et al., 2020] 因其使用離線大規(guī)模數(shù)據(jù)集的能力而受到關(guān)注。受離線 RL 的啟發(fā),最近的研究表明,Transformer 結(jié)構(gòu)可以直接作為順序決策的模型 [Chen et al., 2021; Janner et al., 2021] ,并推廣到多個任務(wù)和領(lǐng)域 [Lee et al., 2022; Carroll et al., 2022]。

實際上,在強化學習中使用 Transformer 做函數(shù)逼近器面臨一些特殊的挑戰(zhàn),包括:

  • 強化學習智能體(agent)的訓練數(shù)據(jù)通常是當前策略的函數(shù),這在學習 Transformer 的時候會導致不平穩(wěn)性(non-stationarity);

  • 現(xiàn)有的 RL 算法通常對訓練過程中的設(shè)計選擇高度敏感,包括模型架構(gòu)和模型容量 [Henderson et al., 2018];

  • 基于 Transformer 的架構(gòu)經(jīng)常受制于高性能計算和內(nèi)存成本,這使得 RL 學習過程中的訓練和推理都很昂貴。

例如,在用于視頻游戲的 AI 中,樣本生成的效率(在很大程度上影響訓練性能)取決于 RL 策略網(wǎng)絡(luò)和估值網(wǎng)絡(luò)(value network)的計算成本 [Ye et al., 2020a; Berner et al., 2019]。

為了更好地推動強化學習領(lǐng)域發(fā)展,來自清華大學、北京大學、智源人工智能研究院和騰訊公司的研究者聯(lián)合發(fā)表了一篇關(guān)于強化學習中 Transformer(即 TransformRL)的綜述論文,歸納總結(jié)了當前的已有方法和面臨的挑戰(zhàn),并討論了未來的發(fā)展方向,作者認為 TransformRL 將在激發(fā)強化學習潛力方面發(fā)揮重要作用。


論文的總體結(jié)構(gòu)如下:

  • 第 2 章介紹了 RL 和 Transformer 的背景知識,然后簡要介紹了這兩者是如何結(jié)合在一起的;

  • 第 3 章描述了 RL 中網(wǎng)絡(luò)架構(gòu)的演變,以及長期以來 RL 中阻礙廣泛探索 Transformer 架構(gòu)的挑戰(zhàn);

  • 第 4 章論文作者對 RL 中的 Transformer 進行了分類,并討論了目前具有代表性的方法;

  • 第 5 章總結(jié)并指出了未來潛在的研究方向。

5. 首個快速知識蒸餾的視覺框架:ResNet50 80.1%精度,訓練加速30%

原文:

https://mp.weixin.qq.com/s/HWVpVOsYTOH98aU0tC_LzA


  • 論文和項目網(wǎng)址:

    http://zhiqiangshen.com/projects/FKD/index.html

  • 代碼:

    https://github.com/szq0214/FKD

知識蒸餾(KD)自從 2015 年由 Geoffrey Hinton 等人提出之后,在模型壓縮,視覺分類檢測等領(lǐng)域產(chǎn)生了巨大影響,后續(xù)產(chǎn)生了無數(shù)相關(guān)變種和擴展版本,但是大體上可以分為以下幾類:vanilla KD,online KD,teacher-free KD 等。最近不少研究表明,一個最簡單、樸素的知識蒸餾策略就可以獲得巨大的性能提升,精度甚至高于很多復雜的 KD 算法。但是 vanilla KD 有一個不可避免的缺點:每次 iteration 都需要把訓練樣本輸入 teacher 前向傳播產(chǎn)生軟標簽 (soft label),這樣就導致很大一部分計算開銷花費在了遍歷 teacher 模型上面,然而 teacher 的規(guī)模通常會比 student 大很多,同時 teacher 的權(quán)重在訓練過程中都是固定的,這樣就導致整個知識蒸餾框架學習效率很低。

針對這個問題,本文首先分析了為何沒法直接為每張輸入圖片產(chǎn)生單個軟標簽向量然后在不同 iterations 訓練過程中復用這個標簽,其根本原因在于視覺領(lǐng)域模型訓練過程數(shù)據(jù)增強的使用,尤其是 random-resize-cropping 這個圖像增強策略,導致不同 iteration 產(chǎn)生的輸入樣本即使來源于同一張圖片也可能來自不同區(qū)域的采樣,導致該樣本跟單個軟標簽向量在不同 iterations 沒法很好的匹配。本文基于此,提出了一個快速知識蒸餾的設(shè)計,通過特定的編碼方式來處理需要的參數(shù),繼而進一步存儲復用軟標簽(soft label),與此同時,使用分配區(qū)域坐標的策略來訓練目標網(wǎng)絡(luò)。通過這種策略,整個訓練過程可以做到顯式的 teacher-free,該方法的特點是既快(16%/30% 以上訓練加速,對于集群上數(shù)據(jù)讀取緩慢的缺點尤其友好),又好(使用 ResNet-50 在 ImageNet-1K 上不使用額外數(shù)據(jù)增強可以達到 80.1% 的精度)。

首先我們來回顧一下普通的知識蒸餾結(jié)構(gòu)是如何工作的,如下圖所示:

知識蒸餾框架包含了一個預訓練好的 teacher 模型(蒸餾過程權(quán)重固定),和一個待學習的 student 模型, teacher 用來產(chǎn)生 soft 的 label 用于監(jiān)督 student 的學習。可以看到,這個框架存在一個比較明顯的缺點:當 teacher 結(jié)構(gòu)大于 student 的時候,訓練圖像前饋產(chǎn)生的計算開銷已經(jīng)超過 student,然而 teacher 權(quán)重并不是我們學習的目標,導致這種計算開銷本質(zhì)上是 “無用的”。本文的動機正是在研究如何在知識蒸餾訓練過程中避免或者說重復利用這種額外的計算結(jié)果,該文章的解決策略是提前保存每張圖片不同區(qū)域的軟監(jiān)督信號(regional soft label)在硬盤上,訓練 student 過程同時讀取訓練圖片和標簽文件,從而達到復用標簽的效果。所以問題就變成了:soft label 怎么來組織和存儲最為有效?請從原文中找到答案。

6. Google Brain提出基于Diffusion的新全景分割算法

原文:

https://mp.weixin.qq.com/s/CXMzZd0JP0XBJzEPhPmLvA

A Generalist Framework for Panoptic Segmentation of Images and Videos

標題:

A Generalist Framework for Panoptic Segmentation of Images and Videos

作者:

Ting Chen, Lala Li, Saurabh Saxena, Geoffrey Hinton, David J. Fleet

原文鏈接:

https://arxiv.org/pdf/2210.06366.pdf

引言

首先回顧一下全景分割的設(shè)定。全景分割(PS,Panoptic Segmentation)的task format不同于經(jīng)典的語義分割,它要求每個像素點都必須被分配給一個語義標簽(stuff、things中的各個語義)和一個實例id。具有相同標簽和id的像素點屬于同一目標;對于stuff標簽,不需要實例id。與實例分割相比,目標的分割必須是非重疊的(non-overlapping),因此對那些每個目標單獨標注一個區(qū)域是不同的。雖然語義標簽的類類別是先驗固定的,但分配給圖像中對象的實例 ID 可以在不影響識別的實例的情況下進行排列。因此,經(jīng)過訓練以預測實例 ID 的神經(jīng)網(wǎng)絡(luò)應該能夠?qū)W習一對多映射,從單個圖像到多個實例 ID 分配。一對多映射的學習具有挑戰(zhàn)性,傳統(tǒng)方法通常利用涉及對象檢測、分割、合并多個預測的多個階段的管道這有效地將一對多映射轉(zhuǎn)換為基于識別匹配的一對一映射。這篇論文的作者將全景分割任務(wù)制定為條件離散數(shù)據(jù)生成問題,如下圖所示。本文是大名鼎鼎的Hinton參與的工作,非常有意思,又是基于diffusion model模式的生成模型來完成全景分割,將mask其視為一組離散標記,以輸入圖像為條件,預測得到完整的分割信息。

全景分割的生成式建模非常具有挑戰(zhàn)性,因為全景掩碼是離散的,或者說是有類別的,并且模型可能非常大。例如,要生成 512×1024 的全景掩碼,模型必須生成超過 1M 的離散標記(語義標簽和實例標簽)。這對于自回歸模型來說計算開銷是比較大的,因為 token 本質(zhì)上是順序的,很難隨著輸入數(shù)據(jù)的規(guī)模變化而變化。擴散模型更擅長處理高維數(shù)據(jù),但它們最常應用于連續(xù)域而不是離散域。通過用模擬位表示離散數(shù)據(jù),本文作者表明可以直接在大型全景分割上完成diffusion的訓練,而不需要在latent space進行學習。這樣就使得模型 這對于自回歸模型來說是昂貴的,因為它們本質(zhì)上是順序的,隨著數(shù)據(jù)輸入的大小縮放不佳。diffusion model很擅長處理高維數(shù)據(jù),但它們最常應用于連續(xù)而非離散域。通過用模擬位表示離散數(shù)據(jù),論文表明可以直接在大型全景掩模上訓練擴散模型,而無需學習中間潛在空間。接下來,我們來介紹本文提出的基于擴散的全景分割模型,描述其對圖像和視頻數(shù)據(jù)集的廣泛實驗。在這樣做的過程中,論文證明了所提出的方法在類似設(shè)置中與最先進的方法相比具有競爭力,證明了一種新的、通用的全景分割方法。

方法

擴散模型采樣是迭代的,因此在推理過程中必須多次運行網(wǎng)絡(luò)的前向傳遞。因此,如上圖,論文的結(jié)構(gòu)主要分為兩個部分:1)圖像編碼器;2)mask的解碼器。前者將原始像素數(shù)據(jù)映射到高級表示向量,然后掩模解碼器迭代地讀出全景掩模。

實驗

來看實驗結(jié)果:

在 MS-COCO 數(shù)據(jù)集上,Pix2Seq-D 在基于 ResNet-50 的主干上的泛化質(zhì)量(PQ)與最先進的方法相比有一定的競爭力。與最近的其他通用模型如 UViM 相比,本文的模型表現(xiàn)明顯更好,同時效率更高。


而在無監(jiān)督數(shù)據(jù)集DAVIS上,也有更優(yōu)的表現(xiàn)。

結(jié)論

本文基于離散全景蒙版的條件生成模型,提出了一種用于圖像和視頻全景分割的新型通用框架。通過利用強大的Bit Diffusion 模型,我們能夠?qū)Υ罅侩x散token建模,這對于現(xiàn)有的通用模型來說是困難的。


———————End———————


你可以添加微信:rtthread2020 為好友,注明:公司+姓名,拉進RT-Thread官方微信交流群!



愛我就給我點在看

點擊閱讀原文進入官網(wǎng)


原文標題:【AI簡報第20230210期】 ChatGPT爆火背后、為AIoT和邊緣側(cè)AI喂算力的RISC-V

文章出處:【微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RT-Thread
    +關(guān)注

    關(guān)注

    31

    文章

    1249

    瀏覽量

    39719

原文標題:【AI簡報第20230210期】 ChatGPT爆火背后、為AIoT和邊緣側(cè)AI喂算力的RISC-V

文章出處:【微信號:RTThread,微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    RISC-V如何支持不同的AI和機器學習框架和庫?

    RISC-V如何支持不同的AI和機器學習框架和庫?還請壇友們多多指教一下。
    發(fā)表于 10-10 22:24

    芯原聯(lián)合主辦RISC-V和生成式AI論壇

    隨著生成式AI技術(shù)的快速演進,相關(guān)應用已開始向各行業(yè)滲透,AI模型在云側(cè)進行訓練、端側(cè)進行推理和微調(diào)時,產(chǎn)生了巨大的
    的頭像 發(fā)表于 09-29 09:48 ?176次閱讀

    Banana Pi BPI-F3 進迭時空RISC-V架構(gòu)下,AI融合算及其軟件棧實踐

    面對未來大模型(LLM)、AIGC等智能化浪潮的挑戰(zhàn),進迭時空在RISC-V方向全面布局,通過精心設(shè)計的RISC-V DSA架構(gòu)以及軟硬一體的優(yōu)化策略,將全力未來打造高效且易用的AI
    的頭像 發(fā)表于 09-07 14:01 ?1058次閱讀
    Banana Pi BPI-F3 進迭時空<b class='flag-5'>RISC-V</b>架構(gòu)下,<b class='flag-5'>AI</b>融合算<b class='flag-5'>力</b>及其軟件棧實踐

    RISC-V最重要的方向是AI,但如何構(gòu)建RISC-V+AI生態(tài)系統(tǒng)?

    普遍認為RISC-V+AI是未來的大方向。在第四屆滴水湖中國RISC-V產(chǎn)業(yè)論壇上,圓桌論壇環(huán)節(jié)也著重聊到了RISC-V+AI這個話題。 ? 隨著AI落地的深入,應用方面遇到的挑戰(zhàn)也隨
    的頭像 發(fā)表于 08-19 14:02 ?1002次閱讀

    北京大學謝濤:基于RISC-V構(gòu)建AI的優(yōu)勢和兩種模式

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)第四屆滴水湖中國RISC-V產(chǎn)業(yè)論壇上,北京大學講席教授、RISC-V國際基金會人工智能與機器學習專委會主席謝濤教授進行了題為《萬物智聯(lián)時代的RISC-V+AI
    的頭像 發(fā)表于 08-19 10:41 ?933次閱讀

    RISC-V在中國的發(fā)展機遇有哪些場景?

    聯(lián)網(wǎng)市場的重要參與者,擁有龐大的用戶基數(shù)和豐富的應用場景。RISC-V在中國的發(fā)展將受益于這一市場需求的增長。 2. 人工智能(AIAI
    發(fā)表于 07-29 17:14

    科華數(shù)據(jù)攜手希姆計算,推動國產(chǎn)RISC-V開源AI快速發(fā)展

    AI服務(wù),滿足各行各業(yè)對AIAI解決方案的需求。同時,基于希姆計算的開源RISC-V
    的頭像 發(fā)表于 06-30 08:36 ?368次閱讀
    科華數(shù)據(jù)攜手希姆計算,推動國產(chǎn)<b class='flag-5'>RISC-V</b>開源<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>快速發(fā)展

    科華數(shù)據(jù)攜手希姆計算,推動國產(chǎn)RISC-V開源AI快速發(fā)展

    AI服務(wù),滿足各行各業(yè)對AIAI解決方案的需求。同時,基于希姆計算的開源RISC-V
    的頭像 發(fā)表于 06-26 08:36 ?447次閱讀
    科華數(shù)據(jù)攜手希姆計算,推動國產(chǎn)<b class='flag-5'>RISC-V</b>開源<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>快速發(fā)展

    risc-v多核芯片在AI方面的應用

    RISC-V多核芯片能夠更好地適應AI算法的不同需求,包括深度學習、神經(jīng)網(wǎng)絡(luò)等,從而提高芯片的性能和效率,降低成本,使AI邊緣計算晶片更具競爭
    發(fā)表于 04-28 09:20

    解鎖RISC-V技術(shù)力量丨曹英杰:RISC-V與大模型探索

    4月12日,第二“大家來談芯|解鎖RISC-V技術(shù)力量”在上海臨港新片區(qū)頂科永久會址舉辦,本期沙龍聚焦RISC-V技術(shù),圍繞AI時代的RISC-V
    的頭像 發(fā)表于 04-16 08:16 ?564次閱讀
    解鎖<b class='flag-5'>RISC-V</b>技術(shù)力量丨曹英杰:<b class='flag-5'>RISC-V</b>與大模型探索

    RISC-V廠商正在AI領(lǐng)域積極布局!

    、精簡、可拓展的優(yōu)勢,發(fā)展高性能、低功耗的邊緣側(cè)、端側(cè)AI推理芯片提供了充足空間。 ? AI
    的頭像 發(fā)表于 04-09 00:13 ?4378次閱讀
    <b class='flag-5'>RISC-V</b>廠商正在<b class='flag-5'>AI</b>領(lǐng)域積極布局!

    淺談AI而生的存-體芯片

    大模型之后,存一體獲得了更多的關(guān)注與機會,其原因之一是因為存一體芯片的裸相比傳統(tǒng)架構(gòu)
    發(fā)表于 12-06 15:00 ?329次閱讀
    淺談<b class='flag-5'>為</b><b class='flag-5'>AI</b>大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-體芯片

    RISC-V內(nèi)核突破百億顆 RVV1.0如何解鎖端側(cè)AI市場應用潛能

    ”(南湖)開源高性能RISC-V處理器內(nèi)核,其性能已超過ARM A76;阿里平頭哥發(fā)布的首個自研RISC-V AI平臺,支持運行170余個主流AI模型,而且下半年還會發(fā)布與安卓、Web
    發(fā)表于 12-01 13:17

    強勁的AI邊緣計算盒子# 邊緣計算

    AI邊緣計算
    成都華江信息
    發(fā)布于 :2023年11月24日 16:31:06

    RISC-V mcu何時進軍AI

    今天看了篇文章,講述MCU界“六大天王”ST、NXP、Microchip、Renesas、TI、Infineon都在加大布局邊緣AI,這也應該是RISC-V MCU 的一次機遇啊!
    發(fā)表于 11-04 09:58