0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ONNX是什么?

丙丁先生的自學(xué)旅程 ? 來(lái)源:丙丁先生的自學(xué)旅程 ? 作者:丙丁先生的自學(xué)旅 ? 2024-05-15 09:49 ? 次閱讀

ONNX是一種開放格式,用于表示和交換深度學(xué)習(xí)模型。

ONNX,全稱為Open Neural Network Exchange,是由微軟和Facebook在2017年推出的一個(gè)開放標(biāo)準(zhǔn)。它的主要目的是促進(jìn)不同深度學(xué)習(xí)框架之間的互操作性,使得AI模型能夠在不同的環(huán)境和平臺(tái)之間無(wú)縫遷移和部署。以下是關(guān)于ONNX的一些關(guān)鍵信息

- 框架無(wú)關(guān)性:ONNX定義了一套與環(huán)境和平臺(tái)無(wú)關(guān)的標(biāo)準(zhǔn)格式,這有助于在不同的深度學(xué)習(xí)框架之間遷移模型。
- 模型優(yōu)化:硬件和軟件廠商可以基于ONNX標(biāo)準(zhǔn)來(lái)優(yōu)化模型性能,從而使得所有支持ONNX標(biāo)準(zhǔn)的框架都能從中受益。
- 廣泛的支持:自從推出以來(lái),ONNX得到了許多大型廠商和框架的支持,并逐漸成為表示深度學(xué)習(xí)模型的事實(shí)上的標(biāo)準(zhǔn)。
- 模型轉(zhuǎn)換:可以通過(guò)使用PyTorch的`torch.onnx.export`函數(shù)將PyTorch模型轉(zhuǎn)換成ONNX模型。這一過(guò)程涉及到對(duì)模型拓?fù)鋱D、計(jì)算節(jié)點(diǎn)屬性等基本概念的理解。

總的來(lái)說(shuō),ONNX提供了一個(gè)標(biāo)準(zhǔn)化的方式來(lái)表示神經(jīng)網(wǎng)絡(luò)模型,這對(duì)于模型的共享、部署和優(yōu)化都是非常有益的。通過(guò)使用ONNX,開發(fā)者可以更容易地在不同的深度學(xué)習(xí)框架和部署環(huán)境之間遷移和優(yōu)化模型。



審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29445

    瀏覽量

    267770
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3074

    瀏覽量

    48592
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5442

    瀏覽量

    120806
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于Pytorch訓(xùn)練并部署ONNX模型在TDA4應(yīng)用筆記

    電子發(fā)燒友網(wǎng)站提供《基于Pytorch訓(xùn)練并部署ONNX模型在TDA4應(yīng)用筆記.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:24 ?0次下載
    基于Pytorch訓(xùn)練并部署<b class='flag-5'>ONNX</b>模型在TDA4應(yīng)用筆記

    導(dǎo)入keras或者onnx模型到cubeai進(jìn)行分析,為什么會(huì)報(bào)錯(cuò)?

    請(qǐng)問(wèn)我導(dǎo)入keras或者onnx模型到cubeai進(jìn)行分析,為什么會(huì)報(bào)錯(cuò),而且沒(méi)有報(bào)錯(cuò)內(nèi)容,cubeai版本9.0.0。換成8.1.0版本后報(bào)錯(cuò)內(nèi)容是invalid network。該怎么入手解決。
    發(fā)表于 07-03 07:55

    用yolov5的best.pt導(dǎo)出成onnx轉(zhuǎn)化成fp32 bmodel后在Airbox上跑,報(bào)維度不匹配怎么處理?

    用官方的模型不出錯(cuò),用自己的yolov5訓(xùn)練出來(lái)的best.pt導(dǎo)出成onnx轉(zhuǎn)化成fp32 bmodel后在Airbox上跑,出現(xiàn)報(bào)錯(cuò): linaro@bm1684:~/yolov5/python
    發(fā)表于 05-31 08:10

    STM CUBE AI錯(cuò)誤導(dǎo)入onnx模型報(bào)錯(cuò)的原因?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTERNAL ERROR: list index out of range ```
    發(fā)表于 05-27 07:15

    ONNX Runtime支持龍架構(gòu),AI推理生態(tài)再添新翼

    近日,備受矚目的AI推理框架開源社區(qū)ONNX Runtime宣布推出支持龍架構(gòu)的新版本1.17.0,這一里程碑式的更新意味著龍芯平臺(tái)上的AI推理應(yīng)用開發(fā)與部署將更加便捷。
    的頭像 發(fā)表于 03-27 10:58 ?622次閱讀

    STMCubemx中cubeai導(dǎo)入onnx模型時(shí)壓縮失敗是怎么回事?

    stm32cubemxnetwork_output Neural Network Tools for STM32AI v1.6.0 (STM.ai v7.1.0-RC3) INTERNAL ERROR: Non positive value in (\'BATCH: -1\', \'CH: 224\', \'H: 3\', \'W: 224\') (Channel First) 在分析時(shí)也出現(xiàn)error,但是沒(méi)有報(bào)錯(cuò)提示
    發(fā)表于 03-21 07:43

    cubemx ai導(dǎo)入onnx模型后壓縮失敗了怎么解決?

    cubemx ai導(dǎo)入onnx模型后壓縮失敗。請(qǐng)問(wèn)我怎么解決
    發(fā)表于 03-19 07:58

    將yolov5s的模型轉(zhuǎn)成.onnx模型,進(jìn)行cube-ai分析時(shí)報(bào)錯(cuò)的原因?

    報(bào)錯(cuò)顯示張量不能大于四維的,想請(qǐng)教解決一下,我再此之后通過(guò)onnx-simplifier對(duì).onnx進(jìn)行簡(jiǎn)化之后再通過(guò)cube-ai進(jìn)行分析還是出現(xiàn)上述報(bào)錯(cuò),懇求指導(dǎo),謝謝您!
    發(fā)表于 03-15 06:54

    yolov5轉(zhuǎn)onnx在cubeAI上部署失敗的原因?

    第一個(gè)我是轉(zhuǎn)onnx時(shí) 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說(shuō)17版本不支持半精度 后面則是沒(méi)有縮小的單精度 但是顯示哪里溢出了···· 也不說(shuō)是哪里、、。。。 到底能不能部署yolov5這種東西?。?? 也沒(méi)看見幾個(gè)部署在這上面......................
    發(fā)表于 03-14 06:23

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?508次閱讀
    AI推理框架軟件<b class='flag-5'>ONNX</b> Runtime正式支持龍架構(gòu)

    微軟推出ONNX Runtime Web,利用WebGPU優(yōu)化瀏覽器機(jī)器學(xué)習(xí)性能

    作為微軟的 JavaScript 庫(kù),ONNX Runtime Web 使得網(wǎng)絡(luò)開發(fā)者能在瀏覽器環(huán)境下部署機(jī)器學(xué)習(xí)模型,并提供多種硬件加速的后端支持。
    的頭像 發(fā)表于 03-05 14:23 ?899次閱讀

    谷歌模型怎么用PS打開文件和圖片

    )或ONNX模型(.onnx)等。這些模型文件是二進(jìn)制的,并且是為特定的機(jī)器學(xué)習(xí)框架設(shè)計(jì)的,而不是為圖像編輯軟件如PS設(shè)計(jì)的。
    的頭像 發(fā)表于 02-29 18:25 ?1298次閱讀

    通過(guò)新的ONNX導(dǎo)出器簡(jiǎn)化模型導(dǎo)出流程

    大家好。我叫Manav Dalal,今天我將講解如何通過(guò)新的ONNX導(dǎo)出器簡(jiǎn)化模型導(dǎo)出流程。如果你還沒(méi)有聽說(shuō)過(guò)ONNX,它是一種用于表示機(jī)器學(xué)習(xí)模型的開放格式。它定義了一套通用的運(yùn)算符,機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 01-10 09:45 ?761次閱讀
    通過(guò)新的<b class='flag-5'>ONNX</b>導(dǎo)出器簡(jiǎn)化模型導(dǎo)出流程

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】yolov8模型轉(zhuǎn)換

    換為onnx格式。 下載yolov8n.pt 將PyTorch模型格式轉(zhuǎn)為onnx模型格式。yolo mode=export model=yolov8n.pt format=onnx dynamic
    發(fā)表于 11-20 12:19

    Pytoorch輕松學(xué) – RetinaNet自定義對(duì)象檢測(cè)

    把模型轉(zhuǎn)換為ONNX格式,Pytorch是原生支持的,只需要把通過(guò)torch.onnx.export接口,填上相關(guān)的參數(shù),然后直接運(yùn)行就可以生成ONNX模型文件。
    的頭像 發(fā)表于 11-15 16:44 ?311次閱讀
    Pytoorch輕松學(xué) – RetinaNet自定義對(duì)象檢測(cè)