0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的建模流程是怎樣的?

新機(jī)器視覺(jué) ? 來(lái)源:算法進(jìn)階 ? 作者:算法進(jìn)階 ? 2021-06-23 15:50 ? 次閱讀

前言

機(jī)器學(xué)習(xí)作為人工智能領(lǐng)域的核心組成,是計(jì)算機(jī)程序?qū)W習(xí)數(shù)據(jù)經(jīng)驗(yàn)以優(yōu)化自身算法,并產(chǎn)生相應(yīng)的“智能化的”建議與決策的過(guò)程。

一個(gè)經(jīng)典的機(jī)器學(xué)習(xí)的定義是:

A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.

一、機(jī)器學(xué)習(xí)概論

機(jī)器學(xué)習(xí)是關(guān)于計(jì)算機(jī)基于數(shù)據(jù)分布構(gòu)建出概率統(tǒng)計(jì)模型,并運(yùn)用模型對(duì)數(shù)據(jù)進(jìn)行分析與預(yù)測(cè)的方法。按照學(xué)習(xí)數(shù)據(jù)分布的方式的不同,主要可以分為監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí):

1.1 監(jiān)督學(xué)習(xí)

從有標(biāo)注的數(shù)據(jù)(x為變量特征空間, y為標(biāo)簽)中,通過(guò)選擇的模型及確定的學(xué)習(xí)策略,再用合適算法計(jì)算后學(xué)習(xí)到最優(yōu)模型,并用模型預(yù)測(cè)的過(guò)程。模型預(yù)測(cè)結(jié)果Y的取值有限的或者無(wú)限的,可分為分類模型或者回歸模型;

1.2 非監(jiān)督學(xué)習(xí):

從無(wú)標(biāo)注的數(shù)據(jù)(x為變量特征空間),通過(guò)選擇的模型及確定的學(xué)習(xí)策略,再用合適算法計(jì)算后學(xué)習(xí)到最優(yōu)模型,并用模型發(fā)現(xiàn)數(shù)據(jù)的統(tǒng)計(jì)規(guī)律或者內(nèi)在結(jié)構(gòu)。按照應(yīng)用場(chǎng)景,可以分為聚類,降維和關(guān)聯(lián)分析等模型;

二、機(jī)器學(xué)習(xí)建模流程

2.1 明確業(yè)務(wù)問(wèn)題

明確業(yè)務(wù)問(wèn)題是機(jī)器學(xué)習(xí)的先決條件,這里需要抽象出現(xiàn)實(shí)業(yè)務(wù)問(wèn)題的解決方案:需要學(xué)習(xí)什么樣的數(shù)據(jù)作為輸入,目標(biāo)是得到什么樣的模型做決策作為輸出。

(如一個(gè)簡(jiǎn)單的新聞分類場(chǎng)景就是學(xué)習(xí)已有的新聞及其類別標(biāo)簽數(shù)據(jù),得到一個(gè)分類模型,通過(guò)模型對(duì)每天新的新聞做類別預(yù)測(cè),以歸類到每個(gè)新聞?lì)l道。)

2.2 數(shù)據(jù)選擇:收集及輸入數(shù)據(jù)

數(shù)據(jù)決定了機(jī)器學(xué)習(xí)結(jié)果的上限,而算法只是盡可能逼近這個(gè)上限。意味著數(shù)據(jù)的質(zhì)量決定了模型的最終效果,在實(shí)際的工業(yè)應(yīng)用中,算法通常占了很小的一部分,大部分工程師的工作都是在找數(shù)據(jù)、提煉數(shù)據(jù)、分析數(shù)據(jù)。數(shù)據(jù)選擇需要關(guān)注的是:

① 數(shù)據(jù)的代表性:無(wú)代表性的數(shù)據(jù)可能會(huì)導(dǎo)致模型的過(guò)擬合,對(duì)訓(xùn)練數(shù)據(jù)之外的新數(shù)據(jù)無(wú)識(shí)別能力;

② 數(shù)據(jù)時(shí)間范圍:監(jiān)督學(xué)習(xí)的特征變量X及標(biāo)簽Y如與時(shí)間先后有關(guān),則需要明確數(shù)據(jù)時(shí)間窗口,否則可能會(huì)導(dǎo)致數(shù)據(jù)泄漏,即存在和利用因果顛倒的特征變量的現(xiàn)象。(如預(yù)測(cè)明天會(huì)不會(huì)下雨,但是訓(xùn)練數(shù)據(jù)引入明天溫濕度情況);

③ 數(shù)據(jù)業(yè)務(wù)范圍:明確與任務(wù)相關(guān)的數(shù)據(jù)表范圍,避免缺失代表性數(shù)據(jù)或引入大量無(wú)關(guān)數(shù)據(jù)作為噪音;

2.3 特征工程:數(shù)據(jù)預(yù)處理及特征提取

特征工程就是將原始數(shù)據(jù)加工轉(zhuǎn)化為模型有用的特征,技術(shù)手段一般可分為:

數(shù)據(jù)預(yù)處理:特征表示,缺失值/異常值處理,數(shù)據(jù)離散化,數(shù)據(jù)標(biāo)準(zhǔn)化等;特征提?。禾卣餮苌?,特征選擇,特征降維等;

特征表示

數(shù)據(jù)需要轉(zhuǎn)換為計(jì)算機(jī)能夠處理的數(shù)值形式。如果數(shù)據(jù)是圖片數(shù)據(jù)需要轉(zhuǎn)換為RGB三維矩陣的表示。

字符類的數(shù)據(jù)可以用多維數(shù)組表示,有Onehot獨(dú)熱編碼表示、word2vetor分布式表示及bert動(dòng)態(tài)編碼等;

異常值處理

收集的數(shù)據(jù)由于人為或者自然因素可能引入了異常值(噪音),這會(huì)對(duì)模型學(xué)習(xí)進(jìn)行干擾。

通常需要對(duì)人為引起的異常值進(jìn)行處理,通過(guò)業(yè)務(wù)判斷和技術(shù)手段(python、正則式匹配、pandas數(shù)據(jù)處理及matplotlib可視化等數(shù)據(jù)分析處理技術(shù))篩選異常的信息,并結(jié)合業(yè)務(wù)情況刪除或者替換數(shù)值。

缺失值處理

數(shù)據(jù)缺失的部分,通過(guò)結(jié)合業(yè)務(wù)進(jìn)行填充數(shù)值、不做處理或者刪除。根據(jù)缺失率情況及處理方式分為以下情況:

① 缺失率較高,并結(jié)合業(yè)務(wù)可以直接刪除該特征變量。經(jīng)驗(yàn)上可以新增一個(gè)bool類型的變量特征記錄該字段的缺失情況,缺失記為1,非缺失記為0;

② 缺失率較低,結(jié)合業(yè)務(wù)可使用一些缺失值填充手段,如pandas的fillna方法、訓(xùn)練隨機(jī)森林模型預(yù)測(cè)缺失值填充;

③ 不做處理:部分模型如隨機(jī)森林、xgboost、lightgbm能夠處理數(shù)據(jù)缺失的情況,不需要對(duì)缺失數(shù)據(jù)做任何的處理。

數(shù)據(jù)離散化

數(shù)據(jù)離散化能減小算法的時(shí)間和空間開(kāi)銷(不同算法情況不一),并可以使特征更有業(yè)務(wù)解釋性。

離散化是將連續(xù)的數(shù)據(jù)進(jìn)行分段,使其變?yōu)橐欢味坞x散化的區(qū)間,分段的原則有等距離、等頻率等方法。

數(shù)據(jù)標(biāo)準(zhǔn)化

數(shù)據(jù)各個(gè)特征變量的量綱差異很大,可以使用數(shù)據(jù)標(biāo)準(zhǔn)化消除不同分量量綱差異的影響,加速模型收斂的效率。常用的方法有:

① min-max 標(biāo)準(zhǔn)化:

將數(shù)值范圍縮放到(0,1),但沒(méi)有改變數(shù)據(jù)分布。max為樣本最大值,min為樣本最小值。

48509d66-d3f7-11eb-9e57-12bb97331649.png

② z-score 標(biāo)準(zhǔn)化:

將數(shù)值范圍縮放到0附近, 經(jīng)過(guò)處理的數(shù)據(jù)符合標(biāo)準(zhǔn)正態(tài)分布。u是平均值,σ是標(biāo)準(zhǔn)差。

486302ee-d3f7-11eb-9e57-12bb97331649.png

特征衍生

基礎(chǔ)特征對(duì)樣本信息的表述有限,可通過(guò)特征衍生出新含義的特征進(jìn)行補(bǔ)充。特征衍生是對(duì)現(xiàn)有基礎(chǔ)特征的含義進(jìn)行某種處理(組合/轉(zhuǎn)換之類),常用方法如:

① 結(jié)合業(yè)務(wù)的理解做衍生,比如通過(guò)12個(gè)月工資可以加工出:平均月工資,薪資變化值,是否發(fā)工資 等等;

② 使用特征衍生工具:如feature tools等技術(shù);

特征選擇

特征選擇篩選出顯著特征、摒棄非顯著特征。特征選擇方法一般分為三類:

① 過(guò)濾法:按照特征的發(fā)散性或者相關(guān)性指標(biāo)對(duì)各個(gè)特征進(jìn)行評(píng)分后選擇,如方差驗(yàn)證、相關(guān)系數(shù)、IV值、卡方檢驗(yàn)及信息增益等方法。

② 包裝法:每次選擇部分特征迭代訓(xùn)練模型,根據(jù)模型預(yù)測(cè)效果評(píng)分選擇特征的去留。

③ 嵌入法:使用某些模型進(jìn)行訓(xùn)練,得到各個(gè)特征的權(quán)值系數(shù),根據(jù)權(quán)值系數(shù)從大到小來(lái)選擇特征,如XGBOOST特征重要性選擇特征。

特征降維

如果特征選擇后的特征數(shù)目仍太多,這種情形下經(jīng)常會(huì)有數(shù)據(jù)樣本稀疏、距離計(jì)算困難的問(wèn)題(稱為 “維數(shù)災(zāi)難”),可以通過(guò)特征降維解決。常用的降維方法有:主成分分析法(PCA), 線性判別分析法(LDA)等。

2.4 模型訓(xùn)練

模型訓(xùn)練是選擇模型學(xué)習(xí)數(shù)據(jù)分布的過(guò)程。這過(guò)程還需要依據(jù)訓(xùn)練結(jié)果調(diào)整算法的(超)參數(shù),使得結(jié)果變得更加優(yōu)良。

2.4.1數(shù)據(jù)集劃分

訓(xùn)練模型前,一般會(huì)把數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,并可再對(duì)訓(xùn)練集再細(xì)分為訓(xùn)練集和驗(yàn)證集,從而對(duì)模型的泛化能力進(jìn)行評(píng)估。

① 訓(xùn)練集(training set):用于運(yùn)行學(xué)習(xí)算法。

② 開(kāi)發(fā)驗(yàn)證集(development set)用于調(diào)整參數(shù),選擇特征以及對(duì)算法其它優(yōu)化。常用的驗(yàn)證方式有交叉驗(yàn)證Cross-validation,留一法等;

③ 測(cè)試集(test set)用于評(píng)估算法的性能,但不會(huì)據(jù)此改變學(xué)習(xí)算法或參數(shù)。

2.4.2模型選擇

常見(jiàn)的機(jī)器學(xué)習(xí)算法如下:

模型選擇取決于數(shù)據(jù)情況和預(yù)測(cè)目標(biāo)??梢杂?xùn)練多個(gè)模型,根據(jù)實(shí)際的效果選擇表現(xiàn)較好的模型或者模型融合。

模型選擇

2.4.3模型訓(xùn)練

訓(xùn)練過(guò)程可以通過(guò)調(diào)參進(jìn)行優(yōu)化,調(diào)參的過(guò)程是一種基于數(shù)據(jù)集、模型和訓(xùn)練過(guò)程細(xì)節(jié)的實(shí)證過(guò)程。超參數(shù)優(yōu)化需要基于對(duì)算法的原理的理解和經(jīng)驗(yàn),此外還有自動(dòng)調(diào)參技術(shù):網(wǎng)格搜索、隨機(jī)搜索及貝葉斯優(yōu)化等。

2.5 模型評(píng)估

模型評(píng)估的標(biāo)準(zhǔn):模型學(xué)習(xí)的目的使學(xué)到的模型對(duì)新數(shù)據(jù)能有很好的預(yù)測(cè)能力(泛化能力)?,F(xiàn)實(shí)中通常由訓(xùn)練誤差及測(cè)試誤差評(píng)估模型的訓(xùn)練數(shù)據(jù)學(xué)習(xí)程度及泛化能力。

2.5.1評(píng)估指標(biāo)

① 評(píng)估分類模型:常用的評(píng)估標(biāo)準(zhǔn)有查準(zhǔn)率P、查全率R、兩者調(diào)和平均F1-score 等,并由混淆矩陣的統(tǒng)計(jì)相應(yīng)的個(gè)數(shù)計(jì)算出數(shù)值:

混淆矩陣

查準(zhǔn)率是指分類器分類正確的正樣本(TP)的個(gè)數(shù)占該分類器所有預(yù)測(cè)為正樣本個(gè)數(shù)(TP+FP)的比例;

查全率是指分類器分類正確的正樣本個(gè)數(shù)(TP)占所有的正樣本個(gè)數(shù)(TP+FN)的比例。

F1-score是查準(zhǔn)率P、查全率R的調(diào)和平均:496df1c6-d3f7-11eb-9e57-12bb97331649.png

② 評(píng)估回歸模型:常用的評(píng)估指標(biāo)有RMSE均方根誤差 等。反饋的是預(yù)測(cè)數(shù)值與實(shí)際值的擬合情況。

497b01cc-d3f7-11eb-9e57-12bb97331649.png

③ 評(píng)估聚類模型:可分為兩類方式,一類將聚類結(jié)果與某個(gè)“參考模型”的結(jié)果進(jìn)行比較,稱為“外部指標(biāo)”(external index):如蘭德指數(shù),F(xiàn)M指數(shù) 等;另一類是直接考察聚類結(jié)果而不利用任何參考模型,稱為“內(nèi)部指標(biāo)”(internal index):如緊湊度、分離度 等。

2.5.2模型評(píng)估及優(yōu)化

根據(jù)訓(xùn)練集及測(cè)試集的指標(biāo)表現(xiàn),分析原因并對(duì)模型進(jìn)行優(yōu)化,常用的方法有:

2.6 模型決策

決策是機(jī)器學(xué)習(xí)最終目的,對(duì)模型預(yù)測(cè)信息加以分析解釋,并應(yīng)用于實(shí)際的工作領(lǐng)域。

需要注意的是工程上是結(jié)果導(dǎo)向,模型在線上運(yùn)行的效果直接決定模型的成敗,不僅僅包括其準(zhǔn)確程度、誤差等情況,還包括其運(yùn)行的速度(時(shí)間復(fù)雜度)、資源消耗程度(空間復(fù)雜度)、穩(wěn)定性的綜合考慮。

責(zé)任編輯:lq6

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46346

    瀏覽量

    236500
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8323

    瀏覽量

    132165

原文標(biāo)題:機(jī)器學(xué)習(xí)入門指南(全)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型學(xué)習(xí)
    的頭像 發(fā)表于 07-10 15:45 ?2286次閱讀

    機(jī)器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理與特征工程

    機(jī)器學(xué)習(xí)的整個(gè)流程中,數(shù)據(jù)預(yù)處理與特征工程是兩個(gè)至關(guān)重要的步驟。它們直接決定了模型的輸入質(zhì)量,進(jìn)而影響模型的訓(xùn)練效果和泛化能力。本文將從數(shù)據(jù)預(yù)處理和特征工程的基本概念出發(fā),詳細(xì)探討這兩個(gè)步驟的具體內(nèi)容、方法及其在
    的頭像 發(fā)表于 07-09 15:57 ?234次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個(gè)重要分支,其目標(biāo)是通過(guò)讓計(jì)算機(jī)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無(wú)需進(jìn)行明確的編程。本文將深入解讀幾種常見(jiàn)的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-02 11:25 ?540次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)無(wú)疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來(lái)了革命性的變化。然而,盡管它們都屬于機(jī)器
    的頭像 發(fā)表于 07-01 11:40 ?941次閱讀

    FPGA的學(xué)習(xí)筆記---FPGA的開(kāi)發(fā)流程

    與通常的單片機(jī)應(yīng)用開(kāi)發(fā)不同,F(xiàn)PGA有自己的開(kāi)發(fā)流程。但具體上怎樣操作,作為初學(xué)者,沒(méi)有一點(diǎn)經(jīng)驗(yàn)。網(wǎng)站獎(jiǎng)勵(lì)的清華FPGA需要的開(kāi)發(fā)軟件,到目前還沒(méi)有安裝成功。暫且先看看相關(guān)學(xué)習(xí),慢慢積累這方面的知識(shí)
    發(fā)表于 06-23 14:47

    英飛凌科技旗下Imagimob可視化Graph UX改變邊緣機(jī)器學(xué)習(xí)建模

    。用戶現(xiàn)在可以將他們的機(jī)器學(xué)習(xí)(ML)建模流程可視化,并利用各種先進(jìn)功能更加高效、快速地開(kāi)發(fā)適用于邊緣設(shè)備的模型。Imagimob邊緣設(shè)備AI/ML開(kāi)發(fā)平臺(tái)的最新版本對(duì)用戶體驗(yàn)進(jìn)行了一
    發(fā)表于 02-19 14:08 ?265次閱讀
    英飛凌科技旗下Imagimob可視化Graph UX改變邊緣<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>建模</b>

    EtherCAT IO的接線方法和流程怎樣的?

    EtherCAT IO的接線方法和流程怎樣的? EtherCAT是一種用于實(shí)時(shí)以太網(wǎng)通信的開(kāi)放式通信協(xié)議,具有低延遲和高帶寬的優(yōu)勢(shì)。 EtherCAT IO是EtherCAT網(wǎng)絡(luò)中連接到IO設(shè)備
    的頭像 發(fā)表于 02-02 16:57 ?1692次閱讀

    數(shù)據(jù)預(yù)處理和特征工程的常用功能

    機(jī)器學(xué)習(xí)最基礎(chǔ)的5個(gè)流程,分別是數(shù)據(jù)獲取,數(shù)據(jù)預(yù)處理,特征工程,建模、測(cè)試和預(yù)測(cè),上線與部署。
    的頭像 發(fā)表于 01-25 11:26 ?637次閱讀

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?870次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型

    機(jī)器建模方法和組成

    URDF:機(jī)器建模方法 ROS是機(jī)器人操作系統(tǒng),當(dāng)然要給機(jī)器人使用啦,不過(guò)在使用之前,還得讓ROS認(rèn)識(shí)下我們使用的機(jī)器人,如何把一個(gè)
    的頭像 發(fā)表于 11-22 16:30 ?809次閱讀
    <b class='flag-5'>機(jī)器</b>人<b class='flag-5'>建模</b>方法和組成

    一文讀懂機(jī)器學(xué)習(xí):基本概念、五大流派與九種常見(jiàn)算法

    軟件工程師編寫程序來(lái)解決問(wèn)題。首先存在一些數(shù)據(jù)→為了解決一個(gè)問(wèn)題,軟件工程師編寫一個(gè)流程來(lái)告訴機(jī)器應(yīng)該怎樣做→計(jì)算機(jī)遵照這一流程執(zhí)行,然后得出結(jié)果
    的頭像 發(fā)表于 11-17 17:37 ?400次閱讀

    物聯(lián)網(wǎng)與機(jī)器學(xué)習(xí)如何創(chuàng)造智能未來(lái)

    機(jī)器學(xué)習(xí)得到廣泛運(yùn)用,利用這些工具可以實(shí)現(xiàn)流程自動(dòng)化,提高生產(chǎn)力,并實(shí)時(shí)做出數(shù)據(jù)驅(qū)動(dòng)的抉擇和策略。智慧醫(yī)療隨著科技的發(fā)展,電子產(chǎn)品已經(jīng)成為我們生活中的必備用品,但
    的頭像 發(fā)表于 11-11 08:23 ?862次閱讀
    物聯(lián)網(wǎng)與<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>如何創(chuàng)造智能未來(lái)

    機(jī)器學(xué)習(xí)的基本流程和十大算法

    為了進(jìn)行機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘任務(wù),數(shù)據(jù)科學(xué)家們提出了各種模型,在眾多的數(shù)據(jù)挖掘模型中,國(guó)際權(quán)威的學(xué)術(shù)組織 ICDM(the IEEE International Conference on Data Mining)評(píng)選出了十大經(jīng)典的算法。
    發(fā)表于 10-31 11:30 ?924次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的基本<b class='flag-5'>流程</b>和十大算法

    淺析機(jī)器學(xué)習(xí)的基本步驟

    機(jī)器學(xué)習(xí)中,機(jī)器學(xué)習(xí)的效率在很大程度上取決于它所提供的數(shù)據(jù)集,數(shù)據(jù)集的大小和豐富程度也決定了最終預(yù)測(cè)的結(jié)果質(zhì)量。目前在算力方面,量子計(jì)算能超越傳統(tǒng)二進(jìn)制的編碼系統(tǒng),利用量子的糾纏與疊
    發(fā)表于 10-30 11:13 ?352次閱讀
    淺析<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的基本步驟

    通過(guò)RA MCU和微型ROS簡(jiǎn)化機(jī)器人設(shè)計(jì)流程

    通過(guò)RA MCU和微型ROS簡(jiǎn)化機(jī)器人設(shè)計(jì)流程
    的頭像 發(fā)表于 10-24 17:55 ?482次閱讀
    通過(guò)RA MCU和微型ROS簡(jiǎn)化<b class='flag-5'>機(jī)器</b>人設(shè)計(jì)<b class='flag-5'>流程</b>