0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

機(jī)器學(xué)習(xí)算法與人工智能 ? 2018-03-29 14:10 ? 次閱讀

機(jī)器學(xué)習(xí)萌新必學(xué)的Top10算法

在機(jī)器學(xué)習(xí)領(lǐng)域里,不存在一種萬(wàn)能的算法可以完美解決所有問(wèn)題,尤其是像預(yù)測(cè)建模的監(jiān)督學(xué)習(xí)里。

比方說(shuō),神經(jīng)網(wǎng)絡(luò)不見(jiàn)得比決策樹(shù)好,同樣反過(guò)來(lái)也不成立。最后的結(jié)果是有很多因素在起作用的,比方說(shuō)數(shù)據(jù)集的大小以及組成。所以,針對(duì)你要解決的問(wèn)題,最好是嘗試多種不同的算法。并借一個(gè)測(cè)試集來(lái)評(píng)估不同算法之間的表現(xiàn),最后選出一個(gè)結(jié)果最好的。

當(dāng)然,你要選適合解決你問(wèn)題的算法來(lái)嘗試。比方說(shuō),要打掃房子,你會(huì)用真空吸塵器,掃把,拖把;你絕對(duì)不會(huì)翻出一把鏟子來(lái)開(kāi)始挖坑,對(duì)吧。不過(guò)呢,對(duì)于所有預(yù)測(cè)建模的監(jiān)督學(xué)習(xí)算法來(lái)說(shuō),還是有一些通用的底層原則的。

機(jī)器學(xué)習(xí)算法,指的是要學(xué)習(xí)一個(gè)目標(biāo)函數(shù),能夠盡可能地還原輸入和輸出之間的關(guān)系。

然后根據(jù)新的輸入值X,來(lái)預(yù)測(cè)出輸出值Y。精準(zhǔn)地預(yù)測(cè)結(jié)果是機(jī)器學(xué)習(xí)建模的任務(wù)。

所以我們來(lái)了解一下,Top10機(jī)器學(xué)習(xí)算法1線性回歸

統(tǒng)計(jì)學(xué)與機(jī)器學(xué)習(xí)領(lǐng)域里研究最多的算法。做預(yù)測(cè)建模,最重要的是準(zhǔn)確性(盡可能減小預(yù)測(cè)值和實(shí)際值的誤差)。哪怕?tīng)奚山忉屝?,也要盡可能提高準(zhǔn)確性。為了達(dá)到這個(gè)目的,我們會(huì)從不同領(lǐng)域(包括統(tǒng)計(jì)學(xué))參考或照搬算法。線性回歸可用一條線表示輸入值X和輸出值Y之間的關(guān)系,這條線的斜率的值,也叫系數(shù)。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

比方說(shuō),y = B0 + B1*x,我們就可以根據(jù)X值來(lái)預(yù)測(cè)Y值。機(jī)器學(xué)習(xí)的任務(wù)就是找出系數(shù)B0和B1。從數(shù)據(jù)中建立線性回歸的模型有不同的方法,比方說(shuō)線性代數(shù)的最小二乘法、梯度下降優(yōu)化。線性回歸已經(jīng)存在了200多年,相關(guān)研究已經(jīng)很多了。用這個(gè)算法關(guān)鍵在于要盡可能地移除相似的變量以及清洗數(shù)據(jù)。對(duì)算法萌新來(lái)說(shuō),是最簡(jiǎn)單的算法了。

2邏輯回歸

這方法來(lái)自統(tǒng)計(jì)學(xué)領(lǐng)域,是一種可以用在二元分類問(wèn)題上的方法。邏輯回歸,和線性回歸相似,都是要找出輸入值的系數(shù)權(quán)重。不同的地方在于,對(duì)輸出值的預(yù)測(cè)改成了邏輯函數(shù)。邏輯函數(shù)看起來(lái)像字母S,輸出值的范圍是0到1。把邏輯函數(shù)的輸出值加一個(gè)處理規(guī)則,就能得到分類結(jié)果,非0即1。比方說(shuō),可以規(guī)定輸入值小于0.5,那么輸出值就是1。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

這個(gè)算法還可以用來(lái)預(yù)測(cè)數(shù)據(jù)分布的概率,適用于需要更多數(shù)據(jù)論證支撐的預(yù)測(cè)。和線性回歸相似,如果把和輸出不相干的因子或者相近的因子剔除掉的話,邏輯回歸算法的表現(xiàn)會(huì)更好。對(duì)于二元分類問(wèn)題,邏輯回歸是個(gè)可快速上手又有效的算法。

3線性判別分析

邏輯回歸算法,只能用于二分問(wèn)題。當(dāng)輸出的結(jié)果類別超過(guò)兩類的時(shí)候,就要用線性判別分析算法了。這種算法的可視化結(jié)果還比較一目了然,能看出數(shù)據(jù)在統(tǒng)計(jì)學(xué)上的特征。這上面的結(jié)果都是分別計(jì)算得到的,單一的輸入值可以是每一類的中位數(shù),也可以是每一類值的跨度。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

基于對(duì)每種類別計(jì)算之后所得到的判別值,取最大值做出預(yù)測(cè)。這種方法是假定數(shù)據(jù)符合高斯分布。所以,最好在預(yù)測(cè)之前把異常值先踢掉。對(duì)于分類預(yù)測(cè)問(wèn)題來(lái)說(shuō),這種算法既簡(jiǎn)單又給力。

4分類與回歸樹(shù)

預(yù)測(cè)模型里,決策樹(shù)也是非常重要的一種算法。可以用分兩叉的樹(shù)來(lái)表示決策樹(shù)的模型。每一個(gè)節(jié)點(diǎn)代表一個(gè)輸入,每個(gè)分支代表一個(gè)變量(默認(rèn)變量是數(shù)字類型)

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

決策樹(shù)

決策樹(shù)的葉節(jié)點(diǎn)指的是輸出變量。預(yù)測(cè)的過(guò)程會(huì)經(jīng)過(guò)決策樹(shù)的分岔口,直到最后停在了一個(gè)葉節(jié)點(diǎn)上,對(duì)應(yīng)的就是輸出值的分類結(jié)果。決策樹(shù)很好學(xué),也能很快地得到預(yù)測(cè)結(jié)果。對(duì)于大部分問(wèn)題來(lái)說(shuō),得到的結(jié)果還挺準(zhǔn)確,也不要求對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。

5樸素貝葉斯分類器

這種預(yù)測(cè)建模的算法強(qiáng)大到超乎想象。這種模型,可以直接從你的訓(xùn)練集中計(jì)算出來(lái)兩種輸出類別的概率。一個(gè)是每種輸出種類的概率;另外一個(gè),是根據(jù)給定的x值,得到的是有條件的種類概率。一旦計(jì)算之后,概率的模型可以用貝葉斯定理預(yù)測(cè)新的數(shù)據(jù)。當(dāng)你的數(shù)據(jù)是實(shí)數(shù)值,那么按理說(shuō)應(yīng)該是符合高斯分布的,也就很容易估算出這個(gè)概率。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

貝葉斯定理

樸素貝葉斯定理之所以名字里有個(gè)“樸素”,是因?yàn)檫@種算法假定每個(gè)輸入的變量都是獨(dú)立的。不過(guò),真實(shí)的數(shù)據(jù)不可能滿足這個(gè)隱藏前提。盡管如此,這個(gè)方法對(duì)很多復(fù)雜的問(wèn)題還是很管用的。

6K近鄰算法

最近K近鄰的模型表示,就是整個(gè)訓(xùn)練集。很直截了當(dāng),對(duì)吧?對(duì)新數(shù)據(jù)的預(yù)測(cè),是搜索整個(gè)訓(xùn)練集的值,找到K個(gè)最近的例子(literally的鄰居)。然后總結(jié)K個(gè)輸出的變量。這種算法難就難在,怎么定義兩個(gè)數(shù)據(jù)的相似度(相距多近算相似)。如果你的特征(attributes)屬于同一個(gè)尺度的話,那最簡(jiǎn)單的方法是用歐幾里得距離。這個(gè)數(shù)值,你可以基于每個(gè)輸入變量之間的距離來(lái)計(jì)算得出。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

最近鄰法,需要占用大量的內(nèi)存空間來(lái)放數(shù)據(jù),這樣在需要預(yù)測(cè)的時(shí)候就可以進(jìn)行即時(shí)運(yùn)算(或?qū)W習(xí))。也可以不斷更新訓(xùn)練集,使得預(yù)測(cè)更加準(zhǔn)確。距離或親密度這個(gè)思路遇到更高維度(大量的輸入變量)就行不通了,會(huì)影響算法的表現(xiàn)。這叫做維度的詛咒。當(dāng)(數(shù)學(xué))空間維度增加時(shí),分析和組織高維空間(通常有成百上千維),因體積指數(shù)增加而遇到各種問(wèn)題場(chǎng)景。所以最好只保留那些和輸出值有關(guān)的輸入變量。

7學(xué)習(xí)矢量量化

最近鄰法的缺點(diǎn)是,你需要整個(gè)訓(xùn)練集。而學(xué)習(xí)矢量量化(后簡(jiǎn)稱LVQ)這個(gè)神經(jīng)網(wǎng)絡(luò)算法,是自行選擇訓(xùn)練樣例。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

LVQ,是一組矢量,也叫碼本。一開(kāi)始,矢量是隨機(jī)選的,經(jīng)過(guò)幾次學(xué)習(xí)算法迭代之后,慢慢選出最能代表訓(xùn)練集的矢量。學(xué)習(xí)完成后,碼本就可以用來(lái)預(yù)測(cè)了,就像最近鄰法那樣。計(jì)算新輸入樣例和碼本的距離,可以找出最相近的鄰居,也就是最匹配的碼本。如果你重新調(diào)整數(shù)據(jù)尺度,把數(shù)據(jù)歸到同一個(gè)范圍里,比如說(shuō)0到1之間,那就可以獲得最好的結(jié)果。如果用最近鄰法就獲得了不錯(cuò)的結(jié)果,那么可以再用LVQ優(yōu)化一下,減輕訓(xùn)練集儲(chǔ)存壓力。

8支持向量機(jī)(簡(jiǎn)稱SVM)

這可能是機(jī)器學(xué)習(xí)里最受歡迎的算法了。超平面是一條可以分割輸入變量的空間的“線”。支持向量機(jī)的超平面,是能把輸入變量空間盡可能理想地按種類切割,要么是0,要么是1。在二維空間里,你可以把超平面可以分割變量空間的那條“線”。這條線能把所有的輸入值完美一分為二。SVM的學(xué)習(xí)目標(biāo)就是要找出這個(gè)超平面。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

超平面和挨得最近的數(shù)據(jù)點(diǎn)之間的距離,叫做邊緣。最理想的超平面,是可以無(wú)誤差地劃分訓(xùn)練數(shù)據(jù)。 也就是說(shuō),每一類數(shù)據(jù)里距離超平面最近的向量與超平面之間的距離達(dá)到最大值。這些點(diǎn)就叫做支持向量,他們定義了超平面。從實(shí)際操作上,最理想的算法是能找到這些把最近矢量與超平面值距離最大化的點(diǎn)。支持向量可能是最強(qiáng)的拿來(lái)就用的分類器了。值得用數(shù)據(jù)集試試。

9隨機(jī)森林

隨機(jī)森林,屬于一種重復(fù)抽樣算法,是最受歡迎也最強(qiáng)大的算法之一。在統(tǒng)計(jì)學(xué)里,bootstrap是個(gè)估算值大小很有效的方法。比方說(shuō)估算平均值。從數(shù)據(jù)庫(kù)中取一些樣本,計(jì)算平均值,重復(fù)幾次這樣的操作,獲得多個(gè)平均值。然后平均這幾個(gè)平均值,希望能得到最接近真實(shí)的平均值。而bagging算法,是每次取多個(gè)樣本,然后基于這些樣本建模。當(dāng)要預(yù)測(cè)新數(shù)據(jù)的時(shí)候,之前建的這些模型都做次預(yù)測(cè),最后取這些預(yù)測(cè)值的平均數(shù),盡力接近真實(shí)的輸出值。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

隨機(jī)森林在這個(gè)基礎(chǔ)上稍微有點(diǎn)變化。它包含多個(gè)決策樹(shù)的分類器, 并且其輸出的類別是由個(gè)別樹(shù)輸出的類別的眾數(shù)而定。如果你的高方差算法取得了不錯(cuò)的結(jié)果(比方說(shuō)決策樹(shù)),那么用隨機(jī)森林的話會(huì)進(jìn)一步拿到更好的結(jié)果。

10提升(Boosting)算法和自適應(yīng)增強(qiáng)(Adaboost)算法

Boosting的核心是,對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來(lái),構(gòu)成一個(gè)更強(qiáng)的最終分類器(強(qiáng)分類器)。所得到的第二個(gè)弱分類器會(huì)糾正第一個(gè)弱分類器的誤差。弱分類器的不斷疊加,直到預(yù)測(cè)結(jié)果完美為止。Adaboost算法是首個(gè)成功用于二元分類問(wèn)題的提升算法。現(xiàn)在有很多提升方法都是基于Adaboost。

機(jī)器學(xué)習(xí)新手最適合學(xué)習(xí)的10個(gè)算法

AdaBoost適用于短的決策樹(shù)。在第一個(gè)樹(shù)建立出來(lái)之后,不同的樣本訓(xùn)練之后的表現(xiàn)可以作參考,用不同的樣本訓(xùn)練弱分類器,然后根據(jù)錯(cuò)誤率給樣本一個(gè)權(quán)重。很難預(yù)測(cè)的訓(xùn)練數(shù)據(jù)應(yīng)該給更多的權(quán)重,反過(guò)來(lái),好預(yù)測(cè)的就少一點(diǎn)權(quán)重。模型按順序一個(gè)一個(gè)建,每個(gè)訓(xùn)練數(shù)據(jù)的權(quán)重都會(huì)受到上一個(gè)決策樹(shù)表現(xiàn)的影響。當(dāng)所有的決策樹(shù)都建好之后,看新數(shù)據(jù)的預(yù)測(cè)表現(xiàn),結(jié)果準(zhǔn)不準(zhǔn)。因?yàn)橛?xùn)練數(shù)據(jù)對(duì)于矯正算法非常重要,所以要確保數(shù)據(jù)清洗干凈了,不要有奇奇怪怪的偏離值。

最后的最后面對(duì)海量的機(jī)器學(xué)習(xí)算法,萌新最愛(ài)問(wèn)的是,“我該選什么算法?”在回答這個(gè)問(wèn)題之前,要先想清楚:

1)數(shù)據(jù)的數(shù)量、質(zhì)量、本質(zhì);

2)可供計(jì)算的時(shí)間;

3)這個(gè)任務(wù)的緊急程度;

4)你用這個(gè)數(shù)據(jù)想做什么。

要知道,即使是老司機(jī),也無(wú)法閉著眼睛說(shuō)哪個(gè)算法能拿到最好的結(jié)果。還是得動(dòng)手試。其實(shí)機(jī)器學(xué)習(xí)的算法很多的,以上只是介紹用得比較多的類型,比較適合萌新試試手找找感覺(jué)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4575

    瀏覽量

    92337
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8320

    瀏覽量

    132165

原文標(biāo)題:機(jī)器學(xué)習(xí)萌新必學(xué)的Top10算法

文章出處:【微信號(hào):machinelearningai,微信公眾號(hào):機(jī)器學(xué)習(xí)算法與人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    PROTEL新手最適合的教程我是受益匪淺希望對(duì)你有用

    PROTEL新手最適合的教程我是受益匪淺希望對(duì)你有用,真的很適合新手使用我是學(xué)會(huì),你下載希望您多多留言,大家一起學(xué)習(xí)
    發(fā)表于 04-21 21:36

    如何挑選最適合的PXI/PXIe系統(tǒng)?

    影響PXI/PXIe系統(tǒng)散熱的要素是什么?如何配置風(fēng)扇,以取得風(fēng)扇最佳性能?如何挑選最適合的PXI/PXIe系統(tǒng)?
    發(fā)表于 05-08 08:03

    如何在STM板上使用機(jī)器學(xué)習(xí)算法對(duì)通過(guò)工業(yè)傳感器獲取的氣體傳感器數(shù)據(jù)進(jìn)行分類?

    我想在 STM 板上使用機(jī)器學(xué)習(xí)算法對(duì)通過(guò)工業(yè)傳感器獲取的氣體傳感器數(shù)據(jù)進(jìn)行分類。知道哪種 STM32 變體最適合此應(yīng)用嗎?
    發(fā)表于 01-10 07:10

    分享最適合新手入門的10機(jī)器學(xué)習(xí)算法

    經(jīng)驗(yàn)豐富的數(shù)據(jù)科學(xué)家,他也無(wú)法憑空判斷哪種算法表現(xiàn)得最好,一定是要嘗試之后才能下結(jié)論。除了上述10算法外,還有其他很多機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 01-24 15:59 ?1.3w次閱讀
    分享<b class='flag-5'>最適合</b><b class='flag-5'>新手</b>入門的<b class='flag-5'>10</b>種<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    新手如何接觸機(jī)器學(xué)習(xí)的這十大算法一定不能錯(cuò)過(guò)

    在神經(jīng)網(wǎng)絡(luò)的成功的帶動(dòng)下,越來(lái)越多的研究人員和開(kāi)發(fā)人員都開(kāi)始重新審視機(jī)器學(xué)習(xí),開(kāi)始嘗試用某些機(jī)器學(xué)習(xí)方法自動(dòng)解決可以輕松采集數(shù)據(jù)的問(wèn)題。然而,在眾多的
    發(fā)表于 03-16 22:39 ?1154次閱讀

    Python基礎(chǔ)教程之《Python機(jī)器學(xué)習(xí)—預(yù)測(cè)分析核心算法》免費(fèi)下載

     在學(xué)習(xí)和研究機(jī)器學(xué)習(xí)的時(shí)候,面臨令人眼花繚亂的算法機(jī)器學(xué)習(xí)新手往往會(huì)不知所措。本書(shū)從
    發(fā)表于 09-29 08:00 ?19次下載

    機(jī)器學(xué)習(xí)新手常犯的錯(cuò)誤怎么避免?

    機(jī)器學(xué)習(xí)中,有許多方法來(lái)構(gòu)建產(chǎn)品或解決方案,每種方法都假設(shè)不同的東西。很多時(shí)候,如何識(shí)別哪些假設(shè)是合理的并不明顯。剛接觸機(jī)器學(xué)習(xí)的人會(huì)犯錯(cuò)誤,事后想想,這些錯(cuò)誤往往會(huì)讓人覺(jué)得愚蠢。我
    的頭像 發(fā)表于 11-13 17:44 ?3287次閱讀

    2021年最適合機(jī)器學(xué)習(xí)初創(chuàng)公司進(jìn)行排名

    同期對(duì)數(shù)據(jù)科學(xué)家的需求增長(zhǎng)了37%。實(shí)際上,美國(guó)最新公布的一名機(jī)器學(xué)習(xí)工程師的平均基本工資為146,085美元。該工作網(wǎng)站發(fā)現(xiàn),2015年至2018年期間,機(jī)器學(xué)習(xí)工程師的空缺數(shù)量增長(zhǎng)
    的頭像 發(fā)表于 11-15 09:45 ?1877次閱讀

    機(jī)器學(xué)習(xí)新手基礎(chǔ):十大算法導(dǎo)覽

    機(jī)器學(xué)習(xí)中,有一個(gè)稱為 No Free Lunch 的定理。簡(jiǎn)單來(lái)說(shuō),與監(jiān)督學(xué)習(xí)特別相關(guān)的這個(gè)定理,它指出沒(méi)有萬(wàn)能算法,就是用一
    的頭像 發(fā)表于 11-27 10:00 ?2243次閱讀

    17個(gè)機(jī)器學(xué)習(xí)的常用算法

    根據(jù)數(shù)據(jù)類型的不同,對(duì)一個(gè)問(wèn)題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法學(xué)習(xí)方式。在
    的頭像 發(fā)表于 08-11 11:20 ?1744次閱讀

    10個(gè)機(jī)器學(xué)習(xí)中常用的距離度量方法

    作者:JonteDancker來(lái)源:DeepHubIMBA距離度量是有監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)算法的基礎(chǔ),包括k近鄰、支持向量機(jī)和k均值聚類等。距離度量的選擇影響我們的機(jī)器學(xué)習(xí)結(jié)果,因此考慮哪
    的頭像 發(fā)表于 11-03 10:35 ?681次閱讀
    <b class='flag-5'>10</b><b class='flag-5'>個(gè)</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>中常用的距離度量方法

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1004次閱讀

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么 機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn)

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么?機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1698次閱讀

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對(duì)比

    ,討論一些主要的機(jī)器學(xué)習(xí)算法,以及比較它們之間的優(yōu)缺點(diǎn),以便于您選擇適合算法。 一、機(jī)器
    的頭像 發(fā)表于 08-17 16:27 ?889次閱讀

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器學(xué)習(xí)預(yù)判有哪些算法?

    機(jī)器學(xué)習(xí)有哪些算法機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器
    的頭像 發(fā)表于 08-17 16:30 ?1884次閱讀