0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)算法基本概念及選用指南

Dbwd_Imgtec ? 來源:cc ? 2019-01-15 15:55 ? 次閱讀

本文對機(jī)器學(xué)習(xí)的一些基本概念給出了簡要的介紹,并對不同任務(wù)中使用不同類型的機(jī)器學(xué)習(xí)算法給出一點(diǎn)建議。

在從事數(shù)據(jù)科學(xué)工作的時候,經(jīng)常會遇到為具體問題選擇最合適算法的問題。雖然有很多有關(guān)機(jī)器學(xué)習(xí)算法的文章詳細(xì)介紹了相關(guān)的算法,但要做出最合適的選擇依然非常困難。

在這篇文章中,我將對一些基本概念給出簡要的介紹,對不同任務(wù)中使用不同類型的機(jī)器學(xué)習(xí)算法給出一點(diǎn)建議。在文章的最后,我將對這些算法進(jìn)行總結(jié)。

首先,你應(yīng)該能區(qū)分以下四種機(jī)器學(xué)習(xí)任務(wù):

監(jiān)督學(xué)習(xí)

無監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)

強(qiáng)化學(xué)習(xí)

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是從標(biāo)記的訓(xùn)練數(shù)據(jù)中推斷出某個功能。通過擬合標(biāo)注的訓(xùn)練集,找到最優(yōu)的模型參數(shù)來預(yù)測其他對象(測試集)上的未知標(biāo)簽。如果標(biāo)簽是一個實(shí)數(shù),我們稱之為回歸。如果標(biāo)簽來自有限數(shù)量的值,這些值是無序的,那么稱之為分類。

無監(jiān)督學(xué)習(xí)

在無監(jiān)督學(xué)習(xí)中,我們對于物體知道的信息比較少,特別是訓(xùn)練集沒有做過標(biāo)記。那現(xiàn)在的目標(biāo)是什么呢?觀察對象之間的相似性,并將它們劃分到不同的群組中。某些對象可能與其他群組中的對象都有很大的區(qū)別,那么我們就認(rèn)為這些對象是異常的。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)包括了前面描述的兩個問題:同時使用標(biāo)記和未標(biāo)記的數(shù)據(jù)。對于那些無法標(biāo)注所有數(shù)據(jù)的人來說,這是一個很好的方法。該方法能夠顯著提高準(zhǔn)確性,因?yàn)樵谑褂糜?xùn)練集中未標(biāo)記數(shù)據(jù)的同時,還能使用少量帶有標(biāo)記的數(shù)據(jù)。

強(qiáng)化學(xué)習(xí)

強(qiáng)化學(xué)習(xí)跟上面提到的方法不太一樣,因?yàn)樵谶@里并沒有標(biāo)記或未標(biāo)記的數(shù)據(jù)集。強(qiáng)化學(xué)習(xí)涉及到軟件代理應(yīng)該如何在某些環(huán)境中采取行動來最大化累積獎勵。

想象一下,你是一個在陌生環(huán)境中的機(jī)器人,你可以執(zhí)行一些動作,并從中獲得獎勵。在每執(zhí)行一個動作之后,你的行為會變得越來越復(fù)雜越來越聰明,也就是說 ,你正在訓(xùn)練自己在執(zhí)行每一個動作之后讓自己表現(xiàn)得更為有效。在生物學(xué)中,這被稱為適應(yīng)自然環(huán)境。

常用的機(jī)器學(xué)習(xí)算法

現(xiàn)在,我們對機(jī)器學(xué)習(xí)的類型有了一定的了解,下面,我們來看一下最流行的算法及其在現(xiàn)實(shí)生活中的應(yīng)用。

線性回歸和線性分類器

這些可能是機(jī)器學(xué)習(xí)中最簡單的算法了。假設(shè)有對象(矩陣A)的特征x1,... xn和標(biāo)簽(向量B)。我們的目標(biāo)是根據(jù)某些損失函數(shù)(例如MSE或MAE)找到最優(yōu)權(quán)重w1,... wn和這些特征的偏差。 在使用MSE的情況下,有一個來自最小二乘法的數(shù)學(xué)公式:

在實(shí)踐中,使用梯度下降來進(jìn)行優(yōu)化則更為容易,計算上更有效率。盡管這個算法很簡單,但是在存在成千上萬個特征的時候,這個方法依然能夠表現(xiàn)良好。更復(fù)雜的算法可能會遇到過擬合特征或者是沒有足夠大的數(shù)據(jù)集的問題,而線性回歸則是一個不錯的選擇。

為了防止過擬合,可使用像lasso和ridge這樣的規(guī)則化技術(shù)。其主要思路是分別把權(quán)重總和以及權(quán)重平方的總和加到損失函數(shù)中。

邏輯回歸

邏輯回歸執(zhí)行的是二元分類,所以輸出的標(biāo)簽是二元的。給定輸入特征向量x,定義P(y=1|x)為輸出y等于1時的條件概率。系數(shù)w是模型要學(xué)習(xí)的權(quán)重。

由于該算法需要計算每個類別的歸屬概率,因此應(yīng)該考慮概率與0或1的差異程度,并像在線性回歸中一樣對所有對象取平均值。這種損失函數(shù)是交叉熵的平均值:

邏輯回歸有什么好處呢?它采用了線性組合的特征,并對其應(yīng)用非線性函數(shù)(sigmoid),所以它是一個非常小的神經(jīng)網(wǎng)絡(luò)實(shí)例!

決策樹

另一個比較流行、并且容易理解的算法是決策樹。它的圖形能讓你看到你自己的想法,它的引擎有一個系統(tǒng)的、有記錄的思考過程。

這個算法很簡單。在每個節(jié)點(diǎn)中,我們選擇所有特征和所有可能的分割點(diǎn)之間的最佳分割。選擇每個分割以最大化某些功能。在分類樹中使用交叉熵和基尼指數(shù)。在回歸樹中,最小化該區(qū)域中的點(diǎn)的目標(biāo)值的預(yù)測變量與分配給它的點(diǎn)之間的平方誤差的總和。

算法會在每個節(jié)點(diǎn)上遞歸地完成這個過程,直到滿足停止條件為止。

K-means

有的時候你并不知道標(biāo)簽,而目標(biāo)是根據(jù)對象的特征來分配標(biāo)簽。這被稱為集聚化任務(wù)。

假設(shè)要把所有的數(shù)據(jù)對象分成k個簇,則需要從數(shù)據(jù)中隨機(jī)選擇k個點(diǎn),并將它們命名為簇的中心。其他對象的簇由最近的簇中心定義。然后,聚類的中心會被轉(zhuǎn)換并重復(fù)該過程直到收斂。

雖然這個技術(shù)非常不錯,但它仍然有一些缺點(diǎn)。首先,我們并不知道簇的數(shù)量。其次,結(jié)果依賴開始時隨機(jī)選擇的那個點(diǎn),算法無法保證我們能夠?qū)崿F(xiàn)功能的全局最小值。

主成分分析(PCA)

昨晚或者最近的幾個小時里你有沒有在準(zhǔn)備考試?你無法記住所有的信息,但是想要在可用的時間內(nèi)最大限度地記住信息,例如,首先學(xué)習(xí)考試中經(jīng)常出現(xiàn)的定理等等。

主成分分析基于類似的思想。該算法提供了降維的功能。有時,你有很多的特征,并且彼此之間強(qiáng)相關(guān),模型可以很容易地適應(yīng)大量的數(shù)據(jù)。然后,你可以應(yīng)用PCA。

你應(yīng)該計算某些向量上的投影,以使數(shù)據(jù)的方差最大化,并盡可能少地丟失信息。而這些向量是來自數(shù)據(jù)集特征的相關(guān)矩陣的特征向量。

算法的內(nèi)容現(xiàn)在已經(jīng)很清楚了:

計算特征列的相關(guān)矩陣,找出該矩陣的特征向量。

將這些多維向量計算出來,并計算所有特征的投影。

新特征是投影中的坐標(biāo),其數(shù)量取決于投影的特征向量的數(shù)量。

神經(jīng)網(wǎng)絡(luò)

在上文講到邏輯回歸的時候,就已經(jīng)提到了神經(jīng)網(wǎng)絡(luò)。在一些具體的任務(wù)中,有很多不同的體系結(jié)構(gòu)都非常有價值。而神經(jīng)網(wǎng)絡(luò)更多的時候是一系列的層或組件,它們之間存在線性連接并遵循非線性。

如果你正在處理圖像,那么卷積深度神經(jīng)網(wǎng)絡(luò)能展現(xiàn)出不錯的結(jié)果。而非線性則通過卷積層和匯聚層表現(xiàn)出來,它能夠捕捉圖像的特征。

要處理文本和序列,最好選擇遞歸神經(jīng)網(wǎng)絡(luò)。 RNN包含了LSTM或GRU模塊,并且能夠數(shù)據(jù)一同使用。也許,最有名的RNN應(yīng)用是機(jī)器翻譯吧。

結(jié)論

我希望能向大家解釋最常用的機(jī)器學(xué)習(xí)算法,并就針對具體問題如何選擇機(jī)器學(xué)習(xí)算法提供建議。為了能讓你更輕松的掌握這些內(nèi)容,我準(zhǔn)備了下面這個總結(jié)。

線性回歸和線性分類器。盡管看起來簡單,但當(dāng)其他算法在大量特征上遇到過擬合的問題時,它的優(yōu)勢就表現(xiàn)出來了。

Logistic回歸是最簡單的非線性分類器,具有二元分類的參數(shù)和非線性函數(shù)(S形)的線性組合。

決策樹通常與人類的決策過程相似,并且易于解釋。但它們最常用于隨機(jī)森林或梯度增強(qiáng)這樣的組合中。

K-means是一個更原始、但又非常容易理解的算法。

PCA是降低信息損失最少的特征空間維度的絕佳選擇。

神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)算法的新武器,可以應(yīng)用于許多任務(wù),但其訓(xùn)練的計算復(fù)雜度相當(dāng)大。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)算法選用指南

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    諧波的概念及應(yīng)用

    本文簡單介紹了諧波的概念及應(yīng)用。
    的頭像 發(fā)表于 10-18 14:14 ?105次閱讀
    諧波的<b class='flag-5'>概念及</b>應(yīng)用

    S參數(shù)的概念及應(yīng)用

    電子發(fā)燒友網(wǎng)站提供《S參數(shù)的概念及應(yīng)用.pdf》資料免費(fèi)下載
    發(fā)表于 08-12 14:29 ?0次下載

    繼電器電感的基本概念及分類

    重要的影響。 一、繼電器電感的基本概念 電感的定義 電感是指導(dǎo)體在磁場中運(yùn)動時,由于電磁感應(yīng)作用而產(chǎn)生的電動勢。電感的大小與導(dǎo)體的長度、截面積、形狀以及磁場的強(qiáng)度有關(guān)。 電感的單位 電感的單位是亨利(H),常用的單位還有毫亨
    的頭像 發(fā)表于 07-24 09:41 ?367次閱讀

    BP網(wǎng)絡(luò)的基本概念和訓(xùn)練原理

    )的多層前饋神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)自1985年提出以來,因其強(qiáng)大的學(xué)習(xí)和適應(yīng)能力,在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、模式識別等領(lǐng)域得到了廣泛應(yīng)用。以下將對BP網(wǎng)絡(luò)的基本概念、訓(xùn)練原理及其優(yōu)缺點(diǎn)進(jìn)行詳細(xì)
    的頭像 發(fā)表于 07-19 17:24 ?993次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積層和池化層堆疊而成。卷積層負(fù)責(zé)提取圖像中的局部特征,而池化層則
    的頭像 發(fā)表于 07-11 14:38 ?539次閱讀

    nlp自然語言處理基本概念及關(guān)鍵技術(shù)

    、問答系統(tǒng)、文本摘要等眾多領(lǐng)域有著廣泛的應(yīng)用。 1. NLP的基本概念 1.1 語言模型 語言模型是NLP的基礎(chǔ),它用于描述一個句子在自然語言中出現(xiàn)的概率。語言模型通常用于文本生成、機(jī)器翻譯、語音識別等領(lǐng)域。 1.2 詞向量 詞向量是將自然語言中的詞匯映射到高維空間的向量
    的頭像 發(fā)表于 07-09 10:32 ?362次閱讀

    遷移學(xué)習(xí)基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個重要概念,其核心思想是利用在一個任務(wù)或領(lǐng)域中學(xué)到的知識來加速或改進(jìn)另一個相關(guān)任務(wù)或領(lǐng)域的
    的頭像 發(fā)表于 07-04 17:30 ?961次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個重要分支,其目標(biāo)是通過讓計算機(jī)自動從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無需進(jìn)行明確的編程。本文將深入解讀幾種常見的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-02 11:25 ?531次閱讀

    機(jī)器學(xué)習(xí)的經(jīng)典算法與應(yīng)用

    關(guān)于數(shù)據(jù)機(jī)器學(xué)習(xí)就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應(yīng)的關(guān)系。Iris鳶尾花數(shù)據(jù)集是一個經(jīng)典數(shù)據(jù)集,在統(tǒng)計學(xué)習(xí)
    的頭像 發(fā)表于 06-27 08:27 ?1496次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的經(jīng)典<b class='flag-5'>算法</b>與應(yīng)用

    串口通信的基本概念

    串口通信(Serial Communications)的基本概念可以歸納為以下幾個方面:
    的頭像 發(fā)表于 06-12 09:28 ?458次閱讀
    串口通信的<b class='flag-5'>基本概念</b>

    機(jī)器學(xué)習(xí)入門:基本概念介紹

    機(jī)器學(xué)習(xí)(GraphMachineLearning,簡稱GraphML)是機(jī)器學(xué)習(xí)的一個分支,專注于利用圖形結(jié)構(gòu)的數(shù)據(jù)。在圖形結(jié)構(gòu)中,數(shù)據(jù)以圖的形式表示,其中的節(jié)點(diǎn)(或頂點(diǎn))表示實(shí)體
    的頭像 發(fā)表于 05-16 08:27 ?439次閱讀
    圖<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>入門:<b class='flag-5'>基本概念</b>介紹

    萬用表的基本概念及結(jié)構(gòu)組成

    在電子測試領(lǐng)域,萬用表被譽(yù)為“全能戰(zhàn)士”。其強(qiáng)大的功能和廣泛的應(yīng)用使其成為電子工程師、維修人員和技術(shù)人員不可或缺的測量工具。本文將詳細(xì)介紹萬用表的基本概念、結(jié)構(gòu)組成以及應(yīng)用,帶您領(lǐng)略萬用表的獨(dú)特魅力。
    的頭像 發(fā)表于 05-10 15:05 ?1180次閱讀

    接地裝置的基本概念

    接地裝置的基本概念
    的頭像 發(fā)表于 12-05 15:49 ?504次閱讀
    接地裝置的<b class='flag-5'>基本概念</b>

    軟開關(guān)的基本概念及分類 典型的軟開關(guān)電路介紹

    軟開關(guān)技術(shù)的主要內(nèi)容有:軟開關(guān)的基本概念、軟開關(guān)電路的分類、典型的軟開關(guān)電路、軟開關(guān)技術(shù)新進(jìn)展等。
    的頭像 發(fā)表于 11-22 16:08 ?1576次閱讀
    軟開關(guān)的<b class='flag-5'>基本概念及</b>分類 典型的軟開關(guān)電路介紹

    線程池基本概念與原理

    一、線程池基本概念與原理 1.1 線程池概念及優(yōu)勢 C++線程池簡介 線程池是一種并發(fā)編程技術(shù),它能有效地管理并發(fā)的線程、減少資源占用和提高程序的性能。C++線程池通過庫,結(jié)合C++ 11、14
    的頭像 發(fā)表于 11-10 10:24 ?444次閱讀