0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

Hx ? 作者:工程師陳翠 ? 2018-06-30 05:26 ? 次閱讀

在解釋機(jī)器學(xué)習(xí)的基本概念的時候,我發(fā)現(xiàn)自己總是回到有限的幾幅圖中。以下是我認(rèn)為最有啟發(fā)性的條目列表。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

1. Test and training error: 為什么低訓(xùn)練誤差并不總是一件好的事情呢:ESL 圖2.11.以模型復(fù)雜度為變量的測試及訓(xùn)練錯誤函數(shù)。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

2. Under and overfitting: 低度擬合或者過度擬合的例子。PRML 圖1.4.多項(xiàng)式曲線有各種各樣的命令M,以紅色曲線表示,由綠色曲線適應(yīng)數(shù)據(jù)集后生成。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

3. Occam’s razor

ITILA 圖28.3.為什么貝葉斯推理可以具體化奧卡姆剃刀原理。這張圖給了為什么復(fù)雜模型原來是小概率事件這個問題一個基本的直觀的解釋。水平軸代表了可能的數(shù)據(jù)集D空間。貝葉斯定理以他們預(yù)測的數(shù)據(jù)出現(xiàn)的程度成比例地反饋模型。這些預(yù)測被數(shù)據(jù)D上歸一化概率分布量化。數(shù)據(jù)的概率給出了一種模型Hi,P(D|Hi)被稱作支持Hi模型的證據(jù)。一個簡單的模型H1僅可以做到一種有限預(yù)測,以P(D|H1)展示;一個更加強(qiáng)大的模型H2,舉例來說,可以比模型H1擁有更加自由的參數(shù),可以預(yù)測更多種類的數(shù)據(jù)集。這也表明,無論如何,H2在C1域中對數(shù)據(jù)集的預(yù)測做不到像H1那樣強(qiáng)大。假設(shè)相等的先驗(yàn)概率被分配給這兩種模型,之后數(shù)據(jù)集落在C1區(qū)域,不那么強(qiáng)大的模型H1將會是更加合適的模型。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

4. Feature combinations:

(1)為什么集體相關(guān)的特征單獨(dú)來看時無關(guān)緊要,這也是(2)線性方法可能會失敗的原因。從Isabelle Guyon特征提取的幻燈片來看。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

5. Irrelevant features:

為什么無關(guān)緊要的特征會損害KNN,聚類,以及其它以相似點(diǎn)聚集的方法。左右的圖展示了兩類數(shù)據(jù)很好地被分離在縱軸上。右圖添加了一條不切題的橫軸,它破壞了分組,并且使得許多點(diǎn)成為相反類的近鄰。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

6. Basis functions

非線性的基礎(chǔ)函數(shù)是如何使一個低維度的非線性邊界的分類問題,轉(zhuǎn)變?yōu)橐粋€高維度的線性邊界問題。Andrew Moore的支持向量機(jī)SVM(Support Vector Machine)教程幻燈片中有:一個單維度的非線性帶有輸入x的分類問題轉(zhuǎn)化為一個2維的線性可分的z=(x,x^2)問題。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

7. Discriminative vs. Generative:

為什么判別式學(xué)習(xí)比產(chǎn)生式更加簡單:PRML 圖1.27.這兩類方法的分類條件的密度舉例,有一個單一的輸入變量x(左圖),連同相應(yīng)的后驗(yàn)概率(右圖)。注意到左側(cè)的分類條件密度p(x|C1)的模式,在左圖中以藍(lán)色線條表示,對后驗(yàn)概率沒有影響。右圖中垂直的綠線展示了x中的決策邊界,它給出了最小的誤判率。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

8. Loss functions:

學(xué)習(xí)算法可以被視作優(yōu)化不同的損失函數(shù):PRML 圖7.5. 應(yīng)用于支持向量機(jī)中的“鉸鏈”錯誤函數(shù)圖形,以藍(lán)色線條表示,為了邏輯回歸,隨著錯誤函數(shù)被因子1/ln(2)重新調(diào)整,它通過點(diǎn)(0,1),以紅色線條表示。黑色線條表示誤分,均方誤差以綠色線條表示。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

9. Geometry of least squares:

ESL 圖3.2.帶有兩個預(yù)測的最小二乘回歸的N維幾何圖形。結(jié)果向量y正交投影到被輸入向量x1和x2所跨越的超平面。投影y^代表了最小二乘預(yù)測的向量。

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

10. Sparsity:

為什么Lasso算法(L1正規(guī)化或者拉普拉斯先驗(yàn))給出了稀疏的解決方案(比如:帶更多0的加權(quán)向量):ESL 圖3.11.lasso算法的估算圖像(左)以及嶺回歸算法的估算圖像(右)。展示了錯誤的等值線以及約束函數(shù)。分別的,當(dāng)紅色橢圓是最小二乘誤差函數(shù)的等高線時,實(shí)心的藍(lán)色區(qū)域是約束區(qū)域|β1| + |β2| ≤ t以及β12 + β22 ≤ t2。

英文原文:

I find myself coming back to the same few pictures when explaining basic machine learning concepts. Below is a list I find most illuminating.

我發(fā)現(xiàn)自己在解釋基本的機(jī)器學(xué)習(xí)概念時經(jīng)常碰到少數(shù)相同的圖片。下面列舉了我認(rèn)為最有啟發(fā)性的圖片。

1. Test and training error(測試和訓(xùn)練錯誤): Why lower training error is not always a good thing: ESL Figure 2.11. Test and training error as a function of model complexity.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

2. Under and overfitting(欠擬合和過擬合): PRML Figure 1.4. Plots of polynomials having various orders M, shown as red curves, fitted to the data set generated by the green curve.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

3. Occam’s razor(奧卡姆剃刀): ITILA Figure 28.3. Why Bayesian inference embodies Occam’s razor. This figure gives the basic intuition for why complex models can turn out to be less probable. The horizontal axis represents the space of possible data sets D. Bayes’ theorem rewards models in proportion to how much they predicted the data that occurred. These predictions are quantified by a normalized probability distribution on D. This probability of the data given model Hi, P (D | Hi), is called the evidence for Hi. A simple model H1 makes only a limited range of predictions, shown by P(D|H1); a more powerful model H2, that has, for example, more free parameters than H1, is able to predict a greater variety of data sets. This means, however, that H2 does not predict the data sets in region C1 as strongly as H1. Suppose that equal prior probabilities have been assigned to the two models. Then, if the data set falls in region C1, the less powerful model H1 will be the more probable model.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

4. Feature combinations(Feature組合): (1) Why collectively relevant features may look individually irrelevant, and also (2) Why linear methods may fail. From Isabelle Guyon’s feature extraction slides.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

5. Irrelevant features(不相關(guān)特征): Why irrelevant features hurt kNN, clustering, and other similarity based methods. The figure on the left shows two classes well separated on the vertical axis. The figure on the right adds an irrelevant horizontal axis which destroys the grouping and makes many points nearest neighbors of the opposite class.

6. Basis functions(基函數(shù)): How non-linear basis functions turn a low dimensional classification problem without a linear boundary into a high dimensional problem with a linear boundary. From SVM tutorial slides by Andrew Moore: a one dimensional non-linear classification problem with input x is turned into a 2-D problem z=(x, x^2) that is linearly separable.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

7. Discriminative vs. Generative(判別與生成): Why discriminative learning may be easier than generative: PRML Figure 1.27. Example of the class-conditional densities for two classes having a single input variable x (left plot) together with the corresponding posterior probabilities (right plot)。 Note that the left-hand mode of the class-conditional density p(x|C1), shown in blue on the left plot, has no effect on the posterior probabilities. The vertical green line in the right plot shows the decision boundary in x that gives the minimum misclassification rate.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

8. Loss functions(損失函數(shù)): Learning algorithms can be viewed as optimizing different loss functions: PRML Figure 7.5. Plot of the ‘hinge’ error function used in support vector machines, shown in blue, along with the error function for logistic regression, rescaled by a factor of 1/ln(2) so that it passes through the point (0, 1), shown in red. Also shown are the misclassification error in black and the squared error in green.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

9. Geometry of least squares(最小二乘的幾何圖形): ESL Figure 3.2. The N-dimensional geometry of least squares regression with two predictors. The outcome vector y is orthogonally projected onto the hyperplane spanned by the input vectors x1 and x2. The projection y? represents the vector of the least squares predictions.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

10. Sparsity(稀疏性): Why Lasso (L1 regularization or Laplacian prior) gives sparse solutions (i.e. weight vectors with more zeros): ESL Figure 3.11. Estimation picture for the lasso (left) and ridge regression (right)。 Shown are contours of the error and constraint functions. The solid blue areas are the constraint regions |β1| + |β2| ≤ t and β12 + β22 ≤ t2, respectively, while the red ellipses are the contours of the least squares error function.

什么是機(jī)器學(xué)習(xí)_十張圖帶你解析機(jī)器學(xué)習(xí)的基本概念

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    探討機(jī)器學(xué)習(xí)與深度學(xué)習(xí)基本概念與運(yùn)算過程

    人工智慧隸屬于大範(fàn)疇,包含了機(jī)器學(xué)習(xí)(Machine Learning) 與深度學(xué)習(xí)(Deep Learning)。如下圖所示,我們最興趣的深度學(xué)習(xí)則是規(guī)範(fàn)于
    的頭像 發(fā)表于 12-18 15:45 ?4226次閱讀
    探討<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>與深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>基本概念</b>與運(yùn)算過程

    機(jī)器學(xué)習(xí)實(shí)踐指南——案例應(yīng)用解析

    機(jī)器學(xué)習(xí)實(shí)踐指南——案例應(yīng)用解析
    發(fā)表于 04-13 16:40

    人工智能基本概念機(jī)器學(xué)習(xí)算法

    目錄人工智能基本概念機(jī)器學(xué)習(xí)算法1. 決策樹2. KNN3. KMEANS4. SVM5. 線性回歸深度學(xué)習(xí)算法1. BP2. GANs3. CNN4. LSTM應(yīng)用人工智能
    發(fā)表于 09-06 08:21

    什么是機(jī)器學(xué)習(xí)? 機(jī)器學(xué)習(xí)基礎(chǔ)入門

    本文旨在為硬件和嵌入式工程師提供機(jī)器學(xué)習(xí)(ML)的背景,它是什么,它是如何工作的,它為什么重要,以及 TinyML 是如何適應(yīng)的機(jī)器學(xué)習(xí)是一個始終存在并經(jīng)常被誤解的技術(shù)
    發(fā)表于 06-21 11:06

    詳細(xì)闡述機(jī)器學(xué)習(xí)基本概念

    《《機(jī)器學(xué)習(xí)導(dǎo)論》第1章緒論,本章詳細(xì)地討論一些應(yīng)用領(lǐng)域的例子,以進(jìn)一步深入了解機(jī)器學(xué)習(xí)的類型和用途。本節(jié)為大家介紹什么是機(jī)器
    的頭像 發(fā)表于 07-07 09:05 ?4905次閱讀

    機(jī)器學(xué)習(xí)是什么?10幅帶你詳細(xì)的了解機(jī)器學(xué)習(xí)

    本文的幾幅是我認(rèn)為在解釋機(jī)器學(xué)習(xí)基本概念時最有啟發(fā)性的條目列表。
    的頭像 發(fā)表于 09-09 09:03 ?4910次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>是什么?10幅<b class='flag-5'>圖</b><b class='flag-5'>帶你</b>詳細(xì)的了解<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    機(jī)器學(xué)習(xí)教程之機(jī)器學(xué)習(xí)概念的深度解析

    時無時無刻不伴隨,相關(guān)而不是因果的概念將是支撐機(jī)器學(xué)習(xí)能夠工作的核心概念。你會顛覆對你以前所有程序中建立的因果無
    的頭像 發(fā)表于 12-08 11:51 ?3781次閱讀

    機(jī)器學(xué)習(xí)算法基本概念及選用指南

    本文對機(jī)器學(xué)習(xí)的一些基本概念給出了簡要的介紹,并對不同任務(wù)中使用不同類型的機(jī)器學(xué)習(xí)算法給出一點(diǎn)建議。
    的頭像 發(fā)表于 01-15 15:55 ?2637次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>算法<b class='flag-5'>基本概念</b>及選用指南

    機(jī)器學(xué)習(xí)全面解析

    機(jī)器學(xué)習(xí)是一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)等多門學(xué)科。機(jī)器學(xué)習(xí)概念就是通過輸入海量訓(xùn)練數(shù)據(jù)對模型進(jìn)行訓(xùn)練,使模型掌握數(shù)據(jù)
    的頭像 發(fā)表于 04-15 17:39 ?4368次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>全面<b class='flag-5'>解析</b>

    2020年機(jī)器學(xué)習(xí)的發(fā)展趨勢

    本文寫作目的并非介紹機(jī)器學(xué)習(xí)基本概念,如圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN),而是揭示我們可以在頂級學(xué)術(shù)會議上看到的前沿研究。首先,我把在
    的頭像 發(fā)表于 08-31 11:08 ?2664次閱讀

    常用機(jī)器學(xué)習(xí)算法的基本概念和特點(diǎn)

    。因此對于數(shù)據(jù)科學(xué)家來說,理解算法顯得格外重要,理解不同算法的思想可以幫助數(shù)據(jù)科學(xué)家更從容地面對不同的應(yīng)用場景。 本文列出了常用的機(jī)器學(xué)習(xí)算法的基本概念、主要特點(diǎn)和適用場景,希望可以在大家選擇合適的
    的頭像 發(fā)表于 01-17 15:43 ?3406次閱讀

    深度學(xué)習(xí)基本概念

    深度學(xué)習(xí)基本概念? 深度學(xué)習(xí)是人工智能(AI)領(lǐng)域的一個重要分支,它模仿人類神經(jīng)系統(tǒng)的工作方式,使用大量數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò),從而實(shí)現(xiàn)自動化的模式識別和決策。在科技發(fā)展的今天,深度學(xué)習(xí)已經(jīng)
    的頭像 發(fā)表于 08-17 16:02 ?1717次閱讀

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對比

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對比 機(jī)器
    的頭像 發(fā)表于 08-17 16:27 ?890次閱讀

    機(jī)器學(xué)習(xí)theta是什么?機(jī)器學(xué)習(xí)tpe是什么?

    機(jī)器學(xué)習(xí)theta是什么?機(jī)器學(xué)習(xí)tpe是什么? 機(jī)器學(xué)習(xí)是近年來蓬勃發(fā)展的一個領(lǐng)域,其相關(guān)技術(shù)
    的頭像 發(fā)表于 08-17 16:30 ?1772次閱讀

    機(jī)器學(xué)習(xí)入門:基本概念介紹

    機(jī)器學(xué)習(xí)(GraphMachineLearning,簡稱GraphML)是機(jī)器學(xué)習(xí)的一個分支,專注于利用圖形結(jié)構(gòu)的數(shù)據(jù)。在圖形結(jié)構(gòu)中,數(shù)據(jù)
    的頭像 發(fā)表于 05-16 08:27 ?439次閱讀
    <b class='flag-5'>圖</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>入門:<b class='flag-5'>基本概念</b>介紹