0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實例:如何建立一個線性分類器并進行優(yōu)化

zhKF_jqr_AI ? 來源:未知 ? 作者:易水寒 ? 2017-12-22 11:44 ? 次閱讀

之前,論智曾在TOP 10:初學(xué)者需要掌握的10大機器學(xué)習(xí)(ML)算法介紹了一些基礎(chǔ)算法及其思路,為了與該帖聯(lián)動,我們特從機器學(xué)習(xí)熱門課程HSE的Introduction to Deep Learning和吳恩達的Neural Networks and Deep Learning中挑選了一些題目,演示Python、TensorFlow和Keras在深度學(xué)習(xí)中的實戰(zhàn)應(yīng)用.

如何建立一個線性分類器并進行優(yōu)化.

在這個任務(wù)中,我們將實現(xiàn)一個線性分類器,并用numpy和隨機梯度下降算法對它進行訓(xùn)練。

二元分類

為了更直觀,我們用人造數(shù)據(jù)(synthetic data)解決二元分類問題。

上圖中有紅、藍兩類數(shù)據(jù),從分布上看它們不是線性可分的。所以為了分類,我們應(yīng)該在里面添加特征或使用非線性模型。請注意,圖中兩類數(shù)據(jù)的決策邊緣都呈圓形,這意味著我們能通過建立二元特征來使它們線性分離,具體思路如下圖所示:

用expand函數(shù)添加二次函數(shù)后,我們得到了這樣的測試結(jié)果:

  1. # 簡單的隨機數(shù)測試

  2. dummy_X = np.array([

  3. [0,0],

  4. [1,0],

  5. [2.61,-1.28],

  6. [-0.59,2.1]

  7. ])

  8. # 調(diào)用expand函數(shù)

  9. dummy_expanded = expand(dummy_X)

  10. # 它應(yīng)該返回這些值: x0 x1 x0^2 x1^2 x0*x1 1

  11. dummy_expanded_ans = np.array([[0. , 0. , 0. , 0. , 0. , 1. ],

  12. [1. , 0. , 1. , 0. , 0. , 1. ],

  13. [2.61, -1.28, 6.8121, 1.6384, -3.3408, 1. ],

  14. [-0.59, 2.1 , 0.3481, 4.41, -1.239, 1. ]])

logistic回歸

曾經(jīng)我們提到過,logistic回歸非常適合二元分類問題。為了分類對象,我們需要預(yù)測對象表示為1(默認類)的概率,這就需要用到線性模型和邏輯函數(shù)的輸出:

  1. defprobability(X, w):

  2. """

  3. 對輸入賦值特征和權(quán)值

  4. 根據(jù)上式,返回輸入x后y==1的預(yù)測概率,P(y=1|x)

  5. :參數(shù) X: feature matrix X of shape [n_samples,6] (expanded) →特征矩陣X

  6. :參數(shù) w: weight vector w of shape [6] for each of the expanded features →權(quán)值向量w

  7. :返回值: 范圍在 [0,1] 之間的一系列概率.

  8. """

  9. return1./ (1+ np.exp(-np.dot(X, w)))

在logistic回歸中,我們能通過最小化交叉熵發(fā)現(xiàn)最優(yōu)參數(shù)w:

實例:如何建立一個線性分類器并進行優(yōu)化
  1. defcompute_loss(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計算標量的損失函數(shù).

  5. """

  6. return-np.mean(y*np.log(probability(X, w)) + (1-y)*np.log(1-probability(X, w)))

由于用了梯度下降算法訓(xùn)練模型,我們還需要計算梯度,具體來說,就是要對每個權(quán)值的損失函數(shù)求導(dǎo):

以下是具體的數(shù)學(xué)計算過程(也可點擊https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression/2539508#2539508查看):

實例:如何建立一個線性分類器并進行優(yōu)化
  1. defcompute_grad(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計算每個權(quán)值的導(dǎo)數(shù)vector [6].

  5. """

  6. returnnp.dot((probability(X, w) - y), X) / X.shape[0]

訓(xùn)練

現(xiàn)在我們已經(jīng)建立了函數(shù),接下來就該用隨機梯度下降訓(xùn)練分類器了。我們將試著調(diào)試超參數(shù),如batch size、學(xué)習(xí)率等,來獲得最佳設(shè)置。

Mini-batch SGD

不同于滿梯度下降,隨機梯度下降在每次迭代中只需要一個隨機樣本來計算其損失的梯度,并進入下一個步驟:

  1. w = np.array([0,0,0,0,0,1])# 初始化

  2. eta =0.05# 學(xué)習(xí)率

  3. n_iter =100

  4. batch_size =4

  5. loss = np.zeros(n_iter)

  6. foriinrange(n_iter):

  7. ind = np.random.choice(X_expanded.shape[0], batch_size)

  8. loss[i] = compute_loss(X_expanded, y, w)

  9. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  10. w = w - eta*dw

下圖展示了當batch size=4時,決策面(decision surface)和交叉熵損失函數(shù)如何隨著不同batch的SGD發(fā)生變化。

實例:如何建立一個線性分類器并進行優(yōu)化

左:決策面;右:損失函數(shù)

用Momentum優(yōu)化SGD

Momentum是模擬物理里動量的概念,如下圖所示,它能在相關(guān)方向加速SGD,抑制振蕩,從而加快收斂。從計算角度說,就是對上一步驟更新向量和當前更新向量做加權(quán)平均,將其用于當前計算。

實例:如何建立一個線性分類器并進行優(yōu)化

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. nu = np.zeros_like(w)

  4. n_iter =100

  5. batch_size =4

  6. loss = np.zeros(n_iter)

  7. foriinrange(n_iter):

  8. ind = np.random.choice(X_expanded.shape[0], batch_size)

  9. loss[i] = compute_loss(X_expanded, y, w)

  10. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  11. nu = alpha*nu + eta*dw

  12. w = w - nu

下圖展示了引入Momentum后,當batch size=4時相應(yīng)決策面和交叉熵損失函數(shù)隨不同batch SGD+momentum發(fā)生的變化。可以看出,損失函數(shù)下降速度明顯加快,更快收斂。

實例:如何建立一個線性分類器并進行優(yōu)化

左:決策面;右:損失函數(shù)

RMSprop

加快收斂速度后,之后我們要做的是調(diào)整超參數(shù)學(xué)習(xí)率,這里我們介紹Hinton老爺子的RMSprop。這是一種十分高效的算法,利用梯度的平方來調(diào)整學(xué)習(xí)率:

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. G = np.zeros_like(w)

  4. eps =1e-8

  5. n_iter =100

  6. batch_size =4

  7. loss = np.zeros(n_iter)

  8. foriinrange(n_iter):

  9. ind = np.random.choice(X_expanded.shape[0], batch_size)

  10. loss[i] = compute_loss(X_expanded, y, w)

  11. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  12. G = alpha*G + (1-alpha)*dw**2

  13. w = w - eta*dw / np.sqrt(G + eps)

下圖是使用了SGD + RMSProp后決策面和損失函數(shù)的變化情況,較之之前,函數(shù)下降更快,收斂也更快。

實例:如何建立一個線性分類器并進行優(yōu)化


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    144

    瀏覽量

    34533
  • 線性分類器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1423

原文標題:課后作業(yè)(一):如何建立一個線性分類器并進行優(yōu)化

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    多功能UC1834優(yōu)化線性調(diào)節(jié)效率

    電子發(fā)燒友網(wǎng)站提供《多功能UC1834優(yōu)化線性調(diào)節(jié)效率.pdf》資料免費下載
    發(fā)表于 10-24 09:51 ?0次下載
    多功能UC1834<b class='flag-5'>優(yōu)化</b><b class='flag-5'>線性</b>調(diào)節(jié)<b class='flag-5'>器</b>效率

    電源變換分類有哪些

    電源變換是將種形式的電能轉(zhuǎn)換為另種形式的設(shè)備,它們在電子設(shè)備和電力系統(tǒng)中扮演著重要的角色。電源變換分類非常廣泛,可以根據(jù)不同的標準
    的頭像 發(fā)表于 09-30 09:36 ?262次閱讀

    常用連接分類有哪些

    常用連接分類多種多樣,每種類型都根據(jù)其特定的應(yīng)用場合和設(shè)計特點進行劃分。以下是對常用連接
    的頭像 發(fā)表于 09-10 10:32 ?439次閱讀

    新加坡服務(wù)延遲大嗎?如何進行優(yōu)化

    新加坡服務(wù)的延遲通常在全國平均延遲111ms左右,其中移動網(wǎng)絡(luò)約為90ms,聯(lián)通網(wǎng)絡(luò)106ms,電信網(wǎng)絡(luò)最低約為85ms。為了進行優(yōu)化,般可以采取使用CDN、
    的頭像 發(fā)表于 08-09 13:58 ?140次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在語言特征信號分類中的應(yīng)用

    Network),即反向傳播神經(jīng)網(wǎng)絡(luò),作為種強大的多層前饋神經(jīng)網(wǎng)絡(luò),憑借其優(yōu)異的非線性映射能力和高效的學(xué)習(xí)機制,在語言特征信號分類中展現(xiàn)出了巨大的潛力。本文將從BP神經(jīng)網(wǎng)絡(luò)的基本原理、語言特征信號的提取與處理、BP神經(jīng)網(wǎng)絡(luò)在
    的頭像 發(fā)表于 07-10 15:44 ?232次閱讀

    請問MDF如何建立線性連接?

    線性的應(yīng)用,可能需要上百節(jié)點組成
    發(fā)表于 06-28 06:40

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類算法

    )×Y相乘,其中Xi是預(yù)測噪聲標簽(對于噪聲幀,X=1),Y是幀。異常分類稱為ARNN的堆疊RNN,它為一個樣本(所有幀)預(yù)測
    發(fā)表于 05-31 12:05

    連接兩TC397 EVK并進行SPI試驗時,無法測量主SCLKO波形,為什么?

    使用 AURIX TC397 示例代碼(SPI_CPU_1_KIT_TC397_TFT) ADS 版本:1.9.20 平臺:kit_a2g_tc397_5v_tft 連接兩 TC397 EVK 并進行 SPI 試驗時,無法測量主 SCLKO 波形。
    發(fā)表于 05-29 06:33

    FSLP建立接口,如何降低ADC-DMA的速度?

    我正在為 FSLP(力感線性電位計)建立接口,以檢測用戶的觸摸滑動。 我正在使用比較 ISR 來檢測用戶觸摸 FSLP 的情況,然后從
    發(fā)表于 03-06 06:31

    線性穩(wěn)壓分類介紹

    步分為固定輸出型和可變輸出型。 固定輸出型的線性穩(wěn)壓通常具有三引腳:輸入(Input)、輸出(Output)和接地(GND)。這類穩(wěn)壓
    的頭像 發(fā)表于 02-25 15:00 ?673次閱讀
    <b class='flag-5'>線性</b>穩(wěn)壓<b class='flag-5'>器</b>的<b class='flag-5'>分類</b>介紹

    線性穩(wěn)壓分類及特點

    線性穩(wěn)壓是電源管理中的關(guān)鍵組件,它們通過連續(xù)調(diào)整其內(nèi)部通過元件(如晶體管)的電流來輸出恒定電壓。線性穩(wěn)壓可以按照不同的標準進行
    的頭像 發(fā)表于 02-04 10:37 ?671次閱讀

    verilog的135經(jīng)典實例

    verilog的135經(jīng)典實例
    發(fā)表于 02-02 10:17 ?14次下載

    使用STM32 HAL庫進行GPIO控制的實例

    在基于STM32微控制的嵌入式系統(tǒng)開發(fā)中,GPIO(GeneralPurposeInput/Output)控制是其中最基本、最常見的操作之。通過使用STM32的HAL庫,可以輕松地對GPIO進行配置和控制。本文將演示如何使用
    的頭像 發(fā)表于 12-21 15:22 ?2832次閱讀

    如何將變頻進行分類?了解變頻分類,是學(xué)會應(yīng)用變頻重要的基本過程

    和節(jié)能效果顯著、應(yīng)用范圍廣泛及其它許多優(yōu)點,是當今節(jié)能減排、改善工藝流程、提高產(chǎn)品性能、推動技術(shù)進步的種重要手段,在冶金、市政、機械、礦山、紡織等等各行各業(yè)得到了廣泛的應(yīng)用。? 了解變頻分類,是學(xué)會應(yīng)用變
    的頭像 發(fā)表于 12-14 16:37 ?634次閱讀
    如何將變頻<b class='flag-5'>器</b><b class='flag-5'>進行</b><b class='flag-5'>分類</b>?了解變頻<b class='flag-5'>器</b>的<b class='flag-5'>分類</b>,是學(xué)會應(yīng)用變頻<b class='flag-5'>器</b>的<b class='flag-5'>一</b><b class='flag-5'>個</b>重要的基本過程

    如何利用高斯過程回歸模型建立燃料電池電堆功率預(yù)測模型?

    對車輛輔助裝置的控件進行優(yōu)化設(shè)計時,需要建立燃料電池電堆功率預(yù)測模型,而該模型的建立需要考慮
    的頭像 發(fā)表于 11-02 15:34 ?1006次閱讀
    如何利用高斯過程回歸模型<b class='flag-5'>建立</b>燃料電池電堆功率預(yù)測模型?