0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用多層感知器進(jìn)行機(jī)器學(xué)習(xí)

微云疏影 ? 來(lái)源:維庫(kù) ? 作者:維庫(kù) ? 2023-06-24 11:17 ? 次閱讀

到目前為止,我們關(guān)注的是單層感知器,它由一個(gè)輸入層和一個(gè)輸出層組成。您可能還記得,我們使用術(shù)語(yǔ)“單層”是因?yàn)榇伺渲脙H包括一層計(jì)算活動(dòng)節(jié)點(diǎn),即通過(guò)求和然后應(yīng)用激活函數(shù)來(lái)修改數(shù)據(jù)的節(jié)點(diǎn)。輸入層中的節(jié)點(diǎn)只是分發(fā)數(shù)據(jù)。

單層感知器在概念上很簡(jiǎn)單,訓(xùn)練過(guò)程非常簡(jiǎn)單。不幸的是,它不提供我們復(fù)雜的、現(xiàn)實(shí)生活中的應(yīng)用程序所需的功能。我的印象是,解釋單層感知器的基本限制的標(biāo)準(zhǔn)方法是使用布爾運(yùn)算作為說(shuō)明性示例,這就是我將在本文中采用的方法。

神經(jīng)網(wǎng)絡(luò)邏輯門

我們將使用一個(gè)極其復(fù)雜的微處理器來(lái)實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)可以完成與由少數(shù)晶體管組成的電路相同的事情,這個(gè)想法有些幽默。但與此同時(shí),以這種方式思考這個(gè)問(wèn)題強(qiáng)調(diào)了單層感知器作為一般分類和函數(shù)逼近工具的不足——如果我們的感知器不能復(fù)制單個(gè)邏輯門的行為,我們知道我們需要找到一個(gè)更好的感知器。

讓我們回到本系列篇文章中介紹的系統(tǒng)配置。

wKgaomSOd5SABoOUAADTUcKZWaQ122.png

這個(gè)感知器的一般形狀讓我想起了一個(gè)邏輯門,事實(shí)上,它很快就會(huì)變成這樣。假設(shè)我們使用包含輸入向量元素的 0 和 1 的樣本來(lái)訓(xùn)練該網(wǎng)絡(luò),并且僅當(dāng)兩個(gè)輸入都等于 1 時(shí)輸出值才等于 1。結(jié)果將是一個(gè)神經(jīng)網(wǎng)絡(luò),它以類似于與門的電氣行為的方式對(duì)輸入向量進(jìn)行分類。

該網(wǎng)絡(luò)輸入的維數(shù)為 2,因此我們可以輕松地將輸入樣本繪制成二維圖形。假設(shè) input0 對(duì)應(yīng)于水平軸,input1 對(duì)應(yīng)于垂直軸。四種可能的輸入組合將排列如下:

wKgZomSOd5uAe9AJAABlk2GYHjI314.png

由于我們正在復(fù)制 AND 操作,因此網(wǎng)絡(luò)需要修改其權(quán)重,使輸入向量 [1,1] 的輸出為 1,其他三個(gè)輸入向量的輸出為 0?;谶@些信息,讓我們將輸入空間劃分為對(duì)應(yīng)于所需輸出分類的部分:

wKgaomSOd6OAMNIjAAEzBVdSty0675.png

線性可分?jǐn)?shù)據(jù)

如上圖所示,當(dāng)我們實(shí)現(xiàn) AND 運(yùn)算時(shí),可以通過(guò)繪制一條直線對(duì)繪制的輸入向量進(jìn)行分類。線一側(cè)的所有內(nèi)容接收到的輸出值為 1,而另一側(cè)的所有內(nèi)容接收到的輸出值為零。因此,在 AND 運(yùn)算的情況下,呈現(xiàn)給網(wǎng)絡(luò)的數(shù)據(jù)是線性可分的。OR 操作也是如此:

wKgaomSOd0OAOPE4AABM_b_5heY046.jpg

事實(shí)證明,單層感知器只有在數(shù)據(jù)線性可分的情況下才能解決問(wèn)題。無(wú)論輸入樣本的維數(shù)如何,都是如此。二維情況很容易可視化,因?yàn)槲覀兛梢岳L制點(diǎn)并用一條線將它們分開(kāi)。為了概括線性可分性的概念,我們必須使用“超平面”這個(gè)詞而不是“線”。超平面是在n維空間中可以分離數(shù)據(jù)的幾何特征。在二維環(huán)境中,超平面是一維特征(即一條線)。在三維環(huán)境中,超平面是一個(gè)普通的二維平面。在n維環(huán)境中,超平面具有 ( n -1) 維。

解決不可線性分離的問(wèn)題

在訓(xùn)練過(guò)程中,單層感知器使用訓(xùn)練樣本來(lái)確定分類超平面的位置。在找到能夠可靠地將數(shù)據(jù)分成正確的分類類別的超平面后,它就可以采取行動(dòng)了。然而,如果超平面不存在,感知器將不會(huì)找到它。讓我們看一個(gè)不可線性分離的輸入到輸出關(guān)系的例子:

wKgZomSOd0WANM0WAABTctTFKt0116.jpg

你承認(rèn)這種關(guān)系嗎?再看一看,無(wú)非是異或運(yùn)算。您不能用直線分隔 XOR 數(shù)據(jù)。因此,單層感知器無(wú)法實(shí)現(xiàn)異或門提供的功能,如果它無(wú)法執(zhí)行異或運(yùn)算,我們可以放心地假設(shè)許多其他(更有趣的)應(yīng)用程序?qū)⒊鰡?wèn)題的范圍 -解決單層感知器的能力。

幸運(yùn)的是,我們可以通過(guò)簡(jiǎn)單地增加一層額外的節(jié)點(diǎn)來(lái)大大提高神經(jīng)網(wǎng)絡(luò)解決問(wèn)題的能力。這將單層感知器變成了多層感知器 (MLP)。正如上一篇文章所提到的,這一層之所以被稱為“隱藏”,是因?yàn)樗c外界沒(méi)有直接的接口。我想您可以將 MLP 視為眾所周知的“黑匣子”,它接受輸入數(shù)據(jù)、執(zhí)行神秘的數(shù)學(xué)運(yùn)算并生成輸出數(shù)據(jù)。隱藏層在那個(gè)黑盒子里面。你看不到它,但它就在那里。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4722

    瀏覽量

    100310
  • 微處理器
    +關(guān)注

    關(guān)注

    11

    文章

    2231

    瀏覽量

    82202
  • 晶體管
    +關(guān)注

    關(guān)注

    77

    文章

    9582

    瀏覽量

    137464
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系

    深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示屬性類別或特征
    發(fā)表于 07-04 16:07

    DL:DL單層感知器Perceptron的原理及Perceptron Can not solve XOR problem

    DL:DL單層感知器Perceptron的原理及PerceptronCan not solveXOR problem
    發(fā)表于 12-21 10:35

    上海邏迅門磁感知器系統(tǒng)方案

    `上海邏迅門磁感知器方案`
    發(fā)表于 02-18 13:33

    如何使用Keras框架搭建一個(gè)小型的神經(jīng)網(wǎng)絡(luò)多層感知器

    本文介紹了如何使用Keras框架,搭建一個(gè)小型的神經(jīng)網(wǎng)絡(luò)-多層感知器,并通過(guò)給定數(shù)據(jù)進(jìn)行計(jì)算訓(xùn)練,最好將訓(xùn)練得到的模型提取出參數(shù),放在51單片機(jī)上進(jìn)行運(yùn)行。
    發(fā)表于 11-22 07:00

    多層感知器在提高軟件可維護(hù)性上的應(yīng)用

    預(yù)測(cè)分析軟件質(zhì)量可看作是一個(gè)以源代碼度量作為屬性標(biāo)簽、模塊性能作為類標(biāo)簽的分類問(wèn)題。首次提出將多層感知器應(yīng)用于軟件質(zhì)量預(yù)測(cè),并使用對(duì)稱不定性分析來(lái)提高其分類性能。
    發(fā)表于 04-06 00:01 ?20次下載

    對(duì)多層感知器和反向傳播進(jìn)行入門級(jí)的介紹

    本文對(duì)多層感知器和反向傳播進(jìn)行入門級(jí)的介紹。人工神經(jīng)網(wǎng)絡(luò)是一種計(jì)算模型,啟發(fā)自人類大腦處理信息的生物神經(jīng)網(wǎng)絡(luò)。 人工神經(jīng)網(wǎng)絡(luò)是一種計(jì)算模型,啟發(fā)自人類大腦處理信息的生物神經(jīng)網(wǎng)絡(luò)。人工神經(jīng)網(wǎng)絡(luò)在語(yǔ)音識(shí)別、計(jì)算機(jī)視覺(jué)和文本處理領(lǐng)域取
    發(fā)表于 11-15 15:26 ?4468次閱讀

    人工智能–多層感知器基礎(chǔ)知識(shí)解讀

    感知器(Perceptron)是ANN人工神經(jīng)網(wǎng)絡(luò)的一個(gè)概念,由Frank Rosenblatt于1950s第一次引入。 MLP多層感知器是一種前向結(jié)構(gòu)的ANN人工神經(jīng)網(wǎng)絡(luò), 多層
    發(fā)表于 07-05 14:45 ?6044次閱讀

    利用人工神經(jīng)網(wǎng)絡(luò)感知器實(shí)現(xiàn)雙足行走機(jī)器人的穩(wěn)定性控制

    本文采用的神經(jīng)網(wǎng)絡(luò)感知器(Perception)是最簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò),它是FRosenblatt于1958年提出的具有自學(xué)習(xí)能力的感知器。在這種人工神經(jīng)網(wǎng)絡(luò)中,記憶的信息存儲(chǔ)在連接權(quán)上,外部刺激
    的頭像 發(fā)表于 09-20 07:55 ?1954次閱讀
    利用人工神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>感知器</b>實(shí)現(xiàn)雙足行走<b class='flag-5'>機(jī)器</b>人的穩(wěn)定性控制

    機(jī)器學(xué)習(xí)教程之機(jī)器學(xué)習(xí)導(dǎo)論的詳細(xì)電子教材免費(fèi)下載

    對(duì)機(jī)器學(xué)習(xí)的定義和應(yīng)用實(shí)例進(jìn)行了介紹,涵蓋了監(jiān)督學(xué)習(xí)。貝葉斯決策理論。參數(shù)方法、多元方法、維度歸約、聚類、非參數(shù)方法、決策樹(shù)。線性判別式、多層
    發(fā)表于 12-14 15:03 ?18次下載

    使用MATLAB編寫(xiě)單層感知器的函數(shù)免費(fèi)下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是使用MATLAB編寫(xiě)單層感知器的函數(shù)免費(fèi)下載。
    發(fā)表于 08-13 16:55 ?4次下載

    關(guān)于機(jī)器人的五大感知器

    機(jī)器視覺(jué)和傳感的應(yīng)用就使得機(jī)器人的發(fā)展邁出了關(guān)鍵一步,人的五大感知器官與機(jī)器感知器官對(duì)應(yīng)的就
    發(fā)表于 08-03 11:03 ?5257次閱讀

    PyTorch教程5.2之多層感知器的實(shí)現(xiàn)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程5.2之多層感知器的實(shí)現(xiàn).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:32 ?0次下載
    PyTorch教程5.2之<b class='flag-5'>多層</b><b class='flag-5'>感知器</b>的實(shí)現(xiàn)

    PyTorch教程-5.2. 多層感知器的實(shí)現(xiàn)

    5.2. 多層感知器的實(shí)現(xiàn)? Colab [火炬]在 Colab 中打開(kāi)筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:43 ?629次閱讀
    PyTorch教程-5.2. <b class='flag-5'>多層</b><b class='flag-5'>感知器</b>的實(shí)現(xiàn)

    多層感知器、全連接網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)介紹

    多層感知器(MLP)、全連接網(wǎng)絡(luò)(FCN)和深度神經(jīng)網(wǎng)絡(luò)(DNN)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域中扮演著重要角色,它們之間既存在緊密聯(lián)系,又各具特色。以下將從定義、結(jié)構(gòu)、功能及應(yīng)用等方面詳細(xì)闡述這三者之間的關(guān)系。
    的頭像 發(fā)表于 07-11 17:25 ?2027次閱讀

    多層感知器的基本原理

    多層感知器(MLP, Multi-Layer Perceptron)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)引入一個(gè)或多個(gè)隱藏層來(lái)擴(kuò)展單層感知器的功能,從而能夠解決復(fù)雜的非線性問(wèn)題。BP網(wǎng)絡(luò),即基于反向傳播算法
    的頭像 發(fā)表于 07-19 17:20 ?550次閱讀