0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

半監(jiān)督學習最基礎(chǔ)的3個概念

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:Neeraj varshney ? 2020-11-02 16:14 ? 次閱讀

導讀

今天給大家介紹半監(jiān)督學習中的3個最基礎(chǔ)的概念:一致性正則化,熵最小化和偽標簽,并介紹了兩個經(jīng)典的半監(jiān)督學習方法。

沒看一的點這里哈:半監(jiān)督學習入門基礎(chǔ)(一)

半監(jiān)督學習 (SSL) 是一種非常有趣的方法,用來解決機器學習中缺少標簽數(shù)據(jù)的問題。SSL利用未標記的數(shù)據(jù)和標記的數(shù)據(jù)集來學習任務(wù)。SSL的目標是得到比單獨使用標記數(shù)據(jù)訓練的監(jiān)督學習模型更好的結(jié)果。這是關(guān)于半監(jiān)督學習的系列文章的第2部分,詳細介紹了一些基本的SSL技術(shù)。

一致性正則化,熵最小化,偽標簽

SSL的流行方法是在訓練期間往典型的監(jiān)督學習中添加一個新的損失項。通常使用三個概念來實現(xiàn)半監(jiān)督學習,即一致性正則化、熵最小化和偽標簽。在進一步討論之前,讓我們先理解這些概念。

一致性正則化強制數(shù)據(jù)點的實際擾動不應(yīng)顯著改變預測器的輸出。簡單地說,模型應(yīng)該為輸入及其實際擾動變量給出一致的輸出。我們?nèi)祟悓τ谛〉母蓴_是相當魯棒的。例如,給圖像添加小的噪聲(例如改變一些像素值)對我們來說是察覺不到的。機器學習模型也應(yīng)該對這種擾動具有魯棒性。這通常通過最小化對原始輸入的預測與對該輸入的擾動版本的預測之間的差異來實現(xiàn)。

模型對輸入x及其擾動x^的一致性度量

d(.,.) 可以是均方誤差或KL散度或任何其他距離度量。

一致性正則化是利用未標記數(shù)據(jù)找到數(shù)據(jù)集所在的平滑流形的一種方法。這種方法的例子包括π模型、Temporal Ensembling,Mean Teacher,Virtual Adversarial Training等。

熵最小化鼓勵對未標記數(shù)據(jù)進行更有信心的預測,即預測應(yīng)該具有低熵,而與ground truth無關(guān)(因為ground truth對于未標記數(shù)據(jù)是未知的)。讓我們從數(shù)學上理解下這個。

熵的計算

這里,K是類別的數(shù)量,是模型對x預測是否屬于類別k的置信度。

此外,輸入示例中所有類的置信度之和應(yīng)該為1。這意味著,當某個類的預測值接近1,而其他所有類的預測值接近0時,熵將最小化。因此,這個目標鼓勵模型給出高可信度的預測。

理想情況下,熵的最小化將阻止決策邊界通過附近的數(shù)據(jù)點,否則它將被迫產(chǎn)生一個低可信的預測。請參閱下圖以更好地理解此概念。

由不同的半監(jiān)督學習方法生成的決策邊界

偽標簽是實現(xiàn)半監(jiān)督學習最簡單的方法。一個模型一開始在有標記的數(shù)據(jù)集上進行訓練,然后用來對沒有標記的數(shù)據(jù)進行預測。它從未標記的數(shù)據(jù)集中選擇那些具有高置信度(高于預定義的閾值)的樣本,并將其預測視為偽標簽。然后將這個偽標簽數(shù)據(jù)集添加到標記數(shù)據(jù)集,然后在擴展的標記數(shù)據(jù)集上再次訓練模型。這些步驟可以執(zhí)行多次。這和自訓練很相關(guān)。

在現(xiàn)實中視覺和語言上擾動的例子

視覺:

翻轉(zhuǎn),旋轉(zhuǎn),裁剪,鏡像等是圖像常用的擾動。

語言

反向翻譯是語言中最常見的擾動方式。在這里,輸入被翻譯成不同的語言,然后再翻譯成相同的語言。這樣就獲得了具有相同語義屬性的新輸入。

NLP中的反向翻譯

半監(jiān)督學習方法

π model:

這里的目標是一致性正則化。

π模型鼓勵模型對兩個相同的輸入(即同一個輸入的兩個擾動變量)輸出之間的一致性。

π模型有幾個缺點,首先,訓練計算量大,因為每個epoch中單個輸入需要送到網(wǎng)絡(luò)中兩次。第二,訓練目標zi?是有噪聲的。

Temporal Ensembling:

這個方法的目標也是一致性正則化,但是實現(xiàn)方法有點不一樣。

眾所周知,與單一模型相比,模型集成通常能提供更好的預測。通過在訓練期間使用單個模型在不同訓練時期的輸出來形成集成預測,這一思想得到了擴展。

簡單來說,不是比較模型的相同輸入的兩個擾動的預測(如π模型),模型的預測與之前的epoch中模型對該輸入的預測的加權(quán)平均進行比較。

這種方法克服了π模型的兩個缺點。它在每個epoch中,單個輸入只進入一次,而且訓練目標zi? 的噪聲更小,因為會進行滑動平均。

這種方法的缺點是需要存儲數(shù)據(jù)集中所有的zi? 。

英文原文:https://medium.com/analytics-vidhya/a-primer-on-semi-supervised-learning-part-2-803f45edac2

責任編輯:xj

原文標題:半監(jiān)督學習入門基礎(chǔ)(二):最基礎(chǔ)的3個概念

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SSL
    SSL
    +關(guān)注

    關(guān)注

    0

    文章

    122

    瀏覽量

    25699
  • 半監(jiān)督
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6319
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8320

    瀏覽量

    132165
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5434

    瀏覽量

    120790

原文標題:半監(jiān)督學習入門基礎(chǔ)(二):最基礎(chǔ)的3個概念

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學習:模型采用自監(jiān)督學習策略,在大量無標簽文本數(shù)據(jù)上學習
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機器學習的分類:有監(jiān)督學習、無監(jiān)督學習監(jiān)督學習、自監(jiān)督學習和強化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓練

    神經(jīng)網(wǎng)絡(luò)作為深度學習的重要組成部分,其訓練方式多樣,其中無監(jiān)督學習是一種重要的訓練策略。無監(jiān)督學習旨在從未標記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓練方式對于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?633次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監(jiān)督學習方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?278次閱讀

    遷移學習的基本概念和實現(xiàn)方法

    遷移學習(Transfer Learning)是機器學習領(lǐng)域中的一重要概念,其核心思想是利用在一任務(wù)或領(lǐng)域中學到的知識來加速或改進另一
    的頭像 發(fā)表于 07-04 17:30 ?966次閱讀

    基于FPGA的類腦計算平臺 —PYNQ 集群的無監(jiān)督圖像識別類腦計算系統(tǒng)

    STDP 無監(jiān)督學習算法,可運用于圖像的 無監(jiān)督分類。 從平臺設(shè)計角度: (1)本設(shè)計搭建的基于 PYNQ 集群的通用低功耗的大規(guī)模類腦計算平臺,搭載 PYNN,NEST 等通用 SNN
    發(fā)表于 06-25 18:35

    機器學習基礎(chǔ)知識全攻略

    監(jiān)督學習通常是利用帶有專家標注的標簽的訓練數(shù)據(jù),學習從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?189次閱讀
    機器<b class='flag-5'>學習</b>基礎(chǔ)知識全攻略

    2024年AI領(lǐng)域?qū)心男┬峦黄颇兀?/a>

    傳統(tǒng)的機器學習需要大量的標記數(shù)據(jù)進行訓練,但自監(jiān)督學習可以通過無監(jiān)督的方式從大規(guī)模未標記的數(shù)據(jù)中學習到更有用的表示形式,從而提高模型的性能。
    的頭像 發(fā)表于 01-24 09:58 ?1889次閱讀

    使用自監(jiān)督學習重建動態(tài)駕駛場景

    汽車必須接受全面的訓練、測試和驗證,以便能夠應(yīng)對復雜的場景,而這需要大量涵蓋此類場景的數(shù)據(jù)。 在現(xiàn)實世界中,收集此類場景數(shù)據(jù)要耗費大量時間和成本。而現(xiàn)在,仿真提供了另一可選方案。但要大規(guī)模生成復雜動態(tài)場景仍然
    的頭像 發(fā)表于 12-16 16:05 ?582次閱讀
    使用自<b class='flag-5'>監(jiān)督學習</b>重建動態(tài)駕駛場景

    基于transformer和自監(jiān)督學習的路面異常檢測方法分享

    鋪設(shè)異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學習的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1335次閱讀
    基于transformer和自<b class='flag-5'>監(jiān)督學習</b>的路面異常檢測方法分享

    模電學習八大概念

    電子發(fā)燒友網(wǎng)站提供《模電學習八大概念.doc》資料免費下載
    發(fā)表于 11-18 10:39 ?0次下載
    模電<b class='flag-5'>學習</b>八大<b class='flag-5'>概念</b>

    Backbone之戰(zhàn):計算機視覺任務(wù)模型大比較

    盡管Vision Transformer(ViTs)和自監(jiān)督學習(SSL)越來越受歡迎,但在大多數(shù)任務(wù)中,文章發(fā)現(xiàn)在大型訓練集上以監(jiān)督方式預訓練的卷積神經(jīng)網(wǎng)絡(luò)仍然表現(xiàn)最好。
    的頭像 發(fā)表于 11-13 15:41 ?806次閱讀
    Backbone之戰(zhàn):計算機視覺任務(wù)模型大比較

    全面總結(jié)機器學習中的優(yōu)化算法

    幾乎所有的機器學習算法最后都歸結(jié)為求一目標函數(shù)的極值,即最優(yōu)化問題,例如對于有監(jiān)督學習,我們要找到一最佳的映射函數(shù)f (x),使得對訓練樣本的損失函數(shù)最小化(最小化經(jīng)驗風險或結(jié)構(gòu)風
    發(fā)表于 11-02 10:18 ?380次閱讀
    全面總結(jié)機器<b class='flag-5'>學習</b>中的優(yōu)化算法

    什么是強化學習

    強化學習是機器學習的方式之一,它與監(jiān)督學習、無監(jiān)督學習并列,是三種機器學習訓練方法之一。 在圍棋上擊敗世界第一李世石的 AlphaGo、在《
    的頭像 發(fā)表于 10-30 11:36 ?3721次閱讀
    什么是強化<b class='flag-5'>學習</b>

    如何利用CLIP 的2D 圖像-文本預習知識進行3D場景理解

    自我監(jiān)督學習的目的是獲得有利于下游任務(wù)的良好表現(xiàn)。主流的方法是使用對比學習來與訓練網(wǎng)絡(luò)。受CLIP成功的啟發(fā),利用CLIP的預訓練模型來完成下游任務(wù)引起了廣泛的關(guān)注。本文利用圖像文本預先訓練的CLIP知識來幫助理解3D場景。
    的頭像 發(fā)表于 10-29 16:54 ?1257次閱讀
    如何利用CLIP 的2D 圖像-文本預習知識進行<b class='flag-5'>3</b>D場景理解