0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向NLP任務(wù)的遷移學(xué)習(xí)新模型ULMFit

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-22 08:11 ? 次閱讀

本文介紹了面向NLP任務(wù)的遷移學(xué)習(xí)新模型ULMFit,只需使用極少量的標(biāo)記數(shù)據(jù),文本分類精度就能和數(shù)千倍的標(biāo)記數(shù)據(jù)訓(xùn)練量達(dá)到同等水平。在數(shù)據(jù)標(biāo)記成本高數(shù)量少的情況下,這個(gè)通用語(yǔ)言微調(diào)模型可以大幅降低你的NLP任務(wù)訓(xùn)練時(shí)間和成本。

在本文中,我們將介紹自然語(yǔ)言處理(NLP)在遷移學(xué)習(xí)上的最新應(yīng)用趨勢(shì),并嘗試執(zhí)行一個(gè)分類任務(wù):使用一個(gè)數(shù)據(jù)集,其內(nèi)容是亞馬遜網(wǎng)站上的購(gòu)物評(píng)價(jià),已按正面或負(fù)面評(píng)價(jià)分類。然后在你可以按照這里的說(shuō)明,用你自己的數(shù)據(jù)重新進(jìn)行實(shí)驗(yàn)。

遷移學(xué)習(xí)模型的思路是這樣的:既然中間層可以用來(lái)學(xué)習(xí)圖像的一般知識(shí),我們可以將其作為一個(gè)大的特征化工具使用。下載一個(gè)預(yù)先訓(xùn)練好的模型(模型已針對(duì)ImageNet任務(wù)訓(xùn)練了數(shù)周時(shí)間),刪除網(wǎng)絡(luò)的最后一層(完全連接層),添加我們選擇的分類器,執(zhí)行適合我們的任務(wù)(如果任務(wù)是對(duì)貓和狗進(jìn)行分類,就選擇二元分類器),最后僅對(duì)我們的分類層進(jìn)行訓(xùn)練。

由于我們使用的數(shù)據(jù)可能與之前訓(xùn)練過(guò)的模型數(shù)據(jù)不同,我們也可以對(duì)上面的步驟進(jìn)行微調(diào),以在相當(dāng)短的時(shí)間內(nèi)對(duì)所有的層進(jìn)行訓(xùn)練。

除了能夠更快地進(jìn)行訓(xùn)練之外,遷移學(xué)習(xí)也是特別有趣的,僅在最后一層進(jìn)行訓(xùn)練,讓我們可以僅僅使用較少的標(biāo)記數(shù)據(jù),而對(duì)整個(gè)模型進(jìn)行端對(duì)端訓(xùn)練則需要龐大的數(shù)據(jù)集。標(biāo)記數(shù)據(jù)的成本很高,在無(wú)需大型數(shù)據(jù)集的情況下建立高質(zhì)量的模型是很可取的方法。

遷移學(xué)習(xí)NLP的尷尬

目前,深度學(xué)習(xí)在自然語(yǔ)言處理上的應(yīng)用并沒(méi)有計(jì)算機(jī)視覺(jué)領(lǐng)域那么成熟。在計(jì)算機(jī)視覺(jué)領(lǐng)域中,我們可以想象機(jī)器能夠?qū)W習(xí)識(shí)別邊緣、圓形、正方形等,然后利用這些知識(shí)去做其他事情,但這個(gè)過(guò)程對(duì)于文本數(shù)據(jù)而言并不簡(jiǎn)單。

最初在NLP任務(wù)中嘗試遷移學(xué)習(xí)的趨勢(shì)是由“嵌入模型”一詞帶來(lái)的。

實(shí)驗(yàn)證明,事先將預(yù)先訓(xùn)練好的詞向量加入模型,可以在大多數(shù)NLP任務(wù)中改進(jìn)結(jié)果,因此已經(jīng)被NLP社區(qū)廣泛采用,并由此繼續(xù)尋找質(zhì)量更高的詞/字符/文檔表示。與計(jì)算機(jī)視覺(jué)領(lǐng)域一樣,預(yù)訓(xùn)練的詞向量可以被視為特征化函數(shù),轉(zhuǎn)換一組特征中的每個(gè)單詞。

不過(guò),詞嵌入僅代表大多數(shù)NLP模型的第一層。之后,我們?nèi)匀恍枰獜念^開(kāi)始訓(xùn)練所有RNN / CNN /自定義層。

高階方法:微調(diào)語(yǔ)言模型,在上面加一層分類器

今年早些時(shí)候,Howard和Ruder提出了ULMFit模型作為在NLP遷移學(xué)習(xí)中使用的更高級(jí)的方法(論文地址:https://arxiv.org/pdf/1801.06146.pdf)。

他們的想法是基于語(yǔ)言模型(Language Model)。語(yǔ)言模型是一種能夠根據(jù)已經(jīng)看到的單詞預(yù)測(cè)下一個(gè)單詞的模型(比如你的智能手機(jī)在你發(fā)短信時(shí),可以為你猜測(cè)下一個(gè)單詞)。就像圖像分類器通過(guò)對(duì)圖像分類來(lái)獲得圖像的內(nèi)在知識(shí)一樣,如果NLP模型能夠準(zhǔn)確地預(yù)測(cè)下一個(gè)單詞,似乎就可以說(shuō)它已經(jīng)學(xué)會(huì)了很多關(guān)于自然語(yǔ)言結(jié)構(gòu)的知識(shí)。這些知識(shí)可以提供高質(zhì)量的初始化狀態(tài),然后針對(duì)自定義任務(wù)進(jìn)行訓(xùn)練。

ULMFit模型一般用于非常大的文本語(yǔ)料庫(kù)(如維基百科)上訓(xùn)練語(yǔ)言模型,并將其作為構(gòu)建任何分類器的基礎(chǔ)架構(gòu)。由于你的文本數(shù)據(jù)可能與維基百科的編寫(xiě)方式不同,因此你可以對(duì)語(yǔ)言模型的參數(shù)進(jìn)行微調(diào)。然后在此語(yǔ)言模型的頂部添加分類器層,僅僅對(duì)此層進(jìn)行訓(xùn)練。

Howard和Ruder建議向下逐層“解凍”,逐步對(duì)每一層進(jìn)行訓(xùn)練。他們還在之前關(guān)于學(xué)習(xí)速度(周期性學(xué)習(xí))的研究成果基礎(chǔ)上,提出了他們自己的三角學(xué)習(xí)速率(triangular learning rates)。

用100個(gè)標(biāo)記數(shù)據(jù),達(dá)到用20000個(gè)標(biāo)記數(shù)據(jù)從頭訓(xùn)練的結(jié)果

這篇文章得出的神奇結(jié)論是,使用這種預(yù)訓(xùn)練的語(yǔ)言模型,讓我們能夠在使用更少的標(biāo)記數(shù)據(jù)的情況下訓(xùn)練分類器。盡管網(wǎng)絡(luò)上未標(biāo)記的數(shù)據(jù)幾乎是無(wú)窮無(wú)盡的,但標(biāo)記數(shù)據(jù)的成本很高,而且非常耗時(shí)。

下圖是他們從IMDb情感分析任務(wù)中報(bào)告的結(jié)果:

該模型只用了100個(gè)示例進(jìn)行訓(xùn)練,錯(cuò)誤率與20000個(gè)示例從頭到尾進(jìn)行完全訓(xùn)練的模型相仿。

此外,他們?cè)谖闹羞€提供了代碼,讀者可以自選語(yǔ)種,對(duì)語(yǔ)言模型進(jìn)行預(yù)訓(xùn)練。由于維基百科上的語(yǔ)言多種多樣,因此我們可以使用維基百科數(shù)據(jù)快速完成語(yǔ)種的轉(zhuǎn)換。眾所周知,公共標(biāo)簽數(shù)據(jù)集更難以使用英語(yǔ)以外的語(yǔ)言進(jìn)行訪問(wèn)。在這里,你可以對(duì)未標(biāo)記數(shù)據(jù)上的語(yǔ)言模型進(jìn)行微調(diào),花幾個(gè)小時(shí)對(duì)幾百個(gè)至幾千個(gè)數(shù)據(jù)點(diǎn)進(jìn)行手動(dòng)標(biāo)注,并使分類器頭適應(yīng)您預(yù)先訓(xùn)練的語(yǔ)言模型,完成自己的定制化任務(wù)。

為了加深對(duì)這種方法的理解,我們?cè)诠矓?shù)據(jù)集上進(jìn)行了嘗試。我們?cè)贙aggle上找了一個(gè)數(shù)據(jù)集。它包含400萬(wàn)條關(guān)于亞馬遜產(chǎn)品的評(píng)論,并按積極/消極情緒(即好評(píng)和差評(píng))加上了標(biāo)記。我們用ULMfit模型對(duì)這些評(píng)論按好評(píng)/差評(píng)進(jìn)行分類。結(jié)果發(fā)現(xiàn),該模型用了1000個(gè)示例,其分類準(zhǔn)確度已經(jīng)達(dá)到了在完整數(shù)據(jù)集上從頭開(kāi)始訓(xùn)練的FastText模型的水平。甚至在僅僅使用100個(gè)標(biāo)記示例的情況下,該模型仍然能夠獲得良好的性能。

所以,語(yǔ)言模型了解的是語(yǔ)法還是語(yǔ)義?

我們使用ULMFit模型進(jìn)行了監(jiān)督式和無(wú)監(jiān)督式學(xué)習(xí)。訓(xùn)練無(wú)監(jiān)督的語(yǔ)言模型的成本很低,因?yàn)槟梢栽诰€訪問(wèn)幾乎無(wú)限數(shù)量的文本數(shù)據(jù)。但是,使用監(jiān)督模型就很昂貴了,因?yàn)樾枰獙?duì)數(shù)據(jù)進(jìn)行標(biāo)記。

雖然語(yǔ)言模型能夠從自然語(yǔ)言的結(jié)構(gòu)中捕獲大量相關(guān)信息,但尚不清楚它是否能夠捕捉到文本的含義,也就是“發(fā)送者打算傳達(dá)的信息或概念”或能否實(shí)現(xiàn)“與信息接收者的交流”。

我們可以這樣認(rèn)為,語(yǔ)言模型學(xué)到的更多是語(yǔ)法而不是語(yǔ)義。然而,語(yǔ)言模型比僅僅預(yù)測(cè)語(yǔ)法的模型表現(xiàn)更好。比如,“I eat this computer“(我吃這臺(tái)電腦)和“I hate this computer”(我討厭這臺(tái)電腦),兩句話在語(yǔ)法上都是正確的,但表現(xiàn)更優(yōu)秀的語(yǔ)言模型應(yīng)該能夠明白,第二句話比第一句話更加“正確”。語(yǔ)言模型超越了簡(jiǎn)單的語(yǔ)法/結(jié)構(gòu)理解。因此,我們可以將語(yǔ)言模型視為對(duì)自然語(yǔ)言句子結(jié)構(gòu)的學(xué)習(xí),幫助我們理解句子的意義。

由于篇幅所限,這里就不展開(kāi)探討語(yǔ)義的概念(盡管這是一個(gè)無(wú)窮無(wú)盡且引人入勝的話題)。如果你有興趣,我們建議你觀看Yejin Choi在ACL 2018上的演講,深入探討這一主題。

微調(diào)遷移學(xué)習(xí)語(yǔ)言模型,大有前景

ULMFit模型取得的進(jìn)展推動(dòng)了面向自然語(yǔ)言處理的遷移學(xué)習(xí)研究。對(duì)于NLP任務(wù)來(lái)說(shuō),這是一個(gè)激動(dòng)人心的事情,其他微調(diào)語(yǔ)言模型也開(kāi)始出現(xiàn),尤其是微調(diào)遷移語(yǔ)言模型(FineTuneTransformer LM)。

我們還注意到,隨著更優(yōu)秀的語(yǔ)言模型的出現(xiàn),我們甚至可以完善這種知識(shí)遷移。高效的NLP框架對(duì)于解決遷移學(xué)習(xí)的問(wèn)題是非常有前景的,尤其是對(duì)一些常見(jiàn)子詞結(jié)構(gòu)的語(yǔ)言,比如德語(yǔ),經(jīng)過(guò)詞級(jí)訓(xùn)練的語(yǔ)言模型的表現(xiàn)前景非常好。

怎么樣?趕緊試試吧~

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1198

    瀏覽量

    24592
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21974
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5547

原文標(biāo)題:只有100個(gè)標(biāo)記數(shù)據(jù),如何精確分類400萬(wàn)用戶評(píng)論?

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    介紹用遷移學(xué)習(xí)處理NLP任務(wù)的大致思路

    文本分類是NLP領(lǐng)域重要的部分,它與現(xiàn)實(shí)生活中的場(chǎng)景密切相關(guān),例如機(jī)器人、語(yǔ)音助手、垃圾或詐騙信息監(jiān)測(cè)、文本分類等等。這項(xiàng)技術(shù)的用途十分廣泛,幾乎可以用在任意語(yǔ)言模型上。本論文的作者進(jìn)行的是文本分類,直到現(xiàn)在,很多學(xué)術(shù)研究人員仍然用詞嵌入訓(xùn)練
    的頭像 發(fā)表于 08-02 09:18 ?6152次閱讀

    遷移學(xué)習(xí)

    、目標(biāo)檢測(cè)、行人重識(shí)別等任務(wù)中的應(yīng)用,學(xué)習(xí)圖像/視頻風(fēng)格遷移方法,了解風(fēng)格遷移在實(shí)際生活中的應(yīng)用。七、小樣本學(xué)習(xí)、Transformer等前
    發(fā)表于 04-21 15:15

    NLP任務(wù)學(xué)習(xí)案例分享:一種層次增長(zhǎng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    NLP 領(lǐng)域研究者們開(kāi)始研究基于神經(jīng)網(wǎng)絡(luò)的多任務(wù)學(xué)習(xí)。大多數(shù)方法通過(guò)網(wǎng)絡(luò)參數(shù)共享來(lái)學(xué)習(xí)任務(wù)間的關(guān)聯(lián),提升各
    發(fā)表于 01-05 16:10 ?4358次閱讀

    一個(gè)深度學(xué)習(xí)模型能完成幾項(xiàng)NLP任務(wù)

    對(duì)于機(jī)器翻譯、文本摘要、Q&A、文本分類等自然語(yǔ)言處理任務(wù)來(lái)說(shuō),深度學(xué)習(xí)的出現(xiàn)一遍遍刷新了state-of-the-art的模型性能記錄,給研究帶來(lái)諸多驚喜。但這些任務(wù)一般都有各自的度
    的頭像 發(fā)表于 06-26 15:19 ?4502次閱讀

    NLP中的深度學(xué)習(xí)技術(shù)概述

    該項(xiàng)目是對(duì)基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)的概述,包括用來(lái)解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型
    的頭像 發(fā)表于 03-01 09:13 ?4731次閱讀
    <b class='flag-5'>NLP</b>中的深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)概述

    8個(gè)免費(fèi)學(xué)習(xí)NLP的在線資源

    此在線課程涵蓋從基礎(chǔ)到高級(jí)NLP,它是Coursera上高級(jí)機(jī)器學(xué)習(xí)專業(yè)化的一部分。你可以免費(fèi)注冊(cè)本課程,你將學(xué)習(xí)情緒分析、總結(jié)、對(duì)話狀態(tài)跟蹤等。你將學(xué)習(xí)的主題包括文本分類介紹、語(yǔ)言建
    的頭像 發(fā)表于 07-07 07:44 ?7028次閱讀

    遷移學(xué)習(xí)模型預(yù)訓(xùn)練:何去何從

    把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個(gè)任務(wù)S(S稱
    的頭像 發(fā)表于 07-18 11:29 ?7789次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>與<b class='flag-5'>模型</b>預(yù)訓(xùn)練:何去何從

    NLP遷移學(xué)習(xí)面臨的問(wèn)題和解決

    自然語(yǔ)言處理(NLP)最近取得了巨大的進(jìn)步,每隔幾天就會(huì)發(fā)布最新的結(jié)果。排行榜瘋狂是指最常見(jiàn)的NLP基準(zhǔn),如GLUE和SUPERGLUE,它們的得分越來(lái)越接近人類的水平。這些結(jié)果大多是通過(guò)超大(數(shù)十億個(gè)參數(shù))模型從大規(guī)模數(shù)據(jù)集中
    的頭像 發(fā)表于 05-04 12:03 ?3093次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>面臨的問(wèn)題和解決

    如何利用機(jī)器學(xué)習(xí)思想,更好地去解決NLP分類任務(wù)

    NLP分類任務(wù)我們每個(gè)NLPer都異常熟悉了,其在整個(gè)NLP業(yè)務(wù)中占據(jù)著舉足輕重的地位,更多領(lǐng)域的子任務(wù)也常常轉(zhuǎn)化為一個(gè)分類任務(wù),例如新聞分
    的頭像 發(fā)表于 08-28 10:02 ?2178次閱讀
    如何利用機(jī)器<b class='flag-5'>學(xué)習(xí)</b>思想,更好地去解決<b class='flag-5'>NLP</b>分類<b class='flag-5'>任務(wù)</b>

    基于遷移學(xué)習(xí)的駕駛分心行為識(shí)別模型

    為了提高駕駛分心識(shí)別的應(yīng)用性及識(shí)別模型的可解釋性,利用遷移學(xué)習(xí)方法硏究構(gòu)建駕駛?cè)笋{駛分心行為識(shí)別模型并采用神經(jīng)網(wǎng)絡(luò)可視化技術(shù)硏究對(duì)模型進(jìn)行解
    發(fā)表于 04-30 13:46 ?10次下載
    基于<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的駕駛分心行為識(shí)別<b class='flag-5'>模型</b>

    基于WordNet模型遷移學(xué)習(xí)文本特征對(duì)齊算法

    基于WordNet模型遷移學(xué)習(xí)文本特征對(duì)齊算法
    發(fā)表于 06-27 16:14 ?8次下載

    如何實(shí)現(xiàn)更綠色、經(jīng)濟(jì)的NLP預(yù)訓(xùn)練模型遷移

    NLP中,預(yù)訓(xùn)練大模型Finetune是一種非常常見(jiàn)的解決問(wèn)題的范式。利用在海量文本上預(yù)訓(xùn)練得到的Bert、GPT等模型,在下游不同任務(wù)上分別進(jìn)行finetune,得到下游
    的頭像 發(fā)表于 03-21 15:33 ?2133次閱讀

    遷移學(xué)習(xí)Finetune的四種類型招式

    遷移學(xué)習(xí)方法。例如NLP中的預(yù)訓(xùn)練Bert模型,通過(guò)在下游任務(wù)上Finetune即可取得比直接使用下游數(shù)據(jù)
    的頭像 發(fā)表于 04-02 17:35 ?3056次閱讀

    NLP中的遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進(jìn)行文本分類

    遷移學(xué)習(xí)徹底改變了自然語(yǔ)言處理(NLP)領(lǐng)域,允許從業(yè)者利用預(yù)先訓(xùn)練的模型來(lái)完成自己的任務(wù),從而大大減少了訓(xùn)練時(shí)間和計(jì)算資源。在本文中,我們
    發(fā)表于 06-14 09:30 ?411次閱讀

    一文詳解遷移學(xué)習(xí)

    遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無(wú)法關(guān)注與
    的頭像 發(fā)表于 08-11 16:56 ?6059次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>