0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

到底該怎么將這些頂尖工具用到我的模型里呢?

DPVg_AI_era ? 來源:lq ? 2019-02-24 10:43 ? 次閱讀

NLP方向近日各種大神工具層出不窮。然而,實(shí)踐才是硬道理,如何將它們應(yīng)用到自己的模型是個(gè)關(guān)鍵問題。本文就對(duì)此問題進(jìn)行了介紹。

近期的NLP方向,ELMO、GPT、BERT、Transformer-XL、GPT-2,各種預(yù)訓(xùn)練語言模型層出不窮,這些模型在各種NLP任務(wù)上一次又一次刷新上線,令人心馳神往。但是當(dāng)小編翻開他們的paper,每一個(gè)上面都寫著四個(gè)大字:“弱者退散”,到底該怎么將這些頂尖工具用到我的模型里呢?答案是Hugging Face的大神們開源的pytorch-pretrained-BERT。

Github 地址:

https://github.com/huggingface/pytorch-pretrained-BERT

模型簡(jiǎn)介

近期的各種預(yù)訓(xùn)練語言模型,橫掃各種NLP任務(wù),這里我們介紹三個(gè)最火的預(yù)訓(xùn)練模型:

BERT,由Google AI團(tuán)隊(duì),發(fā)表于2018年10月11日。它的文章是:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。

Transformer-XL, 由Google AI和Carnegie Mellon大學(xué),發(fā)表于2019年1月9日。它的文章是:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context。

GPT-2,由OpenAI 團(tuán)隊(duì),發(fā)表于2019年2月14日,它的文章是:Language Models are Unsupervised Multitask Learners。

基本上,每一個(gè)文章,都在發(fā)表的時(shí)候,刷新當(dāng)時(shí)的幾乎所有NLP任務(wù)的State-of-the-Art,然后引發(fā)一波熱潮。 當(dāng)然,目前風(fēng)頭正盛的是GPT-2,它前幾天剛發(fā)表。

開源實(shí)現(xiàn)

然而,讓小編翻開他們的paper,發(fā)現(xiàn)每一個(gè)上面都寫著四個(gè)大字:“弱者退散”,到底該怎么將這些頂尖工具用到我的模型里呢,Hugging Face 的大神們,緊跟前沿,將所有的預(yù)訓(xùn)練語言模型都實(shí)現(xiàn)并開源了。更令人欽佩的是,它們還做了很多封裝,讓大家都可以才在這些巨人模型的肩膀上。

Hugging Face開源的庫叫pytorch-pretained-bert, 你可以在本文開頭找到鏈接。接下來的部分,我們介紹一下它的安裝和使用。

安裝使用

你可以直接使用 Pip install 來安裝它:

pip install pytorch-pretrained-bert

pytorch-pretrained-bert 內(nèi) BERT,GPT,Transformer-XL,GPT-2。

為了獲取一句話的BERT表示,我們可以:

拿到表示之后,我們可以在后面,接上自己的模型,比如NER。

我們也可以獲取GPT的表示:

Transformer-XL表示:

以及,非?;鸬?,GPT-2的表示:

有了這些表示,我們可以在后面,接入自己的模型,比如:

文本分類

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_classifier.py

閱讀理解

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_squad.py

語言模型

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_lm_finetuning.py

等等

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3190

    瀏覽量

    42257
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    492

    瀏覽量

    10230
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21978

原文標(biāo)題:BERT、GPT-2這些頂尖工具到底該怎么用到我的模型里?

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何LCD運(yùn)用到低通濾波電路

    本帖最后由 klysa 于 2011-11-2 17:28 編輯 如題如何LCD運(yùn)用到低通濾波電路
    發(fā)表于 11-02 17:28

    ARM到底是什么?。。。。∥?b class='flag-5'>該從何學(xué)起!怎么學(xué)!

    ARM到底是什么?。。。?!我從何學(xué)起!怎么學(xué)!高手給指點(diǎn)指點(diǎn)吧{:soso_e154:}
    發(fā)表于 11-02 16:48

    這些仿真工具帶有dsp模型

    里面有24的模型,如2407,相信還有人在學(xué)這款dsp。具體怎么使用我還沒有學(xué)會(huì)。3、EasyEDA 國(guó)產(chǎn)的EDA軟件,也是最近在論壇看到的,令我眼前一亮,試用了一下,不得不說真得不錯(cuò)的一個(gè)工具。它是
    發(fā)表于 06-09 16:12

    誰能幫我完成這些程序到我的dsPic模型

    不會(huì)按原樣工作,所以我害怕開始修改它以適應(yīng)我的dsPic模型。然后我試圖編譯“ex_app_led_blink”項(xiàng)目,結(jié)果得到以下錯(cuò)誤:我的觀點(diǎn)是,這個(gè)“簡(jiǎn)單”的設(shè)置遠(yuǎn)非易事。誰能幫我一步一步地完成這些程序到我的dsPic
    發(fā)表于 05-08 11:00

    無法獲知TIVA到底有什么函數(shù)以及這些函數(shù)的用法?

    初學(xué)TIVA,有一個(gè)地方讓我感到頭疼,就是無法獲知TIVA到底有什么函數(shù)以及這些函數(shù)的用法(不需要源代碼,只想知道每一個(gè)函數(shù)的具體用途),不知道論壇的大神有沒有相關(guān)的資源,可否發(fā)一
    發(fā)表于 08-26 08:34

    到底什么是密鑰?

    文章目錄各種密鑰總結(jié)其他密鑰分類密鑰的管理密鑰詳解在之前的文章中,我們講到了對(duì)稱密碼,公鑰密碼,消息認(rèn)證碼和數(shù)字簽名等密碼學(xué)的技術(shù),這些技術(shù)中都使用到了一個(gè)叫做密鑰的東西。那么到底什么是密鑰
    發(fā)表于 07-27 06:45

    到底怎么去學(xué)習(xí)單片機(jī)編程

    到底怎么去學(xué)習(xí)單片機(jī)編程?
    發(fā)表于 10-26 07:20

    到底怎么去使用KEIL的這些調(diào)試方法

    為什么要虛擬串口,這里的虛擬串口又是什么意思?到底怎么去使用KEIL的這些調(diào)試方法?
    發(fā)表于 12-21 07:20

    如何使用Paddle2ONNX模型轉(zhuǎn)換工具飛槳模型轉(zhuǎn)換為ONNX模型?

    如何使用Paddle2ONNX模型轉(zhuǎn)換工具飛槳模型轉(zhuǎn)換為ONNX模型?
    發(fā)表于 12-29 07:42

    數(shù)字識(shí)別模型應(yīng)用到stm32f407的實(shí)例

    基于stm32f407的MNIST數(shù)字識(shí)別本文是數(shù)字識(shí)別模型應(yīng)用到stm32的實(shí)例,利用X-CUBE-AI模型導(dǎo)入單片機(jī)進(jìn)行調(diào)試開發(fā)環(huán)境
    發(fā)表于 02-16 07:36

    Env工具到底是什么?怎樣去使用Env工具

    是什么?我們對(duì)于 env 的印象就是下面這樣一個(gè)黑黑的 shell 終端,那它到底是什么?其實(shí)就像我們想的那樣,它本質(zhì)上就是調(diào)用的 cmd 命令框,那也就是說明,這些一切都可以在 cmd 中完成,并不需要裝
    發(fā)表于 06-24 11:31

    如何模型應(yīng)用到效能評(píng)估系統(tǒng)中去

    如何模型應(yīng)用到效能評(píng)估系統(tǒng)中去 智慧華盛恒輝效能評(píng)估系統(tǒng)大數(shù)據(jù)的應(yīng)用效能評(píng)估系統(tǒng)及其評(píng)估方法,以應(yīng)用基礎(chǔ)數(shù)據(jù)和應(yīng)用運(yùn)行數(shù)據(jù)為基礎(chǔ),從數(shù)據(jù)開放集約能力、用戶認(rèn)可度、平安運(yùn)行能力和運(yùn)維保障支持四個(gè)
    的頭像 發(fā)表于 09-27 16:16 ?480次閱讀

    開源LLEMMA發(fā)布:超越未公開的頂尖模型,可直接應(yīng)用于工具和定理證明

    但LLEMMA的出現(xiàn)改變了這一局面。它不僅在MATH基準(zhǔn)測(cè)試上創(chuàng)下了新高,甚至超越了某些還未對(duì)外公開的頂尖模型,如Minerva。更讓人欣喜的是,LLEMMA無需額外的調(diào)整,即可直接應(yīng)用于工具和定理證明。
    的頭像 發(fā)表于 10-22 10:24 ?676次閱讀
    開源LLEMMA發(fā)布:超越未公開的<b class='flag-5'>頂尖</b><b class='flag-5'>模型</b>,可直接應(yīng)用于<b class='flag-5'>工具</b>和定理證明

    如何Kafka使用到我們的后端設(shè)計(jì)中

    本文介紹了以下內(nèi)容: 1.什么是Kafka? 2.為什么我們需要使用Kafka這樣的消息系統(tǒng)及使用它的好處 3.如何Kafka使用到我們的后端設(shè)計(jì)中。 譯自timber.io
    的頭像 發(fā)表于 10-30 14:30 ?455次閱讀
    如何<b class='flag-5'>將</b>Kafka使<b class='flag-5'>用到我</b>們的后端設(shè)計(jì)中

    電流探頭的帶寬到底如何選擇?

    電流探頭的帶寬到底如何選擇? 電流探頭的帶寬選擇對(duì)于儀器的測(cè)量精度和信號(hào)質(zhì)量至關(guān)重要。帶寬是指電流探頭能夠有效傳輸?shù)念l率范圍。因此,正確選擇電流探頭的帶寬對(duì)于準(zhǔn)確測(cè)量電流信號(hào)是至關(guān)重要的。 首先
    的頭像 發(fā)表于 01-08 16:09 ?1496次閱讀