0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過遷移學(xué)習(xí)解決計算機(jī)視覺問題

新機(jī)器視覺 ? 來源:AI公園 ? 作者:Orhan G. Yal??n ? 2020-10-31 10:54 ? 次閱讀

來源:公眾號AI公園

作者:OrhanG. Yal??n

編譯:ronghuaiyang

導(dǎo)讀

使用SOTA的預(yù)訓(xùn)練模型來通過遷移學(xué)習(xí)解決現(xiàn)實(shí)的計算機(jī)視覺問題。

如果你試過構(gòu)建高精度機(jī)器學(xué)習(xí)模型,但還沒有試過遷移學(xué)習(xí),這篇文章將改變你的生活。至少,對我來說是的。

我們大多數(shù)人已經(jīng)嘗試過,通過幾個機(jī)器學(xué)習(xí)教程來掌握神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識。這些教程非常有助于了解人工神經(jīng)網(wǎng)絡(luò)的基本知識,如循環(huán)神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò),GANs和自編碼器。但是這些教程的主要功能是為你在現(xiàn)實(shí)場景中實(shí)現(xiàn)做準(zhǔn)備。

現(xiàn)在,如果你計劃建立一個利用深度學(xué)習(xí)人工智能系統(tǒng),你要么(i)有一個非常大的預(yù)算用于培訓(xùn)優(yōu)秀的人工智能研究人員,或者(ii)可以從遷移學(xué)習(xí)中受益。

什么是遷移學(xué)習(xí)?

遷移學(xué)習(xí)是機(jī)器學(xué)習(xí)和人工智能的一個分支,其目的是將從一個任務(wù)(源任務(wù))中獲得的知識應(yīng)用到一個不同但相似的任務(wù)(目標(biāo)任務(wù))中。

例如,在學(xué)習(xí)對維基百科文本進(jìn)行分類時獲得的知識可以用于解決法律文本分類問題。另一個例子是利用在學(xué)習(xí)對汽車進(jìn)行分類時獲得的知識來識別天空中的鳥類。這些樣本之間存在關(guān)聯(lián)。我們沒有在鳥類檢測上使用文本分類模型。

遷移學(xué)習(xí)是指從相關(guān)的已經(jīng)學(xué)習(xí)過的任務(wù)中遷移知識,從而對新的任務(wù)中的學(xué)習(xí)進(jìn)行改進(jìn)

總而言之,遷移學(xué)習(xí)是一個讓你不必重復(fù)發(fā)明輪子的領(lǐng)域,并幫助你在很短的時間內(nèi)構(gòu)建AI應(yīng)用。

遷移學(xué)習(xí)的歷史

為了展示遷移學(xué)習(xí)的力量,我們可以引用Andrew Ng的話:

遷移學(xué)習(xí)將是繼監(jiān)督學(xué)習(xí)之后機(jī)器學(xué)習(xí)商業(yè)成功的下一個驅(qū)動因素

遷移學(xué)習(xí)的歷史可以追溯到1993年。Lorien Pratt的論文“Discriminability-Based Transfer between Neural Networks”打開了潘多拉的盒子,向世界介紹了遷移學(xué)習(xí)的潛力。1997年7月,“Machine Learning”雜志發(fā)表了一篇遷移學(xué)習(xí)論文???。隨著該領(lǐng)域的深入,諸如多任務(wù)學(xué)習(xí)等相鄰主題也被納入遷移學(xué)習(xí)領(lǐng)域?!癓earning to Learn”是這一領(lǐng)域的先驅(qū)書籍之一。如今,遷移學(xué)習(xí)是科技企業(yè)家構(gòu)建新的人工智能解決方案、研究人員推動機(jī)器學(xué)習(xí)前沿的強(qiáng)大源泉。

遷移學(xué)習(xí)是如何工作的?

實(shí)現(xiàn)遷移學(xué)習(xí)有三個要求:

由第三方開發(fā)開源預(yù)訓(xùn)練模型

重用模型

對問題進(jìn)行微調(diào)

開發(fā)開源預(yù)訓(xùn)練模型

預(yù)訓(xùn)練的模型是由其他人創(chuàng)建和訓(xùn)練來解決與我們類似的問題的模型。在實(shí)踐中,幾乎總是有人是科技巨頭或一群明星研究人員。他們通常選擇一個非常大的數(shù)據(jù)集作為他們的基礎(chǔ)數(shù)據(jù)集,比如ImageNet或Wikipedia Corpus。然后,他們創(chuàng)建一個大型神經(jīng)網(wǎng)絡(luò)(例如,VGG19有143,667,240個參數(shù))來解決一個特定的問題(例如,這個問題用VGG19做圖像分類。)當(dāng)然,這個預(yù)先訓(xùn)練過的模型必須公開,這樣我們就可以利用這些模型并重新使用它們。

重用模型

在我們掌握了這些預(yù)先訓(xùn)練好的模型之后,我們重新定位學(xué)習(xí)到的知識,包括層、特征、權(quán)重和偏差。有幾種方法可以將預(yù)先訓(xùn)練好的模型加載到我們的環(huán)境中。最后,它只是一個包含相關(guān)信息的文件/文件夾。然而,深度學(xué)習(xí)庫已經(jīng)托管了許多這些預(yù)先訓(xùn)練過的模型,這使得它們更容易訪問:

TensorFlow Hub

Keras Applications

PyTorch Hub

你可以使用上面的一個源來加載經(jīng)過訓(xùn)練的模型。它通常會有所有的層和權(quán)重,你可以根據(jù)你的意愿調(diào)整網(wǎng)絡(luò)。

對問題進(jìn)行微調(diào)

現(xiàn)在的模型也許能解決我們的問題。對預(yù)先訓(xùn)練好的模型進(jìn)行微調(diào)通常更好,原因有兩個:

這樣我們可以達(dá)到更高的精度。

我們的微調(diào)模型可以產(chǎn)生正確的格式的輸出。

一般來說,在神經(jīng)網(wǎng)絡(luò)中,底層和中層通常代表一般的特征,而頂層則代表特定問題的特征。由于我們的新問題與原來的問題不同,我們傾向于刪除頂層。通過為我們的問題添加特定的層,我們可以達(dá)到更高的精度。

在刪除頂層之后,我們需要放置自己的層,這樣我們就可以得到我們想要的輸出。例如,使用ImageNet訓(xùn)練的模型可以分類多達(dá)1000個對象。如果我們試圖對手寫數(shù)字進(jìn)行分類(例如,MNIST classification),那么最后得到一個只有10個神經(jīng)元的層可能會更好。

在我們將自定義層添加到預(yù)先訓(xùn)練好的模型之后,我們可以用特殊的損失函數(shù)和優(yōu)化器來配置它,并通過額外的訓(xùn)練進(jìn)行微調(diào)。

計算機(jī)視覺中的4個預(yù)訓(xùn)練模型

這里有四個預(yù)先訓(xùn)練好的網(wǎng)絡(luò),可以用于計算機(jī)視覺任務(wù),如圖像生成、神經(jīng)風(fēng)格轉(zhuǎn)換、圖像分類、圖像描述、異常檢測等:

VGG19

Inceptionv3 (GoogLeNet)

ResNet50

EfficientNet

讓我們一個一個地深入研究。

VGG-19

VGG是一種卷積神經(jīng)網(wǎng)絡(luò),深度為19層。它是由牛津大學(xué)的Karen Simonyan和Andrew Zisserman在2014年構(gòu)建和訓(xùn)練的,論文為:Very Deep Convolutional Networks for large Image Recognition。VGG-19網(wǎng)絡(luò)還使用ImageNet數(shù)據(jù)庫中的100多萬張圖像進(jìn)行訓(xùn)練。當(dāng)然,你可以使用ImageNet訓(xùn)練過的權(quán)重導(dǎo)入模型。這個預(yù)先訓(xùn)練過的網(wǎng)絡(luò)可以分類多達(dá)1000個物體。對224x224像素的彩色圖像進(jìn)行網(wǎng)絡(luò)訓(xùn)練。以下是關(guān)于其大小和性能的簡要信息:

大?。?49 MB

Top-1 準(zhǔn)確率:71.3%

Top-5 準(zhǔn)確率:90.0%

參數(shù)個數(shù):143,667,240

深度:26

Inceptionv3 (GoogLeNet)

Inceptionv3是一個深度為50層的卷積神經(jīng)網(wǎng)絡(luò)。它是由谷歌構(gòu)建和訓(xùn)練的,你可以查看這篇論文:“Going deep with convolutions”。預(yù)訓(xùn)練好的帶有ImageNet權(quán)重的Inceptionv3可以分類多達(dá)1000個對象。該網(wǎng)絡(luò)的圖像輸入大小為299x299像素,大于VGG19網(wǎng)絡(luò)。VGG19是2014年ImageNet競賽的亞軍,而Inception是冠軍。以下是對Inceptionv3特性的簡要總結(jié):

尺寸:92 MB

Top-1 準(zhǔn)確率:77.9%

Top-5 準(zhǔn)確率:93.7%

參數(shù)數(shù)量:23,851,784

深度:159

ResNet50 (Residual Network)

ResNet50是一個卷積神經(jīng)網(wǎng)絡(luò),深度為50層。它是由微軟于2015年建立和訓(xùn)練的,論文:[Deep Residual Learning for Image Recognition](http://deep Residual Learning for Image Recognition /)。該模型對ImageNet數(shù)據(jù)庫中的100多萬張圖像進(jìn)行了訓(xùn)練。與VGG-19一樣,它可以分類多達(dá)1000個對象,網(wǎng)絡(luò)訓(xùn)練的是224x224像素的彩色圖像。以下是關(guān)于其大小和性能的簡要信息:

尺寸:98 MB

Top-1 準(zhǔn)確率:74.9%

Top-5 準(zhǔn)確率:92.1%

參數(shù)數(shù)量:25,636,712

如果你比較ResNet50和VGG19,你會發(fā)現(xiàn)ResNet50實(shí)際上比VGG19性能更好,盡管它的復(fù)雜性更低。你也可以使用更新的版本,如ResNet101,ResNet152,ResNet50V2,ResNet101V2,ResNet152V2。

EfficientNet

EfficientNet是一種最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò),由谷歌在2019年的論文“efficient entnet: Rethinking Model Scaling for convolutional neural Networks”中訓(xùn)練并發(fā)布。EfficientNet有8種可選實(shí)現(xiàn)(B0到B7),甚至最簡單的EfficientNet B0也是非常出色的。通過530萬個參數(shù),實(shí)現(xiàn)了77.1%的最高精度性能。

EfficientNetB0的特性簡要介紹如下:

尺寸:29 MB

Top-1 準(zhǔn)確率:77.1%

Top-5 準(zhǔn)確率:93.3%

參數(shù)數(shù)量:~5,300,000

深度:159

其他的計算機(jī)視覺問題的預(yù)訓(xùn)練模型

我們列出了四種最先進(jìn)的獲獎卷積神經(jīng)網(wǎng)絡(luò)模型。然而,還有幾十種其他模型可供遷移學(xué)習(xí)使用。下面是對這些模型的基準(zhǔn)分析,這些模型都可以在Keras Applications中獲得。

總結(jié)

在一個我們可以很容易地獲得最先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型的世界里,試圖用有限的資源建立你自己的模型就像是在重復(fù)發(fā)明輪子,是毫無意義的。

相反,嘗試使用這些訓(xùn)練模型,在上面添加一些新的層,考慮你的特殊計算機(jī)視覺任務(wù),然后訓(xùn)練。其結(jié)果將比你從頭構(gòu)建的模型更成功。

原文標(biāo)題:4個計算機(jī)視覺領(lǐng)域常用遷移學(xué)習(xí)模型

文章出處:【微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:4個計算機(jī)視覺領(lǐng)域常用遷移學(xué)習(xí)模型

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    計算機(jī)視覺有哪些優(yōu)缺點(diǎn)

    計算機(jī)視覺作為人工智能領(lǐng)域的一個重要分支,旨在使計算機(jī)能夠像人類一樣理解和解釋圖像和視頻中的信息。這一技術(shù)的發(fā)展不僅推動了多個行業(yè)的變革,也帶來了諸多優(yōu)勢,但同時也伴隨著一些挑戰(zhàn)和局限性。以下是對
    的頭像 發(fā)表于 08-14 09:49 ?527次閱讀

    機(jī)器視覺計算機(jī)視覺有什么區(qū)別

    機(jī)器視覺計算機(jī)視覺是兩個密切相關(guān)但又有所區(qū)別的概念。 一、定義 機(jī)器視覺 機(jī)器視覺,又稱為計算機(jī)
    的頭像 發(fā)表于 07-16 10:23 ?386次閱讀

    計算機(jī)視覺的五大技術(shù)

    計算機(jī)視覺作為深度學(xué)習(xí)領(lǐng)域最熱門的研究方向之一,其技術(shù)涵蓋了多個方面,為人工智能的發(fā)展開拓了廣闊的道路。以下是對計算機(jī)視覺五大技術(shù)的詳細(xì)解析
    的頭像 發(fā)表于 07-10 18:26 ?1065次閱讀

    計算機(jī)視覺的工作原理和應(yīng)用

    計算機(jī)視覺(Computer Vision,簡稱CV)是一門跨學(xué)科的研究領(lǐng)域,它利用計算機(jī)和數(shù)學(xué)算法來模擬人類視覺系統(tǒng)對圖像和視頻進(jìn)行識別、理解、分析和處理。其核心目標(biāo)在于使
    的頭像 發(fā)表于 07-10 18:24 ?1360次閱讀

    計算機(jī)視覺與人工智能的關(guān)系是什么

    引言 計算機(jī)視覺是一門研究如何使計算機(jī)能夠理解和解釋視覺信息的學(xué)科。它涉及到圖像處理、模式識別、機(jī)器學(xué)習(xí)等多個領(lǐng)域的知識。人工智能則是研究如
    的頭像 發(fā)表于 07-09 09:25 ?432次閱讀

    計算機(jī)視覺與智能感知是干嘛的

    引言 計算機(jī)視覺(Computer Vision)是一門研究如何使計算機(jī)能夠理解和解釋視覺信息的學(xué)科。它涉及到圖像處理、模式識別、機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-09 09:23 ?570次閱讀

    計算機(jī)視覺和機(jī)器視覺區(qū)別在哪

    計算機(jī)視覺和機(jī)器視覺是兩個密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 一、定義 計算機(jī)視覺 計算機(jī)
    的頭像 發(fā)表于 07-09 09:22 ?350次閱讀

    計算機(jī)視覺和圖像處理的區(qū)別和聯(lián)系

    計算機(jī)視覺和圖像處理是兩個密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 1. 基本概念 1.1 計算機(jī)視覺 計算機(jī)視覺
    的頭像 發(fā)表于 07-09 09:16 ?981次閱讀

    計算機(jī)視覺屬于人工智能嗎

    屬于,計算機(jī)視覺是人工智能領(lǐng)域的一個重要分支。 引言 計算機(jī)視覺是一門研究如何使計算機(jī)具有視覺
    的頭像 發(fā)表于 07-09 09:11 ?926次閱讀

    深度學(xué)習(xí)計算機(jī)視覺領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計算機(jī)視覺領(lǐng)域取得了顯著的成果。計算機(jī)視覺,作為
    的頭像 發(fā)表于 07-01 11:38 ?550次閱讀

    計算機(jī)視覺的主要研究方向

    計算機(jī)視覺(Computer Vision, CV)作為人工智能領(lǐng)域的一個重要分支,致力于使計算機(jī)能夠像人眼一樣理解和解釋圖像和視頻中的信息。隨著深度學(xué)習(xí)、大數(shù)據(jù)等技術(shù)的快速發(fā)展,
    的頭像 發(fā)表于 06-06 17:17 ?669次閱讀

    計算機(jī)視覺的十大算法

    隨著科技的不斷發(fā)展,計算機(jī)視覺領(lǐng)域也取得了長足的進(jìn)步。本文將介紹計算機(jī)視覺領(lǐng)域的十大算法,包括它們的基本原理、應(yīng)用場景和優(yōu)缺點(diǎn)。這些算法在圖像處理、目標(biāo)檢測、人臉識別等領(lǐng)域有著廣泛的應(yīng)
    的頭像 發(fā)表于 02-19 13:26 ?1140次閱讀
    <b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b>的十大算法

    什么是計算機(jī)視覺?計算機(jī)視覺的三種方法

    計算機(jī)視覺是指通過計算機(jī)賦予人類視覺這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計算機(jī)
    的頭像 發(fā)表于 11-16 16:38 ?4317次閱讀
    什么是<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b>?<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b>的三種方法

    最適合AI應(yīng)用的計算機(jī)視覺類型是什么?

    計算機(jī)視覺是指為計算機(jī)賦予人類視覺這一技術(shù)目標(biāo),從而賦能裝配線檢查到駕駛輔助和機(jī)器人等應(yīng)用。計算機(jī)缺乏像人類一樣憑直覺產(chǎn)生
    的頭像 發(fā)表于 11-15 16:38 ?391次閱讀
    最適合AI應(yīng)用的<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b>類型是什么?

    用于計算機(jī)視覺的經(jīng)典機(jī)器學(xué)習(xí)應(yīng)用分析

    深度學(xué)習(xí)是指在大部分未處理或“原始”數(shù)據(jù)上運(yùn)行的非常大的神經(jīng)網(wǎng)絡(luò)模型。深度學(xué)習(xí)通過將特征提取操作拉入模型本身,對計算機(jī)視覺產(chǎn)生了巨大影響,從
    發(fā)表于 11-07 10:11 ?380次閱讀
    用于<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b>的經(jīng)典機(jī)器<b class='flag-5'>學(xué)習(xí)</b>應(yīng)用分析