0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

提供一種logit的調(diào)整方法來(lái)應(yīng)對(duì)長(zhǎng)尾分布的問(wèn)題

工程師鄧生 ? 來(lái)源:GiantPandaCV ? 作者:Garfield ? 2022-09-05 14:31 ? 次閱讀

1. 論文信息

2. 介紹

在傳統(tǒng)的分類和識(shí)別任務(wù)中,訓(xùn)練數(shù)據(jù)的分布往往都受到了人工的均衡,即不同類別的樣本數(shù)量無(wú)明顯差異,如最有影響力的ImageNet,每種類別的樣本數(shù)量就保持在1300張左右。

aece2de2-2cd9-11ed-ba43-dac502259ad0.jpg

在實(shí)際的視覺(jué)相關(guān)任務(wù)中,數(shù)據(jù)都存在如上圖所示的長(zhǎng)尾分布,少量類別占據(jù)了絕大多少樣本,如圖中Head部分,大量的類別僅有少量的樣本,如圖中Tail部分。解決長(zhǎng)尾問(wèn)題的方案一般分為4種:

重采樣 (Re-sampling):采樣過(guò)程中采樣不同的策略,如對(duì)tail中的類別樣本進(jìn)行過(guò)采樣,或者對(duì)head類別樣本進(jìn)行欠采樣。

重加權(quán) (Re-weighting):在訓(xùn)練過(guò)程中給與每種樣本不同的權(quán)重,對(duì)tail類別loss設(shè)置更大的權(quán)重,這樣有限樣本數(shù)量。

新的學(xué)習(xí)策略 (Learning strategy):有專門為解決少樣本問(wèn)題涉及的學(xué)習(xí)方法可以借鑒,如:meta-learning、transfer learning。另外,還可以調(diào)整訓(xùn)練策略,將訓(xùn)練過(guò)程分為兩步:第一步不區(qū)分head樣本和tail樣本,對(duì)模型正常訓(xùn)練;第二步,設(shè)置小的學(xué)習(xí)率,對(duì)第一步的模型使用各種樣本平衡的策略進(jìn)行finetune。

其實(shí)就筆者喜歡的風(fēng)格而言,我對(duì)重加權(quán)這一方向的工作更為喜歡,因?yàn)橥ㄟ^(guò)各種統(tǒng)計(jì)學(xué)上的結(jié)論,來(lái)設(shè)計(jì)很好的loss改進(jìn)來(lái)解決長(zhǎng)尾/不均衡分布問(wèn)題,我喜歡這類研究的原因是,他們(大部分)實(shí)現(xiàn)簡(jiǎn)單,往往只需幾行代碼修改下loss,就可以取得非常有競(jìng)爭(zhēng)力的結(jié)果,因?yàn)楹?jiǎn)單所以很容易運(yùn)用到一些復(fù)雜的任務(wù)中。

而從“奧卡姆剃刀”來(lái)看,我覺(jué)得各種遷移模型的理念雖然非常好,從頭部常見(jiàn)類中學(xué)習(xí)通用知識(shí),然后遷移到尾部少樣本類別中,但是往往會(huì)需要設(shè)計(jì)復(fù)雜的模塊,有增加參數(shù)實(shí)現(xiàn)過(guò)擬合的嫌疑,我認(rèn)為這其實(shí)是把簡(jiǎn)單問(wèn)題復(fù)雜化。我覺(jué)得從統(tǒng)計(jì)方面來(lái)設(shè)計(jì)更加優(yōu)美,因此本文來(lái)介紹一篇我非常喜歡的從統(tǒng)計(jì)角度出發(fā)的工作。這篇論文來(lái)自Google Research,他們提供了一種logit的調(diào)整方法來(lái)應(yīng)對(duì)長(zhǎng)尾分布的問(wèn)題。由于研究風(fēng)格更偏向 machine learning, 所以論文風(fēng)格更偏向統(tǒng)計(jì)類。

本文首先總結(jié)了對(duì)于logit的調(diào)整方法:

聚焦于測(cè)試階段:對(duì)學(xué)習(xí)完的logit輸出進(jìn)行處理(post-hoc normalization),根據(jù)一些先驗(yàn)假設(shè)進(jìn)行調(diào)整。

聚焦于訓(xùn)練階段:在學(xué)習(xí)中調(diào)整loss函數(shù),相對(duì)平衡數(shù)據(jù)集來(lái)說(shuō),調(diào)整優(yōu)化的方向。

aeddeafc-2cd9-11ed-ba43-dac502259ad0.png

如上圖,這兩種方法都有許多較為優(yōu)秀的工作,但是文中描述了這兩種方法的幾種限制:

weight normalization非常依賴于weight的模長(zhǎng)會(huì)因?yàn)閏lass的data數(shù)量稀少而變小,然而這種假設(shè)非常依賴于優(yōu)化器的選擇

直接修改loss進(jìn)行重加權(quán),也會(huì)影響模型的表征學(xué)習(xí),從而導(dǎo)致優(yōu)化過(guò)程不穩(wěn)定,同時(shí)模型可能對(duì)尾部類過(guò)擬合,傷害了模型表征學(xué)習(xí)能力。

論文的motivation就是克服這些缺點(diǎn),讓不同類(head and tail classed)之間的logit能有一個(gè)相對(duì)較大的margin,設(shè)以一個(gè)consistent的loss,來(lái)讓模型的性能更好。

3. 問(wèn)題設(shè)定和過(guò)往方法回顧

3.1 Problem Settings

論文先從統(tǒng)計(jì)學(xué)的角度定義了一下這個(gè)problem settings,其實(shí)就是訓(xùn)練一個(gè)映射,讓這個(gè)scorer的誤分類損失最小:

但是類別不平衡的學(xué)習(xí)的setting導(dǎo)致P(y)分布是存在高度地skewed,使得許多尾部類別標(biāo)簽出現(xiàn)的概率很低。在這里,錯(cuò)誤分類的比例就不是一個(gè)合適的metric: 因?yàn)槟P退坪醢阉械奈膊款悇e都分類成頭部類別也更夠取得比較好的效果。所為了解決這個(gè)問(wèn)題,一個(gè)自然的選擇是平衡誤差,平均每個(gè)類的錯(cuò)誤率,從而讓測(cè)試計(jì)算出的metric不是有偏的。

論文總結(jié)出了一個(gè)比較general的loss形式:

這里 是類別 yy 的權(quán)重;是另一個(gè)超參, 用來(lái)控制 margin 的大小。

3.2 Post-hoc weight normalization

由于頭部類別多,容易過(guò)擬合,自然會(huì)對(duì)頭部類別overconfidence,所以我們需要通過(guò)一定的映射來(lái)調(diào)整logit。具體到調(diào)整的策略,自然是讓大類置信度低一點(diǎn),小類置信度高一點(diǎn)。

for , where and . Intuitively, either choice of upweights the contribution of rare labels through weight normalisation. The choice is motivated by the observations that tends to correlate with . Further to the above, one may enforce during training.

這里引用了一些其他做long-tail learning的論文,可以參考以便更好地對(duì)這一塊進(jìn)行理解。

3.3 Loss modification

至于對(duì)于loss的修改,就是很直接了在前面加一個(gè)權(quán)重,對(duì)于的取值,自然就是各個(gè)工作重點(diǎn)關(guān)注和改進(jìn)的地方。

af02f478-2cd9-11ed-ba43-dac502259ad0.png

論文給予原有的各種方法各種比較全面的總結(jié)。

4. 方法

首先進(jìn)行Post-hoc logit adjustment:

其實(shí)等號(hào)左邊就是一個(gè)根據(jù)類別的樣本數(shù)進(jìn)行re-weighting。但是為了在exp的線性變換加上temperature時(shí)候不影響排序問(wèn)題,所以把等號(hào)右邊變成上式,通過(guò)這種方式放縮不會(huì)導(dǎo)致原本的排序出現(xiàn)問(wèn)題。從而使得重加權(quán)仍能夠給尾部類更高的權(quán)重。

af2dc766-2cd9-11ed-ba43-dac502259ad0.png


把loss改寫成易于理解的方式就如下:

下面這個(gè)更為直接的loss被成為為pairwise margin loss,它可以把 y 與 y' 之間的margin拉大。

然后就是實(shí)現(xiàn)結(jié)合:

af47e862-2cd9-11ed-ba43-dac502259ad0.png

通過(guò)一些特殊的取值和另外的trick,可以實(shí)現(xiàn)兩者的結(jié)合。

5. 實(shí)驗(yàn)結(jié)果

af5f3152-2cd9-11ed-ba43-dac502259ad0.png

這張圖非常有意思,可以看出兩個(gè)設(shè)計(jì)理念非常有效果。

af842f0c-2cd9-11ed-ba43-dac502259ad0.pngafa47d2a-2cd9-11ed-ba43-dac502259ad0.png

可以發(fā)現(xiàn)該方法在頭部類和尾部類的性能都有所提升。

6. 結(jié)論

摘要:這篇寫得很好的論文重新審視了logit調(diào)整的想法,以解決長(zhǎng)尾問(wèn)題。本文首先建立了一個(gè)統(tǒng)計(jì)框架,并以此為基礎(chǔ)提出了兩種有效實(shí)現(xiàn)對(duì)數(shù)平差的方法。他們通過(guò)在合成和自然長(zhǎng)尾數(shù)據(jù)集上使用幾個(gè)相關(guān)基線對(duì)其進(jìn)行測(cè)試,進(jìn)一步證明了這種方法的潛力。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 映射
    +關(guān)注

    關(guān)注

    0

    文章

    44

    瀏覽量

    15778
  • 雙線性變換
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    5560

原文標(biāo)題:Google提出面向長(zhǎng)尾分布的logit的調(diào)整新方法

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    THS4551是否可以通過(guò)在Vocm引腳處接入電阻調(diào)整分壓比例的方法來(lái)配置輸出共模電壓?

    引腳處接入電阻調(diào)整分壓比例的方法來(lái)配置輸出共模電壓。 打個(gè)比方,比如 Vs+ = 5V,Vs- = 0V (PD常On)時(shí),是否可以如下圖所示,通過(guò)在Vocm和Vs-間接入300k電阻將輸出信號(hào)共模電壓調(diào)整值1.66V左右。
    發(fā)表于 08-06 07:14

    rup是一種什么模型

    部分)開(kāi)發(fā)的,它基于統(tǒng)建模語(yǔ)言(UML)和面向?qū)ο蟮能浖_(kāi)發(fā)方法。RUP提供一種結(jié)構(gòu)化的方法來(lái)開(kāi)發(fā)軟件,它包括
    的頭像 發(fā)表于 07-09 10:13 ?995次閱讀

    AD8338有沒(méi)有可行的方法來(lái)測(cè)量大增益?

    AD8338是款VGA芯片,可變?cè)鲆娣秶鸀?10dB至70dB。然而,理論上的70dB增益過(guò)大,導(dǎo)致來(lái)自源的輸入信號(hào)非常小,容易受到干擾,導(dǎo)致70dB增益未得到驗(yàn)證。有沒(méi)有可行的方法來(lái)測(cè)量大增益?
    發(fā)表于 05-21 07:06

    如果是使用六步方波的方法來(lái)控制電機(jī),要如何實(shí)現(xiàn)過(guò)電流保護(hù)?

    請(qǐng)問(wèn)下如果是使用六步方波的方法來(lái)控制電機(jī),要如何實(shí)現(xiàn)過(guò)電流保護(hù)? 以免電流過(guò)大造成板子損壞
    發(fā)表于 04-22 08:10

    led驅(qū)動(dòng)電源如何調(diào)整電流大小的方法

    LED(Light Emitting Diode)是一種半導(dǎo)體器件,經(jīng)常被用作照明、顯示和指示燈。為了驅(qū)動(dòng)LED,需要使用LED驅(qū)動(dòng)電源來(lái)提供穩(wěn)定的電流。調(diào)整LED的電流大小對(duì)于控制L
    的頭像 發(fā)表于 02-27 17:50 ?5096次閱讀

    一種使用石墨陽(yáng)極制造快速充電鋰離子電池的新方法

    鋰離子電池 (LiB) 是目前廣泛使用的電池,為我們?nèi)粘J褂玫拇蠖鄶?shù)電子產(chǎn)品提供動(dòng)力。因此,確定可擴(kuò)展的方法來(lái)提高這些電池的充電速度是能源領(lǐng)域的主要目標(biāo)之,因?yàn)樗恍枰挠萌碌碾姵爻煞帧?/div>
    發(fā)表于 01-23 15:37 ?334次閱讀
    <b class='flag-5'>一種</b>使用石墨陽(yáng)極制造快速充電鋰離子電池的新<b class='flag-5'>方法</b>

    觸摸色彩滑環(huán)控制系統(tǒng)方案

    目前觸控的需求幾乎覆蓋在所有應(yīng)用領(lǐng)域,它提供一種用戶友好、高效的方法來(lái)控制或調(diào)整各種設(shè)備或應(yīng)用程序中的設(shè)置。
    的頭像 發(fā)表于 01-13 17:10 ?646次閱讀
    觸摸色彩滑環(huán)控制系統(tǒng)方案

    redis分布式鎖三個(gè)方法

    Redis是一種高性能的分布式緩存和鍵值存儲(chǔ)系統(tǒng),它提供一種可靠的分布式鎖解決方案。在分布式系
    的頭像 發(fā)表于 12-04 11:22 ?1321次閱讀

    一種簡(jiǎn)單的方法來(lái)將振蕩器相位噪聲轉(zhuǎn)換為時(shí)間抖動(dòng)

    電子發(fā)燒友網(wǎng)站提供一種簡(jiǎn)單的方法來(lái)將振蕩器相位噪聲轉(zhuǎn)換為時(shí)間抖動(dòng).pdf》資料免費(fèi)下載
    發(fā)表于 11-23 15:15 ?0次下載
    <b class='flag-5'>一種</b>簡(jiǎn)單的<b class='flag-5'>方法來(lái)</b>將振蕩器相位噪聲轉(zhuǎn)換為時(shí)間抖動(dòng)

    如何用三不同的方法來(lái)用按鈕控制燈光

    在電子和自動(dòng)化中,個(gè)常見(jiàn)的任務(wù)是使用按鈕來(lái)控制燈的開(kāi)/關(guān)狀態(tài)。這可以用不同的方式實(shí)現(xiàn),取決于設(shè)備的類型和涉及的邏輯。在本文中,我們將比較使用單片機(jī)、PLC和硬件連接來(lái)實(shí)現(xiàn)這個(gè)任務(wù)的三種方法。我們將討論每種
    的頭像 發(fā)表于 11-10 11:47 ?2453次閱讀
    如何用三<b class='flag-5'>種</b>不同的<b class='flag-5'>方法來(lái)</b>用按鈕控制燈光

    一種具有實(shí)用價(jià)值的OFDM幀同步方法

    電子發(fā)燒友網(wǎng)站提供一種具有實(shí)用價(jià)值的OFDM幀同步方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-08 15:47 ?0次下載
    <b class='flag-5'>一種</b>具有實(shí)用價(jià)值的OFDM幀同步<b class='flag-5'>方法</b>

    一種高效、靈巧的多通信信號(hào)產(chǎn)生方法

    電子發(fā)燒友網(wǎng)站提供一種高效、靈巧的多通信信號(hào)產(chǎn)生方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-07 09:54 ?0次下載
    <b class='flag-5'>一種</b>高效、靈巧的多通信信號(hào)產(chǎn)生<b class='flag-5'>方法</b>

    tldb提供分布式鎖使用方法

    前言:分布式鎖是分布式系統(tǒng)中個(gè)極為重要的工具。目前有多種分布式鎖的設(shè)計(jì)方案,比如借助 redis,mq,數(shù)據(jù)庫(kù),zookeeper 等第三方服務(wù)系統(tǒng)
    的頭像 發(fā)表于 11-02 14:44 ?827次閱讀
    tldb<b class='flag-5'>提供</b><b class='flag-5'>分布</b>式鎖使用<b class='flag-5'>方法</b>

    NeurIPS 2023 | 大模型時(shí)代自監(jiān)督預(yù)訓(xùn)練的隱性長(zhǎng)尾偏見(jiàn)

    in Foundation Models 》 ,算是我入職前在學(xué)術(shù)界最后的回響吧。 這次學(xué)弟的文章主要嘗試解決我做長(zhǎng)尾問(wèn)題期間的個(gè)始終縈繞在我腦袋里的疑慮, 我覺(jué)得長(zhǎng)尾領(lǐng)域最大的坎在于明明在研究
    的頭像 發(fā)表于 10-30 11:05 ?387次閱讀
    NeurIPS 2023 | 大模型時(shí)代自監(jiān)督預(yù)訓(xùn)練的隱性<b class='flag-5'>長(zhǎng)尾</b>偏見(jiàn)

    一種基于PPM調(diào)制解調(diào)的改進(jìn)方法

    電子發(fā)燒友網(wǎng)站提供一種基于PPM調(diào)制解調(diào)的改進(jìn)方法.pdf》資料免費(fèi)下載
    發(fā)表于 10-26 11:15 ?0次下載
    <b class='flag-5'>一種</b>基于PPM調(diào)制解調(diào)的改進(jìn)<b class='flag-5'>方法</b>