0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文搞懂深度學習的精密率和召回率

如意 ? 來源:逍遙埠 ? 作者:逍遙埠 ? 2020-07-06 09:54 ? 次閱讀

這里,我們將討論兩個重要的度量指標,即精度和召回率,它們被用于度量分類模型(即分類器)的性能。特別地,我們將討論如何用這兩個指標來評估決策樹模型。

一般來說,精確度度量針對的問題是“有多少選定的項目是相關(guān)的?”而召回率度量針對的問題是“有多少相關(guān)的項目被選中?”

精密率和召回率的定義

在定義精確度和召回率之前,我們首先需要澄清幾個概念。

假設(shè)我們有一個分類器來判斷一張圖片是否包含cat,目標標簽(class)有兩個值:[cat, non-cat]。分類器也會輸出兩個可能的值。例如,給定一組已標記的圖片,我們應(yīng)用分類器為每幅圖片預測一個標簽。如下表所示,根據(jù)圖片實際標簽和預測標簽,有4種可能的情況。在許多文獻中,該表也稱為混淆矩陣。

一文搞懂深度學習的精密率和召回率

由于分類器的目的是預測圖片中是否有貓,所以當分類器以“cat”的形式給出預測結(jié)果時,我們稱預測結(jié)果為正,稱“not-cat”預測結(jié)果為負。我們將上表中的4種情況詳細說明如下:

True Positive (Tp)

對于一幅圖,如果預測的類別是正的(例如cat),而該圖的實際類別碰巧也是正的,則我們稱這種情況為真正

True Negative (Tn)

對于一個圖片,如果預測的類是負的(即not-cat),而實際的類碰巧也是負的,那么我們就稱這種情況為真負。

False Positive (Fp)

對于一幅圖,如果預測的類是正的(即cat),但該圖的實際類是負的(not-cat),則我們稱這種情況為假正。

False Negative (Fn)

對于一幅圖片,如果所預測的類別是否定的(即not-cat),但該圖片的實際類別是肯定的(即cat),則我們稱這種情況為假否定。

根據(jù)上述定義,我們現(xiàn)在可以定義精確度和召回率的度量。

精度(P)定義為真正(Tp)與所有是正預測(Tp+Fp)的比值,即真正的數(shù)與假正的數(shù)的比值。

一文搞懂深度學習的精密率和召回率

當分類器聲稱樣本為正時,我們可以將精度度量解釋為確定性。例如,一個標識符,如果Tp = Fp = 50,那么它的精度P = 50/(50 + 50) = 0.5 即我們可以說只要分類器聲稱,結(jié)果是正的,只有50%概率分類器實際上是正確的。

如果我們認為實際的正的項(樣本)是“相關(guān)的”,聲稱的正的項目是“被選擇的”,那么精度度量回答了多少被選擇的項目是相關(guān)的問題,正如文章開始所述的那樣。

召回率(R)定義為真正性(Tp)與所有正樣本(Tp+Fn)的比值,即真正的數(shù)量與假負的數(shù)量之和。

一文搞懂深度學習的精密率和召回率

我們可以將召回度量解釋為分類器識別出的實際正性案例的百分比。例如,一個標識符,如果Tp = Fn = 50 ,然后召回率R = 50/(50 + 50) = 0.5,也就是說我們只能說分類器僅獲得50%實際正性案例的50%,而對另外50%的實際正案例進行了錯誤分類。

舉個例子

一文搞懂深度學習的精密率和召回率

利用上述公式,我們可以得到每個標簽的精度和召回率,如下:

一文搞懂深度學習的精密率和召回率

說明:我們以“setosa”這個標簽為例來說明詳細。對于“setosa”標簽,從第0行到第3行總共有4個實際正的樣本,模型給出了3個正預測(即在第2、5、9行),對于“setosa”標簽,只有一個真實正,位于第2行。setosa的假正位于第5行和第9行。最后,setosa的假負性為3例,分別位于第0、1、3行。

什么是準確度???

除了精確率和召回率之外,還有一個眾所周知的度量標準叫做準確度,它被用來衡量分類模型的性能。

準確性(A)定義為對所有預測(Tp+Tn+Fp+Fn)的真實結(jié)果(包括真正(Tp)和真負(Tn))的比例。

一文搞懂深度學習的精密率和召回率

與精確率-召回率相比,準確率似乎是一種更加平衡的衡量標準,因為它同時考慮了真正的正因素和真正的負因素。然而,事實證明,準確性實際上是一個誤導的度量,特別是對于不平衡的數(shù)據(jù)集。例如,對于包含5封垃圾郵件(即正樣本)和95封普通郵件(即負樣本)的數(shù)據(jù)集,簡單地將所有樣本預測為負(非垃圾郵件)的低級的垃圾郵件分類器將獲得95%高精度。垃圾郵件分類器在使用精確率召回率度量時,其精確度和召回率為零,這更準確地反映了分類器的實際預測能力。因此,在實踐中,人們更喜歡精確率召回率來度量而不是準確度作為他們分類器的基準。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13160
  • 性能指標
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    7883
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5449

    瀏覽量

    120810
收藏 人收藏

    評論

    相關(guān)推薦

    [1.7]--1.7程序講解:使用Sklearn進行精確-召回曲線的繪制

    深度學習
    jf_60701476
    發(fā)布于 :2022年12月01日 01:39:56

    示波器的采樣和示波器存儲深度

    深度定的情況下,存儲速度越快,存儲時間就越短,它們之間是反比關(guān)系。所以:存儲深度=采樣×采樣時間由此可見,提高示波器的存儲深度可以間接提
    發(fā)表于 08-25 08:33

    深度學習重點內(nèi)容記錄

    筆記搞懂深度學習
    發(fā)表于 05-27 15:02

    深度學習入門之中根據(jù)源代碼下載到mnist數(shù)據(jù)集,訓練識別超級低問題

    深度學習入門 中根據(jù)源代碼下載到mnist數(shù)據(jù)集,訓練識別超級低問題
    發(fā)表于 07-08 16:53

    搞懂UPS主要內(nèi)容

    導讀:UPS是系統(tǒng)集成項目中常用到的設(shè)備,也是機房必備的設(shè)備。本文簡單介紹了UPS的種類、功能、原理,品質(zhì)選擇與配置選擇方式,基礎(chǔ)維護等相關(guān)的內(nèi)容。搞懂UPS本文主要內(nèi)容:UPS種類、功能
    發(fā)表于 09-15 07:49

    基于深度學習和3D圖像處理的精密加工件外觀缺陷檢測系統(tǒng)

    檢測,檢測準確性和檢測穩(wěn)定性較差、容易誤判。 基于深度學習和3D圖像處理的精密加工件外觀缺陷檢測系統(tǒng)創(chuàng)新性結(jié)合深度學習以及3D圖像處理辦法,
    發(fā)表于 03-08 13:59

    示波器的采樣和存儲深度

    電路教程相關(guān)知識的資料,關(guān)于示波器的采樣和存儲深度
    發(fā)表于 10-10 14:34 ?0次下載

    如何估算深度神經(jīng)網(wǎng)絡(luò)的最優(yōu)學習(附代碼教程)

    學習(learning rate)是調(diào)整深度神經(jīng)網(wǎng)絡(luò)最重要的超參數(shù)之,本文作者Pavel Surmenok描述了個簡單而有效的辦法來幫
    發(fā)表于 12-07 11:05 ?2453次閱讀

    數(shù)據(jù)外補償?shù)?b class='flag-5'>深度網(wǎng)絡(luò)超分辨重建

    單張圖像超分辨重建受到多對映射的困擾,對于給定的低分辨圖像塊,存在若干高分辨圖像塊與之對應(yīng).基于學習的方法受此影響,
    發(fā)表于 12-15 14:34 ?0次下載

    機器學習實用指南——準確召回

    受試者工作特征(ROC)曲線是另個二分類器常用的工具。它非常類似與準確/召回曲線,但不是畫出準確
    的頭像 發(fā)表于 06-19 15:20 ?2.1w次閱讀
    機器<b class='flag-5'>學習</b>實用指南——準確<b class='flag-5'>率</b>與<b class='flag-5'>召回</b><b class='flag-5'>率</b>

    深度學習優(yōu)化器方法及學習衰減方式的詳細資料概述

    下降、Adagrad、RMSProp、Adadelta、Adam、Nadam、ANGD等優(yōu)化方法,也對學習的衰減方式有分段常數(shù)衰減、多項式衰減、指數(shù)衰減、自然指數(shù)衰減、余弦衰減、線性余弦衰減、噪聲線性余弦衰減等方法進行了總結(jié),對深度
    發(fā)表于 12-18 16:47 ?9次下載

    AI垃圾分類的準確召回達到99%

    這套邏輯和人類用眼睛、大腦、手臂工作的邏輯差不多,而且效率也足夠了。以塑料瓶為例,AI垃圾分類的準確召回達到99%,單張圖片的識別時間不到半秒鐘。
    的頭像 發(fā)表于 06-16 15:10 ?3181次閱讀

    深度學習中的學習調(diào)節(jié)實踐

    個偏置神經(jīng)元,并與下層完全相連。當個 ANN 包含個很深的隱藏層時,它被稱為深度神經(jīng)網(wǎng)絡(luò)(DNN)。 在本文中,我們將在 MNIST 數(shù)據(jù)集上訓練
    的頭像 發(fā)表于 11-16 17:53 ?500次閱讀

    什么是基于深度學習的超分辨

    基于深度學習的超分辨是將學習的上采樣(up-sampling)函數(shù)應(yīng)用于圖像的過程,目的是增強圖像中現(xiàn)有的像素數(shù)據(jù)或生成合理的新像素數(shù)據(jù),從而提高圖像的分辨
    的頭像 發(fā)表于 05-24 09:33 ?2681次閱讀
    什么是基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的超分辨<b class='flag-5'>率</b>