0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生?

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-06-30 08:40 ? 次閱讀

前幾天,德國(guó)和法國(guó)的幾位研究人員在Oxford Academic上發(fā)表了一篇名為Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists的文章,這個(gè)長(zhǎng)長(zhǎng)長(zhǎng)長(zhǎng)的標(biāo)題告訴我們,這又是一篇讓人去跟機(jī)器比賽的故事,目的是看誰(shuí)識(shí)別皮膚黑色素瘤的準(zhǔn)確度更高。最終結(jié)果表明深度學(xué)習(xí)模型優(yōu)于人類醫(yī)生。

但今天,澳大利亞的醫(yī)學(xué)博士、放射科醫(yī)生Luke Oakden-Rayner在推特上質(zhì)疑論文的嚴(yán)謹(jǐn)性,認(rèn)為結(jié)論過(guò)于草率,低估了人類表現(xiàn)。到底雙方哪種說(shuō)法更合理呢?我們先看看這篇論文到底講了什么。

CNN vs 人類

過(guò)去幾十年,黑色素瘤成為威脅公共安全的一大主要挑戰(zhàn),連續(xù)攀升的發(fā)病率以及死亡率,讓早期發(fā)現(xiàn)及預(yù)防成為診斷的關(guān)鍵。多項(xiàng)分析表明,皮膚鏡的應(yīng)用大大提高了診斷準(zhǔn)確率。然而,每位醫(yī)師接受的訓(xùn)練不同,水平也參差不齊,目前黑色素瘤的平均診斷準(zhǔn)確度還不到80%。

最近幾年,一些自動(dòng)計(jì)算機(jī)圖像分析技術(shù)的出現(xiàn),意在幫助提高醫(yī)療診斷準(zhǔn)確率和效率。但這些方法都有限制,它們都使用人類規(guī)定的皮膚鏡診斷標(biāo)準(zhǔn)進(jìn)行的判斷,例如是否有多色、特殊形態(tài)例如條紋狀和結(jié)節(jié)狀,或不規(guī)則血管結(jié)構(gòu)。

2017年,Esteva等人發(fā)表論文,宣布他們創(chuàng)建了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,可以對(duì)圖片進(jìn)行分類,其中CNN無(wú)需被人類的標(biāo)準(zhǔn)所限制,它可以將數(shù)字圖片分解成像素級(jí)水平,并最終進(jìn)行診斷。這篇論文也被看作是革命性的作品。

而本次德國(guó)和法國(guó)的研究者目的是訓(xùn)練、驗(yàn)證并測(cè)試一個(gè)深度學(xué)習(xí)CNN,讓它對(duì)皮膚鏡成像進(jìn)行診斷分類,判斷是黑色素瘤還是良性的痣,并將結(jié)果和58位皮膚科醫(yī)生相比較。

具體方法

谷歌的Inception v4 CNN架構(gòu)是用皮膚鏡圖像和對(duì)應(yīng)的診斷結(jié)果訓(xùn)練并驗(yàn)證的。在橫向的人類醫(yī)生驗(yàn)證中有100張圖片組成的測(cè)試集(其中第一步只用皮膚鏡觀察,第二步會(huì)加上診斷信息和圖片)。對(duì)輸出進(jìn)行測(cè)量的標(biāo)準(zhǔn)主要有敏感性(sensitivity)、特異度(specificity)和CNN對(duì)病變處的診斷分類的ROC曲線的AUC值與讀者研究中58名人類醫(yī)生的對(duì)比。

次要評(píng)估指標(biāo)包括皮膚科醫(yī)生在管理決策時(shí)的診斷表現(xiàn),以及在兩個(gè)不同階段上診斷的差異。除此之外,CNN的性能還會(huì)與2016年國(guó)際生物醫(yī)學(xué)成像研討會(huì)(ISBI)挑戰(zhàn)賽上排名前五的算法進(jìn)行比較。

對(duì)比結(jié)果

在人類醫(yī)生的第一階段表現(xiàn)中,他們的得分較接近平均水平,在對(duì)病變的分類上,敏感性為86.6%(±9.3%),特異度為71.3%(±11.2%)。第二階段增加了更多信息后,敏感性上升至88.9%(±9.6%,P=0.19),特異度升為75.7%(±11.7%,P<0.05)。

而CNN的ROC曲線在第一階段中,特異度就高于人類醫(yī)生,為82.5%。而CNN的ROC AUC分?jǐn)?shù)也比醫(yī)生的平均ROC面積要高,為0.86 vs 0.79,P<0.01。CNN的最終分?jǐn)?shù)與2016 ISBI挑戰(zhàn)賽上前三的算法分?jǐn)?shù)接近。

結(jié)論

在包括30名專家的58位皮膚科醫(yī)生團(tuán)隊(duì)中,這是我們首次將CNN與人類進(jìn)行對(duì)比。大多情況下,CNN的表現(xiàn)要優(yōu)于人類醫(yī)生。研究者并不否認(rèn)醫(yī)生的經(jīng)驗(yàn)和努力,而是認(rèn)為在CNN圖像分類技術(shù)的幫助下,診斷率會(huì)更高。

AI贏了?

這篇論文發(fā)表后,獲得了許多大V轉(zhuǎn)發(fā),其中就包括卷積網(wǎng)絡(luò)之父Yann LeCun。

雖然只重復(fù)了一遍對(duì)比結(jié)果,LeCun的轉(zhuǎn)發(fā)也獲得了300多點(diǎn)贊。

同時(shí),華盛頓郵報(bào)、醫(yī)學(xué)網(wǎng)站等媒體也紛紛報(bào)道了這一結(jié)果,聲稱“AI打敗了人類”,但有人卻針對(duì)其中的統(tǒng)計(jì)方法提出了質(zhì)疑。

論文很好,但有瑕疵

今天,放射科專家、醫(yī)學(xué)博士Luke Oakden-Rayner在推特上表示:這篇論文有瑕疵!簡(jiǎn)單地說(shuō),他認(rèn)為論文研究者低估了人類醫(yī)生的表現(xiàn)。論智君將具體原因編譯如下:

我認(rèn)為,研究者們?cè)趯?duì)比人類和機(jī)器時(shí)用的是兩種不同的指標(biāo)!對(duì)機(jī)器用的是AUC,對(duì)人類用的是“ROC區(qū)域”得出的平均敏感性和特異度。除了指標(biāo)不同,“ROC區(qū)域”整體就比AUC要低。實(shí)際上,皮膚科醫(yī)生表現(xiàn)的越好,它就越偏離假設(shè)的AUC。

根據(jù)論文數(shù)據(jù),我們可以也計(jì)算一下模型的“ROC區(qū)域”,結(jié)果如下,跟人類的分?jǐn)?shù)一樣都是79。

在特異度方面,對(duì)比的缺陷就更不易察覺(jué)了。專家醫(yī)生分布在ROC曲線上,所以平均敏感性和特異度把醫(yī)生的平均值放在了曲線內(nèi),同時(shí)模型還是在曲線上測(cè)試的。再說(shuō)一遍,人類被低估了。下面是ROC曲線的其中一個(gè)例子,粉點(diǎn)是平均分。

另外,我不確定研究者是否選擇了合適的操作點(diǎn)(OP),在CNN和醫(yī)生對(duì)比的過(guò)程中,研究人員似乎是基于測(cè)試數(shù)據(jù)進(jìn)行選擇的。在它們的ROC中,一個(gè)合理選擇的OP大大降低了敏感性和特異度的值。下圖中紫色的點(diǎn)是他們的OP,黑色的點(diǎn)只是靠近OP所在區(qū)域。

注意這個(gè)ROC曲線看起來(lái)有點(diǎn)奇怪,因?yàn)榍安恐С值狞c(diǎn)很少,也就是說(shuō)這個(gè)區(qū)域比上部更缺少數(shù)據(jù)支持。

最后,我不清楚他們是怎么計(jì)算p-value的。在給定操作點(diǎn)(平均醫(yī)生的敏感性)的情況下,研究者認(rèn)為特異度在小于0.01的p-value下更好,但是在ROC數(shù)字表現(xiàn)在曲線上時(shí)置信區(qū)間竟然有68%!即使是圖表解釋的有問(wèn)題,或者存在±2的標(biāo)準(zhǔn)差,95%的數(shù)值還是在曲線上的。我不知道這跟p-value<0.01有什么關(guān)系。

要說(shuō)明的是,我并不全盤(pán)否定這篇論文,我認(rèn)為這種討論很有意義。只是其中有一些我認(rèn)為不嚴(yán)謹(jǐn)?shù)牡胤?,希望我的建議有用。

結(jié)語(yǔ)

說(shuō)到最后,其實(shí)是在對(duì)比方式上存在質(zhì)疑。也許論文的研究者需要考慮一下他們的統(tǒng)計(jì)測(cè)試是否公平,因?yàn)橹粚?duì)醫(yī)生們的檢測(cè)敏感性和特異度取平均值說(shuō)服力還是不夠。這也給我們提了醒,在閱讀論文時(shí)不要一味地迷信,要勤于思考,在發(fā)現(xiàn)論文閃光點(diǎn)的同時(shí)還要確保邏輯上的準(zhǔn)確。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:這篇被Yann LeCun轉(zhuǎn)發(fā)的論文,被質(zhì)疑了

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    大語(yǔ)言模型:原理與工程實(shí)踐+初識(shí)2

    的一系列變革。 大語(yǔ)言模型深度學(xué)習(xí)的應(yīng)用之一,可以認(rèn)為,這些模型的目標(biāo)是模擬人類交流,為了理解和生成
    發(fā)表于 05-13 00:09

    labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡(jiǎn)單,附上源碼和模型

    本帖最后由 wcl86 于 2021-9-9 10:39 編輯 `labview調(diào)用深度學(xué)習(xí)tensorflow模型非常簡(jiǎn)單,效果如下,附上源碼和訓(xùn)練過(guò)的模型:[hide][/h
    發(fā)表于 06-03 16:38

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來(lái)了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。作為具體示例,讓我們考慮一個(gè)輸入圖像
    發(fā)表于 02-17 16:56

    “人工智能醫(yī)生”會(huì)取代人類醫(yī)生嗎?

    “人工智能醫(yī)生”究竟是如何“思考”的?以慢病管理為例,看似簡(jiǎn)單的“百分比”,背后其實(shí)有一整套算法模型。第四范式創(chuàng)始人戴文淵說(shuō),對(duì)于深度學(xué)習(xí)而言,慢性病的數(shù)據(jù)量相對(duì)比較小,可能只有萬(wàn)級(jí)的
    的頭像 發(fā)表于 02-21 16:38 ?4202次閱讀

    如何使用深度學(xué)習(xí)實(shí)現(xiàn)語(yǔ)音聲學(xué)模型的研究

    的分析識(shí)別更是研究的重中之重。近年來(lái)深 10 度學(xué)習(xí)模型的廣泛發(fā)展和計(jì)算能力的大幅提升對(duì)語(yǔ)音識(shí)別技術(shù)的提升起到了關(guān)鍵作用。本文立足于語(yǔ)音識(shí)別與深度學(xué)習(xí)理論緊密結(jié)合,針對(duì)如何利用
    發(fā)表于 05-09 08:00 ?41次下載
    如何使用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>實(shí)現(xiàn)語(yǔ)音聲學(xué)<b class='flag-5'>模型</b>的研究

    谷歌深度學(xué)習(xí)如何處理人類語(yǔ)言?

    具有語(yǔ)言能力的深度學(xué)習(xí)系統(tǒng)已經(jīng)廣泛應(yīng)用于人們的生活當(dāng)中。其中一些系統(tǒng)使用了 Google 發(fā)布的特定深度學(xué)習(xí)模型 —— 多語(yǔ)言 BERT(M
    的頭像 發(fā)表于 03-01 15:31 ?1284次閱讀

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載
    發(fā)表于 04-07 16:21 ?3次下載
    <b class='flag-5'>深度</b><b class='flag-5'>模型</b>中的優(yōu)化與<b class='flag-5'>學(xué)習(xí)</b>課件下載

    模型為什么是深度學(xué)習(xí)的未來(lái)?

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過(guò)使用大量的模型來(lái)訓(xùn)練數(shù)據(jù)。
    的頭像 發(fā)表于 02-16 11:32 ?2020次閱讀

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用 深度學(xué)習(xí)算法被認(rèn)為是人工智能的核心,它是一種模仿
    的頭像 發(fā)表于 08-17 16:03 ?1993次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)的區(qū)別

      機(jī)器學(xué)習(xí)深度學(xué)習(xí)是當(dāng)今最流行的人工智能(AI)技術(shù)之一。這兩種技術(shù)都有助于在不需要人類干預(yù)的情況下讓計(jì)算機(jī)自主學(xué)習(xí)和改進(jìn)預(yù)測(cè)
    發(fā)表于 08-28 17:31 ?1406次閱讀

    基于深度學(xué)習(xí)的情感語(yǔ)音識(shí)別模型優(yōu)化策略

    情感語(yǔ)音識(shí)別技術(shù)是一種將人類語(yǔ)音轉(zhuǎn)化為情感信息的技術(shù),其應(yīng)用范圍涵蓋了人機(jī)交互、智能客服、心理健康監(jiān)測(cè)等多個(gè)領(lǐng)域。隨著人工智能技術(shù)的不斷發(fā)展,深度學(xué)習(xí)在情感語(yǔ)音識(shí)別領(lǐng)域的應(yīng)用越來(lái)越廣泛。本文將探討
    的頭像 發(fā)表于 11-09 16:34 ?590次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過(guò)程中,往往會(huì)遇到各種問(wèn)題和挑戰(zhàn),如過(guò)擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?569次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?764次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?603次閱讀