0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

對于模型和數(shù)據(jù)的可視化及可解釋性的研究方法進行回顧

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-06-21 18:09 ? 次閱讀

一年一度的CVPR在鹽湖城開幕啦!最新的消息:

今年的最佳論文,授予了來自斯坦福大學和 UC Berkeley 的 Amir R. Zamir等人的“Taskonomy: Disentangling Task Transfer Learning”。

最佳學生論文則被來自CMU的Hanbyul Joo等人憑借“Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies”摘得。

同時,也要恭喜昨天剛被我“門”蹭熱度的Kaiming大神榮獲PAMI 年輕學者獎.

除了明星獎項的揭曉,會議第一天最吸引人的除了workshop外就是一個個專題tutorial了:

周一的會議共開設了11個專題tutorial,我們下面就為大家介紹其中一些有趣的tutorial。

一些已經(jīng)放出來的tutorials slides下載見附件:

https://pan.baidu.com/s/1yv8orYTbsYLNnlTlCVc_Pw

機器學習的可解釋性對于研究人員來說有著十分重要的作用,它除了可以幫助我們理解模型運行的機理外,還能幫助我們有的放矢地提高模型的表現(xiàn)甚至啟發(fā)我們開發(fā)新的模型。Tutorial:Interpretable Machine Learning for Computer Vision就為我們帶來了這方面的內(nèi)容。

這個tutorial著眼于復雜的機器學習模型在計算機視覺方面的應用。計算機視覺在物體識別、標注和視覺問答等方面有著廣泛的應用,但很多時候深度學習模型和神經(jīng)網(wǎng)絡的運作機理對我們來說還像黑箱一樣無法清晰透徹的了解。隨著近年來模型的深度加深,我們理解模型及其預測結果的過程變得日益困難。

這一tutorial將通過模型的可解釋性廣泛回顧計算機視覺的各個研究領域,除了介紹可解釋性的基本知識及其重要性外,還將就目前對于模型和數(shù)據(jù)的可視化及可解釋性的研究方法進行回顧。

Tutorial包含了四個演講,分別是:

來自谷歌大腦的Been Kim帶來了“機器學習中可解釋的介紹”;

來自FAIR的Laurens van der Maaten作的“利用t分布隨機鄰近嵌入方法用于視覺模型理解的準則”;

來自MIT的周博磊帶來的:“重新審視深度網(wǎng)絡中單一單位(Single Units )的重要性”;

最后是來自牛津大學的Andrea Vedaldi帶來的“利用自然原像、有意義擾動和矢量嵌入來理解深度網(wǎng)絡”。

https://interpretablevision.github.io/

除了這個tutorial之外還有一個類似的tutorial:Interpreting and Explaining Deep Models in Computer Vision。

這一tutorial就視覺領域的可解釋性進行了概覽,提供了如何在實踐中使用這些技術的例子,并對不同的技術進行了分類。其主要內(nèi)容如下:

可解釋性的定義;

理解深度表示的技術和解釋DNN中個體預測;

定量評測可解釋性的方法;

實踐中應用可解釋性;

利用可解釋模型在復雜系統(tǒng)中得到新的見解。

另一個有趣的tutorial是:Computer Vision for Robotics and Driving,這一tutorial主要由來自谷歌大腦的Anelia Angelova和來自多倫多大學的Sanja Fidler進行講解,主要講解了計算機視覺深度學習在機器人(以及自動駕駛)方面的發(fā)展、應用和新的研究機會。

機器人視覺的特殊性主要在于數(shù)據(jù)和任務上,首先輸入數(shù)據(jù)是多模態(tài)(多傳感器)數(shù)據(jù),而輸出則需要三維數(shù)據(jù)(很多情況下是稀疏的)。在實際情況中,需要在實時性、啟發(fā)式理解、環(huán)境交互方面有著良好的表現(xiàn)。

這一領域中新的研究機會主要在以下幾個方面:

多傳感器、多輸入、數(shù)據(jù)相關性的研究;

結構化特征的使用和學習;

自監(jiān)督學習;

聯(lián)合感知、規(guī)劃和行為;

主動感知技術;

同時就機器人在三維空間中的學習問題和自動駕駛中的深度學習問題進行了深入的報告。希望研究機器人或者感興趣的朋友們可以從中獲得需要的信息。

除此之外,對于發(fā)展勢頭越來越旺的非監(jiān)督學習谷歌大腦和谷歌Research聯(lián)合推出了一個tutorial:Unsupervised Visual Learning。

這一tutorial從非監(jiān)督學習的各種優(yōu)點談起,從新的特征表示到擅長處理的特定問題,從加速學習過程到減少樣本使用量等各個方面進行了展開。隨后利用一個報告詳細闡述了如何從視頻(時序相關)和圖像(空間相關)數(shù)據(jù)中學習特征表示,并在另一個報告中延伸了如何從真實世界的3D數(shù)據(jù)中進行學習,包括特征、深度的學習以及特征點的匹配問題。最后闡述了自監(jiān)督學習在機器人中的應用,并用了三個例子進行了闡述:

從深度信息中進行在線自監(jiān)督學習;

用于抓取的自監(jiān)督學習過程;

模仿學習;

幾何和三維重建是計算機視覺的重要部分,今年也有多個相關的tutorial進行了深入地探討。

首先來自印度理學院的Venu Madhav Govindu介紹了基于Motion Averaging的方法進行大規(guī)模三維重建的方法,其tutorial系統(tǒng)的介紹了基于李群的方法,并歸納了不同的motion averaging方法,同時還對算法進行了最佳實踐。這一tutorial旨在幫助研究人員們在新環(huán)境中使用這一方法用于大規(guī)模SFM以及三維稠密建模。

另一個tutorial則從優(yōu)化方面介紹了一種基于L無窮的最小化方法來解決一系列L2最小化所面臨的問題。這一tutorial講解了基于L-infinity的幾何視覺優(yōu)化方法,通過數(shù)學和算法概念以及應用來深入理解如何使用這種新的優(yōu)化概念。

在感知層面,多視角視覺數(shù)據(jù)分析tutorial主要著重于常見的多視角視覺數(shù)據(jù)的分析及其主要的應用,包括多視角聚類、分類和零樣本學習,并討論了目前和未來將要面對的挑戰(zhàn)。

另一個相關的tutorial著重于超快的3D感知、重建和理解,將在22號舉辦。對于3D環(huán)境的捕捉、重建了理解使得人們需要建立高質(zhì)量的傳感器和高效的算法。研究人員們建立了一套高幀率的深度傳感器系統(tǒng),超快的幀率(~1000fps)使得幀間移動大幅減少,同時使得多傳感器的融合變得簡單?;诖搜邪l(fā)出了高效的重建、跟蹤和理解算法。Tutorial介紹了從零開發(fā)這一傳感器的來龍去脈。

對于視覺本質(zhì)的理解Tutorial:A Crash Course on Human Vision

從low,Mid,High level提供了不同層次的理解。它講解了人類的視覺系統(tǒng),并提供了認識了理解視覺系統(tǒng)的方法,以助于前沿計算機視覺的研究。Tutorial分為兩個部分,首先從Low-level開始,講述了光的物理本質(zhì)、視網(wǎng)膜的生理構成,以及顏色、感受野、V1過程和運動感知;第二部分從感知深度和大小、視覺注意力和以及以及識別等方面及進行了闡述。

最后一個關于人類行為識別的Tutorial:Human Activity Recognition。這一領域的研究熱點主要集中在一下幾個方面:

行為可靠的時空定位;

行為的端到端模型;

群體行為識別;

行為預測;

大規(guī)模數(shù)據(jù)集和卷積模型的的建立;

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    210

    文章

    27989

    瀏覽量

    205540
  • 深度學習
    +關注

    關注

    73

    文章

    5431

    瀏覽量

    120790

原文標題:知識點 | CVPR 2018 最佳論文揭曉,Tutorials首日速覽(附下載)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型可解釋性的結果分析

    AI 一文中我們已經(jīng)了解到模型可解釋性發(fā)展的相關背景以及目前較為成熟的技術方法,本文通過一個具體實例來了解下在 MATLAB 中是如何使用這些方法的,以及在得到
    發(fā)表于 09-28 10:17 ?897次閱讀
    機器學習<b class='flag-5'>模型</b><b class='flag-5'>可解釋性</b>的結果分析

    什么是“可解釋的”? 可解釋性AI不能解釋什么

    通過建立既可解釋又準確的模型來改良這種錯誤的二分法。關鍵是將神經(jīng)網(wǎng)絡與決策樹相結合,在使用神經(jīng)網(wǎng)絡進行低級決策時保留高級的可解釋性
    發(fā)表于 05-31 10:51 ?8425次閱讀

    【大語言模型:原理與工程實踐】核心技術綜述

    和量化: 減小模型尺寸和計算復雜度,使模型更適合在計算資源受限的環(huán)境下部署。 解釋性可視化: 提供模型決策的
    發(fā)表于 05-05 10:56

    【大規(guī)模語言模型:從理論到實踐】- 閱讀體驗

    和抗噪聲能力;以及通過可視化工具來增強模型解釋性等。同時,隨著技術的不斷進步和發(fā)展,在未來能夠發(fā)展出更加高效、健壯和可解釋的大語言模型。
    發(fā)表于 06-07 14:44

    機器學習模型的“可解釋性”的概念及其重要意義

    如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經(jīng)網(wǎng)絡具有明顯的優(yōu)勢。深度神經(jīng)網(wǎng)絡能夠?qū)W習豐富的表示,這些表示能夠可視化、用語言表達或用于聚類。如果考慮對可解釋性的需求,似乎線性
    的頭像 發(fā)表于 07-24 09:58 ?2w次閱讀

    神經(jīng)網(wǎng)絡可解釋性研究的重要日益凸顯

    神經(jīng)網(wǎng)絡的可解釋性,從經(jīng)驗主義到數(shù)學建模
    的頭像 發(fā)表于 06-27 10:54 ?5184次閱讀

    Explainable AI旨在提高機器學習模型可解釋性

    Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在 今天的博客中解釋說,Explainable AI旨在提高機器學習模型可解釋性。她說,這項新服務的工作原理是量化每個數(shù)據(jù)
    的頭像 發(fā)表于 03-24 15:14 ?2894次閱讀

    機器學習模型可解釋性的介紹

    模型可解釋性方面的研究,在近兩年的科研會議上成為關注熱點,因為大家不僅僅滿足于模型的效果,更對模型效果的原因產(chǎn)生更多的思考,這...
    的頭像 發(fā)表于 12-10 20:19 ?717次閱讀

    圖神經(jīng)網(wǎng)絡的解釋性綜述

    :https://arxiv.org/pdf/2012.15445.pdf 參考文獻 0.Abstract近年來,深度學習模型可解釋性研究在圖像和文本領域取得了顯著進展
    的頭像 發(fā)表于 04-09 11:42 ?2637次閱讀
    圖神經(jīng)網(wǎng)絡的<b class='flag-5'>解釋性</b>綜述

    《計算機研究與發(fā)展》—機器學習的可解釋性

    機器學習的可解釋性 來源:《計算機研究與發(fā)展》,作者陳珂銳等 摘 要?近年來,機器學習發(fā)展迅速,尤其是深度學習在圖像、聲音、自然語言處理等領域取得卓越成效.機器學習算法的表示能力大幅度提高,但是
    發(fā)表于 01-25 08:35 ?1038次閱讀
    《計算機<b class='flag-5'>研究</b>與發(fā)展》—機器學習的<b class='flag-5'>可解釋性</b>

    關于機器學習模型的六大可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術。
    的頭像 發(fā)表于 02-26 17:20 ?2128次閱讀
    關于機器學習<b class='flag-5'>模型</b>的六大<b class='flag-5'>可解釋性</b>技術

    機器學習模型可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術,包括它們的相對優(yōu)點和缺點。
    的頭像 發(fā)表于 02-16 16:21 ?4567次閱讀
    機器學習<b class='flag-5'>模型</b>的<b class='flag-5'>可解釋性</b>算法詳解

    使用RAPIDS加速實現(xiàn)SHAP的模型可解釋性

      模型解釋性 幫助開發(fā)人員和其他利益相關者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模型可以幫助
    的頭像 發(fā)表于 04-21 09:25 ?2371次閱讀

    可以提高機器學習模型可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術,包括它們的相對優(yōu)點和缺點。
    的頭像 發(fā)表于 02-08 14:08 ?1133次閱讀

    文獻綜述:確保人工智能可解釋性和可信度的來源記錄

    本文對數(shù)據(jù)起源、可解釋AI(XAI)和可信賴AI(TAI)進行系統(tǒng)的文獻綜述,以解釋基本概念,說明數(shù)據(jù)起源文件可以用來提升基于人工智能系統(tǒng)實
    的頭像 發(fā)表于 04-28 15:55 ?1243次閱讀
    文獻綜述:確保人工智能<b class='flag-5'>可解釋性</b>和可信度的來源記錄