0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind論文推出了一種新的神經(jīng)網(wǎng)絡(luò)——GQN

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 08:30 ? 次閱讀

編者按:今天,DeepMind的研究人員在Science上發(fā)表論文,推出了一種新的神經(jīng)網(wǎng)絡(luò)——GQN,只用幾張二維照片,就能重建全部的三維場景,可以說是計算機視覺領(lǐng)域的又一關(guān)鍵突破。

讓機器對空間環(huán)境進(jìn)行感知似乎一直是DeepMind研究的重點,一個多月前我們曾報道過他們的另一項研究:DeepMind用AI解密大腦:當(dāng)你找路時,大腦發(fā)生了什么。空間感知對人類來說很簡單,例如當(dāng)我們第一次走進(jìn)一個房間,掃一眼就能知道屋里有哪些物品、它們都在哪個位置上。只看到桌子的三條腿,你也能推斷出第四條腿的大致位置和形狀。另外,即使你沒有熟悉屋里的每個角落,也能大概描繪出它的平面圖,或者能想象出從另一個角度看房間應(yīng)該是什么樣子的。

但是想讓人工智能系統(tǒng)做到上述行為的確很困難。現(xiàn)在最先進(jìn)的計算機視覺系統(tǒng)仍需要在大型經(jīng)過標(biāo)注的數(shù)據(jù)集上進(jìn)行訓(xùn)練,而數(shù)據(jù)標(biāo)注又是一項費時費力的工作,所以每次模型只能捕捉一小部分場景。隨著網(wǎng)絡(luò)越來越復(fù)雜,想詳細(xì)了解的周圍環(huán)境也越復(fù)雜:最近的座位在哪?沙發(fā)是什么材質(zhì)的?所有影子的光源在哪?照明開關(guān)可能在哪?

在這次的研究中,DeepMind研究人員介紹了一種能感知周圍環(huán)境的框架——GQN(Generative Query Network)。和嬰兒或動物一樣,GQN通過觀察周圍環(huán)境收集數(shù)據(jù),從而學(xué)習(xí),無需人類對場景進(jìn)行標(biāo)記,就能掌握大致空間結(jié)構(gòu)。

GQN模型由兩部分組成:一個表示網(wǎng)絡(luò)和一個生成網(wǎng)絡(luò)。表示網(wǎng)絡(luò)將智能體所觀察到的畫面作為輸入,生成一個表示(向量),描述了基本場景。之后,生成網(wǎng)絡(luò)從此前沒有觀察到的角度對場景進(jìn)行預(yù)測(或者說是“想象”)。

但是表示網(wǎng)絡(luò)并不知道生成網(wǎng)絡(luò)要從哪個視角預(yù)測場景,所以它必須找到一種高效、精確的描繪場景平面的方法。它通過捕捉最重要的元素,例如物體的位置、顏色和房間平面,進(jìn)行簡單表示。訓(xùn)練期間,生成器學(xué)習(xí)辨認(rèn)物體、特征、關(guān)系和環(huán)境的規(guī)律。這一套“共享”的概念讓表示網(wǎng)絡(luò)能用一種高度簡練、抽象的方式描繪場景,剩余的細(xì)節(jié)部分就由生成網(wǎng)絡(luò)補充。例如,表示網(wǎng)絡(luò)用一小串?dāng)?shù)字表示一個“藍(lán)色方塊”,生成網(wǎng)絡(luò)就知道從某個角度應(yīng)該如何用像素展現(xiàn)出來。

DeepMind研究人員在程序生成的虛擬3D環(huán)境中對GQN做了多次試驗,包括多種不同物體,被擺放在不同的位置,并且形狀、顏色、材質(zhì)都不相同,同時還改變了光線方向和遮擋程度。通過在這些環(huán)境上進(jìn)行訓(xùn)練,他們用GQN的表示網(wǎng)絡(luò)去生成一個從未見過的場景。在實驗中人們發(fā)現(xiàn)GQN展現(xiàn)出了幾個重要特征:

GQN的生成網(wǎng)絡(luò)可以在全新視角“想象”出此前沒有見過的景象,精確度非常高。給定一個場景表示和新的相機角度,網(wǎng)絡(luò)不需要任何先前信息就能生成精確的圖像。所以生成網(wǎng)絡(luò)也可以近似看成是從數(shù)據(jù)中學(xué)習(xí)的渲染器:

GQN的表示網(wǎng)絡(luò)可以獨自學(xué)習(xí)算數(shù)、定位、分類物體。就算在小型表示上,GQN也能在具體視角上做出非常精準(zhǔn)的預(yù)測,和現(xiàn)實幾乎一模一樣。這說明了表示網(wǎng)絡(luò)觀察得非常仔細(xì),例如下面這個由幾個方塊堆疊起來的場景:

GQN可以表示、測量并且減少不確定性。即使在沒有完全看到所有場景的情況下,網(wǎng)絡(luò)也可以解釋其中的不確定之處。同時也能根據(jù)部分圖像拼成完整的場景。下面的第一人稱視角和自上而下的預(yù)測方法就是其中的“秘訣”。模型通過它預(yù)測的變化性表達(dá)不確定性,其中預(yù)測的變化性隨著不斷在迷宮中移動減少(灰色三角是觀察位置)。

GQN表示支持穩(wěn)定、數(shù)據(jù)高效的強化學(xué)習(xí)。給定GQN表示后,目前頂尖的深度強化學(xué)習(xí)智能體就開始學(xué)習(xí)以數(shù)據(jù)有效的方式完成任務(wù)。對這些智能體來說,生成網(wǎng)絡(luò)中編入的信息可以看作是對環(huán)境固有的認(rèn)知:

利用GQN我們觀察到了更多數(shù)據(jù)有效的學(xué)習(xí),比通常只利用原始像素的方法快了近4倍達(dá)到收斂水平

相較于前人研究,GQN是一種全新的學(xué)習(xí)現(xiàn)實場景的簡單方法。重要的是,這種方法不需要對具體場景建模,或者花大量時間對內(nèi)容標(biāo)注,一個模型就能應(yīng)用多個場景。它還學(xué)習(xí)了一種強大的神經(jīng)渲染器,能夠在任意角度生成精確的場景圖像。

不過,與一些傳統(tǒng)計算機視覺技術(shù)相比,這次所提出的方法仍然有很多限制,并且目前也都是在虛擬的合成場景上訓(xùn)練的。不過,隨著更多可用數(shù)據(jù)的出現(xiàn)以及硬件的提升,研究人員希望進(jìn)一步套索GQN的可能性,比如將它應(yīng)用到現(xiàn)實場景中,同時提高成像分辨率。未來,研究GQN對更廣泛的場景理解非常重要,例如加入時間的維度,讓它學(xué)習(xí)對場景和移動的理解,同時應(yīng)用到VR和AR技術(shù)中。盡管前路漫漫,這項工作對全自動場景辨別來說是重要一步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:DeepMind重磅論文:不用人類標(biāo)記,幾張圖片就能渲染出3D場景

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    人工神經(jīng)網(wǎng)絡(luò)是根據(jù)人的認(rèn)識過程而開發(fā)出的一種算法。假如我們現(xiàn)在只有些輸入和相應(yīng)的輸出,而對如何由輸入得到輸出的機理并不清楚,那么我們可以把輸入與輸出之間的未知過程看成是個“
    發(fā)表于 06-19 14:40

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識

    學(xué)習(xí)和認(rèn)知科學(xué)領(lǐng)域,是一種模仿生物神經(jīng)網(wǎng)絡(luò)(動物的中樞神經(jīng)系統(tǒng),特別是大腦)的結(jié)構(gòu)和功能的數(shù)學(xué)模型或計算模型,用于對函數(shù)進(jìn)行估計或近似。神經(jīng)網(wǎng)絡(luò)由大量的人工
    發(fā)表于 03-03 22:10

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    一種常用的無監(jiān)督學(xué)習(xí)策略,在使用改策略時,網(wǎng)絡(luò)的輸出神經(jīng)元相互競爭,每時刻只有個競爭獲勝的神經(jīng)
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決些非線性,非平穩(wěn),復(fù)雜的實際問題。那有哪些辦法能實現(xiàn)
    發(fā)表于 08-01 08:06

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索有什么優(yōu)勢?

    ,稍有不同就無法復(fù)現(xiàn)論文的結(jié)果。而網(wǎng)絡(luò)結(jié)構(gòu)作為一種特殊的超參數(shù),在深度學(xué)習(xí)整個環(huán)節(jié)中扮演著舉足輕重的角色。在圖像分類任務(wù)上大放異彩的ResNet、在機器翻譯任務(wù)上稱霸的Transformer等
    發(fā)表于 09-11 11:52

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反
    發(fā)表于 07-12 08:02

    一種基于綜合幾何特征和概率神經(jīng)網(wǎng)絡(luò)的HGU軸軌識別方法

    摘要故障診斷是保證水輪發(fā)電機組安全運行的重要環(huán)節(jié)。軸心軌跡辨識是HGU故障診斷的一種有效方法。提出了一種基于綜合幾何特征和概率神經(jīng)網(wǎng)絡(luò)(CGC-PNN)的HGU軸軌識別方法。該方法從結(jié)
    發(fā)表于 09-15 08:18

    一種基于高效采樣算法的時序圖神經(jīng)網(wǎng)絡(luò)系統(tǒng)介紹

    成為了非常重要的問題。 基于以上問題,本文提出了一種基于高效采樣算法的時序圖神經(jīng)網(wǎng)絡(luò)系統(tǒng) 。首先我們介紹用于時序圖神經(jīng)網(wǎng)絡(luò)采樣的高效采樣方法。采樣常常被用于深度學(xué)習(xí)中以降低模型的訓(xùn)練時
    發(fā)表于 09-28 10:34

    一種基于PID神經(jīng)網(wǎng)絡(luò)的解耦控制方法的研究

    為了消除造紙工業(yè)抄紙過程中存在的解耦問題,提出了一種基于PID 神經(jīng)網(wǎng)絡(luò)的解耦方法。文章在介紹PID 神經(jīng)網(wǎng)絡(luò)原理的基礎(chǔ)上,給出了二變量PI
    發(fā)表于 06-15 10:10 ?19次下載

    一種基于人工神經(jīng)網(wǎng)絡(luò)的秘密共享方案

    本文首先分析了人工神經(jīng)網(wǎng)絡(luò)和秘密共享的相通之處,闡明了用人工神經(jīng)網(wǎng)絡(luò)來實現(xiàn)秘密共享是可能的;其次給出了一種基于人工神經(jīng)網(wǎng)絡(luò)的秘密共享的門限方
    發(fā)表于 08-15 09:54 ?15次下載

    一種改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)調(diào)制分類器

    本文致力于基于神經(jīng)網(wǎng)絡(luò)的通信信號調(diào)制類型識別器設(shè)計研究。論文出了一種改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)分類器,它采用7個特征參數(shù),可以對CW、2FSK、4
    發(fā)表于 08-29 10:22 ?10次下載

    Google AI子公司開發(fā)出神經(jīng)網(wǎng)絡(luò)GQN,其組成部分介紹

    Google AI 子公司 DeepMind 開發(fā)出神經(jīng)網(wǎng)絡(luò),能根據(jù)張 2D 圖像“想象出”它的 3D 場景。該系統(tǒng)被稱為Generative Query Network (
    的頭像 發(fā)表于 06-29 16:54 ?6822次閱讀
    Google AI子公司開發(fā)出<b class='flag-5'>一</b>個<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>GQN</b>,其組成部分介紹

    一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):膠囊網(wǎng)絡(luò)

    膠囊網(wǎng)絡(luò)是 Geoffrey Hinton 提出的一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),為了解決卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)的些缺點,提
    的頭像 發(fā)表于 02-02 09:25 ?5770次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點 卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法,其主要特點是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)元之間的權(quán)重,從而實現(xiàn)對大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?3775次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型是一種什么模型

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而產(chǎn)生的數(shù)學(xué)模型,用于模擬人腦處理信息的方式。它由大量的節(jié)點(或稱為神經(jīng)元)相
    的頭像 發(fā)表于 07-04 16:57 ?588次閱讀