0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

83篇文獻(xiàn)、萬字總結(jié)強(qiáng)化學(xué)習(xí)之路

電子設(shè)計 ? 來源: 電子設(shè)計 ? 作者: 電子設(shè)計 ? 2020-12-10 18:32 ? 次閱讀

深度強(qiáng)化學(xué)習(xí)是深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)相結(jié)合的產(chǎn)物,它集成了深度學(xué)習(xí)在視覺等感知問題上強(qiáng)大的理解能力,以及強(qiáng)化學(xué)習(xí)的決策能力,實現(xiàn)了端到端學(xué)習(xí)。本文對強(qiáng)化學(xué)習(xí)進(jìn)行了非常全面的總結(jié),建議收藏。
報道:深度強(qiáng)化學(xué)習(xí)實驗室
作者:侯宇清,陳玉榮
編輯:DeepRL

深度強(qiáng)化學(xué)習(xí)是深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)相結(jié)合的產(chǎn)物,它集成了深度學(xué)習(xí)在視覺等感知問題上強(qiáng)大的理解能力,以及強(qiáng)化學(xué)習(xí)的決策能力,實現(xiàn)了端到端學(xué)習(xí)。深度強(qiáng)化學(xué)習(xí)的出現(xiàn)使得強(qiáng)化學(xué)習(xí)技術(shù)真正走向?qū)嵱?,得以解決現(xiàn)實場景中的復(fù)雜問題。從2013年DQN(深度Q網(wǎng)絡(luò),deep Q network)出現(xiàn)到目前為止,深度強(qiáng)化學(xué)習(xí)領(lǐng)域出現(xiàn)了大量的算法,以及解決實際應(yīng)用問題的論文,本文將闡述深度強(qiáng)化學(xué)習(xí)的發(fā)展現(xiàn)狀,并對未來進(jìn)行展望。

一、深度強(qiáng)化學(xué)習(xí)的泡沫

2015 年,DeepMind 的 Volodymyr Mnih 等研究員在《自然》雜志上發(fā)表論文 Human-level control through deep reinforcement learning[1],該論文提出了一個結(jié)合深度學(xué)習(xí)(DL)技術(shù)和強(qiáng)化學(xué)習(xí)(RL)思想的模型 Deep Q-Network(DQN),在 Atari 游戲平臺上展示出超越人類水平的表現(xiàn)。自此以后,結(jié)合 DL 與 RL 的深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning, DRL)迅速成為人工智能界的焦點。

過去三年間,DRL 算法在不同領(lǐng)域大顯神通:在視頻游戲 [1]、棋類游戲上打敗人類頂尖高手 [2,3];控制復(fù)雜的機(jī)械進(jìn)行操作 [4];調(diào)配網(wǎng)絡(luò)資源 [5];為數(shù)據(jù)中心大幅節(jié)能 [6];甚至對機(jī)器學(xué)習(xí)算法自動調(diào)參 [7]。各大高校和企業(yè)紛紛參與其中,提出了眼花繚亂的 DRL 算法和應(yīng)用。可以說,過去三年是 DRL 的爆紅期。DeepMind 負(fù)責(zé) AlphaGo 項目的研究員 David Silver 喊出“AI = RL + DL”,認(rèn)為結(jié)合了 DL 的表示能力與 RL 的推理能力的 DRL 將會是人工智能的終極答案。

1.1 DRL 的可復(fù)現(xiàn)性危機(jī)

然而,研究人員在最近半年開始了對 DRL 的反思。由于發(fā)表的文獻(xiàn)中往往不提供重要參數(shù)設(shè)置和工程解決方案的細(xì)節(jié),很多算法都難以復(fù)現(xiàn)。2017 年 9 月,著名 RL 專家 Doina Precup 和 Joelle Pineau 所領(lǐng)導(dǎo)的的研究組發(fā)表了論文 Deep Reinforcement Learning that Matters[8],直指當(dāng)前 DRL 領(lǐng)域論文數(shù)量多卻水分大、實驗難以復(fù)現(xiàn)等問題。該文在學(xué)術(shù)界和工業(yè)界引發(fā)熱烈反響。很多人對此表示認(rèn)同,并對 DRL 的實際能力產(chǎn)生強(qiáng)烈懷疑。

其實,這并非 Precup& Pineau 研究組第一次對 DRL 發(fā)難。早在 2 個月前,該研究組就通過充足的實驗對造成 DRL 算法難以復(fù)現(xiàn)的多個要素加以研究,并將研究成果撰寫成文 Reproducibility of Benchmarked Deep Reinforcement Learning Tasks for Continuous Control[9]。同年 8 月,他們在 ICML 2017 上作了題為“Reproducibility of Policy Gradient Methods for Continuous Control”的報告 [10],通過實例詳細(xì)展示了在復(fù)現(xiàn)多個基于策略梯度的算法的過程中,由于種種不確定性因素導(dǎo)致的復(fù)現(xiàn)困難。12 月,在萬眾矚目的 NIPS 2017 DRL 專題研討會上,Joelle Pineau 受邀作了題為“Reproducibility of DRL and Beyond”的報告 [11]。報告中,Pineau 先介紹了當(dāng)前科研領(lǐng)域的“可復(fù)現(xiàn)性危機(jī)” :在《自然》雜志的一項調(diào)查中,90% 的被訪者認(rèn)為“可復(fù)現(xiàn)性”問題是科研領(lǐng)域存在的危機(jī),其中,52% 的被訪者認(rèn)為這個問題很嚴(yán)重。在另一項調(diào)查中,不同領(lǐng)域的研究者幾乎都有很高的比例無法復(fù)現(xiàn)他人甚至自己過去的實驗??梢姟翱蓮?fù)現(xiàn)性危機(jī)”有多么嚴(yán)峻!Pineau 針對機(jī)器學(xué)習(xí)領(lǐng)域發(fā)起的一項調(diào)研顯示,同樣有 90% 的研究者認(rèn)識到了這個危機(jī)。


機(jī)器學(xué)習(xí)領(lǐng)域存在嚴(yán)重的“可復(fù)現(xiàn)性危機(jī)”[11]

隨后,針對 DRL 領(lǐng)域,Pineau 展示了該研究組對當(dāng)前不同 DRL 算法的大量可復(fù)現(xiàn)性實驗。實驗結(jié)果表明,不同 DRL 算法在不同任務(wù)、不同超參數(shù)、不同隨機(jī)種子下的效果大相徑庭。在報告后半段,Pineau 呼吁學(xué)界關(guān)注“可復(fù)現(xiàn)性危機(jī)”這一問題,并根據(jù)她的調(diào)研結(jié)果,提出了 12 條檢驗算法“可復(fù)現(xiàn)性”的準(zhǔn)則,宣布計劃在 ICLR 2018 開始舉辦“可復(fù)現(xiàn)實驗挑戰(zhàn)賽”(“可復(fù)現(xiàn)危機(jī)”在其他機(jī)器學(xué)習(xí)領(lǐng)域也受到了關(guān)注,ICML 2017 已經(jīng)舉辦了 Reproducibility in Machine Learning Workshop,并將在今年繼續(xù)舉辦第二屆),旨在鼓勵研究者做出真正扎實的工作,抑制機(jī)器學(xué)習(xí)領(lǐng)域的泡沫。Pineau & Precup 研究組的這一系列研究獲得了廣泛關(guān)注。


Pineau 基于大量調(diào)查提出的檢驗算法“可復(fù)現(xiàn)性”準(zhǔn)則 [11]

1.2 DRL 研究存在多少坑?

同樣在 12 月,Reddit 論壇上也開展了關(guān)于機(jī)器學(xué)習(xí)不正之風(fēng)的熱烈討論 [12]。有人點名指出,某些 DRL 代表性算法之所以在模擬器中取得了優(yōu)秀卻難以復(fù)現(xiàn)的表現(xiàn),是因為作者們涉嫌在實驗中修改模擬器的物理模型,卻在論文中對此避而不談。

對現(xiàn)有 DRL 算法的批判浪潮仍舊不斷涌來。2018 年的情人節(jié)當(dāng)天,曾經(jīng)就讀于伯克利人工智能研究實驗室(Berkeley Artificial Intelligence Research Lab, BAIR)的 Alexirpan 通過一篇博文 Deep Reinforcement Learning Doesn't Work Yet[13] 給 DRL 圈送來了一份苦澀的禮物。他在文中通過多個例子,從實驗角度總結(jié)了 DRL 算法存在的幾大問題:

樣本利用率非常低;

最終表現(xiàn)不夠好,經(jīng)常比不過基于模型的方法;

好的獎勵函數(shù)難以設(shè)計;

難以平衡“探索”和“利用”, 以致算法陷入局部極??;

對環(huán)境的過擬合;

災(zāi)難性的不穩(wěn)定性…

雖然作者在文章結(jié)尾試著提出 DRL 下一步應(yīng)該解決的一系列問題,很多人還是把這篇文章看做 DRL 的“勸退文”。幾天后,GIT 的博士生 Himanshu Sahni 發(fā)表博文 Reinforcement Learning never worked, and 'deep'>

另一位 DRL 研究者 Matthew Rahtz 則通過講述自己試圖復(fù)現(xiàn)一個 DRL 算法的坎坷歷程來回應(yīng) Alexirpan,讓大家深刻體會了復(fù)現(xiàn) DRL 算法有多么難 [15]。半年前,Rahtz 出于研究興趣,選擇對 OpenAI 的論文 Deep Reinforcement Learning from Human Preferences 進(jìn)行復(fù)現(xiàn)。在復(fù)現(xiàn)的過程中,幾乎踩了 Alexirpan 總結(jié)的所有的坑。他認(rèn)為復(fù)現(xiàn) DRL 算法與其是一個工程問題,更不如說像一個數(shù)學(xué)問題?!八袷悄阍诮鉀Q一個謎題,沒有規(guī)律可循,唯一的方法是不斷嘗試,直到靈感出現(xiàn)徹底搞明白。……很多看上去無關(guān)緊要的小細(xì)節(jié)成了唯一的線索……做好每次卡住好幾周的準(zhǔn)備?!盧ahtz 在復(fù)現(xiàn)的過程中積累了很多寶貴的工程經(jīng)驗,但整個過程的難度還是讓他花費(fèi)了大量的金錢以及時間。他充分調(diào)動不同的計算資源,包括學(xué)校的機(jī)房資源、Google 云計算引擎和 FloydHub,總共花費(fèi)高達(dá) 850 美元。可就算這樣,原定于 3 個月完成的項目,最終用了 8 個月,其中大量時間用在調(diào)試上。


復(fù)現(xiàn) DRL 算法的實際時間遠(yuǎn)多于預(yù)計時間 [15]

Rahtz 最終實現(xiàn)了復(fù)現(xiàn)論文的目標(biāo)。他的博文除了給讀者詳細(xì)總結(jié)了一路走來的各種寶貴工程經(jīng)驗,更讓大家從一個具體事例感受到了 DRL 研究實際上存在多大的泡沫、有多少的坑。有人評論到,“DRL 的成功可能不是因為其真的有效,而是因為人們花了大力氣。”

很多著名學(xué)者也紛紛加入討論。目前普遍的觀點是,DRL 可能有 AI 領(lǐng)域最大的泡沫。機(jī)器學(xué)習(xí)專家 Jacob Andreas 發(fā)了一條意味深長的 tweet 說:


Jacob Andreas 對 DRL 的吐槽

DRL 的成功歸因于它是機(jī)器學(xué)習(xí)界中唯一一種允許在測試集上訓(xùn)練的方法。

從 Pineau & Precup 打響第一槍到現(xiàn)在的 1 年多時間里,DRL 被錘得千瘡百孔,從萬眾矚目到被普遍看衰。就在筆者準(zhǔn)備投稿這篇文章的時候,Pineau 又受邀在 ICLR 2018 上作了一個題為 Reproducibility, Reusability, and Robustness in DRL 的報告 [16],并且正式開始舉辦“可復(fù)現(xiàn)實驗挑戰(zhàn)賽”。看來學(xué)界對 DRL 的吐槽將會持續(xù),負(fù)面評論還將持續(xù)發(fā)酵。那么, DRL 的問題根結(jié)在哪里?前景真的如此黯淡嗎?如果不與深度學(xué)習(xí)結(jié)合,RL 的出路又在哪里?

在大家紛紛吐槽 DRL 的時候,著名的優(yōu)化專家 Ben Recht,從另一個角度給出一番分析。

二、免模型強(qiáng)化學(xué)習(xí)的本質(zhì)缺陷

RL 算法可以分為基于模型的方法(Model-based)與免模型的方法(Model-free)。前者主要發(fā)展自最優(yōu)控制領(lǐng)域。通常先通過高斯過程(GP)或貝葉斯網(wǎng)絡(luò)(BN)等工具針對具體問題建立模型,然后再通過機(jī)器學(xué)習(xí)的方法或最優(yōu)控制的方法,如模型預(yù)測控制(MPC)、線性二次調(diào)節(jié)器(LQR)、線性二次高斯(LQG)、迭代學(xué)習(xí)控制(ICL)等進(jìn)行求解。而后者更多地發(fā)展自機(jī)器學(xué)習(xí)領(lǐng)域,屬于數(shù)據(jù)驅(qū)動的方法。算法通過大量采樣,估計代理的狀態(tài)、動作的值函數(shù)或回報函數(shù),從而優(yōu)化動作策略。


基于模型 vs. 免模型 [17]

從年初至今,Ben Recht 連發(fā)了 13 篇博文,從控制與優(yōu)化的視角,重點探討了 RL 中的免模型方法 [18]。Recht 指出免模型方法自身存在以下幾大缺陷:

免模型方法無法從不帶反饋信號的樣本中學(xué)習(xí),而反饋本身就是稀疏的,因此免模型方向樣本利用率很低,而數(shù)據(jù)驅(qū)動的方法則需要大量采樣。比如在 Atari 平臺上的《Space Invader》和《Seaquest》游戲中,智能體所獲得的分?jǐn)?shù)會隨訓(xùn)練數(shù)據(jù)增加而增加。利用免模型 DRL 方法可能需要 2 億幀畫面才能學(xué)到比較好的效果。AlphaGo 最早在 Nature 公布的版本也需要 3000 萬個盤面進(jìn)行訓(xùn)練。而但凡與機(jī)械控制相關(guān)的問題,訓(xùn)練數(shù)據(jù)遠(yuǎn)不如視頻圖像這樣的數(shù)據(jù)容易獲取,因此只能在模擬器中進(jìn)行訓(xùn)練。而模擬器與現(xiàn)實世界間的 Reality Gap,直接限制了訓(xùn)練自其中算法的泛化性能。另外,數(shù)據(jù)的稀缺性也影響了其與 DL 技術(shù)的結(jié)合。

免模型方法不對具體問題進(jìn)行建模,而是嘗試用一個通用的算法解決所有問題。而基于模型的方法則通過針對特定問題建立模型,充分利用了問題固有的信息。免模型方法在追求通用性的同時放棄這些富有價值的信息。

基于模型的方法針對問題建立動力學(xué)模型,這個模型具有解釋性。而免模型方法因為沒有模型,解釋性不強(qiáng),調(diào)試?yán)щy。

相比基于模型的方法,尤其是基于簡單線性模型的方法,免模型方法不夠穩(wěn)定,在訓(xùn)練中極易發(fā)散。

為了證實以上觀點,Recht 將一個簡單的基于 LQR 的隨機(jī)搜索方法與最好的免模型方法在 MuJoCo 實驗環(huán)境上進(jìn)行了實驗對比。在采樣率相近的情況下,基于模型的隨機(jī)搜索算法的計算效率至少比免模型方法高 15 倍 [19]。


基于模型的隨機(jī)搜索方法 ARS 吊打一眾免模型方法 [19]

通過 Recht 的分析,我們似乎找到了 DRL 問題的根結(jié)。近三年在機(jī)器學(xué)習(xí)領(lǐng)域大火的 DRL 算法,多將免模型方法與 DL 結(jié)合,而免模型算法的天然缺陷,恰好與 Alexirpan 總結(jié)的 DRL 幾大問題相對應(yīng)(見上文)。

看來,DRL 的病根多半在采用了免模型方法上。為什么多數(shù) DRL 的工作都是基于免模型方法呢?筆者認(rèn)為有幾個原因。第一,免模型的方法相對簡單直觀,開源實現(xiàn)豐富,比較容易上手,從而吸引了更多的學(xué)者進(jìn)行研究,有更大可能做出突破性的工作,如 DQN 和 AlphaGo 系列。第二,當(dāng)前 RL 的發(fā)展還處于初級階段,學(xué)界的研究重點還是集中在環(huán)境是確定的、靜態(tài)的,狀態(tài)主要是離散的、靜態(tài)的、完全可觀察的,反饋也是確定的問題(如 Atari 游戲)上。針對這種相對“簡單”、基礎(chǔ)、通用的問題,免模型方法本身很合適。最后,在“AI = RL + DL”這一觀點的鼓動下,學(xué)界高估了 DRL 的能力。DQN 展示出的令人興奮的能力使得很多人圍繞著 DQN 進(jìn)行拓展,創(chuàng)造出了一系列同樣屬于免模型的工作。


絕大多數(shù) DRL 方法是對 DQN 的擴(kuò)展,屬于免模型方法 [20]

那么,DRL 是不是應(yīng)該拋棄免模型方法,擁抱基于模型的方法呢?

三、基于模型或免模型,問題沒那么簡單

3.1 基于模型的方法,未來潛力巨大

基于模型的方法一般先從數(shù)據(jù)中學(xué)習(xí)模型,然后基于學(xué)到的模型對策略進(jìn)行優(yōu)化。學(xué)習(xí)模型的過程和控制論中的系統(tǒng)參數(shù)辨識類似。因為模型的存在,基于模型的方法可以充分利用每一個樣本來逼近模型,數(shù)據(jù)利用率極大提高。基于模型的方法則在一些控制問題中,相比于免模型方法,通常有 10^2 級的采樣率提升。此外,學(xué)到的模型往往對環(huán)境的變化魯棒, 當(dāng)遇到新環(huán)境時,算法可以依靠已學(xué)到的模型做推理,具有很好的泛化性能。


基于模型的方法具有更高采樣率 [22]

此外,基于模型的方法還與潛力巨大的預(yù)測學(xué)習(xí)(Predictive Learning)緊密相關(guān)。由于建立了模型,本身就可以通過模型預(yù)測未來,這與 Predictive Learning 的需求不謀而合。其實,Yann LeCun 在廣受關(guān)注的 NIPS 2016 主題報告上介紹 Predictive Learning 時,也是以基于模型的方法作為例子的 [21]。筆者認(rèn)為,基于模型的 RL 方法可能是實現(xiàn) Predictive Learning 的重要技術(shù)之一。

這樣看來,基于模型的方法似乎更有前途。但天下沒有免費(fèi)的午餐,模型的存在也帶來了若干問題

3.2 免模型方法,依舊是第一選擇

基于模型的 DRL 方法相對而言不那么簡單直觀,RL 與 DL 的結(jié)合方式相對更復(fù)雜,設(shè)計難度更高。目前基于模型的 DRL 方法通常用高斯過程、貝葉斯網(wǎng)絡(luò)或概率神經(jīng)網(wǎng)絡(luò)(PNN)來構(gòu)建模型,典型的如 David Silver 在 2016 年提出的 Predictron 模型 [23]。另外一些工作,如 Probabilistic Inference for Learning COntrol (PILCO)[24],本身不基于神經(jīng)網(wǎng)絡(luò),不過有與 BN 結(jié)合的擴(kuò)展版本。而 Guided Policy Search (GPS) 雖然在最優(yōu)控制器的優(yōu)化中使用了神經(jīng)網(wǎng)絡(luò),但模型并不依賴神經(jīng)網(wǎng)絡(luò) [25]。此外還有一些模型將神經(jīng)網(wǎng)絡(luò)與模型耦合在一起 [26]。這些工作不像免模型 DRL 方法那樣直觀且自然,DL 所起的作用也各有不同。

除此之外,基于模型的方法也還存在若干自身缺陷:

針對無法建模的問題束手無策。有些領(lǐng)域,比如 NLP,存在大量難以歸納成模型的任務(wù)。在這種場景下,只能通過諸如 R-max 算法這樣的方法先與環(huán)境交互,計算出一個模型為后續(xù)使用。但是這種方法的復(fù)雜度一般很高。近期有一些工作結(jié)合預(yù)測學(xué)習(xí)建立模型,部分地解決了建模難的問題,這一思路逐漸成為了研究熱點。

建模會帶來誤差,而且誤差往往隨著算法與環(huán)境的迭代交互越來越大,使得算法難以保證收斂到最優(yōu)解。

模型缺乏通用性,每次換一個問題,就要重新建模。

針對以上幾點,免模型方法都有相對優(yōu)勢:對現(xiàn)實中非常多的無法建模的問題以及模仿學(xué)習(xí)問題,免模型算法仍是最好的選擇。并且,免模型方法在理論上具備漸近收斂性,經(jīng)過無數(shù)次與環(huán)境的交互可以保證得到最優(yōu)解,這是基于模型的方法很難獲得的結(jié)果。最后,免模型最大的優(yōu)勢就是具備非常好的通用性。事實上,在處理真正困難的問題時,免模型方法的效果通常更好。Recht 也在博文中指出,控制領(lǐng)域很有效的 MPC 算法其實與 Q-Learning 這樣的免模型方法非常相關(guān) [18]。

基于模型的方法與免模型的方法的區(qū)別其實也可以看做基于知識的方法與基于統(tǒng)計的方法的區(qū)別??傮w來講,兩種方法各有千秋,很難說其中一種方法優(yōu)于另一種。在 RL 領(lǐng)域中,免模型算法只占很少一部分,但基于歷史原因,當(dāng)前免模型的 DRL 方法發(fā)展迅速數(shù)量龐大,而基于模型的 DRL 方法則相對較少。筆者認(rèn)為,我們可以考慮多做一些基于模型的 DRL 方面的工作,克服當(dāng)前 DRL 存在的諸多問題。此外,還可以多研究結(jié)合基于模型方法與免模型方法的半模型方法,兼具兩種方法的優(yōu)勢。這方面經(jīng)典的工作有 RL 泰斗 Rich Sutton 提出的 Dyna 框架 [27] 和其弟子 David Silver 提出的 Dyna-2 框架 [28]。

通過以上討論,我們似乎對 DRL 目前的困境找到了出路。但其實,造成當(dāng)前 DRL 困境的原因遠(yuǎn)不止這些。

3.3 不僅僅是模型與否的問題

上文提到 Recht 使用基于隨機(jī)搜索的方法吊打了免模型方法,似乎宣判了免模型方法的死刑。但其實這個對比并不公平。

2017 年 3 月,機(jī)器學(xué)習(xí)專家 Sham Kakade 的研究組發(fā)表文章 Towards Generalization and Simplicity in Continuous Control,試圖探尋針對連續(xù)控制問題的簡單通用的解法 [29] 。他們發(fā)現(xiàn)當(dāng)前的模擬器存在非常大的問題,經(jīng)過調(diào)試的線性策略就已經(jīng)可以取得非常好的效果——這樣的模擬器實在過于粗糙,難怪基于隨機(jī)搜索的方法可以在同樣的模擬器上戰(zhàn)勝免模型方法!

可見目前 RL 領(lǐng)域的實驗平臺還非常不成熟,在這樣的測試環(huán)境中的實驗實驗結(jié)果沒有足夠的說服力。很多研究結(jié)論都未必可信,因為好性能的取得或許僅僅是因為利用了模擬器的 bugs。此外,一些學(xué)者指出當(dāng)前 RL 算法的性能評判準(zhǔn)則也不科學(xué)。Ben Recht 和 Sham Kakade 都對 RL 的發(fā)展提出了多項具體建議,包括測試環(huán)境、基準(zhǔn)算法、衡量標(biāo)準(zhǔn)等 [18,29]??梢?RL 領(lǐng)域還有太多需要改進(jìn)和規(guī)范化。

那么,RL 接下來該如何突破呢?

四、重新審視強(qiáng)化學(xué)習(xí)

對 DRL 和免模型 RL 的質(zhì)疑與討論,讓我們可以重新審視 RL,這對 RL 今后的發(fā)展大有裨益。

4.1 重新審視 DRL 的研究與應(yīng)用

DQN 和 AlphaGo 系列工作給人留下深刻印象,但是這兩種任務(wù)本質(zhì)上其實相對“簡單”。因為這些任務(wù)的環(huán)境是確定的、靜態(tài)的,狀態(tài)主要是離散的、靜態(tài)的、完全可觀察的,反饋是確定的,代理也是單一的。目前 DRL 在解決部分可見狀態(tài)任務(wù)(如 StarCraft),狀態(tài)連續(xù)的任務(wù)(如機(jī)械控制任務(wù)),動態(tài)反饋任務(wù)和多代理任務(wù)中還沒取得令人驚嘆的突破。


DRL 取得成功的任務(wù)本質(zhì)上相對簡單 [30]

當(dāng)前大量的 DRL 研究,尤其是應(yīng)用于計算機(jī)視覺領(lǐng)域任務(wù)的研究中,很多都是將計算機(jī)視覺的某一個基于 DL 的任務(wù)強(qiáng)行構(gòu)造成 RL 問題進(jìn)行求解,其結(jié)果往往不如傳統(tǒng)方法好。這樣的研究方式造成 DRL 領(lǐng)域論文數(shù)量暴增、水分巨大。作為 DRL 的研究者,我們不應(yīng)該找一個 DL 任務(wù)強(qiáng)行將其 RL 化,而是應(yīng)該針對一些天然適合 RL 處理的任務(wù),嘗試通過引入 DL 來提升現(xiàn)有方法在目標(biāo)識別環(huán)節(jié)或函數(shù)逼近環(huán)節(jié)上的能力。

在計算機(jī)視覺任務(wù)中,通過結(jié)合 DL 獲得良好的特征表達(dá)或函數(shù)逼近是非常自然的思路。但在有些領(lǐng)域,DL 未必能發(fā)揮強(qiáng)大的特征提取作用,也未必被用于函數(shù)逼近。比如 DL 至今在機(jī)器人領(lǐng)域最多起到感知作用,而無法取代基于力學(xué)分析的方法。雖然有一些將 DRL 應(yīng)用于物體抓取等現(xiàn)實世界的機(jī)械控制任務(wù)上并取得成功的案例,如 QT-Opt[70],但往往需要大量的調(diào)試和訓(xùn)練時間。我們應(yīng)該清晰地認(rèn)識 DRL 算法的應(yīng)用特點:因為其輸出的隨機(jī)性,當(dāng)前的 DRL 算法更多地被用在模擬器而非真實環(huán)境中。而當(dāng)前具有實用價值且只需運(yùn)行于模擬器中的任務(wù)主要有三類,即視頻游戲、棋類游戲和自動機(jī)器學(xué)習(xí)(AutoML,比如谷歌的 AutoML Vision)。

這并不是說 DRL 的應(yīng)用被困在模擬器中——如果能針對某一具體問題,解決模擬器與真實世界間的差異,則可以發(fā)揮 DRL 的強(qiáng)大威力。最近 Google 的研究員就針對四足機(jī)器人運(yùn)動問題,通過大力改進(jìn)模擬器,使得在模擬器中訓(xùn)練的運(yùn)動策略可以完美遷移到真實世界中,取得了令人驚艷的效果 [71]。不過,考慮到 RL 算法的不穩(wěn)定性,在實際應(yīng)用中不應(yīng)盲目追求端到端的解決方案,而可以考慮將特征提取(DL)與決策(RL)分開,從而獲得更好的解釋性與穩(wěn)定性。此外,模塊化 RL(將 RL 算法封裝成一個模塊)以及將 RL 與其他模型融合,將在實際應(yīng)用中有廣闊前景。而如何通過 DL 學(xué)習(xí)一個合適于作為 RL 模塊輸入的表示,也值得研究。

4.2 重新審視 RL 的研究

機(jī)器學(xué)習(xí)是個跨學(xué)科的研究領(lǐng)域,而 RL 則是其中跨學(xué)科性質(zhì)非常顯著的一個分支。RL 理論的發(fā)展受到生理學(xué)、神經(jīng)科學(xué)和最優(yōu)控制等領(lǐng)域的啟發(fā),現(xiàn)在依舊在很多相關(guān)領(lǐng)域被研究。在控制理論、機(jī)器人學(xué)、運(yùn)籌學(xué)、經(jīng)濟(jì)學(xué)等領(lǐng)域內(nèi)部,依舊有很多的學(xué)者投身 RL 的研究,類似的概念或算法往往在不同的領(lǐng)域被重新發(fā)明,起了不同的名字。


RL 的發(fā)展受到多個學(xué)科的影響 [31]

Princeton 大學(xué)著名的運(yùn)籌學(xué)專家 Warren Powell 曾經(jīng)寫了一篇題為 AI, OR and Control Theory: A Rosetta Stone for Stochastic Optimization 的文章,整理了 RL 中同一個概念、算法在 AI、OR(運(yùn)籌學(xué))和 Control Theory(控制理論)中各自對應(yīng)的名稱,打通了不同領(lǐng)域間的隔閡 [32] 。由于各種學(xué)科各自的特點,不同領(lǐng)域的 RL 研究又獨(dú)具特色,這使得 RL 的研究可以充分借鑒不同領(lǐng)域的思想精華。

在這里,筆者根據(jù)自身對 RL 的理解,試著總結(jié)一些值得研究的方向:

基于模型的方法。如上文所述,基于模型的方法不僅能大幅降低采樣需求,還可以通過學(xué)習(xí)任務(wù)的動力學(xué)模型,為預(yù)測學(xué)習(xí)打下基礎(chǔ)。

提高免模型方法的數(shù)據(jù)利用率和擴(kuò)展性。這是免模型學(xué)習(xí)的兩處硬傷,也是 Rich Sutton 的終極研究目標(biāo)。這個領(lǐng)域很艱難,但是任何有意義的突破也將帶來極大價值。

更高效的探索策略(Exploration Strategies)。平衡“探索”與“利用”是 RL 的本質(zhì)問題,這需要我們設(shè)計更加高效的探索策略。除了若干經(jīng)典的算法如 Softmax、?-Greedy[1]、UCB[72] 和 Thompson Sampling[73] 等,近期學(xué)界陸續(xù)提出了大批新算法,如 Intrinsic Motivation [74]、Curiosity-driven Exploration[75]、Count-based Exploration [76] 等。其實這些“新”算法的思想不少早在 80 年代就已出現(xiàn) [77],而與 DL 的有機(jī)結(jié)合使它們重新得到重視。此外,OpenAI 與 DeepMind 先后提出通過在策略參數(shù) [78] 和神經(jīng)網(wǎng)絡(luò)權(quán)重 [79] 上引入噪聲來提升探索策略, 開辟了一個新方向。

與模仿學(xué)習(xí)(Imitation Learning, IL)結(jié)合。機(jī)器學(xué)習(xí)與自動駕駛領(lǐng)域最早的成功案例 ALVINN[33] 就是基于 IL;當(dāng)前 RL 領(lǐng)域最頂級的學(xué)者 Pieter Abbeel 在跟隨 Andrew Ng 讀博士時候, 設(shè)計的通過 IL 控制直升機(jī)的算法 [34] 成為 IL 領(lǐng)域的代表性工作。2016 年,英偉達(dá)提出的端到端自動駕駛系統(tǒng)也是通過 IL 進(jìn)行學(xué)習(xí) [68]。而 AlphaGo 的學(xué)習(xí)方式也是 IL。IL 介于 RL 與監(jiān)督學(xué)習(xí)之間,兼具兩者的優(yōu)勢,既能更快地得到反饋、更快地收斂,又有推理能力,很有研究價值。關(guān)于 IL 的介紹,可以參見 [35] 這篇綜述。

獎賞塑形(Reward Shaping)。獎賞即反饋,其對 RL 算法性能的影響是巨大的。Alexirpan 的博文中已經(jīng)展示了沒有精心設(shè)計的反饋信號會讓 RL 算法產(chǎn)生多么差的結(jié)果。設(shè)計好的反饋信號一直是 RL 領(lǐng)域的研究熱點。近年來涌現(xiàn)出很多基于“好奇心”的 RL 算法和層級 RL 算法,這兩類算法的思路都是在模型訓(xùn)練的過程中插入反饋信號,從而部分地克服了反饋過于稀疏的問題。另一種思路是學(xué)習(xí)反饋函數(shù),這是逆強(qiáng)化學(xué)習(xí)(Inverse RL, IRL)的主要方式之一。近些年大火的 GAN 也是基于這個思路來解決生成建模問題, GAN 的提出者 Ian Goodfellow 也認(rèn)為 GAN 就是 RL 的一種方式 [36]。而將 GAN 于傳統(tǒng) IRL 結(jié)合的 GAIL[37] 已經(jīng)吸引了很多學(xué)者的注意。

RL 中的遷移學(xué)習(xí)與多任務(wù)學(xué)習(xí)。當(dāng)前 RL 的采樣效率極低,而且學(xué)到的知識不通用。遷移學(xué)習(xí)與多任務(wù)學(xué)習(xí)可以有效解決這些問題。通過將從原任務(wù)中學(xué)習(xí)的策略遷移至新任務(wù)中,避免了針對新任務(wù)從頭開始學(xué)習(xí),這樣可以大大降低數(shù)據(jù)需求,同時也提升了算法的自適應(yīng)能力。在真實環(huán)境中使用 RL 的一大困難在于 RL 的不穩(wěn)定性,一個自然的思路是通過遷移學(xué)習(xí)將在模擬器中訓(xùn)練好的穩(wěn)定策略遷移到真實環(huán)境中,策略在新環(huán)境中僅通過少量探索即可滿足要求。然而,這一研究領(lǐng)域面臨的一大問題就是現(xiàn)實鴻溝(Reality Gap),即模擬器的仿真環(huán)境與真實環(huán)境差異過大。好的模擬器不僅可以有效填補(bǔ)現(xiàn)實鴻溝,還同時滿足 RL 算法大量采樣的需求,因此可以極大促進(jìn) RL 的研究與開發(fā),如上文提到的 Sim-to-Real[71]。同時,這也是 RL 與 VR 技術(shù)的一個結(jié)合點。近期學(xué)術(shù)界和工業(yè)界紛紛在這一領(lǐng)域發(fā)力。在自動駕駛領(lǐng)域,Gazebo、EuroTruck Simulator、TORCS、Unity、Apollo、Prescan、Panosim 和 Carsim 等模擬器各具特色,而英特爾研究院開發(fā)的 CARLA 模擬器 [38] 逐漸成為業(yè)界研究的標(biāo)準(zhǔn)。其他領(lǐng)域的模擬器開發(fā)也呈現(xiàn)百花齊放之勢:在家庭環(huán)境模擬領(lǐng)域, MIT 和多倫多大學(xué)合力開發(fā)了功能豐富的 VirturalHome 模擬器;在無人機(jī)模擬訓(xùn)練領(lǐng)域,MIT 也開發(fā)了 Flight Goggles 模擬器。

提升 RL 的的泛化能力。機(jī)器學(xué)習(xí)最重要的目標(biāo)就是泛化能力, 而現(xiàn)有的 RL 方法大多在這一指標(biāo)上表現(xiàn)糟糕 [8],無怪乎 Jacob Andreas 會批評 RL 的成功是來自“train>

層級 RL(Hierarchical RL, HRL)。周志華教授總結(jié) DL 成功的三個條件為:有逐層處理、有特征的內(nèi)部變化和有足夠的模型復(fù)雜度 [39]。而 HRL 不僅滿足這三個條件,而且具備更強(qiáng)的推理能力,是一個非常潛力的研究領(lǐng)域。目前 HRL 已經(jīng)在一些需要復(fù)雜推理的任務(wù)(如 Atari 平臺上的《Montezuma's Revenge》游戲)中展示了強(qiáng)大的學(xué)習(xí)能力 [40]。

與序列預(yù)測(Sequence Prediction)結(jié)合。Sequence Prediction 與 RL、IL 解決的問題相似又不相同。三者間有很多思想可以互相借鑒。當(dāng)前已有一些基于 RL 和 IL 的方法在 Sequence Prediction 任務(wù)上取得了很好的結(jié)果 [41,42,43]。這一方向的突破對 Video Prediction 和 NLP 中的很多任務(wù)都會產(chǎn)生廣泛影響。

(免模型)方法探索行為的安全性(Safe RL)。相比于基于模型的方法,免模型方法缺乏預(yù)測能力,這使得其探索行為帶有更多不穩(wěn)定性。一種研究思路是結(jié)合貝葉斯方法為 RL 代理行為的不確定性建模,從而避免過于危險的探索行為。此外,為了安全地將 RL 應(yīng)用于現(xiàn)實環(huán)境中,可以在模擬器中借助混合現(xiàn)實技術(shù)劃定危險區(qū)域,通過限制代理的活動空間約束代理的行為。

關(guān)系 RL。近期學(xué)習(xí)客體間關(guān)系從而進(jìn)行推理與預(yù)測的“關(guān)系學(xué)習(xí)”受到了學(xué)界的廣泛關(guān)注。關(guān)系學(xué)習(xí)往往在訓(xùn)練中構(gòu)建的狀態(tài)鏈,而中間狀態(tài)與最終的反饋是脫節(jié)的。RL 可以將最終的反饋回傳給中間狀態(tài),實現(xiàn)有效學(xué)習(xí),因而成為實現(xiàn)關(guān)系學(xué)習(xí)的最佳方式。2017 年 DeepMind 提出的 VIN[44] 和 Pridictron[23] 均是這方面的代表作。2018 年 6 月,DeepMind 又接連發(fā)表了多篇關(guān)系學(xué)習(xí)方向的工作如關(guān)系歸納偏置 [45]、關(guān)系 RL[46]、關(guān)系 RNN[47]、圖網(wǎng)絡(luò) [48] 和已經(jīng)在《科學(xué)》雜志發(fā)表的生成查詢網(wǎng)絡(luò)(Generative Query Network,GQN)[49]。這一系列引人注目的工作將引領(lǐng)關(guān)系 RL 的熱潮。

對抗樣本 RL。RL 被廣泛應(yīng)用于機(jī)械控制等領(lǐng)域,這些領(lǐng)域相比于圖像識別語音識別等等,對魯棒性和安全性的要求更高。因此針對 RL 的對抗攻擊是一個非常重要的問題。近期有研究表明,會被對抗樣本操控,很多經(jīng)典模型如 DQN 等算法都經(jīng)不住對抗攻擊的擾動 [50,51]。

處理其他模態(tài)的輸入。在 NLP 領(lǐng)域,學(xué)界已經(jīng)將 RL 應(yīng)用于處理很多模態(tài)的數(shù)據(jù)上,如句子、篇章、知識庫等等。但是在計算機(jī)視覺領(lǐng)域,RL 算法主要還是通過神經(jīng)網(wǎng)絡(luò)提取圖像和視頻的特征,對其他模態(tài)的數(shù)據(jù)很少涉及。我們可以探索將 RL 應(yīng)用于其他模態(tài)的數(shù)據(jù)的方法,比如處理 RGB-D 數(shù)據(jù)和激光雷達(dá)數(shù)據(jù)等。一旦某一種數(shù)據(jù)的特征提取難度大大降低,將其與 RL 有機(jī)結(jié)合后都可能取得 AlphaGo 級別的突破。英特爾研究院已經(jīng)基于 CARLA 模擬器在這方面開展了一系列的工作。

4.3 重新審視 RL 的應(yīng)用

當(dāng)前的一種觀點是“RL 只能打游戲、下棋,其他的都做了”。而筆者認(rèn)為,我們不應(yīng)對 RL 過于悲觀。其實能在視頻游戲與棋類游戲中超越人類,已經(jīng)證明了 RL 推理能力的強(qiáng)大。通過合理改進(jìn)后,有希望得到廣泛應(yīng)用。往往,從研究到應(yīng)用的轉(zhuǎn)化并不直觀。比如,IBM Watson? 系統(tǒng)以其對自然語言的理解能力和應(yīng)答能力聞名世界,曾在 2011 年擊敗人類選手獲得 Jeopardy! 冠軍。而其背后的支撐技術(shù)之一竟然是當(dāng)年 Gerald Tesauro 開發(fā) TD-Gammon 程序 [52] 時使用的 RL 技術(shù) [53]。當(dāng)年那個“只能用于”下棋的技術(shù),已經(jīng)在最好的問答系統(tǒng)中發(fā)揮不可或缺的作用了。今天的 RL 發(fā)展水平遠(yuǎn)高于當(dāng)年,我們怎么能沒有信心呢?


強(qiáng)大的 IBM Watson?背后也有 RL 發(fā)揮核心作用

通過調(diào)查,我們可以發(fā)現(xiàn) RL 算法已經(jīng)在各個領(lǐng)域被廣泛使用:

控制領(lǐng)域。這是 RL 思想的發(fā)源地之一,也是 RL 技術(shù)應(yīng)用最成熟的領(lǐng)域??刂祁I(lǐng)域和機(jī)器學(xué)習(xí)領(lǐng)域各自發(fā)展了相似的思想、概念與技術(shù),可以互相借鑒。比如當(dāng)前被廣泛應(yīng)用的 MPC 算法就是一種特殊的 RL。在機(jī)器人領(lǐng)域,相比于 DL 只能用于感知,RL 相比傳統(tǒng)的法有自己的優(yōu)勢:傳統(tǒng)方法如 LQR 等一般基于圖搜索或概率搜索學(xué)習(xí)到一個軌跡層次的策略,復(fù)雜度較高,不適合用于做重規(guī)劃;而 RL 方法學(xué)習(xí)到的則是狀態(tài) - 動作空間中的策略,具有更好的適應(yīng)性。

自動駕駛領(lǐng)域。駕駛就是一個序列決策過程,因此天然適合用 RL 來處理。從 80 年代的 ALVINN、TORCS 到如今的 CARLA,業(yè)界一直在嘗試用 RL 解決單車輛的自動駕駛問題以及多車輛的交通調(diào)度問題。類似的思想也廣泛地應(yīng)用在各種飛行器、水下無人機(jī)領(lǐng)域。

NLP 領(lǐng)域。相比于計算機(jī)視覺領(lǐng)域的任務(wù),NLP 領(lǐng)域的很多任務(wù)是多輪的,即需通過多次迭代交互來尋求最優(yōu)解(如對話系統(tǒng));而且任務(wù)的反饋信號往往需要在一系列決策后才能獲得(如機(jī)器寫作)。這樣的問題的特性自然適合用 RL 來解決,因而近年來 RL 被應(yīng)用于 NLP 領(lǐng)域中的諸多任務(wù)中,如文本生成、文本摘要、序列標(biāo)注、對話機(jī)器人(文字 / 語音)、機(jī)器翻譯、關(guān)系抽取和知識圖譜推理等等。成功的應(yīng)用案例也有很多,如對話機(jī)器人領(lǐng)域中 Yoshua Bengio 研究組開發(fā)的 MILABOT 的模型 [54]、Facebook 聊天機(jī)器人 [55] 等;機(jī)器翻譯領(lǐng)域 Microsoft Translator [56] 等。此外,在一系列跨越 NLP 與計算機(jī)視覺兩種模態(tài)的任務(wù)如 VQA、Image/Video Caption、Image Grounding、Video Summarization 等中,RL 技術(shù)也都大顯身手。
推薦系統(tǒng)與檢索系統(tǒng)領(lǐng)域。RL 中的 Bandits 系列算法早已被廣泛應(yīng)用于商品推薦、新聞推薦和在線廣告等領(lǐng)域。近年也有一系列的工作將 RL 應(yīng)用于信息檢索、排序的任務(wù)中 [57]。

金融領(lǐng)域。RL 強(qiáng)大的序列決策能力已經(jīng)被金融系統(tǒng)所關(guān)注。無論是華爾街巨頭摩根大通還是創(chuàng)業(yè)公司如 Kensho,都在其交易系統(tǒng)中引入了 RL 技術(shù)。

對數(shù)據(jù)的選擇。在數(shù)據(jù)足夠多的情況下,如何選擇數(shù)據(jù)來實現(xiàn)“快、好、省”地學(xué)習(xí),具有非常大的應(yīng)用價值。近期在這方面也涌現(xiàn)出一系列的工作,如 UCSB 的 Jiawei Wu 提出的 Reinforced Co-Training [58] 等。

通訊、生產(chǎn)調(diào)度、規(guī)劃和資源訪問控制等運(yùn)籌領(lǐng)域。這些領(lǐng)域的任務(wù)往往涉及“選擇”動作的過程,而且?guī)?a target="_blank">標(biāo)簽數(shù)據(jù)難以取得,因此廣泛使用 RL 進(jìn)行求解。

關(guān)于 RL 的更全面的應(yīng)用綜述請參見文獻(xiàn) [59,60]。

雖然有上文列舉的諸多成功應(yīng)用,但我們依舊要認(rèn)識到,當(dāng)前 RL 的發(fā)展還處于初級階段,不能包打天下。目前還沒有一個通用的 RL 解決方案像 DL 一樣成熟到成為一種即插即用的算法。不同 RL 算法在各自領(lǐng)域各領(lǐng)風(fēng)騷。在找到一個普適的方法之前,我們更應(yīng)該針對特定問題設(shè)計專門的算法,比如在機(jī)器人領(lǐng)域,基于貝葉斯 RL 和演化算法的方法(如 CMAES[61])比 DRL 更合適。當(dāng)然,不同的領(lǐng)域間應(yīng)當(dāng)互相借鑒與促進(jìn)。RL 算法的輸出存在隨機(jī)性,這是其“探索”哲學(xué)帶來的本質(zhì)問題,因此我們不能盲目 All in RL, 也不應(yīng)該 RL in All, 而是要找準(zhǔn) RL 適合解決的問題。


針對不同問題應(yīng)該使用的不同 RL 方法 [22]

4.4 重新審視 RL 的價值

在 NIPS 2016 上,Yan LeCun 認(rèn)為最有價值的問題是“Predictive Learning”問題,這其實類似于非監(jiān)督學(xué)習(xí)問題。他的發(fā)言代表了學(xué)界近來的主流看法。而 Ben Recht 則認(rèn)為,RL 比監(jiān)督學(xué)習(xí)(Supervised Learning, SL)和非監(jiān)督學(xué)習(xí)(Unsupervised Learning, UL)更有價值。他把這三類學(xué)習(xí)方式分別與商業(yè)分析中的描述分析(UL)、預(yù)測分析(SL)和指導(dǎo)分析(RL)相對應(yīng) [18]。

描述分析是對已有的數(shù)據(jù)進(jìn)行總結(jié),從而獲得更魯棒和清晰的表示,這個問題最容易,但價值也最低。因為描述分析的價值更多地在于美學(xué)方面而非實際方面。比如,“用 GAN 將一個房間的圖片渲染成何種風(fēng)格”遠(yuǎn)沒有“依據(jù)房間的圖片預(yù)測該房間的價格”更重要。而后者則是預(yù)測分析問題——基于歷史數(shù)據(jù)對當(dāng)前數(shù)據(jù)進(jìn)行預(yù)測。但是在描述分析和預(yù)測分析中,系統(tǒng)都是不受算法影響的,而指導(dǎo)分析則更進(jìn)一步地對算法與系統(tǒng)間的交互進(jìn)行建模,通過主動影響系統(tǒng),最大化價值收益。

類比以上兩個例子,指導(dǎo)分析則是解決“如何通過對房間進(jìn)行一系列改造來最大化提升房間價格”之類的問題。這種問題最難,因為涉及到了算法與系統(tǒng)的復(fù)雜交互,但也最有價值,因為指導(dǎo)性分析(RL)的天然目標(biāo)就是價值最大化,也是人類解決問題的方式。并且,無論是描述分析還是預(yù)測分析,所處理的問題的環(huán)境都是靜態(tài)的、不變的,這個假設(shè)對大多數(shù)實際的問題都不成立。而指導(dǎo)分析則被用來處理環(huán)境動態(tài)變化的問題,甚至還要考慮到與其他對手的合作或競爭,與人類面臨的大多數(shù)實際問題更相似。


指導(dǎo)分析問題最難,也最有價值 [18]

在最后一節(jié),筆者將試圖在更廣的范圍內(nèi)討論類似于 RL 的從反饋中學(xué)習(xí)的方法,從而試圖給讀者介紹一種看待 RL 的新視角。

五、廣義的 RL——從反饋學(xué)習(xí)

本節(jié)使用“廣義的 RL”一詞指代針對“從反饋學(xué)習(xí)”的橫跨多個學(xué)科的研究。與上文中介紹的來自機(jī)器學(xué)習(xí)、控制論、經(jīng)濟(jì)學(xué)等領(lǐng)域的 RL 不同,本節(jié)涉及的學(xué)科更寬泛,一切涉及從反饋學(xué)習(xí)的系統(tǒng),都暫且稱為廣義的 RL。

5.1 廣義的 RL,是人工智能研究的最終目標(biāo)

1950 年,圖靈在其劃時代論文 Computing Machinery and Intelligence[62] 中提出了著名的“圖靈測試”概念:如果一個人(代號 C)使用測試對象皆理解的語言去詢問兩個他不能看見的對象任意一串問題。對象為:一個是正常思維的人(代號 B)、一個是機(jī)器(代號 A)。如果經(jīng)過若干詢問以后,C 不能得出實質(zhì)的區(qū)別來分辨 A 與 B 的不同,則此機(jī)器 A 通過圖靈測試。

請注意,“圖靈測試”的概念已經(jīng)蘊(yùn)含了“反饋”的概念——人類借由程序的反饋來進(jìn)行判斷,而人工智能程序則通過學(xué)習(xí)反饋來欺騙人類。同樣在這篇論文中,圖靈還說到“除了試圖直接去建立一個可以模擬成人大腦的程序之外,為什么不試圖建立一個可以模擬小孩大腦的程序呢?如果它接受適當(dāng)?shù)慕逃?,就會獲得成人的大腦。”——從反饋中逐漸提升能力,這不正是 RL 的學(xué)習(xí)方式么?可以看出,人工智能的概念從被提出時其最終目標(biāo)就是構(gòu)建一個足夠好的從反饋學(xué)習(xí)的系統(tǒng)。

1959 年,人工智能先驅(qū) Arthur Samuel 正式定義了“機(jī)器學(xué)習(xí)”這概念。也正是這位 Samuel,在 50 年代開發(fā)了基于 RL 的的象棋程序,成為人工智能領(lǐng)域最早的成功案例 [63]。為何人工智能先驅(qū)們的工作往往集中在 RL 相關(guān)的任務(wù)呢?經(jīng)典巨著《人工智能:一種現(xiàn)代方法》里對 RL 的評論或許可以回答這一問題:可以認(rèn)為 RL 囊括了人工智能的所有要素:一個智能體被置于一個環(huán)境中,并且必須學(xué)會在其間游刃有余(Reinforcement Learning might be considered to encompass all of AI: an agent is placed in an environment and must learn to behave successfully therein.) [64]。

不僅僅在人工智能領(lǐng)域,哲學(xué)領(lǐng)域也強(qiáng)調(diào)了行為與反饋對智能形成的意義。生成論(Enactivism)認(rèn)為行為是認(rèn)知的基礎(chǔ),行為與感知是互相促進(jìn)的,智能體通過感知獲得行為的反饋,而行為則帶給智能體對環(huán)境的真實有意義的經(jīng)驗 [65]。


行為和反饋是智能形成的基石 [65]

看來,從反饋學(xué)習(xí)確實是實現(xiàn)智能的核心要素。

回到人工智能領(lǐng)域。DL 取得成功后,與 RL 結(jié)合成為 DRL。知識庫相關(guān)的研究取得成功后,RL 算法中也逐漸加入了 Memory 機(jī)制。而變分推理也已經(jīng)找到了與 RL 的結(jié)合點。近期學(xué)界開始了反思 DL 的熱潮,重新燃起對因果推理與符號學(xué)習(xí)的興趣,于是也出現(xiàn)了關(guān)系 RL 和符號 RL[66] 相關(guān)的工作。通過回顧學(xué)術(shù)的發(fā)展,我們也可以總結(jié)出人工智能發(fā)展的一個特點:每當(dāng)一個相關(guān)方向取得突破,總是會回歸到 RL 問題, 尋求與 RL 相結(jié)合。與其把 DRL 看作 DL 的拓展,不如看作 RL 的一次回歸。因此我們不必特別擔(dān)心 DRL 的泡沫,因為 RL 本就是人工智能的最終目標(biāo),有著旺盛的生命力,未來還會迎來一波又一波的發(fā)展。

5.2 廣義的 RL,是未來一切機(jī)器學(xué)習(xí)系統(tǒng)的形式

Recht 在他的最后一篇博文中 [67] 中強(qiáng)調(diào),只要一個機(jī)器學(xué)習(xí)系統(tǒng)會通過接收外部的反饋進(jìn)行改進(jìn),這個系統(tǒng)就不僅僅是一個機(jī)器學(xué)習(xí)系統(tǒng),而且是一個 RL 系統(tǒng)。當(dāng)前在互聯(lián)網(wǎng)領(lǐng)域廣為使用的 A/B 測試就是 RL 的一種最簡單的形式。而未來的機(jī)器學(xué)習(xí)系統(tǒng),都要處理分布動態(tài)變化的數(shù)據(jù)并從反饋中學(xué)習(xí)。因此可以說,我們即將處于一個“一切機(jī)器學(xué)習(xí)都是 RL”的時代,學(xué)界和工業(yè)界都亟需加大對 RL 的研究力度。Recht 從社會與道德層面對這一問題進(jìn)行了詳細(xì)探討 [67],并將他從控制與優(yōu)化角度對 RL 的一系列思考總結(jié)成一篇綜述文章供讀者思考 [69]。

5.3 廣義的 RL,是很多領(lǐng)域研究的共同目標(biāo)

4.2 節(jié)已經(jīng)提到 RL 在機(jī)器學(xué)習(xí)相關(guān)的領(lǐng)域被分別發(fā)明與研究,其實這種從反饋中學(xué)習(xí)的思想,在很多其他領(lǐng)域也被不斷地研究。僅舉幾例如下:

在心理學(xué)領(lǐng)域,經(jīng)典條件反射與操作性條件反射的對比,就如同 SL 和 RL 的對比;而著名心理學(xué)家 Albert Bandura 提出的“觀察學(xué)習(xí)”理論則與 IL 非常相似;精神分析大師 Melanie Klein 提出的“投射性認(rèn)同”其實也可以看做一個 RL 的過程。在心理學(xué)諸多領(lǐng)域中,與 RL 關(guān)聯(lián)最近的則是行為主義學(xué)派(Behaviorism)。其代表人物 John Broadus Watson 將行為主義心理學(xué)應(yīng)用于廣告業(yè),極大推動了廣告業(yè)的發(fā)展。這很難不讓人聯(lián)想到,RL 算法的一大成熟應(yīng)用就是互聯(lián)網(wǎng)廣告。而行為主義受到認(rèn)知科學(xué)影響而發(fā)展出的認(rèn)知行為療法則與 RL 中的策略遷移方法有異曲同工之妙。行為主義與 RL 的淵源頗深,甚至可以說是 RL 思想的另一個源頭。本文限于篇幅無法詳述,請感興趣的讀者參閱心理學(xué)方面的文獻(xiàn)如 [53]。

在教育學(xué)領(lǐng)域,一直有關(guān)于“主動學(xué)習(xí)”與“被動學(xué)習(xí)”兩種方式的對比與研究,代表性研究有 Cone of Experience,其結(jié)論與機(jī)器學(xué)習(xí)領(lǐng)域關(guān)于 RL 與 SL 的對比非常相似。而教育學(xué)家杜威提倡的“探究式學(xué)習(xí)”就是指主動探索尋求反饋的學(xué)習(xí)方法;

在組織行為學(xué)領(lǐng)域,學(xué)者們探究“主動性人格”與“被動性人格”的不同以及對組織的影響;

在企業(yè)管理學(xué)領(lǐng)域,企業(yè)的“探索式行為”和“利用式行為”一直是一個研究熱點;

……

可以說,一切涉及通過選擇然后得到反饋,然后從反饋中學(xué)習(xí)的領(lǐng)域,幾乎都有 RL 的思想以各種形式存在,因此筆者稱之為廣義的 RL。這些學(xué)科為 RL 的發(fā)展提供了豐富的研究素材,積累了大量的思想與方法。同時,RL 的發(fā)展不會僅僅對人工智能領(lǐng)域產(chǎn)生影響,也會推動廣義的 RL 所包含的諸多學(xué)科共同前進(jìn)。

結(jié) 語

雖然 RL 領(lǐng)域目前還存在諸多待解決的問題,在 DRL 這一方向上也出現(xiàn)不少泡沫,但我們應(yīng)該看到 RL 領(lǐng)域本身在研究和應(yīng)用領(lǐng)域取得的長足進(jìn)步。這一領(lǐng)域值得持續(xù)投入研究,但在應(yīng)用時需保持理性。而對基于反饋的學(xué)習(xí)的研究,不僅有望實現(xiàn)人工智能的最終目標(biāo),也對機(jī)器學(xué)習(xí)領(lǐng)域和諸多其他領(lǐng)域的發(fā)展頗有意義。這確實是通向人工智能的最佳路徑。這條路上布滿荊棘,但曙光已現(xiàn)。

作者簡介

侯宇清,博士,現(xiàn)為英特爾中國研究院認(rèn)知計算實驗室和清華大學(xué)計算機(jī)科學(xué)與技術(shù)系智能技術(shù)與系統(tǒng)國家重點實驗室聯(lián)合培養(yǎng)博士后研究員,研究興趣為強(qiáng)化學(xué)習(xí)的理論以及應(yīng)用,研究方向為基于深度強(qiáng)化學(xué)習(xí)的視覺信息處理以及元學(xué)習(xí)。2016 年畢業(yè)于北京大學(xué),研究方向為多模態(tài)學(xué)習(xí)。發(fā)表學(xué)術(shù)論文 7 篇,擁有 5 項美國 / 國際專利及申請。

陳玉榮,博士,現(xiàn)任英特爾首席研究員、英特爾中國研究院認(rèn)知計算實驗室主任。負(fù)責(zé)領(lǐng)導(dǎo)視覺認(rèn)知和機(jī)器學(xué)習(xí)研究工作,推動基于英特爾平臺的智能視覺數(shù)據(jù)處理技術(shù)創(chuàng)新。發(fā)表學(xué)術(shù)論文 50 余篇,擁有 50 余項美國 / 國際專利及申請。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    MHMF042L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF042L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 10-18 18:59
    MHMF042L<b class='flag-5'>83</b>N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    谷歌AlphaChip強(qiáng)化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細(xì)介紹了其用于芯片設(shè)計布局的強(qiáng)化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?336次閱讀

    MHMF022L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF022L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 08-26 19:02
    MHMF022L<b class='flag-5'>83</b>N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    第三-V1.5 TB6612電機(jī)pwm控制STM32智能小車 STM32F103C8T6單片機(jī)

    通過合理的硬件設(shè)計和詳細(xì)的視頻筆記介紹,硬件使用STM32F103主控資料多方便學(xué)習(xí),通過3萬字筆記、12多個小時視頻、20多章節(jié)代碼手把手教會你如何開發(fā)和調(diào)試。
    的頭像 發(fā)表于 08-12 18:29 ?1184次閱讀
    第三<b class='flag-5'>篇</b>-V1.5 TB6612電機(jī)pwm控制STM32智能小車 STM32F103C8T6單片機(jī)

    第一:V1.5-STM32f103c8t6智能小車筆記 標(biāo)準(zhǔn)庫開發(fā) 6612電機(jī)驅(qū)動新手入門項目

    這是全網(wǎng)最詳細(xì)、性價比最高的STM32實戰(zhàn)項目入門教程,通過合理的硬件設(shè)計和詳細(xì)的視頻筆記介紹,硬件使用STM32F103主控資料多方便學(xué)習(xí),通過3萬字筆記、12多個小時視頻、20多章節(jié)代碼手把手教會你如何開發(fā)和調(diào)試。讓你更快掌握嵌入式系統(tǒng)開發(fā)。
    的頭像 發(fā)表于 08-12 18:25 ?1360次閱讀
    第一<b class='flag-5'>篇</b>:V1.5-STM32f103c8t6智能小車筆記 標(biāo)準(zhǔn)庫開發(fā) 6612電機(jī)驅(qū)動新手入門項目

    MHMF021L83N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF021L83N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 07-31 19:29
    MHMF021L<b class='flag-5'>83</b>N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    MHMF021L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF021L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 07-31 19:27
    MHMF021L<b class='flag-5'>83</b>N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)
    發(fā)表于 07-25 14:33

    MHMF012L83N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF012L83N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 07-10 18:38
    MHMF012L<b class='flag-5'>83</b>N-MINAS A6BN 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    MHMF012L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF012L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 07-10 18:35
    MHMF012L<b class='flag-5'>83</b>N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    MHMF011L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格- 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF011L83N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格-相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有
    發(fā)表于 06-26 18:42
    MHMF011L<b class='flag-5'>83</b>N-MINAS A6BU 系列 技術(shù)資料 -EtherCAT 通信規(guī)格<b class='flag-5'>篇</b>- 松下

    通過強(qiáng)化學(xué)習(xí)策略進(jìn)行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強(qiáng)化學(xué)習(xí)策略的特征選擇。我們先討論強(qiáng)化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?287次閱讀
    通過<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>策略進(jìn)行特征選擇

    阿里通義千問重磅升級,免費(fèi)開放1000萬字長文檔處理功能

    近日,阿里巴巴旗下的人工智能應(yīng)用通義千問迎來重磅升級,宣布向所有人免費(fèi)開放1000萬字的長文檔處理功能,這一創(chuàng)新舉措使得通義千問成為全球文檔處理容量第一的AI應(yīng)用。
    的頭像 發(fā)表于 03-26 11:09 ?694次閱讀

    如何用AI聊天機(jī)器人寫出萬字長文

    如何用AI聊天機(jī)器人寫出萬字長文
    的頭像 發(fā)表于 12-26 16:25 ?1003次閱讀

    什么是強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的方式之一,它與監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)并列,是三種機(jī)器學(xué)習(xí)訓(xùn)練方法之一。 在圍棋上擊敗世界第一李世石的 AlphaGo、在《
    的頭像 發(fā)表于 10-30 11:36 ?3733次閱讀
    什么是<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>