0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能的強化學習要點

汽車玩家 ? 來源:今日頭條 ? 作者:聞數(shù)起舞 ? 2020-05-04 18:14 ? 次閱讀

了解強化學習的要點!

強化學習(RL)是現(xiàn)代人工智能領域中最熱門的研究主題之一,其普及度還在不斷增長。 讓我們看一下開始學習RL需要了解的5件事。

1.什么是強化學習? 與其他機器學習技術相比有何不同?

強化學習(RL)是一種機器學習技術,使代理能夠使用自身行為和經(jīng)驗的反饋,通過反復試驗,在交互式環(huán)境中學習。

人工智能的強化學習要點

盡管監(jiān)督學習和強化學習都使用輸入和輸出之間的映射,但不同于監(jiān)督學習,后者提供給代理的反饋是執(zhí)行任務的正確動作集,而強化學習則將獎懲作為正面和負面行為的信號。

與無監(jiān)督學習相比,強化學習在目標方面有所不同。 無監(jiān)督學習的目標是發(fā)現(xiàn)數(shù)據(jù)點之間的相似點和差異,而在強化學習的情況下,目標是找到合適的行為模型,以最大化代理的總累積獎勵。 下圖說明了通用RL模型的動作獎勵反饋回路。

人工智能的強化學習要點

2.如何制定基本的強化學習問題?

描述RL問題基本要素的一些關鍵術語是:

環(huán)境-代理在其中運行的物理世界

狀態(tài)—代理的現(xiàn)狀

獎勵-來自環(huán)境的反饋

策略-將代理狀態(tài)映射到操作的方法

價值-代理在特定狀態(tài)下采取的行動將獲得的未來獎勵

RL問題可以通過游戲來最好地解釋。 讓我們以吃豆人的游戲為例,代理人(PacMan)的目標是在網(wǎng)格中吃食物,同時避免途中出現(xiàn)鬼魂。 在這種情況下,網(wǎng)格世界是代理所作用的交互式環(huán)境。 如果特工被幽靈殺死(輸?shù)袅擞螒颍頃玫绞澄锖蛻土P的獎勵。 狀態(tài)是代理在網(wǎng)格世界中的位置,總累積獎勵是贏得比賽的代理。

人工智能的強化學習要點

為了建立最佳政策,代理面臨探索新狀態(tài)的困境,同時又要最大化其整體回報。 這稱為"探索與利用"的權衡。 為了平衡兩者,最佳的整體策略可能涉及短期犧牲。 因此,代理應收集足夠的信息,以便將來做出最佳的總體決策。

馬爾可夫決策過程(MDP)是描述RL環(huán)境的數(shù)學框架,幾乎所有RL問題都可以使用MDP來表述。 一個MDP由一組有限的環(huán)境狀態(tài)S,在每個狀態(tài)下的一組可能的動作A,一個實值獎勵函數(shù)R和一個過渡模型P(s',s | a)組成。 但是,現(xiàn)實環(huán)境更可能缺少任何有關環(huán)境動力學的先驗知識。 在這種情況下,無模型RL方法非常方便。

Q學習是一種常用的無模型方法,可用于構建自播放的PacMan代理。 它圍繞更新Q值的概念展開,Q值表示在狀態(tài)s中執(zhí)行動作a的值。 以下值更新規(guī)則是Q學習算法的核心。

人工智能的強化學習要點

3.什么是最常用的強化學習算法?

Q學習和SARSA(狀態(tài)行動-獎勵狀態(tài)行動)是兩種常用的無模型RL算法。 它們的探索策略不同,而利用策略卻相似。 Q學習是一種非策略方法,其中代理根據(jù)從另一個策略得出的操作a *學習值,而SARSA是一種策略上方法,在其中根據(jù)其當前操作a從當前策略得出的值來學習值。 政策。 這兩種方法易于實現(xiàn),但缺乏通用性,因為它們無法估計未見狀態(tài)的值。

可以通過更高級的算法(例如使用神經(jīng)網(wǎng)絡來估計Q值的深度Q網(wǎng)絡(DQN))來克服這一問題。 但是DQN只能處理離散的低維動作空間。

深度確定性策略梯度(DDPG)是一種無模型,脫離策略,對執(zhí)行者敏感的算法,它通過在高維連續(xù)動作空間中學習策略來解決此問題。 下圖是評論體系結構的表示。

人工智能的強化學習要點

4.強化學習的實際應用是什么?

由于RL需要大量數(shù)據(jù),因此最適用于容易獲得模擬數(shù)據(jù)(例如游戲性,機器人技術)的領域。

RL被廣泛用于構建用于玩計算機游戲的AI。 AlphaGo Zero是第一個在古代中國的圍棋游戲中擊敗世界冠軍的計算機程序。 其他包括ATARI游戲,西洋雙陸棋等

在機器人技術和工業(yè)自動化中,RL用于使機器人能夠為其自身創(chuàng)建高效的自適應控制系統(tǒng),該系統(tǒng)可以從自身的經(jīng)驗和行為中學習。 DeepMind的"通過異步策略更新進行機器人操縱的深度強化學習"就是一個很好的例子。 觀看這個有趣的演示視頻。

RL的其他應用包括抽象文本摘要引擎,對話代理(文本,語音),這些代理可以從用戶的交互中學習并隨著時間的流逝而改善,學習醫(yī)療保健中的最佳治療策略,以及用于在線股票交易的基于RL的代理。

5.我如何開始進行強化學習?

為了理解RL的基本概念,可以參考以下資源。

《強化學習-入門》,是強化學習之父的一本書-理查德·薩頓(Richard Sutton)和他的博士生導師安德魯·巴托(Andrew Barto)。 這本書的在線草稿可以在這里找到。

David Silver的教學材料(包括視頻講座)是有關RL的入門課程。

Pieter Abbeel和John Schulman(開放式AI /伯克利AI研究實驗室)的另一本有關RL的技術教程。

對于開始構建和測試RL代理,以下資源可能會有所幫助。

博客介紹了如何使用來自原始像素的Policy Gradients訓練神經(jīng)網(wǎng)絡ATARI Pong代理,Andrej Karpathy將幫助您在130行Python代碼中啟動并運行您的第一個Deep Reinforcement Learning代理。

·DeepMind Lab是一個類似于開放源代碼的3D游戲平臺,用于具有豐富模擬環(huán)境的基于代理的AI研究。

馬爾默項目是另一個支持AI基礎研究的AI實驗平臺。

OpenAI Gym是用于構建和比較強化學習算法的工具包。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1789

    文章

    46401

    瀏覽量

    236629
  • 強化學習
    +關注

    關注

    4

    文章

    264

    瀏覽量

    11184
收藏 人收藏

    評論

    相關推薦

    人工智能、機器學習和深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習。
    發(fā)表于 10-24 17:22 ?2376次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>存在什么區(qū)別

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    、優(yōu)化等方面的應用有了更清晰的認識。特別是書中提到的基于大數(shù)據(jù)和機器學習的能源管理系統(tǒng),通過實時監(jiān)測和分析能源數(shù)據(jù),實現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學中
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    ,無疑為讀者鋪設了一條探索人工智能(AI)如何深刻影響并推動科學創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術在科學領域的廣泛應用潛力以及其帶來的革命性變化,以下是我個人的學習心得: 1.
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    人工智能推薦系統(tǒng)中強大的圖形處理器(GPU)一爭高下。其獨特的設計使得該處理器在功耗受限的條件下仍能實現(xiàn)高性能的圖像處理任務。 Ceremorphic公司 :該公司開發(fā)的分層學習處理器結合了
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    ! 《AI for Science:人工智能驅動科學創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    人工智能如何強化智能家居設備的功能

    ,以配合用戶的生活習慣與作息。本文將為您介紹人工智能將如何強化智能家居設備的功能,以及由芯科科技(Silicon Labs)所推出的解決方案,將如何增進智能家居設備的功能性與安全性。
    的頭像 發(fā)表于 08-27 10:46 ?768次閱讀
    <b class='flag-5'>人工智能</b>如何<b class='flag-5'>強化</b><b class='flag-5'>智能</b>家居設備的功能

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    通過強化學習策略進行特征選擇

    更快更好地學習。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強化學習策略的特征選擇。我們先討論強化學習,尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?288次閱讀
    通過<b class='flag-5'>強化學習</b>策略進行特征選擇

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    https://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例_Part1 13分59秒 https://t.elecfans.com/v
    發(fā)表于 05-10 16:46

    機器學習怎么進入人工智能

    人工智能(Artificial Intelligence,AI)是一門涉及計算機、工程、數(shù)學、哲學和認知科學等多個領域的交叉學科,旨在構建智能化計算機系統(tǒng),使之能夠自主感知、理解、學習和決策。如今
    的頭像 發(fā)表于 04-04 08:41 ?203次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    ://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例 28分55秒 https://t.elecfans.com/v/27184.html
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎建設與傳統(tǒng)產(chǎn)業(yè)升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入式人工智能領域布局
    發(fā)表于 02-26 10:17

    深度學習人工智能中的 8 種常見應用

    深度學習簡介深度學習人工智能(AI)的一個分支,它教神經(jīng)網(wǎng)絡學習和推理。近年來,它解決復雜問題并在各個領域提供尖端性能的能力引起了極大的興趣和吸引力。深度
    的頭像 發(fā)表于 12-01 08:27 ?3119次閱讀
    深度<b class='flag-5'>學習</b>在<b class='flag-5'>人工智能</b>中的 8 種常見應用

    什么是強化學習

    強化學習是機器學習的方式之一,它與監(jiān)督學習、無監(jiān)督學習并列,是三種機器學習訓練方法之一。 在圍棋上擊敗世界第一李世石的 AlphaGo、在《
    的頭像 發(fā)表于 10-30 11:36 ?3754次閱讀
    什么是<b class='flag-5'>強化學習</b>