0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文讀懂人工智能打德?lián)洌斀獍柗ü肺磥頃鞘裁礃樱?/h1>

攻克圍棋后,什么是AI的下一個征程?打撲克!相比信息完全可見的圍棋,能夠猜疑、虛張聲勢的德?lián)湟щy得多。冷撲大師Libratus是首個在無限手一對一德?lián)渲袘?zhàn)勝人類職業(yè)玩家的AI,相關(guān)論文也在NIPS 2017獲得了最佳論文獎。不過,這篇論文不是一般的難!本文中,鄧侃博士將從納什均衡策略、反事實最佳策略等4個方面,生動舉例,帶你讀懂人工智能如何打德?lián)洹?br />
真實的生活,(不會像圍棋那樣)可以毫無遮攔地洞察整個棋局。真實生活中充斥著虛張聲勢、欺詐、揣度對方心理。這才是我所研究的博弈。

——馮·諾依曼

冷撲大師 Libratus 與“冷門” NIPS 2017 最佳論文

CMU 教授 Tuomas Sandholm 及其學(xué)生 Noam Brown 所開發(fā)的人工智能德?lián)湎到y(tǒng) Libratus,被國內(nèi)同行翻譯成 “冷撲大師”。冷撲大師在 2017年1月,與四位德?lián)渎殬I(yè)高手對陣,大獲全勝,贏得了接近總數(shù)的籌碼 [1]。

2017年11月,Noam Brown 與 Tuomas Sandholm 合著的論文,“Safe and Nested Endgame Solving for Imperfect-Information Games”,獲得 NIPS 2017 最佳論文獎 [2]。

但是這篇最佳論文,在國內(nèi)業(yè)界引起的討論,似乎不算特別熱烈。原因可能有三條,

1. 這篇論文非常不好懂。光數(shù)學(xué)符號的定義,就整整占了一節(jié)內(nèi)容。數(shù)學(xué)符號定義結(jié)束后,是很大篇幅的定理證明。初讀一遍,云里霧里。

2.非熱門的理論根基。當(dāng)下熱門的機器學(xué)習(xí)領(lǐng)域,是深度學(xué)習(xí)和強化學(xué)習(xí)。而這篇論文的理論根基,是博弈論和運籌學(xué)。

3. 方法論的通用性。若干讀者認(rèn)為,冷撲大師的算法,可能僅僅適用于德?lián)?,或者充其量能夠擴展到其它棋牌類游戲。應(yīng)用前景有限。

11月8日,Tuomas Sandholm 來北京參加新智元舉辦的世界人工智能大會AI World 2017,并做主題演講。餐敘時,Sandholm 教授對筆者說,從應(yīng)用前景來說,冷撲大師的算法,不僅可以用于賭博,也可以用于談判,拍賣定價,投資決策等等。

11月8日,Tuomas Sandholm(中)來北京參加新智元舉辦的世界人工智能大會,餐敘時與新智元創(chuàng)始人兼CEO楊靜(左)和本文作者鄧侃博士交流

從方法論來說,冷撲算法的理論根基是博弈論和運籌學(xué)。而強化學(xué)習(xí)學(xué)習(xí)的理論根基是馬爾科夫決策過程和動態(tài)規(guī)劃。雖然來源不同,但是終將殊途同歸。

冷撲算法與強化學(xué)習(xí)和深度學(xué)習(xí)殊途同歸之日,必將大放異彩。

馮·諾依曼曾經(jīng)這樣說,“真實的生活,(不會像圍棋那樣)可以毫無遮攔地洞察整個棋局。真實生活中充斥著虛張聲勢、欺詐、揣度對方心理。這才是我所研究的博弈?!?/p>

讀懂冷撲大師這篇最佳論文,關(guān)鍵是理解四個概念,

1. 納什均衡策略,

2. 反事實最佳策略,

3. 抽象,

4. 終局。

冷撲大師的算法與納什均衡策略:不讓對方占便宜

目前冷撲大師只會打雙人德?lián)?。?dāng)然,把算法改進一下,多用幾核 GPU,也可以打多人德?lián)洹?/p>

打德州撲克時,先發(fā)給每個牌手兩張暗牌,然后陸續(xù)發(fā) 5 張明牌,期間 4 輪下注,最后比大小 [3]。

德?lián)潆y在揣摩對手的兩張暗牌。公開的信息,是 5 張明牌和雙方下注的歷史。但是,對方不會嚴(yán)格按照自己手中的暗牌來下注,而是有意夾雜著各種誤導(dǎo)戰(zhàn)術(shù),譬如虛張聲勢等等。

冷撲大師是如何識別對手的下注策略呢?

其實,冷撲大師不推測對手的下注策略。

稍微具體一點,冷撲大師追求的目標(biāo),是能夠達到納什均衡(Nash Equilibrium)的策略。納什,就是著名的數(shù)學(xué)家,電影《美麗心靈》的男主角。納什均衡策略,是不讓對方占便宜的策略。

納什均衡策略是被動的防御策略,而不是主動的進攻策略。也就是說,納什均衡策略不揣度對手的下注策略。

舉個例子,假如對方的策略,是不論自己手上的暗牌是什么,不動腦子地一味跟著我方下注。打了幾手以后,即便我方發(fā)現(xiàn)了對方的策略,根據(jù)納什均衡,我方也不會趁自己牌好時,冒進地抬高賭注,賺對方便宜。

納什均衡策略,不揣度對方的策略。但是,對方會不會尋找納什均衡策略的漏洞?

理論上說,納什均衡策略能夠保證,在經(jīng)過了多次牌局?jǐn)P除了運氣的成分后,是不存在被對方利用的漏洞的。

問題是,冷撲大師的算法,是不是嚴(yán)格意義上的納什均衡策略?這篇論文,之所以大段大段證明數(shù)學(xué)定理,目的就是為了證明,至少在一對一的情況下,冷撲大師的算法,是逼近納什均衡策略的。

如何尋求最佳下注策略?先做一個下注對應(yīng)表

既然納什均衡策略不揣度對手的下注策略,那么就可以用機器自我博弈的辦法,盡可能枚舉各種可能的牌局,尋求最佳的下注策略。

我們不妨做一張下注對應(yīng)表(Action Mapping),七列,若干行。

  • 第一列:我方手中的兩張暗牌

  • 第二列:牌桌上已經(jīng)發(fā)了的明牌,最多有 5 張明牌

  • 第三列:雙方下注的歷史

  • 第四列:我方手上剩下的籌碼

其實,可以通過第三列(雙方下注的歷史)來推算第四列(我方手上剩下的籌碼)。設(shè)置第四列的目的,是為了方便。

  • 第五列:對方手上的兩張暗牌

  • 第六列:我方?jīng)Q定馬上要下注的籌碼數(shù)量

  • 第七列:對應(yīng)第六列決策的收益

前四列是輸入,論文中被稱為局面(Information Set,InfoSet)。后三列是輸出,分別是推測、決策和收益。

假如我們有足夠的計算能力,我們枚舉各種可能的局面(InfoSet)。

第一列,我方手上兩張暗牌(pre-flop),總共有 (52 * 51) / (2 * 1) = 1,326 種組合。

第二列,先發(fā)三張明牌(flop),總共有 (50 * 49 * 48) / (3 * 2 * 1) = 19600 種組合。然后,再兩次發(fā)單牌(turn、river)。加起來,總共有 19600 + 19600 * 47 + 19600 * 47 * 46 = 43,316,000 種組合。

如果把第一列和第二列的所有組合加在一起,那么總數(shù)是 1,326 * 43,316,000 = 57,437,016,000。

第三列下注及其歷史,組合數(shù)量就更多了。所以,這張表的行數(shù)巨大,論文上說是 10^165 行。這個數(shù)量級太大了,即便用當(dāng)今世界最強大的云計算系統(tǒng),估計也得算上幾十年。

不過,假如我們有足夠的計算能力,能夠遍歷出這張表,那么我們就可以計算出面對特定的牌局,各種下注決策對應(yīng)的平均收益。

譬如,發(fā)完全部 5 張明牌之后(river),對方手里的兩張暗牌,總共有 (45 * 44) / (2 * 1) = 990 種組合。又假如,前三輪下注(pre-flop, flop, turn),總共有 N 種下注歷史。這時候如果輪到我方下注,每一種下注策略,譬如下注手頭剩下的全部籌碼(all in),將面臨 990 * N 種可能的收益。這 990 * N 種收益的平均值,就是這種下注策略的平均收益。

面對特定的牌局,我們計算出了各種下注決策對應(yīng)的平均收益以后,就可以找出平均收益最高的那種下注決策。

平均收益最高的那種下注決策,是否就是納什均衡策略?不是。

原因是,當(dāng)對方手里的暗牌的牌力很低時,譬如對方手里的兩張暗牌是一張紅桃三一張梅花六(3h6c),對方大金額下注的概率很低。

那么,如何估算對方下注策略的概率?

這個問題比較復(fù)雜,因為對方下注,不僅僅依據(jù)對方手里的暗牌和桌面的明牌,而且,對方會根據(jù)我方下注的歷史,來估算我方手里的暗牌。

反事實最佳策略:尋找納什均衡策略的流行算法

反事實最佳策略(Counterfactual Best Response, CBR ),是一種近年來比較流行的,尋找納什均衡策略的算法 [4]。

反事實最佳策略有三大要素:1. 模擬,2. 悔牌(regret),3. 迭代(iteration)。

面對各種局面(InfoSet),也就是前述的局面下注對應(yīng)表的前四列,先假設(shè)我方以隨機均等概率選擇下注策略。這樣經(jīng)過一系列發(fā)牌和下注,牌局結(jié)束,然后清點我方的收益或損失。

這樣模擬幾億次牌局,大致覆蓋各種可能的局面。

然后悔牌。面對某種特定局面,也就是固定住對應(yīng)表的前四列,換句話說,也就是我方有特定的兩張暗牌,桌面上有最多五張?zhí)囟ǖ拿髋?,再加上特定的下注歷史。悔牌的意思是,面對某種特定局面,我方不隨機選擇下注策略,而是只認(rèn)定一種下注方式,譬如跟注(call)。

悔牌以后,后續(xù)亮出的明牌,不會改變。但是我方和對方,后續(xù)下注的歷史會發(fā)生改變。

把剛才幾億次牌局,重新模擬一遍。重新模擬時,雙方暗牌和桌面上的明牌不變,發(fā)牌順序不變,悔牌以前的下注歷史不變,但是悔牌以后的下注歷史改變。每次下注時,除了悔牌那個特定策略,其余的下注策略不變。

這樣重新模擬了一次以后,就可以計算出悔牌的策略,平均收益是多少。

然后換一種悔牌策略,也就是面對同樣局面,只認(rèn)定另一種下注方式。譬如前一次悔牌的策略是跟注(call),這一次模擬的悔牌策略,改為加碼(raise),然后把剛才幾億次牌局,重新模擬第二遍。這樣就可以計算出第二種悔牌策略的平均收益。

模擬了若干次以后,就可以估算出,面對同樣的局面,各種可能的悔牌策略,及其平均收益。

重復(fù)以上模擬過程,確定各種局面的各種策略,及其平均收益。

然后,更新下注對應(yīng)表(Action Mapping)。先清空表中第五列,也就是不枚舉對方手上的兩張暗牌。然后在第七列,填入每一種下注策略的平均收益。

以上是第一輪模擬和悔牌,然后進行第二輪模擬。

第二輪模擬時,先假設(shè)對方仍然按照隨機均等的概率,選擇下注策略。而我方根據(jù)第一輪更新后的下注對應(yīng)表,選擇下注決策。

面對同樣一個局面,也就是表中的前四列,我方按以下方式選擇下注策略。

1. 先根據(jù)當(dāng)前的局面,也就是暗牌明牌加下注歷史,找到更新后的下注對應(yīng)表中,所有相應(yīng)的行。

2. 更新后的下注對應(yīng)表中,第六列是下注策略,第七列是平均收益。根據(jù)平均收益,選擇下注策略。收益越高,相應(yīng)下注策略被選中的概率越高。

這樣,確定了第二輪模擬的暗牌明牌,發(fā)牌順序,以及我方和對方最初下注歷史。

然后,悔牌。并再做一個下注對應(yīng)表,記錄面對各種局面時,各種下注策略的平均收益。

第三輪模擬時,我方用第二版下注對應(yīng)表,對方用第一版下注對應(yīng)表。經(jīng)過多次模擬過程,得到第三版下注對應(yīng)表。

如此重復(fù)迭代。經(jīng)過多輪模擬迭代以后,所得到的下注對應(yīng)表,將是逼近納什均衡的最佳策略。

簡化牌局,降低計算負(fù)擔(dān)

如第三節(jié)所述,下注對應(yīng)表中,單單第一列和第二列的組合,就高達 57,437,016,000 種。如果在加上各種可能的下注歷史,那么下注對應(yīng)表的行數(shù),是 10^165 數(shù)量級。

另外,用反事實最佳策略算法,來尋找納什均衡策略,需要經(jīng)過幾十億次模擬。

下注對應(yīng)表的行數(shù)太多,反事實最佳策略算法的模擬次數(shù)太多,導(dǎo)致計算量太大,難以承受。

一個顯而易見的解決辦法,是簡化牌局(Abstraction),以便精簡下注對應(yīng)表的行數(shù)。

譬如,一個對子,紅桃八和黑桃八(8h8s),與另一個對子,方片八和梅花八(8d8c),這兩個對子的牌力,是相似的。所以,可以把兩個八的對子,總共 (4 * 3) / (2 * 1) = 6 種組合,都簡化成下注對應(yīng)表中的一行。

但是牌力的計算,需要很仔細(xì),譬如一對八,與一個八一個九,哪一種組合的牌力大?假如 5 張明牌分別是七、十、勾、外加兩張散牌,那么一個八一個九可以與明牌組合成從七到勾的順子,而一對八與五張明牌的最大組合,仍然是一對八。

所以,牌力的計算,不僅要看牌面本身的大小,而且要枚舉兩張暗牌,與 5 張明牌的各種可能的組合。[5] 詳細(xì)講述了牌力的計算方法。另外,也講述了如何根據(jù)牌力,對牌面進行抽象的做法(Card Abstraction)。

DeepStack對牌面進行抽象,詳見[5]

不僅對牌面要進行抽象,而且對下注也要進行抽象,譬如只允許四種下注方式,棄牌(fold)、跟注(call)、加碼(raise)、孤注一擲(all in)。

經(jīng)過抽象后,牌局組合的總數(shù),被大大降低。譬如 [4] 把總數(shù)為 10^165 的牌局組合,簡化到 10^12。

牌局組合總數(shù)降低后,反事實最佳策略模擬迭代,就可行了。

終局,誤算與精算

但是,簡化牌局,會導(dǎo)致誤算。譬如根據(jù)牌力,我們把一對七與一對八,歸為同一種局面。但是,假如雙方一路對賭到底,誰也不中途棄牌(fold),只好最后亮牌(showdown)。

亮牌的時候,我方一對七,對方一對八,雖然牌力區(qū)別微小,但是卻決定最終勝負(fù)。這就是所謂誤算(Off-tree Problem)。

解決誤算的辦法,是用精算(re-solving)來替代抽象(abstraction)。

精算的核心,是通過擬合雙方下注歷史,來反向推算對方手里的兩張暗牌,及其概率。

假設(shè)我方的兩張暗牌是 h1,對方的兩張暗牌是 h2。又假設(shè)我方和對方,都按照反事實最佳策略來下注,那么就可以通過查找下注對應(yīng)表,推算出各種下注策略的概率。

譬如,pre-flop 時,我方的暗牌是一對八,對方的暗牌是一對 A。假如首次下注由我方開始,我方加碼(raise)的概率很大,但是 all-in 的概率幾乎為 0。但是對方 all-in 的概率,會比 0 大很多。

現(xiàn)在給定一個特定的下注歷史,我們可以通過查找下注對應(yīng)表,計算出每一步下注的概率。所謂下注歷史,就是一連串的下注,下注歷史的概率,就是一連串概率的乘積。

通過計算下注歷史的概率,我們不僅可以估算對方手里的暗牌,而且還可以估算對方背離正常的下注策略的幅度和波動,也就是說,我們能夠估算得出對方虛張聲勢(bluffing)的概率。

估算出了對方的暗牌,以及對方 bluffing 的概率,終局的精算,就比較容易了。無非是把對方的暗牌,與我方的暗牌相比較,推算出我方勝出的概率,以此決定下注的金額。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46369

    瀏覽量

    236568
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1249

    瀏覽量

    24134

原文標(biāo)題:【AlphaGo之后會是什么】一文讀懂人工智能打德?lián)?/p>

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    驅(qū)動科學(xué)創(chuàng)新》的第6章為我提供了寶貴的知識和見解,讓我對人工智能在能源科學(xué)中的應(yīng)用有了更深入的認(rèn)識。通過閱讀這章,我更加堅信人工智能未來能源科學(xué)領(lǐng)域中的重要地位和作用。同時,我也意
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    。 4. 對未來生命科學(xué)發(fā)展的展望 在閱讀這章后,我對未來生命科學(xué)的發(fā)展充滿了期待。我相信,在人工智能技術(shù)的推動下,生命科學(xué)將取得更加顯著的進展。例如,在藥物研發(fā)領(lǐng)域,AI技術(shù)將幫助
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    的同時,確保其公正性、透明度和可持續(xù)性,是當(dāng)前和未來科學(xué)研究必須面對的重要課題。此外,培養(yǎng)具備AI技能的科研人才,也是推動這領(lǐng)域發(fā)展的關(guān)鍵。 4. 激發(fā)創(chuàng)新思維 閱讀這章,我被深深啟發(fā)的是
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    未來發(fā)展趨勢: 市場規(guī)模持續(xù)增長 :據(jù)多家研究機構(gòu)和公司的預(yù)測,RISC-V的市場規(guī)模將持續(xù)增長。到2030年,RISC-V處理器有望占據(jù)全球市場近四分之的份額。這將為RISC-V在
    發(fā)表于 09-28 11:00

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結(jié)經(jīng)驗,擬按照要求準(zhǔn)備相關(guān)體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2) 課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎(chǔ)知識指引
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能
    發(fā)表于 02-26 10:17

    讀懂車規(guī)級AEC-Q認(rèn)證

    讀懂車規(guī)級AEC-Q認(rèn)證
    的頭像 發(fā)表于 12-04 16:45 ?842次閱讀

    讀懂微力扭轉(zhuǎn)試驗機的優(yōu)勢

    讀懂微力扭轉(zhuǎn)試驗機的優(yōu)勢
    的頭像 發(fā)表于 11-30 09:08 ?503次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>讀懂</b>微力扭轉(zhuǎn)試驗機的優(yōu)勢

    讀懂,什么是BLE?

    讀懂,什么是BLE?
    的頭像 發(fā)表于 11-27 17:11 ?2004次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>讀懂</b>,什么是BLE?

    如何使單片機與無線供電結(jié)合,從而使人工智能脫離電池和線路?

    如何使單片機與無線供電結(jié)合,從而使人工智能脫離電池和線路
    發(fā)表于 10-31 06:34