コンテンツにスキップ

「モンテカルロ木探索」の版間の差分

出典: フリー百科事典『ウィキペディア(Wikipedia)』
削除された内容 追加された内容
Pxenviq (会話 | 投稿記録)
編集の要約なし
Cewbot (会話 | 投稿記録)
m Bot作業依頼: {{Cite journal}}のパラメータ一を小文字にする - log
41行目: 41行目:
|pages=1-43
|pages=1-43
|doi=10.1109/TCIAIG.2012.2186810
|doi=10.1109/TCIAIG.2012.2186810
|ISSN=1943-068X
|issn=1943-068X
|month=February
|month=February
|url=http://mcts.ai/pubs/mcts-survey-master.pdf
|url=http://mcts.ai/pubs/mcts-survey-master.pdf

2020年1月25日 (土) 17:41時点における版

モンテカルロ木探索(モンテカルロきたんさく、: Monte Carlo tree search)とは、モンテカルロ法を使った探索の事。決定過程に対する、ヒューリスティクス(=途中で不要な探索をやめ、ある程度の高確率で良い手を導ける)な探索アルゴリズムである。

モンテカルロ木検索の主要な利用例は、コンピュータ囲碁チェス将棋などのゲームプレイの手を決定する際に使用される。リアルタイムPCゲームや、大富豪ポーカーなどの相手の手の内が全て分かるわけではないゲームへも使用される。

アルゴリズム

モンテカルロ木探索は、最も良い手を選択するために使われ、ランダムサンプリングの結果に基づいて探索木を構築する。ゲームでのモンテカルロ木検索は、最後までプレイしたシミュレーション結果に基づいて構築する。ゲームの勝敗の結果に基づいてノードの値を更新して、最終的に勝率が高いことが見込まれる手を選択する。

最も単純な方法は、それぞれの有効な選択肢に、同数ずつプレイアウトの回数を一様に割り振って、最も勝率が良かった手を選択する方法である[1]。これは単純なモンテカルロ木探索(pure Monte Carlo tree search)と呼ばれる。過去のプレイアウト結果に基づき、よりプレイヤーの勝利に結びつく手にプレイアウトの回数をより多く割り振ると探索効率が向上する。

モンテカルロ木探索は4つのステップからなる[2]

  • 選択:根Rから始めて、葉ノードLにたどり着くまで、子ノードを選択し続ける。根が現在のゲームの状態で、葉ノードはシミュレーションが行われていないノード。より有望な方向に木が展開していくように、子ノードの選択を片寄らせる方法は、モンテカルロ木探索で重要なことであるが、探索と知識利用の所で後述する。
  • 展開:Lが勝負を決するノードでない限り、Lから有効手の子ノードの中からCを1つ選ぶ。
  • シミュレーション:Cから完全なランダムプレイアウトを行う。これはロールアウトとも呼ばれる。単純な方法としては、一様分布から手を選択してランダムプレイアウトを実行する。
  • バックプロパゲーション:CからRへのパスに沿って、プレイアウトの結果を伝搬する。
モンテカルロ木探索の4つのステップ

上記のグラフは各ステップの選択を表している。ノードの数字は、そのノードからのプレイアウトの"勝った回数/プレイアウトの回数"を表している[3]。Selectionのグラフでは、今、黒の手番である。根ノードの数字は白が21回中11回勝利していることを表している。裏を返すと黒が21回中10回勝利していることを表していて、根ノードの下の3つのノードは手が3種類あることを表していて、数字を合計すると10/21になる。

シミュレーションで白が負けたとする。白の0/1ノードを追加して、そこから根ノードまでのパスの全てのノードの分母(プレイアウトの回数)に1加算して、分子(勝った回数)は黒ノードだけ加算する。引き分けの際は、0.5加算する。こうすることで、プレイヤーは最も有望な手を自分の手番で選択することが出来る。

計算の制限時間に到達するまで、これを反復し、最も勝率が高い手を選択する。

探索と知識利用

子ノードを選択する際の難しい点は、何回かのプレイアウトの結果により高い勝率であるという知識利用(: exploitation)とプレイアウトの回数が不足してるので探索(: exploration)することのバランスを取ることである。手法は無数にあり Cameron B. Browne らが2012年2月までに発表された物を論文にまとめている[4]

UCT (Upper Confidence Tree)

探索と知識利用のバランスを取る1つの方法は、Levente Kocsis と Csaba Szepesvári が2006年に発表した UCT(木に適用したUpper Confidence Bound 1)である[5]。UCT は Auer, Cesa-Bianchi, Fischer が2002年に発表した UCB1 (Upper Confidence Bound 1)[6] に基づく方法である。Kocsis と Szepesvári は が最大となる子ノードを選択することを提案している。各変数は以下の通り。

  • w は勝った回数
  • n はこのノードのシミュレーションの回数
  • N は全シミュレーション回数
  • c は定数。理論上は であるが、実際は探索が上手く行くように調整する。

第1項の勝率は知識利用である。第2項は探索を表現していて、シミュレーション回数が少ないのを選択するようにする。

PUCT (Polynomial Upper Confidence Tree)

PUCT は David Auger, Adrien Couetoux, Olivier Teytaud が2013年に発表した手法[7]

木は根は決断ノードとし、決断ノードとランダムノードを交互に繰り返す形で構築する。決断ノードで行為 a を選択し、ランダムノードに遷移する。

  • 決断ノード z を選択した場合、
    • ならば、そのノードでシミュレーションを行う
    • さもなければ が最大となる子ノードを選択する
  • ランダムノード w を選択した場合、
    • ならば、最も訪れていない子ノードを選択する
    • さもなければ、新しい子ノードを作成する

関数は以下の通り。

  • - 決断ノード z で行為 a を選択した際のランダムノードでの平均報酬(勝率など)
  • - 決断ノード z の訪問回数
  • - 決断ノード z で行為 a を選択した際のランダムノードの訪問回数
  • - 深さ d に対して定めた progressive widening 係数(定数)
  • - 深さ d に対して定めた探索係数(定数)

AlphaZero

David Silver らが AlphaZero にて2017年に採用した方法は PUCT を更に改変していて、以下の評価値で子ノードを選択する[8]

関数は以下の通り。

  • - 状態 s で行為 a を行った際の平均報酬
  • - 状態 s で行為 a を選択する確率。ニューラルネットワークの出力
  • - 訪問回数

参照

  1. ^ Brügmann, Bernd (1993). Monte Carlo Go. Technical report, Department of Physics, Syracuse University. http://www.ideanest.com/vegos/MonteCarloGo.pdf 
  2. ^ G.M.J.B. Chaslot; M.H.M. Winands; J.W.H.M. Uiterwijk; H.J. van den Herik; B. Bouzy (2008). “Progressive Strategies for Monte-Carlo Tree Search”. New Mathematics and Natural Computation 4 (3): 343–359. doi:10.1142/s1793005708001094. https://dke.maastrichtuniversity.nl/m.winands/documents/pMCTS.pdf. 
  3. ^ Bradberry, Jeff (2015年9月7日). “Introduction to Monte Carlo Tree Search”. 2019年4月12日閲覧。
  4. ^ C. B. Browne; E. Powley; D. Whitehouse; S. M. Lucas; P. I. Cowling; P. Rohlfshagen; S. Tavener; D. Perez et al. (February 2012). “A Survey of Monte Carlo Tree Search Methods”. IEEE Transactions on Computational Intelligence and AI in Games 4: 1-43. doi:10.1109/TCIAIG.2012.2186810. ISSN 1943-068X. http://mcts.ai/pubs/mcts-survey-master.pdf. 
  5. ^ Kocsis, Levente; Szepesvári, Csaba (2006). "Bandit based Monte-Carlo Planning". In Fürnkranz, Johannes; Scheffer, Tobias; Spiliopoulou, Myra (eds.). Machine Learning: ECML 2006, 17th European Conference on Machine Learning, Berlin, Germany, September 18–22, 2006, Proceedings. Lecture Notes in Computer Science. Vol. 4212. Springer. pp. 282–293. CiteSeerX 10.1.1.102.1296. doi:10.1007/11871842_29. ISBN 3-540-45375-X
  6. ^ Auer, Peter; Cesa-Bianchi, Nicolò; Fischer, Paul (2002). “Finite-time Analysis of the Multiarmed Bandit Problem”. Machine Learning 47 (2/3): 235–256. https://link.springer.com/content/pdf/10.1023/A:1013689704352.pdf. 
  7. ^ Auger, David; Couetoux, Adrien; Teytaud, Olivier (2013). “Continuous Upper Confidence Trees with Polynomial Exploration - Consistency”. Machine Learning and Knowledge Discovery in Databases (Springer Berlin Heidelberg) 8188: 194-209. doi:10.1007/978-3-642-40988-2_13. 
  8. ^ AlphaZero: Shedding new light on the grand games of chess, shogi and Go | DeepMind