コンテンツにスキップ

利用者:ぐしー/sandbox

テンプレート用サンドボックスはこちら

レプリケーターダイナミクス[編集]

進化ゲーム理論におけるレプリケーターダイナミクス (: replicator dynamics, RD) とは、レプリケーター方程式 (: replicator equations) と呼ばれる差分方程式または微分方程式を用いて、プレイヤー集団における戦略の頻度の長期的変動を表現する力学系モデルである。1978年にESSの動学的な安定性を評価するためにピーター・テイラーレオ・ジョンカーによって導入され[1][2]、1983年にピーター・シュスターカール・シグムンドにより「レプリケーターダイナミクス」の名が付けられた[1][3]

導入の背景[編集]

1973年にジョン・メイナード=スミスジョージ・プライスは、成功した戦略がより高い複製率を得る、つまり、後のゲームにより参加しやすくなるような対称ゲームを考えると戦略混合はある意味で最適または安定な状態に進化することを明らかにし、その状態を説明するために進化的に安定な戦略を導入した[4]が、このような安定状態に関する動的な概念として生み出されたのがRDである。

定義[編集]

純粋戦略主体の離散時間RD[編集]

2人対称戦略型ゲームをプレイし、その結果によって無性生殖を行い死亡する主体による集団を考える。プレイされるゲーム G とその混合拡張について以下の記号を用いる。

  • 純粋戦略集合 S 。集団の各主体はある一つの純粋戦略を採用し、子は親と同じ純粋戦略を採る。以下、特に断りの無い限りにおいて、単に「戦略」という場合には純粋戦略を指す。
  • 純粋利得関数 π : S2 → ℝπ(i, j) は戦略 i を採る主体が戦略 j を採る主体とゲームをプレイして得る適応度 (次世代で繁殖を行う子の数) の増分を表す。
  • 戦略混合単体 Δ = {x = (xi)iS ∈ ℝS  |  ∑
    iS
    xi = 1 ∧ ∀iS [xi ≥ 0]}
    S 上の確率分布ベクトルの全体であり、純粋戦略 iS を確率1で採る戦略混合は ei で表す。戦略混合単体は通常のRDでは集団の状態空間を表す[注釈 1]。また、すべての純粋戦略に正の確率が割り当てられている状態を完全混合と呼ぶ。
  • 混合利得関数 u : ℝS → ℝΔ2 上で定義される期待利得の関数 (x, y) ↦ ∑
    (i, j)∈S2
    xi yj π(i, j)
    を、各プレイヤーの混合戦略に対する双線形関数となるように定義域を S に拡張したものである。

この集団の世代 t ∈ ℕ における繁殖する個体の総数を p(t) > 0 で表す。また、各戦略 iS をとる個体数を pi(t) ≥ 0 で表す。ここで、状態ベクトル (state vector) を x(t) = (xi(t))iS = (pi(t) / p(t))iS によって定義する。これは集団中の各戦略の頻度を表すものであり、また x(t) ∈ Δ が常に成り立つ。また、xi(t)) を戦略 i の頻度、またはシェアという。

この集団のゲームによらない基礎出生率 (background birthrate) を β ≥ 0 とすると、集団のサイズが十分大きいときには世代 t + 1 の個体数について以下の2本の式が得られる。

これらを用いると、以下の離散時間RD (discrete time replicator dynamics) が得られる[6]

純粋戦略主体の世代重複RD[編集]

離散時間RDでは各世代において全ての個体がいっせいに繁殖する。そのかわりに、単位時間あたり等間隔に r 回、その時点での集団のうち 1r が繁殖するモデルを考える。繁殖間隔を τ = 1r で表すと、以下の2本の式が得られる。

したがって、以下の階数 r の世代重複RD (overlapping-generations replicator dynamics of order r) を得る[7]

純粋戦略主体の連続時間RD[編集]

世代重複RDの階数 r を限りなく大きくした場合、繁殖は連続時間で行われるようになる。ダイナミクスの差分商は

であるから、r → ∞、つまり τ = 1r → 0 のとき、以下の連続時間RD (continuous time replicator dynamics) を得る[8]

この微分方程式系は時刻 t に依存しない自励系なので、通常は以下のように t を省略し、微分をドット符号で表す[9]

性質[編集]

連続時間RDについて成り立つ性質のうち、主なものを以下に挙げる。

解の存在と一意性、連続性、不変性
ゲームを所与とすれば右辺はリプシッツ連続であり、任意の初期状態に対して解が一意に存在する(ピカール=リンデレーフの定理)。また、その解は初期状態について連続であり、どの初期状態についての解も Δ に留まる[10]
支配関係とRDの極限

ここでの「支配」は混合拡張ゲームの意味で用いられていることに注意されたい。

反復的に強支配される戦略 i について、すべての完全混合初期状態で xi → 0 (t → ∞) が成り立つ[11]
弱支配される戦略 i のシェアが t → ∞ のもとで0に収束しないのであれば、i を支配する戦略混合において i よりも高い期待利得を得る戦略はすべての完全混合初期状態でそのシェアが t → ∞ のもとで0に収束する。[12]
対称ナッシュ均衡
対称ナッシュ均衡をなす戦略混合は集団状態として定常である。また、完全混合の範囲では対称ナッシュ均衡をなす戦略混合であることと定常状態であることは同値である(完全混合でない場合、例えば、すべての戦略 i について状態 ei は定常である)[13]
リアプノフ安定状態はすべて対称ナッシュ均衡をなす戦略混合である。[14]
完全混合初期状態について前方解軌道が t → ∞ のもとで収束するならば、その極限状態は必ず対称ナッシュ均衡をなす戦略混合である[15]
進化的に安定な戦略 (ESS) と中立的に安定な戦略 (NSS)
ESSは集団状態として漸近安定である。特に、完全混合ESSが存在すればそれが(唯一のESSであり[注釈 2])すべての完全混合初期状態について極限状態となる[17]
NSSは集団状態としてリアプノフ安定である[18]

他の方程式系との関係[編集]

一般化ロトカ・ヴォルテラ方程式英語版
プライス方程式英語版

複数集団への拡張[編集]

正則選択ダイナミクス[編集]

脚注[編集]

注釈[編集]

  1. ^ 有限個の混合戦略をレプリケーターとするモデルも存在する[5]
  2. ^ あるESSの台(正の確率を割り当てる戦略の集合)が別のESSの台と包含関係になることは無い[16]。完全混合であれば台は純粋戦略集合である。

出典[編集]

  1. ^ a b ウェイブル 1998, p. 90.
  2. ^ Taylor & Jonker 1978.
  3. ^ Schuster & Sigmund 1983.
  4. ^ Taylor & Jonker 1978, p. 145.
  5. ^ ウェイブル 1998, pp. 89, 131–132.
  6. ^ ウェイブル 1998, pp. 155–156.
  7. ^ ウェイブル 1998, pp. 157–158.
  8. ^ ウェイブル 1998, p. 158.
  9. ^ ウェイブル 1998, p. 93.
  10. ^ ウェイブル 1998, p. 95.
  11. ^ ウェイブル 1998, pp. 103–105.
  12. ^ ウェイブル 1998, pp. 106–108.
  13. ^ ウェイブル 1998, pp. 109–111.
  14. ^ ウェイブル 1998, pp. 112–113.
  15. ^ ウェイブル 1998, pp. 114–115.
  16. ^ ウェイブル 1998, p. 52.
  17. ^ ウェイブル 1998, pp. 127–128.
  18. ^ ウェイブル 1998, p. 132.

文献目録[編集]

日本語 (邦訳含む)
  • ウェイブル, ヨルゲン W.『進化ゲームの理論』大和瀬達二 監訳、三澤哲也/赤尾健一/大阿久博/横尾昌紀 訳、オフィス カノウチ、1998年3月31日(原著1995年)。ISBN 4-8301-0820-7 
  • 石原, 英樹、金井, 雅之『シリーズ〈意思決定の科学〉5 進化的意思決定』朝倉書店、2002年4月5日。ISBN 4-254-29515-4 
外国語
  • Schuster, Peter; Sigmund, Karl (1983). “Replicator dynamics”. Journal of Theoretical Biology 100 (3): 533–538. doi:10.1016/0022-5193(83)90445-9. 
  • Taylor, Peter D.; Jonker, Leo B. (1978). “Evolutionary stable strategies and game dynamics”. Mathematical Biosciences 40 (1–2): 145–156. doi:10.1016/0025-5564(78)90077-9. 

関連項目[編集]