独立 (確率論)
確率論において、複数の確率変数や事象が独立であるというのは、各変数や各事象の間に確率論的な関連性がないことをいう。二つの事象が独立といった場合は、片方の事象が起きたことが分かっても、もう片方の事象の起きる確率が変化しないことをいう。二つの確率変数が独立といった場合は、片方の変数の値が分かっても、もう片方の変数の分布が変化しないことをいう。もっとも一般的な場合として、可算加法族の無限個の組に対して、独立性が定義される。
上のような定義で問題となるのは、すべての事象の確率があらかじめ計算できるように与えられている場合の独立性の判定方法を示しているだけで、現実に起きるランダムな現象に対して、それがどういった条件を満たせば独立といえるのかという問題に答えていないことである。高校数学で確率を習うときにも、独立であるためにはどういう条件を満たせばいいかを教えずに、「サイコロを二つ投げたとき」のように独立だと思える試行の例を挙げるのみにとどまっている。これも独立性を定義することが難しいことによるのである。
もっとも簡単に独立性を判断できる場合として、「同様に確からしい」によって確率を定めた場合がある。例えば、コインを二つ投げたときに出る表と裏の組み合わせは、(表, 表), (表, 裏), (裏, 表), (裏, 裏) の四通りである。この四通りのうち、ある組み合わせが特別に出やすいとか出にくいといった判断ができないときに「同様に確からしい」といって、各々の組み合わせが出る確率は等しく 1/4 であると定めるわけである。これで確率が定まったので、最初に挙げた定義にのっとり片方のコインの結果ともう一方のコインの結果は独立であるということができるわけである。しかし、最初の「同様に確からしい」という判断には、二つのコインが「独立」していることが判断基準に入っているはずである。このように、「同様に確からしい」という概念は「独立性」を含んでいる。
「同様に確からしい」は実験によって確かめることもできる。二つのコインを投げるという試行を何度も繰り返して、上の四通りの組み合わせの出現を数え、統計の手法を用いることで、「同様に確からしい」ことを実証できる。「同様に確からしい」ことが確かめられたら、上のようにして独立性も示せるわけである。
この統計手法から「同様に確からしい」を外して、どのような分布にも対応できるようにしたのが、分割表による独立性の検定である。これについては、カイ二乗検定の項目を見られたい。
定義
まず基本となる、二つの事象 A と B が独立であることの定義は
となることである。もし、P(B) ≠ 0 であれば、条件付確率を用いて
と書くこともできる。これは事象 B が起きたかどうかが分かっても、A が起きるかどうかの確率には影響を与えないことを意味する。上の定義は P(B) = 0 のときにも対応しているので、通常は上の定義を用いる。
次に、事象の族 { Aλ } が独立であるとは、その任意の有限部分族
に対して
が成立することをいう。
確率変数の場合は、確率変数の族 { Xλ } が独立であるとは、任意の実数 aλ に対して、事象の族
が独立であることをいう。
完全加法族の場合は、完全加法族の族 { Fλ } が独立であるとは、その任意の有限部分族
に対して、
が成立することをいう。事象 A に対しては事象の生成する完全加法族 σ(A) とし、確率変数 X に対しては確率変数の生成する完全加法族 σ(X) として、この定義を使えば、前の定義と一致するし、この3種類の対象の混ざった独立性も定義できるので便利である。
定理
独立性を満たす場合に成立する定理や、独立性の十分条件の代表例を挙げる。
二つの確率変数 X と Y が独立のとき
- 同時分布関数と同時確率密度関数が積に分かれる
次をみたすとき確率変数 X と Y は独立になる。
- 任意の有界関数 f と g に対して
- 特性関数が積に分かれる