Викия

Математика

Независимость (теория вероятностей)

1457статей на
этой вики
Добавить новую страницу
Обсуждение0 Поделиться

Обнаружено использование расширения AdBlock.


Викия — это свободный ресурс, который существует и развивается за счёт рекламы. Для блокирующих рекламу пользователей мы предоставляем модифицированную версию сайта.

Викия не будет доступна для последующих модификаций. Если вы желаете продолжать работать со страницей, то, пожалуйста, отключите расширение для блокировки рекламы.

В теории вероятностей два случайных события называются независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют независимыми, если значение одной из них не влияет на вероятность значений другой.

Независимые событияПравить

Будем считать, что дано фиксированное вероятностное пространство (\Omega, \mathcal{F}, \mathbb{P}).

Определение 1. Два события A,B\in \mathcal{F} независимы, если

\mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B).

Замечание 1. В том случае, если вероятность одного события, скажем B ненулевая, то есть \mathbb{P}(B)>0, определение независимости эквивалентно:

\mathbb{P}(A \mid B ) = \mathbb{P}(A),

то есть условная вероятность события A при условии B равна безусловной вероятности события A.

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{i}\}_{i\in I}\subset \mathcal{F}, где I — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семества независимы, то есть

\mathbb{P}(A_i \cap A_j) = \mathbb{P}(A_i) \cdot \mathbb{P}(A_j),\; \forall i \not= j.

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{i}\}_{i\in I}\subset \mathcal{F}. Тогда эти события совместно независимы, если для любого конечного набора этих событий \{A_{i_k}\}_{k=1}^N верно:

\mathbb{P}(A_{i_1} \cap \ldots \cap A_{i_N}) = \mathbb{P}( A_{i_1} ) \ldots \mathbb{P}(A_{i_N}).

Замечание 2. Cовместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

  • A_1: монеты 1 и 2 упали одной и той же стороной;
  • A_2: монеты 2 и 3 упали одной и той же стороной;
  • A_3: монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события A_1,A_2 произошли, мы знаем точно, что A_3 также произошло.

Независимые сигма-алгебрыПравить

Определение 4. Пусть \mathcal{A}_1,\mathcal{A}_2 \subset \mathcal{F} две сигма-алгебры на одном и том же вероятностном пространстве. Они называются независимыми, если любые их представители независимы между собой, то есть:

\mathbb{P}(A_1 \cap A_2) = \mathbb{P}(A_1) \cdot \mathbb{P}(A_2),\; \forall A_1 \in \mathcal{A}_1,\, A_2\in \mathcal{A}_2.

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная независимость очевидным образом.

Независимые случайные величиныПравить

ОпределенияПравить

Определение 5. Пусть дано семейство случайных величин (X_i)_{i\in I}, так что X_i:\Omega \to \mathbb{R},\; \forall i\in I. Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры \{\sigma(X_i)\}_{i\in I}. Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины X,Y независимы тогда и только тогда, когда:

  • Для любых A, B\in \mathcal{B}(\mathbb{R}),
\mathbb{P}(X \in A, Y \in B) = \mathbb{P}(X\in A) \cdot \mathbb{P}(Y \in B);
  • Для любых борелевских функций f, g:\mathbb{R} \to \mathbb{R} случайные величины f(X), g(Y) независимы;
  • Для любых ограниченных борелевских функций f,g:\mathbb{R} \to \mathbb{R}
\mathbb{E}\left[f(X) g(Y)\right] = \mathbb{E}\left[f(X)\right] \cdot \mathbb{E}\left[g(Y)\right];

Свойства независимых случайных величинПравить

  • Пусть \mathbb{P}^{X,Y} - распределение случайного вектора (X,Y), \mathbb{P}^X - распределение X и \mathbb{P}^Y - распределение Y. Тогда X,Y независимы тогда и только тогда, когда
\mathbb{P}^{X,Y} = \mathbb{P}^X \otimes \mathbb{P}^Y,

где \otimes обозначает (прямое) произведение мер;

F_{X,Y}(x,y) = F_X(x) \cdot F_Y(y);
  • Пусть случайные величины X,Y дискретны. Тогда они независимы тогда и только тогда, когда
\mathbb{P}(X = i, Y = j) = \mathbb{P}(X=i) \cdot \mathbb{P}(Y = j).
  • Пусть случайные величины X,Y совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность f_{X,Y}(x,y). Тогда они независимы тогда и только тогда, когда
f_{X,Y}(x,y) = f_X(x)  \cdot  f_Y(y),\; \forall (x,y)\in \mathbb{R}^2,

где f_X(x), f_Y(y) - плотности случайных величин X и Y соответственно.

См. такжеПравить


Эта статья содержит материал из статьи Независимость (теория вероятностей) русской Википедии.

Викия-сеть

Случайная вики