Викия

Математика

Мультиномиальное распределение зависимых случайных величин

1457статей на
этой вики
Добавить новую страницу
Обсуждение0 Share

Обнаружено использование расширения AdBlock.


Викия — это свободный ресурс, который существует и развивается за счёт рекламы. Для блокирующих рекламу пользователей мы предоставляем модифицированную версию сайта.

Викия не будет доступна для последующих модификаций. Если вы желаете продолжать работать со страницей, то, пожалуйста, отключите расширение для блокировки рекламы.


Мультиномиа́льное (полиномиа́льное) распределе́ние зависимых случайных величин (интерпретации 21-го века) — это распространение биномиального распределения интерпретации 21-го века "на случай скольких угодно событий" [1]зависимых испытаний случайного эксперимента с несколькими возможными исходами (таблица 1).

Таблица 1 – Характеристики мультиномиального распределения зависимых случайных величин (настоящей интерпретации 21-го века)
Пространство элементарных событий \sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})
Вероятность \prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}

Максимальная вероятность

(при математическом ожидании распределения)

\left(\prod_{i=1}^nP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}) \right)_{max}=

=\left(\frac{n!}{n_1! \cdots n_n!} p_1^{n_1}\cdots p_n^{n_n}\right)_{max}=\frac{n!}{n^n}

Математическое ожидание

(как максимальное произведение математических ожиданий

случайных величин)

\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=

=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i\right)_{max}=\frac{n!}{n^n}

Дисперсия \sum_{i=1}^kD(t_i,X_i=n_i)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i
Максимальная дисперсия

(при математическом ожидании распределения)

\left(\sum_{i=1}^nD(t_i,X_i =n_i)\right)_{max}=

=\left(\sum_{i=1}^n(n-\ldots-n_{i-1})p_iq_i\right)_{max}=\frac{n^2-1}{2n}

Ковариационная матрица B=\| b_{ij} \|,

где b_{ij} = \begin{cases} (n-\ldots-n_{i-1})p_iq_i, & i=j,\\
0, & i \not= j
\end{cases}

Корреляционная матрица \Rho=\| \rho_{ij} \|,

где \rho _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j
\end{cases}

\chi^2 - критерий \chi^2=\sum_{i=1}^k [X_i-(n-\ldots-n_{i-1})p_i^{(0)}]^2/( n-\ldots-n_{i-1})p_i^{(0)}=

=-n+\sum_{i=1}^kX_i^2 /( n-\ldots-n_{i-1})p_i^{(0)}


Схема повторных циклов случайных зависимых экспериментов Править

Мультиномиальное распределение появляется в так называемой мультиномиальной (полиномиальной) схеме повторных циклов случайных зависимых экспериментов. Каждый цикл экспериментов осуществляют методом выбора без возвращения в дискретной временной последовательности t_1,\ldots,t_k , номера точек которой соответствуют номерам случайных величин.

Каждая из случайных величин распределения X_i=n_i|X_{i-1}=n_{i-1} — это число n_i наступлений одного соответствующего события


x_i,\quad i=1,\ldots,k

в  i - ый момент времени при условии, что в (i-1) - ый момент произошло n_{i-1} наступлений предшествующего события x_{i-1}, — распределения Бернулли с успехом, вероятности которых p_i, \quad i=1,\ldots,k нормированы p_1+\ldots+p_k=1 и неизменны во время проведения экспериментов.

Если в каждом цикле экспериментов вероятность наступления события x_i равна p_i, то мультиномиальная (полиномиальная) вероятность равна вероятности того, что при n экспериментах события x_1,\ldots,x_k наступят n_1,\ldots,n_k раз соответственно.

Случайная величина мультиномиального распределения в соответствующей точке дискретной временной последовательности t_1,\ldots,t_k имеет:

пространство элементарных событий 
\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})

вероятность


P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-\ldots-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание


E(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=(n-\ldots-n_{i-1})p_i

и дисперсию


D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i,

\quad q_i=1-p_i.

Пространство элементарных событий мультиномиального распределения есть сумма точечных пространств элементарных событий его случайных величин, образующих дискретную последовательность точек  t_1,\ldots,t_k цикла, а вероятность мультиномиального распределения — произведение вероятностей его случайных величин.

Технические задачи и технические результаты Править

Для получения мультиномиального распределения необходимо решить две технические задачи и получить технические результаты, относящиеся к математической физике [2] ,[3] .

Первая и вторая технические задачи — соответственно получение вероятности и математического ожидания мультиномиального распределения.

Технические результаты — набор технических параметров, с одной стороны, минимально необходимый для описания мультиномиального распределения и его случайных величин, с другой стороны, позволяющий при необходимости расширить число параметров с целью получения дополнительных сведений о распределении, например, таких как корреляционная матрица, ковариационная матрица , \chi^2 -квадрат критерий и другие.

Минимально необходимый набор параметров при решении первой технической задачи: пространство элементарных событий, вероятность, математическое ожидание и дисперсия каждой случайной величины распределения, дисперсия распределения и произведение математических ожиданий его случайных величин как исходное выражение для решения второй технической задачи.

При решении второй технической задачи минимально необходимый набор параметров аналогичен предыдущему набору. Исключен из-за ненадобности один параметр — произведение математических ожиданий случайных величин и дополнен двумя параметрами — максимальной вероятностью и максимальной дисперсией мультиномиального распределения.

Мультиномиальное распределение (полиномиальное распределение) — совместное распределение вероятностей зависимых (кроме первой, в общем случае) случайных величин


\prod_{i=1}^kP(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},

2\le k \le n <\infty,

определённых на точечных пространствах элементарных событий


\Omega_1, \ldots, \Omega _k

и принимающих в дискретные последовательные моменты времени


t_1, \ldots, t_k, \quad  t_i<t_{i+1}

целые неотрицательные значения


n_1, \ldots, n_k,

взаимосвязанные условием


n_1+\ldots+n_k=n,

согласно которому


X_i=n_i \mid X_{i-1}=n_{i-1}

в  i - ый момент времени i - ая случайная величина X _i принимает значение n _i,  \quad  0\le n_i\le n-\ldots- n_{i-1} при условии, что в предшествующий момент времени n _{i-1}, \quad t_{i-1}<t_i предшествующая случайная величина X_{i-1} приняла значение n _{i-1}, \quad 0\le n_{i-1}\le n-\ldots-n_{i-2}.

Характер зависимости случайных величин в каждом цикле экспериментов: Править

  • Первая по номеру случайная величина первая и во временной последовательности случайных величин и потому независимо от них она в первый момент времени может принять значение, лежащее в пределах от нуля до n включительно;
  • Если первые k-1 случайные величины приняли положительные значения n_1,\ldots,n_{k-1}, то последняя X_k обязана принять либо положительное значение n_k, единственно возможное и дополняющее до n сумму n_1+\ldots+n_{k-1} числовых значений предшествующих ей случайных величин n_1+\ldots+n_k=n, либо нулевое значение n_k=0, если сумма числовых значений предшествующих ей случайных величин равна n : n_1+\ldots+n_{k-1}=n ;
  • Если первая случайная величина в первый момент времени приняла своё максимально возможное значение, равное n, то все остальные случайные величины этой временной последовательности обязаны принять свои минимальные (нулевые) значения в противном случае не будет выполнено условие суммирования числовых значений всех случайных величин распределения  n_1+\ldots+n_k=n  ;
  • Если первая случайная величина в первый момент времени приняла нулевое значение, то вторая случайная величина во второй момент времени будет независимой и может принимать одно из возможных значений от нуля до числа n включительно.

И так далее до предпоследней случайной величины одной последовательности.

  • Если и предпоследняя случайная величина приняла нулевое значение, то в последний, k - ый момент времени последняя X_k случайная величина обязана принять максимальное и единственно возможное значение, равное n, в противном случае не будет выполнено условие  n_1+\ldots+n_k=n .

Характеристики случайных величин мультиномиального распределения: Править

пространство элементарных событий


\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=[0 \le n_i \le n-\ldots-n_{i-1}],

вероятность


P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-\ldots-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание


E(t_i,X_i=n_i \mid t_{i-1},X_{i-1})=(n-\ldots-n_{i-1})p_i,

дисперсия


D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i, \quad q_i=1-p_i,

производящая


A(s_i)=(1+p_is_i)^{ n-\ldots-n_{i-1}}

и характеристическая


f(t_i)=(1+p_ie^{jt_i})^{ n-\ldots-n_{i-1}}

функции.

Характеристики мультиномиального распределения:Править

пространство элементарных событий распределения как совместное пространство элементарных событий его случайных величин


\sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),

вероятность


\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},

дисперсия


\sum_{i=1}^kD(t_i,X_i=n_i)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i,

ковариационная матрица B=\| b_{ij} \|, где


b_{ij} = \begin{cases} (n-\ldots-n_{i-1})p_iq_i, & i=j,\\
0, & i \not= j,
\end{cases}

корреляционная матрица \Rho=\| \rho_{ij} \|, где


\rho _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j,
\end{cases}

(Дисперсия мультиномиального распределения равна сумме дисперсий случайных величин распределения, ковариационная и корреляционная матрицы мультиномиального распределения являются диагональными, поскольку зависимые случайные величины распределения разнесены по времени и определены не на пересекающихся пространствах элементарных событий.),

\chi^2 - квадрат критерий для мультиномиально (полиномиально) распределенных случайных величин


\chi^2=\sum_{i=1}^k [X_i-(n-\ldots-n_{i-1})p_i^{(0)}]^2/( n-\ldots-n_{i-1})p_i^{(0)}=

= -n+\sum_{i=1}^kX_i^2 /( n-\ldots-n_{i-1})p_i^{(0)}.


Вероятностная схема мультиномиального распределенияПравить

содержит циклы повторных зависимых экспериментов. Количество циклов не ограничено. В каждом цикле число экспериментов равно числу случайных величин распределения и в общем случае только первый эксперимент является независимым, а все последующие эксперименты в цикле зависимы от результатов предшествующих экспериментов. Все эксперименты осуществляют методом выбора без возвращения — изъятые элементы не возвращают на свое прежнее место до полного окончания данного цикла.

Случайные события – выборки случайного объема n_i, i=1,\ldots,k, \sum_{i=1}^kn_i=n из n - множества различимых (различающиеся между собой хотя бы одним признаком, например, порядковым номером) неупорядоченных (хаотично расположенных) элементов, осуществляемые в последовательные моменты времени t_1,\ldots,t_k.

Число выборок k, 2\le k\le n<\infty равно числу случайных величин распределения.

Случайные величины X_i, i=1,\ldots,k распределения — появления случайного числа элементов n - множества в n_i - подмножествах n_i, i=1,\ldots,k, с вероятностями p_i каждого из них.

Попадание одного произвольного элемента n - множества в одно из n_i - подмножеств — независимое событие распределения Бернулли с положительным исходом  0\le p_i<1, \quad i=1,\ldots,k\le n.

Вероятности этих событий неизменны в процессе проведения повторных зависимых экспериментов и пронормированы \sum_{i=1}^kp_i=1 согласно аксиоматике Колмогорова.

Один цикл повторных зависимых экспериментов, осуществляемых методом выбора без возвращения — последовательность k выборок случайных объёмов n_1,\ldots,n_k, обработка результатов разделения n - множества на n_i - подмножества, i=1,\ldots,k в последовательные моменты времени t_1, \ldots, t_k и возврат всех n изъятых элементов на прежнее место к началу следующего цикла.

Совместное произведение вероятностей попадания k выборок случайных объёмов n_1,\ldots,n_k в k подмножеств в одном цикле экспериментов — вероятность мультиномиального распределения.

Урновая модель мультиномиального распределения содержит одну исходную урну и k приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.

В начальный момент времени t_0 исходная урна содержит n - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны осуществляют первую выборку n_1, 0\le n_1\le n случайного объёма и направляют её в первую приёмную урну с вероятностью p_1 каждого элемента.

Во второй момент времени t_2 из оставшихся n-n_1 различимых неупорядоченных элементов исходной урны осуществляют вторую выборку n_2, 0\le n_2\le{n-n_1} случайного объёма и направляют её во вторую приёмную урну с вероятностью p_2 каждого элемента.

И так далее.

Наконец, в k - ый момент времени все элементы n_k=n-\ldots-n_{k-1}, оставшиеся в исходной урне, направляют в k - ую приёмную урну с вероятностью p_k каждого.

В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного n - множества на k - подмножеств все элементы из приёмных урн возвращают в исходную урну.

На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.

Произведение вероятностей попаданий n_1,n_2,\ldots,n_k элементов в приёмные урны есть вероятность мультиномиального распределения.

Урновая модель мультиномиального распределенияПравить

содержит одну исходную урну и k приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.

В начальный момент времени t_0 исходная урна содержит n - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны осуществляют первую выборку n_1, \quad 0\le n_1\le n случайного объёма и направляют её в первую приёмную урну с вероятностью p_1 каждого элемента.

Во второй момент времени t_2 из оставшихся n-n_1 различимых неупорядоченных элементов исходной урны осуществляют вторую выборку n_2, \quad0\le n_2\le{n-n_1} случайного объёма и направляют её во вторую приёмную урну с вероятностью p_2 каждого элемента.

И так далее.

Наконец, в k-ый момент времени все элементы n_k=n-\ldots-n_{k-1}, оставшиеся в исходной урне, направляют в k-ую приёмную урну с вероятностью p_k каждого.

В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного n-множества на k подмножеств все элементы из приёмных урн возвращают в исходную урну.

На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.

Произведение вероятностей попаданий n_1,n_2,\ldots,n_k элементов в приёмные урны есть вероятность мультиномиального распределения.


Способ получения вероятностей мультиномиального распределенияПравить

Этот способ относится к техническим задачам разделения дискретного целого на составные части случайных объёмов.

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): 2\le n < \infty .

Составные части — дискретные подмножества 2\le k \le n < \infty , в сумме равные объёму множества.

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит n, 2\le n < \infty различимых неупорядоченных элементов.

В первый момент времени t_1 из n-множества осуществляют первую выборку случайного объёма n_1, 0 \le n_1 \le n с вероятностью p_1 каждого её элемента.

Вероятность первой случайной величины P_1(t_1,\quad X_1=n_1) мультиномиального распределения определяется числом сочетаний {n \choose n_1} из n по n_1, умноженным на вероятность p_1 выбора одного элемента, возведённую в степень числа n_1 выбранных элементов:


P_1(t_1, X_1=n_1)={n \choose n_1}p_1^{n_1}.

Во второй момент времени t_2 из оставшихся n-n_1 элементов исходного множества осуществляют вторую выборку случайного объёма n_2,0 \le n_2 \le n-n_1 с вероятностью p_2 каждого её элемента.

Вероятность второй случайной величины P_2(t_2,\quad X_2=n_2) при условии, что в первый момент времени вероятность первой случайной величины мультиномиального распределения приняла значение P(t_1,\quad X_1=n_1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2, умноженным на вероятность p_2 выбора одного её элемента, возведённую в степень числа n_2 выбранных элементов:


P_2(t_2, X_2=n_2 \mid t_1,X_1=n_1)={n-n_1 \choose n_2}p_2^{n_2}.

И так далее.

В i-ый момент времени из оставшихся n-n_{i-1} элементов исходного множества осуществляют i-ую выборку случайного объёма n_i, 0 \le n_i \le n-n_{i-1} с вероятностью p_i каждого её элемента. Вероятность i-ой случайной величины P_i(t_i,\quad X_i=n_i) при условии, что в i-1-ый момент времени вероятность i-1-ой случайной величины мультиномиального распределения приняла значение P_{i-1}(t_{i-1},\quad X_{i-1}=n_{i-1}), определяется числом сочетаний  {n-n_{i-1} \choose n_i} из n-n_{i-1} по n_i=1, умноженным на вероятность p_i выбора одного её элемента, возведённую в степень числа n_i выбранных элементов:


P_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1})={n-n_{i-1}\choose n_i}p_i^{n_i}.

Произведение всех вероятностей есть вероятности мультиномиального распределения интерпретации 21-го века — совместное распределение вероятностей зависимых (кроме первой) случайных величин


\prod_{i=1}^kP_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

\sum_{i=1}^kn_i=n, \quad \sum_{i=1}^kp_i=1.

В частном случае, когда число случайных величин k=2 равно двум и множество содержит два элемента n=2, имеют место вероятности биномиального распределения интерпретации 21-го века


\prod_{i=1}^2P_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1!n_2!}p_1^{n_1}p_2^{n_2},

 \sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Урновая модель мультиномиального распределенияПравить

содержит одну исходную урну и k приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.

В начальный момент времени t_0 исходная урна содержит n - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны осуществляют первую выборку n_1, \quad 0\le n_1\le n случайного объёма и направляют её в первую приёмную урну с вероятностью p_1 каждого элемента.

Во второй момент времени t_2 из оставшихся n-n_1 различимых неупорядоченных элементов исходной урны осуществляют вторую выборку n_2, \quad0\le n_2\le{n-n_1} случайного объёма и направляют её во вторую приёмную урну с вероятностью p_2 каждого элемента.

И так далее.

Наконец, в k-ый момент времени все элементы n_k=n-\ldots-n_{k-1}, оставшиеся в исходной урне, направляют в k-ую приёмную урну с вероятностью p_k каждого.

В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного n-множества на k подмножеств все элементы из приёмных урн возвращают в исходную урну.

На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.

Произведение вероятностей попаданий n_1,n_2,\ldots,n_k элементов в приёмные урны есть вероятность мультиномиального распределения.

Способ получения вероятностей мультиномиального распределенияПравить

Этот способ относится к техническим задачам разделения дискретного целого на составные части случайных объёмов.

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): 2\le n < \infty .

Составные части — дискретные подмножества 2\le k \le n < \infty , в сумме равные объёму множества.

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит n, 2\le n < \infty различимых неупорядоченных элементов.

В первый момент времени t_1 из n-множества осуществляют первую выборку случайного объёма n_1, 0 \le n_1 \le n с вероятностью p_1 каждого её элемента.

Вероятность первой случайной величины P_1(t_1,\quad X_1=n_1) мультиномиального распределения определяется числом сочетаний {n \choose n_1} из n по n_1, умноженным на вероятность p_1 выбора одного элемента, возведённую в степень числа n_1 выбранных элементов:


P_1(t_1, X_1=n_1)={n \choose n_1}p_1^{n_1}.

Во второй момент времени t_2 из оставшихся n-n_1 элементов исходного множества осуществляют вторую выборку случайного объёма n_2,0 \le n_2 \le n-n_1 с вероятностью p_2 каждого её элемента.

Вероятность второй случайной величины P_2(t_2,\quad X_2=n_2) при условии, что в первый момент времени вероятность первой случайной величины мультиномиального распределения приняла значение P(t_1,\quad X_1=n_1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2, умноженным на вероятность p_2 выбора одного её элемента, возведённую в степень числа n_2 выбранных элементов:


P_2(t_2, X_2=n_2 \mid t_1,X_1=n_1)={n-n_1 \choose n_2}p_2^{n_2}.

И так далее.

В i-ый момент времени из оставшихся n-n_{i-1} элементов исходного множества осуществляют i-ую выборку случайного объёма n_i, 0 \le n_i \le n-n_{i-1} с вероятностью p_i каждого её элемента. Вероятность i-ой случайной величины P_i(t_i,\quad X_i=n_i) при условии, что в i-1-ый момент времени вероятность i-1-ой случайной величины мультиномиального распределения приняла значение P_{i-1}(t_{i-1},\quad X_{i-1}=n_{i-1}), определяется числом сочетаний  {n-n_{i-1} \choose n_i} из n-n_{i-1} по n_i=1, умноженным на вероятность p_i выбора одного её элемента, возведённую в степень числа n_i выбранных элементов:


P_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1})={n-n_{i-1}\choose n_i}p_i^{n_i}.

Произведение всех вероятностей есть вероятности мультиномиального распределения интерпретации 21-го века — совместное распределение вероятностей зависимых (кроме первой) случайных величин


\prod_{i=1}^kP_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

\sum_{i=1}^kn_i=n, \quad \sum_{i=1}^kp_i=1.

В частном случае, когда число случайных величин k=2 равно двум и множество содержит два элемента n=2, имеют место вероятности биномиального распределения интерпретации 21-го века


\prod_{i=1}^2P_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1!n_2!}p_1^{n_1}p_2^{n_2},

 \sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Свойства дисперсии мультиномиального распределенияПравить

Дисперсия мультиномиального распределения:

1) это случайная величина;

2) равна сумме дисперсий случайных величин мультиномиального распределения


D(X_1=n_1,\ldots, X_k=n_k)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i,

поскольку случайные величины распределения определены на непересекающихся пространствах элементарных событий


\sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1});

3) увеличивается с ростом числа случайных величин мультиномиального распределения, а дисперсии случайных величин мультиномиального распределения убывают с возрастанием своих порядковых номеров,

причём дисперсия первой случайной величины мультиномиального распределения совпадает с дисперсией первой случайной величины соответствующего биномиального распределения D (X_1=n_1)=np_1q_1,\quad 0\le n_1\le n, \quad q_1=1-p;

4) имеет множество значений из-за неоднозначности определения произведений p_iq_i, \quad i=1,\ldots,k;

5) максимальна при тех же условиях


X_1=n_1=1,\ldots, X_n=n_n=1, \quad k=n,

при которых максимальны одновременно и вероятность, и математическое ожидание мультиномиального распределения.

Максимальная дисперсия мультиномиального распределения


D(X_1=n_1,\ldots, X_k=n_k)_{max}=D(X_1=n_1=1,\ldots, X_n=n_n=1)=\frac{n^2-1}{2n}:

1) с возрастанием числа случайных величин распределения стремится к бесконечности, приближаясь к линейной зависимости  \frac{1}{2}n;

2) в  \frac{2(n^2-1)}{3n} раз превышает максимальную дисперсию соответствующего биномиального распределения  D(X_1=n_1,X_2=n_2 )_{max}=\left(\sum_{i=1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{3}{4}.

Сравнительная оценка характеристик мультиномиальных распределений зависимых и независимых случайных величин Править

Цель сравнительной оценки показать, что мультиномиальное распределение зависимых случайных величин (таблица 3) соответствует, а мультиномиальное распределение независимых случайных величин (таблица 4) не соответствует современным требованиям аксиоматики Колмогорова. Сравнение выполнено на основе минимально необходимого набора параметров, который для каждого распределения и каждой его случайной величины включает в себя четыре параметра: пространство элементарных событий, вероятность, математическое ожидание и дисперсию.

Таблица 3 – Характеристики распределения зависимых случайных величин
Характеристики распределения X_i-ой случайной величины распределения
Пространство

элементарных событий

\sum_{i=1}^k\Omega_i(t_i,X_i=n_i\mid t_{i-1},X_{i-1}) \Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1})==[0\le n_i \le n-\ldots-n_{i-1}]
Вероятность \prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1})==\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k} P(t_i,X_i=n_i \mid t_{i-1},X_{i-1})= ={n-n_{i-1}\choose n_i}p_i^{n_i}
Математическое

ожидание

\frac{n!}{n^n}, \quad k=n, \quad X_1=\ldots =X_n=1 E(t_i, X_i=n_i \mid t_{i-1},X_{i-1}= =(n-\ldots-n_{i-1})p_i
Дисперсия \sum_{i=1}^kD(t_i,X_i=n_i)==\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i D(t_i,X_i=n_i)==( n-\ldots-n_{i-1})p_iq_i
Таблица 4 – Характеристики минимально необходимого набора параметров мультиномиального распределения независимых случайных величин (традиционной интерпретации 20-го века)
Характеристики распределения X_i-ой случайной величины распределения
Пространство

элементарных событий

Произвольная последовательность

n независимых испытаний с несколькими k взаимоисключающими исходами каждый

Произвольная последовательность

n независимых испытаний с несколькими k взаимоисключающими исходами каждый

Вероятность P(X_1=n_1,\ldots,X_k=n_k)==\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k} P(X_i=n_i)= {n\choose n_i} p_i^{n_i}q_i^{n-n_i}
Математическое

ожидание

не определено np_i, \quad q_i=1-p_i
Дисперсия не определена np_iq_i

Мультиномиальное распределение зависимых случайных величин (настоящей интерпретации 21-го века)

Пространство элементарных событий распределения это совокупность пространств элементарных событий его случайных величин, представленных в виде дискретной временной последовательности i=1,\ldots,k точек, нумерация по возрастанию которых соответствует нумерации случайных величин распределения X_1,\ldots,X_k.

Вероятность распределения это произведение вероятностей зависимых его случайных величин. Зависимость заключается в том, что каждая предшествующая случайная величина распределения сокращает пространство элементарных событий последующей случайной величины на своё числовое значение.

Математическое ожидание распределения с ростом числа испытаний и числа случайных величин стремительно убывает к нулю от максимального значения, равного 0,5,\quad k=n=2 (случай биномиального распределения настоящей интерпретации).

Дисперсия распределения равна сумме дисперсий случайных величин на том основании, что все случайные величины распределения определены на не пересекающихся пространствах элементарных событий.

Все характеристики мультиномиального распределения интерпретации соответствуют требованиям аксиоматики Колмогорова.

Мультиномиальное распределение независимых случайных величин (традиционной интерпретации 20-го века)

Пространство элементарных событий едино и для распределения и для каждой его случайных величин. Это произвольная последовательность n независимых испытаний с k взаимоисключающими исходами каждый,  k\le n<\infty.

Вероятность распределения – произведение вероятностей независимых случайных величин.

Математическое ожидание распределения до сих пор не определено и в принципе не будет определено, если принимать случайные величины распределения за независимые (см. доказательство теоремы 1). По этим причинам математические ожидания и дисперсии случайных величин определены не верно.

Дисперсия распределения до сих пор тоже не определена, но по неизвестным причинам. Но если бы и была определена, то была бы ложной из-за принятия независимости случайных величин.

Таким образом, в мультиномиальном распределении традиционной интерпретации:

ни одна характеристика из минимально необходимого набора за исключением вероятности распределения (и то верен лишь конечный результат) определена не верно;

математическое ожидание np_i каждой случайной величины X_i при условии n>p_i^{-1} оказывается больше единицы, что противоречит аксиоматики Колмогорова;

математическое ожидание распределения E(X_1=n_1\cdots X_k=n_k)=np_1\cdots np_k=n^kp_1\cdots p_k при неограниченном возрастании числа n независимых экспериментов стремится к бесконечности, что недопустимо, поскольку сумма всех вероятностей распределения, включая и его математическое ожидание, согласно аксиоматике Колмогорова обязана быть равной единице.

Мультиномиальное распределение как процесс выполнения взаимосвязанных действий над объектамиПравить

Объекты: множество, его подмножества и их элементы как объективная реальность, существующая вне нас и независимо от нас. Полиномиальное распределение это:

  • случайный процесс безвозвратного разделения во времени  t_1,\ldots, t_k, \quad  2\le k\le n и в пространстве конечного  n- множества различимых неупорядоченных элементов (2\le n<\infty),
  • разделение множества осуществляют выборками без возвращения (изъятые из множества элементы не возвращают обратно во множество до полного окончания экспериментов),
  • сумма объёмов всех выборок равна объёму исходного множества  \sum _{i=1}^k n_i =n, при этом только одна из выборок может иметь случайный объём в пределах всего объёма исходного множества  0\le n_i\le n,
  • попадание одного произвольного элемента множества в каждое из подмножеств принимают за событие успеха соответствующего Бернулли распределения ,
  • вероятности  0\le p_i<1, \quad i=1,\ldots,k\le n успехов Бернулли распределений нормируют  \sum _{i=1}^k p_i =1 согласно аксиоматике Колмогорова и сохраняют неизменными в процессе разбиения множества,
  • очерёдность следования выборок принимают за нумерацию случайных величин  X_1, \ldots, X_k полиномиального распределения,
  • случайный объём каждой выборки  n_i, \quad i=1,\ldots, k\le n в момент времени  t_i принимают за числовое значение соответствующей случайной величины  X_i=n_i \mid X_{i-1}=n_{i-1} полиномиального распределения при условии, что в предшествующий момент времени  t_{i-1} предшествующая случайная величина  X_{i-1} приняла числовое значение  n_{i-1},
  • результаты каждого разбиения обрабатывают вероятностными методами, определяют технические характеристике всех выборок и принимают их за технические характеристики случайных величин полиномиального распределения,
  • математическое ожидание полиномиального распределения имеет место, когда число выборок k равно числу элементов  n-множества  k=n и численно равно \frac{n!}{n^n}, \quad 2\le n, <\infty, откуда  n=2, \quad \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2} - математическое ожидание биномиального распределения.


Мультиномиальное распределение и цепи Маркова: совпадения и отличия, частный случайПравить

Мультиномиальное распределение появляется в последовательности зависимых случайных испытаний с конечным или счётным числом исходов. По сути — это цепь Маркова, где X_{i+1}-ая случайная величина зависима от предшествующей X_i-ой случайной величины


t_{i+1}>t_i,X_{i+1}=n_{i+1} | t_i<t_{i+1}, X_i=n_i,\quad i=1,\ldots,k \le n

следующим образом: X_{i+1}-ая случайная величина в t_{i+1}-ый момент времени принимает числовое значение, равное n_{i+1}, при условии, что в t_i-ый момент времени X_i-ая случайная величина приняла числовое значение, равное n_i.

Случайные величины следуют одна за другой в порядке возрастания своих номеров.

X_0, называемое начальным распределением цепи Маркова, для мультиномиального распределения не имеет смысла t_0=0, 
 \quad  X_0=0, поскольку нумерация случайных величин начинается с единицы: t_1, X_1,\ldots, t_k, X_k.

Переходная вероятность мультиномиального распределения


P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),\quad 0\le n_i\le n< \infty

является дискретной функцией времени. Следовательно, и мультиномиальное распределение


\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},

как произведение его случайных величин, является дискретной функцией времени, иными словами, мультиномиальное распределение является марковским процессом с дискретным временем.

Сумма всех вероятностей мультиномиального распределения равна единице. Следовательно, мультиномиальное распределение как цепь Маркова, является стахостической.

Однако в отличие от марковских цепей и марковских процессов мультиномиальное распределение не обладает свойством отсутствия последействия, согласно которому для любого испытания допускается зависимость его от непосредственно предшествующего ему испытания (и только от него).

Причина заключается в том, что в мультиномиальном распределении имеется ещё одна зависимость — каждая случайная величина (кроме первой) зависима от всех ей предшествующих случайных величин.

Зависимость проявляется в том, что предшествующая случайная величина (X_i) мультиномиального распределения в соответствующий момент времени ( t_i) сокращает на своё числовое значение (n_i) верхнюю границу пространства элементарных событий следующей за ней случайной величины (X_{i+1}):


\Omega_{i+1}(t_{i+1}, X_{i+1}=n_{i+1} \mid t_i,X_i=n_i)=[0 \le n_{i+1} \le n-\ldots-n_i],\quad i=1,\ldots,k \le n.

В частном случае, когда k= 2, имеет место биномиального распределения интерпретации 21-го века. С точки зрения цепей Маркова — биномиальное распределение интерпретации 21-го века — это простейший марковский процесс с дискретным временем, в котором:

вторая случайная величина зависима от первой (и только от неё)


t_2>t_i,X_2=n_2   \mid   t_i<t_2, X_1=n_1, \quad n_1+n_2=1;

всего лишь одна переходная вероятность


P(t_2,X_2=n_2  \mid  t_1,X_1=n_1);

процесс стахостический, поскольку сумма вероятностей равна единице p1 + p2 = 1;

как и в мультиномиальном распределении, начальное состояние цепи Маркова X_0, для биномиального распределения не имеет смысла t_0=0,  \quad  X_0=0, поскольку нумерация случайных величин начинается с единицы: t_1, X_1, \quad t_2, X_2.


Погрешности традиционной интерпретации Править

Относительные погрешности традиционной интерпретации параметров мультиномиального распределения по сравнению с настоящей интерпретацией содержат три уровня [4], [5], [6]

низший (элементный) уровень — погрешности случайных величин мультиномиального распределения (вероятности, математические ожидания и дисперсии);

средний (функциональный) уровень — погрешности самого мультиномиального распределения (математические ожидания и дисперсии. Погрешность вероятности мультиномиального распределения отсутствует, поскольку в обеих его интерпретациях правые части формул полностью совпадают).

На этих двух уровнях погрешности вычисляются аналогично;

высший (системный или пользовательский) уровень — погрешности, связанные с использованием мультиномиального распределения в прикладных задачах (в частности, \chi^2 - критерий).


Низший (элементный) уровеньПравить

Погрешность \Delta вероятности P(X_i) i - ой случайной величины X_i мультиномиального распределения традиционной интерпретации относительно её настоящей интерпретации


\Delta{P(X_i)}= \frac{P(X_i=n_i)-P(X_i=n_i \mid X_{i-1}=n_{i-1})}{ P(X_i=n_i \mid X_{i-1}=n_{i-1})}=

=\frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}q_i^{n-n_i}-1

предельно отрицательная при достоверном событии (p_i=1, q_i=0)


\Delta{P(X_i)}= -1

и положительная при недостоверном событии (p_i=0, q_i=1)


\Delta{P(X_i)}= \frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}-1.

Точка перехода от отрицательных значений к положительным значениям погрешностей определяется равенством


q_i(\Delta{P=0})=\sqrt[n-n_i]\frac{(n-n_i)!}{ n_in!}.

Отрицательные погрешности не могут превышать 100%, а положительные — могут принимать сотни и тысячи процентов. Исключение составляет погрешность первой случайной величины. Её погрешность монотонно убывает от максимального отрицательного значения (-98%) при n_i=0 до нуля при n_i=n. Каждая последующая случайная величина имеет больше возможностей для изменения знака и числового значения своей погрешности. Погрешность последней случайной величины не зависит от очередности принятия конкретных значений всеми предшествующими ей случайными величинами. Если одна из случайных величин примет максимальное значение n_i=n, то у нее погрешность отсутствует, а у всех остальных случайных величин будут нулевые числовые значения и максимально отрицательные погрешности (см. таблицу 4).

Таблица 4 - Погрешности вероятностей случайных величин \Delta(P_i) (в процентах), гипотезы \Delta(H_0) и уровня значимости \Delta(\alpha)\quad \chi^2 критерия мультиномиального распределения традиционной интерпретации 20-го века
Первая случайная величина X_1=n_1 Вторая случайная величина X_2=n_2 Третья случайная величина X_3=n_3 \chi^2 критерий
n_1 \Delta(P_1) Точка перехода n_2 \Delta(P_2) Точка перехода n_3 \Delta(P_3) Точка перехода \Delta(H_0) \Delta(\alpha)
0 -98,27 1,00 1 -97,40 1,00 9 +233,33 0,10 -27,95 -15,61
0 -98,27 1,00 9 -33,33 1,00 1 -73,98 1,00 +22,50 -15,61
9 -33,33 1,00 1 -73,99 0,77 0 -98,27 1,00  (0/0)-1 -15,61
1 -97,40 1,00 4 -85,37 0,92 5 +3218,52 0,33 -147,50 -75,54
5 -86,83 1,00 4 +267,24 0,54 1 -73,99 0,77 -73,42 -74,26
4 -91,22 1,00 5 +453,09 0,47 1 -73,99 0,77 -58,98 -56,52
2 -96,09 1,00 2 -93,73 0,94 6 +4048,15 0,26 +146,67 -70,09
2 -96,09 1,00 6 +48,15 0,60 2 +75,58 0,62 -128,80 -68,32
6 -80,25 1,00 2 -70,74 0,77 2 +75,58 0,62 -20,00 -67,35
3 -94,17 1,00 3 -79,33 0,84 4 +1743,62 0,41 -180,00 -59,79
3 -94,17 1,00 4 -47,32 0,74 3 +602,33 0,50 -187,97 -97,66
4 -91,22 1,00 3 -94,48 0,77 3 +603,33 0,50 -190,00 -94,97
7 -70,37 1,00 3 +602,23 0,50 0 -98,27 1,00  (0/0)-1 -52,55
7 -70,37 1,00 0 -98,27 1,00 3 +602,23 0,50 +134,17 -52,55
0 -98,27 1,00 3 -94,15 1,00 7 +3455,55 0,20 -56,79 -52,55
8 -55,56 1,00 1 -86,99 0,84 1 -73,99 0,77 +902,50 -34,31
1 -97,40 1,00 8 +122,22 0,45 1 -73,99 0,77 +0,90 -38,50
1 -97,40 1,00 1 -97,11 0,99 8 +1900,00 0,15 -16,25 -38,50
10 0,00 1,00 0 -98,27 1,00 0 -98,27 1,00  (0/0)-1 0,00
0 -98,27 1,00 10 0,00 1,00 0 -98,27 1,00 (0/0)-1 0,00
0 -98,27 1,00 0 -98,27 1,00 10 0,00 1,00 0,00 0,00

В точке математического ожидания мультиномиального распределения вероятности первой и i-ой случайных имеют вид


P(X_1=n_1=1)={n\choose1}n^{-1}, \quad P(X_i=n_i=1 \mid X_{i-1}=1)={n-i+1\choose1}n^{-1}.

Погрешность вероятности i-ой случайной величины в точке математического ожидания распределения


\Delta P(X_i)=\frac{n!(n-i)!}{(n-1)!(n-i+1)!}, \quad i=1,\ldots,n

увеличивается с возрастанием её номера, достигая максимума у последней случайной величины


\Delta P(X_i)_{max}=\Delta P(X_n=n_n=1 \mid X_{n-1}=n_{n-1}=1)=\frac{n!0!}{(n-1)!1!}=n-1.

Аналогично определяются погрешности математического ожидания \Delta(EX_i) и дисперсии \Delta(DX_i) случайной величины X_i, \quad i=1,\ldots,k\le n


\Delta(EX_i)=\Delta(DX_i)=\frac{n}{n-\ldots-n_{i-1}}-1.

Погрешности математического ожидания и дисперсии отсутствуют только у первой случайной величины и достигают максимального значения у последней \Delta(EX_k)=\Delta(DX_k)=n-1. В точке математического ожидания мультиномиального распределения характер изменения погрешностей прежний


\Delta_{M.O.}(EX_i)=\Delta_{M.O.}(DX_i)=\frac{n-1}{n-i+1}, \quad i=1,\ldots,n.

Средний (функциональный) уровеньПравить

В традиционной интерпретации мультиномиального распределения его математическое ожидание и дисперсия имеют независимые составляющие, на основании чего за математическое ожидание и дисперсию распределения соответственно примем произведение этих составляющих


E(X_1\cdots X_k)=n^kp_1\cdots p_k,

D(X_1,\ldots, X_k)=n^k(p_1q_1+\ldots+p_kq_k).

Относительные погрешности математического ожидания \Delta E(X_1\cdots X_k) и дисперсии \Delta D(X_1,\ldots,X_k) распределения на функциональном уровне будут


\Delta E(X_1\cdots X_k)=\frac{n^n}{n!}-1,

\Delta D(X_1\ldots X_k)=\frac{2^n}{n=1}-1.

Расчёты погрешностей (таблица 5) для числа k, равного n, случайных величин мультиномиального распределения: 2 (k=n=2 - случай биномиального распределения), 5, 10 и 20.

Таблица 5 - Относительные погрешности (в процентах) математических ожиданий и дисперсий случайных величин (первая строка формул и результатов) и математического ожидания и дисперсии мультиномиального распределения (вторая и третья строки)
Погрешности математических ожиданий и дисперсий Число случайных величин
k=n - число случайных величин равно числу испытаний 2 5 10 20
\Delta_{M.O.}E(X_i)=\Delta_{M.O.}D(X_i)=\frac{i-1}{n-i+1}, \qquad i=1,\ldots,n 10 2 4.0×102 9.0×102 1.9×103
\Delta E(X_1\cdots X_k)=\frac{n^n}{n!}-1, \quad  2\le k=n<\infty 10 2 2.5×102 2.7 ×105 4.3×1010
\Delta D(X_1\ldots X_k)=\frac{2^n}{n+1}-1 10 2 10 5 9.0×1010 4.9×1026

Высший (системный или пользовательский) уровеньПравить

\chi^2 - критерий относится к непараметрическим критериям математической статистики и был предложен К. Пирсоном в 1903 г. для проверки гипотезы, согласно которой случайный вектор частот имеет независимые компоненты со средними значениями np_i^{(0)} и заданное мультиномиальное распределение традиционной интерпретации.

Замена опытных данных np_i^{(0)} мультиномиального распределения традиционной интерпретации средними значениями (n-\ldots-n_{i-1})p_i^{(0)} мультиномиального распределения настоящей интерпретации позволяет непосредственно использовать критерий для оценки погрешностей принятия мультиномиального распределения традиционной интерпретации за распределение независимых случайных величин.

В результате возникли две погрешности: погрешность гипотезы \Delta (H_0) и погрешность уровня значимости \Delta (\alpha), причем уровень значимости должен быть в пределах 0<\alpha<0,5.

В \chi^2 - критерии отсутствуют погрешности, когда погрешность гипотезы и погрешность уровня значимости одновременно равны нулю. Теоретически это возможно в двух случаях: когда значения всех случайных величин за исключением последней равны нулю (последняя строка таблицы 5); в биномиальных распределениях с независимыми характеристиками случайных величин. Однако такие распределения не соответствуют требованиям аксиоматики Колмогорова.

Погрешности гипотезы и уровня значимости возрастают по мере уменьшения различия числовых значений случайных величин. При этом каждый раз, когда последняя случайная величина распределения принимает нулевое значение, у погрешности гипотезы возникает неопределённость типа (0/0)-1. Погрешность уровня значимости, оставаясь отрицательной, почти вдвое может превышать допустимый уровень значимости.

ЛитератураПравить

  1. Буняковский В. Я. Основания математической теории вероятностей. Сочинение Императорской Академии Наук ординарного академика, профессора С.Петербургкого университета и доктора математических наук Парижской Академии. САНКТПЕТЕРБУРГ, Типография Императорской Академии Наук. 1846. 477 с.
  2. http://ru.wikipedia.org/wiki/ Математическая физика
  3. Голоборщенко В. С. Основы теории дискретных распределений. Часть 5: Как технические задачи и технические результаты математической физики. // Проблемы создания информационных технологий. М.: ООО Техполиграфцентр, 2010. Вып. 19, с. 31–36.
  4. Голоборщенко В. С. Парадоксы в современной теории вероятностей. Часть 3: Погрешности существующих парадигм. Сборник научных трудов МАИТ // М.: ООО Техполиграфцентр, 2007. Вып.15, с. 5-11.
  5. Никулин М. С. Хи-квадрат критерий // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999, с. 787-789. ISBN 585270265X
  6. Голоборщенко В. С. Столетие ошибочного применения Хи-квадрат критерия в полиномиальном распределении: причины, последствия и пути устранения. // Проблемы создания информационных технологий. Сборник научных трудов. Минск: МАИТ, 2005. Вып.11. Том 1, с. 13-19.

См.такжеПравить

Викия-сеть

Случайная вики