Викия

Математика

Биномиальное распределение

1457статей на
этой вики
Добавить новую страницу
Обсуждение1 Share

Обнаружено использование расширения AdBlock.


Викия — это свободный ресурс, который существует и развивается за счёт рекламы. Для блокирующих рекламу пользователей мы предоставляем модифицированную версию сайта.

Викия не будет доступна для последующих модификаций. Если вы желаете продолжать работать со страницей, то, пожалуйста, отключите расширение для блокировки рекламы.

Биномиальное распределение
Функция вероятности
Функция распределения
Параметры n \geq 0 - число «испытаний»
0\leq p \leq 1 - вероятность «успеха»
Носитель k \in \{0,\dots,n\}\!
Функция вероятности C_n^k\, p^k q^{n-k} \!
Функция распределения I_{1-p}(n-\lfloor k\rfloor, 1+\lfloor k\rfloor) \!
Математическое ожидание np\!
Медиана одно из \{\lfloor np\rfloor-1, \lfloor np\rfloor, \lfloor np\rfloor+1\}
Мода \lfloor (n+1)\,p\rfloor\!
Дисперсия npq\!
Коэффициент асимметрии \frac{1-2p}{\sqrt{npq}}\!
Коэффициент эксцесса \frac{1-6pq}{npq}\!
Информационная энтропия
Производящая функция моментов (q + pe^t)^n \!
Характеристическая функция (q + pe^{it})^n \!

Традиционная интерпретация 20-го века Править

Биномиа́льное распределе́ние в теории вероятностейраспределение количества «успехов» в последовательности из n независимых случайных экспериментов, таких что вероятность «успеха» в каждом из них равна p.

Моменты Править

Производящая функция моментов биномиального распределения имеет вид:

M_Y(t) = \left( pe^t + q\right)^n,

откуда

\mathbb{E}[Y] = np,
\mathbb{E}\left[Y^2\right] = np ( q + np ),

а дисперсия случайной величины.

\mathbb{D}[Y] = npq.

Свойства биномиального распределения Править

  • Пусть Y_1 \sim \mathrm{Bin}(n,p) и Y_2 \sim \mathrm{Bin}(n, 1-p). Тогда p_{Y_1}(k) = p_{Y_2}(n-k).
  • Пусть Y_1 \sim \mathrm{Bin}(n_1,p) и Y_2 \sim \mathrm{Bin}(n_2,p). Тогда Y_1 + Y_2 \sim \mathrm{Bin}(n_1+n_2, p).

Связь с другими распределениями Править

Ложность постулатов Править

Биномиальное распределение традиционной интерпретации основано на трех ложных постулатах:

  • Биномиальное распределение — распределение одной случайной величины;
  • Биномиальное распределение появляется в последовательности независимых испытаний (экспериментов);
  • Математическое ожидание биномиального распределения равно np, где n - конечное число независимых испытаний с двумя взаимно исключающими исходами каждое: положительный исход 1 c вероятностью p и отрицательный исход 0 с вероятностью q=1-p.

Доказательство ложности постулатов  [1][2].

Теорема 1. Биномиальное распределение не является распределением одной случайной величины.

Доказательство.

Если энциклопедически известно [3], что биномиальное распределение является частным случаем традиционной интерпретации полиномиального распределения как совместного распределения вероятностей независимых X_1,\ldots, X _k случайных величин при сокращении в нём числа k случайных величин до двух, то подставляя условие k=2 в формулу традиционной интерпретации полиномиального распределения


P(X_1=n_1,\ldots,X_k=n_k)= \frac{n!}{n_1!\cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

2\le k \le n< \infty, \quad n_1+\ldots+n_k=n, \quad p_1+\ldots+p_k=1, \quad i=1,\ldots,k,

получим формулу биномиального распределения не одной случайной величины, а двух случайных величин


P(X_1=n_1, X_2=n_2)= \frac{n!}{n_1! n_2!} p_1^{n_1}p_2^{n_2},

2=k \le n< \infty, \quad n_1+n_2=n, \quad p_1+p_2=1,

что и требовалось доказать.

Примечание. Характер зависимости второй случайной величины от первой описан ниже.

Доказательство ложности второго и третьего постулатов.

Теорема 2. Биномиальное распределение не появляется в последовательности независимых испытаний (экспериментов) и его математическое ожидание не равно np .

Доказательство.

Допустим, что


np

математическое ожидание биномиального распределения, появляющегося в последовательности независимых испытаний (экспериментов). Тогда при выполнении условия


n>p^{-1}

математическое ожидание этого распределения будет больше единицы, что противоречит аксиоматике Колмогорова, согласно которой сумма всех вероятностей распределения, включая и его математическое ожидание, должна быть равной единице.

Теорема доказана.

Оппонент: поясните, из каких аксиом Колмогорова следует, что "... сумма всех вероятностей распределения, включая и его математическое ожидание, должна быть равной единице". Непонятно, например, почему вы предлагаете суммировать вероятности распределения с его математическим ожиданием - ведь это принципиально разные вещи, вероятность не может быть больше единицы, а матожидание имеет смысл среднего значения случайной величины и может быть больше единицы.

Автор: на основании аксиомы III аксиоматики Колмогорова в мультиномиальном распределении сумма всех вероятностей распределения обязана быть равной единице, включая и его математическое ожидание, которое есть не что иное как наибольшая из всех вероятностей распределения \frac{n!}{n^n}. В биномиальном распределении сумма всех вероятностей распределения тоже равна единице, а математическое ожидание распределения (при n=k=2) равно 0,5: \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2}. Такова особенность этих распределений.

Кроме того, в распределении Бернулли, математическое ожидание равно вероятности распределения:E[X]=P(X=1)=p, а сумма всех вероятностей распределения равна единице:P(X=1)+P(X=0)=p+1-p=1.

Не стоит принимать среднее значение дискретной случайной величины за математическое ожидание её распределения. 11:00, июня 10, 2013 (UTC)

Парадокс биномиального распределения традиционной интерпретации 20-го векаПравить

Парадокс заключается в том, что http://wikipedia.ru/wiki/биномиальное распределение традиционной интерпретации 20-го века признаётся распределением одной случайной величины, а на самом деле биномиальное распределение является распределением двух случайных величин, в котором первая случайная величина является действительно независимой, а вторая случайная величина зависима от первой.

Этот парадокс возник из-за ошибки в логике рассуждений и получил повсеместное распространение с середины 20-го века.

Подобно тому, как из полинома (из многочлена) методом дедукции получают бином (двучлен), а из бинома методом индукции получают полином, так и по аналогии из полиномиального распределения (из распределения с числом случайных величин больше двух) методом дедукции обязаны получить биномиальное распределение (распределение с двумя случайными величинами), а из биномиального распределения (из распределения с двумя случайными величинами) методом индукции обязаны получить полиномиальное распределение (распределение с числом случайных величин больше двух).

Этот парадокс на столько распространён и на столько прост, что может быть проиллюстрирован на элементарных примерах.

1. Пусть в полиноме 10 членов. Сократив в нём число членов с десяти до двух, получим два:10:5=2.

2. В биноме 2 члена. Умножив их на 5, получим, что в полиноме 10 членов: 2х5=10.

3. Пусть в полиномиальном распределении 10 случайных величин. Сократив число случайных величин с десяти до двух, по аналогии обязаны получить биномиальное распределение с двумя случайными величинами: 10:5=2. Однако принято считать, что биномиальное распределение это распределение одной случайной величины, иными словами, если 10 разделить на 5, то получится один!

Это первый парадоксальный результат: 10:5=1.

4. Число случайных величин биномиального распределения традиционной интерпретации 20-го века, равное одному, умножив на 5 получим, что в полиномиальном распределении 5 случайных величин: 1х5=5.

Это второй парадоксальный результат, поскольку изначально исходили из того, что в полиномиальном распределении 10 случайных величин.

Во времена В. Я. Буняковского [04(16).12.1804 - 30.11(12.12).1889] биномиальное распределение, как распределение двух случайных величин и на его основе полиномиальное распределение (оба так ещё не называемые) впервые были опубликованы им в 1846 году [4].

В современной записи биномиальное и полиномиальное распределения Буняковского имеют следующий вид:


P(X_1=n_1, X_2=n_2)= \frac{n!}{n_1! n_2!} p_1^{n_1}p_2^{n_2},

2=k \le n< \infty, \quad n_1+n_2=n, \quad p_1+p_2=1;



P(X_1=n_1,\ldots,X_k=n_k)=\frac{n!}{n_1!\cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

2\le k \le n< \infty, \quad n_1+\ldots+n_k=n, \quad  p_1+ \ldots +p_ k =1.

Возьмём полиномиальную схему В. А. Севастьянова и методом дедукции из неё получим биномиальную схему.

Полиномиальная схема Севастьянова заключается в следующим [5] :

ПОЛИНОМИАЛЬНАЯ СХЕМА (multinomial schema) – схема независимых испытаний, в каждом из которых один и только один из k взаимоисключающих исходов A_1,\ldots,A_k, причём вероятности p_i=P(A_i) этих исходов не зависят от номера испытаний в полиномиальной схеме, то частоты X_i появления исходов A_i,\quad i=1,\ldots,A_k имеют полиномиальное распределение


P(X_1=n_1,\ldots,X_k=n_k)=\frac{n!}{n_1!\cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

где n_i целые числа и n_1+\ldots+n_k=n.

Полиномиальное распределение естественным образом обобщает биномиальное распределение и совпадает с последним при k=2. Следовательно, подставляя в формулу полиномиальной схемы условие k=2, обязаны получить биномиальную схему:


P(X_1=n_1,X_k=n_2)=\frac{n!}{n_1!n_2!}p_1^{n_1} p_2^{n_2},

где n_1,n_2 целые числа и n_1+n_2=n.

Далее докажем три теоремы .

Теорема 1. Биномиальное распределение не является распределением одной случайной величины.

Доказательство. В 1846 году В. Я. Буняковский при разложении бинома по степеням и делении каждого члена разложения на весь бином, усовершенствовал метод Лапласа [6], получил биномиальное распределение (тогда ещё так не называемое), современная форма записи которого приведена выше. Поскольку осуществлено математическое доказательство, то благодаря Буняковскому, биномиальное распределение было, есть и всегда будет (во веки веков!) распределением двух случайных величин.

Теорема 1 доказана.

Теорема 2. Биномиальное распределение как распределение двух случайных величин не является распределение независимых случайных величин.

Доказательство. Если бы обе случайные величины биномиального распределения были независимыми, то не выполнялось бы условие n_1+n_2=n, согласно которому их сумма числовых значений обязано быть равной n, в частности, если случайные величины независимы, то они независимо одна от другой могли бы принять нулевые значения X_1=n_1=0,\quad X_2=n_2=0 или максимальные значения X_1=n_1=n,\quad X_2=n_2=n. Однако в обоих этих случаях не выполнялось бы условие их суммирования, согласно которому n_1+n_2=n.

Теорема 2 доказана.

Теорема 3. В биномиальном распределении только первая случайная величина является независимой, а вторая случайная величина зависима от первой .

Доказательство. Для определённости будем полагать, что вторая случайная величина следует за первой. Промежуток между ними не имеет значения.

Пусть первая случайная величина X_1 в первый момент времени t_1 приняла числовое значение n_1, лежащее в пределах 0<n_1<n.

Тогда вторая случайная величина X_2 во второй момент t_2,\quad t_2>t_1 вынуждена принять числовое значение n_2=n-n_1, чтобы выполнялось условие их суммирования n_1+n_2=n.


t_1, X_1=n_1  \mid  t_2, X_2=n_2,\quad t_1<t_2.

Вероятность P_1(t_1,X_1=n_1) первой случайной величины, принявшей в первый момент времени t_1 числовое значение n_1, будет равна числу вариантов выбора n_1 элементов из n возможных {n\choose n_1} (числу сочетаний из n по n_1), умноженному на вероятность p_1 выбора одного из n_1 элементов, возведённую в степень n_1


P_1(t_1, X_1=n_1)={n \choose n_1}p_1^{n_1}

Вероятность второй случайной величины, принявшей во второй момент времени t_2числовое значение n_2, будет равна произведению единственного варианта выбора {n_2\choose n_2} оставшихся элементов n-n_1=n_2 на вероятность p_2 выбора одного из них, возведённую в степень n_2


P_2(t_2,X_2=n_2 \mid t_1, X_1=n_1)={n_2\choose n_2}p_2^{n_2}=p_2^{n_2}.

Произведение вероятностей первой и второй случайных величин биномиального распределения есть вероятность биномиального распределения интерпретации 21-го века


P_1(t_1, X_1=n_1)P_2(t_2,X_2=n_2 \mid t_1, X_1=n_1)=

=\prod_{i=1}^2P_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n}{n_1!n_2!}p_1^{n_1}p_2^{n_2},

где


{n \choose n_1}={n \choose n_2}=\frac{n}{n_1!n_2!}.

При i=1


t_{i-1}=t_0=0, \quad n_{i-1}=n_0=0,\quad X_{i-1}=X_0=0.


Теорема 3 доказана.

Ас! Пушкин ещё в первой половине 19-го века в начале первой главы своего Евгения Онегина сетовал на то,что «Латынь из моды вышла ныне». «Товарищи учёные! доценты с кандидатами...» (В. Высоцкий), современные МУДрые АкадемиКИ от математики в 21-ом веке, видимо напрочь забыли, что в переводе с латыни приставка «би» означает сдвоенный, состоящий из двух частей . В частности, в авиации биплан – самолёт со сдвоенными крыльями (кукурузник), в оптике бинокль – сдвоенный монокль, в магнетизме биполь – двухполюсник, в электротехнике бифиляр – сдвоенная обмотка, в которой токи текут в противоположных направлениях ( встречно), в комбинаторике бином – двучлен, и так далее и тому подобное, и только в современной теории вероятностей биномиальное распределение – распределение одной случайной величины!!!

В 1846 году (!) в завершение разложения бинома и полинома на с.19 цитируемой книги Буняковский написал: << Так как вся эта теория основана на весьма простом разложении степени многочленного количества, то мы считаем излишним входить в дальнейшие подробности по этому вопросу>>.

Таким образом, сначала изуродовали биномиальное распределение Буняковского : биномиальное распределение двух случайных величин превратили в распределение одной случайной величины (http://wikipedia.ru/wiki/биномиальное распределение).

Затем этого урода <<обобщили>> на полиномиальное (мультиномиальное) распределение и получили второго урода ( http://wikipedia.ru/wiki/полиномиальное распределение, http://wikipedia.ru/wiki/мультиномиальное распределение).

Настоящая интерпретация 21-го векаПравить

Биномиальное распределение — это распределение двух случайных величин X_1 и X_2 в дискретной временной последовательности t_1,t_2, вторая случайная величина зависима от первой, числовые значения случайных величин n_1 и n_2 это числа успехов в n испытаниях (n_1+n_2=n ) с постоянными вероятностями успехов ( распределений Бернулли) p_1 и p_2, пронормированных p_1+p_2=1 согласно аксиоматике Колмогорова .

Таблица 1 – Характеристики биномиального распределения настоящей интерпретации 21-го века
Пространство элементарных событий \sum_{i=1}^2\Omega_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})
Вероятность \prod_{i=1}^2P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! n_2!}p_1^{n_1}p_2^{n_2}
Максимальная вероятность

(при математическом ожидании распределения)

 \left(\frac{n!}{n_i!n_2!}p_1^{n_1}p_2^{n_2}\right)_{max}= \frac{1}{2}
Математическое ожидание

(как максимальное произведение математических ожиданий случайных величин)

\left(\prod_{i=1}^2E(t_i, X_i=n_i \mid t_{i-1},X_{i-1})\right)_{max}=\frac{1}{2}
Дисперсия \sum_{i=1}^2D(t_i,X_i=n_i)=\sum_{i=1}^2(n-n_{i-1})p_iq_i
Максимальная дисперсия

(при математическом ожидании распределения)

D(X_1,X_2)_{max}=\left(\sum_{i-1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{3}{4}
Ковариационная матрица B=\| b_{ij} \|, где b _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j
\end{cases}
Корреляционная матрица \Rho=\| \rho_{ij} \|, где 
\rho _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j
\end{cases}
\chi^2 - критерий  \chi^2=\sum_{i=1}^2 [X_i-(n -n_{i-1})p_i^{(0)}]^2/(n -n_{i-1})p_i^{(0)}==-n+\sum_{i=1}^2X_i^2 /(n-n_{i-1})p_i^{(0)}

Биномиальная схема повторных циклов случайных зависимых экспериментовПравить

Каждый цикл экспериментов осуществляют методом выбора без возвращения в дискретной временной последовательности


t_1, t_2.

Каждая из случайных величин распределения


X_i=n_i \mid X_{i-1}=n_{i-1}

это n_i наступлений одного события


x_i,  i =1,2

в i - ый момент времени при условии, что в (i-1) - ый момент произошло n_{i-1} наступлений предшествующего события x_{i-1}, — распределения Бернулли с успехом, вероятности которых p_i нормированы


p_1+p_2=1

и неизменны во время проведения экспериментов.

Если в каждом цикле экспериментов вероятность наступления события x_i равна p_i, то биномиальная вероятность равна вероятности того, что при n экспериментах события x_1, x_2 наступят n_1,  n_2 раз соответственно.

Случайная величина биномиального распределения в соответствующей точке дискретной временной последовательности t_1, t_2 имеет:

пространство элементарных событий


\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})= [0\le n_i \le n-n_{i-1}],

вероятность


P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание


E(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=( n-n_{i-1})p_i

и дисперсию


D(t_i,X_i=n_i)=( n -n_{i-1})p_iq_i, \quad q_i=1-p_i .

Пространство элементарных событий биномиального распределения есть сумма точечных пространств элементарных событий его случайных величин, образующих дискретную последовательность точек  t_1,  t_2 цикла, а вероятность биномиального распределения — произведение вероятностей его случайных величин.

Технические задачи и технические результатыПравить

Для получения биномиального распределения необходимо решить две технические задачи и получить технические результаты, относящиеся к математической физике [7], [8].

Первая и вторая технические задачи — соответственно получение вероятности и математического ожидания биномиального распределения.

Технические результаты — набор технических параметров, с одной стороны, минимально необходимый для описания биномиального распределения и его случайных величин, с другой стороны, позволяющий при необходимости расширить число параметров с целью получения дополнительных сведений о распределении, например, таких как корреляционная матрица, ковариационная матрица и другие.

Минимально необходимый набор параметров при решении первой технической задачи: пространство элементарных событий, вероятность, математическое ожидание и дисперсия каждой случайной величины распределения, дисперсия распределения и произведение математических ожиданий его случайных величин как исходное выражение для решения второй технической задачи.

При решении второй технической задачи минимально необходимый набор параметров аналогичен предыдущему набору. Исключен из-за ненадобности один параметр — произведение математических ожиданий случайных величин и дополнен двумя параметрами — максимальной вероятностью и максимальной дисперсией биномиального распределения.

Биномиальное распределение — совместное распределение двух случайных величин Править


\prod_{i=1}^2P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! n_2!}p_1^{n_1} p_2^{n_2},

\frac{n!}{n_1!n_2!}={n\choose n_1,n_2}= {n \choose n_1}={n\choose n_2},

2\le k \le n <\infty,  \qquad n_1+n _2=n, \qquad p_1+p_2=1,

определённых на точечных пространствах элементарных событий


\Omega_1,  \Omega _2

и принимающих в дискретные последовательные моменты времени


t_1,  t_2, \quad  t_i<t_{i+1}

целые неотрицательные значения


n_1, n_2,

взаимосвязанные условием


n_1 +n_2=n,

согласно которому


X_2=n_2 \mid X_1=n_1

если в первый момент времени t_1 первая случайная величина X_1 приняла значение


n_1, \quad  0\le n_1\le n,

то во второй момент времени t_2 вторая случайная величина X _2 принимает значение


 n _2, \quad  0\le n_2\le n- n_1.

Характер зависимости случайных величин в каждом цикле экспериментов:Править

  • только первая случайная величина является независимой, а вторая случайная величина зависима от первой;
  • если первая случайная величина в первый момент времени приняла своё максимально возможное значение, равное X_1=n, то вторая случайная величина во второй момент времени обязана принять своё минимальное (нулевое) значение X_2=n_2=0 в противном случае не будет выполнено условие суммирования числовых значений случайных величин распределения, согласно которому n_1+n _2=n;
  • если первая случайная величина в первый момент времени приняла своё минимальное (нулевое) значение X_1=n_1=0, то вторая случайная величина во второй момент времени обязана принять своё максимальное значение X_2=n_2=n в противном случае не будет выполнено условие n_1+n _2=n.

Характеристики случайных величин биномиального распределения:Править

пространство элементарных событий


\Omega_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=[0 \le n_i \le n-n_{i-1}],

вероятность


P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание


E(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=(n-n_{i-1})p_i,

дисперсия


D(t_i,X_i=n_i)=(n -n_{i-1})p_iq_i, \quad q_i=1-p_i,

производящая


A(s_i)=(1+p_is_i)^{n-n_{i-1}}

и характеристическая


f(t_i)=(1+p_ie^{jt_i})^{n-n_{i-1}}

функции.

Характеристики биномиального распределения:Править

пространство элементарных событий


\sum_{i=1}^2\Omega_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),

расположенное в точках t_1,  t_2 временной последовательности,

вероятность


\prod_{i=1}^2P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1!n_2!}p_1^{n_1}p_2^{n_2},

дисперсия


\sum_{i=1}^2D(t_i,X_i-n_i)=\sum_{i=1}^2(n-n_{i-1})p_iq_i,

ковариационная матрица B=\| b_{ij} \|, где


b_{ij} = \begin{cases} (n-n_{i-1})p_iq_i, & i=j,\\
0, & i \not= j,
\end{cases}

корреляционная матрица \Rho=\| \rho_{ij} \|, где


\rho _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j,
\end{cases}

\chi^2 - квадрат критерий для полиномиально распределенных случайных величин


\chi^2=\sum_{i=1}^2 [X_i-(n -n_{i-1})p_i^{(0)}]^2/(n -n_{i-1})p_i^{(0)}=

=-n+\sum_{i=1}^2X_i^2 /(n-n_{i-1})p_i^{(0)}.

Урновая модель биномиального распределения содержит одну исходную урну и две приёмные урны. В начальный момент времени исходная урна содержит n- множество различимых неупорядоченных элементов, а приёмные урны пусты. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин биномиального распределения.

Первая выборка


n_1,\quad  0\le n_1\le n

в первый момент времени направляется в первую приёмную урну с вероятностью p_1 каждого элемента.

Во второй момент времени все оставшиеся n-n_1 элементы исходной урны, образующие вторую выборку


n_2,\quad  0\le n-n_1\le n,

направляются во вторую приёмную урну с вероятностью p_2 каждого элемента.

В результате исходная урна пуста, а все её элементы размещены в приёмных урнах.

После обработки результатов разбиения множества на подмножества элементы возвращают на прежнее место, и урновая модель готова к проведению очередного цикла зависимых экспериментов.

Произведение вероятностей попадания n_1, n_2 элементов в две приёмные урны есть биномиальное распределение.

Способ получения вероятностей биномиального распределенияПравить

Этот способ относится к техническим задачам разделения дискретного целого на составные части случайных объёмов.

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных).

Составные части множества — дискретные два подмножества n_1,  n_2, в сумме равные объёму множества: n_1+n_2=n, \quad  2\le n < \infty .

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит n, 2\le n < \infty различимых неупорядоченных элементов.

В первый момент времени t_1 из n-множества осуществляют первую выборку случайного объёма n_1, 0 \le n_1 \le n с вероятностью p_1 каждого её элемента.

Вероятность первой случайной величины P_1(t_1,X_1=n_1) биномиального распределения определяется числом сочетаний {n \choose n_1} из n по n_1, умноженным на вероятность p_1 выбора одного элемента, возведённую в степень числа n_1 выбранных элементов:


P_1(t_1, X_1=n_1)={n \choose n_1}p_1^{n_1}.

Во второй момент времени t_2 из оставшихся n-n_1 элементов исходного множества осуществляют вторую выборку n_2=n-n_1 единственным способом: {n-n_1 \choose n_2}={n-n_1 \choose n- n_1} с вероятностью p_2 каждого элемента.

Вероятность второй случайной величины при условии, что в первый момент времени вероятность первой случайной величины биномиального распределения приняла значение P(t_1, X_1=n_1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2, умноженным на вероятность p_2 выбора одного её элемента, возведённую в степень числа n_2 выбранных элементов:


P_2(t_2, X_2=n_2 \mid t_1,X_1=n_1)={n-n_1 \choose n_2}p_2^{n_2}.

Произведение двух вероятностей есть вероятности биномиального распределения интерпретации 21-го века — совместное распределение вероятностей двух случайных величин: первая независимая, а вторая зависима от первой


\prod_{i=1}^2P_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1!n_2!}p_1^{n_1}p_2^{n_2},

\sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Когда число случайных величин больше двух (k>2) и, следовательно, число n испытаний больше двух 2< k=n< \infty , имеют место вероятности мультиномиального распределения интерпретации 21-го века


\prod_{i=1}^kP_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

\sum_{i=1}^kn_i=n, \quad \sum_{i=1}^kp_i=1.

Способ получения математического ожидания биномиального распределенияПравить

Этот способ относится к техническим задачам разделения дискретного целого на составные части и отличается от способа получения вероятностей мультиномиального распределения интерпретации 21-го века тем, что число выборок k равно числу n элементов исходного множества k=n и каждая выборка имеет единичный объём: n_i=1,\quad i=1,2, \quad  k=n .

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных). Множество содержит два элемента: n=2.

Составные части множества — дискретные два подмножества n_1=1, n_2=1, в сумме равные объёму множества: n_1+n_2= n,  \quad n=2.

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит два различимых неупорядоченных элемента.

В первый момент времени t_1 из n-множества осуществляют первую выборку n_1=1 единичного объёма с вероятностью p_1=n^{-1}.

Вероятность первой случайной величины  X_1=n_1=1 биномиального распределения определяется числом сочетаний  {n \choose n_1} из n по n_1=1, умноженным на вероятность p_1=n^{-1} выбора одного элемента:


P_1(t_1, X_1=n_1=1)={n \choose n_1}p_1={n \choose 1}n^{-1}=\frac{n}{n}.

Во второй момент времени t_2 из оставшегося одного n-n_1 элемента исходного множества осуществляют вторую выборку n_2=1 единичного объёма с вероятностью p_2=n^{-1}.

Вероятность второй случайной величины  X_2=n_2=1 при условии, что в первый момент времени вероятность первой случайной величины биномиального распределения приняла значение P_1(t_1, X_1=n_1=1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2=1, умноженным на вероятность p_2=n^{-1} выбора одного элемента:


P_2(t_2, X_2=n_2=1 \mid t_1,X_1=n_1=1)={n-n_1 \choose n_2}p_2={n-n_1 \choose 1}n^{-1}=\frac{n-1}{n}.

Произведение этих вероятностей есть математическое ожидание биномиального распределения интерпретации 21-го века— распределения двух случайных величин, первая их них независимая,а вторая зависима от первой


\prod_{i=1}^2P_i(t_i,X_i=n_i=1 \mid  t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^2\frac{n-n_{i-1}}{n}=\frac {1}{2},

\sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Когда число случайных величин больше двух k>2 и, следовательно, число n испытаний больше двух 2< k=n< \infty , имеет место математическое ожидание мультиномиального распределения интерпретации 21-го века


\prod_{i=1}^nP_i(t_i,X_i=n_i=1 \mid  t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^n\frac{n-n_{i-1}}{n}=\frac {n!}{n^n},

\sum_{i=1}^nn_i=n, \quad \sum_{i=1}^np_i=1.

Варианты получения математического ожидания биномиального распределенияПравить

Два варианта: как максимум произведения математических ожиданий его случайных величин: как максимум вероятности распределения.

Необходимые


k=n, \qquad n_i=1,  \qquad  0<p_i<1,

и достаточные


p_1=p_2=2^{-1}

условия получения математического ожидания биномиального распределения.

Математическое ожидание


\left(\prod_{i=1}^2E(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^2(n-n_{i-1})p_i\right)_{max}=\frac{n!}{n^n}=\frac{1}{2},

максимальная вероятность


\left(\prod_{i=1}^2P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\frac{n!}{n_i!n_2!}p_1^{n_1}p_2^{n_2}\right)_{max}=
\frac{n!}{n^n}= \frac{1}{2}

равна математическому ожиданию,

максимальная дисперсия


D(X_1,X_2)_{max}=\left(\sum_{i-1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{n^2-1}{2n}=\frac{3}{4}.

Пространство элементарных событий биномиального распределения при получении его математического ожидания


\Omega(t_1, X_1=n_1=1 \mid t_2,X_2=n_2=1)

расположено в точках t_1, t_2 временной последовательности.

Урновая модель получения математического ожидания биномиального распределения содержит одну исходную урну и две приёмные урны единичных объемов. Нумерация приёмных урн соответствует нумерации случайных величин биномиального распределения.

В начальный момент времени исходная урна содержит два различимых элемента, а приёмные урны пусты.

В первый момент времени из исходной урны выбирают один элемент n_1=1 и направляют его в первую приёмную урну с вероятностью p_1=0,5 .

Во второй момент времени оставшийся элемент n_2=1 исходной урны отправляют во вторую приёмную урну с вероятностью p_2=0,5.

В результате исходная урна пуста, а её два элемента по одному размещены в приёмных урнах. После обработки результатов разбиения исходного множества на два подмножества все элементы из приёмных урн возвращают в исходную урну. На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего цикла экспериментов.

Произведение вероятностей попадания по одному произвольному элементу в каждую приёмную урну есть математическое ожидание биномиального распределения.

Изменение характеристик биномиального распределения в окрестности его математического ожидания приведено в таблице 2.

Таблица 2 – Окрестности математического ожидания биномиального распределения настоящей интерпретации 21-го века
Числовые значения первой случайной величины X_1=n_1 Числовые значения второй случайной величины X_2=n_2| X_1=n_1 Вероятность распределения Дисперсия распределения Математическое ожидание распределения
1 1 0,50 0,75 0,50
2 0 0,25 0,50
0 2 0,25 0,50

Вероятность биномиального распределения как функция двух переменных является симметричной функцией относительно своего математического ожидания.

Биномиальное распределение как процесс выполнения взаимосвязанных действий над объектамиПравить

Объекты: множество, его подмножества и их элементы как объективная реальность, существующая вне нас и независимо от нас. Биномиальное распределение это:

  • случайный процесс безвозвратного разделения последовательно во времени  t_1, t_2 и в пространстве конечного  n- множества различимых неупорядоченных элементов на две части  n_1, n_2 случайных объёмов, сумма которых равна объёму исходного множества:  n_1+ n_2=n, \quad 2\le n<\infty ,
  • разделение множества осуществляют выборками без возвращения (изъятые из множества элементы не возвращают обратно во множество до полного окончания экспериментов),
  • вероятность попадания одного произвольного элемента множества в каждое из подмножеств принимают за вероятность соответстующей случайной величины распределения Бернулли с положительным исходом  0\le p_i<1, \quad i=1,2,
  • очерёдность следования выборок принимают за очередность следования во времени и нумерацию случайных величин  X_1, X_2 биномиального распределения,
  • случайный объём каждой выборки  n_i, \quad i=1,2 в момент времени  t_i, \quad i=1,2 принимают за числовое значение соответствующей случайной величины  X_i=n_i, \quad i=1,2 биномиального распределения,
  • первая случайная величина биномиального распределения является независимой и может принимать любое случайное значение в пределах от нуля до числового значения исходного множества  X_1=n_1, \quad  0\le n_1\le n<\infty ,
  • вторая случайная величина биномиального распределения принимает числовое значение  n_2 , равное числу элементов множества оставшееся после изъятия из него первой выборкой случайного числа элементов  n_1: \quad  n_2=n-n_1 ,
  • результаты каждого разбиения обрабатывают вероятностными методами, определяют технические характеристике всех выборок и принимают их за технические характеристики случайных величин биномиального распределения,
  • математическое ожидание биномиального распределения имеет место, когда число выборок k равно числу элементов  n-множества  k=n и численно равно  \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2} .

Биномиальное распределение как цепь МарковаПравить

Биномиальное распределение появляется в последовательности двух испытаний, первое из них случайное независимое, а второе зависимое от первого испытания. Исходы испытаний конечны и счётны. По сути — это простейшая цепь Маркова. (X_0, называемое начальным распределением цепи Маркова, для биномиального распределения не имеет смысла t_0=0, \quad X_0=0, поскольку нумерация случайных величин начинается с единицы.)

Единственная переходная вероятность


P(t_2>t_1, X_2=n_2=n-n_1 \mid  t_1<t_2, X_1=n_1)

заключается в том, что вторая случайная величина X_2 во второй момент времени t_2 вынуждена принять числовое значение, равное  0\le n_2=n-n_1 \quad , при условии, что в первый момент времени t_1 первая случайная величина X_1 приняла случайное значение, равное n_1, \quad 0\le n_1\le n.

Следовательно, и вероятность биномиального распределения


\prod_{i=1}^2P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! n_2!}p_1^{n_1}p_2^{n_2}

как произведение первой независимой и второй зависимой случайных величин, является цепью Маркова.

Сумма всех вероятностей биномиального распределения равна единице p_1+p_2=1. Следовательно, биномиальное распределение как цепь Маркова, является стахостической.

Переходная вероятность биномиального распределения является дискретной функцией. Следовательно, биномиальное распределение является марковским процессом с дискретным временем.

Сравнительная оценка характеристик биномиальных распределений настоящей и традиционной интерпретацийПравить

Цель сравнительной оценки показать, что биномиальное распределение настоящей интерпретации (таблица 1) соответствует, а биномиальное распределение традиционной интерпретации не соответствует современным требованиям аксиоматики Колмогорова.

Несоответствие состоит в том, что, во-первых, биномиальное распределение традиционной интерпретации представлено распределением одной случайной величины, а по своей сути и определению оно должно быть распределением двух случайных величин.

Во-вторых, при неограниченном увеличении числа независимых испытаний ( n ) математическое ожидание (np ) биномиального распределения традиционной интерпретации устремляется к бесконечности, что недопустимо, поскольку сумма всех вероятностей распределения, включая и его математическое ожидание, в любом распределении обязана быть равной единице (см., например, таблицу 1). Кроме того, математическое ожидание (np_1 ) и дисперсия (np_1q_1 ) первой случайной величины биномиального распределения настоящей интерпретации приняты за математическое ожидание (np ) и дисперсию (npq) биномиального распределения традиционной интерпретации.

Историческая справка Править

Исторически биномиальное распределение зарождалось как комбинаторная задача на основе разложения бинома (a + b)^n. Принцип полной индукции восходит к древним грекам, например, к “Началам” Евклида, а в странах ислама формула бинома (a + b)^n при n=3,4,\ldots,9 была известна уже в 10-12 веках таким учёным, как: Ат-Туси, Ал-Каши и Омар Хайям. Первый из них (Абу Джафар Мухаммад ибн Мухаммад Насир ад-Дин ат-Туси) Ат-Туси (1201- 26 июня 1274) уроженец города Туса в Хорасане, работал сначала в столице государства ассасинов. Ат-Туси принадлежит много трудов по математике и астрономии, а также по физике, минералогии, логике, этике и другим наукам [9] В «Сборнике по арифметике с помощью доски и пыли» (1265) Ат-Туси подробно описал приём извлечения корней любой степени и на примере \sqrt[6]{24414000626} привел таблицу биномиальных коэффициентов в форме треугольника, известного ныне как треугольник Паскаля [10] . Последний из них владел правилом возведения двучлена в любую целую положительную степень. Однако эти сочинения Хайяма пока не найдены. Но на их существование говорит его цитата: “Мы покажем, как определить основания квадрато–квадратов, квадрато–кубов, кубов–кубов и так далее сколько угодно, чего раньше не было”. По-видимому, эти общие результаты в словесном изложении не дошли в своё время до Европы, и здесь пришлось их получать заново.

Первый этап Править

Вторая половина 17-го века — предвестник развития теории биномиального распределения — без доказательства была опубликована Ньютоном математическая формула бинома по версии советских историков математики [11] в 1667 году, а по версии В. Я. Буняковского [12] в 1776 году.

Буняковский утверждал, что многие открытия более блистательные, чем бином, принадлежат Ньютону, но по непревзойдённости приложений в математическом анализе биному нет равных. Не потому ли формула бинома высечена на гробнице Ньютона в Вестмистерском Аббатстве.

Х. Гюйгенс явно выразил понятие математического ожидания в своей книге “О расчетах в азартных играх” (De ratiociniis in aleae ludo), вышедшей в качестве приложения к “Математическим этюдам” (1657) его учителя Ф. Ван Схоотена: ”Если число случаев, в которых получается сумма a , равна p и что число случаев, в которых получается сумма b, равна q и все случаи могут получаться одинаково легко, то стоимость моего ожидания равна \frac{pa+qb}{p+q} ”.

Не прошло и полвека после изобретения бинома, как Я. Бернулли ( 27.12.1654 - 16.08.1705) с помощью бинома Ньютона установил закон больших чисел, который был опубликован посмертно в 1713 году [13] .

Второй этап. Править

На рубеже 18-19 веков термин “математическое ожидание” был предложен Лапласом. В разделе “Об ожиданиях” [14] [5, 6 с. 837] (цитируем с перестановкой предложений): “V11-ой принцип. Если выгода зависит от многих событий, то, беря сумму произведений вероятности каждого события на благо, связанное с его наступлением, мы получаем выгоду. Назовём эту выгоду математическим ожиданием”. Конец цитаты.

Третий этапПравить

В начале 19-го века Лапласом в 1814 году было опубликовано словесное разложение бинома (p+q)^n, (p+q)=1 и оно было названо им очень полезным свойством в теории вероятностей [15] . Процитируем и проанализируем урновую модель Лапласа: <<Предположим, что урна содержит a белых и b черных шаров, и что по изъятии из неё шара, его кладут обратно в урну: спрашивается, какова вероятность того, что при n тиражах будут вынуты m белых шаров и n-m черных. Ясно, что число случаев возможных при каждом тираже равно a плюс b . Так как каждый случай второго тиража может комбинироваться со всеми случаями первого, то число случаев возможных при двух тиражах, равно квадрату бинома a плюс b . В разложении этого квадрата квадрат a выражает число случаев, в которых два раза вынут белый шар, удвоенное произведение a на b выражает число случаев, в которых вынуты белый и черный шары; наконец, квадрат b выражает число случаев, в которых вынуты два черных шара. Продолжая таким образом дальше, находят вообще, что n -я степень бинома a плюс b выражает число всех случаев возможных при n тиражах, и что в разложении этой степени член, умноженный на m -ю степень a выражает число случаев, в которых можно вынуть m белых шаров и n-m черных. Поэтому, деля этот член на всю степень бинома, получим вероятность изъятия m белых шаров и n-m черных. Так как отношения a и a плюс b есть вероятность изъятия белого шара, а отношение b и a плюс b есть вероятность изъятия черного шара, если при этом назовем эти вероятности p и q , то вероятностью изъятия m белых шаров при n тиражах будет член, умноженный на -ю степень , в разложении n -й степени бинома p плюс q : легко заметить, что сумма p плюс q есть единица. Это замечательное свойство бинома оказывается очень полезным в теории вероятностей>>.

Примечания. 1. В современной теории вероятностей тиражом называют одно независимое повторное испытание с двумя несовместными исходами каждый (испытание Бернулли), что в модели Лапласа, например, означает: “успешный исход” случайного события A=1 — вынут белый шар, “неудачный исход” случайного события A=0 — вынут черный шар.

2. Процедура изъятия из урны одного произвольного шара и каждый раз возвращение его в урну до следующего изъятия со времён Лапласа закрепилась в теории вероятностей как метод выбора с возвращением получения бинома и вероятностей биномиального распределения (ещё так не называемого).

3. Возникли существенные различия биномиальных распределений, полученных на основе двух рассмотренных биномовa плюс b в степени n и p плюс q в степени n , связанных одним тождеством


\frac{(a+b)^n}{(a+b)^n}=1^n=(p+q)^n, \qquad p=\frac{a}{a+b}, \qquad q= \frac{b}{a+b}.

Из дроби \frac{(a+b)^n}{(a+b)^n} Лаплас определил вероятность биномиального распределения как вероятность изъятия m белых шаров и n-m черных:


P(a=m,b=n-m)= \frac {{n\choose m}a^mb^{n-m}}{(a+b)^n},

а из бинома (p+q)^n — вероятность биномиального распределения как вероятность изъятия m только белых шаров


P(a=m)= {n\choose m}p^mq^{n-m}.

В 1846 году. В. Я. Буняковский на основе комбинаций исходов независимых испытаний получил вероятность биномиального распределения, как распределения двух случайных величин. Однако это осталось незамеченным возможно потому, что Буняковский опубликовал свою работу только на русском языке и в очень ограниченном количестве экземпляров. А при жизни Лапласа его трактат был опубликован пять раз: в феврале и ноябре 1814, 1816, 1819 и 1825 годах. Кроме того, в последствии трактат и его переводы неоднократно переиздавались во многих странах вплоть до конца XX века. В США последний раз был переиздан в 1994 году, а в России — в 1999 году в составе энциклопедии. Опыт философии в теории вероятностей — образец гениальности Лапласа. Он изложил полную теорию на то время, привел полный свод истин из теории вероятностей и приложений анализа вероятностей без применения формул и сложных вычислений. В первой половине 19-го века В. Я. Буняковский назвал труд Лапласа бессмертным творением , утверждая, что никому аналитическая Теория Вероятностей не обязана столько, как Лапласу . Переводчик российского издания 1908 года А. К. Власов отмечал, что столетний возраст этого классического произведения не умалил его значения [16] . Он должен быть хорошо знаком всякому, изучающему логический метод, убеждал Джевонс . Только в начале 20-го века появились первые критические высказывания в адрес трактата Лапласа, вспоминал Г. Крамер полвека спустя. Видимо сказался авторитет Лапласа, и, как следствие, многие столетия развитие биномиального распределения шло в направлении распределения одной случайной величины.

Даже в середине 20-го века эта точка зрения не ставилась под сомнение. В качестве примера процитируем вышедший в 1956 году в Издательстве АН СССР 3-томный коллективный труд “Математика, ее содержание, методы и значения”. В нём говорится, что глава XI — Теория вероятностей — из 2-го тома этого труда, написанная академиком А. Н. Колмогоровым , до наших дней сохраняет интерес для представителей естественнонаучных и инженерных специальностей, учителей математики [17] .

Цитируем с несущественными изменениями обозначений: <<Вычислим теперь вероятность P_k ровно  k появлений некоторого события A в n независимых испытаниях, в каждом из которых вероятность p этого события одна и та же.

Обозначим через \vee событие, заключающееся в непоявлении события A. Очевидно, что 
P(\vee)=1-P(A)=1-p,

p^k(1-p)^{n-k}.
Так, например, при n=5 и k=2 вероятность получить последовательность исходов будет 
p(1-p)p(1-p)(1-p) =p^2(1-p)^3,

p^k(1-p)^{n-k}.

Окончательно получаем


P_k= C_n^kp^k(1-p)^{n-k} \qquad  (k=0,\ldots,n).

(так наз. биномиальное распределение) >> Конец цитаты. Проанализируем получение Колмогоровым биномиального распределения.

Во-первых, была поставлена задача вычислить вероятность ровно k появлений одного и того же случайного события в последовательности, содержащей n независимых испытаний.

Во-вторых, в процессе решения поставленной задачи дополнительно была вычислена вероятность ровно n-k появлений и второго случайного события в той же последовательности, а именно, вероятность непоявления первого случайного события. Иными словами, была вычислена совместная вероятность появления двух случайных событий на едином пространстве элементарных событий, представляющем собой последовательность n независимых испытаний.

И, наконец, в-третьих, произведение вероятности ровно k появлений одного и вероятности ровно n-k непоявлений другого случайного события принято за вероятность ровно k появлений первого случайного события в последовательности независимых испытаний:


P_k= C_n^kp^k(1-p) ^{n-k} \qquad  (k=0,\ldots,n).

По Колмогорову так называемое биномиальное распределение есть распределение одной случайной величины, появляющейся ровно k раз, причём эта точка зрения существует и в настоящее время, в частности, [18]. [[распределение Пуассона]]


P_k=e^{-\lambda}\frac{\lambda^k}{k!},

в котором \lambda=np, на самом деле определяет вероятность ровно k появлений того же случайного события в последовательности n независимых испытаний , причем параметр \lambda=np есть математическое ожидание первой случайной величины биномиального распределения (и полиномиального распределения тоже) настоящей интерпретации.

В. Я. Буняковский в 1846 году первым в мире получил формулу вероятности биномиального распределения как распределения двух случайных величин. В ту пору не были известными многие современные математические знаки такие, как суммирование, произведение, факториал и другие. В современной записи формула вероятности биномиального распределения Буняковского выглядит следующим образом:


P(X_1=n_1, X_2=n_2)= \frac{n!}{n_1! n_2!} p_1^{n_1}p_2^{n_2},

2\le k \le n< \infty, \quad n_1+n_2=n, \quad p_1+p_2=1.

В том же 1846 году В. Я. Буняковский методом индукции распространил математическую формулу разложения бинома “на случай сколь угодно большого числа событий”


\frac{(a+b+c+\ldots)^n}{(a+b+c+\ldots)^n }=1^n=(p_1+p_2+p_3+\ldots)^n,

\frac{a}{a+b+c+\ldots}, \quad \frac{b}{a+b+c+\ldots}, \quad \frac{c}{a+b+c+\ldots},

и получил формулу вероятности полиномиального распределения традиционной интерпретации (независимых случайных величин). В современной записи она выглядит следующим образом:


P(X_1=n_1,\ldots,X_k=n_k)=\frac{n!}{n_1!\cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},

2\le k \le n< \infty, \quad n_1+\ldots+n_k=n, \quad  p_1+ \ldots +p_ k =1.

Четвёртый этапПравить

19-й век. Вторая половина.

Получена П. Л. Чебышёвым [19]приближённая формула математического ожидания биномиального распределения (ещё так не называвшегося) и впервые установлено, что из-за дискретного характера случайной величины в распределении может быть два значения, соответствующих максимальной вероятности.

Пятый этапПравить

 20-й век. Первая половина.

В 1911 году биномиальное распределение обрело своё теперешнее название [20]

С. Н. Бернштейн получил точную формулу математического ожидания биномиального распределения традиционной интерпретации [21]

Шестой этапПравить

20-й век. Вторая половина.

Окончательно сложились традиционная интерпретация полиномиального и биномиального распределений как распределений независимых случайных величин. Хотя и утверждалось, и до сих пор утверждается что, полиномиальное распределение совпадает с биномиальным распределением при сокращении числа случайных величин до двух, тем не менее биномиальное распределение по-прежнему рассматривается как распределение одной случайной величины. К концу 20-го века не удалось определить математическое ожидание полиномиального распределения, а математическое ожидание биномиального распределения, как распределения одной случайной величины np по-прежнему противоречило аксиоматике Колмогорова: при условии n>p^{-1} оно оказывается больше единицы, хотя согласно аксиоматике Колмогорова сумма всех вероятностей любого распределения, включая и его математическое ожидание, должна быть равной единице. Развитие этих распределений зашло в тупик. В начале 20-го века уже были известны зависимые случайные величины и процессы Маркова, а эти распределения по-прежнему развивались на устаревшей философской идеи теории вероятностей, заключавшейся во всеобщности понятия независимости.

Седьмой этапПравить

Первая половина 2I-го века. Вскрыты парадоксы биномиального и полиномиального распределений .[22] и далее эти распределения развиваться как распределения зависимых случайных величин, полученными на единой методологической основе, в частности:

Полиномиальное распределение (мультиномиальное распределение) — совместное распределение вероятностей зависимых (кроме первой, в общем случае) случайных величин


\prod_{i=1}^kP(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=


=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}, \qquad  \frac{n!}{n_1! \cdots n_k!}={n \choose n_1,\ldots, n_k},


Биномиальное распределение — совместное распределение вероятностей двух случайных величин


\prod_{i=1}^2P(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! n_2!}p_1^{n_1} p_2^{n_2},

\frac{n!}{n_1! n_2!}= {n \choose n_1,n_2} ={n \choose n_1}={n\choose n_2}.

Математические ожидания полиномиального и биномиального распределений, определённые как максимальные вероятности и как максимальные произведения математических ожиданий случайных величин соответственно:


\left(\prod_{i=1}^nP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}) \right)_{max}=
\left(\frac{n!}{n_1! \cdots n_n!} p_1^{n_1}\cdots p_n^{n_n}\right)_{max}=\frac{n!}{n^n};

\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i\right)_{max}=\frac{n!}{n^n},



\left(\prod_{i=1}^2P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\frac{n!}{n_i!n_2!}p_1^{n_1}p_2^{n_2}\right)_{max}=
\frac{n!}{n^n}= \frac{1}{2},

\left(\prod_{i=1}^2E(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^2(n-n_{i-1})p_i\right)_{max}=\frac{n!}{n^n}=\frac{1}{2}.

Из этих формул видно, что методом индукции из вероятности биномиального распределения получают вероятность полиномиальное (мультиномиальное) распределение и наоборот, методом дедукции из вероятности полиномиального (мультиномиального) распределения получают вероятность биномиального распределения, что было известно великому российскому учёному В. Я. Буняковскому ещё в 1846 году!

В первом десятилетии 2I-го века был получен минимальный набор характеристик биномиального распределения как частного случая полиномиального распределения.

Связь с другими распределениямиПравить

Если k>2 и p_i\ne p_j хотя бы для одной пары ,то получаем мультиномиальное распределение распределение настоящей интерпретации 21-го века.

Если p_1=\ldots=p_k,то получаем мультиномиальное распределение с равновероятными успехами испытаний Бернулли

Если p_1=p_2 и p_1+p_2=1,то получаем биномиальное распределение с равновероятными успехами испытаний Бернулли

См. такжеПравить

ЛитератураПравить

  1. Голоборщенко В. С. Парадоксы в современной теории вероятностей. Часть 1: Ложность принятых постулатов и парадигм. // Проблемы создания информационных технологий. Сборник научных трудов МАИТ. М.: ООО Техполиграфцентр, 2006. Вып. 14, С. 9-15.
  2. Голоборщенко В. С. Производящие и характеристические функции полиномиального и биномиального распределений как парадоксы в современной теории вероятностей // Проблемы создания информационных технологий. Сборник научных трудов МАИТ. М.: МАИТ, 2008. Вып. 17, С. 5-11.
  3. Прохоров А. В. Полиномиальное распределение // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999. C. 470-471. ISBN 5 85 270265 X
  4. Буняковский В. Я. ОСНОВАНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ сочинение В. Я. БУНЯКОВСКОГО, ИМПЕРАТОРСКОЙ АКАДЕМИИ НАУК, ОРДИНАРНОГО АКАДЕМИКА, ПРОФЕССРА С. ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА, ДОКТОРА МАТЕМАТИЧЕСКИХ НАУК ПАРИЖСКОЙ АКАДЕМИИ. САНКТПЕТЕРБУРГ. В Типографии Императорской Академии Наук. 1846. 477с.
  5. Севастьянов Б. А. Полиномиальная схема.//Вероятность и математическая статистика. Энциклопедия. / Гл. редактор Ю. В. Прохоров. М. Большая советская энциклопедия.1999. С.470. ISBN 585270265X
  6. Лаплас П. Опыт философии теории вероятностей. // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999, с. 834-863. ISBN 585270265X
  7. http://ru.wikipedia.org/wiki/ Математическая физика
  8. Голоборщенко В. С. Основы теории дискретных распределений. Часть 5: Как технические задачи и технические результаты математической физики. // Проблемы создания информационных технологий. М.: ООО Техполиграфцентр, 2010. Вып. 19, с. 31–36.
  9. История математики. Том 1. С древних времён до начала нового времени. М.: Наука, 1970. 351 с.
  10. http://wikipedia.ru/wiki/Математика исламского средневековья
  11. История математики. Том 2. Математика XVII века. М.: Наука, 1970. 300 с.
  12. Буняковский В. Я. Лексикон чистой и прикладной математики. Том 1. A-D. Санкт Петербург: Императорская Академия Наук, 1839. 192 с.
  13. Четвёртая часть сочиненія Якоба Бернулли “ Ars cjnjectandi”. Перевод Я. В. Успенского. СПб: Императорская АН, 1913. 40 с.
  14. Laplace P. Essai philosophique sur les probabilités. Paris, 1812. (Опыт философии теории вероятностей). Пер. с фр. A.I.B., под ред. А. К. Власова, М.: Московский университет, 1908.
  15. Вероятность и математическая статистика: Энциклопедия / Гл. ред. Ю. В. Прохоров, 1999. - 910 с. ISBN 585270265X
  16. Крамер Г. Полвека с теорией вероятностей: наброски воспоминаний. Современные проблемы математики. М.: Знание. 1979. 60 с.
  17. Математика, её содержание, методы и значения Том. 2.М. АН СССР. 1956.
  18. Феллер В. Введение в теорию вероятностей и её приложения. Том 1. перевод с англ. М.: Мир, 1984. 528 с.
  19. Чебышёв П. Л. Теория вероятностей. Лекции 1879/1880 учебного года. М-Л.: АН СССР, 1936. 252 с.
  20. http://www.statsoft.ru/home/textbook/glossary/GlossaryTwo/B/BinomialDistribution.htm
  21. Бернштейн С. Н. Теория вероятностей. М-Л.: Госиздат, 1946. 556 с.
  22. Голоборщенко В. С. Основы теории дискретных распределений. Часть 4: характеристики распределений. // Проблемы создания информационных технологий. М.: ООО Техполиграфцентр, 2010. Вып. 19, с. 25-30.


Вероятностные распределения
Одномерные Многомерные
Дискретные: Бернулли | биномиальное | геометрическое | гипергеометрическое | логарифмическое | отрицательное биномиальное | Пуассона | равномерное мультиномиальное
Абсолютно непрерывные: Бета | Вейбулла | Гамма | Колмогорова | Коши | логнормальное | Лоренца | нормальное (Гаусса) | равномерное | Парето | Стьюдента | Фишера | хи-квадрат | экспоненциальное | Эрланга многомерное нормальное
править


ar:التوزيع ذو الحدين cs:Binomické rozdělení da:Binomialfordelingenhe:התפלגות בינומית hu:Binomiális eloszláslt:Binominis skirstinys nl:Binomiale verdeling no:Binomisk fordeling pl:Rozkład dwumianowysimple:Binomial distribution su:Sebaran binomial sv:Binomialfördelning uk:Біноміальний розподіл ur:دو رقمی توزیع

Викия-сеть

Случайная вики