Читаем Большая Советская Энциклопедия (ВЕ) полностью

  0,2·0,2·0,2·0,8 =...... =0,8·0,2·0,2·0,2 = 0,0064;

  следовательно, искомая вероятность равна

  4·0,0064 = 0,0256.

  Обобщая рассуждения разобранного примера, можно вывести одну из основных формул В. т.: если события A1 , A2 ,..., An независимы и имеют каждое вероятность р, то вероятность наступления ровно m из них равна

  Pn (m ) = Cn m pm (1 - p )n-m ;      (4)

  здесь Cn m обозначает число сочетаний из n элементов по m (см. Биномиальное распределение ). При больших n вычисления по формуле (4) становятся затруднительными. Пусть в предыдущем примере число выстрелов равно 100, и ставится вопрос об отыскании вероятности х того, что число попаданий лежит в пределах от 8 до 32. Применение формулы (4) и теоремы сложения даёт точное, но практически мало пригодное выражение искомой вероятности

  Приближённое значение вероятности х можно найти по теореме Лапласа (см. Лапласа теорема )

 

  причём ошибка не превосходит 0,0009. Найденный результат показывает, что событие 8 £ m £ 32 практически достоверно. Это самый простой, но типичный пример использования предельных теорем В. т.

  К числу основных формул элементарной В. т. относится также так называемая формула полной вероятности: если события A1 , A2 ,..., Ar попарно несовместны и их объединение есть достоверное событие, то для любого события В его вероятность равна сумме

  Теорема умножения вероятностей оказывается особенно полезной при рассмотрении составных испытаний. Говорят, что испытание Т составлено из испытаний T1 , T2 ,..., Tn-1 , Tn , если каждый исход испытания Т есть совмещение некоторых исходов Ai , Bj ,..., Xk , Yl соответствующих испытаний T1 , T2 ,..., Tn-1 , Tn . Из тех или иных соображений часто бывают известны вероятности

  P (Ai ), P (Bj /Ai ), …, P (Yl /Ai Ç Bj Ç … Ç Xk ). (5)

  По вероятностям (5) с помощью теоремы умножения могут быть определены вероятности Р (Е ) для всех исходов Е составного испытания, а вместе с тем и вероятности всех событий, связанных с этим испытанием (подобно тому, как это было сделано в разобранном выше примере). Наиболее значительными с практической точки зрения представляются два типа составных испытаний: а) составляющие испытания не зависимы, то есть вероятности (5) равны безусловным вероятностям P (Ai ), P (Bj ),..., P (Yl ); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно: P (Ai ), P (Bj /Ai ),..., P (Yi / Xk ). В этом случае говорят об испытаниях, связанных в цепь Маркова. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р (Аi ) и переходными вероятностями P (Bj / Ai ),..., P (Yl / Xk ) (см. также Марковский процесс ).

  Случайные величины. Если каждому исходу Er испытания Т поставлено в соответствие число х,, то говорят, что задана случайная величина X . Среди чисел x1 , х2 ,......, xs могут быть и равные; совокупность различных значений хг при r = 1, 2,..., s называют совокупностью возможных значений случайной величины. Набор возможных значений случайной величины и соответствующих им вероятностей называется распределением вероятностей случайной величины (см. Распределения ). Так, в примере с бросанием двух костей с каждым исходом испытания (i, j ) связывается случайная величина Х = i + j — сумма очков на обеих костях. Возможные значения суть 2, 3, 4,..., 11, 12; соответствующие вероятности равны 1/36, 2/36, 3/36,..., 2/36, 1/36.

  При одновременном изучении нескольких случайных величин вводится понятие их совместного распределения, которое задаётся указанием возможных значений каждой из них и вероятностей совмещения событий

  {X1 = x1 }, {X2 = x2 }, …, {Xn = xn } ,     (6)

  где xk какое-либо из возможных значений величины Xk . Случайные величины называются независимыми, если при любом выборе xk события (6) независимы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события a < X1 + Х2 +... + Xn < b и т.п.

  Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны математическое ожидание и дисперсия .

  В число основных характеристик совместного распределения нескольких случайных величин, наряду с математическими ожиданиями и дисперсиями этих величин, включаются коэффициенты корреляции и т.п. Смысл перечисленных характеристик в значительной степени разъясняется предельными теоремами (см. раздел Предельные теоремы).

Перейти на страницу:

Похожие книги