Таблица распределения теория вероятности. Закон распределения случайной величины

Как известно, случайной величиной называется переменная величина, которая может принимать те или иные значения в зависимости от случая. Случайные величины обозначают заглавными буквами латинского алфавита (X, Y, Z), а их значения – соответствующими строчными буквами (x, y, z). Случайные величины делятся на прерывные (дискретные) и непрерывные.

Дискретной случайной величиной называется случайная величина, принимающая лишь конечное или бесконечное (счетное) множество значений с определенными ненулевыми вероятностями.

Законом распределения дискретной случайной величины называется функция, связывающая значения случайной величины с соответствующими им вероятностями. Закон распределения может быть задан одним из следующих способов.

1 . Закон распределения может быть задан таблицей:

где λ>0, k = 0, 1, 2, … .

в) с помощью функции распределения F(x) , определяющей для каждого значения x вероятность того, что случайная величина X примет значение, меньшее x, т.е. F(x) = P(X < x).

Свойства функции F(x)

3 . Закон распределения может быть задан графически – многоугольником (полигоном) распределения (смотри задачу 3).

Отметим, что для решения некоторых задач не обязательно знать закон распределения. В некоторых случаях достаточно знать одно или несколько чисел, отражающих наиболее важные особенности закона распределения. Это может быть число, имеющее смысл «среднего значения» случайной величины, или же число, показывающее средний размер отклонения случайной величины от своего среднего значения. Числа такого рода называют числовыми характеристиками случайной величины.

Основные числовые характеристики дискретной случайной величины :

  • Mатематическое ожидание (среднее значение) дискретной случайной величины M(X)=Σ x i p i .
    Для биномиального распределения M(X)=np, для распределения Пуассона M(X)=λ
  • Дисперсия дискретной случайной величины D(X)= M 2 или D(X) = M(X 2)− 2 . Разность X–M(X) называют отклонением случайной величины от ее математического ожидания.
    Для биномиального распределения D(X)=npq, для распределения Пуассона D(X)=λ
  • Среднее квадратическое отклонение (стандартное отклонение) σ(X)=√D(X) .

Примеры решения задач по теме «Закон распределения дискретной случайной величины»

Задача 1.

Выпущено 1000 лотерейных билетов: на 5 из них выпадает выигрыш в сумме 500 рублей, на 10 – выигрыш в 100 рублей, на 20 – выигрыш в 50 рублей, на 50 – выигрыш в 10 рублей. Определить закон распределения вероятностей случайной величины X – выигрыша на один билет.

Решение. По условию задачи возможны следующие значения случайной величины X: 0, 10, 50, 100 и 500.

Число билетов без выигрыша равно 1000 – (5+10+20+50) = 915, тогда P(X=0) = 915/1000 = 0,915.

Аналогично находим все другие вероятности: P(X=0) = 50/1000=0,05, P(X=50) = 20/1000=0,02, P(X=100) = 10/1000=0,01, P(X=500) = 5/1000=0,005. Полученный закон представим в виде таблицы:

Найдем математическое ожидание величины Х: М(Х) = 1*1/6 + 2*1/6 + 3*1/6 + 4*1/6 + 5*1/6 + 6*1/6 = (1+2+3+4+5+6)/6 = 21/6 = 3,5

Задача 3.

Устройство состоит из трех независимо работающих элементов. Вероятность отказа каждого элемента в одном опыте равна 0,1. Составить закон распределения числа отказавших элементов в одном опыте, построить многоугольник распределения. Найти функцию распределения F(x) и построить ее график. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение дискретной случайной величины.

Решение. 1. Дискретная случайная величина X={число отказавших элементов в одном опыте} имеет следующие возможные значения: х 1 =0 (ни один из элементов устройства не отказал), х 2 =1 (отказал один элемент), х 3 =2 (отказало два элемента) и х 4 =3 (отказали три элемента).

Отказы элементов независимы друг от друга, вероятности отказа каждого элемента равны между собой, поэтому применима формула Бернулли . Учитывая, что, по условию, n=3, р=0,1, q=1-р=0,9, определим вероятности значений:
P 3 (0) = С 3 0 p 0 q 3-0 = q 3 = 0,9 3 = 0,729;
P 3 (1) = С 3 1 p 1 q 3-1 = 3*0,1*0,9 2 = 0,243;
P 3 (2) = С 3 2 p 2 q 3-2 = 3*0,1 2 *0,9 = 0,027;
P 3 (3) = С 3 3 p 3 q 3-3 = р 3 =0,1 3 = 0,001;
Проверка: ∑p i = 0,729+0,243+0,027+0,001=1.

Таким образом, искомый биномиальный закон распределения Х имеет вид:

По оси абсцисс откладываем возможные значения х i , а по оси ординат – соответствующие им вероятности р i . Построим точки М 1 (0; 0,729), М 2 (1; 0,243), М 3 (2; 0,027), М 4 (3; 0,001). Соединив эти точки отрезками прямых, получаем искомый многоугольник распределения.

3. Найдем функцию распределения F(x) = Р(Х

Для x ≤ 0 имеем F(x) = Р(Х<0) = 0;
для 0 < x ≤1 имеем F(x) = Р(Х<1) = Р(Х = 0) = 0,729;
для 1< x ≤ 2 F(x) = Р(Х<2) = Р(Х=0) + Р(Х=1) =0,729+ 0,243 = 0,972;
для 2 < x ≤ 3 F(x) = Р(Х<3) = Р(Х = 0) + Р(Х = 1) + Р(Х = 2) = 0,972+0,027 = 0,999;
для х > 3 будет F(x) = 1, т.к. событие достоверно.

График функции F(x)

4. Для биномиального распределения Х:
- математическое ожидание М(X) = np = 3*0,1 = 0,3;
- дисперсия D(X) = npq = 3*0,1*0,9 = 0,27;
- среднее квадратическое отклонение σ(X) = √D(X) = √0,27 ≈ 0,52.

Теория вероятностей – это раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними.

Долгое время теория вероятностей не имела четкого определения. Оно было сформулировано лишь в 1929 году. Возникновение теории вероятностей как науки относят к средним векам и первым попыткам математического анализа азартных игр (орлянка, кости, рулетка). Французские математики XVII века Блез Паскаль и Пьер Ферма, исследуя прогнозирование выигрыша в азартных играх, открыли первые вероятностные закономерности, возникающие при бросании костей.

Теория вероятности возникла как наука из убеждения, что в основе массовых случайных событий лежат определенные закономерности. Теория вероятности изучает данные закономерности.

Теория вероятностей занимается изучением событий, наступление которых достоверно неизвестно. Она позволяет судить о степени вероятности наступления одних событий по сравнению с другими.

Например: определить однозначно результат выпадения «орла» или «решки» в результате подбрасывания монеты нельзя, но при многократном подбрасывании выпадает примерно одинаковое число «орлов» и «решек», что означает, что вероятность того, что выпадет «орел» или «решка», равна 50%.

Испытанием в этом случае называется реализация определенного комплекса условий, то есть в данном случае подбрасывание монеты. Испытание может воспроизводиться неограниченное количество раз. При этом комплекс условий включает в себя случайные факторы.

Результатом испытания является событие . Событие бывает:

  1. Достоверное (всегда происходит в результате испытания).
  2. Невозможное (никогда не происходит).
  3. Случайное (может произойти или не произойти в результате испытания).

Например, при подбрасывании монеты невозможное событие - монета станет на ребро, случайное событие - выпадение «орла» или «решки». Конкретный результат испытания называется элементарным событием . В результате испытания происходят только элементарные события. Совокупность всех возможных, различных, конкретных исходов испытаний называется пространством элементарных событий .

Основные понятия теории

Вероятность - степень возможности происхождения события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае - маловероятным или невероятным.

Случайная величина - это величина, которая в результате испытания может принять то или иное значение, причем неизвестно заранее, какое именно. Например: число на пожарную станцию за сутки, число попадания при 10 выстрелах и т.д.

Случайные величины можно разделить на две категории.

  1. Дискретной случайной величиной называется такая величина, которая в результате испытания может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Это множество может быть как конечным, так и бесконечным. Например, количество выстрелов до первого попадания в цель является дискретной случайной величиной, т.к. эта величина может принимать и бесконечное, хотя и счетное количество значений.
  2. Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Очевидно, что количество возможных значений непрерывной случайной величины бесконечно.

Вероятностное пространство - понятие, введенное А.Н. Колмогоровым в 30-х годах XX века для формализации понятия вероятности, которое дало начало бурному развитию теории вероятностей как строгой математической дисциплине.

Вероятностное пространство - это тройка (иногда обрамляемая угловыми скобками: , где

Это произвольное множество, элементы которого называются элементарными событиями, исходами или точками;
- сигма-алгебра подмножеств , называемых (случайными) событиями;
- вероятностная мера или вероятность, т.е. сигма-аддитивная конечная мера, такая что .

Теорема Муавра-Лапласа - одна из предельных теорем теории вероятностей, установлена Лапласом в 1812 году. Она утверждает, что число успехов при многократном повторении одного и того же случайного эксперимента с двумя возможными исходами приблизительно имеет нормальное распределение. Она позволяет найти приближенное значение вероятности.

Если при каждом из независимых испытаний вероятность появления некоторого случайного события равна () и - число испытаний, в которых фактически наступает, то вероятность справедливости неравенства близка (при больших ) к значению интеграла Лапласа.

Функция распределения в теории вероятностей - функция, характеризующая распределение случайной величины или случайного вектора; вероятность того, что случайная величина X примет значение, меньшее или равное х, где х - произвольное действительное число. При соблюдении известных условий полностью определяет случайную величину.

Математическое ожидание - среднее значение случайной величины (это распределение вероятностей случайной величины, рассматривается в теории вероятностей). В англоязычной литературе обозначается через , в русской - . В статистике часто используют обозначение .

Пусть задано вероятностное пространство и определенная на нем случайная величина . То есть, по определению, - измеримая функция. Тогда, если существует интеграл Лебега от по пространству , то он называется математическим ожиданием, или средним значением и обозначается .

Дисперсия случайной величины - мера разброса данной случайной величины, т. е. ее отклонения от математического ожидания. Обозначается в русской литературе и в зарубежной. В статистике часто употребляется обозначение или . Квадратный корень из дисперсии называется среднеквадратичным отклонением, стандартным отклонением или стандартным разбросом.

Пусть - случайная величина, определенная на некотором вероятностном пространстве. Тогда

где символ обозначает математическое ожидание.

В теории вероятностей два случайных события называются независимыми , если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют зависимыми , если значение одной из них влияет на вероятность значений другой.

Простейшая форма закона больших чисел – это теорема Бернулли, утверждающая, что если вероятность события одинакова во всех испытаниях, то с увеличением числа испытаний частота события стремится к вероятности события и перестает быть случайной.

Закон больших чисел в теории вероятностей утверждает, что среднее арифметическое конечной выборки из фиксированного распределения близко к теоретическому среднему математическому ожиданию этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти наверняка.

Общий смысл закона больших чисел - совместное действие большого числа одинаковых и независимых случайных факторов приводит к результату, в пределе не зависящему от случая.

На этом свойстве основаны методы оценки вероятности на основе анализа конечной выборки. Наглядным примером является прогноз результатов выборов на основе опроса выборки избирателей.

Центральные предельные теоремы - класс теорем в теории вероятностей, утверждающих, что сумма достаточно большого количества слабо зависимых случайных величин, имеющих примерно одинаковые масштабы (ни одно из слагаемых не доминирует, не вносит в сумму определяющего вклада), имеет распределение, близкое к нормальному.

Так как многие случайные величины в приложениях формируются под влиянием нескольких слабо зависимых случайных факторов, их распределение считают нормальным. При этом должно соблюдаться условие, что ни один из факторов не является доминирующим. Центральные предельные теоремы в этих случаях обосновывают применение нормального распределения.

Случайное событие – это любой факт, который в результате испытания может произойти или не произойти. Случайное событие – это результат испытания. Испытание – это эксперимент, выполнение определенного комплекса условий, в которых наблюдается то или иное явление, фиксируется тот или иной результат.

События обозначаются заглавными буквами латинского алфавита А,В,С.

Численная мера степени объективности возможности наступления события называется вероятностью случайного события.

Классическое определение вероятности события А:

Вероятность события А равна отношению числа случаев, благоприятствующих событию A(m), к общему числу случаев (n).

Статистическое определение вероятности

Относительная частота событий – это доля тех фактически проведенных испытаний, в которых событие А появилось W=P*(A)= m/n. Это опытная экспериментальная характеристика, где m – число опытов, в которых появилось событие А; n – число всех проведенных опытов.

Вероятностью события называется число, около которого группируются значения частоты данного события в различных сериях большого числа испытаний P(A)=.

События называются несовместными , если наступление одного из них исключает появление другого. В противном случае события – совместные .

Сумма двух событий – это такое событие, при котором появляется хотя бы одно из этих событий (А или В).

Если А и В совместные события, то их сумма А+В обозначает наступление события А или события В, или обоих событий вместе.

Если А и В несовместные события, то сумма А+В означает наступление или события А или события В.

2. Понятие о зависимых и независимых событиях. Условная вероятность, закон (теорема) умножения вероятностей. Формула Байеса.

Событие В называется независимым от события А, если появление события А не изменяет вероятности появления события В. Вероятностью появления нескольких независимых событий равна произведению вероятностей этих:

P(AB) = P(A)*P(B)

Для зависимых событий:

P(AB) = P(A)*Р(B/A).

Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие произошло.

Условная вероятность события В - это вероятность события В, найденная при условии, что событие А произошло. Обозначается Р(В/А)

Произведение двух событий – это событие, состоящее в совместном появлении этих событий (А и В)

Формула Байеса служит для переоценки случайных событий

P(H/A) = (P(H)*P(A/H))/P(A)

P(H) – априорная вероятность события Н

P(H/A) – апостериорная вероятность гипотезы H при условии, что событие А уже произошло

P(A/H) – экспертная оценка

P(A) – полня вероятность события А

3. Распределение дискретных и непрерывных случайных величин и их характеристики: математическое ожидание, дисперсия, среднее квадратичное отклонение. Нормальный закон распределения непрерывных случайных величин.

Случайная величина – это величина, которая в результате испытания в зависимости от случая принимает одно из возможного множества своих значений.

Дискретная случайная величина это случайная величина, когда принимает отдельное изолированное, счетное множество значений.

Непрерывная случайная величина – это случайная величина, принимающая любые значения из некоторого интервала. Понятие непрерывной случайной величины возникает при измерениях.

Для дискретной случайной величины закон распределения может быть задан в виде таблицы , аналитически (в виде формулы) и графически .

Таблица это простейшая форма задания закона распределения

Требования:

для дискретных случайных величин

Аналитический:

1)F(x)=P(X

Функция распределения = интегральная функция распределения. Для дискретный и непрерывных случайных величин.

2)f(x) = F’(x)

Плотность распределения вероятностей = дифференциальная функция распределения только для непрерывной случайной велечины.

Графический:

С-ва: 1) 0≤F(x)≤1

2) неубывающая для дискретных случайных величин

С-ва: 1) f(x)≥0 P(x)=

2) площадь S=1

для непрерывных случайных величин

Характеристики:

1.математическое ожидание – среднее наиболее вероятное событие

Для дискретных случайных величин.

Для непрерывных случайных величин.

2)Дисперсия – рассеяние вокруг математического ожидания

Для дискретных случайных величин:

D(x)=x i -M(x)) 2 *p i

Для непрерывных случайных величин:

D(x)=x-M(x)) 2 *f(x)dx

3)Среднее квадратическое отклонение :

σ(х)=√(D(x))

σ – стандартное отклонение или стандарт

х – арифметическое значение корня квадратного из ее дисперсии

Нормальный закон распределения (НЗР) – закон Гаусса

НЗР – это распад вероятностей непрерывной случайной величины, который описывается дифференциальной функцией

На практике большинство случайных величин, на которых воздействует большое количество случайных факторов, подчиняются нормальному закону распределения вероятностей. Поэтому в различных приложениях теории вероятностей этот закон имеет особое значение.

Случайная величина $X$ подчиняется нормальному закону распределения вероятностей, если ее плотность распределения вероятностей имеет следующий вид

$$f\left(x\right)={{1}\over {\sigma \sqrt{2\pi }}}e^{-{{{\left(x-a\right)}^2}\over {2{\sigma }^2}}}$$

Схематически график функции $f\left(x\right)$ представлен на рисунке и имеет название «Гауссова кривая». Справа от этого графика изображена банкнота в 10 марок ФРГ, которая использовалась еще до появления евро. Если хорошо приглядеться, то на этой банкноте можно заметить гауссову кривую и ее первооткрывателя величайшего математика Карла Фридриха Гаусса.

Вернемся к нашей функции плотности $f\left(x\right)$ и дадим кое-какие пояснения относительно параметров распределения $a,\ {\sigma }^2$. Параметр $a$ характеризует центр рассеивания значений случайной величины, то есть имеет смысл математического ожидания. При изменении параметра $a$ и неизмененном параметре ${\sigma }^2$ мы можем наблюдать смещение графика функции $f\left(x\right)$ вдоль оси абсцисс, при этом сам график плотности не меняет своей формы.

Параметр ${\sigma }^2$ является дисперсией и характеризует форму кривой графика плотности $f\left(x\right)$. При изменении параметра ${\sigma }^2$ при неизмененном параметре $a$ мы можем наблюдать, как график плотности меняет свою форму, сжимаясь или растягиваясь, при этом не сдвигаясь вдоль оси абсцисс.

Вероятность попадания нормально распределенной случайной величины в заданный интервал

Как известно, вероятность попадания случайной величины $X$ в интервал $\left(\alpha ;\ \beta \right)$ можно вычислять $P\left(\alpha < X < \beta \right)=\int^{\beta }_{\alpha }{f\left(x\right)dx}$. Для нормального распределения случайной величины $X$ с параметрами $a,\ \sigma $ справедлива следующая формула:

$$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right)$$

Здесь функция $\Phi \left(x\right)={{1}\over {\sqrt{2\pi }}}\int^x_0{e^{-t^2/2}dt}$ - функция Лапласа. Значения этой функции берутся из . Можно отметить следующие свойства функции $\Phi \left(x\right)$.

1 . $\Phi \left(-x\right)=-\Phi \left(x\right)$, то есть функция $\Phi \left(x\right)$ является нечетной.

2 . $\Phi \left(x\right)$ - монотонно возрастающая функция.

3 . ${\mathop{lim}_{x\to +\infty } \Phi \left(x\right)\ }=0,5$, ${\mathop{lim}_{x\to -\infty } \Phi \left(x\right)\ }=-0,5$.

Для вычисления значений функции $\Phi \left(x\right)$ можно также воспользоваться мастером функция $f_x$ пакета Excel: $\Phi \left(x\right)=НОРМРАСП\left(x;0;1;1\right)-0,5$. Например, вычислим значений функции $\Phi \left(x\right)$ при $x=2$.

Вероятность попадания нормально распределенной случайной величины $X\in N\left(a;\ {\sigma }^2\right)$ в интервал, симметричный относительно математического ожидания $a$, может быть вычислена по формуле

$$P\left(\left|X-a\right| < \delta \right)=2\Phi \left({{\delta }\over {\sigma }}\right).$$

Правило трех сигм . Практически достоверно, что нормально распределенная случайная величина $X$ попадет в интервал $\left(a-3\sigma ;a+3\sigma \right)$.

Пример 1 . Случайная величина $X$ подчинена нормальному закону распределения вероятностей с параметрами $a=2,\ \sigma =3$. Найти вероятность попадания $X$ в интервал $\left(0,5;1\right)$ и вероятность выполнения неравенства $\left|X-a\right| < 0,2$.

Используя формулу

$$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right),$$

находим $P\left(0,5;1\right)=\Phi \left({{1-2}\over {3}}\right)-\Phi \left({{0,5-2}\over {3}}\right)=\Phi \left(-0,33\right)-\Phi \left(-0,5\right)=\Phi \left(0,5\right)-\Phi \left(0,33\right)=0,191-0,129=0,062$.

$$P\left(\left|X-a\right| < 0,2\right)=2\Phi \left({{\delta }\over {\sigma }}\right)=2\Phi \left({{0,2}\over {3}}\right)=2\Phi \left(0,07\right)=2\cdot 0,028=0,056.$$

Пример 2 . Предположим, что в течение года цена на акции некоторой компании есть случайная величина, распределенная по нормальному закону с математическим ожиданием, равным 50 условным денежным единицам, и стандартным отклонением, равным 10. Чему равна вероятность того, что в случайно выбранный день обсуждаемого периода цена за акцию будет:

а) более 70 условных денежных единиц?

б) ниже 50 за акцию?

в) между 45 и 58 условными денежными единицами за акцию?

Пусть случайная величина $X$ - цена на акции некоторой компании. По условию $X$ подчинена нормальному закону распределению с параметрами $a=50$ - математическое ожидание, $\sigma =10$ - стандартное отклонение. Вероятность $P\left(\alpha < X < \beta \right)$ попадания $X$ в интервал $\left(\alpha ,\ \beta \right)$ будем находить по формуле:

$$P\left(\alpha < X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right).$$

$$а)\ P\left(X>70\right)=\Phi \left({{\infty -50}\over {10}}\right)-\Phi \left({{70-50}\over {10}}\right)=0,5-\Phi \left(2\right)=0,5-0,4772=0,0228.$$

$$б)\ P\left(X < 50\right)=\Phi \left({{50-50}\over {10}}\right)-\Phi \left({{-\infty -50}\over {10}}\right)=\Phi \left(0\right)+0,5=0+0,5=0,5.$$

$$в)\ P\left(45 < X < 58\right)=\Phi \left({{58-50}\over {10}}\right)-\Phi \left({{45-50}\over {10}}\right)=\Phi \left(0,8\right)-\Phi \left(-0,5\right)=\Phi \left(0,8\right)+\Phi \left(0,5\right)=$$