График плотности вероятностей нормального распределения имеет вид. Нормальное распределение

Во многих задачах, связанных с нормально распределенными случайными величинами, приходится определять вероятность попадания случайной величины , подчиненной нормальному закону с параметрами , на участок от до . Для вычисления этой вероятности воспользуемся общей формулой

где - функция распределения величины .

Найдем функцию распределения случайной величины , распределенной по нормальному закону с параметрами . Плотность распределения величины равна:

. (6.3.2)

Отсюда находим функцию распределения

. (6.3.3)

Сделаем в интеграле (6.3.3) замену переменной

и приведем его к виду:

(6.3.4)

Интеграл (6.3.4) не выражается через элементарные функции, но его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения или (так называемый интеграл вероятностей), для которого составлены таблицы. Существует много разновидностей таких функций, например:

;

и т.д. Какой из этих функций пользоваться – вопрос вкуса. Мы выберем в качестве такой функции

. (6.3.5)

Нетрудно видеть, что эта функция представляет собой не что иное, как функцию распределения для нормально распределенной случайной величины с параметрами .

Условимся называть функцию нормальной функцией распределения. В приложении (табл. 1) приведены таблицы значений функции .

Выразим функцию распределения (6.3.3) величины с параметрами и через нормальную функцию распределения . Очевидно,

. (6.3.6)

Теперь найдем вероятность попадания случайной величины на участок от до . Согласно формуле (6.3.1)

Таким образом, мы выразили вероятность попадания на участок случайной величины , распределенной по нормальному закону с любыми параметрами, через стандартную функцию распределения , соответствующую простейшему нормальному закону с параметрами 0,1. Заметим, что аргументы функции в формуле (6.3.7) имеют очень простой смысл: есть расстояние от правого конца участка до центра рассеивания, выраженное в средних квадратических отклонениях; - такое же расстояние для левого конца участка, причем это расстояние считается положительным, если конец расположен справа от центра рассеивания, и отрицательным, если слева.

Как и всякая функция распределения, функция обладает свойствами:

3. - неубывающая функция.

Кроме того, из симметричности нормального распределения с параметрами относительно начала координат следует, что

Пользуясь этим свойством, собственно говоря, можно было бы ограничить таблицы функции только положительными значениями аргумента, но, чтобы избежать лишней операции (вычитание из единицы), в таблице 1 приложения приводятся значения как для положительных, так и для отрицательных аргументов.

На практике часто встречается задача вычисления вероятности попадания нормально распределенной случайной величины на участок, симметричный относительно центра рассеивания . Рассмотрим такой участок длины (рис. 6.3.1). Вычислим вероятность попадания на этот участок по формуле (6.3.7):

Учитывая свойство (6.3.8) функции и придавая левой части формулы (6.3.9) более компактный вид, получим формулу для вероятности попадания случайной величины, распределенной по нормальному закону на участок, симметричный относительно центра рассеивания:

. (6.3.10)

Решим следующую задачу. Отложим от центра рассеивания последовательные отрезки длиной (рис. 6.3.2) и вычислим вероятность попадания случайной величины в каждый из них. Так как кривая нормального закона симметрична, достаточно отложить такие отрезки только в одну сторону.

По формуле (6.3.7) находим:

(6.3.11)

Как видно из этих данных, вероятности попадания на каждый из следующих отрезков (пятый, шестой и т.д.) с точностью до 0,001 равны нулю.

Округляя вероятности попадания в отрезки до 0,01 (до 1%), получим три числа, которые легко запомнить:

0,34; 0,14; 0,02.

Сумма этих трех значений равна 0,5. Это значит, что для нормально распределенной случайной величины все рассеивания (с точностью до долей процента) укладывается на участке .

Это позволяет, зная среднее квадратическое отклонение и математическое ожидание случайной величины, ориентировочно указать интервал её практически возможных значений. Такой способ оценки диапазона возможных значений случайной величины известен в математической статистике под названием «правило трех сигма». Из правила трех сигма вытекает также ориентировочный способ определения среднего квадратического отклонения случайной величины: берут максимальное практически возможное отклонение от среднего и делят его на три. Разумеется, этот грубый прием может быть рекомендован, только если нет других, более точных способов определения .

Пример 1. Случайная величина , распределенная по нормальному закону, представляет собой ошибку измерения некоторого расстояния. При измерении допускается систематическая ошибка в сторону завышения на 1,2 (м); среднее квадратическое отклонения ошибки измерения равно 0,8 (м). Найти вероятность того, что отклонение измеренного значения от истинного не превзойдет по абсолютной величине 1,6 (м).

Решение. Ошибка измерения есть случайная величина , подчиненная нормальному закону с параметрами и . Нужно найти вероятность попадания этой величины на участок от до . По формуле (6.3.7) имеем:

Пользуясь таблицами функции (приложение, табл. 1), найдем:

; ,

Пример 2. Найти ту же вероятность, что и в предыдущем примере, но при условии, что систематической ошибки нет.

Решение. По формуле (6.3.10), полагая , найдем:

.

Пример 3. По цели, имеющей вид полосы (автострада), ширина которой равна 20 м, ведется стрельба в направлении, перпендикулярном автостраде. Прицеливание ведется по средней линии автострады. Среднее квадратическое отклонение в направлении стрельбы равно м. Имеется систематическая ошибка в направлении стрельбы: недолет 3 м. Найти вероятность попадания в автостраду при одном выстреле.

(вещественный, строго положительный)

Норма́льное распределе́ние , также называемое распределением Гаусса или Гаусса - Лапласа - распределение вероятностей , которое в одномерном случае задаётся функцией плотности вероятности , совпадающей с функцией Гаусса :

f (x) = 1 σ 2 π e − (x − μ) 2 2 σ 2 , {\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\;e^{-{\frac {(x-\mu)^{2}}{2\sigma ^{2}}}},}

где параметр μ - математическое ожидание (среднее значение), медиана и мода распределения, а параметр σ - среднеквадратическое отклонение ( σ  ² - дисперсия) распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений. Многомерный случай описан в статье «Многомерное нормальное распределение ».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием μ = 0 и стандартным отклонением σ = 1 .

Энциклопедичный YouTube

  • 1 / 5

    Важное значение нормального распределения во многих областях науки (например, в математической статистике и статистической физике) вытекает из центральной предельной теоремы теории вероятностей . Если результат наблюдения является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то при увеличении числа слагаемых распределение центрированного и нормированного результата стремится к нормальному. Этот закон теории вероятностей имеет следствием широкое распространение нормального распределения, что и стало одной из причин его наименования.

    Свойства

    Моменты

    Если случайные величины X 1 {\displaystyle X_{1}} и X 2 {\displaystyle X_{2}} независимы и имеют нормальное распределение с математическими ожиданиями μ 1 {\displaystyle \mu _{1}} и μ 2 {\displaystyle \mu _{2}} и дисперсиями σ 1 2 {\displaystyle \sigma _{1}^{2}} и σ 2 2 {\displaystyle \sigma _{2}^{2}} соответственно, то X 1 + X 2 {\displaystyle X_{1}+X_{2}} также имеет нормальное распределение с математическим ожиданием μ 1 + μ 2 {\displaystyle \mu _{1}+\mu _{2}} и дисперсией σ 1 2 + σ 2 2 . {\displaystyle \sigma _{1}^{2}+\sigma _{2}^{2}.} Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

    Максимальная энтропия

    Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину .

    Моделирование нормальных псевдослучайных величин

    Простейшие приближённые методы моделирования основываются на центральной предельной теореме . Именно, если сложить несколько независимых одинаково распределённых величин с конечной дисперсией , то сумма будет распределена приблизительно нормально. Например, если сложить 100 независимых стандартно равномерно  распределённых случайных величин, то распределение суммы будет приближённо нормальным .

    Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса - Мюллера . Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

    Нормальное распределение в природе и приложениях

    Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

    • отклонение при стрельбе.
    • погрешности измерений (однако погрешности некоторых измерительных приборов имеют не нормальные распределения).
    • некоторые характеристики живых организмов в популяции.

    Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например, биномиальное и пуассоновское . Этим распределением моделируются многие не детерминированные физические процессы.

    Связь с другими распределениями

    • Нормальное распределение является распределением Пирсона типа XI .
    • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши . То есть, если случайная величина X {\displaystyle X} представляет собой отношение X = Y / Z {\displaystyle X=Y/Z} (где Y {\displaystyle Y} и Z {\displaystyle Z} - независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
    • Если z 1 , … , z k {\displaystyle z_{1},\ldots ,z_{k}} - совместно независимые стандартные нормальные случайные величины, то есть z i ∼ N (0 , 1) {\displaystyle z_{i}\sim N\left(0,1\right)} , то случайная величина x = z 1 2 + … + z k 2 {\displaystyle x=z_{1}^{2}+\ldots +z_{k}^{2}} имеет распределение хи-квадрат с k степенями свободы.
    • Если случайная величина X {\displaystyle X} подчинена логнормальному распределению , то её натуральный логарифм имеет нормальное распределение. То есть, если X ∼ L o g N (μ , σ 2) {\displaystyle X\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} , то Y = ln ⁡ (X) ∼ N (μ , σ 2) {\displaystyle Y=\ln \left(X\right)\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} . И наоборот, если Y ∼ N (μ , σ 2) {\displaystyle Y\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} , то X = exp ⁡ (Y) ∼ L o g N (μ , σ 2) {\displaystyle X=\exp \left(Y\right)\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} .
    • Отношение квадратов двух стандартных нормальных случайных величин имеет имеет

    В статье подробно показано, что такое нормальный закон распределения случайной величины и как им пользоваться при решении практически задач.

    Нормальное распределение в статистике

    История закона насчитывает 300 лет. Первым открывателем стал Абрахам де Муавр, который придумал аппроксимацию еще 1733 году. Через много лет Карл Фридрих Гаусс (1809 г.) и Пьер-Симон Лаплас (1812 г.) вывели математические функции.

    Лаплас также обнаружил замечательную закономерность и сформулировал центральную предельную теорему (ЦПТ ), согласно которой сумма большого количества малых и независимых величин имеет нормальное распределение.

    Нормальный закон не является фиксированным уравнением зависимости одной переменной от другой. Фиксируется только характер этой зависимости. Конкретная форма распределения задается специальными параметрами. Например, у = аx + b – это уравнение прямой. Однако где конкретно она проходит и под каким наклоном, определяется параметрами а и b . Также и с нормальным распределением. Ясно, что это функция, которая описывает тенденцию высокой концентрации значений около центра, но ее точная форма задается специальными параметрами.

    Кривая нормального распределения Гаусса имеет следующий вид.

    График нормального распределения напоминает колокол, поэтому можно встретить название колоколообразная кривая . У графика имеется «горб» в середине и резкое снижение плотности по краям. В этом заключается суть нормального распределения. Вероятность того, что случайная величина окажется около центра гораздо выше, чем то, что она сильно отклонится от середины.

    На рисунке выше изображены два участка под кривой Гаусса: синий и зеленый. Основания, т.е. интервалы, у обоих участков равны. Но заметно отличаются высоты. Синий участок удален от центра, и имеет существенно меньшую высоту, чем зеленый, который находится в самом центре распределения. Следовательно, отличаются и площади, то бишь вероятности попадания в обозначенные интервалы.

    Формула нормального распределения (плотности) следующая.

    Формула состоит из двух математических констант:

    π – число пи 3,142;

    е – основание натурального логарифма 2,718;

    двух изменяемых параметров, которые задают форму конкретной кривой:

    m – математическое ожидание (в различных источниках могут использоваться другие обозначения, например, µ или a );

    σ 2 – дисперсия;

    ну и сама переменная x , для которой высчитывается плотность вероятности.

    Конкретная форма нормального распределения зависит от 2-х параметров: (m ) и (σ 2 ). Кратко обозначается N(m, σ 2) или N(m, σ) . Параметр m (матожидание) определяет центр распределения, которому соответствует максимальная высота графика. Дисперсия σ 2 характеризует размах вариации, то есть «размазанность» данных.

    Параметр математического ожидания смещает центр распределения вправо или влево, не влияя на саму форму кривой плотности.

    А вот дисперсия определяет остроконечность кривой. Когда данные имеют малый разброс, то вся их масса концентрируется у центра. Если же у данных большой разброс, то они «размазываются» по широкому диапазону.

    Плотность распределения не имеет прямого практического применения. Для расчета вероятностей нужно проинтегрировать функцию плотности.

    Вероятность того, что случайная величина окажется меньше некоторого значения x , определяется функцией нормального распределения :

    Используя математические свойства любого непрерывного распределения, несложно рассчитать и любые другие вероятности, так как

    P(a ≤ X < b) = Ф(b) – Ф(a)

    Стандартное нормальное распределение

    Нормальное распределение зависит от параметров средней и дисперсии, из-за чего плохо видны его свойства. Хорошо бы иметь некоторый эталон распределения, не зависящий от масштаба данных. И он существует. Называется стандартным нормальным распределением . На самом деле это обычное нормальное нормальное распределение, только с параметрами математического ожидания 0, а дисперсией – 1, кратко записывается N(0, 1).

    Любое нормальное распределение легко превращается в стандартное путем нормирования:

    где z – новая переменная, которая используется вместо x;
    m – математическое ожидание;
    σ – стандартное отклонение.

    Для выборочных данных берутся оценки:

    Среднее арифметическое и дисперсия новой переменной z теперь также равны 0 и 1 соответственно. В этом легко убедиться с помощью элементарных алгебраических преобразований.

    В литературе встречается название z-оценка . Это оно самое – нормированные данные. Z-оценку можно напрямую сравнивать с теоретическими вероятностями, т.к. ее масштаб совпадает с эталоном.

    Посмотрим теперь, как выглядит плотность стандартного нормального распределения (для z-оценок ). Напомню, что функция Гаусса имеет вид:

    Подставим вместо (x-m)/σ букву z , а вместо σ – единицу, получим функцию плотности стандартного нормального распределения :

    График плотности:

    Центр, как и ожидалось, находится в точке 0. В этой же точке функция Гаусса достигает своего максимума, что соответствует принятию случайной величиной своего среднего значения (т.е. x-m=0 ). Плотность в этой точке равна 0,3989, что можно посчитать даже в уме, т.к. e 0 =1 и остается рассчитать только соотношение 1 на корень из 2 пи.

    Таким образом, по графику хорошо видно, что значения, имеющие маленькие отклонения от средней, выпадают чаще других, а те, которые сильно отдалены от центра, встречаются значительно реже. Шкала оси абсцисс измеряется в стандартных отклонениях, что позволяет отвязаться от единиц измерения и получить универсальную структуру нормального распределения. Кривая Гаусса для нормированных данных отлично демонстрирует и другие свойства нормального распределения. Например, что оно является симметричным относительно оси ординат. В пределах ±1σ от средней арифметической сконцентрирована большая часть всех значений (прикидываем пока на глазок). В пределах ±2σ находятся большинство данных. В пределах ±3σ находятся почти все данные. Последнее свойство широко известно под названием правило трех сигм для нормального распределения.

    Функция стандартного нормального распределения позволяет рассчитывать вероятности.

    Понятное дело, вручную никто не считает. Все подсчитано и размещено в специальных таблицах, которые есть в конце любого учебника по статистике.

    Таблица нормального распределения

    Таблицы нормального распределения встречаются двух типов:

    — таблица плотности ;

    — таблица функции (интеграла от плотности).

    Таблица плотности используется редко. Тем не менее, посмотрим, как она выглядит. Допустим, нужно получить плотность для z = 1 , т.е. плотность значения, отстоящего от матожидания на 1 сигму. Ниже показан кусок таблицы.

    В зависимости от организации данных ищем нужное значение по названию столбца и строки. В нашем примере берем строку 1,0 и столбец 0 , т.к. сотых долей нет. Искомое значение равно 0,2420 (0 перед 2420 опущен).

    Функция Гаусса симметрична относительно оси ординат. Поэтому φ(z)= φ(-z) , т.е. плотность для 1 тождественна плотности для -1 , что отчетливо видно на рисунке.

    Чтобы не тратить зря бумагу, таблицы печатают только для положительных значений.

    На практике чаще используют значения функции стандартного нормального распределения, то есть вероятности для различных z .

    В таких таблицах также содержатся только положительные значения. Поэтому для понимания и нахождения любых нужных вероятностей следует знать свойства стандартного нормального распределения .

    Функция Ф(z) симметрична относительно своего значения 0,5 (а не оси ординат, как плотность). Отсюда справедливо равенство:

    Это факт показан на картинке:

    Значения функции Ф(-z) и Ф(z) делят график на 3 части. Причем верхняя и нижняя части равны (обозначены галочками). Для того, чтобы дополнить вероятность Ф(z) до 1, достаточно добавить недостающую величину Ф(-z) . Получится равенство, указанное чуть выше.

    Если нужно отыскать вероятность попадания в интервал (0; z) , то есть вероятность отклонения от нуля в положительную сторону до некоторого количества стандартных отклонений, достаточно от значения функции стандартного нормального распределения отнять 0,5:

    Для наглядности можно взглянуть на рисунок.

    На кривой Гаусса, эта же ситуация выглядит как площадь от центра вправо до z .

    Довольно часто аналитика интересует вероятность отклонения в обе стороны от нуля. А так как функция симметрична относительно центра, предыдущую формулу нужно умножить на 2:

    Рисунок ниже.

    Под кривой Гаусса это центральная часть, ограниченная выбранным значением –z слева и z справа.

    Указанные свойства следует принять во внимание, т.к. табличные значения редко соответствуют интересующему интервалу.

    Для облегчения задачи в учебниках обычно публикуют таблицы для функции вида:

    Если нужна вероятность отклонения в обе стороны от нуля, то, как мы только что убедились, табличное значение для данной функции просто умножается на 2.

    Теперь посмотрим на конкретные примеры. Ниже показана таблица стандартного нормального распределения. Найдем табличные значения для трех z : 1,64, 1,96 и 3.

    Как понять смысл этих чисел? Начнем с z=1,64 , для которого табличное значение составляет 0,4495 . Проще всего пояснить смысл на рисунке.

    То есть вероятность того, что стандартизованная нормально распределенная случайная величина попадет в интервал от 0 до 1,64 , равна 0,4495 . При решении задач обычно нужно рассчитать вероятность отклонения в обе стороны, поэтому умножим величину 0,4495 на 2 и получим примерно 0,9. Занимаемая площадь под кривой Гаусса показана ниже.

    Таким образом, 90% всех нормально распределенных значений попадает в интервал ±1,64σ от средней арифметической. Я не случайно выбрал значение z=1,64 , т.к. окрестность вокруг средней арифметической, занимающая 90% всей площади, иногда используется для и расчета доверительных интервалов. Если проверяемое значение не попадает в обозначенную область, то его наступление маловероятно (всего 10%).

    Для проверки гипотез, однако, чаще используется интервал, накрывающий 95% всех значений. Половина вероятности от 0,95 – это 0,4750 (см. второе выделенное в таблице значение).

    Для этой вероятности z=1,96. Т.е. в пределах почти ±2σ от средней находится 95% значений. Только 5% выпадают за эти пределы.

    Еще одно интересное и часто используемое табличное значение соответствует z=3 , оно равно по нашей таблице 0,4986 . Умножим на 2 и получим 0,997 . Значит, в рамках ±3σ от средней арифметической заключены почти все значения.

    Так выглядит правило 3 сигм для нормального распределения на диаграмме.

    С помощью статистических таблиц можно получить любую вероятность. Однако этот метод очень медленный, неудобный и сильно устарел. Сегодня все делается на компьютере. Далее переходим к практике расчетов в Excel.

    Нормальное распределение в Excel

    В Excel есть несколько функций для подсчета вероятностей или обратных значений нормального распределения.

    Функция НОРМ.СТ.РАСП

    Функция НОРМ.СТ.РАСП предназначена для расчета плотности ϕ(z ) или вероятности Φ(z) по нормированным данным (z ).

    =НОРМ.СТ.РАСП(z;интегральная)

    z – значение стандартизованной переменной

    интегральная – если 0, то рассчитывается плотность ϕ(z ) , если 1 – значение функции Ф(z), т.е. вероятность P(Z

    Рассчитаем плотность и значение функции для различных z: -3, -2, -1, 0, 1, 2, 3 (их укажем в ячейке А2).

    Для расчета плотности потребуется формула =НОРМ.СТ.РАСП(A2;0). На диаграмме ниже – это красная точка.

    Для расчета значения функции =НОРМ.СТ.РАСП(A2;1). На диаграмме – закрашенная площадь под нормальной кривой.

    В реальности чаще приходится рассчитывать вероятность того, что случайная величина не выйдет за некоторые пределы от средней (в среднеквадратичных отклонениях, соответствующих переменной z ), т.е. P(|Z|.

    Определим, чему равна вероятность попадания случайной величины в пределы ±1z, ±2z и ±3z от нуля. Потребуется формула 2Ф(z)-1 , в Excel =2*НОРМ.СТ.РАСП(A2;1)-1.

    На диаграмме отлично видны основные основные свойства нормального распределения, включая правило трех сигм. Функция НОРМ.СТ.РАСП – это автоматическая таблица значений функции нормального распределения в Excel.

    Может стоять и обратная задача: по имеющейся вероятности P(Z найти стандартизованную величину z ,то есть квантиль стандартного нормального распределения.

    Функция НОРМ.СТ.ОБР

    НОРМ.СТ.ОБР рассчитывает обратное значение функции стандартного нормального распределения. Синтаксис состоит из одного параметра:

    =НОРМ.СТ.ОБР(вероятность)

    вероятность – это вероятность.

    Данная формула используется так же часто, как и предыдущая, ведь по тем же таблицам искать приходится не только вероятности, но и квантили.

    Например, при расчете доверительных интервалов задается доверительная вероятность, по которой нужно рассчитать величину z .

    Учитывая то, что доверительный интервал состоит из верхней и нижней границы и то, что нормальное распределение симметрично относительно нуля, достаточно получить верхнюю границу (положительное отклонение). Нижняя граница берется с отрицательным знаком. Обозначим доверительную вероятность как γ (гамма), тогда верхняя граница доверительного интервала рассчитывается по следующей формуле.

    Рассчитаем в Excel значения z (что соответствует отклонению от средней в сигмах) для нескольких вероятностей, включая те, которые наизусть знает любой статистик: 90%, 95% и 99%. В ячейке B2 укажем формулу: =НОРМ.СТ.ОБР((1+A2)/2). Меняя значение переменной (вероятности в ячейке А2) получим различные границы интервалов.

    Доверительный интервал для 95% равен 1,96, то есть почти 2 среднеквадратичных отклонения. Отсюда легко даже в уме оценить возможный разброс нормальной случайной величины. В общем, доверительным вероятностям 90%, 95% и 99% соответствуют доверительные интервалы ±1,64, ±1,96 и ±2,58 σ.

    В целом функции НОРМ.СТ.РАСП и НОРМ.СТ.ОБР позволяют произвести любой расчет, связанный с нормальным распределением. Но, чтобы облегчить и уменьшить количество действий, в Excel есть несколько других функций. Например, для расчета доверительных интервалов средней можно использовать ДОВЕРИТ.НОРМ. Для проверки о средней арифметической есть формула Z.ТЕСТ.

    Рассмотрим еще пару полезных формул с примерами.

    Функция НОРМ.РАСП

    Функция НОРМ.РАСП отличается от НОРМ.СТ.РАСП лишь тем, что ее используют для обработки данных любого масштаба, а не только нормированных. Параметры нормального распределения указываются в синтаксисе.

    =НОРМ.РАСП(x;среднее;стандартное_откл;интегральная)

    среднее – математическое ожидание, используемое в качестве первого параметра модели нормального распределения

    стандартное_откл – среднеквадратичное отклонение – второй параметр модели

    интегральная – если 0, то рассчитывается плотность, если 1 – то значение функции, т.е. P(X

    Например, плотность для значения 15, которое извлекли из нормальной выборки с матожиданием 10, стандартным отклонением 3, рассчитывается так:

    Если последний параметр поставить 1, то получим вероятность того, что нормальная случайная величина окажется меньше 15 при заданных параметрах распределения. Таким образом, вероятности можно рассчитывать напрямую по исходным данным.

    Функция НОРМ.ОБР

    Это квантиль нормального распределения, т.е. значение обратной функции. Синтаксис следующий.

    =НОРМ.ОБР(вероятность;среднее;стандартное_откл)

    вероятность – вероятность

    среднее – матожидание

    стандартное_откл – среднеквадратичное отклонение

    Назначение то же, что и у НОРМ.СТ.ОБР , только функция работает с данными любого масштаба.

    Пример показан в ролике в конце статьи.

    Моделирование нормального распределения

    Для некоторых задач требуется генерация нормальных случайных чисел. Готовой функции для этого нет. Однако В Excel есть две функции, которые возвращают случайные числа: СЛУЧМЕЖДУ и СЛЧИС. Первая выдает случайные равномерно распределенные целые числа в указанных пределах. Вторая функция генерирует равномерно распределенные случайные числа между 0 и 1. Чтобы сделать искусственную выборку с любым заданным распределением, нужна функция СЛЧИС .

    Допустим, для проведения эксперимента необходимо получить выборку из нормально распределенной генеральной совокупности с матожиданием 10 и стандартным отклонением 3. Для одного случайного значения напишем формулу в Excel.

    НОРМ.ОБР(СЛЧИС();10;3)

    Протянем ее на необходимое количество ячеек и нормальная выборка готова.

    Для моделирования стандартизованных данных следует воспользоваться НОРМ.СТ.ОБР.

    Процесс преобразования равномерных чисел в нормальные можно показать на следующей диаграмме. От равномерных вероятностей, которые генерируются формулой СЛЧИС, проведены горизонтальные линии до графика функции нормального распределения. Затем от точек пересечения вероятностей с графиком опущены проекции на горизонтальную ось.

    Нормальный закон распределения наиболее часто встречается на практике. Главная особенность, выделяющая его среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.

    Определение. Непрерывная случайная величина Х имеет нормальный закон распределения (закон Гаусса ) с параметрами а и σ 2 , если ее плотность вероятности f (x ) имеет вид :

    . (6.19)

    Кривую нормального закона распределения называют нормальной или гауссовой кривой . На рис. 6.5 а), б) показана нормальная кривая с параметрами а и σ 2 и график функции распределения.

    Обратим внимание на то, что нормальная кривая симметрична относительно прямой х = а , имеет максимум в точке х = а , равный , и две точки перегиба х = а σ с ординатами .

    Можно заметить, что в выражении плотности нормального закона параметры распределения обозначены буквами а и σ 2 , которыми мы обозначали математическое ожидание и дисперсию. Такое совпадение не случайно. Рассмотрим теорему, которая устанавливает теоретико-вероятностный смысл параметров нормального закона.

    Теорема. Математическое ожидание случайной величины Х, распределенной по нормальному закону, равно параметру a этого распределения , т.е.

    М (Х ) = а , (6.20)

    а ее дисперсия – параметру σ 2 , т.е.

    D (X ) = σ 2 . (6.21)

    Выясним, как будет меняться нормальная кривая при изменении параметров а и σ .

    Если σ = const, и меняется параметр a (а 1 < а 2 < а 3), т.е. центр симметрии распределения, то нормальная кривая будет смещаться вдоль оси абсцисс, не меняя формы (рис. 6.6).

    Рис. 6.6

    Рис. 6.7

    Если а = const и меняется параметр σ , то меняется ордината максимума кривой f max (a ) = . При увеличении σ ордината максимума уменьшается, но так как площадь под любой кривой распределения должна оставаться равной единице, то кривая становится более плоской, растягиваясь вдоль оси абсцисс. При уменьшении σ , напротив, нормальная кривая вытягивается вверх, одновременно сжимаясь с боков (рис. 6.7).

    Таким образом, параметр a характеризует положение, а параметр σ – форму нормальной кривой.

    Нормальный закон распределения случайной величины с параметрами a = 0 и σ = 1 называется стандартным или нормированным , а соответствующая нормальная кривая – стандартной или нормированной .

    Сложность непосредственного нахождения функции распределения случайной величины, распределенной по нормальному закону, связана с тем, что интеграл от функции нормального распределения не выражается через элементарные функции. Однако его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения или . Такую функцию называют функцией Лапласа , для нее составлены таблицы. Существует много разновидностей такой функции, например:

    , .

    Мы будем использовать функцию

    Рассмотрим свойства случайной величины, распределенной по нормальному закону.

    1. Вероятность попадания случайной величины Х, распределенной по нормальному закону, в интервал [α , β ] равна

    Вычислим по этой формуле вероятности при различных значениях δ (используя таблицу значений функции Лапласа):

    при δ = σ = 2Ф(1) = 0,6827;

    при δ = 2σ = 2Ф(2) = 0,9545;

    при δ = 3σ = 2Ф(3) = 0,9973.

    Отсюда вытекает так называемое «правило трех сигм »:

    Если случайная величина Х имеет нормальный закон распределения с параметрами a и σ, то практически достоверно, что ее значения заключены в интервале (a – 3σ ; a + 3σ ).

    Пример 6.3. Полагая, что рост мужчин определенной возрастной группы есть нормально распределенная случайная величина Х с параметрами а = 173 и σ 2 = 36, найти:

    1. Выражение плотности вероятности и функции распределения случайной величины Х ;

    2. Долю костюмов 4-го роста (176 – 183 см) и долю костюмов 3-го роста (170 – 176 см), которые нужно предусмотреть в общем объеме производства для данной возрастной группы;

    3. Сформулировать «правило трех сигм» для случайной величины Х .

    1. Находим плотность вероятности

    и функцию распределения случайной величины Х

    = .

    2. Долю костюмов 4-го роста (176 – 182 см) находим как вероятность

    Р (176 ≤ Х ≤ 182) = = Ф(1,5) – Ф(0,5).

    По таблице значений функции Лапласа (Приложение 2 ) находим:

    Ф(1,5) = 0,4332, Ф(0,5) = 0,1915.

    Окончательно получаем

    Р (176 ≤ Х ≤ 182) = 0,4332 – 0,1915 = 0,2417.

    Долю костюмов 3-го роста (170 – 176 см) можно найти аналогично. Однако проще это сделать, если учесть, что данный интервал симметричен относительно математического ожидания а = 173, т.е. неравенство 170 ≤ Х ≤ 176 равносильно неравенству │Х – 173│≤ 3. Тогда

    Р (170 ≤Х ≤176) = Р (│Х – 173│≤ 3) = 2Ф(3/6) = 2Ф(0,5) = 2·0,1915 = 0,3830.

    3. Сформулируем «правило трех сигм» для случайной величины Х:

    Практически достоверно, что рост мужчин данной возрастной группы заключен в границах от а – 3σ = 173 – 3·6 = 155 до а + 3σ = 173 + 3·6 = 191, т.е. 155 ≤ Х ≤ 191. ◄


    7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

    Как уже говорилось при изучении случайных величин, невозможно заранее предсказать, какое значение примет случайная величина в результате единичного испытания – это зависит от многих причин, учесть которые невозможно.

    Однако при многократном повторении испытаний характер поведения суммы случайных величин почти утрачивает случайный характер и становится закономерным. Наличие закономерностей связано именно с массовостью явлений, порождающих в своей совокупности случайную величину, подчиненную вполне определенному закону. Суть устойчивости массовых явлений сводится к следующему: конкретные особенности каждого отдельного случайного явления почти не сказываются на среднем результате массы таких явлений; случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются.

    Именно эта устойчивость средних и представляет собой физическое содержание «закона больших чисел», понимаемого в широком смысле слова: при очень большом числе случайных явлений их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.

    В узком смысле слова под «законом больших чисел» в теории вероятностей понимается ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа опытов к некоторым определенным постоянным.

    Закон больших чисел играет важную роль в практических применениях теории вероятностей. Свойство случайных величин при определенных условиях вести себя практически как не случайные позволяет уверенно оперировать этими величинами, предсказывать результаты массовых случайных явлений почти с полной определенностью.

    Возможности таких предсказаний в области массовых случайных явлений еще больше расширяются наличием другой группы предельных теорем, касающихся уже не предельных значений случайных величин, а предельных законов распределения. Речь идет о группе теорем, известных под названием «центральной предельной теоремы». Различные формы центральной предельной теоремы различаются между собой теми условиями, для которых устанавливается это предельное свойство суммы случайных величин.

    Различные формы закона больших чисел с различными формами центральной предельной теоремы образуют совокупность так называемых предельных теорем теории вероятностей. Предельные теоремы дают возможность не только осуществлять научные прогнозы в области случайных явлений, но и оценивать точность этих прогнозов.

    В различных отраслях науки и техники, а также метрологической практике закон нормального распределения (или просто нормальный закон) нашел наибольшее применение. Этому закону подчиняются многие случайные непрерывные величины. Широкое применение закона нормального распределения объясняется центральной предельной теоремой. Из этой теоремы следует, что если случайная величина X представляет собой сумму взаимно независимых случайных величин х р х 2 , ..., х, влияние каждой из которых на всю сумму незначительно, то независимо оттого, каким законам распределения подчиняется каждое из слагаемы х п, сама величина X будет иметь распределение вероятностей, близкое к нормальному, и тем точнее, чем больше число слагаемых.

    Дифференциальная функция распределения или плотность распределения вероятности случайной непрерывной величины, подчиняющейся нормальному закону, имеет вид:

    где х - переменная случайная величина (результат наблюдений); о х, а д - среднее квадратическое отклонение результатов наблюдений случайной составляющей их погрешности; т х - математическое

    ожидание; в - основание натуральных логарифмов, е = 2, 71828.

    Следует помнить, что о х = а д.

    Дифференциальная функция нормального распределения графически выражается в виде колоколообразной кривой (кривая Гаусса), представленной на рис. 5.8.

    Функция Ф(А) нормированного нормального распределения (интеграл Гаусса) в табличном виде представлена в приложении А.

    Как видно на рис. 5.8, кривая нормального распределения случайной величины х результатов измерений симметрична относительно математического ожидания.

    Если х - результаты многократных наблюдений одной и той же детерминированной физической величины, то указанная выше кривая симметрична относительно математического ожидания результатов этих наблюдений.

    Как уже говорилось ранее, если в качестве случайной величины принята случайная погрешность А со средним квадратическим отклонением а д, эта кривая симметрична относительно оси ординат (рис. 5.9).

    Положение кривой Р х (х) =/(х) относительно начала координат определяется значением математического ожидания. Причем обычно на практике берется не математическое ожидание, а среднее арифметическое результатов многократных наблюдений X.

    Форма кривой нормального распределения определяется параметром а. Как было показано ранее, чем меньше а, тем более островершинной становится кривая, а ее ветви сближаются (см. рис. 5.4).

    Вероятность попадания результата наблюдения в заданный интервал [х р х 2 ] равна площади под кривой нормального распределения, ограниченной нижней Xj и верхней х 7 границами доверительного интервала (рис. 5.10).

    Выразим это математически:

    Производя замену переменных и их подстановку, получим

    В теории вероятностей и метрологии для определения вероятности попадания результата наблюдений в некоторый интервал применяется так называемая нормированная функция Лапласа Ф(Z) =

    = которая табулирована. Условия нормирования

    заключаются в том, что значение среднего арифметического результатов измерений X принимается равным нулю, а среднее квадратическое отклонение о = 1. В этом случае параметром является величина

    Значения функции Лапласа приведены в приложении Б. Используя функцию Лапласа, можно следующим образом определить вероятность попадания результата наблюдения X в интервал (х, х 2):

    Приведенное выражение говорит о том, что вероятность попадания результата наблюдения в заданный интервал [х р х-,] равна разнице значений функции Лапласа в точках верхней и нижней границ доверительного интервала.

    При рассмотрении этой формулы следует иметь в виду, что O(-Z) = = -0(Z).

    Моменты функции распределения случайной погрешности А, распределенной по нормальному закону:

    Интегральная функция нормального распределения, представленная на рис. 5.11, выражается через дифференциальную следующим образом:


    Правило трех сигм. На практике достаточно часто требуется оценить вероятность того, что отклонение нормально распределенной величины X по абсолютному значению не превышает определенный размер, который обычно принимается равным положительному числу 8.

    Другими словами, требуется найти вероятность того, что осуществляется неравенство Х-а 5.

    Это неравенство равносильно следующему: - Ь или (а-Ъ) +5).

    Используя правило, что вероятность попадания нормально распределенной случайной величины в заданный интервал равна разнице значений функции Лапласа на границах этого интервала, т.е. Р(а (3) =

    = ", получим

    При а = 0 получим

    Если положить, что 5 = За, получим

    Таким образом, вероятность отклонения истинного значения случайной величины X по абсолютному значению будет меньше утроенного значения среднего квадратического отклонения. Это и есть правило трех сигм.

    Формулируется оно следующим образом: если случайная величина распределена нормально, то абсолютное значение максимального отклонения результата измерения от математического ожидания не превосходит утроенного среднего квадратического отклонения.

    Это правило применимо и следующим образом: если распределение случайной величины неизвестно, но условие, указанное в правиле трех сигм, соблюдается, то есть основание предполагать, что изучаемая случайная величина распределена нормально, в противном случае - нет.

    Контрольные вопросы

    • 1. Дифференциальная функция распределения результатов измерений и случайной погрешности, подчиняющаяся нормальному закону. Аналитическая зависимость, графический вид, начальный и центральные моменты.
    • 2. Интегральная функция, соответствующая нормальному закону распределения.
    • 3. Правило трех сигм.