close

Вход

Забыли?

вход по аккаунту

?

60.П о ж и д а е в А.В., В ы л е г ж а н и н И.А. Математика

код для вставкиСкачать
СИБИРСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПУТЕЙ СООБЩЕНИЯ
А.В. ПОЖИДАЕВ, И.А. ВЫЛЕГЖАНИН
МАТЕМАТИКА
Курс лекций
для студентов технических специальностей
Часть IV
Новосибирск 2009
УДК 51
П466
П о ж и д а е в А.В., В ы л е г ж а н и н И.А. Математика: Курс лекций для
студентов технических специальностей. Ч. IV. — Новосибирск: Изд-во СГУПСа,
2009. — 138 с.
ISBN 5-93461-365-0
Пособие содержит основы теории вероятностей и математической статистики. Предназначено для
студентов технических специальностей СГУПСа.
Утверждено редакционно-издательским советом университета в качестве учебного пособия.
Ответственный редактор
д-р физ.-мат. наук, проф. А.В. Пожидаев
Р е ц е н з е н т ы:
кафедра «Высшая математика» Сибирской государственной геодезической академии» (зав. кафедрой канд. техн. наук, проф. Ю.Г. Костына)
заведующий кафедрой «Теоретическая механика» Сибирского государственного
университета путей сообщения д-р техн. наук, проф. А.М. Попов
ISBN 5-93461-365-0
© Пожидаев А.В., Вылегжанин И.А., 2009
© Сибирский государственный университет
путей сообщения, 2009
Содержание:
Введение
Лекция 1 Основы комбинаторики
Лекция 2 Классическое определение вероятности
Лекция 3 Основные теоремы классической теории вероятностей
Лекция 4 Повторение испытаний
Лекция 5 Дискретная случайная величина (ДСВ)
Лекция 6 Числовые характеристики ДСВ
Лекция 7 Непрерывная случайная величина (НСВ)
Лекция 8 Числовые характеристики НСВ
Лекция 9 Законы равномерного и нормального распределений
Лекция 10 Предельные теоремы теории вероятностей
Лекция 11 Цепи Маркова
Лекция 12 Основные понятия математической статистики
Лекция 13 Статистические оценки параметров распределения
Лекция 14 Статистические оценки параметров распределения
(окончание)
Лекция 15 Системы случайных величин
Лекция 16 Элементы теории корреляции
Лекция 17 Статистическая проверка статистических гипотез
Приложения
Список литературы
Основные обозначения
Предметный указатель
4
5
12
19
27
35
43
50
57
63
71
78
85
92
100
106
113
121
129
133
134
135
3
Введение
Учебное пособие является продолжением первых трех частей
данного курса лекций и так же рассчитано на 34-часовой семестровый курс
математики. Объем каждой лекции, приведенной в пособии, соответствует
реальной
двухчасовой
устной
лекции.
Приведенные
примеры
предназначены прежде всего для самоконтроля читателей. Определения и
теоремы, как правило, снабжены поясняющими иллюстрациями. Всюду, где
возможно, наиболее сложным понятиям даются геометрическая и (или)
физическая интерпретации.
Курс лекций третьего семестра содержит
основы теории
вероятностей и математической статистики и может рассматриваться также
как самостоятельное учебное пособие вне связи с первыми тремя частями
пособия.
4
Лекция 1 Основы комбинаторики
Комбинаторика – раздел математики, посвященный решению задач выбора
и расположения элементов некоторого (как правило - конечного) множества
в соответствии с заданными правилами.
Формула включений и исключений
Пример1:
В некотором учреждении работают 67 сотрудников, из которых 49 владеют
английским языком, 32 – французским и 14 – английским и французским.
Сколько сотрудников не владеют ни английским ни французским языками?
Решение: Представим условие задачи в виде диаграммы:
Рис. 1 Пример 1: Формула включений и исключений
Если от общего числа сотрудников отнять 49 и 32, то тем самым дважды
отнимем количество сотрудников, владеющих двумя языками. Значит,
количество сотрудников, не владеющих ни английским ни французским,
равно 67 − 49 − 32 + 14 = 0 .
Пример 2:
В некотором учреждении работают 100 сотрудников, из которых 49
владеют английским языком, 32 – французским, 29 – немецким. При этом 8
сотрудников владеют английским и французским, 9 – английским и
немецким, 7 – немецким и французским и 5 – всеми тремя языками.
Сколько сотрудников не владеют ни английским ни французским ни
немецким языками?
Решение: Снова представим условие задачи в виде диаграммы:
5
Рис. 2 Пример 2: Формула включений и исключений
вычитая из общего количества сотрудников 49, 32 и 29, тем самым дважды
вычтем тех, кто владеет двумя языками и трижды – тех кто владеет тремя.
Прибавив к полученному числу 8, 7 и 9, получим, что трижды прибавили
тех, кто владеет тремя языками. Вычтем из полученного числа 5, получим
ответ: 100 − 49 − 32 − 29 + 8 + 9 + 7 − 5 = 9 .
Замечание: использованные в примере диаграммы называются кругами
Эйлера (или Эйлера-Вьенна).
На основе рассмотренных примеров можно вывести общее правило: пусть
имеются N объектов, некоторые из которых обладают свойствами
a1 , a 2 ,...a n .
Обозначим
обладающих
свойствами
N (a i , a j ...a k )
i =1
i , j =1
i≠ j
объектов,
a1 , a 2 ,...a n будет равно
N 0 = N − ∑ N (a i ) + ∑ N (a i , a j ) −
n
количество
a i , a j ,...a k . Количество объектов, не
обладающих ни одним из свойств
n
-
∑ N (a , a
n
i
, a k ) + ... + (− 1) N (a1 , a 2 ...a n )
n
j
i , j , k =1
i≠ j ≠k
Это правило называется формулой включений и исключений.
Принцип сложения и принцип умножения
Принцип сложения: Если некоторое действие А можно выполнить m
различными способами, а независимое от А действие В – n различными
способами, то действие С, заключающееся в выполнении действия А или
действия В можно выполнить m+n различными способами.
6
Принцип умножения: Если некоторое действие А можно выполнить m
различными способами, а независимое от А действие В – n различными
способами, то действие С, заключающееся в выполнении А и В можно
выполнить mn различными способами.
Примеры:
1) Из пункта А в пункт В ведут 6 дорог, а из пункта В в пункт С – 7 дорог.
Сколько различных дорог ведут из пункта А в пункт С через пункт В?
Решение: По принципу умножения получаем: 6 ⋅ 7 = 42 .
2) В одной студенческой группе – 23 человека, а в другой – 24 человека.
Сколько существует различных способов выбрать одного студента из двух
групп? Сколько существует различных способов выбрать двух студентов,
по одному из каждой группы?
Решение: Выбрать студента из первой группы можно 23 способами.
Независимо от этого, выбрать студента из второй группы можно 24
способами. По принципу сложения выбрать одного студента из двух групп
можно 23 + 24 = 47 способами. По принципу умножения выбрать по
одному студенту из двух групп можно 23 ⋅ 24 = 552 способами.
Выборки
Определение: Пусть дано некоторое множество М, состоящее из n
элементов. Неупорядоченной выборкой без возвращений (сочетанием) из
множества М называется любой неупорядоченный набор различных
элементов этого множества {a1 , a 2 ,...a k }; k ≤ n .
Определение: Пусть дано некоторое множество М, состоящее из n
элементов. Неупорядоченной выборкой с возвращениями из множества М
называется любой неупорядоченный набор элементов этого множества
(среди которых могут быть одинаковые) {a1 , a 2 ,...a k }; k ≤ n .
Определение: Пусть дано некоторое множество М, состоящее из n
элементов. Упорядоченной выборкой без возвращений (размещением) из
множества М называется любой упорядоченный набор различных
элементов этого множества {a1 , a 2 ,...a k }; k ≤ n . Если
n =k, то вместо
термина «размещение» используют термин перестановка.
Определение: Пусть дано некоторое множество М, состоящее из n
элементов, среди которых могут быть одинаковые и при этом среди n
элементов имеется ровно k элементов разных типов. Различные
7
перестановки всех элементов множества М называются перестановками с
повторениями.
Определение: Пусть дано некоторое множество М, состоящее из n
элементов. Упорядоченной выборкой с возвращениями из множества М
называется любой упорядоченный набор элементов этого множества (среди
которых могут быть одинаковые) {a1 , a 2 ,...a k }; k ≤ n .
Теорема (о количестве выборок). Пусть множество М содержит n
элементов, тогда:
1) Количество различных упорядоченных выборок с возвращениями
по k элементов определяется формулой
A(kn ) = n k .
2) Количество различных размещений по k элементов определяется
n!
k
(выражение An читается «а из эн по
(n − k )!
ка». В частности, число различных перестановок Pn равно n!.
формулой
Ank =
3) Количество различных сочетаний по k элементов определяется
формулой
C nk =
n!
k
(выражение C n читается «це из эн по
k!(n − k )!
ка»
4) Количество различных перестановок с повторениями n элементов k
типов при условии, что элементов первого типа - n1 , второго -
n2 ,… , последнего - nk , равно
n!
P(n, k ) =
n1!⋅n 2 !⋅... ⋅ n k !
5) Количество
различных
возвращениями по k
C (kn ) = C nk+ k −1 =
неупорядоченных
выборок
с
элементов определяется формулой
(n + k − 1)!
k!(n − 1)!
Доказательство: 1) Осуществляем упорядоченную выборку, поэтому будем
нумеровать выбранные элементы. Первый элемент можно выбрать n
способами. Второй элемент снова можно выбрать n способами. По
2
принципу умножения первые два элемента можно выбрать n способами.
Третий элемент снова можно выбрать n способами, значит, по принципу
8
умножения первые три элемента можно выбрать n ⋅ n = n способами.
Продолжая эти рассуждения до последнего k-го элемента, получим
утверждение теоремы.
2) Первый элемент можно выбрать n способами. Второй элемент можно
выбрать n − 1 способом (т.к. один элемент уже выбран и второй раз его
выбирать нельзя). По принципу умножения первые два элемента можно
выбрать n(n − 1) способами. Третий элемент можно выбрать n − 2
способами, значит, по принципу умножения первые три элемента можно
выбрать n(n − 1)(n − 2 ) способами. Продолжая эти рассуждения до
последнего k –го элемента, получим, что k элементов можно выбрать
n(n − 1)(n − 2)...(n − k + 1)
способами,
но
2
n(n − 1)(n − 2)...(n − k + 1) =
В частности, при
3
n(n − 1)(n − 2)...(n − k + 1)(n − k )...3 ⋅ 2 ⋅ 1
n! .
=
(n − k )(n − k − 1)...3 ⋅ 2 ⋅ 1
(n − k )!
n = k с учетом того, что 0!=1, получим Pn = n! .
3) Осуществим сначала упорядоченные выборки без возвращений. Это
можно сделать
Ank =
n!
способами. Теперь нас не интересует
(n − k )!
порядок расположения элементов внутри выборки, интересует только сам
набор в целом. Поэтому выборки с одним и тем же набором элементов,
отличающиеся лишь порядком расположения будем считать одинаковыми.
k элементов можно переставить между собой k! различными способами
(по пункту 3) данной теоремы). Разобьем теперь все множество
упорядоченных выборок без возвращений на подмножества, в каждом из
которых будут содержаться выборки с фиксированным набором элементов,
отличающиеся только порядком расположения элементов. Количество этих
подмножеств и будет равно числу сочетаний. Всего выборок
n!
, в каждом подмножестве выборок ровно
(n − k )!
Ak
n!
k
k!, значит, число сочетаний равно C n = n =
.
k! k!(n − k )!
(упорядоченных)
Ank =
4) Если бы все элементы были одинаковыми, то, согласно второй части
теоремы, количество перестановок было бы равно n! Из-за того, что
некоторые (или все) элементы могут быть одинаковыми, получим,
очевидно, меньшее количество перестановок. Рассмотрим, например,
перестановку
9
x1 x1 ...x1 x 2 x 2 ...x 2 ……… x k x k ...x k .
n1
n2
nk
n1 одинаковых элементов можно переставлять между собой n1!
способами, следующие n 2 можно переставлять n 2 ! способами, и т.д. При
Первые
этом общая перестановка не изменится, так как переставляются одинаковые
элементы. Перестановки элементов одного типа можно делать независимо
от перестановок элементов другого типа, поэтому, по принципу умножения,
элементы перестановки
x1 x1 ...x1 x 2 x 2 ...x 2 ……… x k x k ...x k можно переставлять
n1
n2
nk
n1!⋅n2 !⋅...nk ! способами и при этом перестановка останется
n!
.
неизменной. Значит, P (n, k ) =
n1!⋅n 2 !⋅... ⋅ n k !
между собой
5) Сопоставим каждой неупорядоченной выборке с возвращениями
комбинацию нулей и единиц по следующему правилу: запишем сначала
столько единиц, сколько элементов первого типа имеется в выборке, затем
напишем 0, затем запишем столько единиц, сколько элементов второго типа
имеется в выборке, затем снова 0 и т.д. В последнюю очередь запишем
столько единиц, сколько элементов последнего типа имеется в выборке. В
этой комбинации будет столько единиц, сколько всего предметов находится
в выборке, то есть k . Нулей в комбинации будет на 1 меньше, чем число
типов элементов, то есть n − 1 . Значит, каждой неупорядоченной выборке с
возвращениями соответствует перестановка с повторениями из k единиц и
n − 1 нулей. Из четвертой части теоремы следует, что
C (kn ) =
(n + k − 1)!
k!(n − 1)!
Теорема доказана.
Рассмотренные выборки встречаются в различных приложениях. Так, в
статистической физике возникает задача об изучении распределения n
элементарных частиц по k энергетическим уровням. Оказалось, что
электроны, протоны и нейтроны образуют неупорядоченные выборки без
возвращений (статистика Ферми-Дирака), а фотоны и пи-мезоны –
неупорядоченные выборки с возвращениями (статистика Бозе-Эйнштейна).
10
Пример1:
1) Сколькими способами можно выбрать три различные краски из
имеющихся пяти?
Решение: поскольку порядок красок не важен и краски должны быть
различными, то речь идет о неупорядоченной выборке без возвращений.
Значит,
C 53 =
5!
4⋅5
=
= 10 .
3!(5 − 3)!
2
2) Сколькими способами можно составить трехцветный полосатый флаг с
вертикальными полосами одинаковой ширины, если имеется материал пяти
различных цветов?
Решение: Порядок красок в этом случае важен и, поскольку цвета должны
быть разными (флаг – трехцветный), то здесь речь идет об упорядоченных
выборках без возвращений.
A53 =
5!
5!
= = 3 ⋅ 4 ⋅ 5 = 60
(5 − 3)! 2!
3) Сколькими способами можно составить трехцветный полосатый флаг с
вертикальными полосами одинаковой ширины, если имеется материал пяти
различных цветов и одна из полос должна быть красной?
Решение: Красная полоса может занимать одно из трех мест. Для остальных
двух мест нужно упорядоченно выбрать два цвета из оставшихся четырех.
По принципу умножения получим:
3 ⋅ A42 = 3 ⋅
4!
= 3 ⋅ 4 ⋅ 3 = 36 .
(4 − 2)!
Пример 2:
1)Требуется отправить 6 срочных сообщений. Сколькими способами можно
это сделать, если для передачи сообщений имеются три канала и каждое
сообщение можно послать по любому из этих каналов?
Решение: Каждому посланию будет соответствовать один из трех каналов.
Значит, из трех каналов упорядоченным образом выбираем шесть (для
каждого из посланий). Значит, речь идет об упорядоченных выборках с
возвращениями и
A(63) = 36 = 729 .
Пример 3:
Сколько различных «буквосочетаний» можно получить, переставляя буквы
в слове «математика»?
Решение: В слове математика трижды встречается буква «а», дважды –
буквы «м» и «т» и по одному разу буквы «е». «и», «к». Значит, речь идет о
перестановках с повторениями и
P(10,6 ) =
10!
4 ⋅ 5 ⋅ 6 ⋅ 7 ⋅ 8 ⋅ 9 ⋅ 10
= 151200
=
3!⋅2!⋅2!⋅1!⋅1!⋅1!
4
11
Пример 4:
В магазине продаются 5 видов батареек. Сколькими способами можно
купить 8 батареек?
Решение: Поскольку не важно, в каком порядке покупать батарейки, то речь
идет о неупорядоченных выборках с возвращениями.
C (85) =
(5 + 8 − 1)! 12! 9 ⋅ 10 ⋅ 11 ⋅ 12
=
=
= 9 ⋅ 5 ⋅ 11 = 495 .
8!(5 − 1)! 8!⋅4!
1⋅ 2 ⋅ 3 ⋅ 4
Контрольные вопросы:
1. Что такое формула включений и исключений?
2. Что называется принципом сложения и принципом умножения?
3. Что такое выборки: упорядоченные и неупорядоченные, с возвращениями и без
возвращений? Сформулируйте теорему о количестве выборок.
4. Что такое перестановки и перестановки с повторениями? Чему равно количество
различных перестановок и различных перестановок с повторениями?
Лекция 2 Классическое определение вероятности
Основные понятия теории вероятностей
Определение: Событием в теории вероятностей называется всякий факт,
который в результате опыта или наблюдения может произойти или не
произойти.
События будем обозначать заглавными буквами латинского алфавита.
Примеры: A - появление герба при подбрасывании монеты
B - появление трех гербов при троекратном подбрасывании
монеты
C - попадание в цель при выстреле
D - выход из строя некоторого устройства в течение часа его
работы
Рассматривая указанные в примере события, можно увидеть, что каждое из
них обладает какой-то степенью возможности: одно большей, другое
меньшей; причем для некоторых из них сразу можно решить, какое более
возможно, какое – менее. Например, событие A более возможно, чем
событие B .
Чтобы количественно сравнивать между собой события по степени их
возможности, необходимо с каждым событием связать некоторое число,
которое должно быть тем больше, чем возможнее событие.
12
Определение: вероятность события – это численная мера его
возможности.
Определение: событие называется достоверным, если в результате
определенного опыта или наблюдения оно обязательно должно произойти.
Определение: событие называется невозможным, если оно не может
произойти в результате определенного опыта или наблюдения.
Пример: A - выпадение более 6 очков при однократном подбрасывании
игральной кости (кубика)
B - выпадение менее 10 очков при однократном подбрасывании
игральной кости
C - выпадение менее 4 очков при однократном подбрасывании игральной
кости
Очевидно, что событие A невозможно, событие B - достоверно, а событие
C - возможно, но не достоверно.
Невозможному событию припишем вероятность, равную 0, достоверному
событию – вероятность, равную 1. Всем другим событиям будем
приписывать вероятности из интервала (0;1) .
Вероятность события A будем обозначать P ( A ) .
Непосредственное вычисление вероятностей. Схема случаев.
Существует множество опытов, для которых вероятности их возможных
исходов легко оценить из условий самого опыта; например, если различные
исходы опыта обладают своего рода «симметрией», в силу которой все
исходы можно считать одинаково возможными.
Пример: подбрасывание монеты или игральной кости (кубика).
В силу симметрии монеты (или кубика) есть основания считать, что оба
исхода в случае монеты (и все шесть исходов в случае кубика) одинаково
возможны. Считая, что выпадение либо орла, либо решки есть достоверное
событие с вероятностью 1, естественно приписать выпадению орла
вероятность
1
2
и такую же вероятность приписать выпадению решки. В
случае кубика естественно считать, что выпадение любой из его граней
имеет вероятность
1
.
6
13
Для всякого опыта, в котором возможные исходы симметричны, можно
применить аналогичный прием, называемый непосредственным подсчетом
вероятностей.
Определение: Говорят, что несколько событий в данном опыте образуют
полную группу, если в результате опыта непременно должно появиться хотя
бы одно из них.
Примеры: 1) выпадение орла и выпадение решки при подбрасывании
монеты
2) попадание и промах при выстреле
3) хотя бы одно попадание или хотя бы один промах при
нескольких выстрелах.
4) одна, две, три или более трех опечаток при издании книги
Определение: Несколько событий называются несовместными в данном
опыте, если никакие два из них не могут произойти совместно.
Примеры: 1) выпадение орла и решки при одном подбрасывании монеты
2) попадание и промах при одном выстреле
Определение: несколько событий в данном опыте называются
равновозможными, если по условиям симметрии есть основания считать,
что ни одно из этих событий не является объективно более возможным, чем
другое.
Примеры: 1) выпадение орла и решки при одном подбрасывании монеты
2) выпадение одного, двух или трех очков при подбрасывании
игральной кости
Существуют группы событий, обладающие всеми тремя свойствами: они
образуют полную группу, несовместны и равновозможны. События,
образующие такую группу, называют случаями.
Случай В называют благоприятным для события А, если появление случая
В влечет за собой появление события А.
Пример: Пусть событие А означает выпадение четного числа очков при
подбрасывании игральной кости. Возможны следующие случаи при одном
подбрасывании игральной кости:
B1 - выпадение 1
B2 - выпадение 2
14
B3
B4
B5
B6
- выпадение 3
- выпадение 4
- выпадение 5
- выпадение 6
Для события А благоприятными случаями, очевидно, являются случаи
B2 ,
B 4 , B6 .
Определение: Если опыт сводится к схеме случаев, то вероятность события
А в этом опыте равна отношению количества благоприятных случаев к
общему количеству возможных случаев:
P ( A) =
m
n
Пример1: В ящике находятся 2 белых и 3 черных шара. Оттуда наугад
вынимается один шар. Найти вероятность того, что этот шар – белый.
Решение: Пусть А – событие, вероятность которого следует найти. Общее
количество случаев равно 5, а количество благоприятных случаев равно 2,
значит,
P ( A) =
2
= 0,4 .
5
Пример 2: В партии из 10 изделий имеется 2 бракованных. Наугад
выбираются 4 изделия. Найти вероятность того, что среди этих изделий не
будет бракованных.
Решение: Общее количество случаев равно числу сочетаний из 10 по 4:
С104 =
10!
10!
.
=
4!⋅(10 − 4)! 4!⋅6!
Количество благоприятных случаев равно числу сочетаний из 8 (количества
не бракованных изделий) по 4:
С84 =
P ( A) =
8!
8!
=
.
4!⋅(8 − 4)! 4!⋅4!
С84
8! 4!⋅6! 5 ⋅ 6 1
= ≈ 0,333
=
⋅
=
4
С10 4!⋅4! 10! 9 ⋅ 10 3
Пример 3: В партии из 10 изделий имеется 3 бракованных. Наугад
выбираются 5 изделий. Найти вероятность того, что среди этих изделий
будет ровно 2 бракованных.
Решение: Среди выбранных изделий должно быть 2 бракованных, которые
можно выбрать
C 32 способами и 3 не бракованных, которые можно выбрать
15
C 73 способами. По принципу умножения пять изделий, среди которых
ровно 2 бракованных можно выбрать
C 32 ⋅ C 73 способами. Искомая
вероятность равна
P=
C 32 ⋅ C 73
7! 5!⋅5! 3 ⋅ 4 ⋅ 5 ⋅ 5 300 5
=
=
.
= 3⋅
⋅
=
5
3!⋅4! 10!
8 ⋅ 9 ⋅ 10
720 12
C10
Геометрические вероятности
1) Пусть некоторая точка M с вероятностью 1 попадает на линию L
длины l и пусть некоторая часть L0 линии L имеет длину l 0 . Тогда
M ∈ L0 равна отношению длин:
l
P ( A) = 0
l
2) Пусть некоторая точка M с вероятностью 1 попадает в плоскую область
S площади s и пусть некоторая часть S 0 области S имеет площадь s 0 .
Тогда вероятность того, что M ∈ S 0 равна отношению площадей
s
P ( A) = 0
s
вероятность того, что
с
3) Пусть некоторая точка M
пространственную область V объема
области
вероятностью 1 попадает в
v и пусть некоторая часть V0
V имеет объем v0 . Тогда вероятность того, что M ∈ V0 равна
отношению объемов
P ( A) =
v0
v
Пример 1: Точка М попадает на отрезок длины 10. Найти вероятность того,
что расстояние от точки М до ближайшего конца отрезка будет не больше
1,5.
Решение: Длина всей линии равна 10. Благоприятная область состоит из
двух отрезков длины 1,5, примыкающих к концам данного отрезка длины
10.
16
Поэтому
P ( A) =
1,5 + 1,5
= 0,3 .
10
Пример 2:Точка М попадает на кардиоиду
ρ = a(1 + cos ϕ ) . Найти
 π π
вероятность того, что ее полярный угол попадет в промежуток
− 2 ; 2  .
Решение: По формуле вычисления длины линии, длина кардиоиды равна
2π
∫
l=
0
2π
2π
a (1 + cos ϕ ) + a sin ϕ dϕ = a ∫ 2 + 2 cos ϕ dϕ =
2
2
0
= a∫ 4
0
2
2
2π
π
2π
1 + cos ϕ
ϕ
ϕ
ϕ
dϕ = 2a ∫ cos 2 dϕ = 2a ∫ cos dϕ − 2a ∫ cos dϕ =
2
2
2
2
π
0
0
π
 π
= 4a sin − sin 0 − sin π + sin  = 8a .
2
2

Рис. 3 Кардиоида
3π
2
∫
π
l0 =
3π
2
a 2 (1 + cos ϕ ) + a 2 sin 2 ϕ dϕ = a ∫ 2 + 2 cos ϕ dϕ =
2
π
2
3π
2
=a∫
π
2
2
3π
2
π
3π
2
2
2
ϕ
ϕ
ϕ
1 + cos ϕ
dϕ = 2a ∫ cos 2 dϕ = 2a ∫ cos dϕ − 2a ∫ cos dϕ =
4
2
2
2
2
π
π
π
(
)
3π
π
π
 π
= 4a sin − sin − sin
+ sin  = 4 − 2 2 a . Поэтому вероятность
2
4
4
4

данного события равна P( A) = 2 − 2 .
4
17
Пример 3: Точка М попадает в квадрат с вершинами
A(1;1) , B(1;−1) ,
C (− 1;−1) , D(− 1;1) . Найти вероятность того, что точка М окажется выше
2
параболы y = x .
Решение:
Рис. 4 Попадание точки в параболический сегмент
Площадь квадрата АВСD со стороной длины 2 равна 4.
Искомая площадь над параболой равна
1

x3 
4

 =
−
=
−
x
dx
x
1
∫−1

3  −1 3

1
(
2
)
P ( A) =
4
1
:4 = .
3
3
Пример 4 (задача Бюффона): Плоскость разграфлена параллельными
прямыми, отстоящими друг от друга на расстояние 2a . На плоскость
бросают иглу длины 2l (l < a ) . Найти вероятность того, что игла
пересечет какую-либо прямую.
Решение: Пусть x - расстояние от середины иглы до ближайшей прямой,
ϕ - угол между иглой и этой прямой. Положение иглы относительно
ближайшей прямой полностью определяется заданием значений
и
ϕ ∈ [0; π ] .
18
x ∈ [0; a ]
Рис. 5 Задача Бюффона
Игла пересечет ближайшую к ней прямую при условии x ≤ l sin ϕ .
Рассмотрим прямоугольную систему координат с осями ϕ и x . Поскольку
x ∈ [0; a ] и ϕ ∈ [0; π ] , то общей областью S является прямоугольник
площади πa , а благоприятной областью S 0 – площадь фигуры,
заключенной между горизонтальной координатной осью и графиком
функции x = l sin ϕ . Площадь этой области равна
π
π
s 0 = ∫ l sin ϕdϕ = − l cos ϕ 0 = 2l
0
P ( A) =
2l
.
πa
Контрольные вопросы:
1.Какие числовые значения может принимать вероятность любого события? Что такое
достоверное событие и невозможное событие?
2. Что такое схема случаев? Запишите и объясните формулу классической вероятности.
3. Запишите формулы геометрических вероятностей.
Лекция 3 Основные теоремы классической теории
вероятностей
Далеко не всегда задачу о вычислении вероятности события можно свести к
схеме случаев и даже, если это можно сделать, такая схема может оказаться
достаточно сложной и непосредственное вычисление вероятности будет
достаточно громоздким.
19
Поэтому, как правило, для определения вероятностей событий применяются
косвенные методы, позволяющие по известным вероятностям одних
событий определять вероятности других, с ними связанных.
Алгебра событий
Определение: суммой двух событий A и B называется событие
C = A + B , заключающееся в том, что происходит событие A или
событие B или оба эти события. (Происходит хотя бы одно из событий A ,
B ).
Пример: Производится ровно два выстрела по мишени
Событие А – попадание в мишень при первом выстреле
Событие В – попадание в мишень при втором выстреле
Событие А+В – хотя бы одно попадание в мишень.
Определение: суммой нескольких событий
A1 , A2 ,..., An называется
A = A1 + A2 + ... + An , состоящее в том, что происходит хотя бы
одно из событий A1 , A2 ,..., An .
событие
Пример: Работа некоторого устройства в течение определенного
промежутка времени.
Событие A0 - за данный промежуток времени не произошло ни одной
поломки устройства
Событие A1 - за данный промежуток времени произошла ровно одна
поломка устройства
Событие A2 - за данный промежуток времени произошло ровно две
поломки устройства
…………………………………………………………………………….
Событие An - за данный промежуток времени произошло ровно n поломок
устройства
Тогда событие
C 2 = A0 + A1 + A2 означает, что за данный промежуток
времени произошло не более двух поломок,
а событие C n = A0 + A1 + A2 + .... + An - за данный промежуток времени
произошло не более n поломок.
Определение: произведением двух событий A и B называется событие
C = A ⋅ B , заключающееся в том, что происходят оба события A и B .
Пример: Производится ровно два выстрела по мишени
20
Событие
Событие
Событие
A – попадание в мишень при первом выстреле
B – попадание в мишень при втором выстреле
A ⋅ B – попадание в мишень при обоих выстрелах.
Определение:
произведением
нескольких
событий
A1 , A2 ,..., An
A = A1 ⋅ A2 ⋅ ... ⋅ An , состоящее в том, что происходят
все события A1 , A2 ,..., An .
называется событие
Пример: В ящике находятся 7 белых и 3 черных шара. Последовательно, по
одному, вынимаются 3 шара.
Событие A1 - первый вынутый шар - белый
A2 - второй вынутый шар – белый
Событие A3 - третий вынутый шар – белый
Тогда событие C 2 = A0 ⋅ A1 ⋅ A2 означает, что все три вынутых шара –
Событие
белые.
Определение: Событием, противоположным
событию A , называется
событие A , заключающееся в том, что событие A не произошло.
Пример: производится три выстрела по мишени. При этом
Событие A1 - попадание при первом выстреле
A2 - попадание при втором выстреле
Событие A3 - попадание при третьем выстреле
Событие B - ровно одно попадание при трех выстрелах
Выразить событие B через события A1 , A2 , A3 .
Событие
Решение: обозначим:
Событие B1 - попадание при первом выстреле и промахи при втором и
третьем
Событие B2 - попадание при втором выстреле и промахи при первом и
третьем
Событие B3 - попадание при третьем выстреле и промахи при первом и
втором.
Тогда
B1 = A1 ⋅ A2 ⋅ A3 , B2 = A1 ⋅ A2 ⋅ A3 , B3 = A1 ⋅ A2 ⋅ A3 и
B = B1 + B2 + B3 = A1 A2 A3 + A1 A2 A3 + A1 A2 A3
21
Замечание: для наглядного представления о сумме и произведении событий
также используют круги Эйлера:
Рис. 6 Графическое представление алгебры событий
Теоремы сложения и умножения вероятностей
Теорема 1 (о сложении вероятностей несовместных событий)
Вероятность суммы двух несовместных событий равна сумме вероятностей
этих событий:
P ( A + B ) = P( A) + P (B )
Докажем теорему для схемы случаев: пусть n - общее количество
возможных элементарных исходов, k - количество элементарных исходов,
благоприятных для события A , m - количество элементарных исходов,
благоприятных для события B . Тогда количество элементарных исходов,
благоприятных событию A + B равно k + m .
k+m k m
= + = P ( A) + P (B ) .
n
n n
Следствие1: Если A1 , A2 ,..., An - несовместные события, то
P( A + B ) =
P( A1 + A2 + ... + An ) = P( A1 ) + P( A2 ) + ... + P( An ) .
Следствие 2: если несовместные события A1 , A2 ,..., An образуют полную
группу, то P ( A1 ) + P ( A2 ) + ... + P ( An ) = 1
P (A ) = 1 − P ( A )
Следует из того, что A и A образуют полную группу несовместных
Следствие 3:
событий.
22
Теорема 1 (о сложении вероятностей
Вероятность суммы двух событий равна:
произвольных
событий)
P( A + B ) = P( A) + P(B ) − P( AB )
Докажем теорему для схемы случаев: пусть n - общее количество
возможных элементарных исходов, k - количество элементарных исходов,
благоприятных для события A , m - количество элементарных исходов,
благоприятных для события B , l - количество элементарных исходов,
благоприятных для обоих событий A и B . Тогда в сумме k + m дважды
учтены элементарные исходы, благоприятные для обоих событий A и B .
Поэтому
P( A + B ) =
k +m−l k m l
= + − = P ( A) + P(B ) − P ( AB ) .
n
n n n
Следствие:
P( A + B + C ) = P( A) + P(B ) + P(C ) − P( AB ) − P(BC ) − P(CA) + P( ABC ) .
Геометрической иллюстрацией данного следствия может служить
следующая схема:
Рис. 7 Следствие из теоремы о сложении вероятностей
Определение: Событие B называется независимым от события A , если
вероятность события B не зависит от того, произошло событие A или
нет.
Пример1: Подбрасываются две монеты
Событие A - выпадение герба на первой монете
Событие B - выпадение герба на второй монете
Событие B независимо от события A .
Пример 2: В ящике лежат 3 черных шара и 2 белых. Последовательно, по
одному, вынимаются 2 шара.
Событие A - первый шар - белый
Событие B - второй шар – белый
23
Если происходит событие
0,25 .
A , то вероятность события B будет равна
Если событие A не происходит (первым вынимается не белый, а черный
шар), то вероятность события B будет равна 0,5 .
Событие
B зависимо от события A .
Определение: вероятность события B , вычисленная при условии, что
произошло событие A , называется условной вероятностью события B и
обозначается P (B | A) .
Теорема (об умножении вероятностей)
Для любых двух событий A и B :
P( AB ) = P( A) ⋅ P(B | A)
Доказательство снова проведем для схемы случаев. Пусть n - общее
количество возможных элементарных исходов, k
- количество
элементарных исходов, благоприятных для события A , m - количество
элементарных исходов, благоприятных для события B , l - количество
элементарных исходов, благоприятных для обоих событий A и B . Тогда
k
m
l
, P (B ) =
, P ( AB ) = . Если событие B уже произошло, то
n
n
n
l
.
реализовался один из m благоприятных случаев, значит, P ( A | B ) =
m
m l
l
⋅ = = P ( AB ) .
Тогда P (B ) ⋅ P ( A | B ) =
n m n
Следствие 1: Для любых двух событий A и B :
P( AB ) = P(B ) ⋅ P( A | B ) .
Следствие 2: Если событие B зависимо от события A , то событие A
зависимо от события B . И наоборот: если событие B не зависимо от
события A , то событие A независимо от события B . Поэтому допустимы
выражения «события A и B зависимы» или «события A и B
P ( A) =
независимы».
Следствие 3:
P( ABС ) = P( A) ⋅ P(B | A) ⋅ P(C | AB ) .
Следствие 4: Если события A и B независимы, то
P( AB ) = P( A) ⋅ P(B ) .
Следствие 5: Если события A1 , A2 ,..., An независимы, то
24
P( A1 ⋅ A2 ⋅ ... ⋅ An ) = P( A1 ) ⋅ P( A2 ) ⋅ ... ⋅ P( An ) .
Пример1. Три стрелка стреляют по мишени. Вероятность того, что первый
стрелок попадет в мишень, равна 0,4. Вероятность того, что попадет второй
стрелок – 0,5, вероятность того, что попадет третий – 0,7. Найти
вероятность того, что мишень поразит ровно один стрелок.
Решение
Обозначим: событие A1 - первый стрелок попадает в мишень,
A2 - второй стрелок попадает в мишень,
событие A3 - третий стрелок попадает в мишень,
событие B - ровно один стрелок попадает в мишень
Тогда B = A1 A2 A3 + A1 A2 A3 + A1 A2 A3 и
событие
P (B ) = P (A1 A2 A3 ) + P (A1 A2 A3 ) + P (A1 A2 A3 ) = P( A1 )P (A2 )P (A3 ) +
+ P (A1 )P ( A2 )P (A3 ) + P (A1 )P (A2 )P ( A3 ) = 0,4 ⋅ (1 − 0,5)(1 − 0,7 ) +
+ (1 − 0,4 ) ⋅ 0,5 ⋅ (1 − 0,7 ) + (1 − 0,4 )(1 − 0,5) ⋅ 0,7 = 0,06 + 0,09 + 0,21 = 0,36
Пример 2: В ящике находятся 2 белых, 3 черных и 5 красных шаров.
Наугад, по одному, вынимаются три шара. Найти вероятность того, что
первым будет вынут белый шар, вторым – черный, третьим – красный.
Решение:
Обозначим: событие A1 - первым вынут белый шар,
A2 - вторым вынут черный шар,
событие A3 - третьим вынут красный шар,
событие B - шары вынуты в заданной последовательности.
Очевидно, что B = A1 A2 A3 , значит,
P(B ) = P( A1 A2 A3 ) = P( A1 ) ⋅ P( A2 | A1 ) ⋅ P( A3 | A1 A2 )
2 1
3 1
5
P ( A1 ) =
= , P ( A2 | A1 ) = = , P ( A3 | A1 A2 ) = .
10 5
9 3
8
1 1 5 1
P (B ) = P ( A1 ) ⋅ P ( A2 | A1 ) ⋅ P ( A3 | A1 A2 ) = ⋅ ⋅ =
≈ 0,042 .
5 3 8 24
событие
25
Формула полной вероятности. Формулы Бейеса
Теорема (формула полной вероятности)
Пусть события B1 , B2 ,..., Bn образуют полную группу несовместных
A верна формула
P( A) = P(B1 )P( A | B1 ) + P(B2 )P( A | B2 ) + ... + P(Bn )P( A | Bn )
Доказательство: Поскольку B1 , B2 ,..., Bn - полная группа событий, то
событие A может произойти только вместе с каким-либо из событий
B1 , B2 ,..., Bn . Значит A = AB1 + AB2 + ... + ABn .
Поскольку
события
B1 , B2 ,..., Bn
несовместны,
то
события
AB1 , AB2 ,..., ABn также несовместны.
Следовательно, P ( A) = P ( AB1 ) + P ( AB2 ) + ... + P ( ABn ) и
P( A) = P(B1 )P( A | B1 ) + P(B2 )P( A | B2 ) + ... + P(Bn )P( A | Bn ) .
событий, тогда для любого события
Теорема доказана.
Пример: В двух ящиках содержатся некоторые изделия. В первом ящике
содержится 12 изделий, из них одно нестандартное; во втором ящике – 10
изделий, из них 2 нестандартных. Из первого ящика наугад взято изделие и
переложено во второй ящик. После этого извлекается изделие из второго
ящика. Найти вероятность того, что это изделие нестандартное.
Решение
Обозначим: событие B1 - было переложено стандартное изделие
B2 - было переложено нестандартное изделие
событие A - из второго ящика извлечено нестандартное
событие
изделие.
P (B1 ) =
11
1
, P (B 2 ) =
.
12
12
Если из первого ящика во второй было переложено стандартное изделие, то
во втором стало 11 изделий, из которых 2 нестандартных, значит,
P ( A | B1 ) =
2
.
11
Если из первого ящика во второй было переложено нестандартное изделие,
то во втором стало 11 изделий, из которых 3 нестандартных, значит,
P ( A | B2 ) =
26
3
.
11
P ( A) = P (B1 )P ( A | B1 ) + P (B2 )P ( A | B2 ) =
=
11 2 1 3
⋅ + ⋅ =
12 11 12 11
22 + 3 25
=
≈ 0,189 .
132
132
B1 , B2 ,..., Bn образуют полную группу несовместных
событий, и событие A может наступить при условии появления одного из
событий B1 , B2 ,..., Bn (которые будем называть гипотезами).
Допустим, что в результате некоторого опыта наступило событие A .
Пусть события
Требуется определить как, в связи с тем, что событие А произошло,
изменились вероятности гипотез B1 , B2 ,..., Bn .
Поскольку
P( ABi ) = P( A) ⋅ P(Bi | A) = P(Bi )P( A | Bi ) , то
P (Bi )P( A | Bi )
.
P ( Bi | A ) =
P( A)
По формуле полной вероятности получим
P(Bi | A) =
P(Bi )P( A | Bi )
n
∑ P(B )P( A | B )
k
k
k =1
Эти формулы при
i = 1,2,..., n называют формулами Бейеса.
Контрольные вопросы:
1. Что называется суммой и произведением событий? Какие события называются
противоположными?
2. Какие события называются совместными и какие – несовместными? Какие события
называются зависимыми и какие – независимыми?
3. Сформулируйте теоремы о сложении вероятностей.
4. Сформулируйте теоремы об умножении вероятностей.
5. Что называется полной группой несовместных событий? Запишите формулу полной
вероятности и формулы Бейеса.
Лекция 4 Повторение испытаний
Формула Бернулли
В теории вероятностей часто приходится встречаться с задачами, в
которых один и тот же опыт повторяется неоднократно. В результате
каждого этих повторений может появиться или не появиться событие A ,
27
при этом будем интересоваться не результатом каждого отдельного опыта, а
общим количеством появлений события A в серии опытов.
Например, при испытании какого-либо устройства в течение
определенного промежутка времени часто интересуются не причинами
отдельных отказов такого устройства, а их общим количеством за данный
промежуток времени.
Если производится серия выстрелов по определенной цели, то
также более интересно общее количество попаданий, а не результат
каждого отдельного выстрела.
Определение: несколько опытов называются независимыми, если
вероятность того или иного исхода каждого из опытов не зависит от того,
какие исходы имели другие опыты.
Постановка задачи: Производится серия из n независимых опытов, в
каждом из которых может произойти или не произойти событие A .
Вероятность появления события A в каждом из опытов равна p , требуется
Pn (m ) того, что событие A в этих опытах произойдет
найти вероятность
ровно
m раз.
Рассмотрим событие
событие
B0 , заключающееся в том, что в первых m опытах
A произошло, а в остальных не произошло:
B0 = A ⋅
A
⋅ ....
A⋅ A ⋅
A
⋅ ...
A.
⋅
⋅
n−m
m
Вероятность события
A равна 1 − p . Поскольку опыты независимы, то
P(B0 ) = P( A) ⋅ P( A) ⋅ .... ⋅ P( A) ⋅ P(A ) ⋅ P(A ) ⋅ ... ⋅ P(A ) = p m (1 − p )
n−m
m
n −m
Очевидно, что вероятность любого события
Bi , состоящего в том, что
A произошло ровно m раз в конкретных опытах, а в остальных –
n−m
m
не произошло, также равна p (1 − p )
.
Количество различных событий Bi равно числу сочетаний из n по m :
n!
C nm =
,
m!⋅(n − m )!
событие
поэтому, по теореме о вероятности суммы несовместных событий,
Pn (m ) = C nm p m (1 − p )
n −m
.
Эта формула носит название формулы Бернулли.
28
Замечание 1: Из формулы Бернулли следует, что вероятность того, что в
серии независимых испытаний событие A ни разу не произойдет, равна
Pn (0) = C n0 p 0 (1 − p )
n −0
= (1 − p ) ,
n
поэтому вероятность появления хотя бы одного события равна
P (A ) = 1 − (1 − p ) .
n
Замечание 2: Из определения достоверного события следует, что
Pn (0 ) + Pn (1) + ... + Pn (n ) = 1 .
Из формулы сложения вероятностей несовместных событий следует, что
вероятность того, что событие A произойдет более k раз, равна
Pn (k + 1) + Pn (k + 2) + ... + Pn (n ) ,
А вероятность того, что событие A произойдет менее k раз, равно
Pn (0 ) + Pn (1) + ... + Pn (k − 1) .
Пример: Игральная кость подбрасывается 8 раз. Найти вероятности
событий:
A - грань «6» выпадет ровно 5 раз
B - грань «6» выпадет более 5 раз
C - грань «6» выпадет не более 5 раз
Решение:
1
P( A) = C85 ⋅  
6
5
 1
⋅ 1 − 
 6
8−5
=
125
8! 1 5 3
⋅ 5 ⋅ 3 = 7 ⋅ 8 ⋅ 8 ≈ 0,004
5!⋅3! 6 6
6
6
1  1
P ( B ) = P ( A ) + P ( A ) + P ( A ) = C ⋅   ⋅ 1 − 
6  6
6
8
7
8
7
8
8
8− 7
6
8
8
8 −6
+
8 −8
1  1
1  1
+ C ⋅   ⋅ 1 −  + C88   1 −  =
6  6
6  6
2
8! 1 5
8! 1 5
8! 1
25
5
1
=
⋅ 6⋅ 2 +
⋅ 7⋅ +
⋅ 8 = 28 ⋅ 8 + 8 ⋅ 8 + 8 =
6!⋅2! 6 6
7!⋅1! 6 6 8!⋅0! 6
6
6
6
700 + 40 + 1 741
=
= 8 ≈ 0,00044 .
68
6
P(C ) = 1 − P(B ) ≈ 0,99956 .
7
8
29
Функции Лапласа
Определение: функцией Лапласа (дифференциальной функцией Лапласа)
называется функция
ϕ (x ) =
1
2π
e
−
x2
2
.
Свойства функции Лапласа:
ϕ (x ) =
1
−
x2
2
e
- четная функция
2π
2. lim ϕ ( x ) = lim ϕ ( x ) = 0
1.
x→∞
x → −∞
Ниже изображен график функции Лапласа
Рис. 8 Дифференциальная функция Лапласа
Определение: интегральной функцией Лапласа называется функция
Φ(x ) =
1
2π
x
∫e
−
t2
2
dt .
0
Замечание: иногда интегральной функцией Лапласа называют другую
⌢
2
функцию: Φ ( x ) =
π
x
∫e
−
t2
2
dt
0
Свойства интегральной функции Лапласа:
Φ(x ) =
1
x
−
t2
2
∫ e dt - нечетная функция
2π 0
1
1
2. lim Φ ( x ) = ; lim Φ ( x ) = −
x→∞
x
→
−∞
2
2
1.
Ниже изображен график интегральной функции Лапласа Φ (x ) =
30
1
2π
x
∫e
0
−
t2
2
dt
Рис. 9 Интегральная функция Лапласа
Замечание: Вычисление значений дифференциальной функции Лапласа при
различных значениях переменной x достаточно трудоемко. Еще более
трудоемко вычисление значений интегральной функции Лапласа, т. к.
∫e
интеграл
−
t2
2
dt - «неберущийся». Однако, значения дифференциальной и
интегральной функций сведены в таблицы, которые можно найти в любом
справочнике по теории вероятностей. В этих таблицах приводятся значения
данных функций при x ∈ 0; x 0 , где x 0 - некоторое положительное число
[
(обычно
]
1
x0 ≥ 5 ). Для нахождения значений функций ϕ ( x ) =
при отрицательных значениях переменной
2π
e
−
x2
2
x нужно воспользоваться ее
Φ(x ) =
1
x
−
t2
2
∫ e dt 2π 0
нечетностью. При значениях x > x 0 считают, что ϕ ( x ) ≈ 0 , а
Φ( x ) ≈ 0,5 . Для нахождения значений дифференциальной и интегральной
функций Лапласа в точках промежутка [0; x 0 ] , не внесенных в таблицу,
можно использовать линейную интерполяцию, т. е. на интервале [xi −1 ; xi ] ,
четностью, а для нахождения значений функции
где
xi −1 , xi - значения переменной x из таблицы, заменить искомую
функцию линейной функцией, график которой проходит через точки
(xi−1 , yi −1 ) и (xi , yi ) подставить число x в полученную линейную
функцию.
31
Теоремы Лапласа
Снова рассматривается серия из n независимых опытов, в каждом из
которых может произойти или не произойти событие A . Вероятность
появления события A в каждом из опытов равна p , требуется найти
вероятность
Pnm ( A) того, что событие A в этих опытах произойдет ровно
m раз.
При больших значениях n применение формулы Бернулли приводит к
операциям с огромными числами и становится затруднительным. Уже при
n = 50 значение выражения 50! равно 30414093 ⋅ 10 57 . Поэтому при
достаточно больших значениях n применяют приближенные методы, один
из которых основан на следующей теореме:
Локальная теорема Лапласа.
Если производится серия независимых испытаний, в каждом из которых
событие A может произойти с вероятностью p ( p ≠ 0, p ≠ 1) , то
 m − np 

 np (1 − p ) 
,
Pnm ( A) ≈ 
np (1 − p )
ϕ
где
1
ϕ (x ) =
2π
e
−
x2
2
- функция Лапласа. Кроме того, при
n→∞
 m − np 

 np (1 − p ) 
 → 0.

m
Pn ( A) −
np (1 − p )
ϕ
Пример: Найти вероятность того, что событие A наступит ровно 70 раз в
серии из 243 независимых испытаний, если вероятность появления этого
события в каждом испытании равно 0,25 .
Решение: np(1 − p ) = 243 ⋅ 0,25 ⋅ 0,75 = 6,75
m − np
np(1 − p )
=
70 − 243 ⋅ 0,25
243 ⋅ 0,25 ⋅ 0,75
≈ 1,37 .
По таблице значений функции Лапласа находим
32
ϕ (1,37 ) ≈ 0,1561 , значит,
70
P243
( A) ≈
0,1561
≈ 0,0231 .
6,75
n независимых испытаний некоторое
событие A наступит не менее чем m1 раз и не более чем m 2 раз, можно
Вероятность того, что в серии из
приближенно вычислить с помощью следующей теоремы:
Интегральная теорема Лапласа.
Если производится серия независимых испытаний, в каждом из которых
событие A может произойти с вероятностью p ( p ≠ 0, p ≠ 1) , то
вероятность того, что некоторое событие
и не более чем
A наступит не менее чем m1 раз
m2 раз приближенно равна
 m2 − np 


 − Φ m1 − np  ,
Pn (m1 , m 2 ) ≈ Φ
 np (1 − p ) 
 np (1 − p ) 




где
если
Φ(x ) =
1
2π
n → ∞ , то
x
∫e
−
t2
2
dt - интегральная функция Лапласа. При этом,
0
  m − np 


2
 − Φ m1 − np   → 0 .
Pn (m1 , m2 ) −  Φ
 np(1 − p )  
  np(1 − p ) 



 
Другие задачи схемы повторения испытаний
Снова рассматривается серия из n независимых опытов, в каждом из
которых может произойти или не произойти событие A и вероятность
появления события A в каждом из опытов равна p .
m
появления события A в серии из n
n
независимых испытаний при n → ∞ будет стремиться к теоретической
вероятности p , но совершенно не обязательно в каждой серии испытаний,
m
= p . Найдем вероятность того, что в серии из n
должно быть
n
Относительная частота
независимых испытаний отклонение относительной частоты от
теоретической вероятности не превысит некоторого заданного числа
ε:
33

m
P − p ≤ ε  .
n


Неравенство
−ε ≤
−ε
m
− p ≤ ε равносильно двойному неравенству
n
m
− p ≤ ε . Умножим это неравенство на
n
n
≤
p (1 − p )
m − pn
np(1 − p )
≤ε
n
:
p (1 − p )
n
. Тогда
p (1 − p )


n
m − pn
n
≈
≤ε
≤
P − ε


−
p
−
p
p
p
1
1
(
)
(
)
(
)
−
np
p
1








n
n
n
 − Φ − ε
 = 2Φ  ε
.
Φ ε




p(1 − p ) 
p(1 − p ) 
p(1 − p ) 



Значит,


m

n
.
P − p ≤ ε  ≈ 2Φ ε

(
)
p
p
−
1
 n



p = 0,1 .
Сколько деталей нужно выбрать, чтобы с вероятностью P = 0,9544
Пример: Вероятность того, что деталь нестандартна, равна
относительная частота появления нестандартных деталей среди выбранных
отклонялась от теоретической вероятности p = 0,1 не более чем на 0,03?

Решение: P m − p ≤ ε  ≈ 2Φ  ε
 n






n
 = 0,9544
p (1 − p ) 

Значит, Φ  ε



n
 = 0,4772 . По таблице значений интегральной
p (1 − p ) 
n
функции Лапласа находим Φ(2 ) = 0,4772 , значит, 0,03 ⋅
= 2.
0,1 ⋅ 0,9
Отсюда
0,1 ⋅ n = 2 , значит, n = 400 .
Определение: Число
k 0 наступлений события A в независимых
испытаниях называется наивероятнейшим, если вероятность того, что это
34
событие наступит ровно
k 0 раз не меньше вероятностей остальных
возможных исходов испытания.
Теорема (о наивероятнейшем числе появлений события)
Если в каждом из n независимых испытаний событие A может наступить
с вероятностью
p , то наивероятнейшее число k 0 появлений события A в
этой серии испытаний удовлетворяет двойному неравенству
np + p − 1 ≤ k 0 < np + p
Без доказательства.
Пример: Испытывается каждый из 15 элементов некоторого устройства.
Вероятность того, что элемент выдержит испытание, равна 0,9. Найти
наивероятнейшее число элементов, которые выдержат испытание.
Решение:
n = 15, p = 0,9 .
np + p − 1 ≤ k 0 < np + p
15 ⋅ 0,9 + 0,9 − 1 ≤ k 0 < 15 ⋅ 0,9 + 0,9
13,4 ≤ k 0 < 14,4 , значит. k 0 = 14 .
Контрольные вопросы:
1. Сформулируйте постановку задачи о проведении независимых испытаний.
2. Запишите и объясните формулу Бернулли.
3. Что называется дифференциальной и интегральной функциями Лапласа? Запишите
их формулы и схематично изобразите графики.
4. Сформулируйте дифференциальную и интегральную теоремы Лапласа.
5. Запишите формулу вероятности отклонения частоты от теоретической вероятности.
Каково наивероятнейшее число появлений события в серии независимых
испытаний?
Лекция 5 Дискретная случайная величина
Понятие о дискретной случайной величине
Определение: пусть дано некоторое множество чисел. Случайной величиной
называется переменная величина, которая в результате опыта может
принять то или иное значение из данного множества чисел, причем заранее
не известно, какое именно.
Примеры: 1)
Очевидно, что
X - количество попаданий в мишень при трех выстрелах.
X ∈ {0;1;2;3}.
35
X - количество подбрасываний монеты до первого выпадения герба.
X ∈ {1;2;3;...}.
3) T - время ожидания пассажиром поезда метро: T ∈ [0; t 0 ] .
2)
Определение: множество действительных чисел
M
дискретным, если для любого числа x1 ∈ M найдется число
что в интервале
множества
(x1 − ε ; x1 + ε )
кроме числа x1 нет
ε
называется
> 0 такое,
других чисел из
M.
Примеры: 1) любое конечное множество является дискретным
2) Множество натуральных чисел N = {1;2;3;4;...} и любое его
подмножество является дискретным
3) никакой конечный или бесконечный интервал a; b не является
дискретным множеством
[ ]
Определение: Если случайная величина может принимать значения только
из некоторого дискретного множества, то она называется дискретной
случайной величиной (ДСВ).
Рассмотрим ДСВ
вероятностями
X , которая может принимать значения x1 , x 2 ,..., x n , с
p1 , p 2 ,..., p n соответственно.
Таблица
x1
x2
………..
xn
p1
p2
……….
pn
называется рядом распределения дискретной случайной величины X .
Замечание1: Для любого ряда распределения ДСВ верно равенство
p1 + p 2 + ... + p n = 1 .
Ai состоит в том, что случайная величина
X принимает значение xi и
A = A1 + A2 + ... + An . Поскольку
случайная величина X обязательно принимает ровно одно из значений
x1 , x 2 ,..., x n , то A1 , A2 ,..., An - полная группа несовместных событий.
Следовательно, P ( A) = P( A1 ) + P ( A2 ) + ... + P( An ) = 1 .
Действительно, пусть событие
36
Замечание 2: Произвольная таблица чисел
x1
x2
………..
xn
p1
p2
……….
pn
будет задавать ряд распределения некоторой случайной величины тогда и
только тогда, когда pi ∈ 0;1 при i = 1,2,...n и p1 + p 2 + ... + p n = 1 .
[ ]
Замечание: обычно таблицу записывают так, чтобы выполнялись условия
x1 < x 2 < ... < x n .
Многоугольник распределения и функция распределения
Определение: Пусть ДСВ
X может принимать значения x1 , x 2 ,..., x n , с
p1 , p 2 ,..., p n соответственно. Ломаная, соединяющая точки
(xi , pi ) и (xi+1 , pi +1 ) при i = 1,2,..., n называется многоугольником
распределения случайной величины X .
Определение: Пусть дана случайная величина X .
Функция
F ( x ) = P( X < x ) , определенная для всех действительных чисел x ,
называется функцией распределения случайной величины X .
вероятностями
Пример: Пусть ДСВ X количество выпадений «6» при трех
подбрасываниях игральной кости. Составить ряд распределения, начертить
многоугольник распределения, составить функцию распределения и
начертить ее график.
Решение: Случайная величина X может принимать значения 0, 1, 2, 3. При
0
этом,
по
формуле
1
Бернулли,
3
125
1 5
p 0 = C 30 ⋅   ⋅   =
≈ 0,579 ,
216
6 6
2
2
1
15
75
1 5
1 5
≈ 0,069
p1 = C ⋅   ⋅   =
≈ 0,347 , p 2 = C32 ⋅   ⋅   =
216
216
6 6
6 6
1
3
1
p3 = C33 ⋅  
6
3
0
1
5
⋅  =
≈ 0,005
6
216
 
0
1
2
3
125
216
75
216
15
216
1
216
37
Проверка: 125 + 75 + 15 + 1 = 216 = 1 .
216 216 216 216 216
Многоугольник распределения изображен ниже
Рис. 10 Пример: Многоугольник распределения
x ≤ 0 , тогда P( X < x ) = 0 , значит, на промежутке (− ∞;0)
функция распределения F ( x ) = 0 .
Пусть
При
x ∈ [0;1) P( X < x ) = P( X = 0) = 125 , значит, на этом промежутке
216
125
F (x ) =
≈ 0,579 .
216
При
x ∈ [1;2 ) P( X < x ) = P( X = 0 или
X = 1) =
125 75 200 и
+
=
216 216 216
200
≈ 0,926 .
216
При x ∈ [2;3) P( X < x ) = P ( X = 0 или X = 1 или X = 2 ) =
125 75
15
215
215
=
+
+
=
≈ 0,995 .
, F (x ) =
216 216 216 216
216
При x ∈ [3; ∞ )
F (x ) =
P( X < x ) = P( X = 0 или X = 1 или X = 2 или X = 3) =
=
125 75
15
1
216
+
+
+
=
=1
216 216 216 216 216
38
 0 при x ∈ (− ∞;0 )
 125
при x ∈ [0;1)

216

 200
F ( x) = 
при x ∈ [1;2 )
216

 215 при x ∈ [2;3)
 216
 1 при x ∈ [3; ∞ )
Рис. 11 Пример: Функция распределения
Замечание: функция распределения
величины – кусочно-постоянная.
любой
дискретной
случайной
Свойства функции распределения:
1) Функция F ( x ) - неубывающая
2)
lim F ( x ) = 0 , lim F ( x ) = 1 .
x → −∞
[ ]
x→∞
3) F ( x ) ∈ 0;1
Теорема (вероятность попадания ДСВ в заданный интервал)
Пусть F ( X ) - функция распределения дискретной случайной величины,
P(a ≤ X < b ) = F (b ) − F (a )
Доказательство: пусть событие A состоит в том, что X < b ,
событие B состоит в том, что X ≤ a ,
событие C состоит в том, что a ≤ X < b .
тогда
39
Тогда
P( A) = P(B + C ) = P(B ) + P(C ) , т.е.
P( X < b ) = P( X < a ) + P(a ≤ X < b )
P(a ≤ X < b ) = P( X < b ) − P( X < a ) = F (b ) − F (a ) ,
Теорема доказана.
Примеры дискретных случайных величин
Пусть производится n независимых испытаний в результате каждого из
которых с вероятностью p может произойти событие A . Определим
случайную величину X как число появлений события A в n независимых
испытаниях. Эта случайная величина может принимать значения
0,1,2,..., n , при этом P( X = k ) = C nk p k (1 − p )
n−k
.
Определение: Биномиальным распределением называется распределение
вероятностей случайной величины, определяемое формулой Бернулли.
Замечание: распределение называется биномиальным, т.к. , согласно
биному Ньютона
(a + b )n
= C n0 a n + C n1 a n −1b + C n2 a n −2 b 2 + ... + C nn−1 ab n −1 + C nn b n .
Если положить a = p, b = 1 − p , то получим
C n0 p n + C n1 p n −1 (1 − p ) + C n2 p n −2 (1 − p ) + ... + C nn (1 − p ) =
2
n
= ( p + (1 − p )) = 1n = 1 ,
т.е. свойство p1 + p 2 + ... + p n = 1 выполняется.
n
Пусть производится достаточно большое число n независимых испытаний,
в каждом из которых событие A может произойти с малой вероятностью
p . Будем считать, что np = λ (это означает, что среднее число появлений
события в различных серях испытаний - величина постоянная).
40
Поскольку
λ
n
p=
, то по формуле Бернулли
n(n − 1)(n − 2 )...(n − m + 1)  λ   λ 
.
  1 − 
m!
n
n 
Поскольку число n достаточно велико, то можно приближенно считать, что
n−m
m
Pnm ( A) =
n(n − 1)(n − 2)...(n − m + 1)  λ   λ 
  1 − 
n →∞
m!
n  n
  1  2   m − 1  λ  n −m 
λm
lim 1 − 1 − ...1 −
=
1 −   =
m! n→∞  n  n  
n 
n 
m
Pnm ( A) ≈ lim
=
λm
 λ
lim1 − 
m! n→∞ n 
n−m
=
λm
m!
n−m
=
e −λ .
Определение: Если случайная величина может принимать целые значения
0, 1, 2, 3, …n… соответственно с вероятностями
e − λ , λe − λ ,
λ 2 e − λ λ3 e − λ
2!
,
3!
,…,
λn e − λ
n!
,…,
где λ > 0 - некоторый параметр, то говорят, что случайная величина
подчинена закону распределения Пуассона.
Замечание1:
∞
λn e − λ
n =0
n!
∑
=e
−λ
∞
λn
∑ n! = e λ ⋅ e λ = 1 .
−
n =0
Замечание 2: Распределение Пуассона является законом распределения
массовых маловероятных событий (т.е. событий с достаточно малой
вероятностью р)
Пример: Вероятность изготовления заводом недоброкачественной единицы
продукции равна p = 0,0002 . Найти вероятность того, что среди 5000
единиц продукции ровно 3 недоброкачественны.
Решение: p = 0,0002 , n = 5000 , k = 3 . Значит, np = λ = 1 .
3
( A) =
P5000
λ3 e − λ
3!
=
1
≈ 0,06 .
6e
Определение: Потоком событий называют последовательность событий,
которые наступают в случайные моменты времени.
41
Примеры: поступление вызовов на пункт скорой помощи, прибытие
самолетов в аэропорт, прибытие клиентов в какую-либо сервисную фирму и
т.п.
Определение: Поток событий называется стационарным, если вероятность
появления m событий на любом промежутке времени зависит только от
числа m и длительности этого промежутка
Определение: Поток событий
обладает свойством отсутствия
последействия, если вероятность появления m событий в любом
промежутке времени не зависит от того, появлялись ли события до этого
промежутка.
Определение: Поток событий обладает свойством ординарности, если
вероятность появления двух или более двух событий за малый промежуток
времени пренебрежимо мала по сравнению с вероятностью появления ровно
одного события.
Определение: Простейшим (или пуассоновским) потоком событий
называется поток, обладающий свойствами стационарности, отсутствии
последействия и ординарности.
Определение: Интенсивностью потока
λ называется среднее число
событий, появляющихся в единицу времени.
Теорема (формула Пуассона)
Если интенсивность простейшего потока равна
λ , то вероятность
появления m событий за промежуток времени длительности t равна
(λt )m e − λt .
Pt (m ) =
m!
Без доказательства.
Пример: Среднее число клиентов, обращающихся в туристическую фирму
за 1 час, равно 2. Найти вероятность того, что за 5 часов в фирму обратятся
не менее двух клиентов.
Решение: Найдем вначале вероятность того, что в фирму обратятся менее
двух клиентов, т.е. 0 или 1.
По условию λ = 2.t = 5 . При m = 0 (ни одного обращения)
(2 ⋅ 5)0 e −2⋅5 = 1 ,
P5 (0 ) =
0!
e10
при m = 1 (одно обращение)
(2 ⋅ 5)1 e −2⋅5 = 10 .
P5 (1) =
1!
e10
И вероятность того, что в фирму обратятся менее двух клиентов равна
42
10 11
=
≈ 0,000495 .
e + e10 e10
Вероятность того, что за 5 часов в фирму обратятся не менее двух клиентов,
равна
1 − P ≈ 1 − 0,000495 = 0,999505 , т.е. событие практически достоверно.
P=
1
10
Контрольные вопросы:
1. Что называется случайной величиной? Какое множество называется дискретным?
Что такое дискретная случайная величина?
2. Что называется рядом распределения дискретной случайной величины? Что такое
многоугольник распределения?
3. Что называется функцией распределения случайной величины? Каковы свойства
функции распределения дискретной случайной величины? Как находится
вероятность попадания случайной величины в заданный интервал?
4. Что называется биномиальным законом распределения?
5. Что называется распределением Пуассона? Что такое простейший поток событий?
Запишите формулу Пуассона для простейшего потока событий.
Лекция 6 Числовые характеристики ДСВ
Ряд распределения, многоугольник распределения и функция распределения
исчерпывающе характеризуют ДСВ. Однако во многих практических
задачах нет необходимости характеризовать случайную величину
полностью. Часто бывает достаточно указать только отдельные числовые
параметры, до некоторой степени характеризующие существенные черты
случайной величины; например, какое-либо среднее значение, вокруг
которого группируются все возможные значения ДСВ, какое-либо число,
характеризующее степень разбросанности этих значений относительно
среднего и т.п.
Функции от случайных величин
Определение: Если ДСВ задана рядом распределения
………..
x
x
1
2
p1
p2
……….
p2
……….
xn
pn
f ( x ) - какая-либо функция одной действительной переменной, то
случайная величина f ( X ) определяется рядом распределения
………..
f ( x1 ) f ( x 2 )
f (xn )
и
p1
pn
43
Пример: Дан ряд распределения случайной величины
1
2
4
X
p
1
16
1
4
X:
8
16
3
8
1
1
4
16
2
Составить ряды распределения случайных величин X − 1 , X , log 2 X .
Решение:
X −1
p
X2
p
log 2 X
p
0
1
3
7
15
1
16
1
4
3
8
1
4
1
16
1
4
16
64
256
1
16
1
4
3
8
1
4
1
16
0
1
2
3
4
1
16
1
4
3
1
1
8
4
16
Определение: если случайные величины X и Y заданы своими рядами
распределения
x2
………..
xn
p1
p2
……….
pn
y1
y2
………..
yk
q1
q2
……….
qk
X
p
x1
Y
q
f ( x, y ) - какая-либо функция двух переменных, то случайная величина
Z = f ( X , Y ) определяется рядом распределения
Z
f ( x1 , y1 ) f ( x1 , y 2 ) ….. f ( x1 , y k ) f ( x 2 , y1 ) … f ( x n , y k )
s
…..
…
s
s
s
s
s
и
11
где
12
1k
21
nk
sij = p i ⋅ q j .
Определение: Две случайные величины называются независимыми, если
закон распределения одной из них не зависит от того, какие возможные
значения приняла вторая величина. В противном случае случайные
величины называются зависимыми.
44
Пример: Дискретные случайные величины
распределения
X и Y заданы своими рядами
X
p
-1
0,2
0
0,2
1
0,2
Y
q
1
0,25
2
0,5
3
0,25
2
0,2
составить ряд распределения случайной величины
3
0,2
Z = X ⋅Y .
Решение: Сначала формально составим ряд распределения в соответствии с
его определением
Z -1 -2 -3 0 0 0 1 2 3 2 4 6 3 6 9
s
0,05
0,1
0,05
0,05
0,1
0,05
0.05
0,1
0,05
0,05
0,1
0,05
0,05
0,1
0,05
Теперь перепишем таблицу, складывая вероятности одинаковых значений
случайной величины Z :
-3
0,05
Z
s
-2
0,1
-1
0,05
0
0,2
1
0,05
2
0,15
3
0,1
4
0,1
6
0,15
9
0,05
Математическое ожидание ДСВ
Определение: Математическим ожиданием
величины X с рядом распределения
дискретной
случайной
x1
x2
………..
xn
p1
p2
……….
pn
называется число
M ( X ) = x1 p1 + x 2 p 2 + ... + x n p n .
Замечание 1: для математического ожидания допустима также запись
MX .
Замечание 2: математическому ожиданию можно дать механическую
интерпретацию. Пусть x1 , x 2 ,..., x n - точки на числовой прямой, которым
приписаны
массы
p1 , p 2 ,..., p n
M ( X ) = x1 p1 + x 2 p 2 + ... + x n p n
-
соответственно.
координата
центра
Тогда
тяжести
множества точек.
45
Замечание 3: если многоугольник распределения дискретной случайной
величины X имеет ось симметрии x = x 0 то M ( X ) = x 0 .
Пример: Найти математическое ожидание случайной величины X количества выпадений герба при четырех подбрасываниях монеты.
Решение: Случайная величина X может принимать значения 0, 1, 2, 3, 4.
0
4
2
2
4
0
1
1 1
1
p 0 = C 40 ⋅   ⋅   = , p1 = C 41 ⋅  
16
2 2
2
1
3
1
1
⋅  = ,
4
2
3
1
3
1
1 1
1 1
p 2 = C ⋅   ⋅   = , p3 = C 43 ⋅   ⋅   = ,
8
4
2 2
2 2
2
4
1
1 1
p4 = C ⋅   ⋅   = .
16
2 2
4
4
0
1
2
3
4
1
16
1
4
3
8
1
4
1
16
M (X ) = 0 ⋅
1
1
3
1
1
+ 1⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ = 2 .
16
4
8
4
16
Теорема (свойства математического ожидания)
1) Математическое ожидание постоянной величины равно этой
величине: M (С ) = С .
2) Постоянный множитель можно выносить за знак
M (СX ) = СM ( X ) .
M (X ):
3) Математическое ожидание произведения независимых случайных
величин равно произведению математических ожиданий:
M XY = M X ⋅ M Y .
4) Математическое ожидание суммы равно сумме математических
ожиданий: M X + Y = M X + M Y .
Без доказательства.
Следствие 1: Математическое ожидание разности равно разности
математических ожиданий: M X − Y = M X − M Y .
Следствие 2:
M ( X 1 + X 2 + ... + X n ) = M ( X 1 ) + M ( X 2 ) + ... + M ( X n ) .
(
46
)
( )
( )
(
)
( )
( )
(
)
( )
( )
Дисперсия ДСВ
X - дискретная случайная величина с
Определение: Пусть
математическим ожиданием M ( X ) . Центрированной случайной величиной,
соответствующей величине
X = X − M (X ) .
Замечание: M ( X ) = 0 .
X называется дискретная случайная величина
Действительно, воспользуемся первой частью теоремы о свойствах
математического ожидания и следствием из нее:
M ( X ) = M ( X − M ( X )) = M ( X ) − M (M ( X )) = M ( X ) − M ( X ) = 0 .
k дискретной случайной величины X
k
называется M (X ) = x p1 + x p 2 + ... + x n p n .
Определение: Центральным моментом порядка k дискретной случайной
k
k
величины X называется M (X ) = M ( X − M ( X )) .
Определение: Моментом порядка
k
k
1
k
2
(
Пример:
(
)
)
(
)
M (X 2 ) = M ( X − M ( X )) = M X 2 − 2 XM ( X ) + (M ( X )) =
( )
2
2
( )
= M X 2 − 2 M ( X )M ( X ) + (M ( X )) = M X 2 − (M ( X ))
Определение: Дисперсией дискретной случайной величины X называется
2
центральный момент второго порядка D ( X ) = M ( X − M ( X )) .
2
2
(
Замечание1:
Замечание2:
n
(
)
)
D( X ) = M ( X − M ( X )) = M (X 2 ) − (M ( X )) ,
Из
2
определения
2
дисперсии
следует,
что
D( X ) = ∑ ( xi − M ( X )) pi . Поскольку величина ( xi − M ( X )) равна
2
i =1
квадрату расстояния между точками
2
xi и M ( X ) на числовой прямой, то
дисперсия равна сумме квадратов отклонений значений случайной
величины от ее математического ожидания, умноженных на
соответствующие вероятности.
Замечание 3: С механической точки зрения дисперсия равна моменту
инерции заданного распределения масс относительно математического
ожидания.
47
Замечание 4: Дисперсия
D( X ) ≥ 0 .
любой случайной величины неотрицательна:
Пример: Найти дисперсию ДСВ, заданной рядом распределения
X
p
1
2
3
4
1
8
3
8
3
8
1
8
Решение: Первый способ
1
3
3
1 1+ 6 + 9 + 4
= 2,5
M (X ) = 1⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ =
8
8
8
8
8
2 1
2 3
2 3
2 1
D( X ) = (1 − 2,5) ⋅ + (2 − 2,5) ⋅ + (3 − 2,5) ⋅ + (4 − 2,5) ⋅ = 0,75
8
8
8
8
Второй способ
D( X ) = M (X 2 ) − (M ( X ))
2
Дискретная величина X имеет ряд распределения
2
X2
p
1
4
9
16
1
8
3
8
3
8
1
8
1
3
3
1 1 + 12 + 27 + 16
M X 2 = 1 ⋅ + 4 ⋅ + 9 ⋅ + 16 ⋅ =
=7
8
8
8
8
8
2
D( X ) = M X 2 − (M ( X )) = 7 − 6,25 = 0,75 .
( )
( )
Определение: Средним квадратическим отклонением случайной величины
X называется σ ( X ) = D( X ) .
Замечание: эта величина вводится для наглядной характеристики
рассеивания. Ее размерность совпадает с размерностью случайной
величины.
Теорема (свойства дисперсии)
1) Дисперсия постоянной величины равна нулю: D (С ) = 0 .
2) Постоянный множитель можно выносить за знак
его в квадрат:
48
D(СX ) = С 2 D( X ) .
D( X ) , возведя
3) Дисперсия суммы независимых случайных величин равна сумме
дисперсий: D ( X + Y ) = D ( X ) + D (Y ) .
4) Дисперсия разности независимых случайных величин равна сумме
дисперсий: D ( X − Y ) = D ( X ) + D(Y )
Без доказательства.
Следствие 1: Если X - ДСВ, а C - постоянная величина, то
D( X + C ) = D( X ) .
Определение: Случайные величины X 1 , X 2 ,..., X n называются взаимно
независимыми, если законы распределения любого числа из них не зависят
от того, какие возможные значения приняли остальные величины.
X 1 , X 2 ,..., X n - взаимно независимые случайные
величины, то D ( X 1 + X 2 + ... + X n ) = D( X 1 ) + D ( X 2 ) + ... + D ( X n ) .
Следствие 2: Если
Пример 1: Найти математическое ожидание и дисперсию случайной
величины, подчиненной биномиальному закону распределения.
Решение: Пусть производится серия из n независимых опытов, в каждом из
которых может произойти или не произойти событие A . Вероятность
появления события A в каждом из опытов равна p .
X 1 - количество появлений события A в первом испытании.
Очевидно, что, X 1 ∈ {0;1} . Аналогично обозначим X 2 - количество
появлений события A во втором испытании, X 3 - количество появлений
события A в третьем испытании и т. д. При этом для каждой из случайных
величин X 1 , X 2 ,... X n ряд распределения имеет вид
Пусть
Xi
0
1
вероятность
1− p
p
X = X 1 + X 2 + ... + X n . По следствию из теоремы о свойствах
математического ожидания: M ( X ) = M ( X 1 ) + M ( X 2 ) + ... + M ( X n ) .
и
M ( X i ) = 0 ⋅ (1 − p ) + 1 ⋅ p = p , значит,
M ( X ) = M ( X 1 ) + M ( X 2 ) + ... + M ( X n ) = np .
49
( )
D( X ) = M (X ) − (M ( X ))
Поскольку
M X i2 = 0 2 ⋅ (1 − p ) + 12 ⋅ p = p и
2
i
i
2
i
, то
D( X i ) = p − p 2 = p (1 − p ) , то
по следствию из теоремы о свойствах дисперсии:
D( X 1 + X 2 + ... + X n ) = D( X 1 ) + D( X 2 ) + ... + D( X n ) = np(1 − p ) .
Пример 2: Найти математическое ожидание и дисперсию случайной
величины, подчиненной закону распределения Пуассона.
P( X = k ) =
Решение:
∞
λk e − λ
k =0
k!
M (X ) = ∑ k ⋅
= λe
k!
∞
= e −λ ∑
k =1
λn
∞
λk e − λ
.
λk
(k − 1)!
∞
= λe − λ ∑
k =1
λk −1
(k − 1)!
=
∑ n! = λe λ ⋅ e λ = λ .
−λ
−
n =0
∞
( )
M X 2 = ∑k2 ⋅
λk e − λ
k!
k =0
∞
= λe −λ ∑
n=0
(n + 1)λ
n!
n
∞
kλk
(n + 1)λn+1 =
= e −λ ∑
n!
k =1 (k − 1)!
n =0
∞
= e −λ ∑
 ∞ nλn ∞ λn 
= λe −λ  ∑
+ ∑  = λe −λ λe λ + e λ = λ2 + λ .
!
n
n =0 n! 
 n =0
(
)
D ( X ) = λ2 + λ − λ2 = λ
Контрольные вопросы:
1.
Что называется функцией от случайной величины? Как составляется ряд
распределения функции от двух случайных величин?
2. Что называется математическим ожиданием дискретной случайной величины?
Каковы свойства математического ожидания?.
3. Что называется моментом порядка n дискретной случайной величины? Что
называется центральным моментом порядка n дискретной случайной величины?
4. Что называется дисперсией дискретной случайной величины? Каковы свойства
дисперсии? Что называется средним квадратическим отклонением?
5. Запишите формулы математического ожидания и дисперсии случайной величины,
подчиненной биномиальному закону распределения. Запишите формулы
математического ожидания и дисперсии случайной величины, подчиненной закону
распределения Пуассона.
Лекция 7 Непрерывная случайная величина
Функция распределения непрерывной случайной величины
Определение: Случайная величина называется непрерывной, если она
может принимать любое значение из конечного или бесконечного
числового интервала.
50
Примеры: 1) Случайная величина
метро. T ∈ 0; t 0 .
[
]
T - время ожидания пассажиром поезда
2) Ошибка, которая может быть допущена некоторым измерительным
устройством
3) Расстояние от точки попадания до центра мишени.
Замечание: для непрерывной случайной величины не существует понятия
ряда распределения.
Определение: Пусть дана непрерывная случайная величина X . Функция
F ( x ) = P( X < x ) , определенная для всех действительных чисел x ,
называется функцией распределения случайной величины
X.
В дальнейшем предполагаем, что функция распределения непрерывной
случайной величины непрерывна в любой точке и дифференцируема всюду,
кроме, может быть, отдельных точек.
Замечание: функцию распределения непрерывной случайной величины
называют также интегральной функцией распределения.
Свойства функции распределения:
4) Функция F ( x ) - неубывающая
5)
6)
lim F ( x ) = 0 , lim F ( x ) = 1 .
x → −∞
F ( x ) ∈ [0;1]
x→∞
Замечание: любая функция, удовлетворяющая трем перечисленным
свойствам, является функцией распределения некоторой
случайной
величины.
Теорема (вероятность попадания непрерывной случайной величины в
заданный интервал)
Пусть F ( X ) - функция распределения непрерывной случайной величины,
тогда
P(a ≤ X < b ) = F (b ) − F (a )
Доказательство идентично доказательству аналогичной теоремы для
дискретной случайной величины.
51
Следствие: вероятность того, что непрерывная случайная величина примет
какое-либо конкретное значение, равна нулю.
Пример1: проверить, являются ли функции
и
F (x ) =
 0 при x < −1
x +1
G( x ) = 
при x ∈ [− 1;2]
3

1 при x > 2

1
π
arctgx +
1
2
функциями распределения
некоторых случайных величин.
Решение: Надо проверить выполнение свойств
1) функция F ( x ) - неубывающая
2)
lim F ( x ) = 0 , lim F ( x ) = 1 .
x → −∞
x→∞
F ( x ) ∈ [0;1]
1
1
а) F ( x ) = arctgx + . Поскольку функция y = arctgx - неубывающая,
π
2
1
1
то и F ( x ) = arctgx + - также неубывающая функция.
π
2
1
1
1
1 1 π 1


lim arctgx +  = lim arctgx + = ⋅ + = 1
x→∞ π
2  π x →∞
2 π 2 2

1 1
1 1  π 1
1
lim  arctgx +  = lim arctgx + = ⋅  −  + = 0 .
x → −∞ π
x
→
−∞
2 π
2 π  2 2

Поскольку lim F ( x ) = 0 , lim F ( x ) = 1 и функция F ( x ) - неубывающая,
3)
x → −∞
x→∞
[0;1] . Все три
1
свойства выполняются, значит, функция F (x ) = arctgx + является
π
2
функцией распределения некоторой случайной величины.
то, очевидно, что все ее значения заключены в промежутке
1
 0 при x < −1
x +1
б) G ( x ) = 
при x ∈ [− 1;2] .
3

1 при x > 2

52
На промежутках
(− ∞;−1) и (2; ∞ ) функция G(x ) постоянна и, значит, не
убывает. На промежутке
[− 1;2]
функция
возрастающей. Значит, на всей числовой
неубывающая.
Из определения функции G ( x ) следует, что
На промежутке
промежутке
G(x ) =
x +1
и
3
является
G(x ) -
прямой функция
lim G ( x ) = 0 , lim G ( x ) = 1 .
x → −∞
x→∞
(− ∞;−1) G(x ) = 0 , на промежутке (2; ∞ ) G(x ) = 1. На
[− 1;2] G(x ) = x + 1 и при этом G(− 1) = 0 и G(2) = 1 .
3
x +1
возрастает, значит, на промежутке [− 1;2] ее
Функция G ( x ) =
3
наименьшее значение равно 0, а наибольшее равно 1. Следовательно, на
всей числовой прямой G ( x ) ∈ 0;1 . Все три свойства выполняются, значит,
[ ]
функция G ( x ) является функцией распределения некоторой случайной
величины.
Пример 2: Случайная величина
X задана функцией распределения
 0 при x < −1
x +1
G( x ) = 
при x ∈ [− 1;2] .
3

1 при x > 2

Найти вероятность попадания случайной величины в интервал
[1;3].
Решение: P (a ≤ X < b ) = G (b ) − G (a )
[− 0,5;0,5]
и вероятность ее попадания в интервал
− 0,5 и 0,5 принадлежат промежутку [− 1;2] , где
x +1
0,5 + 1 − 0,5 + 1 1
G(x ) =
, значит, P (− 0,5 ≤ X < 0,5) =
−
= .
3
3
3
3
x +1
Число 3 ∈ (2; ∞ ) , где G ( x ) = 1 , а число 1 ∈ [− 1;2] , где G ( x ) =
,
3
1+1 1
= .
значит, P (− 0,5 ≤ X < 0,5) = 1 −
3
3
Оба числа
53
Плотность распределения
F ( x ) является функцией распределения непрерывной
'
случайной величины X . Тогда функция f ( x ) = F ( x ) называется
плотностью распределения случайной величины X .
Определение: Пусть
Замечание: плотность распределения называют также дифференциальной
функцией распределения.
Свойства плотности:
f (x ) ≥ 0
1)
∞
∫ f (x )dx = 1
2)
−∞
Доказательство: 1) поскольку f ( x ) = F ( x ) и
функция, значит, ее производная не отрицательна.
'
∞
2)
∫ f (x )dx = F (x )
−∞
∞
−∞
F ( x ) - неубывающая
= lim F ( x ) − lim F (x ) = 1 − 0 = 1
x →∞
x → −∞
Замечание: любая функция, удовлетворяющая двум перечисленным
свойствам, является плотностью распределения некоторой непрерывной
случайной величины.
Теорема (вероятность попадания в заданный интервал)
Если функция f ( x ) является плотностью случайной величины
вероятность попадания этой величины в интервал
[a; b] равна
X , то
b
P(a ≤ X ≤ b ) = ∫ f ( x )dx
a
Доказательство:
b
b
P(a ≤ X ≤ b ) = F (b ) − F (a ) = ∫ F ( x )dx = ∫ f ( x )dx .
'
a
a
Теорема (плотность и функция распределения)
Если функция f ( x ) является плотностью случайной величины
x
функция распределения равна
∫ f (x )dx .
−∞
54
X , то ее
Доказательство:
F ( x ) = P( X < x ) = P(− ∞ < X < x )
b
Полагая в формуле
P(a ≤ X ≤ b ) = ∫ f ( x )dx a = −∞, b = x , получим
a
x
F (x ) =
∫ f (x )dx . Теорема доказана.
−∞
Пример: Дана плотность случайной величины
X:
π


 0 при x ∈  − ∞;− 2 


 π π
f ( x ) = a cos x при x ∈ − ; 
 2 2

π

 0 при x ∈ ; ∞ 



2 
a , функцию распределения, вероятность
 2π 
. Построить графики
попадания случайной величины в интервал 0;
 3 
Найти: значение коэффициента
плотности и функции распределения.
Решение: 1) коэффициент
∞
Поскольку
∫
a.
−
f ( x )dx = 1 , то
−∞
π
π
2
2
∞
π
π
2
2
∫ 0dx + ∫ a cos xdx + ∫ 0dx = 1 . Первый и
−∞
−
π
2
третий интегралы в последнем равенстве равны 0, поэтому
a ∫ cos xdx = 1 .
−
π
asin x
2
−
π
2
π
2
 π
1
 π 
= a sin − sin  −   = 2a = 1 . Значит, a = .
2
2
 2 

2) функция распределения
F (x ) =
x
∫ f (x )dx .
−∞
55
При
x
x
π

x ∈  − ∞;−  : F (x ) = ∫ f (x )dx = ∫ 0dx = 0 .
2

−∞
−∞
При x ∈ − π ; π  :
 2 2 
F (x ) =
x
∫
−∞
−
f ( x )dx =
π
2
∫ 0dx +
−∞
x
1
1
1
x
cos xdx = 0 + sin x − π = (sin x + 1)
∫
2 π
2
2
2
−
2
−
π
π
π
x
x
2
2
При x ∈  π ; ∞  : F ( x ) = f (x )dx = 0dx + 1 cos xdx + 0dx = 1 sin x 2 = 1 .
∫
∫
∫
π
2 
2 ∫π
2
π
−
−∞
−∞
−
2
2
2
π


0 при x ∈  − ∞;− 

2

1

 π π
F ( x ) =  (sin x + 1) при x ∈ − ; 
 2 2
2
π



1 при x ∈  ; ∞ 
2 

3) вероятность попадания в интервал
P(a ≤ X < b ) = F (b ) − F (a ) = 1 −
 2π 
0; 3  .
1
(sin 0 + 1) = 1
2
2
Рис. 12 Пример: Плотность и функция распределения
Контрольные вопросы:
1. Что называется непрерывной случайной величиной? Что называется функцией
распределения непрерывной случайной величины? Каковы ее свойства?
56
2.
3.
Что называется плотностью распределения непрерывной случайной величины?
Каковы свойства плотности? Как найти функцию распределения по заданной
плотности?
Записать формулы вероятности попадания случайной величины в заданный
интервал.
Лекция 8 Числовые характеристики непрерывной
случайной величины
Математическое ожидание
Определение: математическим ожиданием случайной величины
плотностью распределения f ( x ) называется
M (X ) =
X с
∞
∫ xf (x )dx .
−∞
Замечание: как для дискретной случайной величины, так и для
непрерывной, математическое ожидание может не существовать.
Необходимым и достаточным условием существования математического
∞
ожидания является сходимость несобственного интеграла
∫ xf (x )dx .
−∞
Рассмотрим функцию распределения
распределения равна
∞
∫ xf (x )dx =
−∞
f (x ) = F ' (x ) =
∞
F (x ) =
)
π
arctgx +
1
. Плотность
2
1
.
π 1+ x2
(
(
xdx
1
2
∫−∞π 1 + x 2 = 2π ln 1 + x
(
1
)
)
∞
= ∞ : интеграл расходится.
−∞
Математическое ожидание не существует.
Теорема (свойства математического ожидания)
1) Постоянный множитель можно выносить за знак
M (X ):
M (СX ) = СM ( X ) .
2) Математическое ожидание суммы равно сумме математических
ожиданий: M ( X + Y ) = M ( X ) + M (Y ) .
Доказательсто:
57
∞
1)
∞
M (СX ) = ∫ Cxf (x )dx = C ∫ xf ( x )dx =СM ( X ) .
−∞
2) M ( X + Y ) =
−∞
∞
∞
−∞
−∞
−∞
−∞
∫ (x + y ) f (x )dx = ∫ xf (x )dx + ∫ yf (x )dx =M ( X ) + M (Y )
Следствие 1: Математическое ожидание разности равно разности
M ( X − Y ) = M ( X ) − M (Y ) .
математических ожиданий:
Следствие 2:
M ( X 1 + X 2 + ... + X n ) = M ( X 1 ) + M ( X 2 ) + ... + M ( X n ) .
Дисперсия и среднее квадратическое отклонение
Определение: Моментом порядка
k непрерывной случайной величины
∞
( ) ∫ x f (x )dx
X называется M X k =
k
−∞
Определение:
Центральным
случайной величины
моментом
( )
X называется M X
k
k непрерывной
k
= M ( X − M ( X )) .
порядка
(
)
∞
Замечание:
( ) ∫ (x − M ( X )) f (x )dx .
k
M Xk =
−∞
Определение: Дисперсией непрерывной
случайной величины
плотностью распределения f ( x ) называется
D( X ) =
X с
∞
∫ (x − M ( X )) f (x )dx .
2
−∞
Замечание 1: Дисперсия любой непрерывной случайной величины
неотрицательна: D ( X ) ≥ 0 .
Действительно, поскольку плотность обладает свойством
кроме
58
того,
(x − M ( X ))
2
≥ 0,
то
под
знаком
f ( x ) ≥ 0 и,
интеграла
∞
∫ (x − M (x )) f (x )dx
2
находится неотрицательная функция и, значит,
−∞
значение интеграла также неотрицательно.
Замечание2:
2
∞
∞

2
D( X ) = ∫ x f ( x )dx −  ∫ xf ( x )dx  = M X 2 − (M ( X )) .
−∞
 −∞

( )
2
Доказательство:
D( X ) =
∞
∫ (x − M ( X )) f (x )dx =
2
−∞
∞
=
∫ (x
2
)
− 2 xM ( X ) + (M ( X )) f ( x )dx =
2
−∞
+ (M ( X ))
( )
∞
2
∫
f ( x )dx =
−∞
= M X 2 − (M ( X )) .
∞
∞
−∞
−∞
2
∫ x f (x )dx − 2M ( X ) ∫ xf (x )dx +
∞
∫ x f (x )dx − 2M ( X ) ⋅ M ( X ) + (M ( X ))
2
2
⋅1 =
−∞
2
Определение: Средним квадратическим отклонением случайной величины
X называется σ ( X ) = D( X ) .
Теорема (свойства дисперсии)
1) Постоянный множитель можно выносить за знак
D( X ) , возведя
его в квадрат: D (СX ) = С D ( X ) .
2) Дисперсия суммы независимых случайных величин равна сумме
дисперсий: D ( X + Y ) = D ( X ) + D (Y ) .
3) Дисперсия разности независимых случайных величин равна сумме
дисперсий: D ( X − Y ) = D ( X ) + D(Y )
Без доказательства.
Следствие 1: Если X - случайная величина, а C - постоянная величина,
то
D( X + C ) = D( X ) .
2
Следствие 2:
D( X 1 + X 2 + ... + X n ) = D( X 1 ) + D( X 2 ) + ... + D( X n ) .
Пример: Найти математическое ожидание и дисперсию случайной
величины с функцией распределения
59
 0 при x ≤ −1
x +1
F ( x) = 
приx ∈ [− 1;2] .
 3
 1 при x > 2
Решение: найдем плотность распределения:
 0 при x ≤ −1
1
f (x) = 
при x ∈ [− 1;2] .
3

 0 при x > 2
∞
2
1
1 x2
M ( X ) = ∫ xf ( x )dx = ∫ x ⋅ dx = ⋅
3
3 2
−∞
−1
( )
∞
2
2
=
−1
1
1 x3
M X = ∫ x f ( x )dx = ∫ x ⋅ dx = ⋅
3
3 3
−∞
−1
1 3
2
D ( X ) = M (X 2 ) − (M ( X )) = 1 − = .
4 4
2
2
4 1 1.
− =
6 6 2
2
=
2
−1
8 1
+ = 1.
9 9
Другие характеристики случайных величин
Определение: модой непрерывной случайной величины называется
значение переменной x , при котором плотность f ( x ) максимальна. Если
мода единственна, то распределение случайной величины называется
унимодальным (см. рисунок 13.), в противном случае оно называется
полимодальным.
60
Рис. 13 Мода распределения
Замечание: существуют распределения, имеющие более одной моды. Такие
распределения называют полимодальными.
Рис. 14 Полимодальное распределение
Замечание: Если график плотности распределения непрерывной случайной
величины, имеющей моду,
симметричен относительно вертикальной
прямой x = x 0 и математическое ожидание существует, то математическое
ожидание и мода совпадают и равны x 0 .
Определение: медианой непрерывной случайной величины называется
такое ее значение Me , что P ( X < Me ) = P ( X > Me) .
Замечание: геометрический смысл медианы состоит в том, что вертикальная
прямая x = Me делит площадь, ограниченную графиком плотности
распределения случайной величин на две равные части.
Рис. 15 Медиана распределения
Замечание: Если график плотности распределения непрерывной случайной
величины, имеющей моду,
симметричен относительно вертикальной
61
прямой x = x 0 и математическое ожидание существует, то математическое
ожидание, мода и медиана совпадают и равны x 0 .
Если распределение непрерывной случайной величины симметрично
относительно математического ожидания, то все моменты нечетных
порядков равны нулю, как интегралы от нечетных функций на
симметричном промежутке. Поэтому для численного определения
характеристики «асимметрии» вводится следующее число:
Определение: Асимметрией теоретического распределения случайной
величины X называется отношение ее центрального момента третьего
порядка к кубу среднего квадратичного отклонения:
A( X ) =
( ).
M X3
σ3
Рис. 16 Асимметрия распределения
Четвертый центральный момент служит для характеристики
«островершинности» или «плосковершинности» графика плотности
распределения.
Определение: Эксцессом теоретического распределения
называется
величина
E(X ) =
( )−3.
M X4
σ4
Замечание: Число 3 вычитается из выражения
( ) так как для широко
M X4
σ4
распространенного в природе нормального закона распределения имеет
место равенство
( )=3
M X4
σ4
(см. лекцию 9) и эксцесс характеризует
отклонение закона распределения от нормального в ту или иную сторону.
62
Рис. 17 Эксцесс распределения
Замечание1: можно доказать, что для любого
симметричного
распределения случайной величины асимметрия равна 0. Асимметрия
определяет, условно говоря, «перекос» графика плотности распределения.
Контрольные вопросы:
1. Что называется математическим ожиданием непрерывной случайной величины?
Каковы свойства математического ожидания?
2. Что называется дисперсией непрерывной случайной величины? Каковы свойства
дисперсии? Что называется средним квадратическим отклонением случайной величины?
3.Что называется модой и что медианой распределения? Что называется асимметрией
распределения, каков ее геометрический смысл? Что называется эксцессом
распределения?
Лекция 9 Законы равномерного, показательного и
нормального распределений
Закон равномерного распределения вероятностей
[ ]
a; b случайной
Определение: Закон распределения на интервале
величины называется равномерным, если на этом интервале плотность
распределения постоянна.
Примеры: 1) Интервал между прибытиями на станцию поездами метро
составляет 5 минут. Пассажир в случайное время появляется на станции
метро. Время ожидания пассажиром поезда есть случайная величина,
подчиненная равномерному закону распределения на интервале 0;5 .
2) Шкала измерительного устройства проградуирована в некоторых
единицах. Ошибка округления измерения является случайной величиной,
подчиненной равномерному закону распределения.
[ ]
63
Теорема (о плотности равномерного распределения)
Если случайная величина
X распределена равномерно на интервале
a; b , то ее плотность равна
[ ]
0 при _ x ∈ (− ∞; a )
 1
f (x) = 
при x ∈ [a; b]
−
b
a

 0 при x ∈ (b; ∞ )
[a; b] случайная величина
не может принимать значений, то вне этого интервала f ( x ) = 0 .
Доказательство: Поскольку вне интервала
X
∞
∫ f (x )dx = 1
Поскольку
и,
по определению равномерного закона
−∞
распределения, на интервале
[a; b] f (x ) = С
b
∫ Cdx = 1 .
и, значит,
a
b
b
∫ Cdx = C ∫ dx = Cx
a
b
a
= C (b − a ) = 1 , значит,
C=
a
1
. Теорема
b−a
доказана.
Найдем функцию распределения равномерной случайной величины.
F (x ) =
x
∫ f (x )dx .
−∞
Из свойств функции распределения очевидно, что при
F ( x ) = 0 , а при x ∈ (b; ∞ ) F (x ) = 1 .
x
dx
x
При x ∈ [a; b ] : F ( x ) = ∫
=
b−a b−a
a
x
=
a
x−a
.
b−a
 0 при x ∈ (− ∞; a )
x − a
F (x) = 
при x ∈ [a; b]
−
b
a

 1 при x ∈ (b; ∞ )
64
.
x ∈ (− ∞; a )
Рис. 18 Плотность и функция равномерного распределения
Найдем математическое ожидание, дисперсию и среднее квадратическое
отклонение равномерно распределенной случайной величины:
∞
b
b
x2
b2 − a 2 b + a
x
.
dx =
=
M ( X ) = ∫ xf ( x )dx = ∫
=
b−a
2(b − a ) a 2(b − a )
2
a
−∞
Замечание: математическое ожидание равномерно распределенной
случайной величины совпадает с серединой интервала a; b .
[ ]
∞
b
( ) ∫ x f (x )dx = ∫ b x− a dx = 3(bx− a )
M X2 =
2
3
b
=
2
−∞
a
a
b − a 3 b 2 + ab + a 2
=
3(b − a )
3
3
b 2 + ab + a 2 b 2 + 2ab + a 2
2
−
=
D( X ) = M X 2 − (M ( X )) =
3
4
2
4b 2 + 4ab + 4a 2 − 3b 2 − 6ab − 3a 2 b 2 − 2ab + a 2 (b − a )
=
=
=
12
12
12
b−a
σ ( X ) = D( X ) =
.
2 3
( )
Показательное распределение вероятностей
Определение: Показательным (или экспоненциальным) называется
распределение непрерывной случайной величины с плотностью
 0 при x < 0
, где λ > 0 .
f ( x ) =  − λx
e
при
x
0
λ
≥

65
Замечание: примерами случайных величин, подчиненной показательному
закону распределения вероятностей могут служить длительность работы
прибора до первого отказа, длительность времени обслуживания и т. п.
Найдем функцию распределения показательного закона распределения.
При
При
x
x
−∞
−∞
x ∈ (− ∞;0) F ( x ) =
x ∈ [0; ∞ )
F (x ) =
x
∫ f (x )dx = ∫ 0dx = 0 .
x
0
∫ f (x )dx = ∫ 0dx + ∫ λe
−∞
−∞
0
− λx
x
 1
dx = λ ⋅  − e −λx
 λ
= 1 − e −λx .
0
Рис. 19 Плотность и функция показательного распределения
Найдем математическое ожидание, дисперсию и среднее квадратическое
отклонение показательно распределенной случайной величины:
M (X ) =
∞
∞
∫ xf (x )dx = ∫ λxe
−∞
0
∞
1
= ∫ e −λx dx = − e −λx
λ
0
∞
∞
=
0
1
λ
2
−∞
∞
= 2 ∫ xe − λx dx =
0
66
 1
dx = λ  − xe −λx
 λ

2
e
0
2
λ
M (X ) =
2
λ2
∞
+
0
1
∞
e
λ∫
− λx
0

dx  =


.
∞
( ) = ∫ x f (x )dx = ∫ λx
M X
2
− λx
.
− λx
 1
dx = λ  − x 2 e − λx
 λ

∞
+
0
2
∞
xe
λ∫
0
− λx

dx  =


( )
D( X ) = M X 2 − (M ( X )) =
2
2
σ ( X ) = D( X ) =
1
λ
1
=
2
λ
2
1
−
λ
=
2
1
λ2
.
.
λ
Нормальный закон распределения
Нормальный закон распределения, называемый также законом Гаусса наиболее часто встречающийся на практике закон распределения. Это
связано с тем, что он является предельным законом, к которому
приближаются другие законы при весьма естественных условиях (см.
лекцию 10).
Определение: Нормальным называется распределение
непрерывной случайной величины с плотностью
f (x ) =
−
1
( x − a )2
e
σ 2π
вероятностей
, где a ∈ R; σ > 0 .
2σ 2
Очевидно, что f ( x ) > 0 при любом значении переменной x . Покажем, что
∞
1
∫e
σ 2π
σ 2π
∞
∫e
( x − a )2
dx = 1 .
2σ 2
−∞
x−a
Сделаем замену переменной
1
−
= y , тогда dx = σdy и
σ
−
( x − a )2
2σ 2
∞
1
dx =
2π
−∞
∫e
−
y2
2
dy .
−∞
Вычислим
 1

 2π

∞
∫e
−
y2
2
−∞
2

1
dy  =

2π

∞
∫e
−∞
−
y2
2
∞
dy ⋅ ∫ e
−∞
−
z2
2
1
dz =
2π
 −z
 ∞ −y
 e 2 dy  ⋅ e 2 dz =
∫ ∫

− ∞ − ∞

∞
2
y

−
1

dy dz =
e
⋅e

2π ∫∫
R2

ρ2
2π  ∞

−

Перейдем к полярной системе координат:
∫0  ∫0 ρe 2 dρ dϕ .


1
=
2π

∫−∞ −∫∞e

∞
∞
y2
−
2
z2
−
2

1
dy dz =

2π

 ∞ −y
∫−∞ −∫∞e

∞
2
+ z2
2
2
2
+z2
2
dS .
67
∞
∫ ρe
−
ρ2
2
0
1
2π
∞
dρ = − ∫ e
−
ρ2
2
0
−∞
0
 ρ2 
 = − ∫ e t dt = ∫ e t dt = e t
d  −
 2 
−∞
0

∞ −ρ
1
∫0  ∫0 ρe 2 dρ dϕ = 2π


2
2π
∞
1
Значит,
∫e
σ 2π
2π
0
−∞
=1.
1
∫ dϕ = 2π ⋅ 2π = 1 .
0
(x−a )
2
−
dx = 1 = 1
2σ 2
−∞
Замечание: в связи с симметричностью промежутка интегрирования и
четностью интегрируемой функции:
0
1
∫e
2π
−
x2
2
∞
1
dx =
2π
−∞
∫e
−
x2
2
dx =
0
1
2
Найдем математическое ожидание, дисперсию и среднее квадратическое
отклонение нормально распределенной случайной величины:
M (X ) =
σ
=
2π
+
∫ xe
σ 2π
∞
∫ ye
y2
2
−
−
( x − a )2
2σ 2
∞
∫e
y2
−
2
∞
a
dy +
2π
σ
2π
dy = −
−∞
∫e
−
y2
2
−∞
∞
1
dx =
u = y, v = ye
'
σ2
D( X ) =
2π
68
−
∫y
2
e
−
y2
2
−
y2
2
dy =
σ
dy = −
2π
∞
∫e
−∞
 y2 
 +
d  −
 2 
−∞
∫ e dt + a = 0 + a = a .
t
−∞
Сделаем замену переменной
∞
y2
2
−∞
По определению дисперсии: D( X ) =
σ2
D( X ) =
2π
−
∫ (σy + a )e
2π
−∞
−∞
a
2π
∞
1
x−a
σ 2π
∫ (x − a )
2
−
e
( x − a )2
2σ 2
dx .
−∞
= y (при этом dx = σdy ):
σ
dy .
∞
1
Для интегрирования по частям полагаем
−∞
y2
2
, тогда u ' = 1 , v =

y2
−

2
 − ye

∞
∞
+
−∞
∫ ye
−∞
−
∫ ye
y2
2
−
y2
2
dy = − ∫ e


dy  = σ 2 .


−
y2
2
2
y
−
 y2 
 = −e 2 .
d  −
 2 
Значит, σ ( X ) = σ .
Определение: интегральной функцией Лапласа называется функция
t2
x
−
1
e 2 dt .
∫
2π 0
Φ(x ) =
Замечание: ранее уже говорилось о том, что значения интегральной
функции Лапласа сведены в таблицы, которые можно найти в любом
справочнике по теории вероятностей.
Функцией распределения нормально распределенной случайной величины
является
x
1
F (x ) =
∫e
σ 2π
−
( x − a )2
2σ 2
dx .
−∞
Ниже приведены графики плотности и функции распределения нормальной
случайной величины
Рис. 20 Плотность и функция нормального распределения
Заменой переменной
x−a
σ
= y можно свести эту функцию к интегральной
функции Лапласа:
1
F (x ) =
σ 2π
x
∫e
−
x −a
( x −a )2
2σ 2
1
2π
dx =
−∞
σ
∫
e
−
y2
2
dy =
−∞
x−a
1
=
2π
0
∫e
−∞
−
y2
2
1
dy +
2π
σ
∫
0
e
−
y2
2
dy =
1
 x−a.
+ Φ

2
 σ 
В связи с этим, вероятность попадания нормально распределенной
случайной величины в заданный интервал [α ; β ] сводится к нахождению
разности двух значений интегральной функции Лапласа:
69
β −a
α − a .
P(α ≤ X ≤ β ) = Φ
 − Φ

 σ 
 σ 
Кроме того,
a +δ −a
a −δ − a
P ( X − a < δ ) = P (a − δ < X < a + δ ) = Φ
 − Φ
=
σ
σ




δ 
 δ
δ .
= Φ   − Φ  −  = 2Φ  
σ 
 σ
σ 
Получили формулу вероятности заданного отклонения случайной величины
от ее математического ожидания:
δ 
P ( X − a < δ ) = 2Φ   .
a
Ниже приведены графики плотностей нормальных распределений с
математическими ожиданиями a1 < a 2 < a 3 и одинаковой дисперсией.
Рис. 21 Графики плотности нормального распределения в зависимости от значения
математического ожидания
Теперь приведем графики плотностей нормально распределенных
случайных величин с одинаковыми математическими ожиданиями и
различными дисперсиями D1 < D 2 < D3 .
Рис. 22 Графики плотности нормального распределения в зависимости от значения
дисперсии
70
δ 
P ( X − a < δ ) = 2Φ  
σ 
P ( X − a < 3σ ) = 2Φ(3) = 2 ⋅ 0,49865 = 0,9973 .
В
равенстве
(
положим
δ = 3σ :
)
Равенство P X − a < 3σ = 0,9973 носит название «правило трёх сигм».
Оно означает практическую достоверность отклонения
случайной
величины, распределенной по нормальному закону от математического
ожидания не более, чем на 3σ .
Контрольные вопросы:
1.
Что называется законом равномерного распределения? Каковы плотность и функция
распределения случайной величины, подчиненной этому закону? Чему равны
математическое ожидание и дисперсия закона равномерного распределения?
2. Что называется законом показательного распределения? Каковы плотность и
функция распределения случайной величины, подчиненной этому закону? Чему
равны математическое ожидание и дисперсия закона показательного распределения?
3. Что называется нормальным законом распределения? Каковы плотность и функция
распределения случайной величины, подчиненной этому закону? Чему равны
математическое ожидание и дисперсия нормального закона распределения?
4. Что называется интегральной функцией Лапласа? Как выражается функция
распределения нормально распределенной случайной величины через интегральную
функцию Лапласа?
5. Как выглядят графики плотности и функции распределения нормально
распределенной случайной величины? Сформулируйте правило «трёх сигм».
Лекция 10 Предельные теоремы теории вероятностей
Неравенство Чебышёва
Невозможно предсказать, какое конкретное значение примет случайная
величина в результате одного испытания. Однако, при
некоторых,
достаточно общих условиях, поведение суммы достаточно большого числа
случайных величин почти перестает быть случайным и становится вполне
предсказуемым.
Теорема (неравенство Чебышёва для ДСВ) Пусть X - дискретная
случайная величина с математическим ожиданием M ( X ) , дисперсией
D( X ) и рядом распределения
x1
x2
p1
p2
………..
xn
……….
pn
71
Тогда P( X − M ( X ) < ε ) ≥ 1 −
D( X ) .
ε2
(
Доказательство: События P X − M ( X ) < ε
)
(
и P X − M (X ) ≥ ε
)
противоположны, значит,
P( X − M ( X ) < ε ) = 1 − P( X − M ( X ) ≥ ε ) .
Найдем вероятность P( X − M ( X ) ≥ ε ).
D( X ) = ( x1 − M ( X )) p1 + ( x 2 − M ( X )) p 2 + ... + ( x n − M ( X )) p n .
2
2
2
Если отбросить из этой суммы все слагаемые, у которых x j − M ( X ) < ε ,
то сумма
(x1 − M ( X ))2 p1 + (x2 − M ( X ))2 p2 + ... + (xn − M ( X ))2 p n
может только уменьшиться (она не уменьшится лишь в том случае, если
таких слагаемых нет; ) .
Пусть в сумме
(x
)
(
(
)
)
− M ( X ) pi1 + xi2 − M ( X ) p i2 + ... + x ik − M ( X ) p ik
2
i1
2
2
содержатся те, и только те слагаемые, у которых x j − M ( X ) ≥ ε . Тогда
(
)
(
(
)
)
D( X ) ≥ x i1 − M ( X ) p i1 + xi2 − M ( X ) pi2 + ... + xik − M ( X ) pik .
2
(
2
)
Если x j − M ( X ) ≥ ε , то x j − M ( X )
2
2
≥ε2 и
(
)
D( X ) ≥ ε 2 pi1 + ε 2 pi2 + ... + ε 2 pik = ε 2 pi1 + p i2 + ... + pik .
По теореме о сумме вероятностей несовместных событий вероятность
P0 = pi1 + pi2 + ... + pik есть вероятность того, что случайная величина
X примет значение, удовлетворяющее неравенству x j − M ( X ) ≥ ε , т.е.
P0 = P( X − M ( X ) ≥ ε ) .
(
)
Следовательно, D( X ) ≥ ε ⋅ P X − M ( X ) ≥ ε , откуда
2
P( X − M ( X ) ≥ ε ) ≤
D( X ) и, следовательно,
2
ε
P( X − M ( X ) < ε ) ≥ 1 −
D( X ) .
ε2
Теорема доказана.
Замечание: такое же неравенство справедливо и для непрерывной
случайной величины.
72
Закон больших чисел
Теорема Чебышёва (закон больших чисел)
Если X 1 , X 2 ,... X n ,... - попарно независимые случайные величины такие
что D( X i ) ≤ C для всех X 1 , X 2 ,... X n ,... , то для любого (как угодно
малого) числа
ε
верно предельное равенство
 X + X 2 + ... + X n M ( X 1 ) + M ( X 2 ) + ... + M ( X n )

−
< ε  = 1 .
lim P 1
n
n


X + X 2 + ... + X n
Доказательство: Рассмотрим случайную величину X = 1
.
n
 X + X 2 + ... + X n  M ( X 1 ) + M ( X 2 ) + ... + M ( X n ) .
M (X ) = M  1
=
n
n


Из неравенства Чебышёва, примененного к величине X , получим

 X + X 2 + ... + X n M ( X 1 ) + M ( X 2 ) + ... + M ( X n )
P 1
−
< ε  ≥
n
n


n →∞
 X + X 2 + ... + X n 
D 1

n
.

≥1−
2
ε
 X + X 2 + ... + X n  D( X 1 ) + D( X 2 ) + ... + D( X n )
≤
D 1
=
n
n2


C + C + ... + C nC C
≤
= 2 = , значит,
n
n2
n

 X + X 2 + ... + X n M ( X 1 ) + M ( X 2 ) + ... + M ( X n )
P 1
−
< ε  ≥
n
n


C
.
nε 2
При n → ∞ получим

 X + X 2 + ... + X n M ( X 1 ) + M ( X 2 ) + ... + M ( X n )
P 1
−
< ε  ≥ 1 .
n
n


≥1−
Поскольку, любая вероятность не может быть больше 1, то

 X + X 2 + ... + X n M ( X 1 ) + M ( X 2 ) + ... + M ( X n )
P 1
−
< ε  = 1 .
n
n


Теорема доказана.
73
X 1 , X 2 ,... X n ,... - попарно независимые случайные
Следствие: Если
величины с одинаковым математическим ожиданием a и такие что
D( X i ) ≤ C для всех X 1 , X 2 ,... X n ,... , то для любого (как угодно малого)
числа
ε
верно предельное равенство
 X + X 2 + ... + X n

− a < ε  = 1 .
lim P 1
n →∞
n


Центральная предельная теорема
Теорема (центральная предельная теорема)
Если X 1 , X 2 ,... X n - независимые случайные величины, имеющие один и
тот же закон распределения с математическим ожиданием a и дисперсией
σ 2 , то при n → ∞
закон распределения суммы
Yn = X 1 + X 2 + ... + X n
неограниченно приближается к нормальному.
Без доказательства.
Замечание: опыт показывает, что когда число слагаемых не менее 10, закон
распределения суммы обычно может быть заменен нормальным.
Пусть
X 1 , X 2 ,... X n
-
математическими ожиданиями
независимые
случайные
величины
с
a1 , a 2 ,...a n и дисперсиями D1 , D2 ,...Dn ,
тогда математическое ожидание и дисперсия
случайной величины
будут
соответственно
равны
Yn = X 1 + X 2 + ... + X n
a y = a1 + a 2 + ... + a n и D y = D1 + D2 + ... + Dn .
В соответствии с центральной предельной теоремой, вероятность попадания
случайной величины
Yn = X 1 + X 2 + ... + X n в интервал α ; β
[
приближенно равна
 β − ay
P(α < Yn < β ) = Φ
 D
y

74


 − Φ α − a y

 D
y



.


]
Рассмотрим серию из n независимых опытов, в каждом из которых может
произойти или не произойти событие A . Вероятность появления события
A в каждом из опытов равна p .
Обозначим X i - число появлений события A в i -ом опыте ( X i ∈ {0;1}) .
Тогда Yn = X 1 + X 2 + ... + X n - число появлений события A в
n опытах.
Математическое ожидание такой величины равно np , а дисперсия равна
np(1 − p ) .
Из формулы P (α < Yn <
 β − ay
 D
y

β ) = Φ


 − Φ α − a y

 D
y



 получим


утверждение интегральной теоремы Лапласа:
Интегральная теорема Лапласа.
Если производится серия независимых испытаний, в каждом из которых
событие A может произойти с вероятностью p ( p ≠ 0, p ≠ 1) , то
вероятность того, что некоторое событие A наступит не менее чем
и не более, чем
m1 раз
m2 раз приближенно равна
 m2 − np 


 − Φ m1 − np  ,
Pn (m1 , m2 ) ≈ Φ
 np(1 − p ) 
 np(1 − p ) 




где
если
Φ(x ) =
1
2π
n → ∞ , то
x
∫e
−
t2
2
dt - интегральная функция Лапласа. При этом,
0
  m − np 


2
 − Φ m1 − np   → 0 .
Pn (m1 , m2 ) −  Φ
 np (1 − p )  
  np (1 − p ) 



 
Оценка отклонения теоретического распределения от нормального
Определение: Эмпирическим распределением называют распределение
относительных частот. Теоретическим распределением называется
распределение вероятностей.
Теорема (асимметрия и эксцесс нормального распределения)
75
Асимметрия и эксцесс нормального распределения равны 0.
f (x ) =
Доказательство: Пусть
−
1
( x − a )2
e
σ 2π
2σ 2
1) Очевидно, если центральный момент третьего порядка равен 0, то и
асимметрия равна 0.
( )=
M X
∞
1
3
σ 2π
Сделаем замену переменной
1
σ 2π
σ3
2π
∞
∫y e
3
−
y2
2
−∞
σ3
dy =
2π
2) Очевидно, если
( )
M X4 =
1
σ 2π
σ
2σ 2
dx
= y , тогда dx = σdy и
∞
∫ (x − a ) e
3
−
( x − a )2
2σ 2
−∞
∞
∫y
2
e
−
y2
2
−∞
 y2
d 
 2
σ3
dx =
2π
 σ3
 =
2π

∫ (x − a ) e
σ 2π
−
y2
2
dy .
−∞
∞
∫ 2te
−t
dt = 0
∞
2σ 2
dx .
−
( x − a )2
2σ 2
σ4
dx =
2π
∞
∫y
4
e
−
y2
2
dy .
−∞
Для интегрирования по частям положим: u = y , v = ye
y2
2
2
'
y
−
 y2 
 = −e 2 .
v = ∫ ye dy = − ∫ e d  −
 2 
∞


y2
y2
y2
∞
−
σ4 ∞ 4 −2
σ4  3 −2

2
2
y e dy =
−y e
+ 3 ∫ y e dy  =
∫

2π −∞
2π 

−∞
−∞


76
−
( x − a )2
3
y2
2
∫y e
3
−∞
−∞
−
∞
( )
4
∫ (x − a ) e
( x − a )2
−∞
x−a
∞
4
−
M X 4 = 3σ 4 , то эксцесс будет равен 0.
1
∞
∫ (x − a ) e
3
−
−
y2
2
, тогда u ' = 3v 2 ,
Интеграл
1
2π
4
1, поэтому σ
2π
∞
∫y
2
e
−
y2
2
dy вычислялся в предыдущей лекции и был равен
−∞

y2
 3 −2
 − y e

∞
∞
+3∫ y e
2
−∞
−∞
−
y2
2


dy  = 3σ 4 .


Теорема доказана.
Замечание1: можно доказать, что для любого (не только нормального)
симметричного распределения случайной величины асимметрия равна 0.
Замечание 2: Асимметрия и эксцесс являются количественными
характеристиками отличия эмпирического распределения от нормального.
Чем больше по модулю асимметрия и эксцесс, тем больше эмпирическое
распределение отличается от нормального.
Асимметрия определяет, условно говоря, «перекос» графика
плотности распределения, эксцесс определяет «нормальность остроты»
вершины графика плотности распределения.
Рис. 23 Асимметрия распределения
Рис. 24 Эксцесс распределения
77
На нижнем рисунке жирным цветом показан график плотности нормального
распределения.
Контрольные вопросы:
1. Сформулируйте неравенство Чебышева для дискретной и непрерывной случайной
величин.
2. Сформулируйте закон больших чисел.
3. Сформулируйте центральную предельную теорему.
4. Что называется асимметрией и эксцессом случайной величины? Чему равны
асимметрия и эксцесс нормально распределенной случайной величины?
Лекция 11 Цепи Маркова
Основные определения
Определение: Пусть события
B1 , B2 ,..., Bn образуют полную группу
несовместных событий. Цепью Маркова называется последовательность
испытаний, в каждом из которых появляется ровно одно событие из
B1 , B2 ,..., Bn , причем вероятность pij (k ) наступления события Bi в
k -ом испытании может зависеть только от результата B j предыдущего,
(k − 1) -ого
испытания и
предшествующих испытаний.
не
зависит
от
результатов
других
Замечание1: независимые испытания являются частным случаем цепей
Маркова.
Замечание 2: часто события B1 , B2 ,..., Bn называют состояниями
системы, а испытания – изменениями состояний системы.
Определение: Цепью Маркова с дискретным временем называется цепь,
изменение состояний которой происходит в фиксированные моменты
времени. Цепью Маркова с непрерывным временем называется цепь,
изменение состояний которой происходит в любые случайные моменты
времени.
Определение: Цепь Маркова называется однородной, если вероятность
pij (k ) перехода из состояния i в состояние j не зависит от номера
испытания
k . В этом случае вместо pij (k ) пишут pij .
Пример1
(случайное блуждание): На плоскости XOY
целочисленными координатами (m, n ) находится частица.
78
в точке с
Рис. 25 Случайное блуждание по плоскости
В моменты времени t1 , t 2 , t 3 ,... частица перемещается в одну из соседних
четырех точек с целочисленными координатами. Причем вправо она может
переместиться с вероятностью p1 , влево – с вероятностью p 2 , вверх – с
вероятностью p 3 и вниз – с вероятностью p 4 ( p1 + p 2 + p 3 + p 4 = 1) .
Очевидно, что положение частицы в данный момент времени зависит от
того, где она находилась в предшествующий момент времени и не зависит
от того, как она двигалась до этого.
Пример 2 (системы массового обслуживания)
Задачи систем массового обслуживания встречаются в экономике, военном
деле, на транспорте и в системах связи и во многих других областях
человеческой деятельности.
Рассмотрим некоторую систему, имеющую m мест для обслуживания.
Допустим, что в случайные целочисленные моменты времени в эту систему
поступают требования на обслуживание, которые при наличии свободных
мест сразу же начинают удовлетворяться. Если свободных мест нет, то
поступающие требования создают очередь. Каждое требование
обслуживается в течение некоторого случайного времени и после
завершения обслуживания тут же покидает систему. Кроме того, допустим,
что выполняются следующие условия:
1) в каждый момент времени с вероятностью p может поступить
только одно требование на обслуживание, независимо от числа
требований, поступивших до этого момента.
2) Если некоторое требование в момент времени n обслуживается, то
с вероятностью q его обслуживание может закончиться к моменту
времени n + 1 независимо от того, как долго оно обслуживалось до
этого момента
79
3) Обслуживание на каждом из m мест не зависит от обслуживания
на остальных местах и, кроме того, не зависит от входящего потока
требований.
X n - число всех требований в рассматриваемой системе
n (включая и обслуживаемые и стоящие в
очереди), то можно показать, что X 0 , X 1 , X 2 ,... - цепь Маркова.
Если обозначить
обслуживания в момент времени
Переходные вероятности
Определение:
Переходной
вероятностью
pij
называется
условная
i система перейдет в состояние j .
Определение: Если число состояний системы конечно и равно k , то
вероятность того, что из состояния
матрицей перехода называется матрица
 p11

p
P =  21
...

p
 k1
p12
p 22
...
pk 2
...
...
...
...
p1k 

p 2k 
.
... 

p kk 
Замечание: В первой строке матрицы выписаны вероятности перехода из
первого состояния во все возможные состояния (включая и первое),
поэтому p11 + p12 + ... + p1k = 1 . Аналогично, сумма вероятностей в
любой строке матрицы
P равна 1.
 0,3 0,4 0,3 


 0,25 0,75 
 , P2 =  0,1 0,7 0,2 
Пример: матрицы P1 = 
0,1 
 0,9
 0,5 0 0,5 


 0,25 0,25 0,25 0,25 


0,1 0,3 0,6 
 0
являются матрицами перехода для
и P3 = 
0,15 0,35 0,45 0,05 


 0,1 0,2 0,3 0,4 


некоторых цепей Маркова.
80
 0,3 0,4 0,3 


Матрица P4 =  0,1 0,8 0,2  не является матрицей перехода ни для
 0,5 0 0,5 


какой цепи Маркова, т.к. сумма вероятностей второй строки больше 1.
Обозначим
pijk - вероятность того, что в результате k испытаний система
перейдет из состояния
i
в состояние
4
j . Например, p 23
- вероятность того,
что из состояния 2 после четвертого испытания система перейдет в
состояние 3, а
9
p57
- вероятность того, что из состояния 5 после девятого
испытания система перейдет в состояние 7.
Теорема (о вероятностях
 p11

p
P =  21
...

p
 k1
вероятности
pijk ) Если известна матрица перехода
p12
p 22
...
pk 2
...
...
...
...
p1k 

p 2k 
, то
... 

p kk 
pijk являются элементами матрицы P k = P ⋅
P
⋅ ...⋅
P.
k _ раз
Доказательство: Рассмотрим событие A , состоящее в том, что после двух
испытаний система перешла из состояния i в состояние j . После первого
испытания система могла перейти в любое из n состояний с вероятностями
pi1 , pi 2 ,..., pin . Затем система должна перейти в состояние j . По формуле
полной вероятности
число
pij2 = pi1 p1 j + pi 2 p 2 j + ... + pin p nj . Таким образом,
pij2 равно произведению i -ой строки матрицы P на j -ый столбец
той же матрицы. По определению произведения матриц,
число
pij2
2
является соответствующим элементом матрицы P .
Рассмотрим теперь событие B , состоящее в том, что после трех испытаний
система перешла из состояния i в состояние j . После первых двух
испытаний система могла перейти в любое из n состояний с вероятностями
pi21 , p i22 ,..., p in2 .
По формуле полной вероятности
pij3 = pi21 p1 j + pi22 p 2 j + ... + pin2 p nj . По
81
определению произведения матриц, число
pij3 является соответствующим
P2 ⋅ P = P3 .
4
3
3
3
Аналогично pij = p i1 p1 j + pi 2 p 2 j + ... + p in p nj ,
элементом матрицы
pij5 = pi41 p1 j + pi42 p 2 j + ... + pin4 p nj и т. д. Теорема доказана.
 0,3 0,4 0,3 


Пример1: Задана матрица перехода цепи Маркова P =  0,1 0,7 0,2  .
 0,5 0 0,5 


2
Составить матрицу P и найти вероятность того, что система перейдет за 2
испытания из третьего состояния в первое.
Решение:
 0,3 0,4 0,3   0,3 0,4 0,3   0,28 0,4 0,32 

 

 
P =  0,1 0,7 0,2  ⋅  0,1 0,7 0,2  =  0,2 0,53 0,27  .
 0,5 0 0,5   0,5 0 0,5   0,4 0,2 0,4 

 

 
2
p31 = 0,4 .
2
Пример 2 (ограниченное случайное блуждание на прямой):
На координатной прямой в начале координат в момент времени
t 0 находится частица. В моменты времени t1 , t 2 , t 3 ,... частица перемещается
на единицу влево с вероятностью 0,25 или на единицу вправо с
вероятностью 0,75. Точка не может перемещаться влево за начало
координат. Найти вероятность того, что в момент времени t 2 частица
окажется в точке с координатой 2.
Решение: в данном примере в системе имеется бесконечное количество
состояний: X 0 - частица находится в начале координат, X 1 - частица
находится в точке с координатой 1, X 2 - частица находится в точке с
координатой 2 и т. д. По условию требуется найти
Вероятности
p00 , p 01 , p 02 ,..., p0 n ,... равны соответственно
0,
При этом
1, 0, 0, 0, 0,…
p01 = 1 , т.к. частица должна куда-то переместиться, а влево она
переместиться не может.
82
2
p 02
Вероятности
p10 , p11 , p12 ,..., p1n ,... равны соответственно
Вероятности
p 20 , p 21 , p 22 ,..., p 2 n ,... равны соответственно
0,25, 0, 0,75, 0, 0, 0,…
0, 0,25, 0, 0,75, 0, 0,…и т.д.
Составим из этих вероятностей бесконечную «переходную матрицу»:
1
0
0
0
0
0
 0

0
,
25
0
0
,
75
0
0
0
0

 0
0,25
0
0,75
0
0
0

0
0
0
,
25
0
0
,
75
0
0

P=
0
0
0,25
0
0,75
0
 0
 0
0
0
0
0,25
0
0,75

0
0
0
0
0
0
,
25
0

 ...
...
...
...
...
...
...

... 

... 
... 
,
... 
... 
... 

... 
... 
(матрица бесконечно продолжается вниз и бесконечно продолжается
вправо).
При умножении бесконечной строчки на бесконечный столбик лишь
конечное число слагаемых будет отлично от 0 и можно выписать
2
бесконечную «матрицу» P :
0
0,75
0
0
0
0
... 
 0,25


0,4375
0
0,5625
0
0
0
... 
 0
 0,0625
0
0,375
0
0,5625
0
0
... 


0,0625
0
0,375
0
0,5625
0
... 
 0
2
P =

0
0,0625
0
0,375
0
0,5625 ... 
 0
 ...
...
...
...
...
...
...
... 


...
...
...
...
...
...
... 
 ...
 ...
...
...
...
...
...
...
... 

Заметим, что нумерация строк и столбиков матрицы начинается не с 1, а с 0,
поэтому
2
p 02
= 0,75 .
Распределение вероятностей состояний
Выше предполагалось, что начальное состояние системы задано. Теперь
будем считать, что начальное состояние системы не известно. Пусть
q1 , q 2 , q3 ,..., q k - вероятности того, что в начальный момент времени
система находилась в состояниях B1 , B2 , B3 ,..., Bk соответственно.
83
Замечание: если начальным состоянием системы было B1 , то, очевидно,
q1 = 1, q 2 = 0, q 3 = 0,..., q k = 0 .
n
Обозначим q j - вероятность того, что через n шагов система перейдет в
состояние B j .
Если в начальный момент система находилась в состоянии
вероятностью
Bi , то с
n
ij
p через n шагов она перейдет в состояние B j . Тогда по
формуле полной вероятности:
q nj = q1 p1nj + q 2 p 2n j + ... + q k p kjn .
Значит,
(q
n
1
)
... q kn = (q1
q 2n
q2
распределение
Определение:
 p11

 p 21
... q k ) ⋅ 
...

p
 k1
вероятностей
n
p1k 

p 22 ... p 2 k 
.
... ... ... 

p k 2 ... p kk 
q = (q1 , q 2 , q 3 ,..., q k )
p12
...
называется стационарным, если при любых значениях n
(q
, q 2n , q3n ..., q kn ) = (q1 , q 2 , q3 ,..., q k ) .
Замечание: если q = (q1 , q 2 , q 3 ,..., q k ) - стационарное распределение
вероятностей, то вектор q является собственным вектором матрицы
n
1
 p11 p12 ... p1k 


 p 21 p 22 ... p 2 k 
P=
,
соответствующим
...
... ... ... 



p
 k1 p k 2 ... p kk 
собственному числу λ = 1 . Действительно, полагая в формуле
n
 p11 p12 ... p1k 


(q1n q2n ... q kn ) =  p...21 p...22 ...... p...2 k  ⋅ (q1 q2 ... q k )



p
p
...
p
k2
kk 
 k1
n=1, получим q P = q .
84
Пример: задано начальное распределение вероятностей q = (0,2;0,4;0,4 )
 0,3 0,4 0,3 


и матрица перехода цепи Маркова P =  0,1 0,7 0,2  .
 0,5 0 0,5 


Найти распределение вероятностей после первого шага.
Решение:
 0,3 0,4 0,3 


q = (0,2 0,4 0,4) ⋅  0,1 0,7 0,2  = (0,3 0,36 0,34) .
 0,5 0 0,5 


2
Контрольные вопросы:
1. Что называется цепью Маркова? Что называется однородной цепью Маркова? Что
называется цепью Маркова с дискретным временем и что называется цепью
Маркова с непрерывным временем?
2. Привести примеры цепей Маркова с конечным и бесконечным числом состояний.
3. Что называется переходной вероятностью? Что называется матрицей перехода?
Лекция 12 Основные понятия математической статистики
Предмет математической статистики. Статистические ряды
Математическая статистика занимается разработкой методов регистрации,
описания и анализа статистических экспериментальных данных,
получаемых в результате наблюдения массовых случайных явлений.
Рассмотрим формулировки некоторых основных задач математической
статистики.
1) Задача определения закона распределения.
Известна некоторая, достаточно обширная совокупность значений
неизвестной случайной величины. По данной совокупности требуется
определить закон распределения этой случайной величины.
2) Задача нахождения параметров распределения
Известна некоторая, достаточно обширная совокупность значений
неизвестной случайной величины. По данной совокупности требуется
определить математическое ожидание, дисперсию и, возможно, моменты
более высоких порядков случайной величины.
3) Задача проверки правдоподобия гипотез
Выдвигается какая-либо гипотеза, касающаяся неизвестной случайной
величины, для которой известна некоторая совокупность значений.
Например, это может быть гипотеза о подчинении случайной величины
85
некоторому закону распределения, или гипотеза о зависимости двух
наблюдаемых случайных величин.
Первичным статистическим материалом в математической статистике
является совокупность значений случайной величины, полученных в
результате наблюдения (выборка). Обычно эта совокупность значений
оформляется в виде таблицы, называемой (дискретным) статистическим
рядом частот:
Х
x1
n
x2
n1
n2
x3
…
x k −1
xk
n3
…
nk −1
nk
xi - значение случайной величины X , принятое ni раз в результате
n = n1 + n2 + n3 + ... + nk наблюдений. Величины ni называются
где
частотами. Обычно простой статистический ряд частот записывается так,
что x1 < x 2 < ... < x k .
Определение: величина
значения
ωi =
ni
называется относительной частотой
n
xi .
Аналогично
статистическому
ряду
частот
статистический ряд относительных частот:
Х
…
x
x
x
ω
Замечание:
1
2
3
ω1
ω2
ω3
можно
…
составить
x k −1
xk
ω k −1
ωk
ω1 + ω 2 + ... + ω k = 1 . Действительно:
ω1 + ω 2 + ... + ω k =
n
n + n 2 + ... + n k n
n1 n 2
+
+ ... + k = 1
= = 1.
n
n
n
n
n
При достаточно большом числе наблюдений, особенно, когда наблюдения
производятся над непрерывной случайной величиной, статистические ряды
становятся неудобной формой записи статистического материала – она
становится громоздкой и мало наглядной.
В этом случае строятся
интервальные статистические ряды: весь диапазон наблюдений делится на
интервалы
xi , xi +1 ) равной длины и подсчитывается количество
[
наблюдений
ni , попавших в каждый интервал [xi , xi +1 ) .
Интервальным статистическим рядом частот называется ряд
86
Х
n
[x1 , x2 ) [x 2 , x3 ) [x3 , x4 )
n1
n2
n3
Аналогично можно построить
относительных частот
Х
n
где
ωi =
ω2
[xk −1 , xk ]
…
nk −1
интервальный
[x1 , x2 ) [x 2 , x3 ) [x3 , x4 )
ω1
…
ω3
статистический
…
[xk −1 , xk ]
…
ω k −1
ряд
ni
, n = n1 + n 2 + n3 + ... + n k −1 .
n
Пример В результате наблюдений над дискретной случайной величиной
X получены следующие целые значения: 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4,
4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 6. Составить статистический ряд частот и
статистический ряд относительных частот.
Решение: Составим статистический ряд частот
Х
n
1
2
2
4
3
7
4
8
5
3
6
1
Составим статистический ряд относительных частот:
n = 2 + 4 + 7 + 8 + 3 + 1 = 25
2
4
7
8
ω1 =
= 0,08 , ω 2 =
= 0,16 , ω 3 =
= 0,28 , ω 4 =
= 0,32 ,
25
25
25
25
3
1
ω5 =
= 0,12 , ω 6 =
= 0,04 .
25
25
Х
n
1
0,08
2
0,16
3
0,28
4
0,32
5
0,12
6
0,04
Эмпирическая функция распределения
Определение: Эмпирической функцией распределения случайной величины
X называется
F * ( x) =
где
nx
,
n
n x - число значений случайной величины X , меньших, чем x .
87
Замечание: Пусть дан статистический ряд частот случайной величины
и
X:
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
x1 < x 2 < ... < x k . Тогда n x1 = 0 и на всем промежутке (− ∞; x1 )
( x) = 0 .
n
*
и F ( x ) = 1 = ω1
n
эмпирическая функция распределения равна нулю: F
Пусть теперь
интервале
x ∈ [x1 ; x 2 ) , тогда n x = n1
[x1 ; x2 ) .
*
на
n1 + n2
= ω1 + ω 2 , при
n
n + n 2 + n3
x ∈ [x3 ; x 4 ) : n x = n1 + n2 + n3 , F * ( x) = 1
= ω1 + ω 2 + ω 3
n
При
x ∈ [x 2 ; x3 ) будет n x = n1 + n2 и F * ( x) =
и т. д.
При x ∈
[xk ; ∞ ) : n x = n1 + n2 + n3 + ... + nk
и
F ( x) = ω1 + ω 2 + ω 3 + ... + ω k = 1 .
*
Значит, эмпирическая функция распределения является кусочно-постоянной
функцией и обладает следующими свойствами:
1)
2)
F * ( x) - неубывающая функция
lim F * ( x) = 0 , lim F * ( x) = 1
x → −∞
x →∞
(
)
)
0 при x ∈ − ∞; x

1

ω1 при x ∈ x1; x2

 ω1 + ω 2 при x ∈ x2 ; x3
F * ( x) = 
ω + ω 2 + ω3 при x ∈ x3 ; x4
 1

.................................

1 при x ∈ x k ; ∞

[
[
[
[
)
)
)
Пример: Дан статистический ряд частот случайной величины:
88
1
10
X
n
4
15
6
25
Найти эмпирическую функцию распределения и построить ее график.
Решение:
ω3 =
n = 10 + 15 + 25 = 50 , ω1 =
25
= 0,5 .
50
10
15
= 0,2 , ω1 =
= 0,3 ,
50
50
0 при x ∈ (− ∞;1)
 0,2 при x ∈ [1;4)

*
F ( x) = 
 0,5 при x ∈ [4;6)
 1 при x ∈ [6; ∞ )
Рис. 26 Пример: эмпирическая функция распределения
Полигон и гистограмма
Для наглядного геометрического восприятия простого статистического ряда
частот и ряда относительных частот используются полигон частот и
полигон относительных частот – аналоги многоугольника распределения,
рассмотренного в теории вероятностей.
Определение: Пусть дан простой статистический ряд частот:
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
89
Ломаная, соединяющая точки
( x i , ni )
и
(xi+1 , ni +1 )
при
i = 1,2,..., n
называется полигоном частот случайной величины X .
Определение: Пусть дан простой статистический ряд относительных
частот:
Х
ω
x1
x2
x3
…
x k −1
xk
ω1
ω2
ω3
…
ω k −1
ωk
(xi , ω i )
(xi+1 , ωi +1 )
i = 1,2,..., n
называется полигоном относительных частот случайной величины X .
Ломаная, соединяющая точки
и
при
Пример: Построить полигоны частот и относительных частот по ряду
распределения
1
4
6
X
n
10
15
25
Решение:
Рис. 27 Пример: полигоны частот и относительных частот
Для
наглядного
геометрического
восприятия
интервального
статистического ряда относительных частот используется понятие
гистограммы.
90
Определение: Пусть дан интервальный статистический ряд относительных
частот с интервалами одинаковой длины h :
[x1 , x2 ) [x 2 , x3 ) [x3 , x4 )
Х
ω1
n
ω2
ω3
…
[xk −1 , xk ]
…
ω k −1
Гистограммой
называется
ступенчатая
фигура,
состоящая
из
прямоугольников, основаниями которых служат интервалы x1 , x 2 ) ,
[
[x 2 , x3 ) , [x3 , x4 ) ,…, [xk −1 , xk ] , а высоты равны отношениям
ω1 ω 2 ω 3
h
,
h
,
h
,…,
ω k −1
h
.
Пример: построить гистограмму относительных частот для интервального
ряда распределения
Х
ω
[1,2) [2,3) [3,4) [4,5) [5,6) [6,7 ) [7,8) [8,9) [9,10)
0,01
0,03
0,05
0,12
0,29
0,3
0,11
Решение: h = 1 , поэтому высоты прямоугольников
соответствующим относительным частотам.
0,05
0,04
будут
равны
Рис. 28 Пример: гистограмма
91
Замечание 1: Сумма площадей прямоугольников гистограммы равна 1.
Действительно:
S = S1 + S 2 + ... + S k −1 =
ω1
h
⋅h+
ω2
h
⋅ h + ... +
ω k −1
h
⋅h =
= ω1 + ω 2 + ... + ω k −1 = 1 .
Замечание 2: с увеличением числа k гистограмма будет все более и более
приближаться к графику плотности распределения случайной величины.
Контрольные вопросы:
1. Сформулируйте основные задачи математической статистики.
2. Что называется простым статистическим рядом частот и простым статистическим
рядом относительных частот?
3. Что называется интервальным рядом частот и интервальным рядом относительных
частот?
4. Что называется эмпирической функцией распределения? Каковы ее свойства?
5. Что называется полигоном частот и полигоном относительных частот? Что
называется гистограммой?
Лекция 13 Статистические оценки параметров
распределения
Понятие об оценках параметров распределения
Пусть известен закон распределения случайной величины, над которой
производятся статистические наблюдения, но неизвестны числовые
параметры этого закона. Например, известно, что случайная величина X
подчинена показательному закону распределения
 0 при x < 0
f ( x ) =  − λx
,
при x ≥ 0
λe
но неизвестно значение параметра λ . Или случайная величина
подчинена нормальному закону распределения
f (x ) =
1
σ 2π
−
e
X
( x − a )2
2σ 2
с неизвестными параметрами распределения a и σ .
Необходимо по данным наблюдения приближенно определить значения
неизвестных параметров.
Определение: приближенное значение параметра распределения,
найденное по результатам статистических наблюдений, называется оценкой
параметра.
92
Замечание: оценка параметра является случайной величиной, т. к. она
зависит от полученных статистических данных.
Определение: оценка параметра называется точечной, если в качестве
приближенного значения берется некоторое число.
Определение: оценка параметра называется интервальной, если в качестве
оценки берется некоторый интервал, который с заданной вероятностью
накрывает истинное значение параметра.
Определение: оценка θ * параметра θ называется несмещенной, если
математическое ожидание случайной величины θ * равно оцениваемому
параметру θ :
M θ* =θ .
( )
Определение: оценка θ параметра θ называется эффективной, если среди
всех возможных оценок параметра при заданном объеме выборки она имеет
наименьшую дисперсию.
Определение: оценка θ n* параметра θ называется состоятельной, если при
*
n → ∞ она сходится к оцениваемому параметру по вероятности, т.е., для
любого числа ε > 0 выполняется равенство
lim P θ n∗ − θ < ε = 1 .
n →∞
(
)
Точечные оценки параметров
Определение: выборочной средней x в называется среднее арифметическое
значений статистических наблюдений:
xв =
x1 + x 2 + ... + x n
.
n
Замечание 1: выборочную среднюю обозначают также x .
Замечание 2: если задан простой статистический ряд частот
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
то x в =
x1 n1 + x 2 n 2 + ... + x k n k
= x1ω1 + x 2 ω 2 + ... + x k ω k .
n
93
Теорема (о несмещенности оценки математического ожидания)
Выборочная средняя является несмещенной оценкой математического
ожидания случайной величины.
Доказательство: Пусть математическое ожидание случайной величины X
равно a . Значения x1 , x 2 ,..., x k случайной величины X сами являются
случайными величинами с тем же математическим ожиданием.
 x + x 2 + ... + x n  M ( x1 ) + M ( x 2 ) + ... + M ( x n )
=
M (x в ) = M  1
=
n
n


a + a + ... + a
= a . Теорема доказана.
=
n
x + x 2 + ... + x n
является
Замечание1: можно доказать, что оценка x в = 1
n
также состоятельной оценкой математического ожидания (следует из закона
больших чисел).
Замечание 2: можно также доказать, что если случайная величина X
подчинена
нормальному
закону
распределения,
то
оценка
xв =
x1 + x 2 + ... + x n
является эффективной.
n
Определение: выборочной дисперсией Dв называется величина
n
Dв =
∑ (x
− xв )
i
i =1
n
2
,
где x в - выборочная средняя.
Замечание: если задан простой статистический ряд частот
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
k
∑ n (x
i
то Dв =
i
i =1
n
− xв )
2
.
Определение: выборочным средним квадратическим отклонением
называется величина σ в = Dв .
Пример: дан простой статистический ряд частот
94
1
20
X
n
2
15
3
10
4
5
Найти выборочное среднее, выборочную дисперсию и выборочное среднее
квадратическое отклонение.
1 ⋅ 20 + 2 ⋅ 15 + 3 ⋅ 10 + 4 ⋅ 5
= 2.
50
2
2
⋅ 15 + (3 − 2 ) ⋅ 10 + (4 − 2 ) ⋅ 5 20 + 10 + 20
=
=1
50
50
Решение: n = 20 + 15 + 10 + 5 = 50 , x в =
Dв =
(1 − 2)2 ⋅ 20 + (2 − 2)2
σ в = 1 =1.
Теорема (о выборочной дисперсии)
Выборочная дисперсия равна среднему квадратов значений минус квадрат
2
выборочной средней: Dв = x 2 − ( x ) .
Доказательство:
k
∑ n (x
i
Dв =
i
− xв )
i =1
n
∑ n (x
k
2
i
=
2
i
− 2 xi x + (xi )
2
i =1
) ∑n x
n
i
=
n
i =1
n
k
2
i
∑n x
i
− 2x
i =1
n
i
+
k
( )
+ x
2
∑n
i =1
n
i
= x 2 − 2 x ⋅ x + (x ) = x 2 − (x )
2
2
Теорема доказана.
Замечание 1: выборочная дисперсия является смещенной оценкой.
Несмещенной оценкой дисперсии является случайная величина
k
s2 =
n
Dв =
n −1
∑ n (x
i
i
− xв )
i =1
n
Dв =
n −1
.
n −1
k
Замечание 2: оценка s 2 =
2
∑ n (x
i
i
− xв )
i =1
n −1
2
является
состоятельной.
95
Метод максимального правдоподобия для дискретной случайной
величины
Пусть X - дискретная случайная величина, принявшая в результате
испытаний значения x1 , x 2 ,...x n (среди которых могут встречаться и
одинаковые). Пусть известный закон распределения случайной величины
X зависит от одного неизвестного параметра θ .
Обозначим p ( x i , θ ) вероятность того, что случайная величина X
принимает значение x i .
Определение: функцией правдоподобия дискретной случайной величины
называется T (θ ) = p( x1 , θ ) ⋅ p ( x 2 , θ ) ⋅ p ( x 3 , θ )... p ( x n , θ ) .
Замечание: из определения функции правдоподобия следует, что чем
больше вероятности p ( x i , θ ) , тем больше значение функции T (θ ) .
Определение: логарифмической функцией правдоподобия дискретной
случайной
величины
называется
ln T (θ ) = ln p ( x1 , θ ) + ln p( x 2 , θ ) + ln p ( x 3 , θ ) + ... + ln p ( x n , θ ) .
За точечную оценку параметра θ принимается число θ * , при котором
функция правдоподобия достигает максимума. Оценка θ * называется
оценкой максимального правдоподобия.
Замечание: функция правдоподобия и логарифмическая
правдоподобия достигают максимума в одной и той же точке.
функция
Алгоритм метода максимального правдоподобия состоит в следующем:
1) найти производную логарифмической функции правдоподобия
ln T (θ ) .
2) Приравнять эту производную к нулю и
найти корень θ *
полученного уравнения
3) Найти вторую производную функции ln T (θ ) и если
(ln T (θ ))
*
''
< 0 , то θ * - точка максимума, которая принимается в
качестве оценки параметра θ .
Пример:
найти методом максимального правдоподобия оценку λ*
параметра λ распределения Пуассона
96
Pnk =
λk e − λ
k!
, если в каждом из
n испытаний (испытание состоит из m независимых испытаний) случайная
величина принимала соответственно значения x1 , x 2 ,..., x n .
Решение:
Функция правдоподобия имеет вид
T (λ ) =
λ x e −λ λ x e −λ
1
x1 !
⋅
2
x2 !
⋅ ... ⋅
λ x e −λ
n
xn !
=
⋅ e − nλ
,
x1 !⋅ x 2 !⋅... ⋅ x n !
λx +x
1
2 + ... + x n
логарифмическая
функция правдоподобия имеет вид
ln T (λ ) = ( x1 + x 2 + ... + x n ) ln λ − nλ − ln ( x1 !⋅x 2 !⋅... ⋅ x n !) .
d ln T (λ ) ( x1 + x 2 + ... + x n )
=
−n
dλ
λ
(x1 + x 2 + ... + x n )
x + x 2 + ... + x n
.
− n = 0 , значит, λ∗ = 1
λ
n
(x + x 2 + ... + x n ) , то при
d 2 ln T (λ )
Поскольку
=− 1
<0
2
2
dλ
λ∗
λ = λ∗
( )
λ = λ∗
достигается
максимум
функции
правдоподобия
и
оценка
x1 + x 2 + ... + x n является оценкой максимального правдоподобия.
∗
λ =
n
Пусть X - дискретная случайная величина, принявшая в результате
испытаний значения x1 , x 2 ,...x n (среди которых могут встречаться и
одинаковые). Пусть известный закон распределения случайной величины
X зависит от двух неизвестных параметров θ 1 , θ 2 .
Обозначим p ( x i , θ 1 , θ 2 ) вероятность того, что случайная величина X
принимает значение x i .
Определение: функцией правдоподобия дискретной случайной величины
называется T (θ 1 , θ 2 ) = p ( x1 , θ 1 , θ 2 ) ⋅ p ( x 2 , θ 1 , θ 2 )... p( x n , θ 1 , θ 2 ) .
Определение: логарифмической функцией правдоподобия дискретной
случайной
величины
называется
ln T (θ 1 , θ 2 ) = ln p ( x1 , θ 1 , θ 2 ) + ln p ( x 2 , θ 1 , θ 2 ) + ... + ln p ( x n , θ 1 , θ 2 ) .
За точечную оценку параметров θ 1 , θ 2 принимаются числа θ 1* , θ 2* , при
которых функция правдоподобия достигает максимума.
Замечание: функция правдоподобия и логарифмическая
правдоподобия достигают максимума в одной и той же точке.
функция
97
Алгоритм метода наибольшего правдоподобия состоит в следующем:
1) Найти частные производные
логарифмической функции
правдоподобия по переменным θ 1 , θ 2 .
2) Приравнять эти производные к нулю и решить полученную систему
уравнений. Пусть θ 1* , θ 2* - решение системы.
3) Найти вторые частные
составить
производные функции ln T (θ 1 , θ 2 ) и
∂ 2 ln T
∂θ ∂θ
определитель ∆ = 2 1 1
∂ ln T
∂θ 2 ∂θ1
этих вторых
∂ 2 ln T
∂θ1∂θ 2
∂ 2 ln T
∂θ 2 ∂θ 2
из значений
производных при θ 1 = θ 1* , θ 2 = θ 2* . Если
∆ > 0и
∂ ln T
< 0 , то при θ 1 = θ 1* , θ 2 = θ 2* логарифмическая функция
∂θ1∂θ1
2
правдоподобия достигает максимума, и в качестве
параметров θ 1 , θ 2 принимаются числа θ 1* , θ 2* .
оценок
Замечание: метод максимального правдоподобия можно обобщить и на
случай распределения, зависящего от любого количества параметров.
Метод максимального правдоподобия для непрерывной случайной
величины
Пусть X - непрерывная случайная величина, принявшая в результате
испытаний значения x1 , x 2 ,...x n . Пусть плотность распределения случайной
величины X зависит от одного неизвестного параметра θ : f ( x, θ ) .
Определение: функцией правдоподобия непрерывной случайной величины
называется T (θ ) = f ( x1 , θ ) ⋅ f ( x 2 , θ ) ⋅ f ( x 3 , θ )... f ( x n , θ ) .
Определение: логарифмической функцией правдоподобия непрерывной
случайной
величины
называется
ln T (θ ) = ln f ( x1 , θ ) + ln f ( x 2 , θ ) + ln f ( x 3 , θ ) + ... + ln f ( x n , θ ) .
За точечную оценку параметра θ принимается число θ * , при котором
функция правдоподобия достигает максимума. Оценка θ * называется
оценкой максимального правдоподобия.
98
Оценка параметра по методу максимального правдоподобия производится
так же, как и в случае дискретной случайной величины.
Пример: Найти по методу максимального правдоподобия оценки a * , σ *
нормального
распределения
с
плотностью
параметров
a, σ
f (x ) =
1
σ 2π
−
( x − a )2
e
2σ 2
приняла значения
, если в результате n испытаний случайная величина
x1 , x 2 ,..., x n .
Решение: Функция правдоподобия:
−
1
T (a, σ ) =
e
σ 2π
=
σ
n
(
( x1 −a )2
−
1
⋅
e
σ 2π
2σ 2
−
1
2π
)
2σ 2
−
1
⋅ ... ⋅
e
σ 2π
( xn −a )2
2σ 2
=
( x1 −a )2 +( x2 −a )2 +...+( xn −a )2
2σ 2
e
n
( x2 −a )2
Логарифмическая функция правдоподобия:
ln T (a, σ ) = − n ln σ + ln
(
1
2π
)
n
2
2
2
(
x1 − a ) + ( x2 − a ) + ... + ( xn − a ) .
−
2σ 2
Частные производные логарифмической функции правдоподобия:
∂ ln T (a, σ ) x1 + x2 + ... + xn − na
,
=
∂a
σ2
2
2
2
∂ ln T (a, σ )
n ( x − a ) + ( x 2 − a ) + ... + ( x n − a )
.
=− + 1
σ
∂σ
σ3
Решаем систему
x1 + x2 + ... + xn − na

=0

σ2
.

2
2
2
(
x
a
)
(
x
a
)
(
x
a
)
n
−
+
−
+
+
−
...
2
n
 1
− =0

σ3
σ
Из первого уравнения сразу же видно, что
a* =
x1 + x2 + ... + xn
.
n
Из второго уравнения следует, что
(x1 − a )2 + (x2 − a )2 + ... + (xn − a )2 − nσ 2 = 0 , значит,
99
σ =
*
(x
1
) (
2
)
2
(
− a * + x2 − a * + ... + xn − a *
n
)
2
.
Контрольные вопросы:
1. Что называется оценкой параметра распределения? Что такое точечная и что такое
интервальная оценка параметра?
2. Какая оценка называется несмещенной, какая эффективной и какая состоятельной?
3. Что называется выборочной средней? Что называется выборочной дисперсией?
Какая оценка дисперсии является несмещенной?
4. Что называется функцией правдоподобия и логарифмической функцией
правдоподобия дискретной случайной величины? В чем заключается метод
наибольшего правдоподобия?
5. Что называется функцией правдоподобия и логарифмической функцией
правдоподобия непрерывной случайной величины? В чем заключается метод
наибольшего прадоподобия?
Лекция 14 Статистические оценки параметров
распределения (окончание)
Метод моментов
Метод моментов для нахождения точечных оценок параметров состоит в
решении уравнений, получаемых приравниванием теоретических моментов
распределения соответствующим эмпирическим моментам.
Пусть задан зависящий от параметра θ вид плотности распределения
f ( x, θ ) и требуется оценить значение одного параметра θ . Приравняем
первый теоретический момент (равный по определению математическому
ожиданию случайной величины) к эмпирическому моменту:
∞
∫ xf (x, θ )dx =
−∞
x1 n1 + x 2 n 2 + ... + x k n k .
n
Это уравнение содержит одну неизвестную - θ . Если удастся выразить θ
из данного уравнения, то тем самым будет получена оценка неизвестного
параметра.
Если плотность распределения зависит от двух параметров: f ( x, θ 1 , θ 2 ) , то
для их определения потребуются два уравнения. Можно, например,
приравнять первые теоретический и эмпирический моменты, получив
первое необходимое уравнение; затем приравнять вторые теоретический и
эмпирический моменты, получив второе уравнение:
100
 ∞
x1 n1 + x 2 n 2 + ... + x k n k
 ∫ xf (x, θ 1 , θ 2 )dx =
n
 −∞
∞
2
2
2
x
n
x
n
+
2 2 + ... + x k n k
 x 2 f (x, θ , θ )dx = 1 1
1
2
−∫∞
n
Если полученную систему уравнений от двух неизвестных θ 1 , θ 2 удастся
решить, то решения системы будут служить оценками для неизвестных
параметров.
В качестве второго уравнения вместо равенства моментов второго порядка
можно брать равенство теоретической и выборочной дисперсий.
Пример1: дан простой статистический ряд частот
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
случайной величины, подчиненной показательному закону распределения
 0 _ при _ x < 0
f ( x ) =  −λx
с неизвестным параметром λ > 0 .
λe _ при _ x ≥ 0
Найти методом моментов оценку
λ*
неизвестного параметра
λ.
Решение: ранее было доказано, что математическое ожидание случайной
величины, подчиненной показательному закону распределения равно
Поэтому для определения оценки
1
λ
*
=
λ*
1
λ
.
получаем уравнение
x1 n1 + x 2 n 2 + ... + x k n k
, откуда получаем оценку
n
λ* =
n
.
x1 n1 + x 2 n 2 + ... + x k n k
Замечание: оценка параметра, полученная по методу моментов, может не
совпадать
с оценкой того же параметра, полученной по методу
максимального правдоподобия.
Пример 2: дан простой статистический ряд частот
101
Х
x1
x2
x3
…
x k −1
xk
n
n1
n2
n3
…
nk −1
nk
случайной величины, подчиненной равномерному закону распределения
 0 _ при _ x ∈ (− ∞; a )
 1
f (x ) = 
_ при _ x ∈ [a; b]
b − a
 0 _ при _ x ∈ (b; ∞ )
Составить систему уравнений для нахождения оценок параметров a и b .
Решение: ранее было доказано, что математическое ожидание
такой
b+a
b + ab + a 2
, а второй момент равен
.
2
3
2
случайной величины равно
b + a x1 n1 + x 2 n 2 + ... + x k n k

=

n
2
 2
2
2
2
2
x
n
x
+
b
ab
b
+
+
1
1
2 n 2 + ... + x k n k

=

n
3
Систему можно решить, например, выразив из первого уравнения b и
подставив полученное выражение во второе уравнение.
Понятие об интервальных оценках параметров
Определение: интервальной оценкой параметра называется оценка,
определяемая двумя числами – концами интервала.
Определение: Пусть θ * - точечная оценка параметра θ . Тогда величина
δ = θ − θ * называется точностью оценки.
Определение: Вероятность γ , с которой осуществляется неравенство
θ − θ * < δ , называется надежностью или доверительной вероятностью.
Определение: Если θ * - точечная оценка параметра θ и δ = θ − θ *
(
-
)
точность оценки, то интервал θ * − δ ; θ * + δ называется доверительным
интервалом, покрывающим неизвестный параметр θ с надежностью γ .
Замечание: поскольку доверительный интервал имеет случайные концы,
зависящие от наблюденных значений x1 , x 2 ,..., x n случайной величины
102
X , то правильнее говорить не о вероятности попадания параметра θ в
доверительный интервал, а о вероятности того, что доверительный интервал
накроет параметр θ .
Доверительные интервалы для параметров нормально распределенной
случайной величины
X подчинена
Пусть известно, что наблюдаемая случайная величина
нормальному закону распределения с плотностью f ( x ) =
−
1
σ 2π
e
( x − a )2
2σ 2
.
Для упрощения изложения пока будем считать, что среднее квадратичное
отклонение σ этой случайной величины известно (в дальнейшем мы
откажемся от этого ограничения). В качестве точечной оценки параметра
a возьмем выборочную среднюю
xв =
x1 + x 2 + ... + x n
.
n
Согласно центральной предельной теореме можно считать, что случайная
величина x в подчинена нормальному закону распределения с тем же
математическим
σ (x в ) =
ожиданием
и
средним
квадратичным
отклонением
σ .
n
При заданной надежности
неравенство
γ
и точности δ
должно выполняться
P( xв − a < δ ) = γ .
По формуле вероятности заданного отклонения:
δ n 
=γ .
P ( x в − a < δ ) = 2Φ

σ


Обозначим
δ n
tσ
. Значение числа t можно найти из
= t , тогда δ =
σ
n
γ
равенства Φ (t ) =
2
по таблице значений интегральной функции Лапласа.
Значит, при заданной точности δ и заданной надежности γ доверительный
интервал для нормально распределенной случайной величины
вид
X имеет
103

σ
σ 
; xв + t
 .
 xв − t
n
n

Замечание 1: поскольку интегральная функция Лапласа – возрастающая, то
из равенства
Φ (t ) =
γ
2
следует, что большему значению надежности γ
будет соответствовать
доверительный интервал большей длины и
интервальная оценка параметра становится хуже. При уменьшении числа
δ n
= t и в силу возрастания интегральной
σ
функции Лапласа уменьшается надежность γ и снова интервальная оценка
θ − θ * < δ уменьшается
становится хуже. Поэтому единственным способом улучшения оценки
является увеличение количества испытаний n .
Пусть X 1 , X 2 ,... X n - независимые случайные величины, подчиненные
нормальному закону распределения с математическим ожиданием 0 и
средним квадратичным отклонением 1, тогда случайная величина
χ 2 = X 12 + X 22 + ... + X n2
распределена по закону «хи-квадрат» с n степенями свободы.
Определение: пусть Z - нормальная случайная величина с математическим
ожиданием 0 и средним квадратичным отклонением 1, а Y - случайная
величина, распределенная по закону χ 2 с k степенями свободы, тогда
случайная величина
S=
Z
Y
k
имеет распределение, называемое распределением Стьюдента.
Пусть теперь наблюдаемая случайная величина
закону распределения с плотностью f ( x ) =
параметрами a, σ .
104
X подчинена нормальному
1
σ 2π
−
e
( x − a )2
2σ 2
с неизвестными
Можно доказать, что случайная величина S =
x в − a , где
s=
s
n
n
Dв n −1
исправленное среднее квадратичное отклонение, подчинена закону
распределения Стьюдента с n − 1 степенями свободы. Также можно
доказать, что с заданной надежностью γ параметр a накрывается
доверительным интервалом

s 
s
 ,
; xв + t γ
 xв − t γ
n
n

где величина t γ , зависящая от γ и n находится по соответствующей
таблице.
Пусть известно, что наблюдаемая случайная величина
нормальному закону распределения с плотностью f ( x ) =
X подчинена
1
σ 2π
−
( x − a )2
e
2σ 2
.
Требуется найти доверительный интервал, накрывающий с заданной
надежностью γ неизвестный параметр σ .
Можно доказать, что
s (1 − q ) < σ < s (1 + q ) , где s - исправленное
выборочное среднее квадратичное отклонение, а q - табличная величина.
Пример1: Дан простой статистический ряд нормально распределенной
случайной величины
Х
n
-0,5
1
-0,4
2
-0,2
1
0
1
0,2
1
0,6
1
0,8
1
1
1
1,2
2
1,5
1
Найти доверительный интервал, с вероятностью γ = 0,95
накрывающий математическое ожидание данной случайной величины.
Решение: n = 12 ,
− 0,5 − 2 ⋅ 0,4 − 0,2 + 0 + 0,2 + 0,6 + 0,8 + 1 + 2 ⋅ 1,2 + 1,5 5
xв =
=
≈ 0,417
12
12
X2
n
0,25
1
0,16
2
0,04
1
0
1
0,04
1
0,36
1
0,64
1
1
1
1,44
2
2,25
1
105
xв2 =
0,25 + 2 ⋅ 0,16 + 0,04 + 0 + 0,04 + 0,36 + 0,64 + 1 + 2 ⋅ 1,44 + 2,25 7,78
=
≈ 0,648
12
12
Dв = xв2 − ( xв ) ≈ 0,648 − (0,417 ) = 0,474 ,
2
2
s2 =
12
⋅ 0,474 ≈ 0,517
11
s = s 2 ≈ 0,72 .
По таблице находим значение t γ = 2,2 .
0,72
s
s
= 0,417 − 0,457 = −0,04 ,
= 2,2 ⋅
≈ 0,457 , xв − tγ ⋅
12
n
n
s
= 0,417 + 0,457 = 0,874
xв + tγ ⋅
n
Доверительный интервал: x в ∈ (− 0,04;0,874) .
tγ ⋅
Пример2: Произведено 12 измерений одним прибором некоторой
величины. При этом исправленное среднее квадратичное отклонение
случайных ошибок измерений равно 0,6. Найти доверительный интервал
среднего квадратичного отклонения случайных ошибок измерения с
надежностью 0,99.
Решение: s (1 − q ) < σ < s (1 + q ) .
По условию s = 0,6 . По таблице при данных γ = 0,99 и n = 12 находим
q = 0,9 .
s (1 − q ) = 0,6 ⋅ 0,1 = 0,06 , s (1 + q ) = 0,6 ⋅ 1,9 = 1,14 , поэтому σ ∈ (0,06;1,14 ) .
Контрольные вопросы:
1. Что называется эмпирическим моментом и эмпирическим центральным моментом?
2. В чем заключается метод моментов для нахождения точечных оценок параметров?
3. Что называется интервальной оценкой параметра? Что такое точность оценки и
надежность оценки? Что называется доверительным интервалом?
4. Чему равны доверительные интервалы для математического ожидания и среднего
квадратического отклонения нормально распределенной случайной величины?.
5. Что называется коэффициентом вариации?
Лекция 15 Системы случайных величин
Закон распределения системы случайных величин
Определение: Пусть X и Y - случайные величины, тогда упорядоченная
пара ( X , Y ) называется двумерной случайной величиной.
106
Замечание: аналогично можно ввести в рассмотрение и трехмерные и
любые n -мерные случайные величины.
Определение: Вероятностью
p (xi , y j ) двумерной случайной величины
( X , Y ) называется вероятность того, что величина
а величина
X примет значение xi ,
Y примет значение y j .
Закон распределения двумерной случайной величины задают обычно в виде
таблицы:
x1
y1
y2
…
ym
p( x1 , y 2 )
p( x1 , y 2 )
…
p( x1 , y m )
…
x2
p( x 2 , y1 )
…
p(x2 , y 2 )
…
…
…
…
p( x 2 , y m )
xn
p( x n , y1 )
p(xn , y 2 )
…
p( x m , y n )
x1 , x 2 ,...x n - все возможные значения случайной величины X ,
а y1 , y 2 ,..., y m - все возможные значения случайной величины Y .
где
Замечание1: сумма всех вероятностей, помещенных в таблице, равна 1.
Замечание 2: вероятность того, что случайная величина X примет значение
xi , равна сумме всех вероятностей в столбце xi , а вероятность того, что
случайная величина
Y
вероятностей в строке
yj .
примет значение
y j , равна сумме всех
Пример: Дан закон распределения двумерной случайной величины
y1
y2
y3
(X ,Y ) :
x1
x2
x3
x4
0,05
0,02
0,2
0,02
0,1
0,2
0,02
0,2
0,02
0,05
0,1
0,02
P( X = x 2 ) и P(Y = y1 ) .
Решение: P ( X = x 2 ) = 0,02 + 0,2 + 0,05 = 0,27 ,
найти вероятности
107
P(Y = y1 ) = 0,05 + 0,02 + 0,2 + 0,02 = 0,29 .
Определение: функцией распределения двумерной случайной величины
( X , Y ) называется
F ( x, y ) = P ( X < x , Y < y ) .
Геометрическая иллюстрация приведенного равенства изображена на
рисунке ниже (случайная точка ( X , Y ) должна попасть в затемненную
область)
Рис. 29 Геометрическая интерпретация функции распределения двумерной случайной
величины
Свойства функции распределения:
1) 0 ≤ F ( x, y ) ≤ 1
F ( x, y ) - неубывающая функция по каждому аргументу, т.е.
при x1 ≤ x 2 F ( x1 , y ) ≤ F ( x 2 , y ) и при y1 ≤ y 2 F ( x, y1 ) ≤ F ( x, y 2 ) .
3) Из определения функции распределения очевидно, что F (− ∞, y ) = 0 ,
F ( x,−∞ ) = 0 , F (− ∞,−∞ ) = 0 , F (∞, ∞ ) = 1 .
4) функция F (∞, y ) является функцией распределения случайной
величины Y , а функция F ( x, ∞ ) является функцией распределения
случайной величины X (следует из того, что события Y < ∞
и X < ∞ достоверны).
2)
F ( x, y ) двумерной случайной
величины ( X , Y ) , найти вероятность попадания случайной точки ( X , Y ) в
прямоугольник, заданный неравенствами x1 ≤ x ≤ x 2 , y1 ≤ y ≤ y 2 .
Пример: Зная функцию распределения
Решение:
108
Из геометрического смысла функции распределения
вероятность попадания в вертикальную полуполосу x1 ≤
следует, что
x ≤ x2 , y ≤ y 2
F ( x 2 , y 2 ) − F ( x1 , y 2 ) , а вероятность попадания в вертикальную
полуполосу x1 ≤ x ≤ x 2 , y ≤ y1 равна F ( x 2 , y1 ) − F (x1 , y1 ) . Значит,
вероятность попадания в прямоугольник x1 ≤ x ≤ x 2 , y1 ≤ y ≤ y 2 равна
равна
Рис. 30 Пример: вероятность попадания двумерной случайной величины в заданный
прямоугольник
F ( x 2 , y 2 ) − F ( x1 , y 2 ) − F (x 2 , y1 ) + F ( x1 , y1 ) .
Определение:
f ( x, y )
плотностью
совместного
распределения
вероятностей непрерывной двумерной случайной величины ( X , Y )
называется вторая смешанная частная производная от функции
распределения:
f ( x, y ) =
∂ 2 F ( x, y )
.
∂x∂y
Замечание: зная плотность совместного распределения
найти функцию распределения по формуле
F ( x, y ) =
f ( x, y ) , можно
y x
∫ ∫ f (x, y )dxdy .
− ∞− ∞
Пример: найти функцию распределения двумерной случайной величины по
известной плотности
f ( x, y ) =
1
π 1+ x2 1+ y2
2
(
)(
)
109
F ( x, y ) =
Решение:
1
π
2
y x
dxdy
∫ ∫ (1 + x )(1 + y ) .
2
x
dx
1
Имеем: ∫
=
2
2
1+ y
1+ y2
−∞ 1 + x
(
=
2
− ∞− ∞
)(
)
x
x
dx
1
∫−∞1 + x 2 = 1 + y 2 arctgx =
−∞
1 
π
arctgx +  .
2 
2
1+ y 
Поэтому
F ( x, y ) =
1
π
2
y

π  dy
∫  arctgx + 2  1 + y
2
=
−∞
π 
π
1 
arctgx +  arctgy + 
2 
2 
2
π 
.
Свойства двумерной плотности:
1) f ( x, y ) ≥ 0 . Это следует из того, что функция распределения –
неубывающая по каждому аргументу.
∞ ∞
2)
∫ ∫ f (x, y )dxdy = 1 . Это следует, из того, что событие, состоящее в
− ∞− ∞
попадании двумерной случайной величины на координатную плоскость,
является достоверным и его вероятность равна 1.
Теорема (о плотностях распределения составляющих)
Пусть f ( x, y ) - плотность совместного распределения двумерной
случайной величины
величин
( X , Y ) . Тогда плотности распределения случайных
X и Y равны соответственно
f1 (x ) =
∞
∫ f (x, y )dy и
−∞
f 2 (y) =
∞
∫ f (x, y )dx
−∞
Без доказательства.
Зависимые и независимые случайные величины
Определение: две случайные величины называются независимыми, если
закон распределения одной из них не зависит от того, какие значения
принимает вторая величина.
110
Теорема (о независимости случайных величин)
Для того чтобы случайные величины X и Y были независимыми,
необходимо и достаточно, чтобы функция распределения двумерной
случайной величины F ( x, y ) была равна произведению функций
X иY:
F ( x, y ) = F1 ( x )F2 ( y ) .
распределения величин
Доказательство следует из определения функции распределения и теоремы
о вероятности произведения независимых событий.
Следствие: Для того чтобы случайные величины X и Y были
независимыми, необходимо и достаточно, чтобы плотность совместного
распределения двумерной случайной величины f ( x, y ) была равна
произведению плотностей распределения величин
f ( x, y ) = f 1 ( x ) f 2 ( y ) .
Определение: Корреляционным моментом
µ xy
X иY:
случайных величин
Xи
Y называется математическое ожидание произведения центрированных
случайных величин:
µ xy = M (( X − M ( X )) ⋅ (Y − M (Y ))) .
X и Y - дискретные случайные величины, то
n  m

µ xy = ∑  ∑ ( xi − M ( X )) ⋅ ( y j − M (Y )) p(xi , y j ) .
i =1  j =1

И если X и Y - непрерывные случайные величины, то
Замечание: Если
∞ ∞
µ xy =
∫ ∫ (x − M ( X )) ⋅ ( y − M (Y )) f (x, y )dxdy
− ∞− ∞
Теорема (о корреляционном моменте независимых величин)
Корреляционный момент двух независимых случайных величин равен нулю
Доказательство: Пусть X и Y - независимые случайные величины, тогда
величины X − M ( X ) и Y − M (Y ) также независимы. Следовательно,
µ xy = M (( X − M ( X )) ⋅ (Y − M (Y ))) = M ( X − M ( X )) ⋅ M (Y − M (Y )) =
(M ( X ) − M (M ( X ))) ⋅ (M (Y ) − M (M (Y ))) = 0 ⋅ 0 = 0 .
Теорема доказана.
111
Определение: Коэффициентом корреляции
rxy случайных величин X и
Y называется отношение корреляционного момента этих величин к
произведению их средних квадратичных отклонений:
rxy =
µ xy
σ xσ y
.
Замечание: Коэффициент корреляции двух
величин равен нулю.
независимых случайных
Теорема (об ограниченности коэффициента корреляции)
Для любых двух случайных величин X и Y
rxy ≤ 1 .
Доказательство:
величин
Пусть
σx, σy
- средние квадратичные отклонения
X и Y , µ xy - их корреляционный момент.
Рассмотрим случайную величину
U = σ y X − σ x Y . Ее дисперсия равна
D(U ) = D (σ y X − σ x Y ) = M (U − M (U )) = 2σ x2σ y2 − 2σ xσ y µ xy .
2
Поскольку
D(U ) ≥ 0 (любая
дисперсия
неотрицательна),
то
2σ σ − 2σ xσ y µ xy ≥ 0 и, значит, µ xy ≤ σ xσ y .
2
x
Пусть
2
y
V = σ y X + σ x Y , тогда
случайной величины
аналогично рассматривая дисперсию
V , получим µ xy ≥ −σ xσ y . Значит,
µ xy ≤ σ xσ y ,
откуда, поделив на
σ xσ y , получим rxy ≤ 1 . Теорема доказана.
Определение: две случайные величины называют коррелированными, если
их коэффициент корреляции не равен 0.
Замечание: две коррелированные величины зависимы, но зависимые
величины не обязательно коррелированны.
Пусть X и Y - зависимые случайные величины. Представим одну из этих
величин как функцию другой. В этой лекции для простоты будем считать,
что величина Y является линейной функцией величины X : Y = kX + b .
112
Определение:
L( X ) = k 0 X + b0
функцию
называют
наилучшим
Y в смысле метода наименьших квадратов, если
приближением величины
M (Y − L( X )) принимает наименьшее возможное значение на
множестве всех линейных функций вида Y = kX + b . Функция
L( X ) = k 0 X + b0 называется линейной среднеквадратичной регрессией
Y на X .
2
величина
Теорема (об уравнении линейной регрессии):
Линейная среднеквадратичная регрессия Y на
X задается уравнением
σy
L( X ) = M (Y ) + rxy
( X − M ( X ))
σx
Без доказательства.
Замечание
1:
Аналогично
можно
среднеквадратической линейной регрессии
L(Y ) = M ( X ) + rxy
X
составить
на
уравнение
Y:
σx
(Y − M (Y )) .
σy
Замечание 2: Очевидно, что зависимость между случайными величинами
может быть и не линейной, а, например, показательной, квадратичной,
логарифмической и.т. п.
Определение: Если обе регрессии
говорят, что величины
зависимостью.
X
и
X
на
Y и Y на X линейны, то
Y связаны линейной корреляционной
Контрольные вопросы:
1. Что такое двумерная случайная величина? Что называется законом распределения
двумерной случайной величины?
2. Что называется функцией распределения двумерной случайной величины? Каковы
свойства функции распределения? Как найти вероятность попадания двумерной
случайной величины в заданный прямоугольник?
3. Что называется плотностью распределения двумерной случайной величины?
Каковые ее свойства? Как найти функцию распределения двумерной случайной
величины по известной плотности?
4. Какие случайные величины называются независимыми? Как проверить зависимость
двух случайных величин по известным плотностям? Что называется коэффициентом
корреляции двух случайных величин?
5. Что такое линейная корреляционная зависимость? Как составляется уравнение
линейной регрессии?
113
Лекция 16 Элементы теории корреляции
В курсе математического анализа изучалась функциональная связь между
двумя переменными величинами. Если же обе переменные величины
подвержены влиянию случайных факторов, то не может быть речи о
функциональной связи. В этом случае, если изменение одной случайной
величины влечет изменение другой, то говорят о статистической
зависимости между двумя случайными величинами. В частности, если при
изменении одной величины изменяется среднее значение другой, то
статистическая зависимость называется корреляционной.
Выборочные уравнения линейной регрессии
n наблюдений за двумерной случайной величиной
( X , Y ) получены n пар чисел (x1 , y1 ), (x2 , y 2 ),..., (x n , y n ) . Будем
искать уравнение линейной среднеквадратичной регрессии Y на X :
y = ρ yx x + b .
Пусть в результате
Замечание:
угловой
коэффициент
коэффициентом регрессии Y на
коэффициента регрессии Y на X .
Параметры
ρ yx
и
ρ yx
называется
выборочным
X . Он является точечной оценкой
b будем подбирать как наилучшие приближения в
смысле метода наименьших квадратов. Для этого рассмотрим функцию
F (ρ yx , b ) = ∑ (ρ yx xi + b − y i ) ,
n
2
i =1
представляющую собой сумму квадратов разностей отклонений значений
случайной величины Y , вычисленных по формуле y = ρ yx x + b и ее
значений, полученных в результате наблюдений. Нужно выбрать такие
значения параметров ρ yx и b , при которых функция F ρ yx , b имеет
(
)
минимум.
Для нахождения точки минимума функции найдем ее частные производные
и приравняем их к нулю:
n
∂F
= 2∑ (ρ yx xi + b − y i ) ⋅ xi = 0
∂ρ yx
i =1
114
n
∂F
= 2∑ (ρ yx xi + b − y i ) = 0 .
∂b
i =1
Преобразуем полученную систему уравнений:
n
n
n

2
ρ
x
b
x
xi y i
⋅
+
=
∑
∑
∑
i
yx
i

i =1
i =1
i =1

n
n
 ρ yx ⋅ ∑ xi + nb = ∑ y i

i =1
i =1
Получили систему линейных алгебраических уравнений относительно двух
неизвестных ρ yx и b .
По правилу Крамера:
2
n
 n  ,
∆ = n∑ xi2 −  ∑ xi 
i =1
 i =1 
n
n
n
i =1
i =1
i =1
∆ ρ = n∑ xi y i − ∑ xi ⋅ ∑ y i
n
n
ρ yx =
,
i =1
n
n
n
i =1
i =1
i =1
i =1
n
n∑ xi y i − ∑ xi ⋅ ∑ y i
i =1
n
∆ b = ∑ xi2 ⋅ ∑ y i − ∑ xi ⋅ ∑ xi y i
i =1
2
n
,
n
 n 
n∑ xi2 −  ∑ xi 
i =1
 i =1 
n
n
.
Замечание:
аналогично
можно
среднеквадратичной регрессии X на
n
∑x ⋅∑ y − ∑x ⋅∑x y
2
i
b=
.
i =1
i
i =1
i
i =1
i
i
i =1
2
n
 n 
n∑ xi2 −  ∑ xi 
i =1
 i =1 
составить
уравнение
линейной
Y : x = ρ xy y + c .
Пример: Составить уравнения линейной среднеквадратичной регрессии
Y на X и X на Y по данным наблюдений:
1,2
0,1
X
Y
1,4
0,4
1,7
0,7
2,1
1,0
2,6
1,3
Решение: для удобства и наглядности решения все промежуточные
вычисления запишем в виде таблиц. Начнем с составления уравнения
линейной среднеквадратичной регрессии Y на X .
xi
yi
xi2
xi y i
1,2
1,4
1,7
0,1
0,4
0,7
1,44
1,96
2,89
0,12
0,56
1,19
115
2,1
2,6
1,0
1,3
5
5
∑ xi = 9
∑ yi = 3,5
i =1
i =1
n
ρ yx =
n
i =1
i =1
=


n∑ xi2 −  ∑ xi 
i =1
 i =1 
n
n
i =1
i
i =1
5
∑ xi2 = 17,46
i =1
5
∑x y
i
i
= 7,35
i =1
5 ⋅ 7,35 − 9 ⋅ 3,5 5,25 105
=
=
6,3 124
5 ⋅ 17,46 − 9 2
n
∑x ⋅∑ y − ∑x ⋅∑x y
2
i
b=
i =1
2
n
n
2,1
3,38
n
n ∑ xi y i − ∑ x i ⋅ ∑ y i
n
4,41
6,76
i
i =1
i
i =1
2
i
=
17,46 ⋅ 3,5 − 9 ⋅ 7,35 5,04 4 .
=
=
6,3
6,3 5


n∑ xi2 −  ∑ xi 
i =1
 i =1 
Получили уравнение линейной среднеквадратичной регрессии Y на X :
n
n
105
4
x + ≈ 0,847 x + 0,8 .
124
5
Чтобы понять, насколько хорошо уравнение y ≈ 0,847 x + 0,8 отражает
статистическую зависимость между случайными величинами Y и X ,
можно посчитать разности y i − (0,847 xi + 0,8) :
y=
yi
xi
0,847 xi + 0,8
yi − (0,847 xi + 0,8)
0,1
0,4
0,7
1,0
1,3
1,2
1,4
1,7
2,1
2,6
1,8164
1,9858
2,2399
2,5787
3,0022
-1,7164
-1,5858
-1,5399
-1.5787
-1,7022
Полученные разности достаточно велики. Это может быть вызвано
небольшим (n = 5) объемом наблюдений. Но причина может быть и в том,
что линейная функция плохо отражает зависимость между случайными
величинами Y и X , и корреляционная связь между ними не линейна.
Чтобы составить уравнение линейной среднеквадратичной регрессии X на
Y , в соответствующих формулах нужно поменять ролями x и y :
116
n
n
n
ρ xy =
i =1
i =1


n∑ y i2 −  ∑ y i 
i =1
 i =1 
.
n
n
i =1
i =1
i =1
i =1
2


n∑ y i2 −  ∑ y i 
i =1
 i =1 
n
n
yi
yi2
xi y i
1,2
1,4
1,7
2,1
2,6
0,1
0,4
0,7
1,0
1,3
0,01
0,16
0,49
1,0
1,69
0,12
0,56
1,19
2,1
3,38
i
5
∑y
=9
i =1
= 3,5
i
i =1
n
i =1
i =1
2
n
n
n
i
i =1
i
i =1
i
i =1
2


n∑ y i2 −  ∑ y i 
i =1
 i =1 
n
= 3,35
5
∑x y
i
i
= 7,35
i =1
5 ⋅ 3,35 − (3,5)
2
=
5,25 7 ,
=
4,5 6
n
∑ y ⋅∑x − ∑ y ⋅∑ y x
2
i
5 ⋅ 7,35 − 3,5 ⋅ 9
=


n∑ y i2 −  ∑ y i 
i =1
 i =1 
n
n
2
i
n
n
i =1
5
∑y
i =1
n∑ y i xi − ∑ y i ⋅ ∑ xi
i =1
b=
n
∑ yi2 ⋅ ∑ xi − ∑ yi ⋅ ∑ yi xi
xi
5
b=
,
i =1
2
n
n
∑x
ρ xy =
n
n∑ y i xi − ∑ y i ⋅ ∑ xi
n
x=
i
=
3,35 ⋅ 9 − 3,5 ⋅ 7,35 4,425 59
=
=
4,5
4,5
60
7
59
y+
≈ 1,167 x + 0,983 .
6
60
Корреляционные таблицы
При большом числе наблюдений одно и то же значение
x1 может
n1 раз, значение x 2 - n2 раз и т.д. Аналогично, одно и то же
значение y1 может встретиться k1 раз, y 2 - k 2 раз и т.д. Таким образом,
одна и та же пара (xi , y j ) может встретиться mij раз. Поэтому данные
встретиться
наблюдений принято группировать
корреляционной таблицы
и
записывать
в
виде
т.н.
117
Пример:
Y
0,8
1,1
1,6
2,2
nx
X
1,5
2,3
4,0
5,1
8,9
ny
4
12
6
22
8
6
6
20
2
7
7
16
5
6
7
18
9
5
4
6
24
21
18
29
32
N=100
В первой строке таблицы записаны полученные по результатам наблюдений
значения случайной величины X : 1,5 2,3 4,0 5,1 и 8,9, в первом
столбце – значения случайной величины Y : 0,8 1,1 1,6 и 2,2. на
пересечении строк и столбцов расположены частоты mij полученных в
результате наблюдений пар значений
(x , y ) . Например, пара (1,1;2,3)
i
j
встретилась 6 раз, пара (1,6;1,5) - 12 раз, пара (0,8;5,1) - ни разу. В
последнем столбике записаны суммы частот по строкам, а в последней
строке – суммы частот по столбцам.
Поскольку
n
xв =
∑ yi = nyв и
i =1
x1 + x 2 + ... + x n
, то
n
n
∑x
2
в
n
∑x
i
= nxв . Аналогично
i =1
= nxв2 .
i =1
Запишем систему уравнений
n
n
n

2
 ρ yx ⋅ ∑ xi + b∑ xi = ∑ xi y i
i =1
i =1
i =1

n
n
 ρ yx ⋅ ∑ xi + nb = ∑ y i

i =1
i =1
так, чтобы она отражала данные корреляционной таблицы:

2
 ρ yx ⋅ nxв + bnxв = ∑ mij xi y i .


ρ yx x в + b = y в

Из этой системы можно найти коэффициенты ρ yx и b для составления
уравнения линейной среднеквадратичной регрессии
118
Y на X :
y = ρ yx x + b .
Аналогично, из системы

2
 ρ xy ⋅ ny в + cnxy в = ∑ mij xi y i


ρ xy y в + c = yxв

ρ xy
c для составления уравнения линейной
среднеквадратичной регрессии X на Y :
y = ρ xy x + c .
можно найти коэффициенты
и
Определение: выборочным коэффициентом корреляции
величин X и Y называется величина
∑ mij xi y j − nxв yв ,
rв =
nσ x σ y
где
σx
случайных
- выборочное среднее квадратичное отклонение случайной
X , σ y - выборочное среднее квадратичное отклонение
случайной величины Y .
величины
Можно доказать, что выборочное уравнение линейной среднеквадратичной
регрессии Y на X может быть записано в виде
y − y в = rв
σy
(x − xв ) ,
σx
а выборочное уравнение линейной среднеквадратичной регрессии
в виде
x − xв = rв
Замечание: Если случайные величины
X на Y
σx
( y − yв ) .
σy
X и Y независимы, то rв = 0 , если
rв = ±1 , то между X и Y существует линейная зависимость.
Криволинейная корреляция
X иY
X может
a
2
b
изображать функцию y = ax + bx + c или y = ax или y = + b и т.п.
x
Статистическая зависимость между случайными величинами
может быть и нелинейной, например, график регрессии Y на
119
Если из каких-либо соображений известен качественный закон
корреляционной связи, то для нахождения параметров этого закона также
можно использовать метод наименьших квадратов.
Пример 1: Пусть в результате
величиной
n наблюдений за двумерной случайной
( X , Y ) получены n пар чисел (x1 , y1 ), (x2 , y 2 ),..., (x n , y n ) и
X и Y существует
a
корреляционная связь в виде обратной пропорциональности y = + b .
x
пусть известно, что между случайными величинами
2
a

+ b − yi  и будем искать значения
Составим функцию F (a, b ) = ∑ 
i =1  x i

параметров a, b , при которых реализуется минимум этой функции.
n
a

 + b − y i 
n
xi
∂F
 =0
= 2∑ 
x
∂a
i =1
i
n
a

∂F
.
= 2∑  + b − y i  = 0
∂b
x
i =1  i

Для определения значений a, b получим систему двух линейных
алгебраических уравнений от двух неизвестных
n
n
yi
1
 n 1
⋅
+
=
a
b
∑
∑
∑

2
i =1 xi .
i =1 xi
i =1 x i

n
n
1
 a ⋅ ∑ + nb = ∑ y i

i =1
i =1 x i
n наблюдений за двумерной случайной
величиной ( X , Y ) получены n пар чисел ( x1 , y1 ), ( x 2 , y 2 ),..., (x n , y n ) и
пусть известно, что между случайными величинами X и Y существует
2
квадратичная корреляционная связь y = ax + bx + c .
Пример 2: Пусть в результате
n
Составим функцию
(
F (a, b, c ) = ∑ axi2 + bxi + c − y i
)
2
и будем искать
i =1
значения параметров
функции.
120
a, b , при которых реализуется минимум этой
n
∂F
= 2∑ axi2 + bxi + c − y i ⋅ xi2 = 0
∂a
i =1
n
∂F
= 2∑ ax i2 + bxi + c − y i xi = 0
∂b
i =1
n
∂F
= 2∑ axi2 + bx i + c − y i = 0 .
∂c
i =1
Для определения значений a, b, c получим систему трех линейных
алгебраических уравнений от трех неизвестных
(
)
(
)
(
)
n
n
n
 n 4
3
2
2
a ∑ x i + b ∑ x i + c ∑ x i = ∑ y i x i
i =1
i =1
i =1
 i =n1
n
n
n

3
2
a
x
b
x
c
x
y i xi .
+
+
=
 ∑ i
∑
∑
∑
i
i
i =1
i =1
i =1
 i =1 n
n
n
 a x 2 + b x + nc =
yi
∑
∑
∑
i
i

i =1
i =1
i =1

Контрольные вопросы:
1. Что такое статистическая зависимость? Что называется выборочным коэффициентом
регрессии и выборочным коэффициентом корреляции?
2. В чем заключается метод наименьших квадратов?
3. Что такое корреляционные таблицы? Каковы их свойства?
4. Привести примеры криволинейной корреляции.
Лекция 17 Статистическая проверка статистических
гипотез
Статистические гипотезы
Определение: Статистической называется гипотеза о виде неизвестного
распределения случайной величины или о параметрах распределения
случайной величины с известным законом распределения.
Примеры: 1) наблюдаемая случайная величина подчинена нормальному
закону распределения
2) две наблюдаемые случайные величины независимы
3) дисперсии двух случайных величин равны
4) математическое ожидание случайной величины равно данному значению
121
Одновременно с выдвинутой гипотезой рассматривается и противоречащая
ей гипотеза. Если есть основания отвергнуть выдвинутую гипотезу, то
имеет место противоречащая ей гипотеза.
Определение: Основной (нулевой) гипотезой называется выдвинутая
гипотеза H 0 . Альтернативной (конкурирующей) гипотезой называется
H 1 , противоречащая основной гипотезе.
Например, если основная гипотеза H 0 состоит в предположении, что
гипотеза
наблюдаемая случайная величина подчинена нормальному закону
распределения, то альтернативная гипотеза H 1 предполагает, что
наблюдаемая случайная величина не подчинена нормальному закону
распределения.
При проверке гипотезы может быть принято неправильное решение, при
этом допущенные ошибки бывают двух типов.
Определение: Ошибка первого рода состоит в том, что будет отвергнута
правильная гипотеза. Ошибка второго рода состоит в том, что будет
принята неправильная гипотеза.
Для проверки нулевой гипотезы применяют некоторую случайную
величину, распределение которой известно (для разных гипотез такие
случайные величины, вообще говоря, разные).
Определение: Статистическим критерием называется случайная
величина S, которая служит для проверки основной гипотезы H 0 .
Определение: Наблюдаемым значением
S набл критерия S , называется
значение этого критерия, вычисленное по результатам наблюдений
случайной величины X .
Определение: критической областью называется множество значений
критерия, при которых основная гипотеза H 0 отвергается. Областью
принятия гипотезы называется
множество значений критерия, при
которых основная гипотеза принимается.
Замечание: обычно критическая область и область принятия гипотезы
являются интервалами или объединениями интервалов.
Определение: критическими точками называют точки, отделяющие
критическую область от области принятия решений.
Определение: правосторонней критической областью называется
критическая область, определяемая неравенством S > k кр , где k кр некоторое действительное число.
122
Левосторонней критической областью называется критическая область,
определяемая неравенством S < k кр , где k кр - некоторое действительное
число.
Двусторонней критической областью называется критическая область,
определяемая неравенствами S < k1 и S > k 2 , где k1 , k 2 - некоторые
действительные числа такие, что
k1 < k 2 .
Рис. 31 Критические области
При нахождении правосторонней критической области задают достаточно
малую вероятность α и находят критическую точку k кр из условия
P(S > k кр ) = α .
При нахождении левосторонней критической области также задают
достаточно малую вероятность α и находят критическую точку k кр из
условия
P (S < k кр ) = α .
При нахождении двусторонней критической области задают достаточно
малую вероятность α и находят критическую точку k кр из условия
P (S < k 1 ) + P (S > k 2 ) = α .
Замечание: для всех известных критериев существуют соответствующие
таблицы, по которым можно найти нужную критическую точку.
123
Определение: мощностью критерия называется вероятность того, что
основная гипотеза будет отвергнута при условии, что верна альтернативная
гипотеза.
Замечание1: если вероятность ошибки второго рода равна β , то мощность
критерия равна 1 − β . При возрастании мощности критерия уменьшается
вероятность совершения ошибки второго рода. Поэтому при выбранном
уровне значимости целесообразно строить критическую область так, чтобы
мощность критерия была максимальной.
Замечание 2: при заданном объеме выборки невозможно уменьшить
одновременно α и β . При уменьшении α будет возрастать β и
наоборот. При уже выбранном значении α можно построить критическую
область с максимально возможной (при этом значении α ) мощностью.
Единственным способом одновременного уменьшения вероятностей α и
β является увеличение количества наблюдений значений случайной
величины.
Проверка гипотезы о нормальном распределении случайной величины
Одним из критериев проверки гипотезы о нормальном распределении
χ 2 ),
является критерий Пирсона (критерий
эмпирических и теоретических частот.
состоящий в сравнении
Пусть задано эмпирическое распределение
x1
x2
x3
…
x k −1
xk
n1
n2
n3
…
nk −1
nk
Критерием для проверки гипотезы о нормальном распределении является
случайная величина
k
χ =∑
2
i =1
где
(n
i
− ni'
ni'
)
2
,
ni' - теоретические частоты нормального распределения.
Алгоритм нахождения теоретических частот нормального распределения
состоит в следующем:
1) Интервал наблюдаемых значений случайной величины X делится на m
интервалов одинаковой длины, и находят середины
124
xi* этих интервалов. В
si значения xi* принимается количество значений
качестве частоты
случайной величины, попавшей в соответствующий интервал. Получается
новое эмпирическое распределение
2)
x1*
x 2*
x3*
…
x m* −1
x m*
s1
s2
s3
…
s m −1
sm
выборочная
средняя
Вычисляются
xв
и
выборочное
среднее
квадратичное отклонение σ * .
3) Вычисляются концы интервалов для нормированной случайной
величины Z =
X − xв
σ
*
: zi =
xi − xв
, при этом наименьшее значение
σ*
величины Z принимается равным − ∞ , а наибольшее – равным ∞ .
4) Вычисляются теоретические частоты
ni' по формуле
ni' = np i , где pi = Φ( z i +1 ) − Φ( z i ) ,
Φ( z ) - интегральная функция Лапласа. Если для некоторых теоретических
'
частот имеет место неравенство ni < 5 , то соответствующие группы
объединяются.
Определение: Числом степеней свободы критерия
χ2
называется
число
k = s − 1 − r , где s - число групп (частичных интервалов), r - число
параметров гипотетического распределения.
Замечание:
у
нормального
распределения
f (x ) =
−
1
σ 2π
e
( x − a )2
2σ 2
два
параметра: математическое ожидание a и среднее квадратичное
отклонение σ . Поэтому число степеней свободы для нормального
распределения равно k = s − 3 , где s - число групп (частичных
интервалов).
По таблице значений критерия
k
сравнивается с числом
χ2 = ∑
i =1
χ 2 находится
(n
i
−n
ni'
)
' 2
i
χ кр2 (α , k )
и
χ 2 < χ кр2 (α , k ) ,
то
величина
. Если
125
гипотеза
о
нормальном
распределении
случайной
X принимается, в противном случае гипотеза отвергается.
величины
Пример: С помощью критерия Пирсона, при уровне значимости 0,05 ,
проверить гипотезу о нормальном распределении случайной величины Х:
xi
0,8
1,0
1,2
1,4
1,6
1,8
2,0
2,2
2,4
2,6
2,8
ni
6
9
26
25
30
26
21
24
20
8
5
Решение: n
α = 0,05 ,
xв =
= 6 + 9 + 26 + 25 + 30 + 26 + 21 + 24 + 20 + 8 + 5 = 200 ,
0,8 ⋅ 6 + 1 ⋅ 9 + 1,2 ⋅ 26 + 1,4 ⋅ 25 + 1,6 ⋅ 30 + 1,8 ⋅ 26 + 2 ⋅ 21 + 2, 2 ⋅ 24 + 2,4 ⋅ 20 + 2,6 ⋅ 8 + 2,8 ⋅ 5
= 1,762
200
xi2
0,64
1,0
1,44
1,96
2,56
3,24
4,0
4,84
5,76
6,76
7,84
ni
6
9
26
25
30
26
21
24
20
8
5
σ * = xв2 − ( xв )2 = 3,3448 − 3,104644 = 0,240156 ≈ 0,49 .
Длины интервалов примем равными 0,2 .
Для удобства дальнейших вычислений составим таблицу:
xi*
zi
Φ(z i )
pi
ni'
ni
0,9
1,1
1,3
1,5
1,7
1,9
2,1
2,3
2,5
2,7
2,9
-1,76
-1,35
-0,94
-0,53
-0,13
0,28
0,69
1,10
1,51
1,91
2,32
-0,4608
-0,4115
-0,3262
-0,2019
-0,0517
0,1103
0,2549
0,3643
0,4345
0,4719
0,4898
0,0493
0,0853
0,1243
0,1502
0,1620
0,1446
0,1094
0,0702
0,0374
0,0179
0,0102
9,86
17,06
24,86
30,04
32,4
28,92
21,88
14,04
7,48
3,58
2,04
6
9
26
25
30
26
21
24
20
8
5
126
(n
i
− ni'
ni'
)
1,511
3,808
0,052
0,846
0,178
0,295
0,035
7,066
20,956
5,457
4,295
2
∞
0,5
Две последние теоретические частоты , равные 3,58 и 2,04, удовлетворяют
неравенству ni < 5 , значит. две последние группы надо объединить. При
'
этом s = 10 , k = 10 − 3 =
(n
7 . Значение
интервала равно 9, 691. Значения
i
− ni'
ni'
)
2
для объединенного
Φ( z i ) находятся по таблице значений
интегральной функции Лапласа.
По таблице значений критерия
χ 2 , находим χ кр2 (0,05;7 ) = 14,1 .
χ 2 = 1,511 + 3,808 + 0,052 + 0,846 + 0,178 + 0,295 + 0,035 + 7,066 +
+ 20,956 + 9,691 = 44,438 > 14,1
Поскольку
χ 2 > χ кр2 = 14,1 ,
то гипотеза о нормальном распределении
случайной величины Х отвергается.
Проверка гипотезы о значимости выборочного коэффициента
корреляции
n наблюдений над нормально распределенной
( X , Y ) и по результатам наблюдений
найден отличный от нуля выборочный коэффициент корреляции rв .
Пусть произведены
двумерной случайной величиной
Требуется проверить гипотезу о равенстве нулю коэффициента корреляции
случайных величин X и Y .
В качестве критерия проверки основной гипотезы принимается случайная
величина
T=
rв n − 2
1 − rв2
,
имеющая распределение Стьюдента с k = n − 2 степенями свободы.
Критическая область в этом случае будет двусторонней. По таблице
критических точек распределения Стьюдента при заданном уровне
значимости α и числе степеней свободы k = n − 2 находится
критическая точка t кр (α ; k ) . Если
127
T =
rв n − 2
1 − rв2
< t кр (α ; k ) ,
то нет оснований отвергнуть гипотезу о равенстве нулю коэффициента
корреляции. В противном случае гипотеза отвергается.
Проверка гипотезы о равенстве математических ожиданий двух
случайных величин
Пусть над случайной величиной X произведены n наблюдений, а над
случайной величиной Y - m наблюдений. Требуется проверить гипотезу о
равенстве математических ожиданий случайных величин X и Y .
Здесь в качестве критерия можно взять случайную величину
xв − y в
Z=
Dв ( X ) Dв (Y )
+
n
m
,
распределение которой приближенно подчинено нормальному закону
распределения.
Поскольку
основная гипотеза
состоит в выполнении равенства
M ( X ) = M (Y ) , то альтернативная гипотеза имеет вид M ( X ) ≠ M (Y ) и
критическая область будет двусторонней. Можно доказать, что наибольшая
мощность критерия при заданном уровне значимости α достигается тогда,
k1 = −k 2 выбраны так, что вероятности
попадания в каждый из двух интервалов критической области (− ∞; k1 ) и
когда критические точки
(k 2 ; ∞ ) одинаковы и равны α .
Значение критической точки
где
2
k 2 находится из условия
1−α
Φ(k 2 ) =
,
2
Φ( x ) - функция Лапласа.
Контрольные вопросы:
1. Что называется статистической гипотезой? Что такое основная и альтернативная
гипотезы?
2. Что называется статистическим критерием? Что такое мощность критерия? Что
называется критической областью? Какие бывают виды критических областей?
128
3.
4.
В чем заключается критерий «хи квадрат» проверки гипотезы о нормальном
распределении случайной величины?
Как проверяется гипотеза о значимости выборочного коэффициента корреляции?
Как проверяется гипотеза о равенстве математических ожиданий?
Приложение 1
2
x
Таблица значений функции Лапласа f (x ) = 1 e − 2
2π
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0
0,3989
3970
3910
3814
3683
3521
3332
3123
2897
2661
2420
2179
1942
1714
1497
1295
1109
0940
0790
0656
0540
0440
0355
0283
0224
0175
0136
0104
0079
0060
0044
0033
0024
0017
0012
0009
0006
0004
0003
0002
1
3989
3965
3902
3802
3668
3503
3312
3101
2874
2637
2396
2155
1919
1691
1476
1276
1092
0925
0775
0644
0529
0431
0347
0277
0219
0171
0132
0101
0077
0058
0043
0032
0023
0017
0012
0008
0006
0004
0003
0002
2
3989
3961
3894
3790
3652
3485
3292
3079
2850
2613
2371
2131
1895
1669
1456
1257
1074
0909
0761
0632
0519
0432
0339
0270
0213
0167
0129
0099
0075
0056
0042
0031
0022
0016
0012
0008
0006
0004
0003
0002
3
3988
3956
3885
3778
3637
3467
3271
3056
2827
2589
2347
2107
1872
1647
1435
1238
1057
0893
0748
0620
0508
0413
0332
0264
0208
0163
0126
0096
0073
0055
0040
0030
0022
0016
0011
0008
0005
0004
0003
0002
4
3986
3951
3876
3765
3621
3448
3251
3034
2803
2565
2323
2083
1849
1626
1415
1219
1040
0878
0734
0608
0498
0404
0325
0258
0203
0158
0122
0093
0071
0053
0039
0029
0021
0015
0011
0008
0005
0004
0003
0002
5
3984
3945
3867
3752
3605
3429
3230
3011
2780
2541
2299
2059
1826
1604
1394
1200
1023
0863
0721
0596
0488
0396
0317
0252
0198
0154
0119
0091
0069
0051
0038
0028
0020
0015
0010
0007
0005
0004
0002
0002
6
3982
3939
3857
3739
3589
3410
3209
2989
2756
2516
2275
2036
1804
1582
1374
1182
1006
0848
0707
0584
0478
0387
0310
0246
0194
0151
0116
0088
0067
0050
0037
0027
0020
0014
0010
0007
0005
0003
0002
0002
7
3980
3932
3847
3726
3572
3391
3187
2966
2732
2492
2251
2012
1781
1561
1354
1163
0989
0833
0694
0573
0468
0379
0303
0241
0189
0147
0113
0086
0065
0048
0036
0026
0019
0014
0010
0007
0005
0003
0002
0002
8
3977
3925
3836
3712
3555
3372
3166
2943
2709
2468
2227
1989
1758
1539
1334
1145
0973
0818
0681
0562
0459
0371
0297
0235
0184
0143
0110
0084
0063
0047
0035
0025
0018
0013
0009
0007
0005
0003
0002
0001
9
3973
3918
3825
3697
3538
3352
3144
2920
2685
2444
2203
1965
1736
1518
1315
1127
0957
0804
0669
0551
0449
0363
0290
0229
0180
0139
0107
0081
0061
0046
0034
0025
0018
0013
0009
0006
0004
0003
0002
0001
129
Приложение 2
Таблица значений интегральной функции Лапласа Φ( x ) =
х
Ф(х)
х
Ф(х)
х
Ф(х)
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,43
0,44
0,45
0,0000
0,0040
0,0080
0,0120
0,0160
0,0199
0,0239
0,0279
0,0319
0,0359
0,0398
0,0438
0,0478
0,0517
0,0557
0,0596
0,0636
0,0675
0,0714
0,0753
0,0793
0,0832
0,0871
0,0910
0,0948
0,0987
0,1026
0,1064
0,1103
0,1141
0,1179
0,1217
0,1255
0,1293
0,1331
0,1368
0,1406
0,1443
0,1480
0,1517
0,1554
0,1591
0,1628
0,1664
0,1700
0,1736
0,46
0,47
0,48
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,88
0,89
0,90
0,91
0,1772
0,1808
0,1844
0,1879
0,1915
0,1950
0,1985
0,2019
0,2054
0,2088
0,2123
0,2157
0,2190
0,2224
0,2257
0,2291
0,2324
0,2357
0,2389
0,2422
0,2454
0,2486
0,2517
0,2549
0,2580
0,2611
0,2642
0,2673
0,2703
0,2734
0,2764
0,2794
0,2823
0,2852
0,2881
0,2910
0,2939
0,2967
0,2995
0,3023
0,3051
0,3078
0,3106
0,3133
0,3159
0,3186
0,92
0,93
0,94
0,95
0,96
0,97
0,98
0,99
1,00
1,01
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
1,19
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
0,3212
0,3238
0,3264
0,3289
0,3315
0,3440
0,3365
0,3389
0,3413
0,3438
0,3461
0,3485
0,3508
0,3531
0,3554
0,3577
0,3599
0,3621
0,3643
0,3665
0,3686
0,3708
0,3729
0,3749
0,3770
0,3790
0,3810
0,3830
0,3849
0,3869
0,3883
0,3907
0,3925
0,3944
0,3962
0,3980
0,3997
0,4015
0,4032
0,4049
0,4066
0,4082
0,4099
0,4115
0,4131
0,4147
130
x
t2
−
1
e 2 dt
∫
2π 0
х
Ф(х)
1,38
1,39
1,40
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
1,49
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
1,60
1,61
1,62
1,63
1,64
1,65
1,66
1,67
1,68
1,69
1,70
1,71
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
1,80
1,81
1,82
1,83
0,4162
0,4177
0,4192
0,4207
0,4222
0,4236
0,4251
0,4265
0,4279
0,4292
0,4306
0,4319
0,4332
0,4345
0,4357
0,4370
0,4382
0,4394
0,4406
0,4418
0,4429
0,4441
0,4452
0,4463
0,4474
0,4484
0,4495
0,4505
0,4515
0,4525
0,4535
0,4545
0,4554
0,4564
0,4573
0,4582
0,4591
0,4599
0,4608
0,4616
0,4625
0,4633
0,4641
0,4649
0,4656
0,4664
х
Ф(х)
х
Ф(х)
х
Ф(х)
х
Ф(х)
1,84
1,85
1,86
1,87
1,88
1,89
1,90
1,91
1,92
1,93
1,94
1,95
1,96
1,97
1,98
1,99
2,00
2,02
2,04
0,4671
0,4678
0,4686
0,4693
0,4699
0,4706
0,4713
0,4719
0,4726
0,4732
0,4738
0,4744
0,4750
0,4756
0,4761
0,4767
0,4772
0,4783
0,4793
2,06
2,08
2,10
2,12
2,14
2,16
2,18
2,20
2,22
2,24
2,26
2,28
2,30
2,32
2,34
2,36
2,38
2,40
2,42
0,4803
0,4812
0,4821
0,4830
0,4838
0,4846
0,4854
0,4861
0,4868
0,4875
0,4881
0,4887
0,4893
0,4898
0,4904
0,4909
0,4913
0,4918
0,4922
2,44
2,46
2,48
2,50
2,52
2,54
2,56
2,58
2,60
2,62
2,64
2,66
2,68
2,70
2,72
2,74
2,76
2,78
2,80
0,4927
0,4931
0,4934
0,4938
0,4941
0,4945
0,4948
0,4951
0,4953
0,4956
0,4959
0,4961
0,4963
0,4965
0,4967
0,4969
0,4971
0,4973
0,4974
2,82
2,84
2,86
2,88
2,90
2,92
2,94
2,96
2,98
3,00
3,2
3,4
3,6
3,8
4,0
4,5
5,0
0,4976
0,4977
0,4979
0,4980
0,4981
0,4982
0,4984
0,4985
0,4986
0,49865
0,49931
0,49966
0,49984
0,49992
0,49996
0,49999
0,49999
γ→
Приложение 3
Таблица значений t γ (n )
0,95
0,99
0,999
2,78
2,57
2,45
2,37
2,31
2,26
2,23
2,20
2,18
4,60
4,03
3,71
3,50
3,36
3,25
3,17
3,11
3,06
8,61
6,86
5,96
5,41
5,04
4,78
4,59
4,44
4,32
n↓
5
6
7
8
9
10
11
12
13
γ→
0,95
0,99
0,999
2,16
2,15
2,13
2,12
2,11
2,10
2,093
2,064
2,045
3,01
2,98
2,95
2,92
2,90
2,88
2,861
2,797
2,756
4,22
4,14
4,07
4,02
3,97
3,92
3,883
3,745
3,659
n↓
14
15
16
17
18
19
20
25
30
γ→
0,95
0,99
0,999
2,032
2,023
2,016
2,009
2,001
1,996
1,987
1,984
1,980
2,720
2,708
2,692
2,679
2,662
2,649
2,633
2,627
2,617
3,600
3,558
3,527
3,502
3,464
3,439
3,403
3,392
3,374
n↓
35
40
45
50
60
70
90
100
120
131
Число
степеней
свободы
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
132
Приложение 4
Критические точки распределения χ 2
Уровень значимости
0,01
0,025
0,05
0,95
0,0,975
6,6
9,2
11,3
13,3
15,1
16,8
18,5
20,1
21,7
23,2
24,7
26,2
27,7
29,1
30,6
32,0
33,4
34,8
36,2
37,6
38,9
40,3
41,6
43,0
44,3
45,6
47,0
48,3
49,6
50,9
5,0
7,4
9,4
11,1
12,8
14,4
16,0
17,5
19,0
20,5
21,9
23,3
24,7
26,1
27,5
28,8
30,2
31,5
32,9
34,2
35,5
36,8
38,1
39,4
40,6
41,9
43,2
44,5
45,7
47,0
3,8
6,0
7,8
9,5
11,1
12,6
14,1
15,5
16,9
18,3
19,7
21,0
22,4
23,7
25,0
26,3
27,6
28,9
30,1
31,4
32,7
33,9
35,2
36,4
37,7
38,9
40,1
41,3
42,6
43,8
0,004
0,103
0,352
0,711
1,15
1,64
2,17
2,73
3,33
3,94
4,57
5,23
5,89
6,57
7,26
7,96
8,67
9,39
10,1
10,9
11,6
12,3
13,1
13,8
14,6
15,4
16,2
16,9
17,7
18,5
0,001
0,051
0,216
0,484
0,831
1,24
1,69
2,18
2,70
3,25
3,82
4,40
5,01
5,63
6,26
6,91
7,56
8,23
8,91
9,59
10,3
11,0
11,7
12,4
13,1
13,8
14,6
15,3
16,0
16,8
γ→
Приложение 5
Таблица значений q (γ , n )
0,95
0,99
0,999
1,37
1,09
0,92
0,80
0,71
0,65
0,59
0,55
0,52
2,67
2,01
1,62
1,38
1,20
1,08
0,98
0,90
0,83
5,64
3,88
2,98
2,42
2,06
1,80
1,60
1,45
1,33
n↓
5
6
7
8
9
10
11
12
13
γ→
0,95
0,99
0,999
0,48
0,46
0,44
0,42
0,40
0,39
0,37
0,32
0,28
0,78
0,73
0,70
0,66
0,63
0,60
0,58
0,49
0,43
1,23
1,15
1,07
1,01
0,96
0,92
0,88
0,73
0,63
n↓
14
15
16
17
18
19
20
25
30
γ→
0,95
0,99
0,999
0,26
0,24
0,22
0,21
0,19
0,17
0,15
0,14
0,11
0,38
0,35
0,32
0,30
0,27
0,25
0,21
0,20
0,16
0,56
0,50
0,46
0,43
0,38
0,34
0,29
0,27
0,21
n↓
35
40
45
50
60
70
90
100
150
Список литературы
Основная
1. Бронштейн И.Н., Семендяев К.А. Справочник по математике для
инженеров и учащихся втузов. М.; Наука, 1970
2. Выгодский М.Я. Справочник по высшей математике. М.; Наука, 1976
3. Гмурман В.Е. Теория вероятностей и математическая статистика М.,
Высшая школа, 2005
4. Гмурман В.Е. Руководство к решению задач по теории вероятностей и
математической статистике М., Высшая школа, 2005
5. Вентцель Е.С. Теория вероятностей М., Наука, 1969
Дополнительная
1. Пугачев В.С. Теория вероятностей и математическая статистика Ь.,
Физматлит, 2002
2. Феллер В. Введение в теорию вероятностей и ее приложения М., Мир,
1967
3.Королюк В.С. и др. Справочник по теории вероятностей и математической
статистике М., Наука, 1985
133
Основные обозначения
R - множество действительных чисел
N - множество натуральных чисел
(a; b ) - открытый интервал с концами a и b
[a; b), (a; b] - полуоткрытые интервалы с концами a и b
[a; b] - замкнутый интервал с концами a и b
[a; ∞ ) - бесконечный полуоткрытый интервал с левым концом a
(a; ∞ ) - бесконечный открытый интервал с левым концом a
(− ∞; b] - бесконечный полуоткрытый интервал с правым концом b
(− ∞; b ) - бесконечный открытый интервал с правым концом b
Ank - количество всевозможных размещений
C nk - количество всевозможных сочетаний
Ank - количество всевозможных размещений
A - событие, противоположное событию A
P( A) - вероятность события A
P( A | B ) - условная вероятность события A
M ( X ) - математическое ожидание случайной величины X
D( X ) - дисперсия случайной величины X
σ ( X ) - среднее квадратическое отклонение случайной величины X
M X k - момент порядка k случайной величины X
( )
134
Предметный указатель
Асимметрия 62
Вероятность переходная 80
Вероятность события 13
Вероятность условная 24
Выборка без возвращений 7
Выборка неупорядоченная 7
Выборка с возвращениями 7,8
Выборка упорядоченная 7,8
Выборочная дисперсия 94
Выборочная средняя 93
Выборочный коэффициент регрессии 114
Гипотеза альтернативная 121
Гипотеза основная 121
Гистограмма 91
Двумерная случайная величина 106
Дискретная случайная величина 36
Дискретное множество 36
Дисперсия 47, 58
Доверительный интервал 102
Закон больших чисел 73
Закон распределение Пуассона 41
Закон распределения биномиальный 40
Закон распределения нормальный 67
Закон распределения показательный 65
Закон распределения равномерный 63
Интенсивность потока 42
Интервальный статистический ряд 86
Комбинаторика 5
Корреляционные таблицы 117
Корреляционный момент 111
Коэффициент корреляции 111
Критическая область 122
Критическая точка 122
Математическое ожидание 45,57
Матрица перехода 80
Медиана 61
Метод моментов 100
Многоугольник распределения 37
Мода 60
Момент случайной величины 47,58
Момент центральный 47,58
135
Мощность критерия 123
Независимые случайные величины 44
Непрерывная случайная величина 50
Неравенство Чебышёва 71
Оценка интервальная 93
Оценка максимального правдоподобия 96,98
Оценка параметра несмещенная 93
Оценка параметра состоятельная 93
Оценка параметра точечная 92
Оценка параметра эффективная 93
Ошибка второго рода 122
Ошибка первого рода 122
Перестановка 7
Плотность распределения 54,109
Полигон относительных частот 90
Полигон частот 89
Полная группа событий 14
Принцип сложения 6
Принцип умножения 7
Произведение событий 20
Простейший поток событий 42
Размещения 7
Случайная величина 35
Событие 12
Событие достоверное 13
Событие невозможное 13
События независимые 23
События несовместные 14
События равновозможные 14
Состояние системы 78
Сочетание 7
Среднее квадратическое отклонение 48,59
Статистическая гипотеза 121
Статистический критерий 122
Сумма событий 20
Теорема Лапласа локальная 32
Теорема Лапласа интегральная 33
Формула Бернулли 28
Формула включений и исключений 6
Формула полной вероятности 26
Формулы Бейеса 27
Функция Лапласа дифференциальная 30
Функция Лапласа интегральная 30
136
Функция правдоподобия 96,98
Функция распределения 37, 51, 107
Центральная предельная теорема 74
Цепь Маркова 78
Эксцесс 62
Эмпирическая функция распределения 87
137
Учебное издание
Пожидаев Александр Васильевич
Вылегжанин Игорь Альбертович
Математика
Курс лекций
для студентов технических специальностей
Часть IV
Печатается с готового оригинал-макета,
предоставленного авторами
Изд. лиц. ЛР № 021277 от 06.04.98
Подписано в печать 09.02.2009
8,75 печ. л. 7,2 уч.-изд. л. Тираж 200 экз. Заказ № 1998
Издательство Сибирского государственного университета путей сообщения
630049, Новосибирск, ул. Д. Ковальчук, 191.
Тел./факс: (383) 328-03-81. E-mail: [email protected]
Документ
Категория
Без категории
Просмотров
34
Размер файла
1 073 Кб
Теги
математика
1/--страниц
Пожаловаться на содержимое документа