Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 85

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 79 80 81 82 83 84 < 85 > 86 87 88 89 90 91 .. 161 >> Следующая

Если взять, наоборот, число уличных травм за сутки в большом городе, то при независимости травм для отдельных жителей мы бы ориентировались (для общего числа травм |) на распределение Пуассона с некоторым параметром М|=Х, который мы могли бы определить по статистическим данным «скорой помощи». С другой стороны, взяв наблюдения ?i, |г, ... , за k каких-то суток, мы могли бы определить k
s2 = —-— V (5,—I)2. В случае закона Пуассона D|=M?=X, *-1 /-Г1
т. е. коэффициент дисперсии s2/X примерно равен 1. Каким он будет реально? Вне всякого сомнения, s2/X значительно больше 1 (интересно было бы это проверить по фактическим данным).
Как интерпретируются поднормальная и сверхнормальная дисперсия ? В случае независимости испытаний в каждой серии (нормальной дисперсии) дисперсия ц есть дисперсия сум-
212
мы независимых слагаемых. Если между этими слагаемыми есть положительная (отрицательная) корреляция, то дисперсия суммы будет больше (меньше), чем в случае независимости. Таким образом, сверхнормальная (поднормальная) дисперсия интерпретируется как указание на положительную (отрицательную) корреляцию между результатами испытаний.
Так, появление на каком-то месте в русском тексте гласной буквы, очевидно, означает, что дальше скорее всего последует согласная буква (отрицательная корреляция между результатами соседних испытаний). Соответственно дисперсия поднормальная. Уличные же травмы могут учащаться под влиянием общей для всех жителей причины (вроде гололеда). Соответственно дисперсия должна быть сверхнормаль-ной.
В XIX в. было хорошо известно, что во многих случаях дисперсия бывает поднормальной либо сверхнормальной, так что о модели независимых испытаний говорить нельзя. Конечно, дисперсия любой суммы случайных величин определяется их ковариациями (либо коэффициентами корреляции), но определять из эксперимента коэффициенты корреляции между результатом i-ro и /-го испытания на практике часто неудобно из-за ограниченности экспериментального материала (возникает слишком много параметров: корреляций, грубо говоря столько, сколько пар (i, /)). Возник вопрос о модели зависимых испытаний, в которой участвовало бы лишь небольшое число неизвстных параметров. Наиболее удачной оказалась модель, которую А. А. Марков называл «моделью» испытаний, связанных в цепь», а мы называем «цепью Маркова».
Опишем эту модель. Пусть испытания занумерованы числами л = 0, 1, 2, ... , а каждое испытание имеет N возможных исходов, занумерованных числами 1, 2, ... , N. Можно себе представить, что исходы 1, 2, ... , N изображены N точками, поставленными на чертеже; тогда последовательность испытаний наглядно представляется блужданием точки х(п) (х(п) — исход л-го испытания) по множеству исходов: в момент времени п—О частица возникает в какой-то точке i'o = =лг(0); затем в момент времени п= 1 эта частица перескакивает в точку i'i=jf(l), из этой точки в момент л=2 перескакивает в точку ('г —х(2) и т. д. Элементарными событиями, описывающими первые л испытаний, будут последовательности {(A), h ... in), i*=l, 2, ... , N). Марковская цепь получается при определенном способе введения вероятностей событий.
Опишем этот способ, используя соображения, относящиеся к условным вероятностям. Именно, следуя А. А. Маркову, предположим, что условная вероятность Plx(n)=j/x(n— —1), ... , jc(0)> (это условная вероятность события {х(п) = =/} относительно разбиения, задаваемого значениями случайных величин х(п—1).........*(0)) зависит лишь от значения
213
х(п—1). Но тогда эта функция переменных х(п—\)...........лг(0)
окажется измеримой относительно разбиения, задаваемого значениями случайной величины х(п—1). Следовательно (см. утверждение замечания 4 п. 1.1 из § 1 гл. 4), должно выполняться соотношение
P{x(n)=j/x(n-\), ... , *(0)> = P{x(n)=j/x(n-\)). (1)
Используем (1) как наводящее соображение для введения безусловных вероятностей на уровне строгого математического определения.
Именно, обозначим значение правой части (1) на элементе разбиения {х(п— l)=i> = ((to,м ... , in) :in-i = i) через Pij(n—1). (Эта величина называется вероятностью перехода из состоянния i в состояние j на (п—1)-м шаге п ) Введем также величины jij=P{x(0) =/}; набор я=(ли ... , jijv,) называется начальным распределением. Элементарное событие (7о, м ... , in) будем понимать как пересечение событий
{*(0) = 1о) Л <*(1) = М> П ... П lx(n) = I»}.
Заметим, что теорему умножения вероятностей можно понять следующим образом: для любых k событий В и В2, ,
В*
Р{ВХВ2 ... Bk) = Р{ (BiB2 ... Вк-,)Вк) =
= P{BhfBlB2 . . Я*_, } Р{В,Я2 ... =
= Р { Вк I В\В2 . . Bk-\ } Р { Bk-\ I В\В2 ... Bk-2^ • ••
... P(B2/Bl) P(fl,}.
Поэтому в силу марковского свойства (1) должно выполняться соотношение
Р{(«„ «1 • • • U> - PW0) = MPWD = *iW0) = i0>...
...P{x(n) = i„\x(n — 1) = in-i) =
= ЧРм.(°)А..(1) • • • Pin-- *)• (2)
В словесном выражении формула (2) означает следующее. Для того чтобы блуждающая по состояниям (1, 2, ... , N) точка за время от 0 до п прошла путь {i'o t'i ... in), нужно, чтобы в нулевой момент времени п=0 она возникла в состоянии i0. в первый момент времени п=1 перескочила в состояние (1, во второй момент времени п=2 перескочила из t( в ('г и т. д. В таком описании цепь Маркова напоминает описание некоторого физического движения, и мы вскоре увидим, что в современной науке так оно и есть.
Предыдущая << 1 .. 79 80 81 82 83 84 < 85 > 86 87 88 89 90 91 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed