Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 60

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 54 55 56 57 58 59 < 60 > 61 62 63 64 65 66 .. 161 >> Следующая

М|Щ(1])} = J J' IB{x)f(y)Pzn(x, y)dxdy; (4)
—ОО —00 00
М (/*(?)*(?)) = I h{x)g(x)pl{x)dx =
— оо
оо
оо
= I IB(x)f(y)Pt,n(x, y)dxdy.
(5)
10-2567
145
ибо повторный интеграл Лебега (в случае абсолютной сходимости, которая гарантирована тем, что M|/(ri) I <оо) можно превращать в двойной. Но (4) совпадает с (5). Теорема доказана.
Замечание 1. Нам понадобится тот факт, что для независимых случайных величин условное математическое ожидание совпадает с безусловным. При наличии совместной плотности распределения это вытекает из доказанной теоремы. Но более правильно выводить этот факт прямо из определения условного математического ожидания. Пусть, в самом деле, даны две о-алгебры 31, и 91г. независимые между собой в том смысле, что для и Л2еЩ2 имеем
Пусть случайная величина ц измерима относительно а-алгебры Щ*. Тогда = Mrj-
Действительно, пусть сначала yj = /А„ AteE$l2, N\v; = = Р(/4,). Проверим интегральное тождество:
J 7jP(dco)= J P(do>) = P(iMt) = Р(А,)Р(Аг) =
Д| AtAs
= S P(A,)P(d<o).
At
Дальнейшее доказывается переходом к линейным комбинациям и предельным переходом.
Замечание 2. Так же, как и в безусловном случае, следует отрицательно ответить на вопрос о возможности определения условного математического ожидания формулой, записанной в теореме. Именно при определении M(sintili=.v) мы не будем знать, воспользоваться ли совместной плотностью Ps, либо совместной плотностью pt.sinn. и должны быть уверены, что оба варианта приведут к одному результату. В безусловном случае для доказательства аналогичного факта всего естественнее привлечь интеграл Лебега. В случае условного математического ожидания столь же необходимым представляется использование общего понятия условного математического ожидания по Колмогорову.
§ 2. Корреляционная теория случайных величин
Корреляционной теорией называется подход к" изучению совместного распределения случайных величин SlP i*,. • •. In, использующий лишь знание математических ожиданий Mii, дисперсий и ковариаций соу(|4, Еу)= = M(i,— Mij)(ij — Mi;) (либо коэффициентов корреляции r(i„ iy) = cov(ij, —безразмерных аналогов
ковариаций). Корреляционная теория самозамкнута в том смысле, что включает способы определения этих пара-
146
метров по статистическим данным. Рассмотрим ее основные понятия.
2.1. Матрица ковариаций. Пусть дан случайный вектор
h.... Ы- Ковариации сц=cov(ii, h), i, j= 1...... n,
записываются в матрицу Ct=llc,7ll, называемую матрицей ковариаций случайного вектора ?, так как обычные операции над матрицами и векторами позволяют получить ряд полез-
П
ных формул. Напомним, что (дг, у) = 2 х,у, означает скалярное произведение векторов х=(хь .... хп) и у=(у\, .... уп)-Матрица ковариаций Ct, очевидно, симметрична, так что (Ctx, у) = (х, С\у)\ при этом (Сгх, х) есть некоторая квадратичная форма. Вероятностный смысл этой формы устанавливается следующей леммой.
Лемма 1. (С^х, х) = D(x, |) (D обозначает дисперсию. (х, = для любого неслучайного вектора * =
хп) ?= Яп)).
Доказательство. D(at, |) = D(}? *<?,-) = VXtXjCovlh, Ь) = {С^х, х).
Следствие 1. Поскольку D(x, 1)^0, матрица С5 неотрицательно определенная (т. е. определяет неотрицательную квадратичную форму).
Следствие 2. Если для некоторого вектора x0^Rn имеем: (CiXо, *0)=0, то случайный вектор | с вероятностью 1 лежит в линейном многообразии вида (х0, 1) =я. о — число. (В самом деле, поскольку D(jc0, 1)=0, с вероятностью 1 случайная величина (х0, ?) принимает постоянное значение а.)
Следствие 3. Если случайный вектор т) связан со случайным вектором ? линейным преобразованием: ц=А%+Ь
(А — матрица, b — вектор), то справедливо соотношение
С. = АС.А'
(Л' —транспонированная матрица А).
Действительно, D(x, t)) = D(x, 4| + 6) = D(x, А\) = ЩА'х,
I) = (С%А'х, A'x) = (AC,A'x, x) = (C^x, x).
Лемма 1 и следствия из нее устанавливают простую связь между понятиями корреляционной теории и квадратичными формами. Все обычные преобразования квадратичных форм — замену переменных, в частности приведение к главным осям; проектирование одних случайных величин на другие, определяемое скалярным произведением !/) =
=cov(|,-, 1/), и т. п. — можно интерпретировать в вероятностных терминах. Каждая такая интерпретация обычно носит громкое имя «анализа»: «анализ главных компонент», «факторный анализ», «регрессионный анализ», «дискриминантный
анализ» и т. п. С частью этих «анализов» мы кратко познакомимся. Следует понимать, что — будучи достаточно примитивными в чисто математическом смысле — эти «анализы» обычно представляют большие практические трудности. Нужно организовать сбор и обработку больших массивов статистической информации (и притом проявить достаточно здравого смысла, чтобы вероятностная модель реализаций значений случайных векторов как независимых одинаково распределенных величин не была бессмысленной); определить по статистическим данным матрицу ковариаций; получить в терминах этой матрицы ответы на какие-то содержательные вопросы и т. д. В общем, во многих случаях на практике не следует идти дальше простейших операций со скалярными произведениями п квадратичными формами; да и этот аппарат оказывается слишком сложным, едва ли достаточно обеспеченным фактическими данными. По совокупности всех этих обстоятельств имя «анализа» часто бывает вполне оправданным.
Предыдущая << 1 .. 54 55 56 57 58 59 < 60 > 61 62 63 64 65 66 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed