Научная литература
booksshare.net -> Добавить материал -> Биология -> Андреев В.Л. -> "Классификационные построения в экологии и систематике" -> 44

Классификационные построения в экологии и систематике - Андреев В.Л.

Андреев В.Л. Классификационные построения в экологии и систематике — М.: Наука, 1980. — 142 c.
Скачать (прямая ссылка): klassifikacionniepostroeniyavekologii1980.pdf
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 58 >> Следующая

Границы в этом случае называются гиперквадриками, поскольку они могут принимать любую из общих форм гиперплоскостей: гиперсфер, гиперэллипсоидов, пшерпараболоидов и гипергиперболоидов.
Пример. Продолжим изучение возможностей построения прогнозирующей системы уловов. На этот раз не будем усреднять ковариационные матрицы, которые для каждой выборки равны соответственно
Обратные матрицы равны
II 0,253 —0,396 . II 0,81 —1,851)
\V~1 __ W :_
VYi — j) — 0,396 1,034 ’ 2 — 1- 1,85 5,07 |Г
Расстояния объекта X = (| 15 9 || до центров обучающих выборо!
-3,42 Sx - 2,28 S2 + 85,37.
Задавая ситуацию X = JJ 19 5 ]j , получим L (X) = 12,65 > 0,
(8.16)
(8.17)
Qi = II — 4,9 — 4,61| х
0,253 —0,396| I — 4,Э |
— 0,396 1,0341 Х | — 4,61|
Q2 = || - 13,8 - 7,7 || X
0,81 —1,85| -13.8Ц
- 1,85 5,07j X -7,7 | = 61’6
где Qb определяются формулой (8.11).
Рпс. 8.1. Дискриминация обучающих-выборок для прогноза уловов на основе различных дискриминантных функций о — случай 3; о — случай 4; с — случай 5
Детерминанты ковариационных матриц равны | Wx | = 0,73, | Wa I = 18,18.
Следовательно, согласно (8.17)
L (X) = 4- [\п^§- + 61,6 - 10,l) = 27,4 > 0.
Таким образом, прогноз остается прежним: в заданной ситуации следует ожидать «больших» уловов.
Для сравнения эффективности прогнозирующих систем (8.14), (8.16) и (8.17) проведем дискриминацию представителей обучающих выборок с помощью соответствующих дискриминантных функций. Результаты расчетов приведены на рис. 8.1. Сравнивая визуально соотношения внутривыборочного и межвыборочного разброса для трех вариантов, можно убедиться в том, что в данном случае усложнение прогнозирующего аппарата дает весьма небольшое улучшение дискриминации. В общем случае это не так, и качество дискриминации существенно улучшается при последовательном переходе от случая 3 к случаю 5.
8.3. Другие приложения решающего правила Байеса.
Независимые бинарные признаки
Приведенные случаи не исчерпывают всех возможностей применения байесовского решающего правила для распознавания образов. В частности, это может касаться понятия «функции потерь», как более общего по сравнению с вероятностью ошибки распознавания и рассмотрения ситуаций с числом классов более двух.
Пусть
Ж = {Ни • • •, Я,}
и А = {а^ . . . , а8} — конечное множество из возможных действий; к (а; | Нк) — потери, связанные с принятием действия для образа Нк.
Как и ранее,
Р (Х\Нк)Р(Нк)
Р {Нк ] X) = .- — . (8.18)
%р(Х\Нк)Р(Нк)
Допустим, что мы наблюдаем некоторое описание X и собираемся произвести действие ah Если распознаваемый образ есть Нк, то мы понесем определенные потери X {а; | Нк). Так как Р {Нк I X) есть вероятность того, что распознаваемый образ действительно Нк, то ожидаемые потери, связанные с действием ah
F (сц I X) = 2 Ь (а; 1 Н,) Р {Нк I X). (8.19)
Ожидаемые потери называют также риском, a F (аг | X) — условным риском. Всякий раз при наблюдении конкретного значения X ожидаемые потери сводятся к минимуму выбором действия, минимизирующего условный риск. Тогда и для всех X в длинном ряду испытаний общий условный риск будет минимальным.
Обозначим Хик = X (сси| Нк) — потери вследствие принятия решения Ни, когда на самом деле распознаваемый образ есть Нк. Для случая двух классов
F К | X) = ХпР (II, | X) + Х12Р (Я-21 X),
F {а, | X) = Х.пР (Я! | X) + Х,2Р (Ях | X). ( '
Решающее правило с минимальным риском заключается в выборе Ях, если
F(a1|X)<JF(a2|X)
или
(Х21 - л„) Р (Н1 | X) > {Х12 - Х,2) P (Я, | X).
Пользуясь правилом Байеса для априорных вероятностей и полагая, что потери в случае ошибки больше, чем при правильном ответе
(Я21 ¦_ Ли) р (XI Я,) Р (Ях)> - Xi2) р (X I я.,) Р (Я2),
подучим отношение правдоподобия
р (X I Н\) ^ Р Шъ) СЙ 91 N
р(Х|Я2) ^ Хи-Лп Р №) V • >
Байесовское правило может быть распространено на случай дискретных переменных, в частности на бинарные признаки.
Пусть компоненты векторов равны либо 0, либо 1; классу Ях принадлежат Nx и классу Нг — Ыг объектов. Обозначим
Рг =
h = ¦
N, JVt
где п'Р — число векторов (описаний) первого класса, для которых i-я компонента равна 1. Далее естественно предположить, что
Р(Я2) = 1-Р(Яа).
Как и ранее, р (X | Нк) — вероятность появления описания X при условии, что оно принадлежит классу Я*, а Р (Нк | X) — вероятность того, что X принадлежит классу Нк.
Для двух классов согласно (8.1) естественно выбрать
р(Х|Я,) ^ 1 -Р(Нг) Я.и-ш Р(Х\Н2) ^ Р(Н2) к21-
• ?-22 А,ц
(8.22)
Если признаки независимы, то плотность вероятностей можно записать как произведения вероятностей для компонент вектора X
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 58 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed