Научная литература
booksshare.net -> Добавить материал -> Биология -> Андреев В.Л. -> "Классификационные построения в экологии и систематике" -> 42

Классификационные построения в экологии и систематике - Андреев В.Л.

Андреев В.Л. Классификационные построения в экологии и систематике — М.: Наука, 1980. — 142 c.
Скачать (прямая ссылка): klassifikacionniepostroeniyavekologii1980.pdf
Предыдущая << 1 .. 36 37 38 39 40 41 < 42 > 43 44 45 46 47 48 .. 58 >> Следующая

1 (х — i(1))2 '
р (х | Вх) = -а для Яг р {х | Н2) =
а У 2л
: У 2л
ехр
ехр
1 (*•
{.(2)
)2
Д2
Отношение правдоподобия согласно (8.3)
Гр (х I Нi) jp (х | Нг)
¦¦ ехр
(&-<?!)]>
pm)
Р[Нд ’
(8.5)
где
(* - i^)2 У* ~ са .
Удобно использовать логарифм отношения (8.5)
или же
f(l) _ ?(2)
о* •*-Обозначая
- Х(2>
(Л<« + х(2)) (*(1) - *{2)) ^ , Р (Я.)
Ш Р (Нг)
2а2
со =
32
С00 =
(?fl> + ?(2}) (Jcw — х(2)) 2=2 ~
получим
L (х) = (ЛГ — со0
1п^№)>0 1П Р (Я!) ^ ’
(8.6)
где L (х) называется разделяющей или дискриминантной функцией. Подставив конкретное значение х в дискриминантную функцию, получим величину L (х), которая укажет на принадлежность х к одному из классов: если L (х) > 0, то Яь если L (х) < 0, то ' если L (х) = 0, то точка х находится на разделяющей границе.
Пример. Пусть имеются две обучающие выборки: Nx = 100, N, = 200, xW = 20, z<2> = 25, (о«)2 = (а(2>)2 = 4. Требуется рассортировать по классам три неизвестных объекта: х — 21, у = 22, z = 18.
В предположении, что численности выборок пропорциональны объемам ГС, найдем
р ^ = °’33’ Р = 1 - Р W = °'67’
, Р (Я,) п ln TW = 0’/L Коэффициенты разделяющей функции
20 — 25 , 202 — 252
0)
= — 1,25; ю0 = ——о—г— = — 28,13.
4
Следовательно, условия принадлежности к классу Нх
L {х) = 27,42-1,25 * > 0.
Подставляя в эту формулу значения признака трех неизвестных объектов, получим
L (*) = 1,17; L (у) = -0,08; L (z) = 4,92.
Первый и третий объекты следует отнести к классу Hv а второй — к классу Нг.
Если предположить, что объемы ГС одинаковы, то , Р (Н2) Л Р (Я,)
и разделяющая функция будет иметь вид
L (;г) = 28,13—1,25 х > 0.
При этих условиях все три распознаваемых объекта относятся к первому классу (Нг).
Случай 2 : а(1> Ф сг(2>. Отношение правдоподобия в данном случае
1.$4№-И>'"7Я' (8-7)
Раскрывая скобки в левой части неравенства, получим
L(x) =
1
(з«)2 (* - (*-*»>)
- In> 0, (8.8)
где L (х) — область принятия гипотезы о принадлежнс •
классу Hv
Пример. В условиях предыдущего примера положим, я:
(<Т( 1))2 = 4, (ст^>)2 = 5.
- Тогда
= о 71
P{Hi) ’
Для неизвестных объектов получим
(21 ~ 20)а _ « 0- (21-25)» _ о о
JE^L-l.OO, -<В-Ф = 1,8,
J18-20)L = if00? >(18-2рг- , 9>8>
s 5
Условия принадлежности к классу Нх L (х) |= + ~ > °’71 + °-11 = .°-82-
Следовательно,
Ь(х)= 1,48 >0,82, L (у) = 0,40 <0,82, L (г) = 4,4 >0,82,
т. е. два объекта следует отнести к классу Hv
Обобщения рассмотренных случаев можно осуществлять в следующих направлениях:
1) использование более одного признака;
2) распознавание при числе классов более двух;
3) использование более общего, чем вероятность ошибки, понятия функции потерь.
Несмотря на усложнение формул, связанное с этими обобщениями, принципиальная сторона распознавания не изменяется.
8.2. Байесовская теория решений| при многомерных распределениях
При использовании большего числа признаков апостериорная вероятность вычисляется по правилу Байеса:
где R — вектор значений признаков объекта R'.
Общий вид нормального распределения задается формулой
р (R | Я*) = (2я)-р/* | Wk |-v. exp (-*- Q*), -(8-10)
де
Q, = (R_R,)W^(R-R,)r.
(8.11)
Случай 3 : Wj = W2 = W = a\I, т. e. когда признаки ста-¦исхически независимы п имеют одинаковую дисперсию в обоих слассах. Ковариационная матрица при независимых признаках ;тановится диагональной, превращаясь в произведение о\ на еди-шчную матрицу Г
W,. =
,2 0 . . о ; 1/<й 0 . . 0
"11
0 • О . о2 и 0 0 .. • i/’L
рр ; ? ' РР
Логарифм отношения правдоподобия равен
4-(Q»- Qi)-
лде определяется формулой (8.11). Уравнение дискриминантной функции
у
X,
_]nZ№I>0
Р{Ну)
ал и по аналогии с (8.6)
L (X) = ^ со^; — щ —• In
Р Ш Р(Н j
>0,
(8.12)
(8.13)
где L (X) — линейная дискриминантная функция.
Имея некоторый объект X, заданный как вектор значений признаков, и подставляя эти значения в (8.13), получим ответ о принадлежности X к классу Hv
Предыдущая << 1 .. 36 37 38 39 40 41 < 42 > 43 44 45 46 47 48 .. 58 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed