Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 34

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 28 29 30 31 32 33 < 34 > 35 36 37 38 39 40 .. 131 >> Следующая

I pt -Црпри ?=1
при е'=1,
прие'=-1.
(5.10)
Отсюда следует:
т =
Pi + Р2 ПРИ е==1> Pi^ir +p21f? при е=-1.
Из совместного распределения (5.3), при замене в нем е е‘, и (5.10) получим распределение
/ (х, е) = '
pt Д(х) + ра /2(х) при е=1,
Pi AW + Р2 - /а(*) при е=_1-
(5.11
В [5.2] приведен вывод выражения [5.11] и анализ как час ных, так и общих случаев. Там же показано, что в случа неравного для образов первого и второго класса «собственн го мнения учителя о своих способностях»
Pl /l(x) 1CJ>. ~,b_liCl + C2) +
+ p2/2(x)iti?llfll±Ml±^. при e=l,
f (X,E)=
Pl/l,x)2±kiZ?i)rML±3l +
+ p2/2(x) 2+(c2 ~ ct) - b2(ct + c2) ПрИ e=-i. 4
Отсюда можно получить выражения для условных и со ственных распределений входного сигнала нейронной сети для моментов распределений.
5.3. Совместный закон распределения вероятностей входного сигнала для К классов образов
При числе классов, больше двух, априори вводится в рас смотрение матрица вероятностей afcfc, отнесения учителем обра зов, объективно принадлежащих к'-му классу и к-му классу:
°и • ¦ aifc' • • а1К
А = a • ¦ аШ ‘ • акК
1 • аКК • ¦ акк-*
о
3 '
Очевидно, что
flbL.' — 1, к, к 1, ... , К..
Совместный закон распределения вероятностей сигналов х(п) и е(п) имеет вид:
к
pk< akk.fk-(x)i при e=fe,
где k=1,... , К.
В режиме обучения матрица А является единичной
(5.12)
1 0. . о
J
II о' Т.'. о*
«г
1 •о 1 J
о.
В режиме самообучения вероятность отнесения образов, принадлежащих объективно к'-му классу, к любому к-му классу одинакова для всех классов и равна 1/К:
•^2
X______JL
К К
X.... X К К J
В режиме «вредительства» образы, объективно принадлежащие к'-му классу, относятся с какой-то вероятностью к любому из классов, кроме самого к’-то класса:
0 °12- ’ • а1К
Л3= а21 ’ 0’. • а2 К
- °К1 аК2 ' .. 0 J
Введем понятие квалификации Ък учителя системы распознавания образов для К классов. Зависимость между вероятностями акк. и величиной Ък является нелинейной, так как
1, если акк = 1, О, если акк = х , -1, если акк = 0.
(5.13)
При аппроксимации этой зависимости функцией второго порядка
акк = хЪ\ + уЪк + г
после подстановки в нее значений (5.13) и решения систе уравнений относительно неизвестных х, у, z получим:
К
(5.14
Аналогично получается зависимость Ь(а), имеющая вид:
Ъ =К(К-2) 2 о. 2-К _ (5 .
— кк 1-К
В конкретных расчетах можно пользоваться любой из фо мул (5.14) или (5.15). Из (5.12) можно вывести выражение дл момента распределения, окончательное выражение которо" имеет вид:
к к
2 X
fe=1
“ j Pk' akk' ajk' k ¦
Совместное распределение вероятностей входного сигнал* для К классов образов при произвольных квалификации учи теля и «собственном мнении учителя о своих способностях относительно каждого класса имеет вид: к к
f(x, е) = 2 cft Za№ pk, /fc,(x)t при e=J, Z= 1,... К,
где матрица вероятностей C=[c;fe] характеризует «собственное мнение учителя о своих способностях» при отнесении образов I-го класса к fc-му классу. Обозначив
к
cifc afcfc' "
получим
к
/(х, е) = 2 рк. fk(x)dlk. при е=1, 1-1,... К.
v=i
Случай континуума классов образов. Собственное распределение указаний учителя нейронной сети в режиме обучения распознаванию К классов образов имеет вид:
/е(е) = рк при е=к, к— 1,... К.
1 ЛД
Это функция дискретного аргумента е. Случай непрерывной функции распределения имеет широкое практическое применение тогда, когда учитель нейронной сети не может четко определить принадлежность образов к тому или иному классу, а выдает лишь некоторую количественную оценку этой принадлежности. При этом, конечно, возможно (но нежелательно ввиду потери информации при квантовании) разбить шкалу Т на К участков и свести задачу с континуумом классов к задаче с К классами образов. Для континуума классов образов и единичной матрицы А при непрерывной функции /е(е) в режиме обучения аналогично (5.12) имеем:
При произвольной квалификации учителя нейронной сети вводится в рассмотрение функция а(е',е) вероятности отнесения учителем образов, объективно соответствующих распределению /(х,е!), к распределению /(х,е). В данном случае
Совместное распределение вероятностей /(х,е) сигналов х(п) и е(п) на входе нейронной сети будет иметь следующий вид:
Предыдущая << 1 .. 28 29 30 31 32 33 < 34 > 35 36 37 38 39 40 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed