Научная литература
booksshare.net -> Добавить материал -> Физика -> Николис Дж. -> "Динамика иерархических систем: эволюционное представление" -> 144

Динамика иерархических систем: эволюционное представление - Николис Дж.

Николис Дж. Динамика иерархических систем: эволюционное представление — М.: Мир, 1989. — 490 c.
Скачать (прямая ссылка): dinamikaiearhicheskihsistem1989.pdf
Предыдущая << 1 .. 138 139 140 141 142 143 < 144 > 145 146 147 148 149 150 .. 187 >> Следующая

функция плотности вероятности Рт(х) "выходит" на свое асимптотическое
значение
PooW = lim Pm(x). (6.4.73)
m-> оо
Тогда P{Sm) - вероятность появления последовательности Sm - становится
равной
Sm+n~m
P(sm)= 5 pMdx- (6-4-74)
sm
Это соотношение означает, что рассмотрение последовательностей из т
символов сводится к рассмотрению плотности вероятности Роо(х)
последовательностей символов с разрешением масштаба е = п~т. Отображение
множества вероятностей P(Sm) на единичный интервал позволяет выразить
метрическую энтропию через информационную размерность. Действительно,
h^= lim (6.4.75)
т-> со ^ ,и /
при At ~ 1 единице времени, или
A" = lim (-р5-)log2n. (6.4.76)
П m->oo V fnlog2n )
Так как е = nrm, log2 е = -т log2 п, мы получаем
Ап = log2 n = D, (PJ log2 n, (6.4.77)
где ДДРоо) - информационная размерность для асимптотического значения,
принимаемого функцией плотности вероятности. Следовательно,
Ац = Dj log2 п, (6.4.78)
где п - число дискретных состояний/ячеек, на которые разбиение делит
пространство состояний (или число дискретных состояний, которые мы
измеряем на аттракторе).
Практический способ вычисления грубой оценки энтропии Колмогорова - Синая
состоит в установлении соответствия между дискретным отображением,
итерируемым за порогом наступления хаоса, и марковской цепью.
Возьмем в качестве примера [6.18] знакомое отображение
*t + 1 = 4*t(l (6.4.79)
Стохастичность: хаос и странные аттракторы
389
где 5- целое число, обозначающее разбиение интервала. При 5 = 2 мы имеем
разбиение двух символов, например А и В, в интервале 2, а при 5 = 4 -
разбиение из четырех символов, например А, В, С, D в интервале 4 (при 5 >
4 разбиение перестает быть марковским, см. [6.18]).
Элементы матрицы вероятностей переходов, или марковской цепи, легко
вычислить из геометрических соображений. Например, при 5 = 2 часть от А =
1 на горизонтальной оси, которая проектируется как А на вертикальную ось,
равна Раа = 1-(l/V2); следовательно, РАВ= 1 /л/2 и аналогично Рва = 1 -
(l/V2) и Рвв = 1/V2. В случае 5 = 4 матрица перехода имеет вид
'PiPt+\l<3t) А В С D1
А а 0 0 а
В р 0 0 р '
С у О О Y
D 0 1 1 0 j
где а = 2 - V 3 , р = V 3 - V 2 и y = V 2 - 1.
Зная элементы матрицы перехода, мы можем найти вероятности Р(А), Р(В) или
Р(В), Р(С), P(D) из и-1 линейных соотношений
П
UK = Е "/^/к (6.4.80)
/=1
и условия нормировки
п
Е и*=1, (6.4.81)
К=1
где п = 2 или 4.
Таким образом, энтропия рассматриваемой нами марковской цепи равна
п п пК
S = Е ик$к~ Е Е икРк[ РKi [бит]> (6.4.82)
К = 1 К = I 1 = 1
где (в каждом случае) - число состояний, достигаемых в один скачок из
состояния К.
Этим замечанием мы завершаем раздел о параметрах, характеризующих
странный аттрактор. Мы исследовали характеристики достаточно подробно,
так как все они (информационная размерность D,, спектр показателей
Ляпунова {ij} и метрическая энтропия Лц) взаимосвязаны и опираются на два
основных понятия.
390
Глава 6
а) Обнаруженное при исследовании странного аттрактора сжатие описания, т.
е. уменьшение числа степеней свободы, обусловленное тем, что поток
отображается на себя, тем самым, образуя компактное эргодическое
множество в пространстве состояний, имеющем гораздо более высокую
размерность.
б) Производство информации, приводящее к тому, что система (за конечное
время) становится независимой от начальных условий.
Проведенный выше анализ имеет решающее значение для главной темы нашей
книги - поиска механизмов, обеспечивающих формирование коллективных
свойств и тем самым приводящих к образованию иерархических систем и
появлению возможности их взаимного моделирования. Сжатие описания
является необходимой предпосылкой формирования таких коллективных свойств
через организацию дальнодействующих кросс-корреляций между
соответствующими переменными. Существует предположение, что биологические
системы, обладающие "ритмами" с хаотическими свойствами, т. е. странными
аттракторами, могут обеспечить некую "экономную" надежную обработку
информации. Этот вопрос мы подробно рассмотрим в следующем разделе.
6.5. Возможная роль хаоса в надежной обработке
информации
Этот раздел можно читать независимо от разд. 6.4.
При проектировании "самоорганизующихся" систем первостепенное значение
приобретает определение "теоретического минимума" сложности "аппаратурной
реализации" системы (Сн), необходимого для обеспечения заданного
функционального репертуара (сложности "программного обеспечения" системы
Cs). В общем случае предполагается, что кривая Сн = = f(Cs) монотонно
возрастает, причем крутизна роста определяется конкретным "механизмом
межэлементарных связей",, или архитектурой данной системы. Это убеждение
традиционно берет начало в практике техники связи, в которой акт
обработки информации включает в себя последовательность "расширения" и
"сжатия" размерности пространства состояний,, т. е. увеличения и
последующего сокращения числа степеней свободы передаваемого сигнала.
Предыдущая << 1 .. 138 139 140 141 142 143 < 144 > 145 146 147 148 149 150 .. 187 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed