Научная литература
booksshare.net -> Добавить материал -> Электротехника -> Мельников В.П. -> "Информационная безопасность и защита информации" -> 10

Информационная безопасность и защита информации - Мельников В.П.

Мельников В.П. Информационная безопасность и защита информации: Учебное пособие для вузов — М.: Академия, 2008. — 336 c.
ISBN 978-5-7695-4884-0
Скачать (прямая ссылка): infbezopas2008.djvu
Предыдущая << 1 .. 4 5 6 7 8 9 < 10 > 11 12 13 14 15 16 .. 143 >> Следующая

24
I = KInN,
(1.1)
где К — коэффициент пропорциональности, обусловленный избранной мерой количества информации (при К = 1 информация измеряется в натуральных единицах; при K= (1п2)-1 = 1,443 — в битах; при K= (lnlO)"1 = 0,4343 — в десятичных единицах); N — число возможных различных (дискретных) состояний или число возможных сообщений о системе или объекте.
Комбинаторная логарифмическая мера количества информации по Р.Хартли (формула (1.1)) очень проста для вычисления и удобна при аналитических расчетах в силу свойства аддитивности логарифмической функции. Но она же инвариантна относительно любых свойств информации, безразмерна и поэтому нечувствительна к содержанию информации, не учитывает различий между разными сообщениями или состояниями системы (почти невероятному сообщению придается такое же количественное значение информации, как и весьма правдоподобному). Эти свойства делают комбинаторную меру количества информации по Р.Хартли практически бесполезной в задачах исследования проблем, для которых существенны не только количественные характеристики не равновероятных сообщений, но и смысловое содержание этих сообщений. В частности, такая мера не адекватна исходным условиям большинства задач анализа ИБ сложных систем.
В статистическом методе используется энтропийный подход. При этом количество информации оценивается мерой уменьшения у получателя неопределенности (энтропии) выбора или ожидания событий после получения информации. Количество информации тем больше, чем ниже вероятность события. Энтропийный подход широко используется при определении количества информации, передаваемой по каналам связи. Выбор при приеме информации осуществляется между символами алфавита в принятом сообщении. Пусть сообщение, принятое по каналу связи, состоит из N символов (без учета связи между символами в сообщении). Тогда количество информации / в сообщении можно определить по формуле К. Шеннона:
I = Nf1P1IOg2P1, (1.2)
/=1
где к — количество символов в алфавите языка; P1 — вероятность появления в сообщении символа /.
Анализ формулы (1.2) показывает, что количество информации в двоичном представлении (в битах или байтах) зависит от двух величин: количества символов в сообщении и частоты появления того или иного символа в сообщениях для используемого алфавита. Этот подход абсолютно не отражает, насколько полезна
25
полученная информация, а лишь позволяет определить затраты на передачу сообщения.
Иногда оценку количества информации / производят по вероятностной мере целесообразности управления (по формуле А. А. Харкевича):
/ = 1пА (1.3)
где P1 и P0 — вероятности достижения цели управления соответственно после получения и до получения информации.
Этот способ определения количества информации (формула (1.3)), также как и предыдущие, абстрагируется от природы информации. Кроме того, он полностью игнорирует физическую природу сигналов, логическую структуру сообщений, их объем, особенности формирования, получения и передачи.
Алгоритмическая мера информационной сложности по А. Н. Колмогорову основывается на модели вычислительного процесса и понятии вычислимой функции, которое заключается в следующем. Пусть X — множество возможных исходных данных, а I* -множество конечных результатов применения алгоритма, причем X' сі X — область применения алгоритма. Пусть также функция / задает отображение /: X' -» X*, такое, что /(х) совпадает с результатом применения алгоритма к объекту х. Тогда / называется вычислимой функцией, которая задается алгоритмом.
Пусть рассматривается некоторое исходное множество объектов и устанавливается взаимно-однозначное соответствие между этим множеством и множеством двоичных слов конечной длины, т.е. слов вида х = X1; х2; ...; х„, где х,- есть 0 или 1, / є 1, п. Установленное соответствие между множествами позволяет в дальнейшем в качестве объектов без существенного ограничения общности рассматривать только двоичные слова. Модуль |х| обозначает длину слова х.
Конечное двоичное слово можно описать так, что это слово можно будет восстановить по его описанию. Например, запись 110001100011000 описывается текстом: две единицы, три нуля — и так три раза. Разные слова имеют разные описания, но одно слово может иметь очень много описаний. Возникает естественный вопрос: как сравнить между собой описания двоичного слова для того, чтобы выбрать из этих описаний самое простое?
Можно считать, что описание двоичного слова х задается не в произвольной словесной форме, а в виде двоичного слова — аргумента некоторой (пока фиксированной) вычислимой функции / Пока на/не накладывается никаких ограничений: она может быть определена не на всех двоичных аргументах. Не для каждого дво-
26
ичного слова х, как может оказаться, имеется двоичный прообраз (такое слово р, что f(p) = х).
Для некоторого двоичного слова х существует множество Pj(X) всех двоичных слов, таких, что f{p) = х (это множество для данной /может оказаться и пустым). Пусть
Kf(x) можно назвать сложностью слова х по /
Таким образом, сложность слова х по / — это длина самого короткого двоичного слова, в котором содержится полное описание слова X при фиксированном способе восстановления слов по их описаниям (т.е. при фиксированной функции/).
Предыдущая << 1 .. 4 5 6 7 8 9 < 10 > 11 12 13 14 15 16 .. 143 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed