Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 234

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 228 229 230 231 232 233 < 234 > 235 236 237 238 239 240 .. 355 >> Следующая


A

d

(9.7.17)

(9.7.18)

492
В каком-то смысле интуитивно более удовлетворительны вид тест-ка-нцла изображен на рис. 9.7.3, где выход v получается сначала сложением и и независимой гауссовской случайной величины w с нулевым средним и дисперсией dAI(A — d) и затем умножением результата на (А — d)IA. Так как и и v совместно гауссовские, эквивалентность этих рисунков показывает, что v2 и uv одни и те же для каждого рисунка. Можно также показать, что умножение является в точности той операцией, которая требуется для образования оценки и с минимальной дисперсией ошибки по сумме и + w. Теоремы кодирования 9.6.2 и 9.6.3 для источника применимы к этому источнику, так как для любого заданного v среднее относительно q (и) значение d (u; v) равно А + у2.

Рис. 9.7.2. Тест-канал (обращен- Рис. 9.7.3. Тест-канал (прямой ный вид). вид).

Имеется один особенно важный канал, а именно дискретный по времени канал с аддитивным гауссовым шумом с ограничением на энергию, при передаче по которому можно достигнуть без кодирования минимума среднеквадратической ошибки d*, задаваемой С = R (d*). Нужно просто усилить выход источника до энергии, соответствующей ограничению на входе канала, и затем соответственно ослабить выход канала. Более интересный вариант этой задачи возникает, когда используется канал, скажем, N раз для каждого выхода источника. Это, конечно, математическое моделирование ситуации, когда гауссовский случайный процесс с некоторой полосой частот должен быть передан с помощью непрерывного по времени канала с аддитивным шумом и полосой частот в N раз большей полосы частот источника. В этой ситуации для достижения предельного искажения, определяемого теоремой кодирования для источника, должны быть использованы кодирование источника и кодирование для канала. В таких случаях для достижения сравнительно малого искажения может быть использована хорошо знакомая и просто реализуемая техника частотной, фазовой и импульсно-кодовой модуляций. Однако, как мы увидим вскоре, если в нашем распоряжении имеется бесшумная обратная связь от выхода канала к выходу источника, то возможно достигнуть минимально возможного искажения, по существу, без кодирования.

Пусть а2 — дисперсия шума w в канале и пусть А — значение знер_-гии, задающее ограничение на входе канала. Определим величину d равенством d = а2А/(А + а2), и заметим, что а2 = dA /(А — d). Удоб-. но умножить выход канала на (Л — d)/A так, что канал принимает вид тест-канала рис. 9.7.3. Пусть хх, xN — N входов канала, соответст-
вующих одной букве источника, и уи yN — соответствующие выходы (справа от умножителя). Пусть zn = хп ¦— уп, 1 ^ я ^ N заметим, что если каждый вход представляет собой гауссовскую случайную величину с нулевым средним и дисперсией А, то обращенный канал на рис. 9.7.2 эквивалентен каналу на рис. 9.7.3 и каждая гп является гауссовской случайной величиной с нулевым средним, не зависит от уп и имеет дисперсию d.

Примем вначале, что выход источника и имеет дисперсию Л, равную ограничению на энергию в канале. Рассмотрим следующий выбор входов канала:

хх — и,

73, 2 (9.7.19)

Так как Xi — гауссовская случайная величина с нулевым средним и дисперсией А, то отсюда следует, что гх — независимая от ух гауссовская случайная величина с нулевым средним и с дисперсией d. Так как х2 =

= гУ Aid, то отсюда следует, что х2 — гауссовская случайная величина с нулевым средним и дисперсией Л. Продолжая эти рассуждения, видим, что все хп являются гауссовскими случайными величинами с нулевыми средними и дисперсиями Л, и каждая гп — независимая от уп гауссовская случайная величина с нулевым средним с дисперсией d. Заметим, что эта схема передачи требует, чтобы передатчик знал (я — — 1)-й принятый символ перед передачей я-го символа.

Предположим, что приемник для каждого я находит оценку vn символа источника и с помощью соотношений

Vi = yv

( J \(п- 1)/2

vn = vn^ + yn[^-) , 2<я<АГ. (9.7.20)

Покажем теперь, что vn можно представить в виде

/ d \{п~ 1)12 = zn(-xJ • (9.7.21)

Это устанавливается по индукции. Для я = 1 имеем vx = ух = хх —

— гх = и — гъ что согласуется с (9.7.21). Теперь примем, что (9.7.21) справедливо для я — 1 и подставим это выражение вместо уп_х в (9.7.20). Используя соотношения уп = хп—гп и (9.7.19) для хп, найдем, что (9.7.21) справедливо для я.

Из (9.7.21) видно, что гп пропорционально ошибке в оценке при п-й передаче. Следовательно, при каждой последующей передаче передается нормированное по амплитуде значение предыдущей ошибки [см. (9.7.19)3. Из (9.7.20) видно, что приемник использует каждый принятый сигнал для исправления ошибки предыдущей передачи.

Как следует из (9.7.21), конечное среднее искажение после N передач равно
Предыдущая << 1 .. 228 229 230 231 232 233 < 234 > 235 236 237 238 239 240 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed