Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 188

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 182 183 184 185 186 187 < 188 > 189 190 191 192 193 194 .. 355 >> Следующая


то совместную условную плотность вероятности у при условии, что задано хх или х2, можно записать в виде

Pn (У I xi): Pn( У [ х2) =

1

(2 nf12 1

ехр

1

N

¦ ехр

1

N

71— 1

(2 n)N‘2

Определим логарифм отношения правдоподобия 2(у):

PN (У I *i)

г1,2 (У) ~ I11

PN (У I *2)

N

= —— ^(yn — xltn)2 + — 2(г/п

2, п)

п—1

N

N

п= 1 N

2 Упх1,п— 2 Упх2,п —г" 2 xin+-

п= 1

п= 1

п= 1

N

2

(8.2.14)

(8.2.15)

(8.2.16)

(8.2.17)

П— 1

Здесь логарифм отношения правдоподобия играет во многом ту же самую роль, как в гл. 5. При декодировании по максимуму правдоподобия сообщение 1 декодируется, когда rlt 2(у) > 0, а сообщение 2 — в противном случае. При декодировании по минимуму вероятности ошибки с априорными вероятностями <7i и q2 сообщение 1 декодируется, когда rlt 2 (у) > In (fo/^i). Заметим, что при ti > N величины уп опускаются из рассмотрения, так как эти величины не зависят от посланного сообщения и не влияют на значение логарифма отношения правдоподобия. Даже если N бесконечно в (8.2.12), гх 2 (у) вполне определено, хотя предел условных плотностей вероятностей в (8.2.14) не существует.

Логарифм отношения правдоподобия может быть вычислен довольно легко по принятой функции, если заметить, что (8.2.17) может быть переписано на основе равенства Парсеваля следующим образом:

^1,2 (у) = j У it) Х1 (t) dt—j y(t) X2(t) dt-j x\ (t) dt +

+ ^xl(t)dt. (8.2.18)

393
Следовательно, единственные операции, которые следует произвести над y(t), состоят в умножении y(t) на xx(t) и x%(t) и интегрировании; такая процедура называется корреляционным декодированием. Другой способ приема, эквивалентный указанному, состоит в построении фильтров с импульсными откликами hx(t) = х±(Т — /) и h2(i) = = х2(Т — t). Эти фильтры называются согласованными фильтрами и когда y(t) проходит через них, то выход в момент t — Т совпадает с приведенным выше; такое декодирование называется декодированием с согласованными фильтрами.

'Из (8.2.17) видно, что г1>2 (у) линейно связана с у и равна постоянной, сложенной с проекцией у на Xj — х2. Следовательно, г1г(у)

Рис. 8.2.3. Геометрическая интерпретация двух кодовых слов в канале с белым

гауссовым шумом.

постоянно на любой гиперплоскости, перпендикулярной к прямой, соединяющей хь и х2, и rlt 2 (у) = 0 для у = 1/2(х1';+ х2), что можно легко проверить с помощью (8.2.16) (см. рис. 8.2.3).

Теперь может быть вычислена вероятность ошибки при использовании декодирования по максимуму правдоподобия. Если послано сообщение 1, то, используя выражение х1п + гп вместо уп, получаем

г1,2 (у) = 2 Zn (xl,n ХЪ,п) 2 X2,nf' (8.2.19)

п п

Следовательно, /'ia(y)— гауссовская случайная величина со средним дисперсией ^ (xi,n~x2,nf- Вероятность ошибки

П п

совпадает с вероятностью того, что /"i)2(y)<;0 (или вероятностью того, что значение этой величины более чем на г/2 {xi,n—x2,nf стандартных отклонений меньше среднего значения)

Ре,1 = Ф -v/S(*l,n-*2,n)2 L z ’ п

394

(8.2.20)
где Ф — функция распределения нормированной гауссовской случайной величины

(8.2.21)

----ОО

Так как в случае, когда послано сообщение 2, вероятность ошибки, очевидно, является той же самой, то общая вероятность ошибки задается равенством

где было использовано соотношение (8.1.16) для энергии. Следует подчеркнуть, что Ре зависит только от энергии разности х$) — x2(t), а не от особенностей выбираемых функций.

Далее рассмотрим важный случай, когда оба кодовых слова имеют одинаковую энергию

Здесь используется масштаб для амплитуды, при котором N0/2 = 1, однако Е в (8.2.23) можно истолковать как энергию кодового слова при некотором произвольном масштабе для амплитуды и N0/2 как значение спектральной плотности в том же самом масштабе. Полагая, что

— нормированная корреляция между кодовыми словами, перепишем равенство (8.2.22) следующим образом:

Вероятность ошибки минимизируется по X при выборе x2(t) — = —x-y(f), в этом случае % — — 1. Любое убывание вероятности ошибки ниже этого минимального значения требует увеличения Е, которое при фиксированной мощности сигнала требует увеличения времени передачи одного бита. Другая альтернатива, которая будет теперь исследована, состоит в увеличении числа кодовых слов М. Это позволяет увеличить длину кодовых слов (а следовательно, и Е) без уменьшения скорости передачи R.
Предыдущая << 1 .. 182 183 184 185 186 187 < 188 > 189 190 191 192 193 194 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed