Вероятность ошибочного декодирования

реклама
Помехоустойчивое
кодирование
Вероятность ошибочного
декодирования
Модель двоичного
симметричного канала
p
p
p 
1  p

P  
 p 1 p 
Замечание
Чтобы гарантировать обнаружение до s
ошибок, минимальное расстояние Хэмминга в
блоковом коде должно быть dmin = s + 1.
Геометрическая интерпретация нахождения
dmin при обнаружении ошибок
Замечание
Чтобы гарантировать исправление до t
ошибок, минимальное расстояние Хэмминга в
блоковом коде должно быть dmin = 2t + 1.
Геометрическая интерпретация нахождения dmin
при исправлении ошибок
Вероятность ошибки
• Вероятность ошибочного слова веса i
равна
p (1  p)
i
n i
• Вероятность ошибки веса i равна
n i
n i
  p (1  p)
i
Вероятность ошибочного
декодирования
• Ошибочное слово совпадает с некоторым
кодовым словом (то есть вектор ошибки -
кодовое слово)
  1   2
2
Вероятность ошибочного
декодирования
Вероятность ошибочного декодирования
Рош 
где
Ai
n
 A p (1  p)
i
i  d min
i
– число кодовых слов веса i.
n i
Пример
Данные кодируются (7,4)-кодом Хэмминга
Канал с АБГШ, отношение сигнал/шум – 6дБ – это
эквивалентно вероятности ошибки двоичного символа,
равной 0,023.
Скорость передачи – 16 кбит/сек
Пример
Решение. Кодовое слово будет передаваться без
ошибок, если все 7 двоичных символов переданы
верно.
Pбезош  (1  p) 7  (1  0,023) 7  0,85
Pош  7  0,0233  0,977 4  7  0,0234  0,977 3  0,0237  7,9 10 5
Вероятность ошибочного слова
•Пример. Рассмотрим код с повторением C = {000, 111}.
Вероятность правильного декодирования
для слова 000 есть (1 - p)3 + 3p(1 - p)2,
для слова 111 есть (1 - p)3 + 3p(1 - p)2.
Тогда
Perr (C) = 1 - ((1 - p)3 + 3p(1 - p)2)
есть вероятность ошибочного слова.
•Пример. Пусть p = 0.01, тогда Perr (C) = 0.000298 и лишь
одно слово из 3555 дойдет до получателя с ошибкой.
Вероятность ошибочного слова
•Вероятность ошибочного слова
t
Рerr  1   Bi p (1  p )
i
i 1
где
Bi
- количество ошибочных слов веса i.
n i
Скачать