90
180
Рис. 1. Пространственное представление одиночного синтезированного сигнала
На основе выше изложенного сделаем следующие выводы:
1. Ансамбль сигналов Уолша имеет наихудшие спектральные и корреляционные характеристики, поэтому его использование в современных системах связи нецелесообразно.
2. Синтезированные последовательности по своим характеристикам превосходят известные ансамбли сигналов, следовательно, они могут использоваться в системах помехозащищённой ДКМ радиосвязи с кодовым разделением каналов.
3. С учётом того, что синтезированный ансамбль 83 по своим корреляционным характеристикам имеет преимущество по отношению АДОС Стиффлера, то его целесообразно использовать в перспективной системе помехозащищённой ДКМ радиосвязи.
1. Урядников Ю.Ф., Аджемов С.С. Сверхширокополосная радиосвязь. Теория и применение. - М.: СОЛОН-Пресс, 2005.-368с.
2. Сахтеров В.И. Писарев Р.В., Лобзин В.В., Копейкин В.В., Резников А.Е., Железняков В.И., Швец Д.В. Коротковолновая широкополосная радиостанция «Ангара-5М» - Радиотехника и электроника, 2002, Т. 47, №9. - С.1149-1152.
3. Пестряков В.Б. Шумоподобные сигналы в системах передачи информации //. - М., «Сов. радио». 1973, с. 424.
4. Попенко В.С. Векторный синтез ансамблей ортогональных сигналов. Часть III. -МО РФ, 1993. - 150 с.
ИССЛЕДОВАНИЕ ПОМЕХОУСТОЙЧИВОСТИ НЕРАВНОМЕРНОГО ДВОИЧНОГО КОДА ПО АЛГОРИТМУ ШЕННОНА-ФЭНО
Кодирование и передача информации по каналу связи осуществляется в соответствии со схемой канала [1].
Источник генерирует последовательность сообщений из ансамбля {V, Р(У)}, [2] где V - символ сообщения;
Р(У) - вероятность символа сообщения, рассчитываемая по формуле
БИБЛИОГРАФИЧЕСКИМ СПИСОК
Е.И.Кротова
Россия, г. Ярославль, ЯГУ им. П.Г. Демидова
т + ^О - г)2 ]=1
Рис. 1. Структура передачи информации
где i=1...m;
m, r - заданные величины.
Кодер источника кодирует сообщение Vi в Zi по алгоритму Шеннона-Фэно [3], [7]. Энтропия сообщения H(Z), бит/символ вычисляется по следующей формуле: m
H(Z) =-У P(Zi) • log P(Zi). (2)
i=1 2
Формула для расчета средней длины кода Lср, бит имеет вид m
Lcp = ^L(Zi) • P(Zi), (3)
i=1
где L(Zi) - длина кода, бит;
P(Zi) - вероятность кода.
Максимальная энтропия H(Z)max, бит/символ неравномерного двоичного кода Zi определяется по формуле[8]
H(Z)max = log(m). (4)
2
Зная среднюю длину кода, можно определить коэффициент эффективности Кэф кода Zi по формуле:
Еэф = H®. (5)
Lcp
Для расчета коэффициента избыточности Кизб используется формула:
Иизб = H(Z)max -H(Z) . (6)
H(Z)max
Кодер канала осуществляет простое кодирование повторением n = 3 раз каждого двоичного сигнала сообщения Zi. Таким образом, имеется всего два кода: Х1=(0 0 0) Х2=(1 1 1).
Вероятность каждого из них определяется по формуле
m
nZi
P(Xk)= Етж •P(Zi)’ (7)
где к=0,1;
п^ - количество элементов “к” в коде Zi.
При передаче Хк по каналу связи возможны ошибки с вероятностями, определяемыми следующим образом [6]:
P10=0.2 + 0.02А (8)
P01=0.2 + 0.02B, (9)
где р10 - вероятность принятия нуля при передаче единицы;
р01 - вероятность принятия единицы при передаче нуля;
А, В - заданные величины.
В дальнейшем, для удобства будут использоваться следующие принятые обозначения:
Х - передаваемый код;
Y - принимаемый код.
При построении канальной матрицы P(Y/X) воспользуемся тем, что при передаче может произойти ошибка лишь в одном разряде X! или X2.
Тогда в 1 строке матрицы элементы определятся следующим образом:
<
1 - p01 , i = 1
P(xi,yj) = P01/3 , i = 2,3,4. (10)
0 , i = 5,6,7,8.
Элементы канальной матрицы совместной вероятности P(X,Y) определяются по формуле [4]:
P(xi,yj)=P(xi)P(yj/xi). (11)
Зная матрицу совместной вероятности P(X,Y), можно вычислить элементы матрицы вероятностей P(Y). Они находятся по формуле:
P(yi)=P(x1,yi)+ P(x2,yi). (12)
В свою очередь, формула для расчета элементов матрицы условной вероятности P(X/Y) имеет вид:
P(xi/yj)=P(xi,yj)/P(yj). (13)
Энтропия передаваемого сигнала H(X), бит/символ и принимаемого сигнала H(Y), бит/символ определяется соответственно по формуле:
2
H(X) = - Y P(Xi) • log P(Xi), (14)
i=1 2
8
H(Y) = - YP(Yj) • log P(Yj). (15)
j=1 2
Условные энтропии H(X/Y), бит/символ и H(Y/X), бит/символ рассчитываются соответственно по формулам:
2 8
H(X/Y) = - YYP(Xi/Yj) • logP(Xi/Yj) • P(Yj) , (16)
i=1j=1 2
2 8
H(Y/X) = - YYP(Yj/Xi) • logP(Yj/Xi) • P(Xi) . (17)
i=1j=1 2
Совместная энтропия H(X,Y), бит/символ находится по формуле:
2 8
H(X,Y) = - YY P(Xi,Yj) • logP(Xi, Yj) (18)
i=1j=1 2
Взаимная энтропия I(X,Y), бит/символ определяется по формуле
I(X,Y) = H(X) - H(X/Y). (19)
Передача информации по каналу связи осуществляется со скоростью V, рассчитываемой по формуле
V = 1000(А+1). (20)
Постоянную скорость передачи двоичных символов по каналу связи R, бит/с можно рассчитать по формуле[5]
Я = V • 1(Х,У) / 3. (21)
Производительность источника I , бит/с определяется по следующей формуле
Ї = (Н(Х) • V». (22)
На основе рассмотренных теоретических сведений была разработана математическая модель и компьютерная программа. Ниже представлены алгоритм и результаты моделирования.
Определим характеристики посылаемых символов. Вероятности символов ^(они же - вероятности кода 21), генерируемых источником рассчитываем по формуле (1). Полученные значения вероятностей приведены в табл. 1.
Таблица 1.
________________Вероятности и коды символов___________________
VI Р(^) гі Цй)
1 0.231 11 2
2 0.183 10 2
3 0.1408 011 3
4 0.1042 0101 4
5 0.0732 01001 5
6 0.0732 01000 5
7 0.0479 00111 5
8 0.0479 00110 5
9 .0282 00101 5
10 0.0282 00100 5
11 0.0141 00011 5
12 0.0141 00010 5
13 0.0056 000011 6
14 0.0056 000010 6
15 0.0028 000000 6
Сначала вероятности строятся по убыванию. После этого все вероятности делятся на две группы так, чтобы в пределах каждой группы их значения были примерно одинаковыми. В старший разряд кодов, соответствующих первой группе вероятностей, записывается 1, для второй группы кодов - 0. Затем каждая из полученных подгрупп, в свою очередь, делится аналогичным образом. При прохождении цикла деления по одному разряду происходит переход на разряд вправо. Деление продолжается до тех пор, пока в каждой группе не окажется по одному коду.
Вычислим энтропию сообщения И(2),бит/символ по формуле (2):
И(2) = 3.218 бит/символ
Среднюю длину неравномерного кода определим по формуле (3):
Ьср = 3.5652 бит.
Максимальную энтропию неравномерного двоичного кода определяем по формуле (4):
Н(2)тах = 3.218 бит.
По формуле (5) вычислим коэффициент эффективности Кэф неравномерного двоичного кода Ъ(.
Кэф = 0.903.
Для расчета коэффициента избыточности Кизб воспользуемся формулой (6):
Кизб = 0.176.
При простом кодировании повторением п=3 раз каждого двоичного сигнала сообщения Zi имеется два кода: Х1 и Х2, вероятности которых Р(Х1) и Р(Х2) находятся по формуле (7):
Р(Х1) = 0.4113, Р(Х2) = 0.5885.
Вероятности возможных ошибок, при прохождении кода по каналу определяются по формулам (8) и (9) соответственно:
Р10 = 0.3, Р01 = 0.2.
Канальная матрица Р^/Х) со стороны приемника для кода Х0 и Х1, рассчитанная по формуле (10), приведена в табл. 2. Для проверки расчета в последнем столбце таблицы 2 приведена сумма по текущей строке. Значения вероятностей в таблице 2 приводятся в десятитысячных долях единицы.
Таблица 2.
Канальная матрица Р^/Х)_______________________________
X У сумма
000 001 010 100 011 101 110 111
000 8000 0667 0667 0667 0000 0000 0000 0000 10000
111 0000 0000 0000 0000 1000 1000 1000 1000 10000
В табл. 3 приведены значения элементов канальной матрицы совместной вероятности Р(ХД), определенные по формуле (11).
Значения вероятностей в табл. 3 приводятся в десятитысячных долях единицы.
Таблица 3.
Матрица совместных вероятностей Р(Х,У)
Х У
000 001 010 100 011 101 110 111
000 3292 0274 0274 0274 0000 0000 0000 0000
111 0000 0000 0000 0000 0588 0588 0588 4119
Элементы матрицы вероятностей Р^) находятся по формуле (12). Полученные данные приведены в табл. 4 в десятитысячных долях единицы. В последнем
столбце для проверки приведена сумма по строке.
Таблица 4.
________________________________Матрица Р(У)_________________________________
У Сумма
000 001 010 100 011 101 110 111
3292 0274 0274 0274 0588 0588 0588 4119 10000
Рассчитав матрицы Р(Х^) и Р(У), можно вычислить элементы матрицы условной вероятности Р(ХУ) по формуле (13). Матрица Р(Х/У) приведена в табл. 5.
Рассчитываем энтропию передаваемого сигнала Н(Х) и энтропию принимаемого сигнала Н^) по формулам (14) и (15) соответственно:
Н(Х) = 0.9777 бит/символ,
Н^) = 2.2025 бит/символ.
Условные энтропии Н(ХУ) и Н^/Х) рассчитаем, воспользовавшись формулами (16) и (17) соответственно:
Н(Х/У) = 0.0000 бит/символ,
H(Y/X) = 1.2244 бит/символ.
Таблица 5.
______________________Матрица P(X/Y)_________________________
X У Сумма
000 111
000 1 0 1.0000
001 1 0 1.0000
010 1 0 1.0000
100 1 0 1.0000
011 0 1 1.0000
101 0 1 1.0000
110 0 1 1.0000
111 0 1 1.0000
По формуле (18) находим совместную энтропию H(X,Y):
H(X,Y) = 2.2014 бит/символ.
Сделаем проверку полученных значений энтропий:
H(Y/X) + Н(Х) = 2.2025 бит/символ,
H(X/Y) + Щ(У) = 2.2025 бит/символ.
Совпадение полученных значений свидетельствует о правильности найденных значений энтропий.
Определим значение взаимной энтропии 1(Х^), используя формулу (19): 1(ХД) = 0.9777 бит/символ.
Количество ошибок, %
Количество повторений, п Рис. 7. Число ошибок восстановления Для отыскания следующих характеристик канала вычислим скорость передачи двоичных символов по каналу связи с помощью формулы (20):
V = 6000 символов/с.
Информация передается по каналу связи с постоянной скоростью R, вычисляемой с помощью формулы (21):
R = 1956.1 бит/с.
Производительность источника по формуле (22) равна:
I = 5868.3 бит/с.
Результатом работы программы являются графики числа ошибок восстановления информации от параметра п (п,1) - кода и от p01 и p10. При теоретическом расчёте мы предположили, что в канале нет ошибок. Действительно, полученное нулевое значение энтропии H(X/Y) также об этом свидетельствует.
Полученный график говорит о том, что это предположение становится соответствующим действительности, только начиная со значений п, равных 20..25.
Примерный вид полученных графиков приведен на рис. 7 и 8.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Левин Б.Р. Теоретические основы статистической радиотехники. Кн. 1-я, 2-е. изд.— М.: Сов. радио, 1974. - 182 с.
2. Баричев С.Г. Основы современной криптографии: Учебный курс. - 2-е изд., испр. и доп. - М.: Горячая линия-Телеком, 2002. - 175 с.
3. Масленников М. Е. Практическая криптография.-СПб.: БХВ-Петербург, 2003.- 464 с.
4. Ермаков С.М. Статистическое моделирование. — М.: Наука, 1983. - 296 с.
5. Макконнел С. Совершенный код - М.: Microsoft Press. Русская редакция, 2005.-896 с.
6. ЗюкоА.Г. Помехоустойчивость и эффективность систем связи - М.: Связьиздат, 1963. - 320 с.
7. Шеннон К. Математическая теория связи. - М.: ИИЛ, 1963. - 319 с.
Д.Ф. Хисамов
Россия, г. Краснодар, Кубанский институт информзащиты
ВЕРХНИЕ И НИЖНИЕ ОЦЕНКИ ВЕРОЯТНОСТИ НЕПРИЕМА ПСЕВДОСЛУЧАЙНОЙ ПОСЛЕДОВАТЕЛЬНОСТИ НА КАНАЛАХ НИЗКОГО КАЧЕСТВА
В специальных системах связи при резком возрастании ошибок в канале связи возникает необходимость перехода от дискретных к аналоговым методам приема псевдослучайных последовательностей (ПСП). Оценка вероятности неприема