Subido por a.tolstorebrov

Основы теории информации и передачи сигналов. Гуров И. П.

Anuncio
Предисловие
Передача информации является важнейшей задачей в системах связи и телекоммуникаций,
компьютерных сетях, телефонии, навигационных и измерительных системах и т.д.
Оптимизация информационных систем с точки зрения повышения скорости, достоверности и
помехоустойчивости передачи информации возможна на основе использования
положений теории информации и передачи сигналов.
Теория информация, ориентированная на формализованное описание сообщений, процессов
их формирования, передачи и приема развивалась, начиная с исследований Р.
Хартли (1928 г.), особенно активно во второй половине ХХ века. Это позволило решить
основные теоретические проблемы и создать эффективные системы передачи сигналов.
Сигналы являются носителями информации, поэтому правильный выбор вида сигналов,
методов приема являются решающими факторами, которые определяют важнейшие
характеристики систем передачи информации.
Теория информации и передачи сигналов имеет междисциплинарный характер и включает
теоретические положения теории вероятности и математической статистики, теории
систем и статической радиотехники, теории цепей сигналов, теории массового обслуживания
и т.д. В кратком учебном пособии невозможно затронуть все аспекты проблемы,
поэтому рассмотрены основные понятия теории информации, методы модуляции и
управления информационными параметрами сигналов и основные характеристики
каналов передачи информации.
В первой главе рассмотрены информационные характеристики источников сообщений,
принципы кодирования информации и методы описания сигналов и помех в системах
передачи информации. При этом основное внимание уделено характеристикам дискретных
сообщений, имеющих особое значение для компьютерных информационным
систем.
Во второй главе представлены основные методы модуляции и управления информационными
параметрами сигналов, обеспечивающие повышение помехоустойчивости
передачи информации. Рассмотрены основные классы методов модуляции, получивших
широкое распространение и их спектральные характеристики, что позволяет при
необходимости выполнить анализ отдельных методов модуляции, не рассмотренных в
пособии.
При передачи информации имеют важное значение свойства каналов передачи информации,
поскольку в большинстве случаев требуется дистанционная передача
информации. В главе 3 рассмотрены информационные характеристики дискретных каналов
передачи информации, критерии и методы оптимального и некогерентного приема
сигналов, которые определяют характеристики канала при известных параметрах линии
связи. В качестве примера реализации каналов передачи информации на основе
современных высоких технологий подробно рассмотрены наиболее перспективные
волоконно-оптические каналы передачи информации, их основные характеристики и
особенности инженерного проектирования.
Структура материала учебного пособия ориентирована на информационную поддержку
курса учебных лабораторных работ по основам теории информации и передачи
сигналов.
3
Оглавление
Предисловие ............................................................................................................ 4
1. Основы теории информации и теории сигналов . ............................................ 6
1.1. Основные понятия теории информации . ................................................. 6
1.2. Информационные характеристики источников дискретных сообщений
........................................................................................................................... 12
1.3. Принципы кодирования информации. ................................................... 15
1.4. Взаимосвязь теории информации, теории вероятностей и
спектральной теории сигналов . ..................................................................... 18
1.5. Элементы спектральной теории сигналов. ............................................ 20
1.6. Принципы дискретизации непрерывных сигналов ................................. 29
2. Модуляция и управление информационными параметрами сигналов....... 36
2.1. Классификация сигналов и методов модуляции................................... 36
2.2. Методы амплитудной, фазовой и частотной модуляции .................... 38
2.3 Принципы амплитудной и частотной манипуляции ............................. 45
2.4 Принципы импульсной и цифровой модуляции.................................... 50
3. Каналы передачи информации. ....................................................................... 63
3.1. Виды каналов передачи информации . ................................................... 63
3.2. Информационные характеристики дискретных сигналов ................... 63
3.3. Критерии верности передачи дискретных сообщений......................... 69
3.4. Когерентный и некогерентный прием дискретных сигналов .............. 75
3.5 Волоконно-оптические каналы передачи информации........................ 80
Приложение. Сведения из теории обобщенных функций ................................ 93
Библиография ........................................................................................................ 97
4
Теория информации и передачи сигналов
Предисловие
Передача информации является важнейшей задачей в системах связи и телекоммуникаций, компьютерных сетях, телефонии, навигационных и измерительных системах и т.д. Оптимизация информационных систем с точки зрения повышения скорости, достоверности и помехоустойчивости передачи
информации возможна на основе использования положений теории информации и передачи сигналов.
Теория информации, ориентированная на формализованное описание сообщений, процессов их формирования, передачи и приема развивалась, начиная с исследований Р. Хартли (1928 г.), особенно активно во второй половине
ХХ века. Это позволило решить основные теоретические проблемы и создать
эффективные системы передачи сигналов.
Сигналы являются носителями информации, поэтому правильный выбор
вида сигналов, методов передачи и приема являются решающими факторами,
которые определяют важнейшие характеристики систем передачи информации.
Теория информации и передачи сигналов имеет междисциплинарный характер и включает теоретические положения теории вероятностей и математической статистики, теории систем и статистической радиотехники, теории
цепей и сигналов, теории массового обслуживания и т.д. В кратком учебном
пособии невозможно затронуть все аспекты проблемы, поэтому рассмотрены
основные понятия теории информации, методы модуляции и управления информационными параметрами сигналов и основные характеристики каналов
передачи информации, являющихся неотъемлемой частью систем связи и
телекоммуникаций.
В первой главе рассмотрены информационные характеристики источников сообщений, принципы кодирования информации и методы описания сигналов и помех в системах передачи информации. При этом основное внимание уделено характеристикам дискретных сообщений, имеющих особое значение для компьютерных информационных систем.
Во второй главе представлены основные методы модуляции и управления
информационными параметрами сигналов, обеспечивающие повышение помехоустойчивости передачи информации. Рассмотрены основные классы методов модуляции, получивших широкое распространение, и их спектральные
характеристики, что позволяет при необходимости выполнить анализ отдельных видов модуляции, не рассмотренных в пособии.
При передаче информации имеют важное значение свойства каналов передачи, поскольку в большинстве случаев требуется дистанционная передача
информации. В главе 3 рассмотрены информационные характеристики дис-
Предисловие
5
кретных каналов передачи информации, критерии и методы оптимального
когерентного и некогерентного приема сигналов, которые определяют характеристики канала при известных параметрах линии связи. В качестве примера
реализации каналов передачи информации на основе современных высоких
технологий подробно рассмотрены наиболее перспективные волоконнооптические каналы передачи информации, их основные характеристики и
особенности инженерного проектирования.
Структура пособия ориентирована на курс учебных лабораторных работ
по основам теории информации и передачи сигналов.
6
Теория информации и передачи сигналов
1. Основы теории информации и теории
сигналов
1.1. Основные понятия теории информации
В теории информации и передачи сигналов под информацией понимают
совокупность сведений о каких-либо событиях, процессах, явлениях и т.п.,
рассматриваемых в аспекте их передачи в пространстве и во времени.
Информацию передают в виде сообщений. Сообщением называют информацию, выраженную в определенной форме и предназначенную для передачи
от источника к адресату. Примерами сообщений служат тексты телеграмм,
речь, музыка, телевизионное изображение, данные на выходе компьютера,
команды в системе автоматического управления объектами и т.п.
Сообщения передают с помощью сигналов, которые являются носителями
информации. Основным видом сигналов являются электрические сигналы. В
последнее время всё большее распространение получают оптические сигналы, например, в волоконно-оптических линиях передачи информации.
В теории информации изучают свойства процессов, которые имеют место
при передаче информации на расстояние при помощи сигналов. При этом
важное значение имеют понятия качества и скорости передачи информации.
Качество передачи информации тем выше, чем меньше искажения информации на приёмной стороне. С увеличением скорости передачи информации
требуется принимать специальные меры, препятствующие потерям информации и снижению качества передачи информации.
Объекты информационной техники
По функциональному назначению можно выделить основные классы объектов информационной техники:
ƒ сети и системы связи и телекоммуникаций (телеграфные, телефонные,
телевизионные, компьютерные и т.п.);
ƒ информационно-измерительные системы (радионавигационные, радиолокационные, телеметрические и т.п.);
ƒ системы преобразования информации (аналого-цифровые, цифроаналоговые преобразователи, цифровые компьютеры и др.);
ƒ информационно-поисковые системы и системы хранения информации
на основе баз данных;
ƒ системы экспериментального наблюдения и управления объектами.
7
1. Основы теории информации и теории сигналов
Обобщённая структурная схема системы передачи информации показана
на рис.1.1.
Источник A(x)
Передатчик
сообщений
1 ( x)
Линия
связи
2 ( x)
Приемник
B(x) Получатель сообщений
n(x)
Источники
помех
Рис. 1.1. Структурная схема системы передачи информации
Передатчик преобразует исходное сообщение A(x) в сигнал ξ1 ( x) , где x –
независимая переменная. Сообщения и сигналы чаще всего рассматриваются
в зависимости от времени. Роль линии связи может выполнять любая физическая среда (воздух, провода, оптическое волокно). В приёмнике полученный
сигнал ξ 2 ( x) , искаженный влиянием помех, преобразуется в копию сообщения B(x), которая должна быть по возможности наиболее близка к оригиналу
A(x).
Многоканальная система передачи информации обеспечивает одновременную и взаимно независимую передачу сообщений от многих отправителей по одной общей линии связи. Структурная схема такой системы показана
на рис.1.2.
Узел связи (информационный узел) является более сложной системой, поскольку помимо многоканальной передачи (приёма) информации он обеспечивает:
ƒ выбор кратчайшего пути между источником и получателем сообщения;
ƒ соблюдение системы приоритетов;
ƒ накопление и хранение информации при отсутствии свободных каналов
передачи;
ƒ компьютерное управление всеми перечисленными функциями в автоматическом режиме.
Информационная сеть является совокупностью информационных узлов,
соединенных линиями связи.
На рис.1.3. показан пример графа информационной сети.
8
Теория информации и передачи сигналов
ИС1
К1М1
ИС 2
К 2М 2
Уплотнитель
n(x)
ИС m
К mМm
ПС1
Дм1 , Дк1
ПС 2
Дм 2 , Дк 2
ПС m
Дм m , Дк m
Источники
помех
Разделитель
Рис. 1.2. Структурная схема многоканальной системы.
ИС, ПС – источники и получатели сообщений,
К – кодеры, М – модуляторы, Дк – декодеры, Дм – демодуляторы.
Вершины графа g i , i = 1,K ,n, определяют информационные узлы, дуги –
линии связи, координатами которых θ ij являются пропускная способность,
интенсивность потока сообщений, стоимость канала связи и т.п.
Информационную сеть рассматривают как сетевую систему массового
обслуживания. При создании информационных сетей требуется решать задачи анализа, синтеза, оптимизации. Основными классами задач являются:
ƒ Анализ информационных характеристик источников сообщений.
ƒ Анализ и синтез сигналов и помех.
9
1. Основы теории информации и теории сигналов
ƒ Анализ и синтез помехоустойчивости методов передачи информации.
ƒ Анализ и синтез корректирующих кодов (обнаружение и исправление
ошибок).
ƒ Анализ и синтез каналов передачи информации.
g2
g3
23
12
gj
ij
gi
g1
gk
15
14
g4
g5
g6
Рис. 1.3. Пример графа информационной сети (пунктир – возможные линии связи, сплошные – примеры выбранных оптимальных линий связи)
Виды сообщений в информационных системах
Дискретное сообщение является конечной последовательностью отдельных символов. Для преобразования дискретного сообщения в сигнал необходимо выполнить операцию кодирования сообщения, при котором повышается
скорость и помехоустойчивость передачи информации.
Непрерывное сообщение определяется непрерывной функцией времени.
Непрерывные сообщения можно передавать дискретными методами. Для этого непрерывный сигнал (сообщение) подвергают дискретизации во времени и
квантованию по уровню. На приёмной стороне выполняется восстановление
непрерывной функции по дискретным отсчётам.
При математическом описании сообщений формирование дискретных сообщений рассматривают как последовательный случайный выбор того или
иного символа из алфавита источника сообщений, т.е. как формирование
дискретной случайной последовательности.
Формирование непрерывных сообщений представляет собой выбор реализаций (случайных функций) непрерывного случайного процесса.
10
Теория информации и передачи сигналов
Основными информационными характеристиками являются количество
информации в сообщениях, избыточность сообщений, энтропия, производительность источника сообщений, скорость передачи информации.
Указанные характеристики рассмотрим для случая дискретных сообщений.
Пусть объем алфавита A составляет m дискретных сообщений. Каждое сообщение включает n символов. В принятых обозначениях общее количество
дискретных символов составляет N 0 = m n . Покажем, как определяется количество информации в сообщениях такого источника.
При определении количества информации должны быть выполнены следующие условия:
ƒ сообщения большей протяжённости содержат, как правило, большее количество информации;
ƒ если алфавит имеет больший объём, то каждое отдельное сообщение содержит больше информации;
ƒ информация, полученная в нескольких сообщениях, должна удовлетворять условию аддитивности.
Удобной характеристикой сообщений является логарифмическая мера количества информации I, удовлетворяющая перечисленным выше требованиям, а именно
I = log N 0 = n log m .
Эта формула предложена Р. Хартли в 1928 г. как мера количества информации. Формула Хартли не отражает случайного характера формирования сообщений. Чтобы устранить этот недостаток, необходимо связать количество
информации в сообщениях с вероятностью появления символов. Эта задача
была решена К. Шенноном в 1948 г.
Следует упомянуть работы академика В. А. Котельникова о пропускной
способности эфира и проволоки в электросвязи (1937 г.) и оптимальному
приёму сигналов на фоне помех (1946 г.).
Определение количества информации
Пусть сообщение состоит из одного символа. Если вероятности появления
всех символов одинаковы и равны P = 1/m, то количество информации, которое переносит символ, можно выразить как
I1 = log m = − log P .
Здесь количество информации связано с вероятностью появления символа. В
реальных сообщениях символы ai ∈ A появляются с различными вероятностями P(ai ) , поэтому
I i = − log P (ai ) .
1. Основы теории информации и теории сигналов
11
Среднее количество информации H(A), которое приходится на один символ источника сообщений можно найти усреднением по всему объему алфавита
m
H ( A) = − ∑ P (ai ) log P(ai ) .
i =1
(1)
Эта величина называется энтропией источника дискретных сообщений. Формула (1) носит название формулы Шеннона.
Энтропия рассматривается как мера неопределенности в поведении источника сообщений. При вероятностном подходе состояние источника информации характеризуется неопределенностью. Неопределенность снижается
при приеме сообщения, т.е. получении информации. Поэтому получаемая
информация, приходящаяся в среднем на один символ источника сообщений,
количественно определяет степень уменьшения неопределенности.
Энтропия является непрерывной функцией от вероятностей появления
символов и обладает следующими свойствами:
ƒ Энтропия источника дискретных сообщений есть величина вещественная, ограниченная и неотрицательная.
ƒ Энтропия равна нулю, если с вероятностью единица выбирается один и
тот же символ (неопределенность в поведении источника отсутствует).
ƒ Энтропия максимальна, если все символы источника появляются независимо и с одинаковой вероятностью:
H max = mP log P = m(1 m) log(1 m) = log m .
Если символы являются взаимосвязанными (коррелированными друг с
другом), то используется понятие условной энтропии
m
m
i =1
i =1
H ( A' A) = − ∑ P (a i ) ∑ P (a ′j ai ) log P (a ′j ai ) ,
(2)
где P(a ′j ai ) – условная вероятность появления символа a j после символа
ai .
Из-за корреляционных связей символов и неравновероятного их появления в реальных сообщениях снижается среднее количество информации, которое переносит один символ. Эти потери информации характеризуются коэффициентом избыточности
r = ( H1 − H ) H1 = 1 − H log m ,
H1 – максимальное количество информации, которое может переносить один
символ, H – количество информации, которое переносит один символ в реальных сообщениях (например, для европейских языков r ≥ 0,5 ).
Наиболее часто основание логарифма в (1) принимают равным 2. При
этом единицей количества информации является бит (binary digit).
12
Теория информации и передачи сигналов
Производительностью источника сообщений называется среднее количество информации, выдаваемой источником в единицу времени, а именно
H ′ = H t [бит/с].
Для каналов передачи информации вводят аналогичную характеристику –
скорость передачи информации C. Максимальное её значение называется
пропускной способностью канала. Для дискретного канала
C = V log m [бит/с],
(3)
где V– скорость передачи электрических кодовых сигналов.
1.2. Информационные характеристики источников дискретных сообщений
Рассмотрим свойства условной энтропии с учётом неравновероятного появления символов и статистической взаимосвязи между ними.
Примем для простоты, что появление символа ai связано только с тем,
какой был предыдущий символ a j (процесс формирования сообщений – простая цепь Маркова). Энтропия совместного появления двух символов
m m
H ( A,A' ) = − ∑ ∑ P (ai ,a ′j ) log P (ai ,a ′j ) ,
(4)
i =1 j =1
где P (ai ,a ′j ) – вероятность совместного появления символов ai и a ′j . Количество информации, которое приходится на слог ai a′j равно log P (ai ,a ′j ) .
Учитывая, что
P (ai ,a ′j ) = P (ai ) P (a′j ai ) ,
запишем
m m
H ( A, A′) = − ∑ ∑ P (ai ) P (a ′j ai ) log P (ai ) P(a ′j ai ) =
i =1 j =1
m
m
m
m
i =1
j =1
i =1
j =1
(5)
= − ∑ P (ai ) log P (ai ) ∑ P(a ′j ai ) − ∑ P (ai ) ∑ P (a ′j ai ) log P(a ′j ai ).
Учитывая условие нормировки
m
∑ P(a ′j ai ) = 1 ,
j =1
перепишем последнее выражение для энтропии совместного появления двух
символов в форме
H ( A, A′) = H ( A) + H ( A′ A) ,
(6)
1. Основы теории информации и теории сигналов
13
где H(A) – энтропия источника, которая определена в (1) и соответствует первому слагаемому в (5), H ( A′ A) – условная энтропия источника, определяемая выражением (2).
Среднее количество информации, которое переносят два соседних символа, равно сумме среднего количества информации, которое переносит первый
из них, и среднего количества информации, которое переносит второй при
условии, что первый уже появился.
Условная энтропия одного символа есть среднее количество информации,
которое переносит последующий символ при условии, что предыдущий уже
известен:
H ( A′ A) = H ( A, A′) − H ( A) .
Если символы ai и a ′j взаимозависимы, то H ( A′ A) < H ( A′) . Для источников
с независимыми символами
H ( A, A′) = H ( A) + H ( A′) .
Корреляционные связи могут существовать между (L+1) символами, тогда
источник имеет память на L символов.
Свойства двоичных источников информации
Пусть символы источника есть a1 , a2 (m = 2), вероятности их появления
P (a1 ) , P (a 2 ) . Условные вероятности обозначим P (a1 a1′ ) , P (a2 a 2′ ) ,
P (a1 a2′ ) , P(a2 a1′ ) .
Случай независимых равновероятных символов
Вероятности P(a1 ) = P (a2 ) = P = 1 2 , условные вероятности равны нулю.
Энтропия такого источника максимальна:
H max = −(1 2) log(1 2) − (1 2) log(1 2) = log 2 = 1 бит симв .
Таким образом, 1 бит – это максимальное среднее количество информации, которое может переносить один символ источника двоичных сообщений.
Случай независимых неравновероятных символов
Вероятности P(a1 ) = P, P (a2 ) = 1 − P, условные вероятности равны нулю.
Энтропия такого источника равна
H ( P ) = − P log P − (1 − P ) log(1 − P ) .
(7)
14
Теория информации и передачи сигналов
Зависимость (7) показана на рис. 1.4. Максимум энтропии достигается при
P = 1 2 . Поскольку H ( P ) < H max при P ≠ 1 2 , то производительность такого
источника меньше максимальной. Избыточность
r ( P ) = 1 − H ( P ) H max ≥ 0.
Пример: Пусть P(a1 ) = 0,125; P (a2 ) = 0,875 . Тогда
H ( P ) = −0,125 log 0,125 − 0,875 log 0,875 ≈ 0,576 бит симв ,
r ( P ) = 1 − 0,576 ≈ 0,42 .
H,бит/симв
1
0,75
0,5
0,25
0
0,25
0,5
0,75
1
P
Рис. 1.4. Энтропия двоичного источника сообщений
с неравновероятными символами
Случай коррелированных равновероятных символов
Пусть P(a1 ) = P (a2 ) = P = 1 2 , условные вероятности отличны от нуля и
равны P( a1 a1′ ) = P(a2 a ′2 ), P(a1 a ′2 ) = P (a2 a1′ ) . Условная энтропия с учетом соотношения (2) равна
H ( A A′) = − P[P( a1 a1′ ) log P(a1 a1′ ) + P(a2 a1′ ) log P (a2 a1′ )] −
− P[P( a 2 a ′2 ) log P(a 2 a2′ ) + P(a1 a ′2 ) log P(a1 a 2′ )] =
= −2 P[P (a1 a1′ ) log P (a1 a1′ ) + P(a 2 a1′ ) log P(a 2 a1′ )].
1. Основы теории информации и теории сигналов
15
Например, если P (a1 a1′ ) = 0,7, P(a1 a 2′ ) = 0,3 , то
H ( A A′) = −(1 2)[0,7 log 0,7 + 0,3 log 0,3] ≈ 0,88 бит симв ,
r = 1 − 0,88 = 0,12 .
При некоррелированных равновероятных символах двоичного источника
энтропия равна 1 бит симв. Следовательно, наличие статистических связей
между символами приводит к уменьшению энтропии и увеличению избыточности источника.
Задание: Получить выражение для энтропии и избыточности двоичного
источника с коррелированными неравновероятными символами.
P (a1 a′2 )
P (a1 ) =
, P (a2 ) = 1 − P (a1 ) .
Принять
Указание:
1 + P (a1 a2′ ) − P(a2 a1′ )
P(a1 ) = 0,125, P (a 2 ) = 0,875; P( a1 a 2′ ) = 0,1, P(a1 a1′ ) = 0,3, P (a2 a1′ ) = 0,7,
P (a2 a ′2 ) = 0,9 .
Записать формулу и найти H ( A A′) [бит/симв]. Сравнить со случаем некоррелированных равновероятных символов.
1.3. Принципы кодирования информации
Эффективное (статистическое) кодирование осуществляется с целью повышения скорости передачи информации и приближения её к пропускной
способности канала.
Теорема Шеннона для эффективных кодов (без доказательства): для канала без помех всегда можно создать систему эффективного кодирования дискретных сообщений, у которой среднее количество двоичных кодовых сигналов на один символ сообщения будет приближаться как угодно близко к энтропии источника сообщений.
Корректирующее (помехоустойчивое) кодирование имеет целью повышение верности передачи информации путём обнаружения и исправления ошибок.
Теорема Шеннона для корректирующих кодов (без доказательства): для
канала с помехами всегда можно найти такую систему кодирования, при которой сообщения будут переданы со сколь угодно высокой степенью верности, если только производительность источника сообщений не превышает
пропускной способности канала.
При кодировании каждый символ дискретного сообщения пронумеровывается, и передача сообщений сводится к передаче последовательности чисел.
Например, для передачи русских букв нужно передавать числа от 1 до 32.
16
Теория информации и передачи сигналов
Если основание системы счисления есть γ, то n – разрядное число X можно
записать в виде полинома
n −1
X = ∑ ai γ i ,
(8)
i =0
где ai – целые числа, 0 ≤ ai ≤ γ − 1. В двоичной системе, очевидно, ai = 0 или
1.
Кодом называется полная совокупность условных символов, которую
применяют для кодирования сообщений. Число различных символов в коде
называется основанием кода. Код с основанием 2 – бинарный, с другими основаниями – многопозиционный.
Пример:
Буква а − число 0 − код 00000
Буква б − число 1 − код 00001
M
M
−
M
−
Буква я − число 31 − код 11111
1
424
3 1
424
3
14243
Символы
дискретного
сообщения
Нумерация
символов
Условные кодовые
символы
(основание кода - 2 )
Кодовая комбинация – это последовательность кодовых символов, соответствующих одному элементу (символу) дискретного сообщения, т.е. число,
записанное в выбранной системе счисления.
Число символов в кодовой комбинации называется значностью кода.
Оператор кодирования показывает, какую кодовую комбинацию присваивают каждому элементу сообщения.
Если все кодовые комбинации содержат одинаковое число символов, код
называют равномерным, в иных случаях – неравномерным.
Для равномерного кода общее число различных кодовых комбинаций равно N = b n , где b – основание кода, n – значность кода.
Примеры:
Равномерный код Боде b = 2, n = 5, N = 32.
Код Морзе – неравномерный (наиболее часто встречающиеся буквы кодируются наиболее короткими кодовыми комбинациями).
Принципы обнаружения и исправления ошибок.
Идея обнаружения ошибок заключается в том, что для передачи сообщений используют не все N кодовых комбинаций, а только часть из них N 0 ,
которые называются разрешёнными. Оставшиеся ∆N = N − N 0 комбинаций
1. Основы теории информации и теории сигналов
17
называют запрещёнными. Ошибки обнаруживают тогда, когда на приёмной
стороне получают запрещённую комбинацию. Доля обнаруживаемых ошибок
∆N N = 1 − N 0 N .
Если ∆N = 0, т.е. N = N 0 , то код не способен обнаруживать ошибки и его
называют примитивным (безызбыточным).
Избыточность корректирующего кода определяется формулой
rК = 1 − (log N 0 ) (n log b) .
Очевидно, что доля обнаруживаемых ошибок растёт с увеличением избыточности кода.
Исправление ошибок корректирующими кодами основано на определении
«расстояния» между кодовыми комбинациями и отыскании минимального
расстояния до разрешённой кодовой комбинации.
Расстоянием d ij между кодовыми комбинациями K i и K j называют результат сложения по модулю b одноименных разрядов кодовых комбинаций
n
d ij = ∑ kik ⊕ k jk ,
k =1
(9)
где kik и k jk – k-й разряд кодовых комбинаций, n – значность кода.
При суммировании по модулю результат равен модулю суммы разрядов,
если этот модуль меньше b. Если модуль суммы разрядов больше b, то результат получают вычитанием b из суммы.
Аналитическая запись сложения по модулю b имеет вид
(k ik + k jk < b) ,
 k ik + k jk ,
k ik ⊕ k jk = 
k ik + k jk − b, (k ik + k jk ≥ b) .
Таким образом, расстояние между кодовыми комбинациями получают поразрядным суммированием по модулю с последующим обычным суммированием (вычитанием).
Для равномерного двоичного кода кодовое расстояние – это число символов, на которое отличается одна комбинация от другой. Например, если
K i = 10111, K j = 01010, то d ij = 4 .
Методика исправления ошибок состоит в том, что, обнаружив ошибку,
вычисляют расстояние от полученной запрещённой комбинации K i до всех
разрешённых K j , j = 1, K , N 0 . В качестве переданной принимают ту из разрешённых комбинаций, до которой расстояние является наименьшим.
Например, если min d ij = d i 5 , j = 1, K , N 0 , то полагают, что была передана
комбинация K 5 .
18
Теория информации и передачи сигналов
1.4. Взаимосвязь теории информации, теории вероятностей и спектральной теории сигналов
Информационные характеристики сообщений, как было показано, определяются на основе их вероятностных характеристик.
Рассмотрим понятие энтропии в обобщенном виде.
Пусть (s1 , s 2 ,..., s K ) – совокупность дискретных отсчётов случайного процесса {s( x)} в точках x1 , x2 , K , x K , где s k – ( N × 1) – векторы-столбцы, компоненты которых являются случайными величинами – значениями N случайных функций, т.е. реализаций случайного процесса {s( x)} , в сечениях
x k , k = 1,..., K (рис. 1.5).
Пусть P( s1 , s 2 ,..., s K ; x1 , x 2 ,..., x K ) – совместная вероятность значений отсчётов. Совокупность возможных значений дискретных отсчетов s k при
квантовании по уровню можно рассматривать как «алфавит», из которого
выбирают «символы» (конкретные дискретные значения отсчётов). Если
«объём алфавита» равен m, то это означает, что отсчёты квантованы по m
уровням. Каждое значение сигнала si , i = 1,..., m , представляет собой символ
ai . Тогда, по определению, энтропия отсчётов процесса равна
m m
m
H (s1 , s 2 ,..., s K ) = − ∑ ∑ K∑ P( s1 , s 2 ,..., s K ; x1 , x2 ,..., x K ) ×
i =1 j =1
14243
K
(10)
× log P ( s1 , s 2 ,..., s K ; x1 , x2 ,..., x K ) .
Формула (10) в принципе позволяет рассчитать, хороша ли система передачи информации или нет (в битах на символ), но из формулы не следуют
непосредственные рекомендации, как улучшить эту систему. Физическими
носителями информации являются сигналы, их значения, а не вероятности.
Поэтому ясно, что именно свойства сигналов должны влиять на эффективность передачи информации.
Рассмотрим сущность этого влияния подробнее.
Для полной совокупности дискретных отсчётов (s1 , s 2 ,..., s K ) можно вычислить корреляционную матрицу
 R11 R12 L R1K 
R
R22 L R2 K 
R =  21
,
(11)
 M
M
O
M 


 RK 1 RK 2 L RKK 
19
1. Основы теории информации и теории сигналов
где Rij = [(s i − ⟨s⟩ )(s j − ⟨s⟩ ) T ] , скобки ⋅
обозначают усреднение по ан-
самблю реализаций.
s1
m уровней
x
0
s2
x
0
sn
x
0
x1
x2
xk
Рис. 1.5. Реализации s i ( x), i = 1,..., n и сечения в точках x k , k = 1,..., K ,
случайного процесса {s( x)} ; реализации s i ( x k ) , при квантовании принимают
одно из m возможных значений.
В теории стационарных случайных процессов одной из основополагающих является теорема Винера–Хинчина, устанавливающая взаимосвязь корреляционной функции R(χ), где χ – интервал, на котором вычисляется статистическая взаимосвязь значений сигнала, и спектральной плотности G(u)
сигнала, зависящей от частоты u, в форме
20
Теория информации и передачи сигналов
G (u ) = F{R (χ)} ,
где F{⋅} – оператор преобразования Фурье.
Таким образом, можно заключить, что спектральная плотность мощности
(т.е. распределение мощности сигнала по частотам) характеризует корреляционную функцию, для дискретных процессов – корреляционную матрицу
(11).
В свою очередь, можно показать, что корреляционная матрица полностью
определяет совместную вероятность значений совокупности отсчётов гауссовского процесса. При известной совместной вероятности можно вычислить
энтропию (10).
Такие рассуждения позволяют выполнить математические преобразования
и получить формулу, связывающую энтропию отсчётов гауссовского процесса и спектральную плотность, а именно
(12)
H (S) = ∑ log G (ui ) ,
ui
где G (ui ) – значения спектральной плотности для значений частоты ui .
Замечания:
1. В последней формуле подразумевается, что вся мощность сигнала сосредоточена на частотах ui (что характерно, например, для случайных
сигналов в виде суммы периодических сигналов).
2. Следует различать понятие спектра мощности и амплитудного спектра. Последнее понятие используется для анализа детерминированных
сигналов в частотной области. Эти две величины, как будет показано
далее, имеют разные физические размерности.
Таким образом показано, что энтропия источника сообщений, рассматриваемых как реализации гауссовского случайного процесса, определяется
спектральной плотностью процесса. Для гауссовского процесса энтропия вычисляется по формуле (12). Следовательно, информационные характеристики
передаваемых сообщений определяются спектральными характеристиками
сигналов.
1.5. Элементы спектральной теории сигналов
Спектральное представление позволяет перейти от описания сигналов в
области независимой переменной (времени) к частотной области. Частотные
спектры во многих случаях наиболее наглядно отображают свойства сигналов.
Ряды Фурье
Для периодического сигнала s(x) справедливо выражение
1. Основы теории информации и теории сигналов
21
s ( x) = s ( x ± kT ), k = 1,2,...,
(13)
где T – период повторения значений сигнала. Сигнал (13) можно разложить в
ряд Фурье
∞
s ( x ) = (a0 2) + ∑ (an cos 2πu n x + bn sin 2πu n x ) ,
n =1
(14)
где u n = nu1 , u1 = 1 T – фундаментальная частота ряда Фурье. Таким образом,
сигнал s(x) представлен суммой косинусоид и синусоид, частоты которых
изменяются дискретно с шагом ∆u = u1. Коэффициенты an и bn вычисляются в форме интегралов по интервалу длиной T, а именно:
T
an = (2 T ) ∫ s ( x) cos(2πu n x) dx, n = 1,2,...
(15)
0
T
bn = (2 T ) ∫ s ( x) sin( 2πu n x) dx, n = 1,2,...
(16)
0
Первое слагаемое в (14) представляет среднее значение сигнала
T
a 0 2 = (1 T ) ∫ s ( x) dx.
0
Выражение (14) можно переписать в виде
∞
s ( x) = s0 + ∑ s n cos(2πu n x − ϕ n ) ,
n =1
(17)
где s0 = a0 2 , s n = an2 + bn2 , ϕ n = arctg(bn an ) , т.е. отдельная частотная составляющая имеет амплитуду sn и начальную фазу ϕn .
Поскольку cos y = (1 2) [exp( jy ) + exp(− jy )] , формулу (17) можно представить в форме
∞
s ( x) = ∑ An exp( j 2πu n x) ,
n = −∞
(18)
где A0 = a0 2 ,
T
An = (a n − jbn ) 2 = (1 T ) ∫ s ( x) exp(− j 2πu n x) dx, n = ±1,±2,...
(19)
0
В (18) сигнал определен на положительных и отрицательных частотах un .
Коэффициенты An , вообще говоря, являются комплексными:
An = An exp(− jϕ n ) , n = ±1,±2,...,
причём A− n =
An* ,
где звёздочкой обозначено комплексное сопряжение.
(20)
22
Теория информации и передачи сигналов
Преобразование Фурье
Сигнал s(x) может иметь непериодический характер, что приводит к необходимости обобщения ряда Фурье для случая T → ∞ в форме интеграла
Фурье
∞
S (u ) = ∫ s ( x) exp(− j 2πux) dx, − ∞ < u < ∞,
(21)
−∞
который существует при условии
∞
∫ s( x) dx < ∞ .
−∞
Формула (21) определяет преобразование Фурье или спектр сигнала. При
известном спектре можно определить сигнал с помощью обратного преобразования Фурье
∞
s ( x) = ∫ S (u ) exp( j 2πux) dx, − ∞ < u < ∞.
(22)
−∞
Из (21) видно, что спектр действительного сигнала s(x), вообще говоря,
является комплексным, поэтому
S (u ) = S R (u ) − jS I (u ),
где
∞
S R (u ) = S (u ) cos ϕ(u ) = ∫ s ( x) cos(2πux) dx,
−∞
∞
S I (u ) = S (u ) sin ϕ(u ) = ∫ s ( x) sin(2πux) dx
−∞
- действительная и мнимая части спектра соответственно. В полярных координатах
S (u ) = S (u ) exp[ − jϕ(u )] ,
(23)
где S (u ) есть амплитудный спектр, ϕ(u) – фазовый спектр.
Основные свойства преобразования Фурье можно кратко сформулировать
следующим образом.
1. Свойство линейности.
F{as1 ( x) + bs 2 ( x)} = aS1 (u ) + bS 2 (u )
(24)
для любых функций s1 ( x) и s 2 ( x) и любых постоянных a и b.
2. Теорема сдвига.
F{s ( x − ξ)} = exp(− j 2πuξ) S (u ) .
(25)
1. Основы теории информации и теории сигналов
23
Сдвиг сигнала в области независимой переменной вызывает изменение
фазы, пропорциональное значению частоты каждой спектральной составляющей сигнала.
3. Повторное выполнение преобразования Фурье:
F{S (u )} = s (− x)
(26)
восстанавливает исходный сигнал с инверсией знака независимой переменной.
4. Теорема о производной.
Если F{s (u )} = S (u ), то
F{d n s ( x) dx n } = ( j 2πu ) n S (u ) .
(27)
5. Свойство четности и нечетности.
Если S (u ) = S R (u ) − jS I (u ) , то в случае, когда s(x) четная функция, имеем
S (u ) = S R (u ) – четная функция; при s(x) нечетной S (u ) = S I (u ) – нечетная
функция.
6. Свойство подобия.
F{s (ax)} = (1 | a |) S (u a) ,
(28)
где a – постоянная.
7. Сохранение энергии.
∞
∞
−∞
−∞
2
2
∫ s ( x) dx = ∫ S (u ) du.
(29)
Из этого соотношения следует, что
∞
∞
−∞
−∞
*
∫ s1 ( x) s 2 ( x) dx = ∫ S1 (u ) S 2 (u ) du
для любых сигналов s1 ( x) и s 2 ( x) , имеющих спектры S1 (u ) и S 2 (u ) .
8. Спектр свертки:
∞

F{ s1 ( x) ∗ s 2 ( x)} = F ∫ s(ξ) s( x − ξ) dξ = S1 (u ) S 2 (u ) .
(30)
− ∞

Таким образом, преобразование Фурье, примененное к свертке двух сигналов, равно произведению спектров этих сигналов.
Дискретное преобразование Фурье
При обработке последовательности отсчётов сигнала интегральные соотношения следует заменить соответствующими операциями дискретного суммирования.
24
Теория информации и передачи сигналов
Алгоритмы преобразования Фурье дискретной последовательности отсчётов s(p), имеющей конечную длину, 0 ≤ p ≤ N − 1, сводятся к вычислению
конечного числа коэффициентов S(q), 0 ≤ q ≤ Q − 1, согласно соотношению
N −1
S (q) = ∑ s ( p) exp(− j 2πpq Q) .
p =0
(31)
Обратимся к выражению (21) и сравним его с (31). Формула (31) представляет собой дискретную аппроксимацию преобразования (21), при которой функция s(x) заменяется ступенчатой функцией s ( p ) = s ( x p ) в пределах
протяженности элемента дискретизации. Таким образом, следует помнить,
что выражение (31) есть приближение, качество которого должно улучшаться
при увеличении N и соответствующем уменьшении шага дискретизации ∆x.
Дискретное преобразование Фурье (ДПФ) обычно вычисляют при условии Q = N , т.е.
N −1
S (q ) = ∑ s ( p) WNpq ,
p =0
(32)
где q = 0,1,..., N − 1, W N = exp(− j 2π N ) .
Можно доказать, что для ядра преобразования (32) выполняется следующее тождество:
N −1
 N , q = 0, ± N , ± 2 N ,...,
pq
∑ WN = 
p =0
 0, q ≠ 0, ± N , ± 2 N ,....
При этом обратное ДПФ (ОДПФ) определяется в форме
N −1
s ( p ) = (1 N ) ∑ S (q) W N− pq .
p =0
(33)
Свойства ДПФ можно получить из формул (24) – (30), имея в виду дискретный характер последовательности отсчётов сигнала.
Финитное преобразование Фурье
Всякий реальный сигнал имеет ограниченную протяженность. При этом
вместо обычного преобразования Фурье
∞
S (u ) = ∫ s ( x) exp(− j 2πux) dx
−∞
имеем финитное преобразование в конечных пределах
X
S (u ,2 X ) = ∫ s ( x) exp(− j 2πux) dx,
−X
где 2X – интервал регистрации сигнала.
(34)
25
1. Основы теории информации и теории сигналов
Для случая непрерывного изменения независимой переменной x с учётом
(30) можно записать:
∞
S (u ,2 X ) = ∫ s ( x ) rect( x 2 X ) exp(− jπux) dx = S (u ) ∗ sinc(2uX ) ,
(35)
−∞
где rect( x 2 X ) – прямоугольная функция протяженностью 2X.
Отличие (35) от идеального преобразования Фурье (21) иллюстрируется
на рис. 1.6 для отрезка сигнала протяженности L=2X. Заметим, что середина
отрезка L при этом смещена по горизонтальной оси на интервал X. Согласно
свойству преобразования Фурье (25), это вызывает фазовый сдвиг 2πuX, пропорциональный значениям частоты u, но не изменяет модуль спектра.
F
s(x)
S 0 (u )
S1 (u+u 0 )
s0
0
|S(u)|
x
L
S1 (u − u 0 )
u0
0
u0
u
sinc(uL)
Условие для нулей
sin(πuL) πuL = 0;
uk = k L
u
-1/L 0 1/L
|S(u)|
Эффект "растекания"
спектральных
порядков
u0
0
u0
u
Рис. 1.6. Изменения спектра при ограниченной протяженности сигнала
Для случая дискретных отсчётов, взятых в точках xk = k∆x,
k = 0, 1,..., 2 X ∆x, получим спектральные линии на дискретных частотах
u n = n 2 X , n = 0, 1,..., N , N = K . Частота u1 = 1 2 X называется фундаментальной частотой финитного преобразования Фурье.
26
Теория информации и передачи сигналов
При этом
X
S (u n ,2 X ) = ∫ s ( x) exp(− j 2πu n x) dx ,
(36)
−X
т.е. финитное преобразование Фурье связано с коэффициентами An ряда Фурье, а именно:
S (u n ,2 X ) = 2 An X .
Иначе говоря, финитное преобразование Фурье сводится к нахождению
коэффициентов ряда Фурье для функции s(x), периодически продолженной с
периодом L = 2 X (рис. 1.7). При нецелом числе периодов, укладывающихся
на отрезке L, происходит искажение спектра.
Периодическое
продолжение
s(x)
s(x)
s
s
0
0
L
x
0
0
L
L
L
x
Рис. 1.7. Трансляция отрезков сигнала ограниченной протяженности
Математическое описание систем передачи и обработки
сигналов
В системах передачи и обработки сигналов осуществляется преобразование входных сигналов sвх в выходные sвых . Характеристики преобразования
могут быть заданными (например, при фильтрации сигналов) или должны
быть исследованы (например, при анализе характеристик линий передачи
информации). Во всех случаях используются основные положения теории
систем.
Наиболее важными являются линейные системы, подчиняющиеся принципу суперпозиции:
T{αsвх1 + βsвх 2 } = αT{sвых1 } + βT{sвых 2 } ,
(37)
где α и β – постоянные, T – оператор системы.
1. Основы теории информации и теории сигналов
27
Импульсной характеристикой (реакцией) системы, по определению, называется функция
h( x ) = T{δ( x)} ,
(38)
где δ(x) – дельта-функция. Обычно независимой переменной x является время.
Систему называют стационарной или инвариантной во времени, если при
выполнении условия
sвых ( x) = T{sвх ( x)}
(39)
следует, что
sвых ( x − χ) = T{sвх ( x − χ)} ,
где χ - произвольный сдвиг.
Импульсная характеристика инвариантной во времени системы с учетом
(38), очевидно, подчиняется соотношению
h( x − χ) = T{δ( x − χ)} .
Входной сигнал можно представить последовательностью дельтафункций:
∞
sвх ( x) = ∫ sвх (χ) δ( x − χ) dχ ,
(40)
−∞
∞
где ∫ δ(χ) dχ = 1 .
−∞
Сигнал на выходе системы из (38) – (40) определяется выражением
∞
sвых ( x) = T{sвх ( x)} = ∫ sвх (χ) T{δ( x − χ)} dχ .
−∞
В результате выходной сигнал определяется интегралом свёртки
∞
sвых ( x) = ∫ sвх (χ) h( x − χ) dχ = sвх ( x) ∗ h( x) .
(41)
−∞
Пусть существует преобразование Фурье сигнала F{s( x)} = S (u ) и импульсной характеристики системы F{h( x)} = H (u ) . Используя свойства преобразования Фурье, можно доказать теорему о свёртке (30):
F
s ( x) ∗ h( x) ⇔ S (u ) H (u ) .
Поскольку sвых ( x) = sвх ( x) ∗ h( x) , то в спектральной области
S вых (u ) = S вх (u ) H (u ) .
Функция
H (u ) = S вых (u ) S вх (u )
называется частотной характеристикой системы.
(42)
(43)
28
Теория информации и передачи сигналов
Детерминированные и стохастические сигналы
Преобразование Фурье (21) содержит полную информацию о сигнале s(x)
в частотном представлении. Если сигнал s(x) является реализацией случайного процесса {s(x)}, то результат преобразования (21) будет изменяться от сигнала к сигналу («от опыта к опыту»). Неизменной характеристикой ансамбля
реализаций {s(x)} стационарного эргодического случайного процесса является спектральная плотность
Gs (u ) = lim (1 X ) S k (u ,2 X )
2
X →∞
(44)
,
где угловые скобки обозначают усреднение по ансамблю реализаций (индексу k). Спектральная плотность характеризует значение среднего квадрата
процесса: площадь под графиком спектральной плотности на произвольном
частотном интервале (u1 , u 2 ) равна среднему квадрату процесса в этой полосе частот. Наряду с понятием спектральной плотности часто используют соответствующее понятие энергетического спектра.
Спектральная плотность стационарного эргодического случайного процесса связана с корреляционной функцией Rs (χ) этого процесса преобразованием Фурье:
∞
G s (u ) = F{R s (χ)} ∫ R s (χ) exp(− j 2πuχ) dχ ,
(45)
−∞
где
∞
Rs (χ) = lim (1 X ) ∫ s ( x) s ( x + χ) dx .
X →∞
(46)
0
Соотношение (45) носит название теоремы Винера-Хинчина. Поскольку
автокорреляционная функция (46) является чётной функцией, спектральная
плотность (45) является действительной чётной функцией.
Таблица 1. Основные величины и типичные единицы их измерения
Величина
Обозначение
1. Сигнал
s(x)
Единица измерения
В (Вольт)
2. Амплитудный спектр (АС)
S (u, X )
3. Квадрат модуля АС
S (u, X )
2
В⋅с
В2 ⋅ с 2
4. Спектральная плотность
Gs (u )
В 2 ⋅ с = В 2 Гц
5. Корреляционная функция
Rs (u )
В2
29
1. Основы теории информации и теории сигналов
1.6. Принципы дискретизации непрерывных сигналов
Пусть функция s(x) определяет исходный непрерывный сигнал. Операция
дискретизации заключается в выполнении преобразования вида
sˆ( x) = d ( x) [ s ( x) ∗ h( x)] ,
где в простейшем случае апертурная функция элемента дискретизации h(x)
имеет вид
1, | x | < b,
h( x ) = rect( x 2b) = 
(47)
0, | x | ≥ b,
2b – ширина элемента дискретизации,
K −1
d ( x) = d 0 ∑ δ( x − k∆x)
k =0
– функция дискретизации, ∆x – шаг дискретизации, d 0 – нормирующий множитель, такой, что площадь под графиком d(x) равна единице.
Вид функций h(x) и d(x) иллюстрируются на рис. 1.8.
а)
h(x)
1
-b 0
b
x
d(x)
б)
δ(x-k∆x)
0 ∆x
k∆x
(K-1)∆x x
Рис. 1.8. Прямоугольная функция элемента дискретизации (а)
и функция дискретизации (б)
Сигнал s(x) можно представить последовательностью импульсов протяженностью 2b = ∆x , имеющих амплитуды, равные значениям сигнала в точ-
30
Теория информации и передачи сигналов
ках (k + 1) ∆x . Тогда получим ступенчатую функцию, показанную на рис. 1.9,
а именно
∞
sˆ( x) = ∑ s (k∆x ) h( x − k∆x + ∆x 2) .
(48)
k =0
s(x)
0 ∆x
k∆x (k+1)∆x
x
Рис. 1.9. Ступенчатая аппроксимация непрерывного сигнала
После перехода к пределу при ∆x → 0, получим
∞
sˆ = ∫ s (ξ) h( x − ξ) dξ = s ( x) ∗ h( x) .
(49)
0
Такое преобразование является операцией свертки, которая имеет следующие
важные свойства:
ƒ дистрибутивность
a( x) ∗ [b( x) + c( x )] = a( x) ∗ b( x) + a ( x) ∗ c( x )
ƒ коммутативность
a ( x ) ∗ b( x ) = b( x ) ∗ a ( x )
ƒ ассоциативность
[a( x) ∗ b( x )] ∗ c( x) = a( x) ∗ [b( x) ∗ c( x )] = a ( x) ∗ b( x) ∗ c ( x) .
Подчеркнем, что при условии существования интеграла (49) операция
свертки не вносит ограничений на вид апертурной функции элемента дискретизации h(x).
Процесс дискретизации удобно рассматривать в частотном представлении, получаемом в результате преобразования Фурье исходного сигнала.
Функция дискретизации определяется в частотной области следующим выражением:
31
1. Основы теории информации и теории сигналов
∞
D(u ) = F{d ( x)} = u d ∑ δ(u − ku d ) ,
(50)
k =0
где F{.} обозначает операцию преобразования Фурье, u d = 1 (∆x) . Вид
функции D(u) показан на рис. 1.10. Таким образом, процесс выборки дискретных значений сигнала вызывает появление спектральных порядков
kud , k ≥ 1.
d(x)
D(u)
...
0 ∆x
x
F
...
0
ud
u
Рис. 1.10. Функция дискретизации и её частотное представление
Дискретизованный сигнал имеет вид произведения двух функций, поэтому, согласно теореме о свертке, его спектр равен свертке спектров:
Sˆ (u ) = S (u ) ∗ D(u ) . Поскольку с учетом (50) и свойств частотной симметрии
преобразования Фурье (см. разд 1.5) можно записать, что
∞
Sˆ (u ) = S (u ) ∗ u d ∑ δ(u − ku d ) ,
k = −∞
спектр дискретизованного сигнала представляет собой спектр исходного сигнала, периодически повторенного (перенесенного) по частотной оси с шагом
ud , как это иллюстрируется на рис. 1.11, включая диапазон отрицательных
частот.
Теорема дискретизации формулируется следующим образом:
Для того, чтобы спектр исходного сигнала в области частот (−u M ; u M ) не
искажался в процессе дискретизации, необходимо и достаточно выполнение
неравенства ud ≥ 2u M , где u M – наибольшая частота в спектре синала.
Спектр сигнала, очевидно, можно выразить в форме
∞
Sˆ (u ) = u d ∑ S (u − ku d ) .
k = −∞
(51)
Выделим из этого спектра частотный интервал (−u d 2 ; u d 2) и выполним
обратное преобразование Фурье. В результате получим
32
Теория информации и передачи сигналов
∞
s ( x) = ∑ s (k u d ) sinc[u d ( x − k u d )] .
(52)
k = −∞
Отсюда следует теорема Шеннона: если для частоты дискретизации ud
справедливо неравенство ud ≥ 2u M , то сигнал s(x) восстанавливается однозначно по его дискретным значениям s (k u d ), k = 0,±1,...
s(x)
S(u)
F
0
x
−u d −u M 0
uM
ud
u
Рис. 1.11. Формирование спектра при дискретизации сигнала
Функция
sin[πu d ( x − k u d )]
πu d ( x − k u d )
называется интерполяционной функцией Шеннона.
sinc[u d ( x − k u d )] =
Дискретизация узкополосных сигналов
Модель типичного узкополосного сигнала имеет вид
s ( x) = s 0 ( x) + s m ( x) cos(ε + 2πu 0 x) + n( x) ,
(53)
где s0 ( x) – фоновая составляющая, s m (x) – огибающая, изменяющиеся медленно по сравнению с периодом 1 u0 , ε – начальная фаза в точке x = 0, u0 –
частота, n(x) – аддитивный шум. В результате дискретизации получаем сигнал
sˆ( x) = d ( x) [ s ( x) ∗ h( x)] ,
при этом спектр сигнала определяется выражением
F{sˆ( x)} = Sˆ (u ) = D(u ) ∗ [ S 0 (u ) + S1 (u − u 0 ) + S1* (u − u 0 ) + N (u )] H (u ) .
(54)
Здесь N(u) обозначает амплитудный спектр аддитивного шума, H(u) – преобразование Фурье апертурной функции элемента дискретизации. Для функции
33
1. Основы теории информации и теории сигналов
вида (47) прямоугольной формы и ∆x = 2b нулевые значения H(u) имеют место на частотах u s = 1 (2b) .
Спектр дискретизованного сигнала имеет вид, показанный на рис. 1.12.
При обработке спектра обычно выделяют составляющую S1 (u − u 0 ) .
S 0 (u)
S1 (u u 0 )
N(u)
S1* (u + u 0 )
Bn
0
u0
u0
u
Bn
|H(u)|
us
us
0
D(u)
0
ud
ud
S (u-u )
1
ud
u0
ud
u0
u 0 0 u0
ud
0
u0
ud
u0
Рис. 1.12. Формирование спектра при дискретизации узкополосного сигнала
Рассмотрим методику выбора шага дискретизации узкополосного сигнала.
Если частота u0 гармонической составляющей априорно известна, то шаг
дискретизации ∆x определяется согласно теореме дискретизации, а именно,
нужно выполнить условие u 0 < (1 2∆x) , т.е. ∆x < 1 2u0 . Таким образом, шаг
34
Теория информации и передачи сигналов
дискретизации должен быть меньше половины периода гармонического сигнала.
Если сигнал s(x) не является строго гармоническим и имеет протяженный
спектр с граничной частотой u M , то выбор шага дискретизации определяется
по теореме дискретизации: ∆x < 1 2u M .
Для уменьшения влияния спектра шума, попадающего из соседних спектральных порядков (рис. 1.12), нужно настолько уменьшить шаг дискретизации, чтобы он не превышал значения 1 (2u nM ) , где un M – составляющая шума с наибольшей частотой. Следует иметь в виду, что вследствие стохастического характера шума можно строго определить его спектр мощности, но не
амплитудный спектр. Поэтому результат преобразования Фурье шума может
существенно изменяться от реализации к реализации. Некоррелированный
шум имеет спектр бесконечной протяженности. Поэтому перед дискретизацией сигнала необходимо выполнить низкочастотную фильтрацию для получения «окрашенного» шума с граничной частотой u nM ≤ u d 2 .
Влияние формы элемента дискретизации
Операция дискретизации определяется формулой
sˆ( x) = d ( x) [ s ( x ) ∗ h( x)] .
Выше был рассмотрен случай ступенчатой аппроксимации нулевого порядка, как это показано на рис. 1.9. Функция h(x), вообще говоря, может
иметь произвольную форму. Однако в любом случае нужно иметь в виду, что
форма и протяженность функции h(x) влияют на спектр сигнала за счет умножения спектра этого сигнала на функцию H (u ) = F{h( x)} (рис. 1.12).
Приведем простой пример. Пусть h( x ) = rect( x 2b) . Соответствующая
функция в спектральной области будет равна
sin(2πub)
H (u ) = sinc(2ub) =
.
2πub
В этом несложно убедиться непосредственным интегрированием функции
косинуса:
b
sin(2πub)
(1 2b) ∫ cos(2πux) dx =
.
2πub
−b
Поэтому составляющие спектра сигнала при u > 0 будут ослаблены вплоть до
полного подавления на частоте u s = 1 2b (рис. 1.12).
Таким образом, можно сделать следующие выводы.
1. Основы теории информации и теории сигналов
35
Влияние размера элемента дискретизации на спектральную составляющую с частотой u тем меньше, чем меньше отношение 2b T , где T = 1 u –
период этой составляющей.
Во избежание энергетических потерь при дискретизации непрерывного
сигнала уменьшение размера элемента дискретизации должно сопровождаться соответствующим повышением частоты дискретизации.
36
Теория информации и передачи сигналов
2. Модуляция и управление
информационными параметрами сигналов
Модуляция сигналов позволяет выполнить преобразование сигналов с целью повышения эффективности и помехоустойчивости процесса передачи
информации. В большинстве случаев методы модуляции основываются на
управлении параметрами сигналов в соответствии с информационным сообщением. При модуляции сигналов изменяется их форма и спектральные характеристики. Особенности формирования спектров сигналов имеют важное
значение для систем связи и телекоммуникаций.
2.1. Классификация сигналов и методов модуляции
Сообщения передаются при помощи сигналов. В простейшем случае сообщение может заключаться в наличии (отсутствии) принятого сигнала. При
этом требуется решать задачу обнаружения сигнала. Во многих случаях вид
передаваемых сигналов заранее известен и приём сообщения состоит в том,
чтобы определить, какой из возможных сигналов был передан. Тогда задача
состоит в различении сигналов. Если сигналы отличаются значениями их параметров, которые считаются постоянными в течениии некоторого интервала,
то необходимо получать оценки параметров сигнала. Сообщение может содержаться в изменениях параметров, т.е. в их мгновенных (локальных) значениях. Тогда для получения сообщения нужно выполнить фильтрацию параметров сигнала. Задача фильтрации, как правило, является более сложной,
чем оценивание параметров.
Управление информационным параметром сигнала в соответствии с передаваемым сообщением называют модуляцией.
Информационный сигнал (сообщение) обозначим θ(x), сигнал-переносчик,
параметр которого изменяется в соответствии с сообщением, обозначим s(x).
При модуляции выполняется преобразование этих двух сигналов в один модулированный сигнал ξ(x) в соответствии с уравнением
ξ( x) = M{s ( x), θ( x)} ,
(1)
где M{.} – оператор, определяемый видом модуляции. Для выделения сообщения θ(x) на приёмной стороне необходимо выполнить обратное преобразование (демодуляцию), т.е.
θ( x) = M −1{ξ( x)} .
(2)
В зависимости от вида, функциональной формы и числа параметров сигнала-переносчика s(x) и информационного сигнала θ(x) варьируются свойства
2. Модуляция сигналов
37
различных методов модуляции, а именно, вид и ширина спектра сигнала ξ(x),
устойчивость к воздействию помех и т.д.
Если информационный параметр сигнала-переносчика изменяется непрерывно, то методы модуляции являются непрерывными (распространены, например, методы амплитудной, фазовой и частотной непрерывной модуляции
гармонического сигнала-переносчика).
В качестве сигнала-переносчика часто используют периодическую последовательность импульсов, тогда модуляцию называют импульсной (например,
при изменении амплитуды или частоты импульсов по закону θ(x) имеет место
амплитудно-импульсная или частотно-импульсная модуляция соответственно).
Информационный параметр может принимать счётное число значений,
при этом модуляцию называют дискретной. К дискретным видам модуляции
относятся, например, амплитудная, частотная и фазовая манипуляции. Если
значения параметра закодированы и передаются в цифровой форме, то соответствующие виды модуляции носят название цифровой модуляции. Наиболее распространенным видом цифровой модуляции является импульснокодовая модуляция, когда значения сигнала в дискретных точках кодируют в
цифровой форме.
При создании систем передачи сигналов основными задачами являются
разработка методов и математических моделей, определяющих оптимальные
режимы модуляции-демодуляции с точки зрения повышения скорости, достоверности и помехозащищённости передачи информации.
При классификации видов модуляции принимают в расчёт вид, характер
информационного сигнала и сигнала-переносчика: детерминированный процесс, случайный стационарный процесс, нестационарный процесс и т.д. Детерминированные сигналы определяются их амплитудными и фазовыми
спектрами на основе свойств рядов Фурье и преобразования Фурье (разд.
1.5.). В теории информации и передачи сигналов особое место занимают стохастические сигналы, являющиеся реализациями случайных процессов с заданными характеристиками – корреляционными функциями и спектральными
плотностями.
Если вид информационного сигнала, сигнала-переносчика и характеристики линии связи заданы, то основной задачей является оптимальный приём
сигналов. Задача оптимального приёма, как правило, сводится к задаче различения сигналов по заданному критерию в условиях помех (задача обнаружения рассматривается как различение смеси сигнала и помехи от помехи, когда
сигнал отсутствует).
Задачи приёма сообщений подразделяют на два класса – когерентный и
некогерентный приём, соответственно при наличии и отсутствии синхронизации в канале передачи информации. Методы когерентного (синхронного)
38
Теория информации и передачи сигналов
приема, как правило, более просты и надёжны. Методы некогерентного
(асинхронного) приёма обеспечивают более высокое быстродействие, однако
более сложны в реализации.
Теория оптимального приёма сигналов является одним из важнейших разделов статистической радиотехники и теории связи.
2.2. Методы амплитудной, фазовой и частотной
модуляции
Амплитудная, фазовая и частотная модуляция гармонических сигналовпереносчиков получили наиболее широкое распространение в радиовещании
и системах связи.
Амплитудная модуляция
Амплитудно-модулированный (АМ) сигнал в общем случае определяется
выражением
ξ( x) = [1 + mθ( x)] s ( x),
(3)
где θ(x) – информационный (модулирующий) сигнал, s(x) – сигналпереносчик, m – коэффициент модуляции.
Спектр сигнала (3) можно найти с использованием свойств преобразования Фурье (см. разд. 1.5) в форме
Ξ(u ) = F{ξ( x)} = S (u ) + mS (u ) ∗ Θ(u ) ,
(4)
где S (u ) = F{s ( x )}, Θ(u ) = F{θ( x)}.
Формирование спектра (4) иллюстрируется на рис. 2.1 и 2.2.
При гармоническом модулирующем сигнале (рис. 2.1) его спектр, как и
спектр сигнала-переносчика, представляет собой две дельта-функции. Свертка спектров S(u) и Θ(u) приводит к переносу спектра Θ(u) на более высокую
(так называемую несущую) частоту ±u 0 .
Если модулирующий сигнал имеет сложную форму и, следовательно, протяженный спектр (рис. 2.2), образованный множеством пар дельта-функций с
различными положениями на частотной оси, то в результате переноса спектра
на несущую частоту ±u 0 образуются соответствующие спектральные порядки. В силу свойств частотной симметрии преобразования Фурье можно показать, что вся полезная информация содержится в спектральном порядке в окрестности частоты u 0 .
Демодуляцию АМ сигнала осуществляют путём выделения огибающей
сигнала-переносчика при его детектировании и фильтрации нижних частот на
выходе детектора. Ширина полосы пропускания фильтра должна соответст-
39
2. Модуляция сигналов
вовать ширине спектра Θ(u) (рис. 2.2), чтобы обеспечить минимальные спектральные искажения восстановленного сигнала.
θ(x)
F
0
x
u
um 0 um
s(x)
0
|S(u)|
x
u0
ξ(x)
0
0
u0
u
|Ξ(u)|
x
u0 u m
u0
u 0 u m 0 u0 u m u0 u m u
u0
Рис. 2.1. Спектр АМ сигнала с гармонической модуляцией
40
Теория информации и передачи сигналов
|θ(u)|
u
0
|S(u)|
u0
0
u0
u
u0
u
|Ξ(u)|
u0
0
Рис. 2.2. Спектр сложного АМ сигнала
Фазовая модуляция
Фазомодулированный (ФМ) сигнал имеет постоянную амплитуду, фаза
сигнала изменяется пропорционально информационному сигналу, а именно
41
2. Модуляция сигналов
ξ( x) = A cos[2πu 0 x + mθ( x)] ,
(5)
где u 0 - несущая частота, m – индекс фазовой модуляции.
Пусть модулирующий сигнал является гармоническим, θ( x) = cos(2πu m x ) ,
и индекс модуляции m << 1. При этом выражение (5) можно переписать в
виде
ξ( x) = A cos[2πu 0 x + m cos(2πu m x)] ≈
(6)
≈ A cos(2πu0 x) − mA sin(2πu 0 x) cos(2πu m x) ,
учитывая, что при y → 0 cos y ≈ 1, sin y ≈ y. После преобразования второго
слагаемого в (6) получим
ξ( x) ≈ A cos(2πu 0 x) − (mA 2) sin 2π(u 0 + u m ) x − (mA 2) sin 2π(u 0 − u m ) x .
(7)
Спектр ФМ-сигнала с малым индексом модуляции показан на рис. 2.3.
|Ξ(x)|
2 um x
A2
…
mA 4
2 um x
mA 2
mA 4
mA 2
A
u 0 um u0 u0 u m
u
2 u0 x
Рис. 2.3. Спектр и векторная диаграмма для ФМ сигнала при m <<1
Величины спектральных составляющих идентичны величинам спектральных составляющих сигнала с синусоидальной АМ, однако фазовые соотношения между несущей и боковыми составляющими различны. Эти фазовые
соотношения более детально показаны графически на векторной диаграмме в
правой части рис. 2.3. Меньшие векторы медленно вращаются в противоположных направлениях вокруг быстро вращающегося большого вектора, а ξ(x)
представляет собой проекцию суммы векторов на горизонтальную ось. Однако в отличие от случая АМ сигнала сумма меньших векторов всегда перпендикулярна большему вектору. При этом, если векторы боковых составляющих малы (m << 1), длина суммарного вектора близка по величине амплитуде
несущей A, но результирующий вектор вращается с переменной скоростью.
42
Теория информации и передачи сигналов
Фазовые соотношения в данной векторной диаграмме указывают простой
способ генерирования ФМ сигналов с малым индексом модуляции (рис. 2.4)
при произвольном модулирующем сигнале θ(x).
m (x)
mA ( x) sin(2 u0 x)
Acos[2 u0 x m ( x)]
+
+
A sin(2 u 0 x)
A cos(2 u0 x)
Рис. 2.4. Структурная схема ФМ модулятора при m <<1
Частотная модуляция
При частотной модуляции изменяется мгновенная (локальная) частота u(x)
сигнала-переносчика s(x) в соответствии с информационным сигналом θ(x), а
именно
ξ( x) = A cos[2πu ( x) x] ,
(8)
где
x
u ( x) = u0 + ∫ θ(χ) dχ .
(9)
−∞
При синусоидальной ЧМ модулирующий сигнал имеет вид
θ( x) = −a sin( 2πum x ) ,
откуда
x
u ( x ) = u 0 + ∫ θ( x) dx = u 0 + (a 2πu m ) cos(2πu m x) .
(10)
(11)
−∞
Сравнение (6) и (8) с учётом (11) показывает идентичность ФМ и ЧМ при
синусоидальной модулирующей функции и индексе модуляции
| m | = a 2πum .
Значение a представляет собой максимальную девиацию мгновенной угловой
частоты относительно несущей угловой частоты 2πu0 .
Простейший демодулятор для ЧМ сигналов или частотный дискриминатор представляет собой резонансный контур, настроенный, например, ниже
несущей частоты (рис. 2.5). Изменения мгновенной частоты во входном модулированном сигнале преобразуются в изменения амплитуды сигнала на
выходе резонансного контура. Эти амплитудные изменения нетрудно выделить при помощи обычного детектора огибающей. Ограниченный диапазон
43
2. Модуляция сигналов
вх
вых
x
x
u0
u
Рис. 2.5. Преобразование изменений частоты в изменение амплитуды
при помощи резонансной цепи
Выход
(Напряжение)
0
Вход
(Частота)
u0
Рис. 2.6. Характеристика дискриминатора,
полученная с помощью пары резонансных контуров
линейности такого дискриминатора можно расширить, применив пару контуров, один из которых настроен соответственно выше, а другой ниже частоты
несущей. Выходные сигналы на выходе этих контуров раздельно детектируются и после этого вычитаются, образуя полную характеристику дискрими-
44
Теория информации и передачи сигналов
натора, показанную на рис. 2.6. Выходной сигнал в дискриминаторах такого
типа изменяется по амплитуде при вариациях как частоты, так и амплитуды
входного сигнала.
В реальных системах неконтролируемые изменения амплитуды в ЧМсигнале вызываются шумами, помехами, «замираниями» радиоволн и другими факторами. В связи с этим на входе дискриминаторов необходимо включать ограничитель, который представляет собой нелинейное устройство с
характеристикой, показанной на рис. 2.7. Ограничитель совместно с включенным на его выходе резонансным усилителем практически устраняет амплитудные изменения огибающей узкополосного сигнала, сохраняя при этом
фазовые изменения.
x
x
Ограничитель
x
Резонансный усилитель
Амплитуда
на выходе
Амплитуда
на входе
Рис. 2.7. Совместная работа ограничителя и резонансного усилителя
На рис. 2.8 показана полная структурная схема типового ЧМ приемника.
Усилитель высокой частоты (УВЧ) усиливает принятый сигнал, внутренний гетеродин (генератор) вырабатывает гармонический «опорный» сигнал,
который перемножается в смесителе с принятым сигналом. В результате
формируется сигнал на промежуточной частоте, которая является постоянной
при синхронной перестройке частот настройки УВЧ и гетеродина. Усилитель
45
2. Модуляция сигналов
УВЧ
Смеситель
УПЧ
Ограничитель
УПЧ
Дискриминатор
УНЧ
Генератор
Рис.2.8. Функциональная схема ЧМ приемника
промежуточной частоты УПЧ обеспечивает высокий коэффициент усиления
сигнала. Усиленный сигнал после ограничителя поступает на второй УПЧ,
выполняющий функции резонансного усилителя в схеме рис. 2.7. Частотный
дискриминатор выделяет изменения частоты сигнала, которые в форме низкочастотного сигнала поступают на вход усилителя низкой частоты УНЧ.
2.3. Принципы амплитудной и частотной манипуляции
Манипуляция относятся к дискретным методам модуляции, в которых
информационный параметр принимает счётное число значений.
Амплитудная манипуляция
При амплитудной манипуляции (АМн) информационным параметром является амплитуда сигнала-переносчика, которая изменяется скачкообразно
под действием модулирующего сигнала.
Рассмотрим особенности анализа АМн сигнала для случая, когда в роли
переносчика выступает гармоническое колебание s ( x) = A0 sin( 2πu 0 x + ϕ 0 ) , а
модулирующим сигналом является периодическая последовательность модулирующих импульсов
2i∆x < x < (2i + 1)∆x,
1,
θ( x) = 
− 1, (2i + 1)∆x < x < 2(i + 1)∆x, i = 0, 1, 2...,
где ∆x - длительность импульсов, T = 2∆x - период следования импульсов.
Аналитически АМн сигнал определяется выражением
ξ( x) = 0,5 A0 [1 + mθ( x)] sin( 2πu 0 x + ϕ 0 ).
(12)
В рассматриваемом примере амплитуда манипулированного сигнала принимает два значения:
0,5 A0 (1 + m), 2i∆x < x < (2i + 1)∆x,
A=
0,5 A0 (1 − m), (2i + 1)∆x < x < 2(i + 1)∆x, i = 0, 1, 2,...
46
Теория информации и передачи сигналов
Обычно коэффициент модуляции m при АМн выбирается равным единице, поэтому амплитуда модулированного сигнала изменяется скачком в точках x = i∆x, i = 0, 1, 2, K и принимает два значения A0 и 0.
На рис. 2.9 показаны временные диаграммы модулирующего θ(t ) и манипулированного ξ(t ) сигналов.
Определим спектр амплитудно манипулированного сигнала (12). Представим модулирующий сигнал θ(x) в виде ряда Фурье
2 ∞ 1 − cos kπ
(13)
θ( x) = ∑
sin 2πkum x ,
π k =1
k
где um = 1 T . Подставив (13) в (12), получим
 1 1 ∞ 1 − cos kπ

ξ( x) = A0  + ∑
sin 2πkum x  sin(2πu0 x + ϕ0 ) =
2
π
k
k =1


1
A0 ∞ 1 − cos kπ
= A0 sin( 2πu0 x + ϕ0 ) +
cos(2πu0 x − 2πkum x + ϕ0 ) −
∑
2
2π k =1
k
A ∞ 1 − cos kπ
− 0 ∑
cos(2πu0 x + 2πkum x + ϕ0 ).
2π k =1
k
(14)
θ(x)
+1
∆x
∆x
x
0
-1
ξ(x)
T
A0
x
0
Рис. 2.9. Модулирующий и манипулированный сигналы.
На рис. 2.10 показан построенный в соответствии с выражением (14)
спектр АМн сигнала. Огибающая спектра (штрихованная линия) представляет смещенный на частоту u0 спектр одиночного видеоимпульса h(x ) .
47
2. Модуляция сигналов
h(x)
|H(u)|
F
x
0 ∆x
-1/∆x 0 -1/∆x
d(x)
0
T
x
0
0,5[1+θ(x)]
0
T
x
5um
3u m
u m0 u m
um
1T
u
3u m 5u m
u
|S(u)|
x
u0
ξ(x)
0
um
δ(0)+|Θ(u)|
s(x)
0
u
u0
u
0 u 0 umu0 u 0 u m
u
0
|Ξ(u)|
x
u0
u0 3um
u0 3u m
Рис. 2.10. Формирование спектра сигнала при амплитудной модуляции
48
Теория информации и передачи сигналов
Интервалы между спектральными линиями равны um = 1 T (чётные гармоники равны нулю).
Отношение периода следования импульсов к их продолжительности называется скважностью импульсов η = (T ∆x ) . Рассмотренный пример соответствует случаю η = 2. При других значениях скважности спектр сигнала
может содержать также четные гармонические составляющие частоты u m .
Частотная манипуляция
Сигнал с частотной манипуляцией (ЧМн) формируется в результате скачкообразного изменения частоты сигнала-переносчика, а именно, при манипуляции со скважностью η = 2 ЧМн сигнал внутри периода манипуляции определяется как
− T 4 < x < T 4,
 A cos[(2πu 0 + ∆u ) x],
ξ( x ) = 
A
cos[
2
π
(
u
−
∆
u
)
x
](
x
−
T
2
)
,
T
4 < x < 3T 4 ,
0

где 2∆u - изменение частоты, T – период изменения частоты (рис 2.11).
x
ϕ( x) = ∫ u (χ) dχ
−∞
T u 4
u(x)
+∆u
−∆u
T
x
u0
T
x
T u 4
Рис. 2.11. Модулирующие функции частотно манипулированного сигнала
Частота сигнала мгновенно изменяется между двумя значениями на оси
частот. Результирующий сигнал ξ(x) можно рассматривать как суперпозицию двух модулированных прямоугольной последовательностью импульсов
синусоидальных сигналов различной частоты, как показано на рис. 2.12.
Спектр каждой из составляющих представляет собой спектр прямоугольного
видеоимпульса с соответственно сдвинутой несущей частотой, как показано
на рис. 2.13.
Согласно рис. 2.11, периодическая частотная манипуляция соответствует
фазовой модуляции сигналом треугольной формы.
49
2. Модуляция сигналов
T
4
Частота u0
u
T
4
Частота u0
x
3T
4
x
3T
4
u
Рис. 2.12. Две составляющие частотно манипулированного сигнала
Ξ1 (u)
1T
u0
u
u
Ξ 2 (u)
1T
u0
Ξ(u )
2 u
u
u
u
Рис. 2.13. Спектры частотно манипулированного сигнала
50
Теория информации и передачи сигналов
Во многих случаях при манипуляции модулирующие сигналы не являются
периодическими и представляют собой случайные последовательности (соответствующие, например, последовательностям нулей и единиц при передаче
информации). При этом характеристики сигналов определяются их корреляционными функциями и спектральными плотностями (см. разд. 1.6).
2.4. Принципы импульсной и цифровой модуляции
При импульсной модуляции в качестве сигнала-переносчика используется
периодическая последовательность видеоимпульсов
∞
s ( x) = A0 ∑ h( x − iT , ∆x),
(15)
i = −∞
где A0 – амплитуда импульсов, h(x ) – функция, описывающая одиночный
импульс последовательности, T – период повторения импульсов, ∆x - длительность одного импульса.
В качестве примера рассмотрим метод амплитудной импульсной модуляции (АИМ), когда амплитуда импульсов изменяется в соответствии с информационным сигналом θ(x) , так что передаваемый сигнал определяется выражением
∞
ξ( x) = A0 [1 + mθ( x)] ∑ h( x − iT , ∆x),
(16)
i = −∞
где m, как и ранее, – коэффициент модуляции. Временная диаграмма сигнала
(16) показана на рис. 2.14.
Представим последовательность (15) в форме ряда Фурье
∞
s ( x ) = ∑ ak exp( j 2πku0 x),
(17)
k = −∞
где ak – комплексные амплитуды, учитывающие амплитуды и начальные фазы отдельных гармоник, u 0 = 1 / T – частота следования видеоимпульсов.
В результате подстановки (17) в (16) и преобразования Фурье получим
выражение для спектра АИМ сигнала в форме
∞
Ξ(u ) = ∫ ξ( x) exp(− j 2πux)dx =
−∞
∞
∞
−∞
k = −∞
= ∫ [1 + mθ( x)] ∑ a k exp[− j 2π(u − ku 0 ) x] dx =
∞
∞
∞
k = −∞
k = −∞
−∞
= 2π ∑ a k δ(u − ku 0 ) + m ∑ a k ∫ θ( x) exp[− j 2π(u − ku 0 ) x] dx .
(18)
51
2. Модуляция сигналов
Первая сумма в (18) представляет спектр немодулированной последовательности (17). Вторая сумма показывает, что амплитудная модуляция вызывает появление возле каждой составляющей этого спектра боковых полос,
повторяющих спектр узкополосного модулирующего сигнала. Поэтому
спектр АИМ сигнала представляет упорядоченный набор спектров обычных
АМ колебаний (см. рис. 2.2), в которых роль несущих выполняют гармоники
(17) частоты следования видеоимпульсов (15).
a)
θ(x)
1
x
ξ(x)
∆x
0
б)
x
T
Рис. 2.14. Модулирующий сигнал (а) и АИМ сигнал (б)
Спектр АИМ сигнала показан на рис. 2.15 для случая, когда модулирующий сигнал θ(x) является узкополосным сигналом со средней частотой u m .
Рассмотрение спектра АИМ сигнала позволяет сделать ряд практически важных выводов. Очевидно, что необходимо выбирать такую частоту
повторения импульсов u 0 min ≥ 2u m , при которой не происходит наложения
спектров соседних боковых полос. Если это условие выполняется, можно
выделить составляющие модулированного сигнала с помощью полосовых
фильтров и фильтров нижних частот. Практически важной особенностью
спектра АИМ сигнала является наличие около частоты u = 0 составляющих модулирующего сигнала (рис. 2.15). Следовательно, демодуляцию
АИМ сигнала можно выполнить фильтром нижних частот без дополнительных преобразований. Фильтр должен пропускать частоты от 0 до
u 0 − u m − u M , где u M – максимальная частота в спектре модулирующего
информационного сигнала.
52
Теория информации и передачи сигналов
ak
a0
0
a1
a2
a3
a4
um u 0
2u0 3u0
u0 u m 2u0 u m
u0 um
2u0 u m
4u0
ak −1
ak
a k +1
ku 0
ku0 u m ku 0 u m
u
Рис. 2.15. Модуль спектра АИМ сигнала
Частоте u0 соответствует период T . Большие интервалы между импульсами используются для размещения импульсов других каналов, например,
при многоканальной передаче с временным разделением каналов. Длительность ∆x импульсов определяет полосу пропускания каналов.
Часто АИМ сигнал используется как модулирующий сигнал для создания
высокочастотных модулированных колебаний. Вначале формируют АИМ
сигнал, затем полученный АИМ видеосигнал используют для модуляции непрерывного высокочастотного переносчика, имеющего частоту много большую, чем u0 . После таких преобразований спектр сигнала θ( x) переносится
на частоту несущего высокочастотного колебания.
Цифровые методы модуляции
Цифровые виды модуляции используются для передачи кодированных сообщений дискретными методами. Сущность цифровой модуляции заключается в том, что передаваемый непрерывный сигнал дискретизируется во времени, квантуется по уровню и полученные отчеты, следующие в дискретные
моменты времени, преобразуются в кодовые комбинации. Полученной последовательностью кодовых видеосигналов модулируется высокочастотный
сигнал-переносчик.
Следовательно, цифровые методы модуляции основаны на трех необходимых преобразованиях полезных непрерывных сигналов: дискретизации,
квантовании и кодировании.
Достоинствами цифровых методов модуляции являются:
ƒ слабое влияние неидеальности и нестабильности характеристик аппаратуры на качество передачи информации;
2. Модуляция сигналов
53
ƒ высокая помехоустойчивость даже при использовании каналов с нестабильными характеристиками и большим уровнем шумов;
ƒ возможность регенерации (восстановления) сигналов в узлах связи сетей, что значительно ослабляет эффект накопления искажений сигналов
при передаче информации по линиям большой протяженности;
ƒ универсальная форма представления сигналов для различных сообщений
(речь, телевизионное изображение, дискретные данные, команды управления работой устройств связи и т.п.);
ƒ низкая чувствительность к нелинейным искажениям в групповом тракте
многоканальных систем;
ƒ относительно простое согласование этих систем с компьютерами и электронными автоматическими телефонными станциями, что играет важную роль для построения сетей связи;
ƒ возможность автоматизации передачи и обработки сигналов с помощью
компьютеров.
Основными недостатками систем с цифровыми способами передачи сигналов являются: значительное расширение занимаемой полосы частот каналов, необходимость обеспечения точной синхронизации сигналов и построения аппаратуры для регенерации сигналов на линиях большой протяженности.
В настоящее время наибольшее распространение получили системы с импульсной кодовой модуляцей (ИКМ), в которых значение сигнала в дискретные моменты времени преобразуется в двоичные цифровые коды.
На рис. 2.16 показаны временные диаграммы сигналов в системе с ИКМ.
На рис. 2.16,а представлены исходный непрерывный сигнал с ограниченным
спектром и дискретизированный сигнал с интервалом дискретизации
T < 1 2u M , где u M - верхняя частота спектра сигнала. На рис. 2.16,б показана
полученная в результате квантования и кодирования последовательность
двоичных видеоимпульсов. Из-за искажений сигналов и шумов в канале принятая видеопоследовательность (рис. 2.16,в) отличается от переданной. Выбирается пороговый уровень s0 , его превышение в моменты отсчета (стробирования) значения сигнала означает наличие импульса, а непревышение –
отсутствие импульса. С помощью формирующих устройств из принятой видеопоследовательности создается «очищенная» последовательность, которая
поступает на декодер. С выхода декодера импульсы, площадь которых равна
соответствующим импульсным отсчётам исходного сигнала (рис. 2.16,д), поступают на демодулятор, в простейшем случае на вход фильтра нижних частот, на выходе которого восстанавливается копия исходного непрерывного
сигнала рис. 2.16,д.
Для получения регенерированной кодовой последовательности отсчёты
принимаемого сигнала берутся в середине каждого тактового интервала
54
Теория информации и передачи сигналов
θ(x)
16
14
12
10
8
6
4
2
3
14
1
1
а)
8
4
4
2
5
x2
0 x1
x3
L
2
x5
x4
x
T
б)
s(x)
0 0 0 1 0 1 0 0
1
1
2
4
1 1 1 0 1 0 0 0
3
14
4
x
8
s(x)+n(x)
Порог S0
в)
0
s(x-L/2)
0
x
г)
x
θ(x)
16
14
10
8
6
4
2
д)
0
x
Рис. 2.16. Диаграммы сигналов в 4-разрядной системе ИКМ
2. Модуляция сигналов
55
длительностью L (рис. 2.16,б и в). Это делается для того, чтобы исключить
влияние на работу демодулятора запаздывания и фазовых искажений сигналов в канале связи. В результате регенерируемая последовательность «задержана» на L / 2 относительно переданной (рис.2.16,б и г). Правильное декодирование сигналов требует также, чтобы были приняты все разряды кодовой
комбинации. Из-за этого принятые отсчёты оказываются дополнительно задержанными относительно передаваемых на интервал дискретизации T (рис.
2.16,а и д).
Метод пороговой селекции сигналов на фоне помех часто не обеспечивает
требуемой помехоустойчивости и достоверности при приеме кодовых сигналов. Значительно более высокую помехоустойчивость обеспечивает применение метода согласованной фильтрации импульсных сигналов.
Проведем сравнительный анализ характеристик методов цифровой амплитудно-импульсной, импульсно-кодовой и фазоимпульсной модуляции при
использовании согласованных фильтров.
Цифровая амплитудно-импульсная модуляция
Предположим, что кодовое сообщение представляет собой последовательность двоичных трехразрядных чисел в качестве одиночных слов. Таким
образом, всего имеется 2 3 = 8 возможных слов. В описываемых далее системах каждому из 8 слов ставится в соответствии отдельный сигнал длительностью в три тактовых импульса 3L . В случае АИМ указанные восемь сигналов
имеют форму импульсов с восемью возможными значениями амплитуды как
показано на рис. 2.17. Максимальная амплитуда равна A , минимальная – 0,
остальные значения амплитуды равномерно распределены как кратные величине A 7 . Предположим, что указанный на рисунке сигнал θ(x) непосредственно передается по каналу. Спектр передаваемого АИМ сигнала имеет ширину 1 3L , обратно пропорциональную длительности импульса. Если предположить, что восемь уровней равновероятны, то нетрудно доказать, что
средняя мощность передаваемого АИМ сигнала равна Pср = 0,36 A 2 .
Предполагается, что напряжение на входе приемника представляет собой
передаваемый сигнал θ(x) с уменьшенной амплитудой (из-за ослабления в
канале) и искаженный аддитивной помехой n(x) . Для простоты будем считать, что n(x) – белый шум с постоянной спектральной плотностью G0 и что
ослабление в канале отсутствует.
56
Теория информации и передачи сигналов
Сообщение
0 0 1
1 0 1
A/7
5A/7
3L
0 1 1
1 1 1
7A/7
3A/7
9L
6L
12L
n(x)
x
θ(x)+n(x)
3L
6L
9L
12L
x
3L
“1”
6L
“5”
9L
“2”
(Ошибка)
12L
“7”
x
3L
6L
9L
12L
x
A
θˆ ( x)
θˆ ( xk )
A
Результат
приема
0 0 1
1 0 1
0 1 1
1 1 1
Ошибка
Рис. 2.17. Преобразование сигналов при цифровой АИМ
57
2. Модуляция сигналов
Чтобы восстановить кодовую последовательность, приемник усредняет
принимаемый сигнал θ( x) + n( x) в течение каждого интервала 3L . Это минимизирует влияние шума. Аналогичную операцию усреднения можно выполнить с помощью показанного на рис. 2.18 согласованного фильтра. Отклик
согласованного фильтра θˆ ( x) на полезный сигнал θ(x) в принимаемом колебании представляет собой сумму треугольников, показанных пунктирными
линиями на временной диаграмме рис. 2.17,д. Среднеквадратичное значение
отклика согласованного фильтра на шумовую составляющую n(x) равно
∞
< nr2 ( x) >= G0 ∫ h 2 ( x)dx = G0 3 L .
(19)
−∞
r ( x)
nr ( x )
( x) n( x)
Принятие
решения.
Генератор последовательности
Согласованный
фильтр
h(x)
к декодеру
Отсчеты на
интервалах
3L секунд
1 3L
0
Продетектированная
последовательность
3L
x
Рис. 2.18. Приемник АИМ сигнала с согласованным фильтром
Таким образом, величина каждой выборки на входе стробирующего устройства (рис. 2.18) состоит из суммы напряжения, равного амплитуде сигнала, т.е. A / 7 , 2A / 7 , K , 7 A / 7 , и напряжения шума со среднеквадратичным
значением
G0 3L . Для того, чтобы принимаемое решение о том, какой
уровень был передан на предыдущем интервале, имело высокую достоверность (низкую частоту ошибок), среднеквадратичное значение шума должно
быть мало по сравнению с разностями между уровнями, т.е. для АИМ
G0 3L << A 7 ,
или при условии Pср = 0,36 A
Pср L G0 >> 5,88 .
(20)
2
(средняя мощность передаваемого сигнала),
(21)
58
Теория информации и передачи сигналов
Это соотношение характеризует мощность передаваемого сигнала и скорость, с которой данная система может передавать двоичную информацию.
Таким образом, видно, что полоса пропускания обменивается на отношение
сигнал-шум. Этот важный принцип теории связи позволяет объяснить многие
свойства методов модуляции, например, преимущество ЧМ над АМ.
Импульсно-кодовая модуляция
Различие между импульсно-кодовой модуляцией (ИКМ) и АИМ показано
на рисунке 2.19. Каждый разряд двоичного числа передается в отдельности: 1
– импульсом длительностью L и амплитудой B , а 0 – отсутствием импульса.
Если 0 и 1 равновероятны, то средняя мощность передаваемого сигнала равна
Pср = 0,5B 2 , а его полоса составляет примерно 1 L . Следовательно, ИКМ
сигнал в рассматриваемом примере занимает в 3 раза более широкую полосу
по сравнению с АИМ сигналом, что является серьезным недостатком.
Приемник системы ИКМ аналогичен приемнику для АИМ сигнала с тем
отличием, что его согласованный фильтр должен иметь импульсную характеристику втрое меньшей длительности и в 3 раза более широкую полосу пропускания, как показано на рис. 2.20. В результате среднеквадратичное значение шумов на выходе приемника
< n 2r ( x) >= G0 L
(22)
в 3 раза выше по сравнению со значением для АИМ приемника. Это является
недостатком ИКМ сигнала. Однако разность между уровнями сигнала на входе устройства выборки ИКМ в приемнике равна максимальной амплитуде
сигнала B, а не 1 7 амплитуды, как в АИМ системе. Благодаря этому с запасом компенсируется повышенный уровень выходных шумов, поскольку для
достижения малой вероятности ошибок в ИКМ системе требуется выполнить
условие
G0 L << B
(23)
или, полагая 0,5B 2 = Pcp ,
Pcp L G0 >> 0,5 .
(24)
При одной и той же вероятности ошибок ИКМ система может иметь примерно в 10 раз меньшую мощность сигнала по сравнению с АИМ. При равных мощностях ИКМ система имеет гораздо лучшие характеристики.
59
2. Модуляция сигналов
Сообщение 0
n(x)
0
1
1
0
0
1
L 2L 3L
1
1
1
1
1
9L
6L
12L
x
θ(x)+n(x)
3L
6L
9L
12L
x
3L
6L
9L
12L
x
θˆ ( x)
θˆ ( xk )
Результат
приема
c
0
0
1
1
0
1
0
1
0
1
1
Ошибка
Рис. 2.19. Преобразование сигналов в ИКМ
1
x
60
Теория информации и передачи сигналов
Фазоимпульсная модуляция
Принцип фазоимпульсной модуляции иллюстрируется на рис. 2.21. По
своим характеристикам она превосходит рассмотренную ИКМ систему, но
этот выигрыш достигается за счет расширения полосы частот. В каждом интервале длительностью 3L передается один импульс с фиксированной амплитудой, но его длительность составляет всего 3L 8 и он находится в одном
из восьми временных положений. Таким образом, полоса указанного сигнала
равна 8 3L или в 8 раз превышает полосу АИМ сигнала и в 2,7 раз больше
полосы ИКМ сигнала. Средняя мощность сигнала составляет Pcp = 0,125C 2 .
h(x)
1/L
0
L
x
Рис. 2.20. Импульсный отклик согласованного фильтра протяженностью L для
ИКМ сигнала; протяженностью 3L/8 для ФИМ сигнала
Длительность импульсной характеристики согласованного фильтра составляет 3L 8 . Тогда среднеквадратическое значение выходного шума равно
< n 2r ( x) >= 8G0 3L , что намного больше по сравнению с ИКМ или АИМ. Од-
нако при этом значительно больше и разность между уровнями сигналов. Для
достижения низкой вероятности ошибок необходимо обеспечить выполнение
условия
8G0 3L << C
(25)
или, полагая Pcp = 0,125C 2 ,
Pcp L G0 > 0,33 .
(26)
Следовательно, ФИМ система обеспечивает такое же качество, как и ИКМ
при снижении на 1 3 средней мощности сигнала, но требуемая полоса частот
в этом случае расширяется в три раза. Таким образом, в смысле обмена полосы на соотношение сигнал-шум, ФИМ-система уступает ИКМ-системе.
61
2. Модуляция сигналов
Сообщение
0 0
1
1 0
1
c
θ(x)
3L
1⋅
8
3⋅
3L
5⋅
8
3L
n(x)
0 1
1 1
1
3L
8
7⋅
6L
1
3L
8
9L
12L
x
x
θ(x)+n(x)
3L
6L
9L
12L
x
θˆ ( x)
x
θˆ ( xk )
c
x
3L/8
Принятое
сообщение
0 0
1
1 0
1
0 1
0
Ошибка
Рис. 2.21. Преобразование сигналов в ФИМ
1 1
1
62
Теория информации и передачи сигналов
Дельта-модуляция
Эффективным способом преобразования сигналов в цифровую форму является дельта-модуляция, которая иллюстрируется рис. 2.22. В каждый момент отсчета сигнал сравнивается с пилообразным напряжением на каждом
шаге дискретизации δ. Если отсчет сигнала превышает по амплитуде пилообразное напряжение, то последнее нарастает до следующей точки дискретизации, в противном случае оно спадает. В простейшей системе наклон пилообразного напряжения сохраняется неизменным на всем протяжении процесса.
Полученный бинарный сигнал можно рассматривать как производную от пилообразного напряжения. Выбирая достаточно малым значение шага δ, можно получить любую заданную точность представления сигнала. Преимущество дельта-модуляции по сравнению, например, с ИКМ, которая также образует бинарный сигнал, заключается не столько в реализуемой точности при заданной частоте дискретизации, сколько в простоте реализации.
Информационный сигнал
Пилообразный сигнал
δ 2δ 3δ
x
Двоичный сигнал
δ 2δ 3δ
x
1 1 0 1 1 0 0 0 0 0 1 0 0 1 1 1 0 1 1 0
Рис. 2.22. Преобразование сигнала при дельта-модуляции
Пилообразное напряжение можно восстановить из бинарного сигнала путем интегрирования, а более гладкая аппроксимация достигается последующим пропусканием сигнала через фильтр нижних частот. Скорость передачи
цифровых кодов, необходимую для получения заданного качества, можно
значительно уменьшить, используя, например, линейное кодирование с предсказанием.
63
Теория информации и передачи сигналов
3. Каналы передачи информации
Каналы передачи информации предназначены для передачи сообщений от
источника к потребителю. При заданных характеристиках линий связи основными задачами являются анализ и синтез операторов преобразования сигналов на передающей и приемной стороне, которые определяются видом канала передачи информации.
3.1. Виды каналов передачи информации
По назначению каналы передачи информации подразделяются на телефонные, телеметрические, передачи цифровых данных и др. В зависимости от
характера линий связи различают каналы радиосвязи и каналы проводной
связи: кабельные, волноводные, волоконно-оптические и др. Наилучшими
характеристиками обладают кабельные линии связи, работающие в диапазоне
частот от сотен килогерц до десятков мегагерц.
Каналы радиосвязи различных частотных диапазонов во многих случаях
позволяют организовать дальнюю связь без промежуточных станций и поэтому являются более экономичными по сравнению с кабельными.
Наибольшее распространение в многоканальной телефонной и телевизионной связи получили наземные радиорелейные линии связи, работающие в
диапазоне частот от десятков мегагерц до десятков гигагерц.
Спутниковые линии связи по принципу работы представляют собой разновидность радиорелейных линий с ретрансляторами, установленными на
искусственных спутниках Земли, что обеспечивает дальность связи около
10000 км для каждого спутника. Диапазон частот спутниковой связи в настоящее время расширен до 250 ГГц, что обеспечивает повышение качественных показателей систем связи.
Переход на более высокочастотные диапазоны позволяет получить остронаправленное излучение при малых размерах антенн, уменьшить влияние
атмосферных и промышленных помех, организовать большое число широкополосных каналов связи.
По характеру сигналов на входе и выходе каналов различают дискретные,
непрерывные и дискретно-непрерывные каналы.
3.2. Информационные характеристики дискретных каналов
Пропускная способность канала C определяется как
C = Vmax H ,
(1)
3. Каналы передачи информации
64
где V – скорость передачи электрических кодовых сигналов, H – энтропия
сообщения.
Коэффициент использования канала
η = V C , 0 ≤ η ≤ 1,
(2)
так как 0 ≤ V ≤ C.
Идеальные дискретные каналы
Кодер обеспечивает преобразование предаваемых символов в электрические кодовые сигналы. В идеальном канале между элементами кодовых сигналов на входе и выходе существуют однозначное соответствие (ошибки в
канале отсутствуют). Скорость передачи информации равна производительности кодера
Cк = Vк H к [бит с] ,
(3)
где Vк = 1 L – скорость передачи элементарных кодовых сигналов [сигн./с],
H к – энтропия кодера [бит/сигн.], L – длительность элементарного кодового
сигнала.
Пропускная способность идеального канала
C = Vmax = Vк log mк ,
(4)
где mк – основание кода. Пропускная способность является предельной характеристикой канала. Если основание кода равно mк и для передачи одного
элементарного кодового сигнала необходимо время L, то для передачи кодовой комбинации длиной n сигналов потребуется время T = nL. Общее число
кодовых комбинаций длительностью T равно N (T ) = mкn . Следовательно,
максимальное количество информации в одной кодовой комбинации
H макс = n log mк . Пропускная способность равна
n log mк
= Vк log mк .
(5)
n→∞
nL
Таким образом, пропускную способность идеального дискретного канала
полностью определяет скорость передачи сигналов и основание кода.
Теорема Шеннона для идеального дискретного канала (без доказательства): если ошибки в дискретном канале отсутствуют, можно закодировать сообщение на выходе источника так, чтобы передавать информацию со средней
скоростью V, сколь угодно близкой к C. Передавать информацию с V > C невозможно.
Эта теорема служит теоретической основой для построения оптимальных
эффективных кодов. Если в процессе кодирования на выходе кодера обеспечить появление равновероятных независимых кодовых сигналов, то каждый
элементарный сигнал будет нести максимальное количество информации,
C = lim
65
Теория информации и передачи сигналов
производительность кодера будет максимальной и скорость передачи информации приблизится к пропускной способности канала.
Реальные дискретные каналы
В реальных каналах всегда имеются ошибки при передаче сообщений.
Ошибки приводят к уменьшению пропускной способности канала и потере
информации. Вероятности появления ошибок во многом определяются искажениями сигналов и влиянием помех.
Количество информации, которое содержит принятый символ относительно переданного или в более общем случае один символ относительно
другого находят с помощью формулы для вероятности совместного появления символов
(6)
P (ai , a ′j ) = P (ai ) P (a ′j ai ) = P (a ′j ) P (ai a ′j ) ,
где P(ai ) и P (a ′j ) – вероятности появления символов ai и a ′j , P (ai a ′j ) –
условная вероятность.
Обозначим принятый кодовый символ ak 2 , а переданный ai1 . Количество
информации, которое содержит принятый символ ak 2 относительно переданного ai1 определяется как
I (ak 2 , ai1 ) = log P(a k 2 , ai1 ) − log[ P(a k 2 ) P (ai1 )] =
= log
P (a k 2 , ai1 )
P (ai1 ak 2 )
P (ak 2 ai1 )
= log
= log
,
P (a k 2 ) P(ai1 )
P (ai1 )
P(ak 2 )
(7)
где P (a k 2 , ai1 ) – вероятность совместного появления символов ak 2 , ai1 ;
P (ai1 ) , P(ak 2 ) – вероятности появления ak 2 , ai1 ; P (ai1 ak 2 ) , P (ak 2 ai1 ) –
соответствующие условные вероятности. Если символы появляются независимо, то I (ak 2 , ai1 ) = log1 = 0 . Во всех остальных случаях один символ несет
информацию о другом и I (a k 2 , ai1 ) ≠ 0 .
Среднее количество принятой информации, которое приносит один символ, получим, усредняя (7) по всем i и k, а именно
m m
P(a k 2 , ai1 )
I (A 2 , A1 ) = ∑ ∑ P (ak 2 , ai1 ) log
.
(8)
(ai1 ) P (a k 2 )
P
i =1 k =1
Учитывая две формы записи дроби (7), получим две формы записи для количества информации
m
m
m
i =1
k =1
i =1
I (A 2 , A1 ) = − ∑ P (ai1 ) log P (ai1 ) + ∑ P (a k 2 ) ∑ P (ai1 a k 2 ) log P (ai1 a k 2 ) ,
(9)
3. Каналы передачи информации
66
m
m
m
i =1
k =1
i =1
I (A 2 , A1 ) = − ∑ P (a k 2 ) log P(a k 2 ) + ∑ P (a i1 ) ∑ P (a k 2 ai1 ) log P (a k 2 ai1 ) .
(10)
Выражения (9) и (10) можно записать более наглядно:
I (A 2 , A1 ) = H (A1 ) − H (A1 A 2 ) ,
(11)
I (A 2 , A1 ) = H (A 2 ) − H (A 2 A1 ) .
(12)
Смысл выражений (11), (12) следующий. Величина H (A1 ) – это энтропия
кодера, а величина H (A1 A 2 ) – это среднее количество информации, потерянное в канале из-за ошибок. Следовательно, соотношение (11) показывает,
что среднее количество принятой в одном символе информации можно вычислить как разность энтропий принятого сигнала и помехи. Соотношение
(12) используют чаще, так как оно позволяет определить I (A 2 , A 1 ) через
энтропию помехи, которую определить проще.
Скорость передачи информации в реальных каналах равна
V = Vк I (A1 , A 2 ). Используя две последние формулы, получим
V = Vк [ H (A1 ) − H (A1 A 2 )] = Vк [ H (A 2 ) − H (A 2 A1 )] .
(13)
Если ошибок нет, то H (A1 A 2 ) = H (A 2 A1 ) = 0 и формула (13) переходит в
формулу для идеального канала, когда V = Vmax .
Пропускная способность реальных дискретных каналов равна
C = max Vк [ H (A1 ) − H (A1 A 2 )] = max Vк [ H (A 2 ) − H (A 2 A1 )] ,
(14)
где операция отыскания максимума выполняется по всем способам передачи
и обработки сигналов.
Теорема Шеннона для реальных дискретных каналов (без доказательства):
если производительность источника сообщений меньше пропускной способности канала, сообщение можно закодировать в сигналы так, чтобы передавать информацию по дискретному каналу с помехами со сколь угодно малой
вероятностью ошибки.
Эта теорема является теоретической основой корректирующего кодирования. В ней утверждается, что существует такой код, использование которого
позволит обнаружить и исправить практически все ошибки. Задача заключается в отыскании и построении таких кодов.
Избыточность кодов и длина кодовых комбинаций в реальных
каналах
Установим взаимосвязь, которая должна существовать в реальных каналах
для обеспечения сколь угодно высокой верности передачи, между средней
длиной n0 кодовой комбинации, избыточностью кода rк и количеством
H (A1 A 2 ) информации, теряемой из-за помех.
67
Теория информации и передачи сигналов
Чтобы кодер успевал преобразовать каждый символ сообщения в кодовую
комбинацию со средней длиной n0 элементарных кодовых сигналов скорость
Vк передачи сигналов кодером должна быть в n0 раз выше скорости Vи передачи символов источником. Поэтому для безошибочного кодирования
должно выполняться условие
Vк = n0Vи .
(15)
Кроме этого условия должно выполняться условие отсутствия потерь информации при кодировании:
H и (A1 ) = n0 H (A1 ) .
(16)
Это условие определяет, что среднее количество информации H и (A1 ) , которое заключено в одном символе сообщения, должны переносить n0 символов
кодовой комбинации. С Учетом (16) избыточность кода для реальных каналов
определяется выражением
rк = 1 − H (A1 ) log mк = 1 − H и (A1 ) n0 log mк .
(17)
Условие теоремы Шеннона для реальных каналов с учетом (14) можно
представить в виде неравенства
Vи H и (A1 ) < Vк max[ H (A1 ) − H (A1 A 2 )]
или иначе
Vи H и (A1 )
< 1.
(18)
Vк max[ H (A1 ) − H (A1 A 2 )]
Из (15) и неравенства (18) получим
H и (A1 )
n0 >
.
(19)
max[ H (A1 ) − H (A1 A 2 )]
Из неравенства (19) следует практически важный вывод: с ростом среднего
количества информации H (A1 A 2 ) , теряемой в канале из-за помех, для
обеспечения сколь угодно высокой верности передачи информации должна
возрастать средняя длина кодовой комбинации.
Аналогичный вывод справедлив и относительно избыточности кода (17).
Если n0 растет, дробь в правой части (17) уменьшается, а значение rк увеличивается. Можно установить непосредственную связь между rк и
H (A1 A 2 ) . Так как max[ H (A1 ) − H (A1 A 2 )] = log mк − H (A1 A 2 ) , то неравенство (18) можно представить в виде
Vи H и (A1 ) < Vк log mк − Vк H (A1 A 2 ) .
(20)
Разделив обе части неравенства (20) на Vк log mк , получим
3. Каналы передачи информации
68
Vи H и (A1 )
H ( A1 A 2 )
< 1−
.
(21)
Vк log mк
log mк
С учетом (15), поменяв местами дроби в неравенстве, получим
1 − H и (A1 ) n0 log mк > H (A1 A 2 ) log mк .
Левая часть неравенства представляет коэффициент избыточности кода
(17). Следовательно, для обеспечения сколь угодно высокой вероятности передачи информации в реальных каналах должно выполняться неравенство
rк > H (A1 A 2 ) log mк .
(22)
Таким образом, для обеспечения сколь угодно высокой верности передачи
информации в реальных каналах с ростом потерь информации H (A1 A 2 ) изза помех должны возрастать средняя длина кодовой комбинации и избыточность кода.
Пропускная способность реальных каналов
Определим с помощью соотношения (14) пропускную способность реального двоичного симметричного канала без памяти. Предположим, что известна вероятность P0 появления ошибки в канале.
Определим значение max[ H (A 2 ) − H (A 2 A1 )] . Для двоичного канала
max H (A 2 ) = log 2 = 1 бит сигн. Условная энтропия H (A 2 A1 ) – это энтропия помехи, которая определяется по формуле условной энтропии двоичного
источника с коррелированным неравновероятными символами:
H (A 2 A1 ) = − P( a1 ) [ P(a1 a1 ) log P(a1 a1 ) + P(a 2 a1 ) log P(a 2 a1 )] −
(23)
− P( a 2 ) [ P( a 2 a2 ) log P(a 2 a2 ) + P(a1 a 2 ) log P(a1 a 2 )] .
Подставив значения условных вероятностей появления ошибок, получим
H (A 2 A1 ) = − P(a1 ) [(1 − P0 ) log(1 − P0 ) + P0 log P0 ] −
− P (a2 ) [(1 − P0 ) log(1 − P0 ) + P0 log P0 ] =
= −[ P (a1 ) + P(a 2 )] [(1 − P0 ) log(1 − P0 ) + P0 log P0 ] .
Так как по условию нормировки сумма вероятностей в первом сомножителе
равна единице, то
H (A 2 A1 ) = −[(1 − P0 ) log(1 − P0 ) + P0 log P0 ] .
(24)
Пропускная способность двоичного реального канала
C 2 = Vк [1 + P0 log P0 + (1 − P0 ) log(1 − P0 )] .
(25)
Анализ зависимости C2 ( P0 ) показывает, что в диапазоне изменений
P0 ∈ [0; 0,5] функция C 2 ( P0 ) является монотонно убывающей. При
69
Теория информации и передачи сигналов
P0 = 0,5, C2 ( P0 ) = 0 , это означает, что из-за высокого уровня помех в канале
кодовые сигналы на входе и на выходе канала становятся независимыми
(принимаемые сигналы не несут информации о передаваемых).
Пропускную способность m-ичного реального канала определяют аналогично
C m = Vк [log mк + P0 log P0 (mк − 1) −1 + (1 − P0 ) log(1 − P0 )] .
(26)
Из (26) как частный случай следует (25) при mк = 2 . Если P0 → 0 , то пропускная способность реального канала стремится к пропускной способности
идеального канала (4).
Средняя длина кодовых комбинаций в двоичном и m-ичном реальных каналах определяется неравенством (19):
H и (A1 )
n02 >
,
1 + P0 log P0 + (1 − P0 ) log(1 − P0 )
(27)
H и (A1 )
n0 m >
.
log mк + P0 log P0 (mк − 1) −1 + (1 − P0 ) log(1 − P0 )
Следовательно, минимальная средняя длина кодовых комбинаций в реальных
каналах определяется энтропией источника, основанием кода и вероятностью
появления ошибки в канале при передаче одного кодового сигнала.
Избыточность двоичного кода (см. (22)):
r2 > P0 log P0 + (1 − P0 ) log(1 − P0 ) ,
(28)
избыточность многопозиционного кода
P log P0 (mк − 1) −1 + (1 − P0 ) log(1 − P0 )
rm > 0
.
log mк
3.3. Критерии верности передачи дискретных сообщений
При известных характеристиках линий передачи информации важное значение имеют методы оптимального приёма сообщений, которые во многом
определяют достоверность и скорость получения информации.
Принято различать три задачи:
ƒ Обнаружение сообщения, когда требуется установить, имеется ли на
входе информационный сигнал и помеха или только помеха. Обнаружение сообщений осуществляется в асинхронных системах связи с пассивной паузой.
ƒ Различение сообщений, когда требуется определить, какое сообщение из
возможных (известных) сообщений передано. Различение сообщений
3. Каналы передачи информации
70
является важной операцией в синхронных системах связи с активной
паузой.
ƒ Восстановление сообщений, заключающееся в том, чтобы на основе
принятого искаженного сообщения получить истинное по заданному
критерию.
Поскольку сообщения передаются при помощи сигналов, решение перечисленных задач зависит от:
ƒ избыточности сообщений,
ƒ способа кодирования,
ƒ свойств сигнала-переносчика,
ƒ вида модуляции,
ƒ характеристик помех в канале,
ƒ способа демодуляции.
Общий анализ всех аспектов проблемы помехоустойчивости весьма сложен, поэтому её решение разбивают на отдельные этапы. Для этого используют априорную информацию и считают известными вид сигнала и характеристики помех в канале. Тогда задача анализа помехоустойчивости передачи
сообщений определяется прежде всего помехоустойчивостью приёма сигналов.
В любом случае оценка помехоустойчивости передачи сообщений основывается на выбранном (заданном) критерии, т.е. некоторой количественной
мере, характеризующей качество приёма информации.
Рассмотрим основные критерии верности передачи сообщений.
Критерий среднего риска
Обратимся к задаче различения сигналов.
Пусть при передачи используются m сигналов si ( x) , i = 1,..., m. Принятый
сигнал представляет собой сумму переданного полезного сигнала и помехи,
т.е.
ξ( x ) = si ( x ) + n ( x ) .
Обозначим p(ξ si ) многомерную плотность вероятности приёма случайной реализации ξ при условии, что был передан сигнал si . Требуется определить, какой именно (из m) сигнал был принят.
При различении сигналов используются методы статистических решений.
Многомерное пространство сигналов Ξ разбивают на m подпространств
Ξ i , i = 1,..., m . Тогда если ξ( x) ∈ Ξ i , то принимают решение, что был принят
сигнал si . Если на самом деле был передан другой сигнал s j , а сигнал ξ(x)
попал в Ξ i под действием помехи, то имеет место ошибка в передаче сообщения.
71
Теория информации и передачи сигналов
Запишем выражения для условных вероятностей правильного приема сигнала и вероятности ошибки:
P ( si si ) = ∫ p(ξ si ) dξ ,
(29)
Ξi
P ( s j s i ) = ∫ p ( ξ s i ) dξ ,
(30)
Ξj
где ξ – вектор, включающий все возможные реализации ξ(x) , и интегралы
являются многомерными.
Потери, которые возникают при ошибочном решении, что был принят
сигнал s j , когда на самом деле передавался si обозначим lij . Естественно
принять lii = 0, l ij ≥ 0 . Условный риск при передаче si есть
m
Ri = ∑ lij P ( s j si ) ,
(31)
j =1
т.е. определяется суммой вероятностей ошибок с учётом потерь lij .
Если P ( si ) – априорная вероятность передачи сигналов si или средняя
частота, с которой сигналы si передаются в канал, тогда средний риск при
передаче одного сигнала из m возможных равен
m
m m
m m
i =1
i =1 j =1
i =1 j =1
R = ∑ Ri P ( si ) = ∑ ∑ lij P ( si ) P ( s j si ) = ∑ ∑ lij P ( si ) ∫ p(ξ si ) dξ ,
(32)
Ξj
где P ( si ) P( s j si ) = P ( si , s j ) – безусловная вероятность.
Качество канала передачи сообщений тем выше, чем меньше средний риск
R в (32).
Критерий среднего риска является одним из наиболее общих. Это Байесовский критерий, поскольку он основан на априорно известных вероятности
P ( si ) передачи отдельных сигналов и условной вероятности p(ξ si ) на приемной стороне, что позволяет воспользоваться формулой Байеса в (32).
Оптимизация процесса передачи осуществляется за счёт выбора соответствующих сигналов и границ областей принятия решений, таких, чтобы выполнить условие R → min . При длительной эксплуатации канал, построенный согласно критерию минимума среднего риска будет наиболее «экономичным» из всех возможных, т.к. сумма штрафов за ошибки в нём минимальна.
Недостатками критерия являются требование исчерпывающего знания вероятностей сообщений и сложность установления (обоснования) потерь lij .
3. Каналы передачи информации
72
Критерий идеального наблюдателя
Пусть объективные данные для установления потерь lij отсутствуют. Тогда разумно стремиться к тому, чтобы различитель сигналов si ошибался как
можно реже, т.е. чтобы полная вероятность появления ошибки
m m
Pо = ∑ ∑ P ( si ) ∫ p(ξ si ) dξ → min .
i =1 j ≠ i
(33)
Ξj
Критерий идеального наблюдателя является частным случаем критерия среднего риска, когда lij = l = const при i ≠ j . При этом не учитывается различие
в последствиях отдельных ошибок и средний риск
R = lPо .
Минимизация среднего риска равносильна минимизации Pо . Вероятность
правильного приема сообщения
m
P = 1 − Pо = ∑ ∫ P ( si ) p(ξ si ) dξ → max .
i =1 Ξ i
Максимум достигается тогда, когда решение о том, что принятый сигнал
относится к области Ξ i , принимается при выполнении условия
(34)
p (ξ si ) P ( si ) > p ( ξ s j ) P ( s j ) , j ≠ i ,
где ξ, как и ранее, m – мерный вектор. Анализ m-1 условий (34) показывает,
что они равносильны алгоритму
max[ P ( s j ) p (ξ s j )] = P ( si ) p(ξ si ) ,
(35)
j
заключающемуся в том, что регистрируется тот сигнал si , для которого априорная вероятность максимальна.
Критерий минимума суммы условных вероятностей ошибок
В ряде случаев затруднение вызывает не только установление потерь lij ,
но и априорных вероятностей передачи сигналов si , когда характер потока
сообщений заранее не известен. При этом определить полную вероятность
ошибки нельзя, но можно установить равенство вероятностей передачи сигналов
P ( s i ) = 1 m = const .
После подстановки в формулу для среднего риска (31) с учётом соотношения
m m
Pо усл = ∑ ∑ P ( s j si )
i =1 j ≠ i
(36)
73
Теория информации и передачи сигналов
имеем
R = Pо усл m ,
(37)
поэтому условие R → min идентично условию Pо усл → min .
В частном случае различения двух сигналов (m = 2) и s1 = 0 задача сводится к обнаружению сигнала s 2 ≠ 0 на фоне шума.
Обозначим условные вероятности следующим образом: P = P(Yˆ N ) –
01
ошибка первого рода (ложное сообщение), P10 = P( Nˆ Y ) – ошибка второго
рода (пропуск сообщения).
Средний риск при обнаружении сообщения s 2 будет равен
R = P01[1 − P ( s 2 )] l01 + P10 P ( s 2 ) l10 .
Критерий Неймана-Пирсона
В ряде случаев стремятся уменьшить вероятность пропуска информационного сигнала, что обеспечивается при условии P ( Nˆ Y ) → min , реализуемом на практике на основе сравнения с пороговым (допустимым) уровнем
вероятности пропуска сообщения, т.е. P( Nˆ Y ) < Pп . Чтобы учесть также последствия ложного приёма сообщения, определяемого вероятностью
P (Yˆ N ) , вводится целевая функция вида P ( Nˆ Y ) + µP (Yˆ N ) , где µ – коэффициент, оптимизация которой позволяет построить системы по критерию Неймана-Пирсона.
В случае различения двух сигналов ( s1 = 0, s 2 ≠ 0) при равенстве слагаемых целевой функции запишем
[1 − P( s2 )] l01 = µP( s2 ) l10 ,
(38)
при этом условие среднего риска сводится к соотношению
R = P ( s 2 ) l10 [ P( Nˆ Y ) + µP (Yˆ N )] ,
(39)
где вероятности пропуска сообщения и ложного сообщения определяются в
форме
P( Nˆ Y ) = ∫ p(ξ Y ) dξ ,
(40)
Ξ1
P (Yˆ N ) = ∫ p(ξ N ) dξ .
(41)
Ξ2
Следовательно, критерий Неймана-Пирсона можно интерпретировать как
частный случай Байесовского критерия.
Для случая различения сигналов si , i = 1,..., m, используем соотношение
3. Каналы передачи информации
74
P ( s i ) p ( ξ s i ) = P ( s i ξ) p ( ξ) ,
(42)
где P ( si ξ) – апостериорная вероятность того, что передавался сигнал si при
условии принятого сигнала ξ, p(ξ) – безусловная плотность вероятности сигнала ξ. Согласно формуле Байеса,
P ( s ) p (ξ s i )
P ( s i ξ) = m i
.
(43)
∑ P ( s i ) p (ξ s i )
i =1
Условие максимума апостериорной вероятности есть
P ( si ξ) = max P ( s j ξ) .
j
В случае обнаружения сигнала ( s1 = 0, s 2 ≠ 0) должно выполняться условие
P (Y ξ) > P ( N ξ)
(44)
или
P (Y ) p (ξ Y ) > P ( N ) p (ξ N ) ,
(45)
p (ξ Y ) P ( N )
>
.
(46)
p (ξ N ) P(Y )
Левая часть неравенства (46) носит название отношения правдоподобия.
Правая часть в случае неизвестных вероятностей отсутствия и наличия сигнала также неизвестна, поэтому принимают, что отношение правдоподобия
должно быть выше заданного порогового значения Π. Таким образом, пространство Ξ реализаций ξ преобразуется в значения Π на числовой оси, так
что условные вероятности принять сигнал при условии его наличия или отсутствия выражаются в форме
p(ξ Y ) dξ = p(Π Y ) dΠ ,
(47)
p(ξ N ) dξ = p (Π N ) dΠ .
(48)
Поэтому при установленной границе Π 0 принятия решений
Π0
P ( Nˆ Y ) = ∫ p (ξ Y ) dξ = ∫ p (Π Y ) dΠ ,
Ξ1
∞
P (Yˆ N ) = ∫ p (ξ N ) dξ = ∫ p(Π N ) dΠ .
Ξ2
(49)
0
(50)
Π0
Структура оптимального приемника Неймана-Пирсона строится так, чтобы
выполнялось условие Π > Π 0 .
75
Теория информации и передачи сигналов
Критерий максимального правдоподобия
Плотность вероятности p(ξ si ) получения реализации при условии переданного сигнала si называется функцией правдоподобия. Наиболее правдоподобной гипотезой является та, для которой выполняется условие
p(ξ si ) = max[ p (ξ s j )] .
j
Таким образом, имеет место частный случай критерия идеального наблюдателя при P ( si ) = P ( s j ) = 1 m и достигается минимум суммы условных вероятностей ошибок.
Информационный критерий
Качество приёма сообщений можно определить сравнением количества
принятой I (A 2 , Α1 ) и переданной H (A1 ) информации в форме
I (A 2 , A1 )
H ( A1 A 2 )
= 1−
→ max .
(51)
H (A1 )
H (A1 )
Можно показать, что критерий (51) во многих случаях эквивалентен критерию идеального наблюдателя и критерию максимума апостериорной вероятности.
RI =
3.4. Когерентный и некогерентный прием дискретных
сигналов
Когерентный прием сигналов осуществляется при следующих условиях:
ƒ передаваемые сигналы s i ( x), i = 1, K , m, полностью известны,
ƒ канал связи имеет известные параметры,
ƒ помеха n(x ) носит аддитивный характер, имеет гауссовскую плотность
вероятности и известную спектральную плотность Gn ,
ƒ синхронизация сигналов является идеальной.
Представим реальный сигнал моделью
ξ( x ) = s i ( x ) + n ( x ) ,
(52)
где ξ(x) - m –мерный вектор, учитывающий все возможные передаваемые
сигналы s i (x) (для конкретного сигнала s i (x) (m-1) компонентов вектора
ξ(x) являются нулевыми). Требуется обеспечить оптимальное различение
сигналов s i (x) .
Сигналы si являются детерминированными и известными, поэтому плотность вероятности принятого сигнала ξ( x k ) , (k = 1,..., K ) , полностью опреде-
3. Каналы передачи информации
76
ляется K-мерной плотностью вероятности значений помехи p n (n) , т.е. функция правдоподобия есть
p (ξ s i ) = p n ( n) .
(53)
В случае гауссовской помехи
K


p(ξ s i ) = [1 (2πσ 2 ) K 2 ] exp − (1 2σ 2 ) ∑ n k2  ,
(54)
k =1


где σ 2 = G n ∆u , ∆u - ширина полосы частот, nk - отсчеты помехи. Энергия
помехи на интервале L равна
L
K
0
k =1
2
2
∫ n ( x)dx = (1 2∆u ) ∑ n k
(55)
или
K
L
L
k =1
0
0
(1 2σ 2 ) ∑ n k2 = (2∆u 2σ 2 ) ∫ n 2 ( x)dx = (1 Gn ) ∫ n 2 ( x)dx .
(56)
Поскольку
n ( x ) = ξ( x ) − s i ( x ) ,
то
L


p (ξ s i ) = [1 (2πσ 2 ) K 2 ] exp− (1 2G n ) ∫ [ξ( x) − s i ( x)] 2 dx) .
(57)
0


Алгоритм оптимального когерентного приема по критерию максимального правдоподобия состоит в получении максимального по i значения в выраL
i
жении (57). Это условие обеспечивается при ∫ [ξ( x) − si ( x)] 2 dx 
→
min .
0
Можно показать, что алгоритм обеспечивает в указанных условиях также
минимум полной вероятности ошибки и соответствует критерию идеального
наблюдателя.
Для двоичных сигналов (импульсов) имеются два варианта s1 ( x) или
s 2 ( x ) . При этом для их различения проверяется условие
L
L
0
0
2
2
∫ [ξ( x) − s1 ( x)] dx < ∫ [ξ( x) − s 2 ( x)] dx .
(58)
После раскрытия скобок получаем неравенство
L
L
1 L 2
2
(59)
∫ ξ( x) s1 ( x)dx − ∫ ξ( x) s 2 ( x)dx > [ ∫ s 1 ( x)dx − ∫ s 2 ( x)dx] ,
2
0
0
0
0
где в левой части записана разность корреляционных интегралов, а в правой –
разность энергии сигналов.
L
77
Теория информации и передачи сигналов
Блок-схема различения двух сигналов показана на рис. 3.1.
Модель s1
L
∫
0
Вход
ξ(t)
Cξ1
Cξ 2
да
s1 (t )
L
∫
0
нет
s2 (t )
Модель s 2
Рис. 3.1 Структурная схема алгоритма различения двух сигналов
Для различения сигналов si ( x), i = 1, K, m, одним из наиболее эфективных
методов является использование согласованных фильтров. Известно, что такие фильтры обеспечивают наибольшее отношение сигнала к шуму на выходе фильтра.
Согласованный фильтр дает сигнал на выходе
L
∫ ξ( x − χ)hi (χ)dχ
0
L
x=L
= ∫ ξ( L − χ) s i ( L − χ)dχ ,
(60)
0
где импульсный отклик фильтра hi (x) представляет собой обращенную копию сигнала si (x) . Поскольку принимаемые сигналы ξ(x) являются реализациями стационарного случайного процесса, значение интеграла (60) не зависит от сдвига аргументов подынтегральных функций и равен корреляционному интегралу
L
∫ ξ(t ) s i (t )dt = C ξi .
(61)
0
Для вычисления разности корреляционных интегралов C ξ1 − C ξ 2 в схеме
рис. 3.1. можно задать импульсный отклик согласованного фильтра в форме
3. Каналы передачи информации
78
h( x) = s1 (T − χ) + s 2 (T − χ)
и использовать только один фильтр вместо двух умножителей. Запуск фильтра обеспечивается схемой синхронизации когерентного приемника в момент
x=0 и снятия показаний в конце интервала L.
Вероятность ошибок при когерентном приеме
Если энергия разности двух различаемых сигналов Wd не превышает
энергии помехи на выходе согласованного фильтра, т.е.
L
L
0
0
2
2
∫ [ s 2 ( x) − s1 ( x)] dx < 2 ∫ n( x)[s1 ( x) − s 2 ( x)] dx ,
(62)
то имеет место ошибочный прием сигнала. Вероятность ошибок P0 , возникающая из-за влияния гауссовского шума, определяется интегрированием
гауссовской плотности вероятности p n (n) шума вида (54) в форме
P0 = ∫ p n (n)dn = 1 − Φ ( Wd 2G n ) ,
где Φ ( y ) = (2
y
2π ) ∫ exp(− z 2 2)dz , величина
0
(63)
S N = Wd 2G n характеризует
отношение сигнала к шуму. При заданном отношении S N вероятность
ошибочного приема можно найти из (63), используя табулированные значения функции Φ( y ).
Различение m-ичных сигналов
Условие различения сигналов выражается в виде
L
L
0
0
2
2
∫ [ξ(t ) − si (t )] dt < ∫ [ξ(t ) − s j (t )] dt ,
(64)
где i, j = 1, K , m, и представляют собой систему (m − 1) неравенств, которые
анализируются совместно.
Можно показать, что при аддитивной помехе и когерентном приеме с идеальной синхронизацией вероятность правильного приема равна
P = 1 − Pm = (1 − P0 ) m−1 ,
(65)
где P0 - вероятность единичной ошибки в канале, Pm - вероятность ошибки mичного приема. Поскольку P0 << 1 , по формуле бинома Ньютона запишем
Pm = (m − 1) P0 ≤ 1 .
(66)
Вероятность ошибки линейно возрастает с ростом m. Однако m-ичный символ несет в log 2 m раз большее количество информации. Сравнение m-ичного
79
Теория информации и передачи сигналов
и двоичного каналов следует вести при одинаковой скорости передачи и равных энергиях. Можно показать, что m-ичные системы имеют более высокую
степень помехоустойчивости, однако аппаратурно значительно более сложны.
Достоинствами методов когерентного приема сигналов является независимость помехоустойчивости от полосы пропускания и отсутствие необходимости фильтрации спектра входных сигналов.
Некогерентный прием
При некогерентном приеме моменты появления известного по форме сигнала (его фаза ε ) рассматриваются как значение случайной переменной. При
этом математическое ожидание функции правдоподобия можно выразить в
форме
π
< p (ξ si ) > = ∫ (1 2πσ 2 ) K / 2 exp{−(1 Gn ) ∫ [ξ( x) − si ( x )]2 dx} pε (ε)dε .
(67)
−π
Согласно критерию максимального правдоподобия, требуется обеспечить
i
выполнение условия < p(ξ si ) > 
→
max .
(68)
Можно показать, что оптимальный некогерентный приемник выделяет
огибающую взаимной корреляционной функции
L
i
Ai = ∫ ξ( x) s i* ( x)dx 
→
max .
(69)
0
Здесь сигналы ξ(x) и s (x) представлены в форме комплексных аналитических сигналов
ξ( x) = ξ c ( x) + jξ s ( x) ,
(70)
s ( x) = s c ( x) + js s ( x ) ,
(71)
где мнимые части связаны с действительными частями преобразованием
Гильберта. Сигналы (70) и (71) можно представить в полярных координатах в
виде
ξ( x) = ξ( x) exp{ jϕ ξ ( x)} ,
(72)
s ( x) = s ( x ) exp{ jϕ s ( x)} ,
(73)
причем фазы сигналов выражаются в форме
ϕ( x) = 2πu 0 x + ε( x) .
(74)
Выражение (69) справедливо в случае, когда модули функций (72) и (73)
и фаза ε(x) в (74) изменяются медленно по сравнению с периодом несущей 1 u 0 . Пример действительной части аналитического сигнала, показан на
рис.3.2.
3. Каналы передачи информации
s(x)
80
огибающая
0
x
Рис. 3.2 Пример изменения действительной части аналитического сигнала
Комплексные амплитуды сигналов (72) и (73) определяются выражениями
&ξ( x ) = ξ( x) exp{ jε ( x)} ,
(75)
ξ
s&( x) = s ( x) exp{ jε s ( x)}
(76)
и используются при оценке интеграла в (69).
3.5 Волоконно-оптические каналы передачи
информации.
Волоконно-оптические системы связи и передачи информации широко
применяются в технике дальней связи, кабельном телевидении и компьютерных сетях. Волоконно-оптические каналы передачи информации содержат
все элементы, характерные для систем связи, представленные схемой рис. 3.3,
и являются примером реализации каналов связи и передачи информации на
основе высоких технологий.
Достоинствами оптических кабелей по сравнению с электрическими являются возможность передачи большого потока информации, малое ослабление сигнала и независимость его от частоты в широком диапазоне частот,
высокая защищенность от внешних электоромагнитных помех, малые габаритные размеры и масса (масса оптических кабелей в 10 раз меньше электрических). Оптические кабели не требуют дорогостоящих материалов и изготавливаются, как правило, из стекла или полимеров.
В оптических системах передачи информации применяются в основном те
же принципы образования многоканальной связи, что и в обычных системах
передачи по электрическим кабелям, а именно частотного и временного разделения каналов. В первом случае сигналы различаются по частоте и имеют
аналоговую форму передаваемого сообщения. Во втором случае каналы
81
Теория информации и передачи сигналов
мультиплексируются во времени, и импульсы имеют дискретный вид. Это
соответствует цифровой передаче с импульсно-кодовой модуляцией (ИКМ).
Во всех случаях оптической передачи информации электрический сигнал,
формируемый частотным или временным методом, модулирует оптическую
несущую и затем передается по оптическому кабелю.
θ(x)
Задающее
устройство
(модулятор)
Фотоприемник
Источник
излучения
Усилитель
Элементы
согласования
оптическое
волокно
Выход
Фильтры
θˆ ( x)
Рис.3.3. Структурная схема волоконно-оптического канала передачи информации.
Возможны два вида модуляции: внутренняя и внешняя. При внутренней
модуляции электрический сигнал непосредственно воздействует на излучение источника (лазера), обеспечивая соответствующую интенсивность и
форму сигнала. При внешней модуляции используется специальное модулирующее устройство, с помощью которого осуществляется воздействие передаваемого сигнала на уже сформированный световой луч. Для систем с полупроводниковыми лазерами применяется, как правило, внутренняя модуляция.
В основном используется метод модуляции интенсивности оптической несущей, при котором от амплитуды электрического сигнала зависит мощность
излучения, подаваемого в кабель, и закон изменения мощности оптического
излучения повторяет закон изменения модулирующего сигнала. Частотная и
фазовая модуляция не могут быть применены непосредственно, поскольку изза шумового характера излучения полупроводниковых источников, работающих в оптическом диапазоне, сигнал не является строго синусоидальным.
Тем не менее, эти виды модуляции в принципе могут быть реализованы путем изменения соответствующих параметров сигнала, модулирующего интенсивность излучения.
Выбор метода модуляции интенсивности излучения для оптических систем обусловлен также простотой реализации передачи и приема сигнала. При
передаче используется полупроводниковый лазер, который обеспечивает непосредственное преобразование электрического сигнала в оптический, сохра-
3. Каналы передачи информации
82
няя его форму. Для повышения эффективности ввода оптического сигнала в
кабель (снижения потерь) в схеме рис. 3.3 используются элементы согласования. Поступающий из кабеля оптический сигнал преобразуется в оптическом
приемнике в электрический сигнал, который поступает для дальнейших преобразований в электронную схему. Прием осуществляется фотодетектором,
выходной ток которого пропорционален входной мощности. Следовательно,
подавая оптический сигнал непосредственно на фоточувствительную поверхность фотодетектора, можно преобразовать его в электрический сигнал сохраняя его форму.
Оптические системы передачи являются, как правило, цифровыми. Это
обусловлено тем, что передача аналоговых сигналов требует высокой степени
линейности промежуточных усилителей, которую трудно обеспечить в оптических системах. Особенность оптических цифровых методов состоит в том,
что передача ведется только однополярными импульсами электрического
сигнала, модулирующего оптическую несущую. Последнее объясняется тем,
что модулируется не амплитуда, а мощность оптического излучения.
Таким образом, наиболее распространенной волоконно-оптической системой связи является в настоящее время цифровая система с временным разделением каналов и ИКМ интенсивности излучения источника. Двухсторонняя
связь осуществляется по двум волоконным световодам. По одному световоду
передаются сигналы в направлении А-Б, по другому в направлении Б-А. В
обоих направлениях сигналы передаются на одной и той же оптический несущей (например, имеющей частоту υ = 2,3 ⋅1014 Гц, соответствующую длине волны λ=1,3 мкм).
Источники и приемники излучения должны быть взаимно согласованными с кабелем. Для этого необходимо, чтобы:
ƒ длина волны излучения находилась в области малого затухания кабеля;
ƒ диаграмма направленности излучения источника соответствовала апертурному углу выбранного световода;
ƒ фотоприемник имел достаточную чувствительность;
ƒ соблюдалось соответствие между скоростью передачи информации и
шириной спектра излучения источника.
Следует иметь в виду, что в связи с сильно выраженными дисперсионными свойствами оптического кабеля приходящие на фотодетектор импульсы
могут перекрываться, поэтому требуется использовать специальные алгоритмы оптимального приёма. Для подавления межсимвольной интерференции
применяют фильтры (выравниватели), которые располагают после фотодетектора и усилителя. Последующую часть электрической схемы оптимизируют для приема импульсов без межсимвольной интерференции.
Расширение импульсов при передачи их по оптическому кабелю эквивалентно их прохождению через четырехполюстник с частотной характеристи-
83
Теория информации и передачи сигналов
кой, спадающей в области высоких частот. Для ее выравнивания применяют
фильтры, значение коэффициента передачи которых с частотой возрастает,
что приводит также к увеличению уровня шума. Поэтому характеристику
выравнивателя подбирают как компромисс между снижением межсимвольной помехи и возрастанием уровня шумов (связанных с фотодетектированием
и усилением) по минимальному уровню требуемой световой мощности на
входе фотодетектора.
Весьма перспективно применение спектрального уплотнения, при котором
в волоконный световод вводится одновременно излучение от нескольких источников, работающих на различных оптических частотах, а на приемной
стороне с помощью оптических фильтров происходит разделение сигналов.
За счет спектрального уплотнения возможна передача значительно большего
объема информации по одному волоконному световоду и организация по нему двухсторонней связи.
Частотное разделение каналов
На рис. 3.4 показан пример распределения частот несущих в сверхширокополосной системе с частотным разделением каналов. Десять несущих частот распределены с частотным интервалом 100 ГГц в каждой группе несущих. Полоса каждой группы соответствует полосе пропускания оптического
разделяющего фильтра 2 ТГц.
На рис. 3.5 показана схема разделения несущих на n гетеродинных приемников. Если оптический разделитель мощности не имеет частотной селекциии, то все сигналы будут иметь заметные потери разделения. Разработаны
оптические периодические разделяющие фильтры с разделением 10 ГГц (или
даже 5 ГГц), на основе интерферометра Маха-Цендера.
Идея использования несимметричного интерферометра Маха-Цендера в
качестве многоволнового мультиплексора/демультиплексора иллюстрируется
на рис. 3.6, где показаны принципиальная схема 4-волнового оптического
разделителя и его спектральные характеристики. Этот принцип может быть
распространен и на более сложные разделители: 8- или 16 волновый. Волоконно-оптический эквивалент классического интерферометра Маха-Зендера
показан на рис. 3.7.
3. Каналы передачи информации
84
Оптическое разделение
200
205
210
ГГц
211
ГГц
100 ГГц
209
210
Рис. 3.4. Распределение спектра несущих в системе
со спектральным разделением
ФД
Д
1
ЛД1
Оптический
разделитель
мощности
ФД
2
ФД
n
ЛД2
ЛДn
Рис. 3.5. Схема регистрации мощности оптического сигнала
в гетеродинном приемнике с частотным разделением каналов.
ФД – фотодиоды, ЛД – гетеродины (лазерные диоды),
УПЧ – усилитель промежуточной частоты,
Д – детекторы электрических сигналов
85
Теория информации и передачи сигналов
А
Б
а)
f1
f2
f3
f4
Рис. 3.6. Принципиальная схема (а) и частотные характеристики (б) 4-волнового
мультиплексора/демультиплексора на основе волоконно-оптических интерферометров Маха-Цендера
Когерентный приём и демодуляция оптических сигналов
Когерентный приём оптических сигналов, в частности, гетеродинный или
гомодинный, позволяет перенести спектр информационного сигнала в об-
3. Каналы передачи информации
86
ласть промежуточных (вплоть до СВЧ диапазона) и низких частот. Тем самым обеспечивается эффективная обработка и выделение сигналов, а также
перенастройка в широкой области частот, занимаемой многоканальными оптическими системами передачи со спектральным уплотнением. Кроме этого,
соответствующим выбором мощности гетеродина удается подавить все шумы, кроме дробового шума гетеродина. Это обстоятельство позволяет обеспечить максимальное отношение сигнал-шум на приемной стороне.
Вход
Направленный
соеденитель
Фотодиоды
Рис. 3.7 Волоконно-оптический аналог классического симметричного
интерферометра Маха-Цендера
В практике конструирования когерентных оптических систем передачи
информации, как правило, используются цифровые методы передачи. При
обработке цифровых сигналов на промежуточной частоте используют хорошо разработанные в радиотехнике схемы и устройства цифровой демодуляции: синхронную и несинхронную демодуляции АМн, ЧМн и ФМн сигналов.
Гетеродинный приём оптических сигналов
При гетеродинном приёме оптическое электромагнитное поле полезного
сигнала суммируется с оптическим полем местного гетеродина (когерентного
источника излучения со сдвигом частоты) на фоточувствительной площадке
фотодетектора.
Суммарное электрическое поле определяется выражением
E ( x) = E1 exp( j 2πυ1 x) + E2 exp( j 2πυ2 x) ,
(77)
где E1 , E 2 – комплексные амплитуды полезного оптического сигнала и сигнала гетеродина соответственно, υ1 , υ 2 – оптические частоты, x – независимая переменная (время).
Интенсивность регистрируемого поля равна
2
2
2
I ( x) = E ( x) = E1 + E 2 + 2 E2 E1 cos[2π(υ 2 − υ1 ) x + ϕ 2 − ϕ1 ] ,
(78)
где ϕ1 , ϕ 2 – начальные фазы колебаний. Выходной сигнал фотодетектора,
пропорциональный интенсивности поля (3.2), определяется в форме
s ( x) = s0 + s m cos[2πu 0 x + ∆ϕ] ,
(79)
где u 0 = υ 2 − υ1 – частота «биений», ∆ϕ – разность фаз.
87
Теория информации и передачи сигналов
Таким образом, выражение (79) определяет сигнал на «промежуточной»
частоте u 0 , равной разности частот оптических колебаний, причём
u 0 << υ1 , υ 2 .
На рис. 3.8 показана схема устройства гетеродинного приёма.
Оптический
соединитель
Входной
сигнал
1
Фотодетектор
u0
Полосовой
фильтр
Выход
приемника
Сигнал ПЧ
2
Местный
гетеродин
(лазер)
Рис. 3.8. Схема гетеродинного приема
Гомодинный приём оптических сигналов
При гомодинном методе приема используется принцип оптического гетеродинирования, однако в отличие от гетеродинного приемника, частоты колебаний несущей и местного гетеродина должны быть одинаковыми
( υ1 = υ 2 ), а фазы синхронизированы.
Входной
сигнал
Оптический
соединитель
1
Фотодетектор
Световод
2
ФНЧ
1
Местный
гетеродин
(лазер)
Рис. 3.9. Схема гомодинного приёмника
Выход
приемника
3. Каналы передачи информации
88
Сигнал фотодетектора при этом зависит только от разности фаз колебаний, а именно
s ( x) = s0 + s m cos(∆ϕ).
(80)
При АМн фазы равны ( ϕ1 = ϕ 2 ) и передаче символа «1» соответствует
большой уровень напряжения, передаче символа «0» – значение сигнала, равное нулю.
При ФМн фаза сигнала ϕ1 изменяется и принимает значение 0 и π рад.
Соответственно изменяется разность фаз ∆ϕ и значения сигнала (80).
На рис. 3.9 иллюстрируется схема гомодинного приёма.
Методика инженерного расчета волоконно-оптических систем
При инженерном расчете волоконно-оптического канала передачи информации предусматриваются следующие этапы:
1. Выбор системы передачи и определение полосы частот или скорости передачи информации.
2. Выбор типа и конструкции оптического кабеля.
3. Выбор источника излучения, определение его параметров.
4. Выбор фотоприемника, определение его параметров.
5. Определение энергетической характеристики системы.
6. Расчет потерь в линейном тракте.
7. Расчет запаса мощности сигнала.
8. Расчет быстродействия системы.
9. Анализ характеристик системы.
На первом этапе расчета определяют скорость передачи информации и
выбирают систему передачи, обеспечивающую получение требуемых числа
каналов и дальности связи. Затем анализируют сигналы, передаваемые по
каналу. В цифровых системах выбирают наиболее оптимальный код и способ
модуляции.
На втором этапе осуществляется выбор оптического кабеля, наиболее
полно удовлетворяющего требованиям системы по своим физикомеханическим, массо-габаритным и стоимостным характеристикам.
Третьим этапом расчета является выбор источника излучения. Для увеличения срока службы излучателей уменьшают пиковую мощность, так как работа излучателя при повышенных токах накачки ускоряет процесс его деградации.
Тип фотоприемника (лавинный или p-i-n фотодиод) определяют исходя из
требований, предъявляемых к системе. При этом стремятся, чтобы фотоприемник имел максимальную чувствительность в рабочем диапазоне длин волн.
Требуемую чувствительность приемника обычно определяют, исходя из заданных значений скорости передачи информации или полосы частот ∆u.
89
Теория информации и передачи сигналов
Три следующих этапа расчета связаны с энергетическим расчетами. В начале определяют потери в волоконном световоде. Если система имеет сложную топологию, то следует учитывать потери во всех участках оптического
кабеля. Указанные значения определяются коэффициентом затухания кабеля
α. Учитываются также потери при вводе излучения оптического источника в
световод. Эти потери часто являются основным фактором при решении вопроса об использовании в кабелях оптических жгутов или волокон, выборе
числовой апертуры световода.
Следует учесть потери в кабельных разъемах и соединениях. Поскольку
неразъемные соединения имеют меньшие потери, габаритные размеры и более высокую надежность, чем разъемные, как правило, стараются сократить
число разъемных соединений.
В зависимости от условий эксплуатации должен быть предусмотрен определенный допуск изменений параметров системы при изменениях температуры окружающей среды. Во многих случаях в приемных и передающих модулях канала вводятся схемы температурной компенсации. Кроме этого, должен
предусматриваться запас по мощности сигнала в расчете на возможное ухудшение параметров компонентов (источников излучения, фотодетекторов, волоконных световодов и др.) во времени.
При выбранной элементной базе определяют быстродействие системы.
После этого с учетом запаса на неточность паспортных данных элементов
рассчитывают реальное быстродействие системы. Полученное значение сравнивают с допустимым быстродействием. Повысить быстродействие можно
при использовании оптических волокон с меньшей дисперсией. Одним из
возможных способов снижения дисперсии является переход от многомодовых волоконных световодов со ступенчатым изменением показателя преломления n по радиусу к градиентным и одномодовым световодом или переход
от длин волн λ = 0,8...0,9 мкм к λ ≥ 1,3 мкм , при этом возможна взаимная
компенсация дисперсий в материале и при распространении волн в одномодовых световодах, что обеспечивает минимальную дисперсию в кабеле.
Другим возможным способом обеспечения требуемого качества системы
является передача необходимого объема информации не по одному световоду, а по нескольким с меньшими скоростями передачи или использованием
спектрального уплотнения – передачей того же объема информации по двум
или нескольким спектрально-разнесенным каналам, работающим с меньшей
скоростью передачи (широкополосностью). Выбор одного из указанных вариантов решений определяется наличием технических устройств, реализующих такие системы, и экономических оценок.
Величина длины ретрансляционного участка ограничивается либо энергетическим запасом, либо временными параметрами (быстродействием) системы. В первом случае можно ослабить требования к быстродействию излуча-
3. Каналы передачи информации
90
телей и приемников, а также к дисперсии в световодах; во втором случае
можно ослабить требования к чувствительности приемника, мощности, излучаемой источником, типу передаваемого сигнала (например, выбору кода),
потерям в кабеле и разъемах.
Длина регенерационных участков может быть ограничена из-за шумов перераспределения мод лазеров, шумов, обусловленных отражением, модовых
шумов в системах с многомодовым световодом. Указанные ограничения
принципиально устранимы. Если в качестве излучателей выбран светоизлучающий диод (оптическая мощность мала и ширина спектра велика из-за некогерентности излучения), то трудности, вызываемые когерентными явлениями, такие как описанные ранее шумы, при этом устраняются. Спектральные свойства обычных многомодовых лазеров близки к свойствам светодиодов.
Волоконно-оптические ретрансляторы
На рис. 3.10 представлена структурная схема волоконно-оптического
ретранслятора для системы с ИКМ. Искаженный и ослабленный оптический
сигнал, после того как он пройдет по оптическому волокну, поступает на фотодиод, где происходит его преобразование в электрический сигнал. Малошумящий усилитель усиливает принимаемый сигнал. Эквалайзер компенсирует влияние приемника и дисперсию волокна, уменьшая межсимвольные
помехи. Если дисперсия в системе ограничена, то при помощи эквалайзера
можно увеличить расстояние между ретрансляторами. Эквалайзер не требуется, если главной задачей является сохранение оптической мощности. Устройство для восстановления сигнала состоит из компаратора сигнала, цепей
восстановления отметки времени и формы сигнала, задающего устройства и
источника излучения.
Регенератор должен воспроизводить нужную форму импульса. Эта операция осуществляется с использованием обратной связи, которая реагирует
на выходной сигнал. Автоматическая цепь регулирования усиления корректирует изменения уровней входного сигнала, коэффициента усиления и температуры в лавинном фотодиоде. Чтобы воспроизвести нужную последовательность световых импульсов, необходимо обеспечить подачу периодически
повторяющего сигнала времени, который синхронизируется с интервалами
временных каналов принимаемых импульсов. Такой сигнал времени может
формироваться из выходного сигнала приемного устройства путем использования синхронизированного по фазе сигнала цепи восстановления отметки
времени, как это показано на рис. 3.10. Изменения в характеристиках импульса могут привести к флуктуациям фазы сигнала времени, что в свою очередь
может вызвать к накопление суммарной ошибки на выходе. Для того, чтобы
цепь фазовой синхронизации была надежной, следует определить оптималь-
91
Теория информации и передачи сигналов
ное соотношение между требованиями, предъявляемыми к фильтру с узкой
полосой пропускания в цепи фазовой синхронизации, и способностью стабилизировать модулированную по фазе составляющую сигнала.
3
2
1
4
5
6
7
8
9
10
16
17
15
14
13
11
12
Рис. 3.9 Структурная схема ретранслятора оптической системы ИКМ
1 – блок подачи напряжения; 2 – волокно; 3 – вход; 4 – фотодиод;
5 – усилитель блока ВЧ; 6 – эквалайзер; 7 – основной усилитель;
8 – блок восстановления отметки времени;
9 – блок автоматической регулировки усиления; 10 – фильтр;
11 – амплитудный детектор; 12 – компаратор (анализатор); 13 – логический блок;
14 – задающее устройство; 15 – источник излучения; 16 – выход; 17 - волокно
Основные преимущества когерентной волоконно-оптической системы
связи состоят в следующем.
ƒ Выигрыш в чувствительности по сравнению с наиболее широко используемым методом с модуляцией интенсивности излучения оптического
источника и прямым детектированием оптического сигнала, который составляет 12..20 дБ и зависит от схемы модуляции-демодуляции и параметров фотодетекторов. Это преимущество позволяет довести длину
участков линий когерентной волоконно-оптической связи до
100..200 км.
ƒ Возможность использования вместо ретрансляторов полупроводниковых
оптических усилителей и световодов с потерями менее 1дБ/км позволяет
организовать линии связи длиной до 10 4 км с расстояниями между оптическими усилителями 40..60 км.
ƒ Чрезвычайная узкополосность лазерных излучателей, присущая когерентным методам связи, снимает ограничение на длину линий связи, накладываемые дисперсией в световоде. Единственным параметром, ограничивающим длину линии, остаются потери в линейном тракте.
3. Каналы передачи информации
92
ƒ Возможность использования когерентной модуляции – фазовой и частотной – обеспечивающих высокую помехоустойчивость.
ƒ Уплотнение по оптической частоте с очень точным разделением несущих в приемнике.
97
Библиография
1.
Р. Хартли. Передачи информации. /В кн.: Передача информации и ее
применение. - М. : Физматгиз, 1959.
2. В. А. Котельников. Теория потенциальной помехоустойчивости. - М. :
Госэнергоиздат, 1956.
3. К. Шеннон. Работы по теории информации и кибернетике. - М : Иностранная литература, 1963.
4. В.Б. Гнеденко, И. Н. Коваленко. Введение в теорию массового обслуживания. - М. : Наука, 1987.
5. А. Вальд. Последовательный анализ. - М : Физматгиз, 1960.
6. Д. Миддлтон. Введение в статическую теорию связи. - М. : Советское
радио, 1962.
7. Справочник по прикладной статистике. В 2-х томах/Под ред. Э.Ллойда,
У.Лидермана. -М.: Финансы и статистика, 1989.
8. Дж. Бендат, А. Пирсол. Применения корреляционного и спектрального
анализа. -М.: Мир, 1983.
9. Радиотехнические системы / Под ред. Ю.М. Казаринова.-М.:Высшая
школа, 1990.
10. Ж. Макс. Методы и техника обработки сигналов при физических измерениях. В 2-х томах. -М.: Мир, 1983.
11. У.М. Сиберт. Цепи, сигналы, системы в 2-х тт - М. : Мир, 1988.
12. А. Г. Шереметьев. Когерентная волоконно-оптическая связь. - М. : Радио
и связь, 1991.
Descargar