2.Сигнал как случайный процесс
Виды и модели сигналов.
В широком смысле слова под сигналом понимают материальный носитель информации. В современных системах передачи информации используются электрические сигналы. Физической величиной, определяющей такой сигнал, является ток или напряжение. Как лучше передать электрический сигнал? По физическим законам излучение электромагнитных волн эффективно, ее размеры излучателя соизмеримы с длиной излучаемой волны, поэтому передача сигналов по радиоканалам, кабелям, микроволновым линиям производится на высоких частотах (т. е. на весьма коротких волнах). Сигнал передается на «несушей» частоте. Процесс изменения тех или иных параметров несущей в соответствии с сигналом, передаваемым на этой несущей
называются модуляцией
u(t) = Urectτ (t - ∆t) sin(ωt- φ0),
где U— амплитуда;. Т—длительность;
∆t — временное положение; со — частота;
φ0 — начальная фаза;
U u(t) u(t)
∆t ∆t τ
Слева - Электрический сигнал.Справа - Синусоидальное колебание
На рис. 14.1 в качестве примера изображен электрический сигнал в виде видеоимпульса единичной амплитуды, а также модулированное по амплитуде этим сигналом синусоидальное колебание!
Данное колебание (радиоимпульс) можно записать в виде:
В общем случае у этого колебания (рис. 14.1 б) можно изменять в соответствии с передаваемым сообщением любой из его параметров: при изменении амплитуды получаем амплитудно-модулированный сигнал (AM), если изменить частоту или фазу, то соответственно частотно-модулированный (ЧМ) и фазо-модулированный (ФМ) сигналы.
При изменении длительности получим широтно-импульсную модуляцию, изменяя временное положение — время-импульсную модуляцию.
Н τ u(t) u(t)
При AM символу «1» соответствует передача колебания в течение времени т (посылка), символу «0» — отсутствие колебания (пауза). При ЧМ передаче колебания с частотой ω, соответствует символ «1», а с частотой ω0— «0».
Наиболее помехоустойчивой является фазовая модуляция или манипуляция (ФМн). Это объясняется «амплитудным» характером воздействующих помех, и такой параметр, как фаза несущей, менее других параметров подвергается этому воздействию.
При ФМн меняется фаза колебания на 180° при каждом переходе от символа «1» к «0» и от «0» к «1». Такое геометрическое представление сигналов позволяет легко понять, почему ФМн сигнал с двумя значениями фазы оказывается наиболее помехоустойчивым. Дело в том, что приемник при приеме сигналов решает задачу: в какой из областей решения находится сигнал (верхней или нижней, рис. 14.3 а). В том случае, когда область принятия решения состоит только из двух частей, вероятность ошибки наименьшая. Однако если двухкратная манипуляция переносит один сигнал, то 4-кратная переносит сразу два сигнала (рис. 14.3 б), 8-кратная — четыре сигнала (рис. 14.3 в).
Рис. 14.3 Фазовые диаграммы 2-кратной (а), 4-кратной (б) и 8-кратной (в) фазовой манипуляции
Преобразование сообщения в электрический сигнал осуществляется с помощью различных датчиков, называемых преобразователями сообщений. Так, например, при передаче речи это преобразование выполняет микрофон, при передаче изображения — электронно-лучевая трубка. Сигнал на выходе преобразователя сообщения, как было отмечено выше, называют первичным сигналом. В большинстве случаев первичный сигнал является низкочастотным колебанием и не может быть передан на большие расстояния. Поэтому для передачи первичного сигнала на большие расстояния его преобразуют в высокочастотный сигнал. Для этой цели в системах передачи информации предусмотрены специальные устройства — модуляторы.
Если бы передаваемое сообщение для получателя заранее было известно с полной достоверностью, то передача его не имела бы никакого смысла, как несодержащая информации. Сообщения, вырабатываемые источником, следует рассматривать как случайные события, а сигналы, соответствующие этим сообщениям, — как случайные функции.
В процессе передачи сигнала он искажается случайной помехой. Все это обусловило необходимость в теории систем передачи информации использовать аппарат математической теории вероятности.
Основными параметрами сигнала являются длительность сигнала Т и ширина спектра. Любой сигнал имеет начало и конец. Поэтому длительность сигнала определяет интервал времени Т, в пределах которого сигнал существует.
Спектром сигнала как временной функции u(t) называется совокупность его гармонических составляющих (гармоник), образующих ряд Фурье:
(14.2)
Где f1 – частота повторения сигнала (или частота первой гармоники);
K – номер гармоники.
Кроме ряда (14.2), широко используется ряд:
(14.3)
(14.4)
- амплитуда;
(14.5)
фаза гармоник (косинусоид).
Применяются также ряды с синусоидами под знаком суммы. Коэффициенты Фурье определяются выражениями: (14.6)
Т= 1/f1— период повторения сигнала (периодической функции) u(t).
Для нахождения коэффициентов (14.6) и (14.7) используют формулы численного интефирования:
(14.8)
(14.9)
где шаг, с которым расположены абсциссы u(t).
Рассмотрим в качестве примера сигнал в виде периодической последовательности прямоугольных импульсов длительностью т и амплитудой T, следующих с соо=2л/Г Отношение Т/т называется
скважностью импульсов. Для данного сигнала
u(t) τ T
t1 t2 t3 t
Рис 14.4 Сигнал в виде периодической последовательности
прямоугольных импульсов
Спектр такого сигнала содержит бесконечное количество убывающих по амплитуде гармоник (рис. 14.5). Он характеризуется следующими свойствами:
-
форма огибающей спектра описывается функцией
-
амплитуда гармоник Ск имеет нолевое значение в точках к/τ, к=1,2,...;
-
в области частот спектра от 0 до 1/т (Гц) располагаются Т/τ -1 гармоник;
-
постоянная составляющая сигнала равна u0τ/T
ω
Рис. 14.5 Спектр периодической последовательности прямоугольных импульсов
Диаграмма спектра фаз данного сигнала представлена на рис. 14.6.
Рис. 14.6 Диаграмма спектра фаз
Найденные по (14.8) и (14.9) коэффициенты Фурье приближают u(t) рядом (14.2) или (14.3) с наименьшей среднеквадратической погрешностью. На рис. 14.7. представлен сигнал (периодическая последовательность прямоугольных импульсов со скважностью Т/τ = 2), полученный путем суммирования нескольких первых членов ряда Фурье.
Рис 14.7 Получение сигнала путем суммирования его гармоник
Полученная последовательность импульсов отличается от прямоугольных в основном недостаточно высокой крутизной фронтов. Крутизна фронтов импульсов определяется наличием в их спектре составляющих с частотами, многократно превышающими основную частоту. Таким образом, ширина спектра сигнала дает представление о скорости изменения сигнала.
Хотя спектр сигнала конечной длительности неограничен, однако для любого сигнала можно указать диапазон частот, в пределах которого сосредоточена его основная энергия. Этим диапазоном и определяется ширина спектра сигнала. Так, для импульсных сигналов большая часть энергии сосредоточена в области частот от 0 до 1/τ поэтому ширина спектра ∆F периодического импульсного сигнала приблизительно оценивается по формуле ∆F = 1/τ (Гц).
Для речевого сигнала при телефонной связи ширина спектра ограничивается полосой от 300 до 3400 Гц.
Объемом сигнала называют величину V = Р∆FТ, где Р — мощность сигнала, Вт;
∆F — ширина его спектра, Гц;Т— время передачи сигнала, с. Произведение длительности сигнала Т на его полосу ∆F называют базой сигнала В: В = ∆FТ. Если база сигнала порядка единицы, то такие сигналы называют узкополосными. При В » 1 сигналы называют широкополосными.
Сигналы могут быть непрерывными (аналоговыми) и дискретными. Сигнал считают дискретным по данному параметру, если число значений, которое может принимать этот параметр, конечно (или счетно). Если параметр сигнала может принимать любые значения в некотором интервале, то сигнал называют непрерывным по данному параметру.
Сигнал, дискретный по одному параметру и непрерывный по другому, называют дискретно-непрерывным.
В соответствии с этим существуют следующие разновидности математических представлений (моделей) детерминированного сигнала:
■ непрерывная функция непрерывного аргумента, например непрерывная функция времени (рис. 14.8 а);
■ непрерывная функция дискретного аргумента, например функция, значения которой отсчитывают только в определенные моменты времени (рис. 14.8 б);
■ дискретная функция непрерывного аргумента, например функция времени, квантованная по уровню (рис. 14.8 в);
■ дискретная функция дискретного аргумента, например функция, принимающая одно из конечного множества возможных значений (уровней) в определенные моменты времени (рис. 14.8 г).
u(t)
Рис. 14.8 Виды сигналов
Так как источник сообщений выдает каждое сообщение с некоторой вероятностью, то предсказать точно изменения значения информативного параметра невозможно. Следовательно, сигнал принципиально представляет собой случайное колебание и его аналитической моделью может быть только случайный процесс, определяемый вероятностными характеристиками.
Сигнал как случайный процесс
Случайный процесс может быть задан ансамблем возможных его реализаций (рис. 14.9) с вероятностью появления той или иной реализации. Каждая из реализаций случайного процесса может быть сопоставлена сигналу, несущему информацию об 1-м сообщении из ft, возможных сообщений, вырабатываемых источником.
Значение случайного процесса в момент времени t = t1 является случайной величиной.
Рис. 14.9 Ансамбль реализации случайного процесса
Эту случайную величину называют сечением случайного процесса. Возможные значения случайной величины в сечении
t = t1 соответствуют мгновенным значениям сигналов в данный момент времени. Любая случайная величина характеризуется одномерной плотностью вероятности
W(u, t1) = W(u1)
Одномерная плотность вероятности описывает вероятностные свойства случайного процесса лишь для одного момента времени и не несет никакой информации, например, о скорости изменения случайного процесса, т. е. о связи между двумя случайными величинами для сечений t= t1 и t = t2.
Связь между значениями случайного процесса в моменты времени t, и t2 учитывается двумерной плотностью вероятности W(u, t1, u, t2) или W(u1, u2). Наиболее полной характеристикой процесса является n-мерная плотность вероятности W(u1, u2...un).
Нахождение n-мерной плотности для случайного процесса в большинстве случаев затруднено, поэтому на практике используют числовые характеристики случайного процесса —математическое ожидание mu, дисперсию и корреляционную функцию К(τ), где τ = t2 — t1 — интервал времени между сечениями случайного процесса.
Большинство случайных процессов являются стационарными в том или ином смысле. Применительно к теории сигналов и помех, действующих в радиотехнических системах передачи информации, случайные процессы удовлетворяют условию не только стационарности, но и эргодичности.
Для эргодического процесса характерно, что числовые характеристики процесса (математическое ожидание, дисперсия, корреляционная функция), вычисленные путем усреднения по ансамблю процесса и вычисленные по одной (любой) из его реализации путем усреднения по времени, совпадают.
Если считать, что реализация случайного процесса соответствует сигналу и представляет собой ток или напряжение, то:
а) математическое ожидание
(14.10)
есть постоянная составляющая сигнала;
б) дисперсия
(14.11)
это мощность переменной составляющей сигнала, выделяемая на сопротивлении в 1 Ом, или удельная мощность переменной составляющей сигнала, в то время как величина
(14.12)
это удельная мощность всего сигнала.
Корреляционная функция (КФ) рассматриваемого процесса может быть вычислена в соответствии с выражением:
(14.13)
а центрированная КФ
(14.14)
Из выражения (14.13) видим, что корреляционная функция при τ = 0 равна среднему квадрату сигнала, его удельной средней мощности, а центрированная Ku(o) — дисперсии сигнала .
При корреляционная функция. На практике часто используют нормированную корреляционную функцию р(τ), определяемую как
(14.15)
Следует отметить, что корреляционная функция является функцией четной, т. е.
р(τ) = -р(-τ).
На рис. 14.10 показаны примеры корреляционных функций.
Рис. 14.10 Корреляционные функции
Для сигналов как случайных процессов наряду с понятием корреляционной функции широко используется понятие энергетического спектра.
Отдельная реализация случайного процесса — конкретный сигнал ui(t) есть детерминированная неслучайная функция времени. Она имеет свой энергетический спектр Su1(f), физический смысл которого — распределение удельной энергии сигнала в полосе частот сигнала.
Энергетический спектр случайного процесса связан с его корреляционной функцией парой преобразований Фурье:
(14.16)
(14.17)
Заметим, что чем шире энергетический спектр, тем быстрее флюктуирует случайный процесс, тем уже его корреляционная функция. И наоборот, чем шире корреляционная функция, тем медленнее флюктуирует процесс, тем уже его энергетический спектр.
Средняя удельная мощность случайного процесса может быть определена через корреляционную функцию и его энергетический спектр:
(14.18)
- Введение
- Лекция №1. Информация и информатика.
- 1.Понятие информации, информационные процессы и системы.
- 2.Информационные ресурсы и технологии.
- 3.Структура информатики и её связь с другими науками.
- Информационные системы и технологии
- Лекция №2 .Количество и качество информации.
- 1.Меры информации.
- 2.Качество информации.
- 3.Виды и формы представления информации в информационных системах.
- Лекция №3.Системы счисления
- Лекция №4.Представление числовой информации в цифровых автоматах.
- Лекция №5.Представление информации в эвм
- 1.Представление символьной информации в эвм.
- 2.Представление графической информации.
- 3.Представление звуковой информации.
- Лекция №6.Основы элементной базы цифровых автоматов
- 1. Логические элементы
- 2. Основы построения логических элементов
- 3. Элементы интегральных схем
- Лекция №7. Основные понятия алгоритма
- 1. Алгоритм и его свойства
- 2. Форма записи алгоритмов
- 3. Базовые алгоритмические структуры
- Лекция №8.Алгоритмические системы
- 1. Машины Тьюринга.
- 2. Нормальные алгоритмы Маркова.
- 3. Операторные системы алгоритмизации.
- Лекция № 9.Компьютерная обработка информации.
- Основные понятия.
- Поколения эвм.
- Классификация средств обработки информации.
- Генерация запроса
- Входные сообщения
- Анализ запросов
- Лекция №10. Организация процессорных устройств обработки информации.
- 1.Общая структура процессорных устройств обработки информации и принципы фон Неймана
- 2. Обобщенная структура эвм
- 3. Принципы преобразования аналоговой информации в цифровую
- 1) Информация кодируется в двоичной форме и разделяется на единицы (элементы) информации, называемые словами.
- 2) Разнотипные слова информации хранятся в одной и той же памяти и различаются по способу использования, но не по способу кодирования.
- 3) Слова информации размещаются в ячейках памяти и идентифицируются номерами ячеек, называемыми адресами слов.
- 5) Выполнение вычислений, предписанных алгоритмом, сводится к последовательному выполнению команд в порядке, однозначно определяемом программой.
- 3) Процессорная память (пп) состоит из Сисциализированных ячеек памяти называемых регистрами. Пп используется для кратковременного хранения, записи и выдачи информации.
- Лекция №11. Хранение информации.
- 1.Классификация запоминающих устройств.
- 2.Контроль правильности работы запоминающих устройств.
- Лекция №12. Внешние запоминающие устройства.
- 1.Накопители на гибких магнитных дисках.
- 2.Накопители на жестких магнитных дисках.
- 3.Накопители на оптических и магнитооптических дисках.
- Лекция №13.Система передачи информации, основные понятия.
- Лекция №14.Теория сигналов. Виды и модели сигналов.
- 1.Виды и модели сигналов
- 2.Сигнал как случайный процесс
- Математические модели сигналов и помех
- Лекция №15.Контроль передачи информации.
- 1. Основные способы контроля передачи информации.
- 2. Принципы помехоустойчивого кодирования.
- 3. Сжатие информации.
- Циклические коды
- Лекция №16. Информационные сети.
- 1. Классификация информационных сетей.
- 2. Способы коммутации данных.
- 3. Эталонная модель взаимодействия открытых систем.
- 2. В зависимости от топологии соединений узлов различают сети шинной (магистральной), кольцевой, звездной, иерархической, произвольной структуры.
- 3. В зависимости от способа управления различают сети:
- 1) Коммутация каналов (circuit switching);
- 2) Коммутация сообщений (message switching);
- 3)Коммутация пакетов (packet switching).
- Лекция №17. Угрозы безопасности информации.
- 1. Непреднамеренные угрозы безопасности информации
- 2. Преднамеренные угрозы безопасности информации
- 1) Электромагнитные
- 2) Электрические
- 3) Индукционные.
- Лекция№18.Обеспечение достоверности, сохранности и конфиденциальности информации в автоматизированных системах.
- 1.Обеспечение достоверности информации
- 2.Обеспечение сохранности информации
- 3.Обеспечение конфиденциальности
- 1)Непосредственно логической (математической) обработки
- 2)Контроля
- 3)Исправления ошибок.
- Системные и административные методы обеспечения достоверности.