При низкой оригинальности работы "Расчет и анализ основных характеристик простой дискретной системы связи", Вы можете повысить уникальность этой работы до 80-100%
При выполнении работы идет расчет основных характеристик простых дискретных систем связи и их анализ, углубленное ознакомление с теорией передачи информации, и освоение основных принципов и методов: форматирования - преобразования сообщения источника в цифровой сигнал; Для дискретной случайной величины , принимающей одно из трех значений с вероятностями , записать ряд распределения и функцию распределения, привести соответствующие графики и найти следующие числовые характеристики: математическое ожидание и СКО, математическое ожидание модуля , , , , . Математическое ожидание случайной величины : Математическое ожидание : Математическое ожидание : Математическое ожидание : Математическое ожидание : Математическое ожидание минус : СКО: Ответы: Полученные данные занесены в таблицу 1.2. Математическое ожидание случайной величины : СКО: Математическое ожидание минус : Ответы: Полученные данные занесены в таблицу 1.4. Решение: 1.1 Производительность (мощность) источника или мощность создания информации (энтропия источника): или 1.2 Энтропия на выходе канала: или 1.3 Энтропия системы двух случайных величин: 1.4 Скорость передачи информации по каналу (средняя взаимная информация): или 1.5 Скорость потери информации в канале (ненадежность канала): или 1.6 Скорость создания ложной информации в канале: или Ответы: Полученные результаты занесены в таблицу 2.2.Курсовая работа была посвящена расчету и анализу основных характеристик простой дискретной системы связи для передачи сообщений. Изучены принципы и методы передачи информации по каналам связи.
Введение
Базовой дисциплиной для бакалавров по направлению 210700 «Инфокоммуникационные технологии и системы связи» специальностей «Системы радиосвязи и радиодоступа» является «Общая теория связи».
Содержание курсовой работы охватывает значительную часть дисциплины и направлено на закрепление и более глубокое усвоение теоретических знаний, полученных в течение семестра.
При выполнении работы идет расчет основных характеристик простых дискретных систем связи и их анализ, углубленное ознакомление с теорией передачи информации, и освоение основных принципов и методов: форматирования - преобразования сообщения источника в цифровой сигнал;
кодирования источника (или эффективного кодирования) - сжатия информации для экономии ресурсов систем передачи информации;
кодирования канала (или помехоустойчивого кодирования) - введения регулярной избыточности, для устранения ошибок.
Работа состоит в виде четырех индивидуальных заданий, которые в свою очередь содержат задачи по определенным темам. Задачей первой работы является качественное освоение дисциплин предыдущих курсов, так как нет смысла приступать, к изучению курса, не вспомнив хотя бы основные понятия теории вероятностей.
Вторая работа направлена на изучение методов сжатия данных, а также знакомству с информационными характеристиками источников сообщений и каналов связи, в общем, на решение одной из больших проблем теорий передачи информации - избыточности сообщений для достижения максимальной скорости передачи.
Целью третьей работы является борьба с ошибками при передаче информации. Освоение основных принципов кодирования канала. Идеи эти легче всего рассматривать на примере линейно-блочных кодов, что и приведены в данной работе.
И наконец, четвертая работа нацелена на способы обработки импульса, который при заданных характеристиках сигналов и помех обеспечивал минимум полной вероятности ошибки. Это и есть главный критерий качества приема в цифровой системе передачи информации.
Самостоятельное и сознательное решение всех поставленных задач обеспечивает подготовку к успешной защите курсовой работы и сдаче экзамена. цифровой сигнал кодирование регенерация
1. Индивидуальное задание 1
1.1 Задача 1. Вероятностное описание символа
Для дискретной случайной величины , принимающей одно из трех значений с вероятностями , записать ряд распределения и функцию распределения, привести соответствующие графики и найти следующие числовые характеристики: математическое ожидание и СКО, математическое ожидание модуля , , , , .
Исходные данные: Вариант 19. Исходные данные представлены в таблице 1.1.
Таблица 1.1 - Исходные данные
Решение: Ряд распределения заданной дискретной случайной величины:
Многоугольник распределений данного ряда показан на рисунке 1.1.
Рисунок 1.1 - Многоугольник распределений
Функция распределения определяется как
Для данного случая, при
График функции распределения изображен на рисунке 1.2.
Рисунок 1.2 - График функции распределения
Математическое ожидание случайной величины :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание минус :
СКО:
Ответы: Полученные данные занесены в таблицу 1.2.
Таблица 1.2 - Результаты вычисления ( )
0,9 3,09 3,06 10,36 3 1,53 22,3
1.2 Задача 2. Вероятностное описание двух символов
Два символа и имеют возможные значения и соответственно. Задана матрица совместных вероятностей с элементами . Найти: ряд распределения случайной величины , а также . Повторить то же при каждом из условий и , то есть определить условные ряды распределения и числовые характеристики случайной величины .
Исходные данные: Вариант 19. Исходные данные представлены в таблице 1.3.
Таблица 1.3 - Исходные данные
N
19 3 9 0,16 0,04 0,47 0,33
Решение: Закон распределения вероятностей двумерной случайной величины :
0,16 0,04
0,47 0,33
Безусловный ряд распределения случайной величины :
0,63 0,37
Условный ряд распределения при :
0,8 0,2
Условный ряд распределения при :
0,59 0,41
Математическое ожидание случайной величины :
СКО:
Математическое ожидание минус :
Ответы: Полученные данные занесены в таблицу 1.4.
Таблица 1.4 - Результаты вычисления ( )
0,63 0,37 0,8 0,2 0,59 0,41
5,22 2,9 1,65 12,77
1.3 Задача 3. АЦП непрерывных сигналов
-разрядный АЦП рассчитан на входные напряжения в интервале и проводит квантование во времени с шагом . Записать последовательность, состоящую из 5 двоичных комбинаций на выходе АЦП, если на вход поступает сигнал , для . Найти среднеквадратическую величину ошибки квантования по уровню для данного сигнала , и затем ее теоретическое значение , где - шаг квантования по уровню.
Полученные двоичные комбинации представить в форме целых неотрицательных десятичных чисел , например .
Построить графики функции и погрешности восстановления сигнала .
Теоретические сведения: Цель аналого-цифрового преобразования (АЦП) - заменить непрерывный сигнал последовательностью символов. АЦП осуществляется в два этапа: дискретизация по времени и квантование по уровню. Обратное преобразование (ЦАП) также проводится в два этапа: формирование импульсов, соответствующих каждой цифре, и преобразование серии импульсов-отсчетов в непрерывный сигнал при помощи ФНЧ с прямоугольной частотной характеристикой. При этом восстановить исходный сигнал удается лишь с некоторой погрешностью.
Исходные данные: Вариант 19. Исходные данные представлены в таблице 1.5.
Таблица 1.5 - Исходные данные
Решение: Число интервалов по напряжению для 4-х разрядного АЦП:
Рисунок 1.3 - Дискретизация сигнала
Шаг квантования по уровню:
Дискретизация по времени входного сигнала с шагом :
Процесс дискретизации показан на рисунке 1.3.
Номер интервала, который в свою очередь переводится в двоичный код, находится по формуле:
в нашем случае, сигнал на выходе АЦП:
Таким образом, приемник получает лишь номер интервала и по нему восстанавливает исходный сигнал.
Сигнал восстанавливается по формуле:
Восстановление оцифрованного сигнала:
Погрешность восстановления сигнала (ошибка квантования) определяется по формуле:
1.4 Задача 4. Нормальные случайные величины
Система случайных величин имеет нормальное распределение , которое характеризуется вектором-строкой математических ожиданий и ковариационной матрицей . Найти: , коэффициент ковариации ; значение условного СКО и математического ожидания ; - наиболее вероятное значение при заданном ; значение
Теоретические сведения: Из законов распределения системы двух случайных величин имеет смысл рассмотреть нормальный закон (часто называют законом Гаусса), как имеющий наибольшее распространение на практике.
Этот закон играет исключительно важную роль в теории связи (и не только). Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.
Исходные данные: Начальные условия даны в таблице 1.7.
Таблица 1.7 - Исходные данные
N
19 0,4 1,31 0,17 0,63 0,31 2,33
Решение: СКО:
Коэффициент ковариации:
При , случайные величины являются линейно зависимыми.
Перед тем как найти условное СКО, рассмотрим условный закон распределения:
В общем случае плотность нормального распределения двух случайных величин выражается формулой:
А плотность распределения случайной величины :
То есть величина подчинена нормальному закону с центром рассеивания и средним квадратическим отклонением .
Тогда условный закон распределения:
Нетрудно убедиться, что
Для нахождения условного математического ожидания, преобразуем выражение условной плотности к виду:
Очевидно, центр рассеивания данного распределения:
2 Индивидуальное задание 2
2.1 Задача 1. Информационные характеристики источника и канала
Статистические свойства совокупности сигналов на входе ( ) и выходе ( ) канала с шумом определяются матрицей совместных вероятностей, заданной в задаче 2 индивидуального задания 1. Определить информационные характеристики источника и канала, а именно: производительность (мощность) источника, скорость передачи и скорость потери информации в канале, скорость создания в канале ложной информации, энтропию на выходе канала в расчете на один символ и в единицу времени. Бодовая скорость в Бод определяется номером студента в объединенном списке.
Теоретические сведения: Информационные характеристики источников сообщений и каналов связи позволяют установить пути повышения эффективности систем передачи информации, и, в частности, определить условия, при которых можно достигнуть максимальной скорости передачи сообщений по каналу связи.
Исходные данные: Вариант 19.
Рисунок 2.1 - Структурная схема: m - основание кода;
По условию задания известна матрица совместных вероятностей (таблица 2.1).
Таблица 2.1 - Матрица совместных вероятностей
Согласно номеру варианта бодовая скорость равна .
Решение: 1.1 Производительность (мощность) источника или мощность создания информации (энтропия источника):
или
1.2 Энтропия на выходе канала:
или
1.3 Энтропия системы двух случайных величин:
1.4 Скорость передачи информации по каналу (средняя взаимная информация):
или
1.5 Скорость потери информации в канале (ненадежность канала):
или
1.6 Скорость создания ложной информации в канале:
или
Ответы: Полученные результаты занесены в таблицу 2.2.
Таблица 2.2 - Полученные результаты ( )
2.2 Задача 2. Блоковое кодирование источника
Статистические свойства троичного источника без памяти определяются рядом распределения, заданного в задаче 1 индивидуальной работы 1.
Определить энтропию источника и его избыточность.
Произвести блоковое кодирование источника блоками по два символа двоичными кодами Хаффмана, Шеннона-Фано и равномерным кодом.
Сравнить коды по эффективности.
Определить вероятности появления 0 и 1 в последовательностях символов на выходе кодеров.
Теоретические сведения: Сообщение на выходе любого реального источника информации (текст, речь, изображение и т.д.) обладает избыточностью. Эффективное кодирование (кодирование источника) осуществляется с целью повышения скорости передачи информации и приближения ее к пропускной способности канала за счет уменьшения избыточности. Поэтому перед тем, как проводить какие-то преобразования сообщения, лучше от этой избыточности избавиться.
Избыточность при побуквенном кодировании может оказаться слишком большой. Причины - неравномерное распределение вероятностей и наличие статистической зависимости между буквами. В этом случае осуществляется кодирование блоков, содержащие буквы, то есть каждая буквенная комбинация рассматривается как символ нового алфавита источника и производится эффективное кодирование известными методами.
Исходные данные: Вариант 19.
Таблица 1.3 - Ряд распределения
Известен ряд распределения (таблица 2.3).
Рисунок 1.2 - Структурная схема
M - основание алфавита; m - основание кода;
Решение: 2.2.1 Определение энтропий источника и его избыточности
Максимальная энтропия источника:
Энтропия источника:
Избыточность источника:
2.2.2 Блоковое кодирование источника по два символа
Длина блока равен 2.
Объем нового алфавита:
Всевозможные комбинации в блоке и их вероятности даны в таблице 2.4.
Таблица 2.4 - Варианты комбинации в блоке и их вероятности
Комбинация Вероятность
Полная вероятность: Энтропия кодера:
Минимальная возможная длина кода:
2.2.2.1 Код Шеннона-Фано
Алгоритм кода Шеннона-Фано (рисунок 2.3, таблица 2.5): Буквы алфавита сообщений вписываются в таблицу в порядке убывания вероятностей - упорядочивание алфавита;
Алфавит разделяется на две приблизительно равновероятные группы - дробление алфавита;
Всем буквам верхней половины в качестве первого символа приписывают 1, а всем нижним - 0;
Процесс повторяют до тех пор, пока в каждой подгруппе останется по одной букве;
Записывают код.
Рисунок 2.3 - Кодирование алгоритмом Шеннона-Фано
Таблица 2.5 - Кодирование алгоритмом Шеннона-Фано
I II III IV Код
(1) (1)
(0) (1)
(0)
(0) (1) (1)
(0)
(0) (1) (1)
(0)
(0) (1)
(0)
Код Хаффмана
Алгоритм кода Хаффмана: Буквы алфавита сообщений также вписываются в столбец в порядке убывания вероятностей;
Две последние буквы объединяются в одну вспомогательную букву, которой приписывается суммарная вероятность - укрупнение алфавита;
Буквам верхней группы присваивают значение 1, а нижней - 0;
Процесс продолжают до тех пор, пока не останется единственная вспомогательная буква с вероятностью, равной единице.
Процесс кодирования удобно графически иллюстрировать при помощи горизонтально расположенного дерева (слева - ветви, справа - корень, рисунок 2.4), у которого всегда две ветви объединяются в одну, более крупную. Объединяемые ветви обозначаются двоичными цифрами: верхняя - 1, нижняя - 0. Чтобы записать кодовое слово, соответствующее данной букве, нужно двигаться к ней от корня дерева и считывать эти двоичные цифры.
Рисунок 2.4 - Кодовое дерево метода Хаффмана
2.2.2.3 Равномерный код
Средняя длина кодового слова:
то есть
Таблица 2.6 - Равномерное кодирование
Комбинация Вероятность Код
2.2.3 Сравнение кодов по эффективности
2.2.3.1 Анализ кода Шеннона-Фано
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.3.2 Анализ кода Хаффмана
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.3.3 Анализ равномерного кода
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.4 Вероятности появления «0» и «1»
2.2.4.1 Вероятности появления на выходе «0» и «1» у кода Шеннона-Фано
Средняя длина единиц:
Вероятность появления «1»:
Вероятность появления «0»:
Полученные данные занесены в таблицу 2.7.
2.2.4.2 Вероятности появления на выходе «0» и «1» у кода Хаффмана
Средняя длина единиц:
Вероятность появления «1»:
Вероятность появления «0»:
Полученные данные занесены в таблицу 2.7.
Искать вероятности появлении нуля или единицы у равномерного кодирования нет смысла, так как осуществляется произвольный выбор кода.
Таблица 2.7 - Сравнение кодов
Код Шеннона-Фано Код Хаффмана Равномерный код
Эффективность источника:
Вывод
Курсовая работа была посвящена расчету и анализу основных характеристик простой дискретной системы связи для передачи сообщений. Изучены принципы и методы передачи информации по каналам связи. Рассмотрены вопросы математического описания сообщений, сигналов и каналов связи, кодирования и декодирования, основы теории информации, анализ помехоустойчивости каналов связи, методы помехоустойчивого кодирования, оптимального приема дискретных сообщений, основы цифровой обработки сигналов, вопросы оптимизации.
Основные результаты теории информации имеют вид неравенств, то есть, они определяют предельные, потенциальные характеристики систем передачи информации. Любая теория информации оперирует лишь вероятностными характеристиками сигналов и является математической теорией. Поэтому она универсальна, то есть может быть применена к любым сигналам независимо от их физической формы.
В заключение следует отметить, что никакое методическое руководство не может заменить посещения лекций и систематической самостоятельной работы с учебником и дополнительной литературой.
Список литературы
1 Бернгардт, А.С. ТЭС-14 Ч 5 (6, 7.1, 10): электронные презентации PDF / А.С. Бернгардт. - Томск: Томский государственный университет систем управления и радиоэлектроники.
2 Теория и техника передачи информации: учебное пособие / Ю.П.Акулиничев, А.С.Бернгардт. - Томск: ЭЛЬКОНТЕНТ, 2012. - 210с.
3 Булгаков, Р.В. Индивидуальное задание №3 / Р.В. Булгаков. - Томск: Томский государственный университет систем управления и радиоэлектроники, 2013. - 4 с.
4 Дамдинжапов, Э.Ц. Тетрадь по лекционным занятиям / Э.Ц. Дамдинжапов - Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. - 48 л.
5 Дамдинжапов, Э.Ц. Тетрадь по практическим занятиям / Э.Ц. Дамдинжапов - Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. - 48 л.
6 Вентцель, Е.С. Теория вероятностей: учебник для студ. вузов / Е.С. Вентцель. - 10-е изд., стер. - М.: Издательский центр - «Академия», 2005. - 576 с.
Размещено на .ru
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы