Разработка системы связи для передачи дискретных сообщений - Курсовая работа

бесплатно 0
4.5 110
Принципы кодирования источника при передаче дискретных сообщений. Процесс принятия приёмником решения при приёме сигнала. Расчёт согласованного фильтра. Построение помехоустойчивого кода. Декодирование последовательности, содержащей двукратную ошибку.

Скачать работу Скачать уникальную работу

Чтобы скачать работу, Вы должны пройти проверку:


Аннотация к работе
Определить энтропию и избыточность источника, выполнить кодирование источника (построить экономный код), рассчитать энтропию и избыточность кода, вероятности двоичных символов, передаваемых по каналу, скорость передачи информации по каналу без помех. Определить оптимальный по критерию идеального наблюдателя порог для принятия решения о принимаемом символе при когерентном и некогерентном приеме, условные вероятности ошибок первого и второго рода, среднюю вероятность ошибки, скорость передачи информации при наличии помех. Так как в канале связи действовала помеха, то сигнал на выходе демодулятора отличается в общем случае от сигнала bц(t) и имеет случайный характер (Рис. Правило (алгоритм), сопоставляющее каждому конкретному сообщению строго определенную комбинацию различных символов (или соответствующих им сигналов), называется кодом, а процесс преобразования сообщения в комбинацию различных символов или соответствующих им символов - кодированием. Символы, при помощи которых записано передаваемое сообщение, составляют первичный алфавит, а символы, при помощи которых сообщение трансформируется в код, - вторичный алфавит.В данной работе рассмотрена простейшая модель системы передачи информации, которая может быть распространена на любую реальную систему передачи дискретных сообщений. Когерентный прием обладает рядом преимуществ перед некогерентным (более высокая скорость передачи информации, сравнительно малая вероятность средней ошибки). Для данных способов приема сигнала результаты, полученные при расчете, вполне справедливы, т.к. при когерентном приеме известна форма сигнала, частота заполнения и начальная фаза, а значит, и вероятность ошибиться меньше, чем при некогерентном приеме, когда нам известна лишь форма огибающей сигнала. Согласованная фильтрация применяется для повышения отношения сигнал/шум на выходе сигнала.

Введение
В современном мире в области электросвязи все более широко используются цифровые виды информации. Это объясняется тем, что цифровые системы передачи имеют такие преимущества как высокая помехоустойчивость, слабая зависимость качества передачи от длины линии связи, стабильность электрических параметров каналов связи, эффективность использования пропускной способности при передаче дискретных сообщений и др.

Целью данной курсовой работы является разработка системы связи для передачи дискретных сообщений. Дискретные сигналы возникают в тех случаях, когда источник сообщений выдает информацию в фиксированные моменты времени. Такие сигналы приобрели особое значение в последние десятилетия под влиянием совершенствования техники связи и развития способов обработки информации быстродействующими вычислительными устройствами. Изза наличия в канале связи помех, прием сообщений становится ненадежным, и мы можем получить неверную (ложную) информацию. Поэтому, например, вопрос помехоустойчивости является одним из важнейших вопросов электрической связи.

В данной курсовой работе изучаются методы кодирования сообщения с целью сокращения объема алфавита символов и достижения повышения скорости передачи информации. Предполагается использование двоичных кодов, как для статистического, так и для помехоустойчивого кодирования. Затем производится декодирование - восстановление символов исходного алфавита, в результате чего должен быть воспроизведен переданный текст.

1. Рабочее задание

Составить обобщенную структурную схему системы связи для передачи дискретных сообщений, содержащую кодер источника, модулятор, канал связи, демодулятор и декодер. Изобразить качественные временные диаграммы сигналов во всех промежуточных точках структурной схемы. Все диаграммы должны сопровождаться словесными описаниями.

Определить энтропию и избыточность источника, выполнить кодирование источника (построить экономный код), рассчитать энтропию и избыточность кода, вероятности двоичных символов, передаваемых по каналу, скорость передачи информации по каналу без помех.

Рассмотреть случаи когерентного и некогерентного приема путем взятия однократного отсчета смеси высокочастотного сигнала с шумом на выходе линии связи и процесса на выходе детектора огибающей. Определить оптимальный по критерию идеального наблюдателя порог для принятия решения о принимаемом символе при когерентном и некогерентном приеме, условные вероятности ошибок первого и второго рода, среднюю вероятность ошибки, скорость передачи информации при наличии помех. Сделать выводы по результатам расчетов.

Рассчитать согласованный фильтр для приема элементарной посылки. Определить условные вероятности ошибок и среднюю вероятность ошибки при когерентном приеме с использованием согласованного фильтра. Оценить выигрыш в отношении сигнал/шум за счет согласованной фильтрации.

Составить обобщенную структурную схему системы связи для передачи дискретных сообщений, использующую помехоустойчивое (канальное) кодирование. Опираясь на результаты предыдущего пункта, рассчитать вероятности однократной и двукратной ошибок в пределах одного кодового слова и охарактеризовать свойства кода по обнаружению и исправлению ошибок.

Исходные данные:

Таблица 1. Алфавит источника сообщений с вероятностями символов.

Канальное кодирование (7,4) - Кодом Хемминга

Форма посылки Прямоугольная

Амплитуда сигнала на входе демодулятора - а (В) 2.8

Длительность посылки - t (мкс) 0.9

Дисперсия шума на входе демодулятора - s 2 (В2) 1.0

Код для сокращения избыточности источника. Шеннона-Фано

Таблица 2. Исходные данные, определяемые подвариантом.

Символ а б в д е ж И к м н о п р с

Вероятность 0.032 0.058 0.089 0.064 0.085 0.122 0.089 0.081 0.026 0.079 0.035 0.086 0.083 0.071

2. Обобщенная структурная схема системы связи

Система связи - это сложная совокупность устройств, выполняющих преобразования сообщений и сигналов с целью наиболее эффективной передачи информации.

Рис. 1. - Обобщенная структурная схема системы связи

Источник сигнала включает в себя источник сообщений и преобразователь сообщения a(t) в первичный сигнал b(t) (Рис.2а), который поступает на вход кодера. Кодер производит операцию кодирования (экономное и/или помехоустойчивое) - преобразует сообщение в последовательность кодовых символов, в цифровой сигнал bц(t) (последовательность импульсов («единиц») и пауз («нулей»)). (Рис.2б). Далее bц(t) поступает на модулятор, где прямоугольные импульсы «заполняются» ВЧ несущим колебанием для эффективной передачи по линии связи; получаем модулированный сигнал u(t). (Рис.2в) Он, в свою очередь, поступает в канал связи, в котором происходит искажение сигнала u(t) под влиянием неизбежного воздействия вредных колебаний, называемых помехами. Помеха ?(t) аддитивна, имеет случайный характер, представляет собой белый Гауссовский шум. Таким образом, на демодулятор поступает некая смесь сигнала и шума z(t)=u(t) ?(t) (Рис 2г). Так как в канале связи действовала помеха, то сигнал на выходе демодулятора отличается в общем случае от сигнала bц(t) и имеет случайный характер (Рис. 2д). Поэтому результат декодирования b’(t) также не совпадает с первичным сигналом b(t).

3. Описание принципов кодирования источника при передаче дискретных сообщений

Построение кода. Кодирование построенным кодом фамилии и имени исполнителя курсовой работы (отсутствующие в алфавите источника буквы пропускаются).

3.1 Описание принципов кодирования источника при передаче дискретных сообщений

Информационная последовательность символов, представляющая собой сообщение, может быть заменена другой, кодовой последовательностью, состоящей из символов кодового алфавита.

Кодирование источника при передаче дискретных сообщений может преследовать разные цели: 1) Более полное использование канала связи (экономное кодирование);

2) Повышение достоверности передачи (помехоустойчивое кодирование);

3) Согласование сообщения с каналом (кодирование в аппарате Бодо).

В данной работе мы применим экономное и помехоустойчивое кодирование.

Повысить эффективность систем передачи информации (систем связи) можно путем применения экономного кодирования источника сообщения.

Принцип такого кодирования состоит в уменьшении избыточности, то есть в том, что более вероятным символам источника ставятся в соответствие менее длинные слова (последовательности канальных символов). В этом и заключается практическое значение теоремы Шеннона: Среднюю длину кодовых слов для передачи символов источника А при помощи кода с основанием m можно как угодно приблизить к величине H(A)/log m.

Для повышения верности передачи применяют помехоустойчивое кодирование путем введения избыточности в передаваемые сообщения. Такие коды обеспечивают автоматическое обнаружение и/или исправление ошибок в кодовых комбинациях.

Правило (алгоритм), сопоставляющее каждому конкретному сообщению строго определенную комбинацию различных символов (или соответствующих им сигналов), называется кодом, а процесс преобразования сообщения в комбинацию различных символов или соответствующих им символов - кодированием. Процесс восстановления содержания сообщения по данному коду называется декодированием. Последовательность символов, которая в процессе кодирования присваивается каждому из множеств передаваемых сообщений, называется кодовым словом. Символы, при помощи которых записано передаваемое сообщение, составляют первичный алфавит, а символы, при помощи которых сообщение трансформируется в код, - вторичный алфавит.

Коды, в которых сообщения представлены комбинациями с неравным количеством символов, называются неравномерными, или некомплектными. Коды, в которых сообщения представлены комбинациями с равным количеством символов, называются равномерными, или комплектными.

Общее правило кодирования источника (без памяти) состоит в том, что более вероятным символам ставятся в соответствие менее длинные кодовые слова.

3.2 Построение кода

Кодирование источника по методу Шеннона - Фано.

Принцип построения кода Шеннона - Фано состоит в упорядочении всех символов алфавита (в нашем случае букв) по убыванию вероятностей. Затем все буквы делятся на две (неравные в общем случае) группы так, что сумма вероятностей букв для обеих групп одинакова или примерно одинакова, и в качестве первого символа кодового слова каждой букве первой группы присваивается кодовый символ 0, а каждой букве второй группы - символ 1 (или наоборот). Далее первая и вторая группы делятся на подгруппы в соответствии с принципом равной вероятности, и эта процедура продолжается до тех пор, пока алфавит источника не будет исчерпан.

Необходимо обратить внимание на следующее свойство полученного кода: ни одна кодовая комбинация не является началом какой-либо другой кодовой комбинации (префиксное правило). Такие коды называются неперекрываемыми (неприводимыми).

Закодируем заданный алфавит методом Шеннона - Фано.

Таблица 3. Кодовые комбинации по методу Шеннона-Фано.

Алфавит источника Вероятность символа Комбинация кодовых символов Длина к.с. Число единиц ?k p(?k) 1 2 3 4 5 Mk ж 0.122 0 0 0 3 0 в 0.089 0 0 1 3 1 и 0.089 0 1 0 0 4 1 п 0.086 0 1 0 1 4 2 е 0.085 0 1 1 3 2 р 0.083 1 0 0 3 1 к 0.081 1 0 1 0 4 2 н 0.079 1 0 1 1 4 3 с 0.071 1 1 0 0 4 2 д 0.064 1 1 0 1 4 3 б 0.058 1 1 1 0 0 5 3 о 0.035 1 1 1 0 1 5 4 а 0.032 1 1 1 1 0 5 4 м 0.026 1 1 1 1 1 5 5

Построенное дерево кодирования кода Шеннона-Фано на рис. 2.

3.3 Кодирование построенным кодом фамилии и имени исполнителя курсовой работы

Закодируем фразу: Саханов Абылайхан. Отсутствующие в алфавите источника буквы пропускаются: Саанов Абаан.

Получившийся код: 011 11100 1011 0100 1011 11110 11111 11110 100 0100

Первым двум буквам сообщения соответствует код: 01111100

Рис. 2. Дерево кодирования кода Шеннона-Фано.

Изобразим качественные временные диаграммы сигналов во всех промежуточных точках структурной схемы (рис.3). Возьмем фрагмент сигнала, отвечающего двум первым буквам сообщения «е» - 011 и «б» - 11100.

Рис. 3. а) Фрагмент сигнала на входе модулятора.

На вход модулятора поступает последовательность кодовых символов в виде прямоугольных радиоимпульсов. Наличие импульса - «1», его отсутствие - «0».

Рис. 3. б) Фрагмент сигнала на выходе модулятора

Последовательность импульсов непригодна для передачи по линии связи, поэтому она поступает на модулятор, где используется для модуляции другого колебания s(t) - переносчика. Вид модуляции - амплитудная телеграфия с пассивной паузой. Модулированное колебание U(t) поступает в линию связи.

В линии связи сигнал взаимодействует с помехой, поэтому на вход демодулятора поступает их сумма. Также сигнал в линии связи подвергается искажениям, но мы этого не рассматриваем для простоты.

Рис. 3. в) Фрагмент сигнала на входе демодулятора.

Таким образом, на входе демодулятора присутствуют случайные колебания двух видов - реализация шума или сумма детерминированного сигнала и шума, что соответствует двум гипотезам.

Рис. 3. г) Фрагмент сигнала на выходе демодулятора.

Задача демодулятора - принять на основе наблюдения решение о том, какая именно гипотеза выполняется на данном интервале, и на основании этого сформировать последовательность двоичных символов, которая затем подвергается декодированию. Эта последовательность может отличаться от исходной bц(t). Для уменьшения вероятности ошибки мы и будем использовать кодирование.

4. Расчет характеристик системы согласно заданию №2

Расчет энтропии и избыточности источника: Энтропия - среднее количество информации, приходящееся на один символ, которое определяется как математическое ожидание. Энтропия характеризует производительность дискретного источника. Рассматривая источник без памяти, запишем энтропию дискретного источника А в виде:

где K - количество символов в алфавите, p(?k) - вероятность k-того символа.

Основные свойства энтропии: 1.) Энтропия любого источника неотрицательна . Это следует из того, что вероятность любого события неотрицательна и не превосходит единицы. Равенство нулю энтропии источника имеет место в том случае, если один из символов имеет вероятность 1, а остальные - 0.

2.) При заданном объеме алфавита энтропия максимальна, если все символы равновероятны .

Значение энтропии равно . В частности, при энтропия максимальна при и равна 1 биту. Таким образом, 1 бит - это количество информации, доставляемое одним из двух равновероятных символов, вырабатываемых источником без памяти.

Реальные источники редко обладают максимальной энтропией, поэтому их принято характеризовать так называемой избыточностью, определяемой выражением:

Рассчитаем энтропию источника: В нашем случае

=

=

= 3.707 (бит)

Следовательно, энтропия источника: бит.

Максимальная энтропия для данного источника: бит.

Найдем избыточность источника:

Средняя длина кодовой комбинации:

Для построенного кода средняя длина кодовой комбинации: Теорема Шеннона о кодировании в отсутствие шумов. Среднюю длину кодовых слов для передачи символов источника при помощи кода с основанием можно как угодно приблизить к величине .

Смысл теоремы состоит в том, что она определяет нижнюю границу длины кодовых слов и устанавливает принципиальную возможность достичь этой границы, однако она не указывает способов достижения.

Согласно теореме Шеннона при оптимальном кодировании можно достичь средней длины: ?min=H(A)/log22= H(A)=3.707 (символа)

То есть, ?ср??min. Таким образом, построенный код не является оптимальным, потому что на каждом шаге процедуры построения кода не удавалось разделить символы на группы с равными вероятностями.

Расчет энтропии, избыточности кода, вероятности двоичных символов, передаваемых по каналу, скорость передачи информации: Определим вероятность появления определенного символа в кодовой комбинации (пусть это будет символ 1). Она находится, как сумма количеств единиц во всех кодовых словах с весами, равными вероятностям кодовых слов, отнесенная к средней длине кодового слова:

В таком случае, вероятность появления символа 0: - априорная вероятность 0.

Определим энтропию кода : Т.к. алфавит кода состоит из двух символов 0 и 1, поэтому энтропия кода равна: Рассчитаем избыточность кода:

Только будем учитывать, что при передаче бинарного кода, его максимальная энтропия: Нк мах=1

Таким образом, получим: Скорость передачи информации по каналу без помех:

Поскольку НК =0.999 (бит) и ? = 0.9 (мкс), получаем: бит/сек. или бит/сек. где ? - длительность посылки.

5. Описание процесса принятия приемником решения при приеме сигнала

Пусть при передаче дискретных сообщений используются реализации сигнала Si(t), соответствующие кодовым символам. В течение интервала времени от 0 до Т на вход приемного устройства поступает некоторое колебание, которое вследствие искажений и помех (x(t)) в канале не совпадает в точности ни с одним из передаваемых сигналов. Следовательно, в этом случае приемное устройство должно выбрать одну из n возможных взаимоисключающих гипотез. Решение о том, какой символ был передан на входе, принимается в демодуляторе. В случае, когда код бинарный демодулятор решает: был сигнал на входе или его не было («1» и «0» соответственно).

Для выполнения данной задачи устанавливается порог: если сигнал превышает установленный пороговый уровень, то передана «1» (сумма сигнала с шумом), если порогового уровня - «0» (только шум). Этот алгоритм легко реализуется в современной электронике с помощью микросхем - компараторов, сравнивающих два сигнала, один из которых поступает из линии, а другой является эталонным, он и играет роль порога.

В качестве помехи - стационарный квазибелый гауссовский шум с нулевым средним, известной дисперсией и спектральной плотностью мощности N0/2, постоянной в полосе частот, в которой сосредоточено 99% энергии сигнала, и равной 0 вне этой полосы.

Мы будем использовать способ приема, заключающийся во взятии однократного (мгновенного) значения наблюдаемого процесса z(t) в некоторый момент времени t0 и сравнивании его с порогом уп.

Точно зная сигнал, следует выбрать в качестве t0 такой момент, когда сигнал принимает максимальное значение. Но шум в это время может принять отрицательное значение, так что сумма сигнала с шумом может оказаться ниже порога (ошибка второго рода - пропуск сигнала). При отсутствии сигнала шумовая реализация может превысить порог (ошибка первого рода - ложная тревога).

Чтобы найти порог и вероятности ошибок первого и второго рода, необходимо рассмотреть условные плотности распределения вероятностей шума w(y|H0) и суммы сигнала и шума w(y|H1) в момент времени t0.

Критерий минимума суммарной условной вероятности ошибки.

Для получения минимума суммарной условной вероятности ошибки нужно выбрать порог, равный точке пересечения плотностей.

Тогда решение принимается в пользу той гипотезы, для которой значение условной плотности вероятности выше, то есть более правдоподобной гипотезы.

Отношение правдоподобия для критерия минимума суммарной условной вероятности ошибки: ?= > (<) 1

Для того, чтобы вероятность ошибки была как можно меньше, необходимо установить оптимальный порог.

При передаче дискретных сообщений в качестве критерия обычно принимают среднюю вероятность ошибки приема одного элемента двоичной последовательности. Этот критерий называется критерием идеального наблюдателя (Котельникова), согласно которому порог выбирается так, чтобы обеспечить минимум средней вероятности ошибки: рош = р0р01 р1р10, где р0 - априорная вероятность гипотезы H0 (сигнала нет), р1 - априорная вероятность гипотезы H1 (сигнал есть).

Отношение правдоподобия для критерия идеального наблюдателя:

?= > (<)

Априорные вероятности гипотез - это вероятности присутствия в кодовой последовательности нулей и единиц соответственно.

6. Расчет характеристик системы согласно заданию №3

6.1 Когерентный прием

Когерентный прием - прием сигнала при условии, что форма сигнала на интервале наблюдения точно известна, неизвестен лишь сам факт наличия или отсутствия сигнала в наблюдаемом колебании. (Эта ситуация наиболее близка к реальности в кабельных линиях связи, где условия распространения сигналов известны и практически неизменны.)

Если в линии только шум с нулевым средним (гипотеза Н0), то на выходе канала связи есть сигнал с Гауссовой плотностью распределения: , [1/В]

Если в линии сумма сигнала и шума (гипотеза Н1), то на выходе канала связи есть сигнал с Гауссовой плотностью распределения: , [1/В]

Вычислим плотности распределения вероятностей мгновенных значений колебания на входе демодулятора при приеме посылки и паузы: 6.1.1 Выбор оптимального по критерию идеального наблюдателя порога для принятия решения о принимаемом символе

Для определения оптимального по критерию идеального наблюдателя порога высчитаем условные плотности распределения вероятностей, умноженные на априорные вероятности гипотез H0 и H1.

Рис.5. Плотности распределения вероятностей при когерентном приеме: сплошная линия - смесь сигнала и шума, пунктир - шум. p0=0,494 p1=0,506

, [1/В]

, [1/В]

Вычислим плотности распределения вероятностей при когерентном приеме на входе демодулятора в отсутствии сигнала и при наличии сигнала, результат представим в виде графика: Оптимальный порог по критерию идеального наблюдателя для принятия решения о принимаемом символе найдем как абсциссу пересечения условных плотностей распределения вероятностей, умноженных на априорные вероятности гипотез.

С помощью Mathcad найдем УП:

Рис.5. Выбор порогового значения УП при когерентном приеме.

Т.е. УП = 1.4 В

6.1.2 Определение условных вероятностей ошибок первого и второго рода и средней вероятности ошибки

Вероятности ошибок первого и второго рода определяются как площади фигур, ограниченных осью у, вертикальной прямой, проходящей через точку ylim на оси абсцисс и графиком плотности W0p(y) и W1p(y) соответственно.

Условная вероятность ошибки первого рода - ложной тревоги (передавалась единица, а принят - ноль):

Условная вероятность ошибки второго рода - пропуск сигнала (передался ноль, а принята единица):

Рис. 6. Определение условных вероятностей ошибок первого и второго рода при когерентном приеме.

Таким образом, средняя вероятность ошибки:

где p01 - вероятность «1» при передачи «0»; p10 - вероятность «0» при передачи «1»

6.1.3 Определение скорости передачи информации при наличии помех

Наличие помех в канале (в данном случае гауссовского шума) вызывает ошибки при демодуляции и тем самым ограничивает скорость передачи информации: если ошибки следуют слишком часто, скорость передачи информации снижается. Расчет скорости информации в цифровом канале с помехами основывается на понятии совместной энтропии входа и выхода канала.

Для определения среднего количества передаваемой по каналу информации (приходящееся на один символ) Ikog нужно найти совместные вероятности всех сочетаний входных и выходных символов, а для этого записать условные вероятности для входных символов при заданных входных. Эти условные вероятности, определяются в свою очередь, условными вероятностями ошибок первого и второго рода. p(1) = 0.506; p(0) = 0.494

Безусловные вероятности выходных символов для нахождения энтропии источника: p1’= p(0)p00s p(1)p10s = 0.475 p0’ = 1 - p1’ = 0.525

Энтропия источника: Hs = ?р1’•log2(р1’) ? р0’ •log2(р0’)

Hs = 0.998 бит

Энтропия источника, рассчитанная ранее: Нк = 0.999 бит

Совместная энтропия входа и выхода канала:

Среднее количество передаваемой информации по каналу:

Скорость передачи информации при наличии помех:

6.2 Некогерентный прием

На практике иногда не удается обеспечить условия для когерентного приема сигналов, так как один или несколько параметров принимаемого сигнала оказываются неизвестными. Такая ситуация типична, например, в системах спутниковой связи, радиосвязи с подвижными объектами, и т.п., поскольку расстояние между передатчиком и приемником изменяется случайным образом. Это приводит, в частности, к тому, что меняется начальная фаза несущего колебания. Если изменение происходит настолько медленно, что соседние посылки имеют практически одинаковую начальную фазу, то ее можно оценить и оценку использовать вместо точного значения при организации приема. Такой прием называют квазикогерентным. Если же начальная фаза изменяется (флюктуирует) быстро или устройство оценивания оказывается слишком сложным, тогда рассматривается задача приема сигнала со случайной начальной фазой или некогерентного приема.

В нашем случае некогерентный прием - прием сигнала, параметры которого известны не полностью, в частности, рассматривается задача приема сигнала со случайной начальной фазой.

Следовательно, теперь нельзя выбрать момент t0 измерения мгновенного значения так, чтобы значение сигнала s(t0) было максимальным. Поэтому сначала выполняется выделение огибающей наблюдаемого процесса, а затем берется ее отсчет V в любой момент в пределах длительности посылки.

Теперь мгновенное значение имеет негауссово распределение при обеих гипотезах.

Если сигнала нет (гипотеза Н0), наблюдаемый процесс представляет собой гауссовский шум с нулевым средним, а его огибающая V в любой момент времени имеет распределение Рэлея w0(V|H0). При гипотезе Н0 (сигнал есть) огибающая гауссовского процесса имеет распределение Рэлея-Райса (обобщенное рэлеевсое) w1(V|H1), что соответствует ненулевому среднему.

Условная плотность распределения вероятностей шума:

Условная плотность распределения вероятностей суммы сигнала и шума:

где I0(*) - модифицированная функция Бесселя первого рода нулевого порядка.

6.2.1 Определение оптимального порога при некогерентном приеме

Для определения оптимального по критерию идеального наблюдателя порога высчитаем условные плотности распределения вероятностей, умноженные на априорные вероятности гипотез H0 и H1. p(1) = 0.506; p(0) = 0.494

, [1/B] , [1/B]

Таким образом, порог УП = 2.02 (B)

Рис. 7. Выбор порога при некогерентном приеме.

6.2.2 Определение условных вероятностей ошибок первого и второго рода и средней вероятности ошибки

Условная вероятность ошибки первого рода (ложная тревога):

Рис.8. Определение условных вероятностей ошибок первого и второго рода при когерентном приеме.

Условная вероятность ошибки второго рода (пропуск сигнала):

Таким образом, средняя вероятность ошибки:

6.2.3 Определение скорости передачи информации при некогерентном приеме

Совместные вероятности сочетаний входных и выходных символов:

p0n = p(0)p00n = 0.431 p001n = p(0)p01n = 0.063 p1n = p(1)p11n = 0.424 p110n = p(1)p10n = 0.082

Безусловные вероятности выходных символов для нахождения энтропии источника: p1n’= p(0)p00n p(1)p10n = 0.513 p0n’= 1 - p1n’ = 0.487

Энтропия источника: Hsn = ? p1n’•log2(p1n’) ? p0n’ •log2(p0n’) = 0.9995 бит

Энтропия источника, рассчитанная ранее: Нк = 0.999 бит

Совместная энтропия входа и выхода цифрового канала:

Среднее количество передаваемой информации по каналу:

Скорость передачи информации при наличии помех:

Вывод
В данной работе рассмотрена простейшая модель системы передачи информации, которая может быть распространена на любую реальную систему передачи дискретных сообщений. В дальнейшем, при разработке более сложных систем связи, возможно использование результатов данной работы.

Анализируя полученные результаты можно сделать выводы: 1. Когерентный прием обладает рядом преимуществ перед некогерентным (более высокая скорость передачи информации, сравнительно малая вероятность средней ошибки). Для данных способов приема сигнала результаты, полученные при расчете, вполне справедливы, т.к. при когерентном приеме известна форма сигнала, частота заполнения и начальная фаза, а значит, и вероятность ошибиться меньше, чем при некогерентном приеме, когда нам известна лишь форма огибающей сигнала.

2. Согласованная фильтрация применяется для повышения отношения сигнал/шум на выходе сигнала. Это, в свою очередь, увеличивает помехоустойчивость системы (вероятность безошибочного решения). Иными словами, согласованный фильтр нужен для наиболее надежного принятия решения о наличии или отсутствии сигнала на входе приемника.

3. (7,4)-код Хемминга обнаруживает одно- и двукратные ошибки и исправляет однократные, но в тоже время он увеличивает избыточность кода, следовательно, уменьшает скорость передачи информации. В случае если кодовое слово с ошибкой будет схоже с другой разрешенной комбинацией (кодовым словом), ошибки обнаружено не будет. Код Хемминга также увеличивает избыточность, что уменьшает скорость передачи информации.

В ходе данной работы были изучены и освоены основные принципы кодирования и передачи информации.

Список литературы
1. Лекции по ТЭС. Васюков В.Н.

2. Теория электрической связи. Учебники НГТУ / В.Н. Васюков-Новосибирск: изд-во НГТУ, 2005. - 392с.

3. Баскаков С.И. Радиотехнические цепи и сигналы: - М.: Высш. шк., 1988

4. Введение в теорию электрической связи: Учебное пособие / В.Н. Васюков - Новосибирск: изд-во НГТУ, 2003 - 96с.

Размещено на .ru

Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность
своей работы


Новые загруженные работы

Дисциплины научных работ





Хотите, перезвоним вам?