Термінова допомога студентам
Дипломи, курсові, реферати, контрольні...

Пропускная спроможність каналу

РефератДопомога в написанніДізнатися вартістьмоєї роботи

Через війну проведеною роботи, ми в змозі зробити висновок, що із зменшенням відносини сигнал/шум пропускну здатність каналу також зменшується, що зумовлює втрати інформації. Щоб уникнути виникнення помилок, ми вводили надлишкові символи. Надмірність цього коду ?=0,057. Розмір H (A|B) — це втрати інформації під час передачі її за каналу. Її також називають ненадійністю каналу. H (B|A) — ентропія… Читати ще >

Пропускная спроможність каналу (реферат, курсова, диплом, контрольна)

1. Задание.

2.

Введение

.

3. Теоретична часть.

4. Практична часть.

5.

Заключение

.

6.

Литература

.

Задание.

У каналі діє аддетивный білий гаусовский шум. Ставлення сигнал/шум (Pc/Pш) змінюється із 25-ма до 15 дБ, з кроком 1дБ. F=1,5 кГц; Vк=8*103 сим/с.

Рассчитать:

1) Зміна пропускну здатність канала.

2) Зміна надмірності? двоичного коду, яка потрібна на відомості помилки декодування до як завгодно малої величине.

Побудувати графіки залежностей с=f (Pc/Pш) і ?= f (Pc/Pш).

Завдання, поставлене цікава тим, що зможемо простежити зміна пропускну здатність каналу зі зміною відносини сигнал/шум. Можна визначити пропускну спроможність З каналу для один символ.

Ссимвол=maxI (A, B), бит/символ.

чи розрахунку одиницю часу (наприклад, на секунду):

С=maxI'(A, B)=? Ссимвол, биит/с.

У разі ми розраховувати щодо часу. І тому ми скористаємося формулою визначальною пропускну спроможність каналу для одиницю времени.

С=Fklog2(1+Pc/Pш),.

А щоб визначити надмірність переданої інформації скористаємося теоремою Шеннона. За умов якщо теорема Шеннона виконуватиметься, то надмірність? дорівнюватиме 0, отже інформація передається без втрат. Якщо ні, то? буде більше нуля (?>0). Тобто. що менше величина ?, тим зменшиться ймовірність помилки декодирования.

Теоретична часть.

Пропускна спроможність каналу связи.

У будь-якій системі зв’язку через канал передається інформація. Її швидкість визначається по формуле:

I'(А, В)=H'(А)-H'(А|В)=H'(А)-H'(В|А). (1).

Розмір H (A|B) — це втрати інформації під час передачі її за каналу. Її також називають ненадійністю каналу. H (B|A) — ентропія шуму; показує, скільки біт шумовий інформації домішується до сигналу. Передачу сигналу на каналі ілюструє рис. 1.

Рис. 1. Передача інформації з каналу з помехами.

Тут I'(A, B)=v*I (A, B) — швидкість передачі по каналу.

Як очевидно з формули (1), ця швидкість залежить тільки від самого каналу, а й від властивостей подаваного з його вхід сигналу і тому може характеризувати канал як передачі информации.

Розглянемо дискретний канал, з якого передаються в одиницю часу? символів з алфавіту обсягом m. При передачі кожного символу на в середньому у каналу проходить кількість информации.

I (A, B)=H (A)-H (A|B)=H (B)-H (B|A), (2).

де Проте й Увипадкові символи на вході і виході каналу. З чотирьох фігуруючих тут энтропий Н (А) — власна інформація переданого символу визначається джерелом дискретного сигналу та залежною від властивостей каналу. Інші три ентропії у випадку залежать як джерела сигналу, і від канала.

Величина I (A, B) характеризує як властивості каналу, а й властивості джерела інформації. Нехай на вхід каналу можна подавати сигнали від різних джерел інформації з різними распределениями P (A). До кожного джерела I (A, B) прийме своє значення. Максимальне кількість інформації, взяте по усіляким Р (А), характеризує лише канал і називається пропускною спроможністю (ПС) каналу для один символ:

бит/символ,.

де максимізація проводиться у разі всім багатовимірним розподілам ймовірностей Р (А).

Також визначають пропускну спроможність З каналу для одиницю времени:

бит/с, (3).

де v — кількість символів, передане в секунду.

Як приклад обчислимо пропускну спроможність дискретного симетричного каналу безпам’яті (рис. 2) з імовірністю помилкового переходу — p.

Рис. 2. Модель двоичного симетричного каналу без памяти.

Відповідно до властивості взаємної інформації 2 можна записати: Ссим=max (H (B)-H (B|A)). Розпишемо H (B|A). З умов завдання ймовірність правильної передачі символу по каналу — 1-p, а ймовірність помилковою передачі одного символу p/(1-m), де m — число різних символів, що передаються на каналі. Загальна кількість вірних передач — m; загальна кількість хибних переходів — m*(m-1). Звідси випливає, что:

.

Отже, Н (В/А) залежить від розподілу ймовірності ансамблі А, а визначається лише перехідними імовірностями каналу. Це властивість зберігається всім моделей каналу з аддитивным шумом.

Максимальне значення Н (В)=log m. Звідси следует:

. (4).

Пропускна здатність у потрібний двійкових одиницях для одиницю времени:

. (5).

Для двоичного симетричного каналу (m=2) пропускна спроможність у двійкових одиницях в одиницю времени.

С=?[1+p*log (p)+(1-p)*log (1-p)] (6).

Залежність З/? від р відповідно до (6) показано на рис. 3.

рис. 3 Залежність пропускну здатність двоичного симетричного каналу безпам’яті від можливості помилкового прийому символа.

При р=½ пропускну здатність каналу С=0, оскільки за такий ймовірності помилки послідовність вихідних символів можна отримати роботу не передаючи сигналу на каналі, а обираючи їх навмання, тобто. при р=½ послідовності не вдома і вході каналу незалежні. Випадок С=0 називають обривом канала.

Пропускна здатність безперервного каналу связи.

Обчислюється аналогічно пропускну здатність дискретного каналу. Безперервний сигнал дискретизируется у часі з допомогою отсчетов відповідно до теоремі Котельникова й інформація, що відбувається на каналі під час Т, дорівнює сумі кількості інформації, переданої за відлік. Тому загальна ПС каналу дорівнює сумі ПС однією такий отсчет:

(7).

де U — переданий сигнал; Z — сигнал не вдома каналу з накладеними нею шумами; N — шум; Z=U+N.

Нехай U і N — випадкові величини з щільністю розподілу ймовірності w, розподіленої по нормальному (гауссовскому) закону. Для таких сигналу та галасу (див. висновок в [1, з. 114, 117−118]:

.

Звідси следует:

.

ПС для секунду буде равна:

(8).

оскільки за дискретизації сигналу по теоремі Котельникова за секунду ми матимемо 2 °F отсчетов, де F — верхня частота спектра сигнала.

Підкреслимо, що формула (8) має тої вид лише за умови, що щільності розподілу ймовірностей w (U) і w (N) підпорядковуються нормальному закону.

Формула (8) має важливого значення, т.к. свідчить про залежність ПС каналу з його технічних характеристик — ширини смуги пропускання й стосунку потужності сигналу до потужності шума.

Щоб з’ясувати як залежить пропускну здатність від ширини смуги пропускання висловимо потужність галасу зчинив на каналі через його односторонню спектральную потужність N0. Маємо Рш=N0 °F; поэтому.

С=F*log (1+ Pc/N0*F)=F*loge*ln (1+Pc/N0*F) (9).

При збільшенні F пропускну здатність З, бит/с, спочатку швидко зростає, та був асимптотически прагне пределу:

C?=Lim (Pc/N0)*loge (10).

Результат (10) виходить досить легко, з урахуванням, що з |?|з, то такого коду не существует.

Теорему свідчить про можливість створення помехоустойчивых кодов.

Н'(А)< Н'(В)>

Н'(В)=VkH.

Декодер видає на код каналів Vk символів в секунду. Якщо каналі втрат немає, то Vk=с.

При Н.

Робимо висновок, що зміст теореми Шеннона у тому, що з H'(A)>С неможлива безпомилкова передача повідомлень у цій каналу, Якщо ж H'(A).

Практична часть.

Пропускна здатність гауссовского каналу визначається [1, стр.118]:

.

Ставлення сигнал/шум падає за умовою завдання із 25-ма до 15 дБ. Тому З також зменшуватися. Необхідно зменшувати СЕРЕДНЬОЇ ШКОЛИ із 25-ма до 15 дБ з кроком 1 дБ і обчислити за такою формулою 11 значень З. У цьому слід врахувати, що у формулі ставлення СЕРЕДНЬОЇ ШКОЛИ — Pc/Pш — дано в разах, тому дані в дБ необхідно перелічити кількаразово:; звідси .

З допомогою програми MathCAD отримали результати подсчётов:

С1=1,246*104 бит/с.

С2=1,197*104 бит/с.

С3=1,147*104 бит/с.

С4=1,098*104 бит/с.

С5=1,048*104 бит/с.

С6=9,987*103 бит/с.

С7=9,495*103 бит/с.

С8=9,003*103 бит/с.

С9=8,514*103 бит/с.

С10=8,026*103 бит/с.

С11=7,542*103 бит/с.

Продуктивність кодера H'(B)=vк*H (B) має бути меншою пропускну здатність каналу З, інакше неминучі втрати інформацією каналі. Максимальне значення ентропії двоичного кодера Hmax=H (B)=log2=1 біт. Якщо З зменшується, то тут для запобігання втрат інформації можна зменшувати H (B) те щоб H'(B) залишалася постійно менше З. Якщо ж H (B).

. (11).

Отже, пропускну здатність каналу З визначає граничне значення продуктивності кодера H'(B): H'(B).

За умовою Vk=8*103 сим/с.

У чисельній вигляді це відбувається так:

С/Vk1=1,558 бит/сим.

С/Vk 2=1,496 бит/сим.

С/Vk 3=1,434 бит/сим.

С/Vk 4=1,372 бит/сим.

С/Vk 5=1,31 бит/сим.

С/Vk 6=1,248 бит/сим.

С/Vk 7=1,187 бит/сим.

С/Vk 8=1,125 бит/сим.

С/Vk 9=1,064 бит/сим.

С/Vk 10=1,003 бит/сим.

У таких випадках ентропію Н (В) можна брати будь-який, до максимальної (Hmax=1 бит/сим).

С/Vk 11=0,943 бит/сим.

Т.к. в 11-ом разі умова H'(B).

Таким кроком буде обчислення надмірності? коду, за такою формулою (11):

?=0,057.

Щоб була більш наочно, побудуємо графіки залежностей с=f (Pc/Pш) і ?= f (Pc/Pш).

Графік залежності с=f (Pc/Pш) :

Графік залежності ?= f (Pc/Pш).

Заключение

.

Через війну проведеною роботи, ми в змозі зробити висновок, що із зменшенням відносини сигнал/шум пропускну здатність каналу також зменшується, що зумовлює втрати інформації. Щоб уникнути виникнення помилок, ми вводили надлишкові символи. Надмірність цього коду ?=0,057.

Зробимо висновок, у результаті проведеного розрахунку поставлена задачу повністю решена.

1. Зюко О. Г., Кловський Д. Д. та інших. Теорія передачі сигналів. -М.: Радіо і Зв’язок, 1986.

2. Кловський Д. Д., Шилкін В.А. Теорія електричного зв’язку. -М.: Радіо і зв’язок, 1990.

3. Методичне посібник по курсової роботі ТЭС.

Показати весь текст
Заповнити форму поточною роботою