Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Розв'язання. Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку





Умовні ймовірності p (yj / xi) при i = j характеризують вплив завад у каналі зв'язку.

Часткова умовна ентропія спостерігача Y щодо джерела X визначається за формулою

.

Знайдемо часткові умовні ентропії для всіх xi, i =1, …,3

(біт/сим);

(біт/сим);

(біт/сим).

Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X:

(біт/сим).

 

Скориставшись формулою множення ймовірностей

p (xi, yj)= p (xip (yj / xi),

побудуємо матрицю ймовірностей системи д. в. в. X, Y:

Перевіряємо умову нормування: = 0,6305+0,013+0,0065+

+0,03+0,258+0,012+0,0015+0,004+0,0445=1.

З матриці сумісних ймовірностей p (x, y) знаходимо взаємну ентропію д. в. в. X, Y:

(біт/сим).

Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:

 

(біт/сим).

Перевірка: H (X, Y)= HX + H (Y/X)= 1,142+0,385»1,527(біт/сим).

Виконавши в матриці сумісних ймовірностей pij = p (x, y) згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:

;

;

.

Перевіряємо умову нормування

p (y 1) + p (y 2) + p (y 3)=0,662+0,275+0,063=1.

 

Знаючи приблизний безумовний закон розподілу Py ={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою

.

.

Перевіряємо умови нормування:

;

;

.

Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:

(біт/сим).

З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:

(біт/сим);

(біт/сим);

(біт/сим).

 

Тоді загальна умовна ентропія X стосовно Y

(біт/сим).

Перевірка: H (X, Y)= HY + H (X/Y)= 1,157+0,369=1,527(біт/сим).

Відповідь: H (Y/x1)»0,222 (біт / сим); H (Y/x2)»0,705 (біт / сим);

H (Y/x3)»0,593 (біт / сим); H (Y/X)»0,385 (біт / сим); H (X/y1)»0,289 (біт / сим); H (X/y2)»0,383 (бітим); H (X/y3)»1,148 (біт / сим); H (X/Y)»0,369 (біт / сим).

Приклад 2 Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t= 10-3 с.







Date: 2015-11-15; view: 427; Нарушение авторских прав



mydocx.ru - 2015-2024 year. (0.008 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию