Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Розв'язання. Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку
Умовні ймовірності p (yj / xi) при i = j характеризують вплив завад у каналі зв'язку. Часткова умовна ентропія спостерігача Y щодо джерела X визначається за формулою . Знайдемо часткові умовні ентропії для всіх xi, i =1, …,3 (біт/сим); (біт/сим); (біт/сим). Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X: (біт/сим).
Скориставшись формулою множення ймовірностей p (xi, yj)= p (xi)× p (yj / xi), побудуємо матрицю ймовірностей системи д. в. в. X, Y: Перевіряємо умову нормування: = 0,6305+0,013+0,0065+ +0,03+0,258+0,012+0,0015+0,004+0,0445=1. З матриці сумісних ймовірностей p (x, y) знаходимо взаємну ентропію д. в. в. X, Y:
(біт/сим). Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:
(біт/сим). Перевірка: H (X, Y)= HX + H (Y/X)= 1,142+0,385»1,527(біт/сим). Виконавши в матриці сумісних ймовірностей pij = p (x, y) згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y: ; ; . Перевіряємо умову нормування p (y 1) + p (y 2) + p (y 3)=0,662+0,275+0,063=1.
Знаючи приблизний безумовний закон розподілу Py ={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою . . Перевіряємо умови нормування: ; ; . Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:
(біт/сим). З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:
(біт/сим);
(біт/сим);
(біт/сим).
Тоді загальна умовна ентропія X стосовно Y (біт/сим). Перевірка: H (X, Y)= HY + H (X/Y)= 1,157+0,369=1,527(біт/сим). Відповідь: H (Y/x1)»0,222 (біт / сим); H (Y/x2)»0,705 (біт / сим); H (Y/x3)»0,593 (біт / сим); H (Y/X)»0,385 (біт / сим); H (X/y1)»0,289 (біт / сим); H (X/y2)»0,383 (біт /с им); H (X/y3)»1,148 (біт / сим); H (X/Y)»0,369 (біт / сим). Приклад 2 Матриця сумісних ймовірностей каналу зв'язку має вигляд . Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t= 10-3 с. Date: 2015-11-15; view: 427; Нарушение авторских прав |