![]() Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
![]() Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
![]() |
Розв'язання. Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку
Умовні ймовірності p (yj / xi) при i = j характеризують вплив завад у каналі зв'язку. Часткова умовна ентропія спостерігача Y щодо джерела X визначається за формулою
Знайдемо часткові умовні ентропії для всіх xi, i =1, …,3
Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X:
Скориставшись формулою множення ймовірностей p (xi, yj)= p (xi)× p (yj / xi), побудуємо матрицю ймовірностей системи д. в. в. X, Y:
+0,03+0,258+0,012+0,0015+0,004+0,0445=1. З матриці сумісних ймовірностей p (x, y) знаходимо взаємну ентропію д. в. в. X, Y:
Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:
Перевірка: H (X, Y)= HX + H (Y/X)= 1,142+0,385»1,527(біт/сим). Виконавши в матриці сумісних ймовірностей pij = p (x, y) згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:
Перевіряємо умову нормування p (y 1) + p (y 2) + p (y 3)=0,662+0,275+0,063=1.
Знаючи приблизний безумовний закон розподілу Py ={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою
Перевіряємо умови нормування:
Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:
З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:
Тоді загальна умовна ентропія X стосовно Y
Перевірка: H (X, Y)= HY + H (X/Y)= 1,157+0,369=1,527(біт/сим). Відповідь: H (Y/x1)»0,222 (біт / сим); H (Y/x2)»0,705 (біт / сим); H (Y/x3)»0,593 (біт / сим); H (Y/X)»0,385 (біт / сим); H (X/y1)»0,289 (біт / сим); H (X/y2)»0,383 (біт /с им); H (X/y3)»1,148 (біт / сим); H (X/Y)»0,369 (біт / сим). Приклад 2 Матриця сумісних ймовірностей каналу зв'язку має вигляд
Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t= 10-3 с. Date: 2015-11-15; view: 438; Нарушение авторских прав |