Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Розв'язання. Побудуємо розподіл ймовірностей д





Побудуємо розподіл ймовірностей д. в. в. X 1 (або X 2) (табл. 1):

Таблиця 1

X1            
pi 1/6 1/6 1/6 1/6 1/6 1/6

 

Звідси знаходимо ентропію д. в. в X 1, що у даному випадку буде максимальною, оскільки значення рівноймовірні:

HX 1= HX 2 = log2 6=1+ log2 3»1+1,585»2,585 (біт / сим).

Оскільки X 1 та X 2 незалежні д. в. в., то їх сумісна ймовірність визначається так:

P (X 1= i, X 2= j)= P (X 1= iP (X 2= j)= 1/36; i = 1... 6, j = 1... 6.

Побудуємо допоміжною таблицю значень д. в. в. Y = X 1 + X 2 (табл.2):

Таблиця 2

X 2   X 1
           
             
             
             
             
             
             

 

Обчислимо ймовірності P (Y=j) (j =2, 3, …, 12):

P (Y= 2)= 1/36; P (Y= 3)= 2×1/36= 1/18; P (Y = 4)= 3×1/36= 1/12;

P (Y= 5)= 4×1/36= 1/9; P (Y= 6)= 5×1/36= 5/36; P (Y= 7)= 6×1/36= 1/6; P (Y= 8) =5×1/36= 5/36; P (Y= 9) =4×1/36= 1/9; P (Y= 10)= 3×1/36= 1/12; P (Y= 11)= 2×1/36= 1/18; P (Y= 12)= 1/36;

Скориставшись допоміжною таблицею (табл.2), запишемо безумовний закон розподілу д. в. в. Y (табл. 3):

Таблиця 3

Yj                      
qj 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36

 

Звідси знаходимо ентропію д. в. в. Y так:

(біт/сим)

Побудуємо таблицю розподілу ймовірностей системи д. в. в. (X 1, Y) pij = P (X 1= i, Y = j) (табл. 4).

Таблиця 4

X 1 Y
                     
  1/36 1/36 1/36 1/36 1/36 1/36          
    1/36 1/36 1/36 1/36 1/36 1/36        
      1/36 1/36 1/36 1/36 1/36 1/36      
        1/36 1/36 1/36 1/36 1/36 1/36    
          1/36 1/36 1/36 1/36 1/36 1/36  
            1/36 1/36 1/36 1/36 1/36 1/36
  1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36

 

Тоді взаємна ентропія д. в. в. X 1, Y

= log2 36=2 log2 6=2(1+ log2 3)»2+

+2×1,585»5,17 (біт / сим).

Кількість інформації, що містить д. в. в. Y стосовно д. в. в. X 1, обчислимо за формулою . Отже,

(біт/сим).

Кількість інформаціїI (Y, X1) здебільшого зручніше знайти, скориставшись властивістю 4 кількості інформації і ентропії:

.

Оскільки Y = X 1+ X 2, де X 1 та X 2 – незалежні д. в. в., то

.

(біт/сим).

Відповідь: (біт/сим);

(біт/сим);

(біт/сим).

Приклад 2 Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z та кількість інформації, що містить д. в. в. стосовно X та Y. X, Y – незалежні д. в. в., які задаються такими розподілами (табл. 1, табл. 2):

Таблиця 1 Таблиця 2

X           Y        
p 1/8 1/8 1/4 1/2 q 1/4






Date: 2015-11-15; view: 365; Нарушение авторских прав



mydocx.ru - 2015-2024 year. (0.009 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию