![]() Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
![]() Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
![]() |
Лабораторна робота 6
Інформаційний аналіз залежних повідомлень
1. Короткі теоретичні відомості. При розв’язанні задач інформаційного аналізу часто доходиться досліджувати кілька джерел, що дають залежні повідомлення. Сукупність повідомлень, що виробляються декількома джерелами, називається складним повідомленням. Маємо два джерела повідомлень. Події першого джерела приймають значення х1, х2,..., хn з імовірностями р(х1), р(х2),..., р(хn), а другого - y1, y2,..., ym з імовірностями р(y1),р(y2),..., р(ym). Спільна ентропія такого складного повідомлення визначається за формулою:
де p(xi,yi)- імовірність спільної появи повідомлень xi і yi. Для складних повідомлень мають місце співвідношення
де
На практиці при інформаційному аналізі складних повідомлень імовірності p(x), p(y), p(x/y), p(y/x) приблизно оцінюються відносними частотами, що обчислюються на основі експериментальних даних. 2. Постановка задачі. Для оцінки стану об'єкта використовуються два статистично залежних параметри X і Y.У результаті експерименту отримані реалізації процесів X(t), Y(t) на інтервалі 3. Методика рішення задачі. 3.1. Реалізації неперервних процесів X(t), Y(t) представляються у вигляді дискретних відліків Xk, Yk 3.2. Визначаються відносні частоти влучення X і Y в інтервали W(xi), W(yi), а також відносні частоти подій W(xi,yi). Складається таблиця.
3.3. Оцінюється ентропія повідомлень H(x), H(Y), за формулами:
3.4. Визначається ентропія складного повідомлення
3.5. Розраховується умовна ентропія по формулами:
3.6. Виконується перевірка розрахунків з використанням співвідношення
4. Приклад. Вихідні дані. Дано дві реалізації процесів зміни статистично залежних параметрів X(t), Y(t).Потрібно виконати інформаційний аналіз складного повідомлення (X,Y). Крок квантування за часом 1.Неперервні реалізації X(t), Y(t) на інтервалі Таблиця1
Діапазон зміни X і Y розбиваємо на 5 інтервалів, так як 2. Визначаємо за табл. 1 відносні частоти влучення X і Y в інтервали W(xi); W(yi), а також відносні частоти подій (xi, yi):W(xi, yi). Дані зводимо в табл. 2.
Таблиця 2
3. Оцінюємо ентропію повідомлень H(X),H(Y)
4. Визначаємо ентропію складного повідомлення H(x, y)
5. Обчислюємо умовні ентропії
6. Виконуємо перевірку Точність розрахунків задовільна.
5. Завдання. Для заданих реалізацій X(t), Y(t) статистично залежних величин виконати інформаційний аналіз складного повідомлення (X, Y).
Date: 2015-05-22; view: 518; Нарушение авторских прав |