Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Теоретическая часть. Пусть имеются две зависимые системы (или два множества сообщений) X и Y





Пусть имеются две зависимые системы (или два множества сообщений) X и Y. Обозначим условную вероятность того, что система Y примет состояние yj при условии, что система X приняла xi.

Определим условную частную энтропию системы Y относительно отдельного события xi. При этом должны быть известны условные вероятности .

Тогда частная условная энтропия будет равна

Частную условную энтропию можно выразить через математическое ожидание

Чтобы полностью охарактеризовать энтропию системы, нужно определить полную или среднюю энтропию. Если частную, условную энтропию усреднить по всем состояниям xi с учетом вероятности появления каждого из состояний p(xi), то найдем полную условную энтропию сообщений Y относительно X.

(1)

Понятие условной энтропии широко используется для определения информационных потерь при передаче информации. Пусть по каналу связи передаются сообщения с помощью алфавита Х. В результате воздействия помех приемником будет восприниматься другой алфавит Y (см.рис. 1).

Рис.1. Передача информации по каналу связи при воздействии помех

выражает неопределенность того что, отправив xi, мы получим yj, а понятие - неуверенность, которая остается после получения yj в том, что было отправлено именно xi. Если в канале связи помехи отсутствуют, то всегда посланному символу x1 соответствует принятый символ y1, x2 - y2,..., xn - yn. При этом энтропия источника H(X) равна энтропии приемника H(Y). Если в канале связи присутствуют помехи, то они уничтожают часть передаваемой информации.

Для вычисления энтропии совместного появления статистически зависимых сообщений используется понятие энтропии объединения. Энтропия объединения представляет собой сумму вида:

(2)

Энтропия объединения и условная энтропия связаны между собой следующими соотношениями:

H(X,Y) = H(X) + H(X/Y) = H(Y) + H(X/Y) (3)

В случае если X и Y между собой независимы, то условная энтропия равняется безусловной H(Y/X)=H(Y) и H(X,Y)=H(X)+H(Y).

В общем случае энтропия объединенной системы H(X,Y)≤ H(X)+H(Y), это следует из того что: H(Y/X)≤H(Y) условная энтропия меньше безусловной. Энтропия объединенной системы достигает максимум, только в случае если системы независимы.

В случае полной зависимости систем, состояния одной системы полностью определяют состояния другой (они эквивалентны): H(X,Y)=H(X)=H(Y), так как H(Y/X)=0.

Основные свойства условной энтропии

1. Если сообщения X и Y статистически независимы, то условная энтропия сообщений Y относительно X равна безусловной энтропии сообщений Y: H(Y/X)=H(Y). В этом случае вся информация, которую содержат сообщения Y, является новой по отношению к информации, содержащейся в сообщениях X.

В самом деле, если сообщения X и Y статистически независимы, то p(yj/xi)=p(yj) и общая условная энтропия может быть записана в форме

Так как сумма вероятностей всех состояний Х равна единице , то или Р(Y/X)=Р(Y).

2. Если сообщения X и Y являются статистически жестко связанными, то условная энтропия сообщений Y относительно X равна нулю H(Y/X)=0. Это означает, что сообщения Y не содержат никакой новой информации сверх той, которая содержится в сообщениях Х.

3. Условная энтропия всегда меньше безусловной энтропии H(Y/X)<H(Y).

В случае если имеются n - зависимых систем, энтропия объединения будет равна:

H(X1; X2; X3;...;Xn) = H(X1)+H(X2 /X1)+H(X3 /X1 X2) +... +H(Xn / X 1X 2... Xn). Энтропия первой системы входит полностью, энтропия второй системы с учетом того, что первая определена, третей - первые две определены и т.д.

Date: 2015-08-07; view: 839; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.005 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию