![]() Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
![]() Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
![]() |
Определение количества информации
Пусть сообщение состоит из одного символа. Если вероятности появления всех символов одинаковы и равны P = 1/m, то количество информации, которое переносит символ, можно выразить как
Здесь количество информации связано с вероятностью появления символа. В реальных сообщениях символы
Среднее количество информацииH(A), которое приходится на один символ источника сообщений можно найти усреднением по всему объему алфавита
Эта величина называется энтропией источника дискретных сообщений. Формула (1) носит название формулы Шеннона. Энтропия рассматривается как мера неопределенности в поведении источника сообщений. При вероятностном подходе состояние источника информации характеризуется неопределенностью. Неопределенность снижается при приеме сообщения, т.е. получении информации. Поэтому получаемая информация, приходящаяся в среднем на один символ источника сообщений, количественно определяет степень уменьшения неопределенности. Энтропия является непрерывной функцией от вероятностей появления символов и обладает следующими свойствами: · Энтропия источника дискретных сообщений есть величина вещественная, ограниченная и неотрицательная. · Энтропия равна нулю, если с вероятностью единица выбирается один и тот же символ (неопределенность в поведении источника отсутствует). · Энтропия максимальна, если все символы источника появляются независимо и с одинаковой вероятностью:
Если символы являются взаимосвязанными (коррелированными друг с другом), то используется понятие условной энтропии
где Из-за корреляционных связей символов и неравновероятного их появления в реальных сообщениях снижается среднее количество информации, которое переносит один символ. Эти потери информации характеризуются коэффициентом избыточности
Наиболее часто основание логарифма в (1) принимают равным 2. При этом единицей количества информации является бит (binarydigit). Производительностью источника сообщений называется среднее количество информации, выдаваемой источником в единицу времени, а именно
Для каналов передачи информации вводят аналогичную характеристику – скорость передачи информации C. Максимальное её значение называется пропускной способностью канала. Для дискретного канала
где V – скорость передачи электрических кодовых сигналов. Тема 3: Энтропия как мера неопределенности выбора. Сообщение как совокупность сведений о состоянии физической системы.
Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом составе сырья или температуре в печи. На вход системы управления средствами противовоздушной обороны может быть передано сообщение о том, что в воздухе находятся две цели, летящие на определенной высоте, с определенной скоростью. На тот же вход может быть передано сообщение о том, что на определенном аэродроме в данный момент находится такое-то количество истребителей в боевой готовности, или что аэродром выведен из строя огневым воздействием противника, или что первая цель сбита, а вторая продолжает полет с измененным курсом. Любое из этих сообщений описывает состояние какой-то физической системы. Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение приобретает смысл только тогда, когда состояние системы заранее неизвестно, случайно. Поэтому в качестве объекта, о котором передается информация, мы будем рассматривать некоторую физическую систему Возникает естественный вопрос: что значит «большая» или «меньшая» степень неопределенности и чем можно ее измерить? Чтобы ответить на этот вопрос, сравним между собой две системы, каждой из которых присуща некоторая неопределенность. В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: 1) выпал герб и 2) выпала цифра. В качестве второй - игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, неопределенность какой системы больше? Очевидно, второй, так как у нее больше возможных состояний, в каждом из которых она может оказаться с одинаковой вероятностью. Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако в общем случае это не так. Рассмотрим, например, техническое устройство, которое может быть в двух состояниях: 1) исправно и 2) отказало. Предположим, что до получения сведений (априори) вероятность исправной работы устройства 0,99, а вероятность отказа 0,01. Такая система обладает только очень малой степенью неопределенности: почти наверное можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Мы видим, что степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний. Перейдем к общему случаю. Рассмотрим некоторую систему
- вероятность того, что система Запишем эти данные в виде таблицы, где в верхней строке перечислены возможные состояния системы, а в нижней - соответствующие вероятности:
Эта табличка по написанию сходна с рядом распределения прерывной случайной величины В качестве меры априорной неопределенности системы (или прерывной случайной величины Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
Энтропия Логарифм в формуле может быть взят при любом основании В дальнейшем мы будем везде, если не оговорено противное, под символом В приложении (табл. 6) даны двоичные логарифмы целых чисел от 1 до 100. Легко убедиться, что при выборе 2 в качестве основания логарифмов за единицу измерения энтропии принимается энтропия простейшей системы
Действительно, по формуле (2) имеем:
Определенная таким образом единица энтропии называется «двоичной единицей» и иногда обозначается bit (от английского «binarydigit» - двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах энтропию системы
Имеем: или
т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями Докажем, что в случае, когда состояние системы в точности известно заранее, ее энтропия равна нулю. Действительно, в этом случае все вероятности
Докажем, что энтропия системы с конечным множеством состояний достигает максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию системы (2) как функцию вероятностей
Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции:
Дифференцируя (5) по
или
откуда видно, что экстремум (в данном случае максимум) достигается при равных между собой значениях
а максимальная энтропия системы равна:
т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле (2) можно несколько упростить, если ввести в рассмотрение специальную функцию:
где логарифм берется по основанию 2. Формула принимает вид:
Функция Пример 1. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: 1) оба самолета не сбиты; 2) истребитель сбит, бомбардировщик не сбит; 3) истребитель не сбит, бомбардировщик сбит; 4) оба самолета сбиты. Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Решение. Записываем условия в виде таблицы:
По формуле (18.2.10) имеем:
Пользуясь таблицей 7 приложения, находим
Пример 2. Определить энтропию системы, состояние которой описывается прерывной случайной величиной
Date: 2015-08-07; view: 1826; Нарушение авторских прав |