Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Энтропия информацииСтр 1 из 2Следующая ⇒ Свойства количества информации
1. Количество информации в сообщении обратно – пропорционально вероятности появления данного сообщения. 2. Свойство аддитивности – суммарное количество информации двух источников равно сумме информации источников. 3. Для события с одним исходом количество информации равно нулю. 4. Количество информации в дискретном сообщении растет в зависимости от увеличения объема алфавита – m. Пример 1. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = pi1 = 1/2. Количество информации равно: I = n log m = 8 log2 2 = 8 бит. Пример 2. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = 3/4; pi1 = 1/4.
Количество информации равно:
Энтропия информации Э нтропия – содержательность, мера неопределенности информации. Э нтропия – математическое ожидание H(x) случайной величины I(x) определенной на ансамбле {Х, р(х)}, т.е. она характеризует среднее значение количества информации, приходящееся на один символ.
. (6) Определим максимальное значение энтропии Hmax(x). Воспользуемся методом неопределенного множителя Лагранжа -l для отыскания условного экстремума функции [6]. Находим вспомогательную функцию: (7)
Представим вспомогательную функцию F в виде:
. (8)
Найдем максимум этой функции
т. к. .
Как видно из выражения, величина вероятности pi не зависит от i, а это может быть в случае, если все pi равны, т.е. p1 =p2 =…=pm =1/m. При этом выражение для энтропии равновероятных, независимых элементов равно:
. (9)
Найдем энтропию системы двух альтернативных событий с вероятностями p1 и p2. Энтропия равна
|