Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Количество информации
Количеством информации называется степень уменьшения неопределенности после выбора (получения) сообщения в виде некоторого сигнала. Например, если студент, первый подошедший к столу экзаменатора, тянет билет из 25 билетов, лежащих на столе, то вероятность p (возможность) того, что он вытащит билет с заданным номером равна 1/25 (одна возможность из 25), т.е. р = 1/25. После выбора билета неопределенности уже нет. Таким образом, число 25 можно было бы считать количеством информации, заложенным в одном выборе из 25 возможностей. Однако такое представление не является достаточно удобным, поскольку число возможностей в различных физических процессах может отличаться на много порядков. Р.Хартли предложил в качестве меры неопределенности логарифм от числа возможностей где k - коэффициент пропорциональности; m - число возможных выборов; а - основание логарифма. При k = 1 и а = 2 стандартной единицей количества информации будет выбор их двух возможностей. Такая единица носит наименование бита и может быть представлена одним символом двоичного алфавита, обычно 0 или 1. Количество информации определяется как разность неопределенности до получения сообщения и после. Если после получения сообщения неопределенность устраняется полностью, то формулы для определения количества информации и неопределенности совпадают. Клод Шеннон обобщил формулу неопределенности на случай, когда Н зависит не только от m, но и от вероятностей выбора символов и вероятностей связи между ними. Так, для количества сообщенной или индивидуальной информации он предложил соотношение где Рi - вероятность выбора i-го символа алфавита. Удобнее в качестве количества информации пользоваться не значением hi, а средним значением количества информации, приходящейся на один символ алфавита: Для непрерывного сигнала эта формула приобретает вид: где p(x) - плотность распределения вероятности. Date: 2015-11-13; view: 411; Нарушение авторских прав |