Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Количество информации





Количеством информации называется степень уменьшения неопределенности после выбора (получения) сообщения в виде некоторого сигнала.

Например, если студент, первый подошедший к столу экзаменатора, тянет билет из 25 билетов, лежащих на столе, то вероятность p (возможность) того, что он вытащит билет с заданным номером равна 1/25 (одна возможность из 25), т.е. р = 1/25. После выбора билета неопределенности уже нет. Таким образом, число 25 можно было бы считать количеством информации, заложенным в одном выборе из 25 возможностей. Однако такое представление не является достаточно удобным, поскольку число возможностей в различных физических процессах может отличаться на много порядков. Р.Хартли предложил в качестве меры неопределенности логарифм от числа возможностей

где k - коэффициент пропорциональности; m - число возможных выборов;

а - основание логарифма. При k = 1 и а = 2 стандартной единицей количества информации будет выбор их двух возможностей. Такая единица носит наименование бита и может быть представлена одним символом двоичного алфавита, обычно 0 или 1.

Количество информации определяется как разность неопределенности до получения сообщения и после. Если после получения сообщения неопределенность устраняется полностью, то формулы для определения количества информации и неопределенности совпадают.

Клод Шеннон обобщил формулу неопределенности на случай, когда Н зависит не только от m, но и от вероятностей выбора символов и вероятностей связи между ними.

Так, для количества сообщенной или индивидуальной информации он предложил соотношение

где Рi - вероятность выбора i-го символа алфавита.

Удобнее в качестве количества информации пользоваться не значением hi, а средним значением количества информации, приходящейся на один символ алфавита:

Для непрерывного сигнала эта формула приобретает вид:

где p(x) - плотность распределения вероятности.







Date: 2015-11-13; view: 411; Нарушение авторских прав



mydocx.ru - 2015-2024 year. (0.006 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию