Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Единицы измерения информации в вычислительной технике
Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.). В теории информации количеством информации называют числовую характеристику сигнала, которая не зависит от его формы и содержания и характеризует неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии. Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении о нем равно 0. Чем невероятнее событие, тем большее количество информации несет сообщение о нем. Лишь при равновероятных ответах ответ “да” или “нет” несет один бит информации. Количество информации при вероятностном подходе можно вычислить, пользуясь следующими формулами: 1). Формула Хартли. I = log2 N или 2I = N, где N - количество равновероятных событий (число возможных выборов), I - количество информации. 2). Модифицированная формула Хартли. и формула имеет вид I = log2 (1/p) = - log2 p где p- вероятность наступления каждого из N возможных равновероятных событий. 3). Формула Шеннона. H = S pi hi = - S pi log2 pi где pi - вероятность появления в сообщении i-го символа алфавита; hi = log2 1/pi = - log2 pi - количество собственной информации, переносимой одним символом; Н - среднее значением количества информации. Измерение информации
УМЕТЬ Технический аспект измерения информации
|