Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Краткие теоретические сведения. для системы, состоящей из т элементов, каждый из которых может находиться в одном из п состоянийСтр 1 из 5Следующая ⇒
Ход работы По формуле Хартли:
Т.е. m-длина слова n-длина алфавита
Рассчитаем количество информации, подставив заданные значения в формулу Хартли. Количество информации равно: I = n log m = 8 log2 2 = 8 бит. Вывод
1. Количество информации в сообщении обратно – пропорционально вероятности появления данного сообщения. 2. Свойство аддитивности – суммарное количество информации двух источников равно сумме информации источников. 3. Для события с одним исходом количество информации равно нулю. 4. Количество информации в дискретном сообщении растет в зависимости от увеличения объема алфавита – m.
Министерство образования и науки, молодёжи и спорта Украины Одесский национальный политехнический университет Институт компьютерных систем Кафедра компьютеризированных систем управления
Лабораторная работа №2 По дисциплине: «Теория информации» На тему: «Определение количества информации по Шеннону»
Выполнила: студентка группы АТ-092 Задыр И.Г. Проверила: доц. Трофименко Т.Г.
Одесса 2012г. Краткие теоретические сведения Энтропия источника сообщения (формула Шенона) К. Шенон в 1948 году ввел вероятностную меру информации, и создал достаточно аналитический аппарат, на который операется вся современная теория информации. Источник сообщений выбирает и посылает приемнику буквы по определенному вероятностному закону. До прихода очередной буквы в приемник была неопределенность, какую букву выберет и пошлет в канал связи источник. После приема очередной буквы у приемника снимается эта неопределенность. Таким образом, передача сообщений это процедура снятия неопределенности у приемника. Например, бинарный источник посылает букву с вероятностью и букву с вероятностью . Если = 0,9 и = 0,1, то появления у приемника а, будет менее неожиданным, чем и эта буква будет нести меньше информации. При возрастании вероятности появления в пределе значение стремится к единице. При = 1 процесс становится полностью детерминированным, заранее полностью предсказанным, а количество информации в этой букве становится равным нулю. По мере уменьшения вероятности появление буквы будет все более редким, все более неожиданным, а количество информации в этой букве возрастает и при стремится к бесконечности (но эта буква никогда не будет появляться). Э предложенное К. Шенноном рассуждение позволило ему ввести понятие| среднем количестве информации, приходящемся на одну букву, которое должно учитывать вероятность ее появления. Очень длинное слово длиной т (для которого количество i-тых букв разобьем на группы букв таким образом, чтобы в каждую групп входили буквы с одинаковой вероятностью появления. Тогда к каждой групп может быть применима формула Хартли. Если буквы равновероятны, топри алфавите п вероятности появления каждой буквы , формулу Хартли можно записать в виде . Тогда после разбиения алфавита на группы равновероятных букв, получим:
Задание:
1. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = 3/4; pi1 = 1/4. 2. Определить энтропию источника, относительная приведенная погрешность сигнала которого . Причем 40 букв из 200 букв алфавита имеет вероятность появления =0.9, а остальные 160 букв – вероятность появления 0.1. Date: 2015-07-02; view: 357; Нарушение авторских прав |