![]() Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
![]() Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
![]() |
Краткие теоретические сведения. для системы, состоящей из т элементов, каждый из которых может находиться в одном из п состоянийСтр 1 из 5Следующая ⇒
Ход работы По формуле Хартли:
Т.е. m-длина слова n-длина алфавита
Рассчитаем количество информации, подставив заданные значения в формулу Хартли. Количество информации равно: I = n log m = 8 log2 2 = 8 бит. Вывод
1. Количество информации в сообщении обратно – пропорционально вероятности появления данного сообщения. 2. Свойство аддитивности – суммарное количество информации двух источников равно сумме информации источников. 3. Для события с одним исходом количество информации равно нулю. 4. Количество информации в дискретном сообщении растет в зависимости от увеличения объема алфавита – m.
Министерство образования и науки, молодёжи и спорта Украины Одесский национальный политехнический университет Институт компьютерных систем Кафедра компьютеризированных систем управления
Лабораторная работа №2 По дисциплине: «Теория информации» На тему: «Определение количества информации по Шеннону»
Выполнила: студентка группы АТ-092 Задыр И.Г. Проверила: доц. Трофименко Т.Г.
Одесса 2012г. Краткие теоретические сведения Энтропия источника сообщения (формула Шенона) К. Шенон в 1948 году ввел вероятностную меру информации, и создал достаточно аналитический аппарат, на который операется вся современная теория информации. Источник сообщений выбирает и посылает приемнику буквы по определенному вероятностному закону. До прихода очередной буквы в приемник была неопределенность, какую букву выберет и пошлет в канал связи источник. После приема очередной буквы у приемника снимается эта неопределенность. Таким образом, передача сообщений это процедура снятия неопределенности у приемника. Например, бинарный источник посылает букву
Очень длинное слово длиной т (для которого количество i-тых букв входили буквы с одинаковой вероятностью появления. Тогда к каждой групп может быть применима формула Хартли. Если буквы равновероятны, топри алфавите п вероятности появления каждой буквы можно записать в виде
Задание:
1. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = 3/4; pi1 = 1/4. 2. Определить энтропию источника, относительная приведенная погрешность сигнала которого Date: 2015-07-02; view: 369; Нарушение авторских прав |