Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Характеристики процессов передачи информации
Производительность источника H’(U) - суммарная энтропия сообщений переданных за единицу времени . Если сообщение может быть представлено в виде последовательности элементарных дискретных сообщений uk источника с энтропией H(U) следующих со скоростью nC=1/N элементов в секунду, то H’(U)= nC *H(U). Все формулы для условной энтропии и кол-ва информации можно применить и здесь, разделив их на Т и обозначая получим соответственные равенства для условных энтропии и количества информации, рассчитанных на одно сообщение a в единицу времени. Величина I’(u,z) называется скоростью передачи информации, I’(u,z)=H’(U)-H’(u|z)=H’(Z)-H’(z|u) (см рис 1.1). Здесь H'(U) – производительность источника, H’(Z) "производительность" канала, H’(u|z) - потеря информации или ненадежность канала, а H’(z|u) скорость создания ложной информации (помехи). По определению Шеннона ненадежность канала является энтропией входа, когда выход известен, т.е. ее можно считать мерой средней неопределенности принятого сигнала. Величина же H’(z|u) есть энтропия выхода, когда вход известен и служит мерой средней неопределенности передаваемого сигнала.
Date: 2016-08-30; view: 292; Нарушение авторских прав |