![]() Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
![]() Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
![]() |
Сеть с линейным поощрением
Созданы сети, промежуточные по отношению к обучению с учителем и без него. В качестве такой модели рассмотрим сеть с линейным поощрением. Эта модель обучается с учителем, т.е. требует знания и выходных, и входных векторов при обучении. Однако в обратном направлении распространяется ограниченный объем информации, меньший, чем при обратном распространении. Все сигналы в сети лежат в интервале [0, 1]. Сеть послойно полносвязная, как и многослойный перцептрон и содержит три слоя нейронов. Последний, третий слой состоит из обычных формальных нейронов с детерминированным поведением и непрерывными выходными сигналами: Скрытый слой состоит из стохастических нейронов с двумя значениями выхода, 0 и 1. Каждое из выходных значений принимается с вероятностями: Первый слой не выполняет вычислений, а лишь распределяет входные сигналы по нейронам второго слоя. Обучающее множество {xs,ds} содержит известные пары выходных и входных векторов, как и в алгоритме обратного распространения, s =1...S — номер эталона в обучающем множестве. Функцию ошибки выберем нормированной и линейной, чтобы ее можно было трактовать как вероятность: где NO — количество выходов сети. За счет нормирования Es Î[0;1]. Выходной слой обучается обычным способом, коррекции весов выходного слоя: 1. Дискретный градационный сигнал с двумя возможными значениями, 0 и 1, с вероятностями p(r =0)=Es, p(r =1)=1−Es 2. Непрерывный градационный сигнал, r =1−Es. Коррекции весов во втором слое выбираются в виде: где ε — скорость обучения; λ<<1 — цена ошибки (в нейронных сетях, в отличие от задач поиска сигналов, цена ошибки намного меньше цены правильного решения). Чтобы лучше понять выражение (), запишем его в алгоритмическом виде для дискретного r: Существует несколько других промежуточных моделей, но сеть с линейным поощрением — одна из немногих успешных.
Date: 2016-05-25; view: 516; Нарушение авторских прав |