Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Неоднозначные грамматики. Ассоциативность
Рассмотрим конфигурации, возникающие при анализе строки 1+2+3.
После последнего шага возникает конфликт перенос-свертка. Выбор переноса делает сложение правоассоциативным, выпор свертки - левоассоциативным. Так как левоассоциативное сложение более естественно, свертка предпочтительна. В данном случае не существует эквивалентной однозначной грамматики. Формализма грамматик не хватает для описания данной ситуации и необходимы дополнительные средства. Таким образом, существуют ряд стандартных ситуаций, в которых возникают неоднозначные грамматики. Большая часть подобных ситуаций может быть решена преобразованием грамматик («висящие» else, приоритет операций и т.д.), но не всегда это необходимо («висящие» else) и не всегда является лучшим решением. Существуют ситуации, когда подходящее преобразование грамматики не существует, в таких случаях необходимо привлекать дополнительные механизмы, как это сделано, например, для определения ассоциативности операций.
11, 12, 13, 14.
Классификация искусственных нейронных сетей (ИНС), используемых в системах искусственного интеллекта. Типовая постановка нейросетевой задачи. Методы обучения ИНС, обобщение обучающих примеров. Классификация ИНС.
Фиксируется ввод и вывод, меняются параметры. Обучение (настройка) – изменение весовых коэффициентов.
Если подать фрагмент и он однозначен, то сеть должна восстановить целое.
Создаёт ассоциации: Аi ® Bi
Обучение по принципу «победитель – забирает всё». Самоорганизующаяся сеть (не знаем правильный выход). Учиться по алгоритму обучения (настройка весовых коэффициентов)
Слой А – слой сравнения Слой B – слой распознавания
Обладает свойством классичности, т.е. дообучаемости
Методы обучения Алгоритмы обучения бывают с учителем и без. Алгоритм называется алгоритмом с учителем, если при обучении известны и входные, и выходные вектора сети. Имеются пары вход + выход — известные условия задачи и решение. В процессе обучения сеть меняет свои параметры и учится давать нужное отображение X ®Y. Сеть учится давать результаты, которые нам уже известны. За счет способности к обобщению сетью могут быть получены новые результаты, если подать на вход вектор, который не встречался при обучении. Алгоритм относится к обучению без учителя, если известны только входные вектора, и на их основе сеть учится давать наилучшие значения выходов. Что понимается под “наилучшими” — определяется алгоритмом обучения. Перцептрон обучается с учителем. Это означает, что должно быть задано множество пар векторов {xs,ds}, s =1...S, где {xs}={x1,..., xS } — формализованное условие задачи, а {ds}={d1,..., dS } — известное решение для этого условия. Совокупность пар {xs,ds} составляет обучающее множество. S — количество элементов в обучающем множестве — должно быть достаточным для обучения сети, чтобы под управлением алгоритма сформировать набор параметров сети, дающий нужное отображение X →Y. Количество пар в обучающем множестве не регламентируется. Если элементов слишком много или мало, сеть не обучится и не решит поставленную задачу. Выберем один из векторов xs и подадим его на вход сети. На выходе получится некоторый вектор ys. Тогда ошибкой сети можно считать для каждой пары (xs,ds). Чаще всего для оценки качества обучения выбирают суммарную квадратическую ошибку: . Реже применяется средняя относительная ошибка: . Ее преимущество в том, что она дает значение, не зависящее напрямую ни от количества примеров в обучающем множестве, ни от размерности выходного вектора, и имеет удобное для восприятия человеком значение в интервале от 0 до 100%. Задача обучения перцептрона ставится так: подобрать такие значения параметров сети, чтобы ошибка была минимальна для данного обучающего множества {xs,ds }. Большая часть методов обучения — итерационные. Параметрам сети (весовым коэффициентам и пороговым уровням) присваиваются малые начальные значения. Затем параметры изменяются так, чтобы ошибка E убывала. Изменения продолжаются до тех пор, пока ошибка не станет достаточно малой.
Date: 2016-05-25; view: 523; Нарушение авторских прав |