Метод обратного распространения ошибки (Back propagation, backprop) - алгоритм обучения многослойных персептронов, основанный на вычислении градиента функции ошибок. В процессе обучения веса нейронов каждого слоя нейросети корректируются с учетом сигналов, поступивших с предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно в обратном направлении от последнего слоя (где она определяется по выходам сети) к первому.

См. также: Градиентное обучение, Функция ошибок.

Литература:
1) А.Н.Горбань, "Обучение нейронных сетей", М.: СП ПараГраф. 1991.

Ссылки:
1) Ф.Уоссермен, "Нейрокомпьютерная техника.", М.: Мир, 1992. - Глава 3.
2) Neural Bench: ИСПОЛЬЗОВАНИЕ НЕЙРОПАРАДИГМЫ "BACK PROPAGATION" ДЛЯ РЕШЕНИЯ ПРАКТИЧЕСКИХ ЗАДАЧ
3) Neural Bench: NEURAL NETWORK WITH BACK PROPAGATION TRAINING ALGORITHM
4) Neural Bench: Многослойная нейронная сеть и алгоритм обратного распространения ошибки
5) StatSoft: Нейронные сети - Алгоритм обратного распространения
6) С.Короткий, "Нейронные сети: алгоритм обратного распространения"
7) NeuroPower: Курс лекций по предмету "Основы проектирования систем с искусственным интеллектом". Глава 3.3. Нейронные сети. История исследований, модель с обратным распространением ошибки - перепечатка статьи С.Короткого в формате HTML.
8) А.Ежов, С.Шумский, "Нейрокомпьютинг и его применение в экономике и бизнесе",1998.(PostScript, zip). Метод обратного распространения обсуждается в Лекции 3.
9) Лекция 2. Обучение с учителем: Распознавание образов - перепечатка той же лекции в формате HTML Частные объявления. Барахолка - компрессор воздушный электрический.

Hosted by uCoz