Метод обратного распространения ошибки (Back propagation,
backprop) - алгоритм обучения многослойных персептронов, основанный
на вычислении градиента функции ошибок. В процессе обучения веса нейронов
каждого слоя нейросети корректируются с учетом сигналов, поступивших с
предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно
в обратном направлении от последнего слоя (где она определяется по выходам
сети) к первому.