Многослойный персептрон (MLP) - нейронная сеть прямого распространения сигнала (без обратных связей), в которой входной сигнал преобразуется в выходной, проходя последовательно через несколко слоев. Первый из таких слоев называют входным, последний - выходным. Эти слои содержат так называемые вырожденные нейроны и иногда в количестве слоев не учитываются. Кроме входного и выходного слоев в многослойном персептроне есть один или несколько промежуточных (скрытых) слоев.


Двухслойный персептрон (входной слой не учитывается)

См. также: Слой, Обратное распространение ошибки.

Литература:
1) C.M.Bishop, "Neural networks and pattern recognition", Oxford Press, 1995.
2) L.V.Fausett, "Fundamentals of Neural Networks: Architectures, Algorithms and Applications", Prentice Hall, 1994.
3) T.Masters, "Practical Neural Network Recipes in C++", Academic Press, 1994.
4) J.Hertz, A.Krogh, R.Palmer, "Introduction to the Theory of Neural Computation", Addison-Wesley, 1991.

Ссылки:
1) С.Короткий, "Нейронные сети: основные положения" (MS Word, zip).
2) А.Ежов, С.Шумский, "Нейрокомпьютинг и его применение в экономике и бизнесе",1998.(PostScript, zip). О многослойных персептронах и алгоритмах их обучения можно прочитать в Лекции 3.
3) Лекция 2. Обучение с учителем: Распознавание образов - перепечатка той же лекции в формате HTML.
4) Neural Bench: Многослойные нейронные сети и алгоритм обратного распространения
5) Ф.Уоссермен, "Нейрокомпьютерная техника.", М.: Мир, 1992. - Глава 2.
6) StatSoft: Нейронные сети - Многослойный персептрон (MLP)

Hosted by uCoz