Многослойный персептрон (MLP) - нейронная
сеть прямого распространения сигнала (без обратных связей), в которой входной
сигнал преобразуется в выходной, проходя последовательно через несколко
слоев. Первый из таких слоев называют входным, последний - выходным. Эти
слои содержат так называемые вырожденные нейроны и иногда в количестве
слоев не учитываются. Кроме входного и выходного слоев в многослойном персептроне
есть один или несколько промежуточных (скрытых) слоев.
Двухслойный персептрон (входной слой не учитывается)
Литература:
1) C.M.Bishop, "Neural networks and pattern recognition", Oxford Press,
1995.
2) L.V.Fausett, "Fundamentals of Neural Networks: Architectures, Algorithms
and Applications", Prentice Hall, 1994.
3) T.Masters, "Practical Neural Network Recipes in C++", Academic Press,
1994.
4) J.Hertz, A.Krogh, R.Palmer, "Introduction to the Theory of Neural
Computation", Addison-Wesley, 1991.
Ссылки:
1) (MS Word, zip).
2) (PostScript,
zip). О многослойных персептронах и алгоритмах их обучения можно прочитать
в .
3) - перепечатка той же
в формате HTML.
4) 5) .
6)