некоторой точке, возращающая для каждой входной точки тем большие значения,
чем меньше расстояние от центра до этой точки. Типичным примером такой
функции является функция Гаусса (нормальное распределение). Ядерные функции
используются в качестве функций активации в RBF-сетях.
Пример:
где C - центр, - кривизна наклона. |
См. также: RBF-сети, Функция активации, Функция Гаусса.
Литература:
1) J.Moody, C.J.Darken, "Fast Learning In Netwoks of Locally Tuned
Processing Units", Neural Computation, 1989.
2) C.M.Bishop, "Neural networks and pattern recognition", Oxford Press,
1995.
3) S.Haykin, "Neural Networks, a Comprehensive Foundation", Macmillan,
1994.
Ссылки:
1)
2)
3)
4)