Поэтому, рассматривая нейронные сети с радиальной базисной функцией, я заметил, что люди рекомендуют использовать только 1 скрытый слой, тогда как в многослойных нейронных сетях персептрона больше слоев считается лучшим.
Учитывая, что сети RBF могут быть обучены с использованием версии обратного распространения, есть ли причины, по которым более глубокие сети RBF не будут работать, или что уровень RBF не может использоваться в качестве предпоследнего или первого уровня в сети с глубокой MLP? (Я думал о предпоследнем слое, чтобы его можно было обучить основным возможностям предыдущих уровней MLP)