Это не так просто. Во-первых, SVM, в некотором смысле, является типом нейронной сети (вы можете изучить SVM-решение с помощью обратного распространения). Посмотрите, что * является * искусственной нейронной сетью? , Во-вторых, вы не можете заранее знать, какая модель будет работать лучше, но дело в том, что с полностью нейроморфной архитектурой вы можете изучать весовые коэффициенты от начала до конца, в то время как присоединение SVM или RF к последнему активированному скрытому слою CNN является просто специальная процедура. Он может работать лучше, а может и нет, мы не можем знать без тестирования.
Важной частью является то, что полностью сверточная архитектура способна к обучению репрезентации, что полезно по множеству причин. На этот раз это может уменьшить или полностью исключить разработку функций в вашей проблеме.
Что касается слоев FC, они математически эквивалентны сверточным слоям 1x1. Смотрите пост Яна Лекуна , который я расшифрую ниже:
В Сверточных Сетях нет такого понятия, как «полностью связанные слои». Существуют только слои свертки с ядрами свертки 1x1 и полной таблицей соединений.
Это слишком редко понимаемый факт, что ConvNets не должен иметь вход фиксированного размера. Вы можете обучить их на входах, которые производят один выходной вектор (без пространственного экстента), а затем применить их к большим изображениям. Вместо одного выходного вектора вы получите пространственную карту выходных векторов. Каждый вектор видит входные окна в разных местах на входе.
В этом сценарии «полностью связанные слои» действительно действуют как свертки 1x1.