Каков эффект НЕ изменения веса фильтра CNN во время обратного распространения? Я изменил только веса полностью связанных слоев во время обучения на наборе данных MNIST и все еще достиг почти 99-процентной точности.
Каков эффект НЕ изменения веса фильтра CNN во время обратного распространения? Я изменил только веса полностью связанных слоев во время обучения на наборе данных MNIST и все еще достиг почти 99-процентной точности.
Ответы:
Не меняя веса сверточных слоев CNN, вы по существу вводите в свой классификатор (полностью связанный слой) случайные признаки (т. Е. Не оптимальные характеристики для рассматриваемой задачи классификации).
MNIST является легко достаточно классификацией изображений задачи , которую вы можете в значительной степени кормить входные пикселями классификатором без выделения признаков , и она будет забивать в высоких 90 - х годах. Кроме того, возможно, объединяющие слои немного помочь ...
Попробуйте обучить MLP (без слоев conv / pool) на входном изображении и посмотреть, как оно расположено. Вот пример, где MLP (1 скрытый и 1 выходной слой) достиг 98 +% без какой-либо предварительной обработки / извлечения объектов.
Редактировать:
Я также хотел бы указать на другой ответ , который я написал, в котором более подробно объясняется, почему MNIST так прост, как задача классификации изображений.