Я думаю, что вас смущает пара вещей, поэтому обо всем по порядку.
х [ н ]ч [ п ]х [ н ]ч [ п ]Y[ n ] = ( x ⋆ h ) [ n ]
Y[ n ] = ∑m = - ∞∞х [ м ] ч [ н - м ]
Выше, если для одномерных сигналов, но то же самое можно сказать и для изображений, которые являются просто двумерными сигналами. В этом случае уравнение становится:
яn e w[ r , c ] = ∑u = - ∞∞Σv = - ∞∞яо л г[ u , v ] k [ r - u , c - v ]
Наглядно, это то, что происходит:
В любом случае, следует иметь в виду, что ядро , фактически изученное во время обучения Deep Neural Network (DNN). Ядро просто будет тем, чем вы свернете свой вклад. DNN изучит ядро так, что оно выявляет определенные грани изображения (или предыдущего изображения), которые будут полезны для снижения потери вашей целевой цели.
Это первый важный момент для понимания: традиционно люди проектировали ядра, но в Deep Learning мы позволяем сети решать, какое ядро должно быть лучшим. Однако мы указываем одну вещь - размеры ядра. (Это называется гиперпараметром, например, 5x5 или 3x3 и т. Д.).