Короче говоря, нет ничего особенного в количестве измерений для свертки. Любая размерность свертки может быть рассмотрена, если она подходит для проблемы.
Количество измерений является свойством решаемой проблемы. Например, 1D для аудиосигналов, 2D для изображений, 3D для фильмов. , ,
Вкратце игнорируя количество измерений , при работе с определенными типами данных можно считать следующие преимущества сверточной нейронной сети (CNN) по сравнению с полностью связанными моделями:
Использование общих весов для каждого местоположения, которое обрабатывает свертка, значительно уменьшает количество параметров, которые необходимо изучить, по сравнению с теми же данными, обрабатываемыми через полностью подключенную сеть.
Общие веса является формой регуляризации.
Структура сверточной модели делает сильные предположения о локальных отношениях в данных, которые, когда они истинны, хорошо подходят к проблеме.
3.1 Локальные шаблоны обеспечивают хорошие прогнозирующие данные (и / или могут быть с пользой объединены в более сложные прогнозные шаблоны на более высоких уровнях)
3.2 Типы паттернов, найденных в данных, можно найти в нескольких местах. Поиск одного и того же шаблона в другом наборе данных имеет смысл.
Эти свойства CNN не зависят от количества измерений. Одномерные CNN работают с шаблонами в одном измерении и имеют тенденцию быть полезными при анализе сигналов по сигналам фиксированной длины. Они хорошо работают, например, для анализа аудиосигналов. Также для некоторой обработки естественного языка - хотя рекуррентные нейронные сети, которые допускают различные длины последовательностей, могут быть более подходящими там, особенно те, которые имеют устройства управления памятью, такие как LSTM или GRU. Тем не менее, CNN может быть проще в управлении, и вы можете просто дополнить ввод фиксированной длиной.