Я предполагаю, что под 1D-сигналом вы подразумеваете данные временных рядов, где вы предполагаете временную зависимость между значениями. В таких случаях сверточные нейронные сети (CNN) являются одним из возможных подходов. Наиболее популярный подход нейронной сети к таким данным - использование рекуррентных нейронных сетей (RNN), но вы можете альтернативно использовать CNN или гибридный подход (квазикуррентные нейронные сети, QRNN), как обсуждалось в Bradbury et al (2016) , а также показано на их рисунке ниже. Существуют и другие подходы, например использование только внимания, например, в сети Transformer, описанной Vaswani et al. (2017) , где информация о времени передается с помощью функций ряда Фурье .
При использовании RNN вы должны использовать ячейку, которая принимает в качестве входных данных предыдущее скрытое состояние и текущее входное значение, чтобы возвращать выходные данные и другое скрытое состояние, чтобы информация проходила через скрытые состояния . В CNN вы будете использовать скользящее окно некоторой ширины, которое будет выглядеть в определенных (изученных) шаблонах в данных, и размещать такие окна друг над другом, чтобы окна более высокого уровня искали шаблоны внутри более низкого уровня. узоры. Использование таких скользящих окон может быть полезно для поиска таких вещей, как повторяющиеся шаблоны в данных (например, сезонные модели). Слои QRNN смешивают оба подхода. Фактически, одно из преимуществ архитектур CNN и QRNN заключается в том, что они работают быстрее, чем RNN .