Мне интересно, как интерпретировать рекуррентную архитектуру в контексте ЭЭГ. В частности, я думаю об этом как о рекуррентном CNN (в отличие от архитектур типа LSTM), но, возможно, это относится и к другим типам рекуррентных сетей.
Когда я читаю о R-CNN, они обычно объясняются в контексте классификации изображений. Они обычно описываются как «обучение во времени» или «включая влияние времени-1 на текущий ввод»
Такое толкование / объяснение становится действительно запутанным при работе с данными ЭЭГ. Пример использования R-CNN в данных ЭЭГ можно найти здесь
Представьте, что у меня есть тренировочные примеры, каждый из которых состоит из массива 1x512. Этот массив фиксирует показания напряжения для 1 электрода в 512 последовательных временных точках. Если я использую это в качестве входных данных для рекуррентного CNN (с использованием одномерных сверток), рекуррентная часть модели фактически не захватывает «время», верно? (как следует из описанных ранее описаний / объяснений), потому что в этом контексте время уже захвачено вторым измерением массива
Итак, с такой установкой, что на самом деле повторяющаяся часть сети позволяет нам моделировать то, что обычная CNN не может (если не время)?
Мне кажется, что повторение означает просто свертку, добавление результата к исходному вводу и повторную свертку. Это повторяется для x повторяющихся шагов. Какое преимущество на самом деле дает этот процесс?