Ключевой концепцией, которую вы упускаете, является то, что вы не просто минимизируете разницу между входными и выходными сигналами. Ошибка часто рассчитывается из 2-го входа. Просто посмотрите на пример Википедии, связанный с ЭКГ .
Коэффициенты фильтра в этом примере пересчитываются, чтобы изменить частоту надрезов режекторного фильтра в соответствии с частотой, извлеченной из сетевого сигнала. Можно использовать статический режекторный фильтр, но вам придется отклонить более широкий диапазон частот, чтобы приспособиться к изменчивости частоты сети. Адаптивный фильтр следует за частотой сети, поэтому полоса останова может быть гораздо более узкой, что позволяет сохранить больше полезной информации ЭКГ.
РЕДАКТИРОВАТЬ:
Я снова посмотрел на это и думаю, что понимаю ваш вопрос немного лучше. Алгоритм LMS нуждается в члене ошибки, чтобы обновить коэффициенты фильтра. В приведенном выше примере ЭКГ, который я перефразирую, я даю термин ошибки в качестве второго входа от сетевого напряжения. Теперь я предполагаю, что вы думаете: «Почему бы просто не вычесть шум из сигнала плюс шум, чтобы оставить сигнал?» Это будет нормально работать в простой линейнойсистема. Хуже того, большинство примеров, приведенных в Интернете, говорят вам (правильно, но сбивает с толку), что срок ошибки вычисляется из разницы между желаемым сигналом и выходом адаптивного фильтра. Это заставляет любого разумного человека задуматься: «Если у вас уже есть нужный сигнал, зачем вам вообще что-либо делать?». Это может привести к тому, что у читателя не будет мотивации читать и понимать математические описания адаптивных фильтров. Однако ключ находится в разделе 18.4 Справочника по цифровой обработке сигналов , под ред. Виджей К. Мадисетти и Дуглас Б. Уильям.
где:
- х = входной сигнал,
- у = вывод из фильтра,
- W = коэффициенты фильтра,
- d = желаемый результат,
- е = ошибка
На практике количество процентов не всегда d. Нашим желанием может быть представление в y определенного компонента d, содержащегося в x, или выделение компонента d в пределах ошибки e, который не содержится в x. В качестве альтернативы нас могут интересовать только значения параметров в W, и мы не заботимся о самих x, y или d. Практические примеры каждого из этих сценариев приведены ниже в этой главе.
Есть ситуации, в которых d не всегда доступен. В таких ситуациях адаптация обычно происходит только при наличии d. Когда d недоступен, мы обычно используем наши самые последние оценки параметров для вычисления y в попытке оценить желаемый ответный сигнал d.
Существуют ситуации реального мира, в которых d никогда не доступен. В таких случаях можно использовать дополнительную информацию о характеристиках «гипотетического» d, таких как прогнозируемое статистическое поведение или амплитудные характеристики, для формирования подходящих оценок d из сигналов, доступных для адаптивного фильтра. Такие методы все вместе называются алгоритмами слепой адаптации. Тот факт, что такие схемы даже работают, является данью как изобретательности разработчиков алгоритмов, так и технологической зрелости поля адаптивного фильтрации.
Я буду продолжать опираться на этот ответ, когда у меня будет время, в попытке улучшить пример ЭКГ.
Этот набор лекционных заметок мне особенно понравился: расширенная обработка сигналов, адаптивная оценка и адаптивные фильтры - Данило Мандич