Что такое разреженное преобразование Фурье?


46

В последнее время MIT немного шумит из-за нового алгоритма, который преподносится как более быстрое преобразование Фурье, которое работает с определенными типами сигналов, например: « Более быстрое преобразование Фурье названо одной из самых важных появляющихся технологий в мире ». Журнал MIT Technology Review сообщает :

С помощью нового алгоритма, называемого разреженным преобразованием Фурье (SFT), потоки данных могут обрабатываться в 10-100 раз быстрее, чем это было возможно с помощью FFT. Ускорение может произойти, потому что информация, о которой мы заботимся больше всего, имеет большую структуру: музыка - это не случайный шум. Эти значимые сигналы обычно имеют только часть возможных значений, которые может принимать сигнал; технический термин для этого - то, что информация "редка". Поскольку алгоритм SFT не предназначен для работы со всеми возможными потоками данных, он может использовать определенные сочетания клавиш, которые иначе недоступны. Теоретически алгоритм, который может обрабатывать только разреженные сигналы, гораздо более ограничен, чем БПФ. Но «редкость везде», - отмечает соавтор Катаби, профессор электротехники и компьютерных наук. "Это в природе, это ' s в видеосигналах; это в звуковых сигналах. "

Может ли кто-нибудь здесь дать более техническое объяснение того, что на самом деле представляет собой алгоритм и где он может быть применим?

РЕДАКТИРОВАТЬ: Некоторые ссылки:

Ответы:


40

NkNNkkk

kNkO(nlogn)O(klogn)

kkO(klognlognk)

12111210Nk[2000,106]

введите описание изображения здесь

Эти условия действительно ограничивают применимость алгоритма в тех случаях, когда вы знаете, что в спектре сигнала может быть несколько значительно больших пиков. Один пример, который они приводят на своем веб-сайте, заключается в том, что в среднем блоки пикселей 8 на 8, часто используемые при сжатии изображений и видео, почти на 90% редки в частотной области и, таким образом, могут извлечь выгоду из алгоритма, использующего это свойство. Этот уровень разреженности, кажется, не совпадает с пространством приложения для этого конкретного алгоритма, поэтому он может быть просто иллюстративным примером.

Мне нужно немного прочитать литературу, чтобы лучше понять, насколько практичен такой метод для использования в реальных задачах, но для определенных классов приложений он может подойти.


2
Так что в основном это БПФ с потерями? Как кодировщик MP3?
эндолит

3
kk

Интересно, как это идет вразрез с алгоритмом Гёртцеля (или их семейством). Кажется, единственное различие заключается в том, что в goertzel вы знаете, что вы ищете для начала.
Спейси

5
@endolith: сжатие MP3 с потерями, потому что коэффициенты квантованы; не потому, что сохраняются только верхние коэффициенты k. Разреженное БПФ = "что такое представление k-коэффициентов, минимизирующее разницу с входным сигналом". Кодирование mp3-кадра = «каковы квантованные коэффициенты и уровни квантования, которые минимизируют (воспринимаемую) ошибку, учитывая бюджет N битов для хранения коэффициентов и масштабных коэффициентов».
Pichenettes

1
Когда они выбрасываются, это побочный эффект квантования (значение округляется до 0)
pichenettes

7

Я не читал статью о sFFT, но мне кажется, что идея закрепить FFT за спиной заключается в использовании априора k-sparsity. Следовательно, не нужно вычислять все записи коэффициентов БПФ, вместо этого нужно только вычислять k из них. Вот почему для k-разреженного сигнала сложность O (klog n) вместо O (nlog n) для обычного БПФ.

В любом случае, в отношении комментариев @rcmpton, говоря: «Идея сжатого зондирования заключается в том, что вы можете восстанавливать разреженные данные из разреженных случайных выборок, взятых из другой области (например, восстанавливать разреженные изображения из случайных данных разреженной частоты (например, МРТ)) «. Вопрос в том, что такое «редкие случайные выборки»? Я думаю, что это могут быть образцы, собранные путем случайного проецирования разреженных данных в более низкое (измеряемое) подпространство.

И, как я понял, теоретическая основа измерения сжатия в основном состоит из 3 вопросов: разреженности, измерения и восстановления. Из-за редкости он относится к поиску разреженных представлений для определенного класса сигналов, что является задачей изучения словаря. Измерением это относится к поиску эффективного способа (вычислительной эффективности и восстанавливаемого) для измерения данных (или проецирования данных в более низкое пространство измерений), что является задачей проектирования матрицы измерения, такой как случайная гауссова матрица, структурированная случайная матрица,. ... И при восстановлении - это редкие регуляризованные задачи линейной инверсии, l0, l1, l1-l2, lp, l-group, blabla ..., и результирующие алгоритмы различны: поиск соответствия, мягкое определение порога, жесткое определение порога, основа погони, байесовская, ....

Это правда, что «cs - это минимизация нормы L1», а норма L1 - основной принцип для cs, но cs - это не только минимизация нормы L1. Помимо трех вышеуказанных частей, существуют также некоторые расширения, такие как структурированное (групповое или модельное) сжатие, где также используется структурированная разреженность, и доказано, что она в значительной степени улучшает способность к восстановлению.

В заключение, cs является большим шагом в теории дискретизации, обеспечивая эффективный способ выборки сигналов, при условии, что эти сигналы достаточно разрежены . Итак, cs - это теория выборки , любой, кто собирается использовать ее в качестве некоторой техники для классификации или распознавания, вводит в заблуждение принцип. И иногда я нахожу какую-то статью с заголовком «на основе сжатия», и я думаю, что принцип такой бумаги заключается в использовании l1-минимизации вместо cs, и лучше использовать «l1-минимизацию на основе ....» ».

Если я ошибаюсь, поправьте меня, пожалуйста.


Добро пожаловать в DSP.SE Это большой вклад.
Фонон

6

Я просмотрел статью и думаю, что получил общее представление о методе. «Тайный источник» метода состоит в том, как получить разреженное представление входного сигнала в частотной области. Предыдущие алгоритмы использовали вид грубой силы для определения местоположения доминирующего разреженного коэффициента. Этот метод использует вместо этого технику, которая называется «восстановление пространства» или « wiki-статья со сжатием» , здесь . Точный метод разреженного восстановления, используемый здесь, похож на «жесткий порог» - один из доминирующих методов разреженного восстановления.

Метод PS разреженного восстановления / сжатого зондирования и связанный с ним минимизация L1 широко использовались в современной обработке сигналов и особенно в связи с преобразованием Фурье. На самом деле это необходимо знать для современной обработки сигналов. Но прежде преобразование Фурье использовалось в качестве одного из методов решения проблемы разреженного восстановления. Здесь мы видим противоположное - редкое восстановление для преобразования Фурье.

Хороший сайт для обзора сжатых ощущений: nuit-blanche.blogspot.com/

PPS ответ на предыдущий комментарий - если входной сигнал не совсем разреженный, это с потерями.

Не стесняйтесь поправлять меня, если я ошибся в методе.


Бумага БПФ не воспринимает сжатие. Идея сжатого зондирования заключается в том, что вы можете восстанавливать разреженные данные из разреженных случайных выборок, взятых из другой области (например, восстанавливать разреженные изображения из случайных разреженных частотных данных (например, МРТ)). Хотя это может сократить время сбора данных, оно увеличивает вычислительные затраты. Бумага FFT отличается тем, что у вас есть все данные в обеих областях, и цель состоит в том, чтобы ускорить вычисления.
Dranxo

Вы не правы в отношении сжатых ощущений.
mirror2image

1
Можете ли вы уточнить?
Dranxo

LpAx=yRmyin,m>>nwithconstraint
mirror2image

min|x|1Ax=y
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.