Объясните шаги алгоритма LLE (локальное линейное вложение)?


13

Я понимаю, что основной принцип, лежащий в основе алгоритма LLE, состоит из трех этапов.

  1. Нахождение окрестности каждой точки данных по некоторой метрике, такой как k-nn.
  2. Найти веса для каждого соседа, которые обозначают влияние, которое сосед оказывает на точку данных.
  3. Построить низкоразмерное вложение данных на основе вычисленных весов.

Но математическое объяснение шагов 2 и 3 сбивает с толку все учебники и онлайн-ресурсы, которые я читал. Я не могу объяснить, почему формулы используются.

Как эти шаги выполняются на практике? Есть ли интуитивно понятный способ объяснения используемых математических формул?

Ссылки: http://www.cs.nyu.edu/~roweis/lle/publications.html

Ответы:


10

Локальное линейное вложение (LLE) устраняет необходимость оценивать расстояние между удаленными объектами и восстанавливает глобальную нелинейную структуру с помощью локальных линейных подгонок. LLE является выгодным, потому что в нем нет таких параметров, как скорость обучения или критерии конвергенции. LLE также хорошо масштабируется с внутренней размерностью Y . Целевая функция для LLE:

ζ(Y)=(YWY)2=Y(IW)(IW)Y
весовой матрицыW элементовwij для объектовi иj устанавливаются в нольеслиj не является ближайшим соседомi ,противном случае, весов для K- ближайшие соседи объектаi определяются по методу наименьших квадратов
U=Gβ
где зависимая переменнаяявляетсявектором единиц,UK×1G является матрицей Грама для всех ближайших соседей объекта , а - вектором весов которые следуют ограничениям суммы на единицу. Пусть - симметричная положительная полуопределенная матрица расстояний для всех пар K-ближайших соседей -мерного объекта . Можно показать, что равен двухцентровой матрице расстояний с элементами K×KiβK×1DK×KpxiGτ
τlm=12(dlm21Kldlm21Kmdlm2+lmdlm2).
К β К × 1 = ( т т ) К × K - 1 т U К × 1 , β я Коэффициенты регрессии определяются численно с использованием и проверены чтобы подтвердить, что они сводятся к единству. Значения встроены в ряд из на различных позициях столбцов , соответствующих K-ближайших соседей объектаK
βK×1=(ττ)K×K1τUK×1,
βiWi, а также транспонировать элементы. Это повторяется для каждого го объекта в наборе данных. Следует отметить, что если число ближайших соседей слишком мало, то может быть разреженным, что затрудняет собственный анализ. Было обнаружено, что ближайших соседей приводят к матрицам которые не содержат патологий во время собственного анализа. Целевая функция минимизируется путем нахождения наименьших ненулевых собственных значений Сокращенная форма представленаiKWK=9W
(IW)(IW)E=ΛDE.
XY=EE n × 2 Λ где имеет размеры основанные на двух нижних собственных значениях . En×2Λ


YYW

Да, но если есть, скажем, 8 измерений, то для случайных данных буквально каждая точка может быть записана идеально как линейная комбинация из 9 других, бесконечным числом способов.
Скотт

При реализации техники всегда есть сценарии «что если», и именно поэтому используются ограничения параметров.
NXG Logic
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.