Каково многообразное допущение в обучении под наблюдением?


20

Я пытаюсь выяснить, что означает многообразное допущение в обучении под наблюдением. Кто-нибудь может объяснить по-простому? Я не могу получить интуицию за этим.

Это говорит о том, что ваши данные лежат на многомерном многообразии, вложенном в многомерное пространство. Я не понял, что это значит.


Ответы:


38

Представьте, что у вас есть пучок семян, закрепленный на стеклянной тарелке, которая лежит горизонтально на столе. Из-за того, как мы обычно думаем о пространстве, можно с уверенностью сказать, что эти семена живут в двухмерном пространстве, более или менее, потому что каждое семя может быть идентифицировано двумя числами, которые дают координаты этого семени на поверхности стекло.

Теперь представьте, что вы берете пластину и наклоняете ее по диагонали вверх, чтобы поверхность стекла больше не была горизонтальной относительно земли. Теперь, если вы хотите найти один из семян, у вас есть несколько вариантов. Если вы решите игнорировать стекло, то каждое семя будет казаться плавающим в трехмерном пространстве над столом, и поэтому вам нужно будет описать местоположение каждого семени, используя три числа, по одному для каждого пространственного направления. Но просто наклонив стекло, вы не изменили тот факт, что семена все еще живут на двухмерной поверхности. Таким образом, вы могли бы описать, как поверхность стекла лежит в трехмерном пространстве, а затем вы могли бы описать расположение семян на стекле, используя ваши исходные два измерения.

В этом мысленном эксперименте стеклянная поверхность сродни низкоразмерному многообразию, существующему в многомерном пространстве: независимо от того, как вы вращаете пластину в трех измерениях, семена все еще живут вдоль поверхности двумерной плоскости.

Примеры

В более общем смысле, низкоразмерное многообразие, вложенное в многомерное пространство, является просто набором точек, которые по какой-либо причине считаются связными или частью одного и того же набора. Примечательно, что коллектор может быть каким-то образом деформирован в пространстве более высокого измерения (например, возможно, поверхность стекла деформирована в форме чаши, а не в форме пластины), но коллектор все еще в основном низкоразмерен. Особенно в многомерном пространстве это многообразие может принимать разные формы и формы, но поскольку мы живем в трехмерном мире, трудно представить примеры, имеющие более трех измерений. Просто в качестве примера рассмотрим эти примеры:

  • кусок стекла (плоское, двухмерное) в физическом пространстве (трехмерное)
  • одна нить (одномерная) в куске ткани (двухмерная)
  • кусок ткани (двухмерный), смятый в стиральной машине (трехмерный)

Типичные примеры многообразий в машинном обучении (или, по крайней мере, наборы, предположительно живущие вдоль низкоразмерных многообразий) включают в себя:

  • изображения естественных сцен (например, вы обычно не видите изображения белого шума, что означает, что «естественные» изображения не занимают всего пространства возможных конфигураций пикселей)
  • естественные звуки (аналогичный аргумент)
  • движения человека (человеческое тело обладает сотнями степеней свободы, но движения, кажется, живут в пространстве, которое можно эффективно представить, используя ~ 10 измерений)

Учим многообразие

Многочисленное предположение в машинном обучении состоит в том, что вместо предположения, что данные в мире могут поступать из любой части возможного пространства (например, пространства всех возможных 1-мегапиксельных изображений, включая белый шум), имеет больше смысла предполагать эти тренировочные данные поступают из относительно низкоразмерных коллекторов (например, стеклянная пластина с семенами). Тогда изучение структуры многообразия становится важной задачей; кроме того, эта задача обучения представляется возможной без использования помеченных данных обучения.

Есть много, много разных способов изучения структуры низкоразмерного многообразия. Одним из наиболее широко используемых подходов является PCA, который предполагает, что коллектор состоит из одного эллипсоидального «шарика», похожего на блин или сигару, заключенного в пространство более высокого измерения. Более сложные методы, такие как isomap, ICA или разреженное кодирование, по-разному ослабляют некоторые из этих предположений.

Обучение под наблюдением

Причина, по которой многообразное допущение важно в обучении под наблюдением, двояка. Для многих реалистичных задач (например, определения, показывают ли пиксели на изображении 4 или 5), в мире доступно гораздо больше данных без меток (например, изображений, которые могут содержать цифры), чем с метками (например, изображения, которые явно помечены как «4» или «5»). Кроме того, в пикселях изображений доступно на много порядков больше информации, чем в метках изображений, которые имеют метки. Но, как я описал выше, естественные изображения фактически не отбираются из равномерного распределения по конфигурациям пикселей, поэтому кажется вероятным, что существует некоторое многообразие, которое фиксирует структуру естественных изображений.многообразие, в то время как изображения, содержащие 5s, также лежат на другом, но соседнем многообразии, тогда мы можем попытаться разработать представления для каждого из этих многообразий, используя только данные пикселей, надеясь, что разные многообразия будут представлены с использованием различных изученных особенностей данных. Затем, позже, когда у нас будет доступно несколько бит данных меток, мы можем использовать эти биты, чтобы просто применить метки к уже идентифицированным коллекторам.

Большая часть этого объяснения происходит от работы в литературе глубокого и особенного обучения. Йошуа Бенжио и Янн ЛеКун - см. Учебное пособие по энергетическому обучению имеют особенно доступные аргументы в этой области.


1
Это не отвечает на вопрос: вы не объясняете, зачем нужны многообразия, вы в основном объясняете, почему вложения более высокой размерности не нужны (подмножество вложения более высокой размерности не обязательно должно быть многообразием, чтобы соответствовать вашим примерам).
gented

5

Сначала убедитесь, что вы понимаете, что такое вложение. Это заимствовано из математики . Грубо говоря, это отображение данных в другое пространство (часто называемое пространством внедрения или пространством объектов ), сохраняющее некоторую структуру или свойства данных. Обратите внимание, что его размерность может быть больше или меньше, чем пространство ввода. На практике отображение является сложным и сильно нелинейным. Несколько примеров:

  • Действительный "вектор слова" для представления слова, например word2vec.
  • Активации слоя коннетета, такого как слой FCNet AlexNet (FC7 - седьмой полностью подключенный уровень)

Чтобы проиллюстрировать это, я возьму пример этой статьи от Джоша Тененбаума:

Рис. 1 иллюстрирует проблему обнаружения признаков на примере визуального восприятия. Набор видов лица со всех возможных точек зрения представляет собой набор данных чрезвычайно большого размера, представленный в виде массивов изображений на компьютере или сетчатке; например, изображения в градациях серого размером 32 x 32 пикселя можно рассматривать как точки в 1024-мерном пространстве наблюдения [пространство ввода] . Однако воспринимаемая смысловая структура этих изображений [пространств признаков] имеет гораздо меньшую размерность; все изображения на рис. 1 лежат на двумерном многообразии, параметризованном углом обзора

введите описание изображения здесь

Затем Джош Тененбаум обсуждает трудности изучения такого отображения от ввода к пространству объектов. Но вернемся к вопросу: нас интересует, как связаны входные и функциональные пространства.

  • Это 32*32 array of grey pixel valuesпространство ввода
  • [x1=elevation, x2=azimuth]Пространство функция пространства (хотя упрощенно, это можно рассматривать в качестве действительного пространства вложения).

Повторяя гипотезу многообразия (цитата из этой замечательной статьи ):

Гипотеза о многообразии состоит в том, что естественные данные образуют низкоразмерные многообразия в своем пространстве вложения

С этим примером ясно, что размерность пространства внедрения намного меньше, чем входное пространство: 2 против 1024. (Это различие будет справедливо даже для вариантов выбора более объемных, менее упрощенных пространств внедрения).

Чтобы убедить себя в том, что вложение образует многообразие, я приглашаю вас прочитать оставшуюся часть бумаги Тененбаума или статью Кола .

Примечание: это всего лишь иллюстрация того, что означает гипотеза многообразия, а не аргумент того, почему это происходит .

Связанный: Объяснение векторов слова , бумага word2vec

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.