Значение скрытых черт?


15

Я пытаюсь понять модели матричной факторизации для рекомендательных систем и всегда читаю «скрытые функции», но что это значит? Я знаю, что означает особенность для учебного набора данных, но я не могу понять идею скрытых возможностей. Каждая статья по теме, которую я могу найти, слишком мелкая.

Редактировать:

если вы хотя бы можете указать мне на некоторые статьи, которые объясняют идею.


Вот простой пример, который может помочь вам quuxlabs.com/blog/2010/09/…
Akavall

Ответы:


9

Скрытый означает, что непосредственно не наблюдается. Обычное использование термина в PCA и Factor Analysis состоит в том, чтобы уменьшить размерность большого количества непосредственно наблюдаемых признаков в меньший набор косвенно наблюдаемых признаков.


Значит, уменьшенные размеры - это скрытые особенности? В случае PCA собственные векторы ковариационной матрицы, то есть главные компоненты, верно?
Джек Твен,

Исправьте @AlexTwain
samthebest

Можете ли вы предоставить мне учебник / документ, который упоминает об этом? Я не могу найти систематический учебник / документ!
Джек Твен,

Ну, вики-страница довольно хорошая, вы можете следить за ссылками там, если вы действительно хотите en.wikipedia.org/wiki/Latent_variable
samthebest

1
@JackTwain правильная аналогия PCA заключается в том, что скрытые функции являются собственными векторами. Основными компонентами являются веса, назначенные каждому наблюдению для главных собственных векторов. В других матричных моделях факторизации скрытые особенности играют роль собственных векторов. Это может звучать педантично, но ошибка не создает путаницы для людей.
предположения

3

В контексте метода факторизации скрытые признаки обычно предназначены для характеристики элементов по каждому измерению. Позвольте мне объяснить на примере.

RRuipuTqipuuqii

puqi


Я читал статьи, в которых скрытые элементы (скажем, «вектор пользователя») используются для предсказания некоторой целевой переменной (переменных), давайте в качестве примера рассмотрим пол. Это «работает» в том смысле, что прогнозирующая модель может быть построена таким образом. Мой вопрос: в чем разница между «вектором пользователя» и, скажем, усреднением «векторов элементов» для всех элементов, которые «посетил» пользователь? Итак, ожидаете ли вы, что прогнозирующая модель, упомянутая выше, будет лучше или хуже с одним против другого? Спасибо (если вы когда-нибудь увидите это).
thecity2

@ thecity2, вы можете усреднять элементы пользователя, и это может быть полезно, когда вы имеете дело с новичками, для которых у вас нет предварительно вычисленных векторов пользователя (хотя для его вычисления должно быть сложно выполнить несколько итераций оптимизации). Существует также проблема с простым усреднением: чем больше элементов потреблено пользователем, тем ближе к нулю их средний вектор элементов (вероятно, из-за типичного регуляризатора L2 и, возможно, других неприятных свойств многомерных пространств). Наконец, наличие отдельного вектора более гибко: ваша модель может выучить такое усреднение.
Артём Соболев

Тем не менее, есть попытки использовать историю пользователя для моделирования вектора пользователя. Например, см. Статью «Создайте свой собственный музыкальный рекомендатель путем моделирования потоков интернет-радио»
Артем Соболев,

0

Я бы сказал, что факторы более репрезентативны, чем основные компоненты, чтобы получить представление о «латентности» / скрытости переменной. Задержка является одной из причин, почему поведенческие ученые измеряют перцептивные конструкции, такие как чувство, грусть, с помощью множества элементов / мер и выводят число для таких скрытых переменных, которые нельзя измерить напрямую.


0

Здесь ваши данные - это рейтинги, присвоенные различными пользователями для разных фильмов. Как отмечали другие, скрытые средства не поддаются непосредственному наблюдению.

Для фильма его скрытые свойства определяют количество действия, роман, сюжетную линию, известного актера и т. Д. Аналогично, для другого набора данных, состоящего из рукописных цифр, скрытыми переменными могут быть угол ребер, перекос и т. Д.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.