Эффективность регрессии ядра Риджа


11

Ридж регрессия может быть выражена как у = ( X ' X + I г ) - 1 X х , где у являюсь прогнозируемым метка, я d в d × d определить матрицу, х объект мы пытаемся найти лейбл для, и х в п × d матрица п объектов х я = ( х я , 1 , . . .

y^=(XX+aId)1Xx
y^Idd×dxXn×dn такой, что:xi=(xi,1,...,xi,d)Rd

X=(x1,1x1,2x1,dx2,1x2,2x2,dxn,1x1,2xn,d)

Мы можем kernelise это следующим образом

y^=(K+aId)1k

где является п × п матрица функций ядра KKn×nK

K=(K(x1,x1)K(x1,x2)K(x1,xn)K(x2,x1)K(x2,x2)K(x2,xn)K(xn,x1)K(xn,x2)K(xn,xn))

kn×1K

k=(K(x1,x)K(x2,x)K(xn,x))

Вопросов:

xiX50×3XX3×33×350×50dn

(б) следует ли использовать самое простое ядро? Кажется, что ядра в регрессии гребня используются, чтобы свести на нет влияние размерности, а не использовать определенные свойства пространства признаков (в отличие от машин опорных векторов). Хотя ядра могут изменять расстояния между объектами, так есть ли какие-либо популярные ядра, используемые в регрессии гребня?

O


«эффективность» имеет другое значение в статистике. Вы имели в виду «вычислительная сложность»? (в заголовке)
Memming

Я имел в виду «алгоритмическую эффективность». Хотя это правда, что мои вопросы существенно сводят это к «вычислительной сложности».
Helix

Ответы:


5

K(x,y)=xy

K(x,y)=exp(τ2||xy||2)

nO(n3)

Ссылки:

  1. Бхарат Сриперумбудур, Кэндзи Фукумизу и Герт Ланкриет. О связи универсальности, характеристических ядер и вложения мер РХС. Журнал исследований машинного обучения, 9: 773–780, 2010.
  2. Бернхард Шлкопф, Александр Я. Смола. Обучение с ядрами: машины опорных векторов, регуляризация, оптимизация и не только 2002
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.