Как вектор переменных может представлять гиперплоскость?


12

Я читаю Элементы статистического обучения и на странице 12 (раздел 2.3) линейная модель обозначается как:

Y^=XTβ^

... где - транспонирование вектора-столбца предикторов / независимых переменных / входных данных. ( В нем говорится , ранее «все векторы предполагаются векторы - столбцов» , так что это не сделаешь Й Т вектор - строки , и & beta ; вектор - столбец?)XTXTβ^

В включено « 1 », которое нужно умножить на соответствующий коэффициент, дающий (постоянный) перехват.X1

Это говорит:

В n - мерного ввода-вывода пространства, ( X , Y ) представляет собой гиперплоскость. Если константа включена в X , то гиперплоскость включает начало координат и является подпространством; если нет, то это аффинное множество, пересекающее ось Y в точке ( 0 , ^ β 0 ) .(p+1)(X, Y^)XY(0, β0^)

Имеют ли « » описывают вектор , образованные конкатенациями предсказателей, интерсепт в « 1 » и Y ? И почему включение « 1 » в X заставляет гиперплоскость проходить через начало координат, несомненно, что « 1 » нужно умножить на ^ β 0 ?(X, Y^)1Y^1X1β0^

Я не понимаю книгу; любая помощь / совет / ссылки на ресурсы будут очень благодарны.


4
Это может помочь сначала рассмотреть . В этом случае у = β 0 + х β , при р 0 отсекаемый отрезок. Это уравнение линии , проходящей через ( 0 , β 0 ) . Расширения в более высокие измерения немедленно. p=1y^=β^0+xβ^β0(0,β^0)
ocram

Если помощи @ocram недостаточно, попробуйте выписать векторы и выполнить умножение.
Питер Флом

2
Вот хорошая графическая презентация: blog.stata.com/2011/03/03/… . Обозначение отличается, А есть ваш X и х β . β^
Дмитрий Владимирович Мастеров

2
Книга является неправильной, или , по крайней мере , это непоследовательно. Очевидно, есть переменных, не включая константу. Таким образом, множество { ( X , Y ) | X R p } действительно является гиперплоскостью, но неверно говорить, что константа «включена в X ». Вместо этого я думаю , что книга означало сказать константа включена в регрессию , но все же не следует рассматривать как часть X . Поэтому модель действительно следует записать Y = β 0 +p{(X,Y^)|XRp}XX β , где β = ( β 1 , β 2 , ... , β р ) ' . Установка X = 0 сразу дает утверждение о перехвате. Y^=β^0+Xβ^β=(β1,β2,,βp)X=0
whuber

1
XXRpp1{(X,Y^)}2

Ответы:


4

NK

XN×KxiTK×1βYN×1Yn

YXXN×KXYYX

YXKXK+1

X1β1β1Yx1iK+1Kβ1K

yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2

<Y,X>

x11

yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0

<0,β1><0,0>β

(XX)β=Xy(XX)βXy=0X(yXβ)=0.
XyXβ=0

( Изменить: я только что понял, что для вашего второго вопроса это как раз наоборот, вы написали, что регистрируете включение или исключение константы. Однако, я уже разработал решение здесь, и я поправляюсь, если я ошибаюсь в этом. )

Я знаю, что матричное представление регрессии может быть довольно запутанным в начале, но в конечном итоге оно значительно упрощается при выводе более сложной алгебры. Надеюсь это немного поможет.


1

Я думаю, что способ думать об этом, чтобы изменить это уравнение:

Y^XTβ^=0

Y^
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.