Как квантильная регрессия «работает»?


25

Я надеюсь получить интуитивное и доступное объяснение квантильной регрессии.

Допустим, у меня есть простой набор данных результата и предикторов .YX1,X2

Если, например, я запускаю квантильную регрессию в .25, .5, .75 и получаю обратно .β0,.25,β1,.25...β2,.75

Найдены ли значения простым упорядочением значений и выполнением линейной регрессии на основе примеров, которые находятся в / около заданного квантиля?βy

Или все выборки вносят вклад в оценки с уменьшением веса по мере увеличения расстояния от квантиля?β

Или это что-то совершенно другое? Я еще не нашел доступного объяснения.


3
Что касается математики, вам могут пригодиться эти два ответа: stats.stackexchange.com/questions/102906/… , stats.stackexchange.com/questions/88387/…
Энди

Ответы:


21

Я рекомендую Koenker & Hallock (2001, журнал «Экономические перспективы») и одноименный учебник Koenker .

  1. Отправной точкой является наблюдение, что медиана набора данных минимизирует сумму абсолютных ошибок . То есть квантиль 50% является решением конкретной задачи оптимизации (чтобы найти значение, которое минимизирует сумму абсолютных ошибок).
  2. Отсюда легко обнаружить, что любой квантиль является решением конкретной задачи минимизации, а именно минимизации суммы асимметрично взвешенных абсолютных ошибок с весами, зависящими от τ .ττ
  3. Наконец, чтобы сделать шаг к регрессии, мы моделируем решение этой проблемы минимизации как линейную комбинацию переменных-предикторов, поэтому теперь задача состоит в том, чтобы найти не одно значение, а набор параметров регрессии.

Итак, ваша интуиция совершенно верна: все выборки вносят вклад в оценки , причем асимметричные веса зависят от квантиля τ, к которому мы стремимся.βτ


Что касается вашей точки 1), разве это не будет правдой, если Y симметрично распределен? Если Y искажен как {1, 1, 2, 4, 10}, медиана 2 определенно не минимизирует абсолютную ошибку. Всегда ли квантильная регрессия предполагает, что Y симметрично распределен? Благодарность!
Бен

1
@ Бен: нет, симметрия не требуется. Ключевым моментом является то, что медиана минимизирует ожидаемую абсолютную ошибку. Если у вас есть дискретное распределение со значениями 1, 2, 4, 10 и вероятностями 0,4, 0,2, 0,2, 0,2, то итоговая сводка 2 действительно минимизирует ожидаемую абсолютную ошибку. Симуляция - это всего лишь несколько строк кода R:foo <- sample(x=c(1,2,4,10),size=1e6,prob=c(.4,.2,.2,.2),replace=TRUE); xx <- seq(1,10,by=.1); plot(xx,sapply(xx,FUN=function(yy)mean(abs(yy-foo))),type="l")
С. Коласса - Восстановить Монику

(И да, я должен был быть более ясным в своем ответе, вместо того, чтобы обсуждать «суммы».)
С. Коласса - Восстановить Монику

Derp. О чем я только думал. Это имеет смысл сейчас, спасибо.
Бен

19

Основная идея квантильной регрессии проистекает из того факта, что аналитик заинтересован в распространении данных, а не просто в средстве данных. Начнем со среднего.

y=XβE(Y|X=x)=xβargminβ(yxβ)(yXβ)

argminβ|yXβ||.|

α

Здесь вы допустили небольшую ошибку: Q-регрессия - это не то же самое, что найти квантиль данных, а затем поместить линию в это подмножество (или даже в более сложные границы).

α

β^α=argminβ{α|yXβ|I(y>Xβ)+(1α)|yXβ|I(y<Xβ)}.

Как видите, эта умная целевая функция - не более чем преобразование квантиля в задачу оптимизации.

βα


Этот ответ блестящий.
Цзиньхуа Ван
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.