Что такое важность выборки?


Ответы:


15

Выборка по важности - это форма выборки из распределения, отличного от распределения по интересам, чтобы упростить получение более точных оценок параметра из распределения по интересам. Как правило, это обеспечит оценки параметра с меньшей дисперсией, чем было бы получено путем выборки непосредственно из исходного распределения с тем же размером выборки.

Применяется в разных контекстах. В целом, выборка из другого распределения позволяет отбирать больше образцов в той части распределения интересов, которая диктуется приложением (важный регион).

Одним из примеров может быть то, что вы хотите иметь выборку, которая включает в себя больше выборок из хвостов распределения, чем может обеспечить чистая случайная выборка из интересующего распределения.

Википедии статья , что я видел на эту тему слишком абстрактно. Лучше взглянуть на различные конкретные примеры. Однако он содержит ссылки на интересные приложения, такие как Байесовские сети.

Одним из примеров важности выборки в 1940-х и 1950-х годах является метод уменьшения дисперсии (форма метода Монте-Карло). См., Например, книгу «Методы Монте-Карло» Хаммерсли и Хэндскомба, опубликованную в 1964 году в виде монографии Метуэна / Чепмена и Холла и переизданную в 1966 году, а затем и другими издателями. Раздел 5.4 книги охватывает важность выборки.


2
Чтобы добавить к этому: в RL вы обычно применяете выборку важности к политике: например, выборку действий из политики исследования вместо фактической политики, которую вы действительно хотите
DaVinci

3
Этот ответ начинается хорошо, объясняя , что значение выборки делает, но я был разочарован , чтобы найти его никогда не отвечает на вопрос о том, что выборки по значимости является : как это работает?
whuber

@whuber Моя цель здесь состояла в том, чтобы объяснить концепцию запутанному ОП и указать ему некоторую литературу. Это большая тема, которая используется в разных приложениях. Другие могут объяснить детали в простых терминах лучше, чем я. Я знаю, что когда вы решите ответить на вопрос, вы идете на все, чтобы получить отличные графики, изучая технические детали простым языком. Эти посты почти всегда удовлетворяют сообщество своей ясностью и полнотой, и, осмелюсь сказать, также удовлетворяет ФП хотя бы частично. Возможно, несколько предложений с уравнениями будет достаточно, как вы предлагаете.
Майкл Р. Черник

Может быть, лучше, чтобы сообщество ответило на вопрос, а не просто указало на другие источники или даже предоставило ссылки. Я просто чувствовал, что то, что я сделал, было адекватным, и ОП, который признает себя новичком в статистике, должен сначала приложить некоторые усилия.
Майкл Р. Черник

5
У вас есть пункт. Интересно, однако, возможно ли в одном-двух дополнительных предложениях - ни математики, ни графиков, ни какой-либо дополнительной работы - дать ответ на заданный вопрос. В этом случае описание должно было бы подчеркнуть, что оценивается ожидание (а не какой-либо «параметр»), а затем, возможно, указать, что, поскольку ожидание суммирует произведение значений и вероятностей, можно получить тот же результат, изменяя вероятности ( к распределению, из которого легко выбрать образец) и корректировке значений, чтобы компенсировать это.
whuber

33

Выборка по важности - это метод моделирования или метод Монте-Карло, предназначенный для аппроксимации интегралов. Термин «выборка» несколько сбивает с толку, поскольку он не предназначен для предоставления выборок из данного распределения.

Интуиция позади важности выборки состоит в том, что четко определенный интеграл, такой как можно выразить как ожидание для широкого диапазона распределений вероятностей: I = E f [ H ( X ) ] = X H ( x ) f ( x )

I=Xh(x)dx
, где е обозначает плотность распределения вероятностей и Н определяется ч и е . (Обратите внимание, что H ( ) обычно отличается от h ( ) .)Действительно, выбор H ( x ) = h ( x )
I=Ef[H(X)]=XH(x)f(x)dx
fHhfH()h() приводит к равенствамH(x)f(x)=h(x)иI=Ef[H(X)]-при некоторых ограничениях на поддержкуf, что означаетf(x)>0,когдаh(x)0-
H(x)=h(x)f(x)
H(x)f(x)=h(x)I=Ef[H(X)]ff(x)>0h(x)0, Следовательно, как указал В. Хубер в своем комментарии, нет единства в представлении интеграла как ожидания, а напротив, бесконечного множества таких представлений, некоторые из которых лучше, чем другие, когда-то критерий для сравнения их принято. Например, Майкл Черник упоминает выбор сторону уменьшения дисперсии оценки.f

Как только это элементарное свойство понято, реализация идеи заключается в том, чтобы полагаться на закон больших чисел, как и в других методах Монте-Карло, т.е. моделировать [через псевдослучайный генератор] выборку iid распространен от F и использовать приближение I = 1(x1,,xn)fкоторый

I^=1ni=1nH(xi)
  1. это непредвзятая оценка я
  2. почти наверняка сходится ко я

В зависимости от выбора распределения , выше оценки I может или не может иметь конечную дисперсию. Однако всегда существуют варианты f, которые допускают конечную дисперсию и даже сколь угодно малую дисперсию (хотя эти варианты могут быть недоступны на практике). И существуют также выбор F , которые делают важность выборки оценивания I очень плохой аппроксимации I . Это включает в себя все варианты, где дисперсия становится бесконечной, хотя недавняя статья Чаттерджи и Диакониса изучает, как сравнивать важные пробоотборники с бесконечной дисперсией. Картинка ниже взята изея^еея^ямой блог обсуждение из бумаги и показывает плохую сходимость бесконечных дисперсии оценок.

Выборка важности с распределением важности, распределением целевого распределения Exp (1), распределением Exp (1/10) и интересующей функцией $ h (x) = x $.  Истинное значение интеграла составляет $ 10 $.

Выборка по важности с распределением важности, целевым распределением Exp (1), распределением Exp (1/10) и интересующей функцией . Истинное значение интеграла равно 10 .h(x)=x10

[Следующее воспроизведено из нашей книги Статистические методы Монте-Карло .]

Следующий пример из Ripley (1987) показывает, почему он действительно может заплатить за генерацию из распределения, отличного от (оригинального) распределения фигурирующего в интеграле X h ( x ) f ( x )е представляет интерес, или, другими словами, изменить представление интеграла как ожидание от заданной плотности.

Иксчас(Икс)е(Икс)dИкс

Пример (вероятность хвоста Коши) Предположим, что интересующей величиной является вероятность, , что переменная Коши C ( 0 , 1 ) больше 2 , то есть p = + 2пС(0,1)2 При р оцениваются через эмпирический средний р 1 = 1

пзнак равно2+1π(1+Икс2)dИкс,
п образца iid X 1 ,, X m
п^1знак равно1мΣJзнак равно1мяИксJ>2
Икс1,...,Иксм ~ , дисперсия этой оценки равна p ( 1 - p ) / m (равно 0,127 / m, так как p = 0,15 ).С(0,1)п(1-п)/м0,127/мпзнак равно0,15

Эта дисперсия может быть уменьшена, принимая во внимание симметричный характер , поскольку средний р 2 = 1С(0,1)

п^2знак равно12мΣJзнак равно1мя|ИксJ|>2
п(1-2п)/2м0,052/м

[2,+)пп

p=12021π(1+x2)dx,
the integral above can be considered to be the expectation of h(X)=2/π(1+X2), where XU[0,2]. An alternative method of evaluation for p is therefore
p^3=121mj=1mh(Uj)
for UjU[0,2]. The variance of p^3 is (E[h2]E[h]2)/m and an integration by parts shows that it is equal to 0.0285/m. Moreover, since p can be written as
p=01/2y2π(1+y2)dy,
this integral can also be seen as the expectation of 14h(Y)=1/2π(1+Y2) against the uniform distribution on [0,1/2] and another evaluation of p is
p^4=14mj=1mh(Yj)
when YjU[0,1/2]. The same integration by parts shows that the variance of p^4 is then 0.95104/m.

Compared with p^1, the reduction in variance brought by p^4 is of order 103, which implies, in particular, that this evaluation requires 100032 times fewer simulations than p^1 to achieve the same precision.


5
Thank you @Xi' an for going to the trouble of illustrating importance sampling in a way that everyone can appreciate and I think more than satisfies Bill Huber's request. +1
Michael R. Chernick

2
I want to note that initially this post was put on hold and thanks to the contributions of several people. We have come up with an informative thread.
Michael R. Chernick

5
Кристиан, я хочу поблагодарить вас и выразить чувство привилегии за то, что вы активно делитесь с нами таким прекрасным материалом.
whuber

4
Я просто хочу поблагодарить Сианя, который был достаточно любезен, чтобы внести несколько правок, чтобы улучшить мой ответ, даже если он дал один из них.
Майкл Р. Черник

3
Это должен быть один из лучших постов на stats.stackexchange. Спасибо, что поделился!
дохматоб
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.