Есть ли интуитивно понятная причина сокращения случайных эффектов до их ожидаемого значения в общей линейной смешанной модели?
Есть ли интуитивно понятная причина сокращения случайных эффектов до их ожидаемого значения в общей линейной смешанной модели?
Ответы:
Вообще говоря, большинство «случайных эффектов» возникает в ситуациях, когда есть также «фиксированный эффект» или какая-то другая часть модели. Общая линейная смешанная модель выглядит следующим образом:
Где - «фиксированные эффекты», а u - «случайные эффекты». Понятно, что различие может быть только на концептуальном уровне или в методе оценки u и β . Ибо, если я определю новый «фиксированный эффект» ˜ x i = ( x T i , z T i ) T и ˜ β = ( β T , u T ) T, то у меня будет обычная линейная регрессия:
Это часто является реальной практической проблемой, когда речь идет о подборе смешанных моделей, когда основные концептуальные цели не ясны. Я думаю , тот факт , что случайные эффекты являются сжались к нулю, и что фиксированные эффекты β не являются обеспечивают некоторую помощь здесь. Это означает, что мы склонны отдавать предпочтение модели с включенным только β (т.е. u = 0 ), когда оценки u имеют низкую точность в формулировке OLS, и склонны отдавать предпочтение полной формулировке OLS, когда оценки u имеют высокую точность.
Ваш вопрос не отвечает сам по себе? Если значение ожидается, тогда метод, который приближает значения к этому, был бы лучшим.
Простой ответ исходит из закона больших чисел. Допустим, предметы - это ваш случайный эффект. Если вы проводите тесты от А до D в 200 испытаниях, а от испытуемого Е - в 20 испытаниях, какой из измеренных средних показателей вы считаете более репрезентативным для мю? Закон больших чисел мог бы предсказать, что производительность субъекта E будет с большей вероятностью отличаться от mu от большей величины, чем от A до D. Это может или не может произойти, и любой из субъектов может отклониться, но мы будем гораздо больше оправдано в уменьшении эффекта субъекта E к субъекту от A до D, чем наоборот. Так что случайные эффекты, которые больше и имеют меньшие значения N, как правило, уменьшаются больше всего.
Из этого описания также следует, почему фиксированные эффекты не сокращаются. Это потому, что они исправлены, есть только один в модели. У вас нет ссылки, чтобы уменьшить его. Вы можете использовать наклон 0 в качестве ориентира, но это не то, к чему стремятся случайные эффекты. Они к общей оценке, такой как му. Фиксированный эффект от вашей модели - это оценка.
Я думаю, что вашей интуиции может быть полезно думать о смешанной модели как иерархической или многоуровневой модели . По крайней мере, для меня это имеет больше смысла, когда я думаю о вложенности и о том, как модель работает внутри и между категориями иерархически.
РЕДАКТИРОВАТЬ: Макро, я оставил это немного открытым, потому что это помогает мне увидеть его более интуитивно, но я не уверен, что это правильно. Но расширять его в возможно неправильных направлениях ...
Я рассматриваю это как фиксированные эффекты, усредняющие по категориям, и случайные эффекты, различающие категории. В некотором смысле случайные эффекты являются «кластерами», которые имеют некоторые характеристики, и более крупные и более компактные кластеры будут оказывать большее влияние на среднее значение на более высоком уровне.
Таким образом, при OLS, выполняющем подбор (по-видимому, поэтапно), более крупные и более компактные «кластеры» случайных эффектов, таким образом, будут сильнее подтягивать подгонку к себе, тогда как меньшие или более рассеянные «кластеры» будут притягивать подгонку меньше. Или, возможно, подгонка начинается ближе к более крупным и более компактным «кластерам», поскольку среднее значение более высокого уровня ближе к началу
Извините, я не могу быть более ясным, и даже могу ошибаться. Это имеет смысл для меня интуитивно, но поскольку я пытаюсь написать это, я не уверен, является ли это сверху вниз или снизу вверх или чем-то другим. Дело в том, что «кластеры» нижнего уровня тянутся к себе сильнее или имеют большее влияние на усреднение более высокого уровня - и, таким образом, «оказываются» ближе к среднему уровню более высокого уровня - или ни того, ни другого?
В любом случае я чувствую, что это объясняет, почему меньшие, более рассеянные категории случайных величин будут тянуться дальше к среднему значению, чем более крупные, более компактные категории.