Этот термин специально взят из эмпирического байесовского алгоритма (EB), на самом деле концепция, к которой он относится, не существует в истинном байесовском выводе. Первоначальный термин был «сила заимствования», который был придуман Джоном Тьюки еще в 1960-х годах и популяризирован Брэдли Эфроном и Карлом Моррисом в серии статистических статей о парадоксе и параметрическом ЭБ Штейна в 1970-х и 1980-х годах. Многие люди теперь используют «заимствование информации» или «обмен информацией» в качестве синонимов для одной и той же концепции. Причина, по которой вы можете услышать это в контексте смешанных моделей, заключается в том, что наиболее распространенные анализы для смешанных моделей имеют интерпретацию EB.
EB имеет много применений и применяется ко многим статистическим моделям, но контекст всегда заключается в том, что у вас есть большое количество (возможно, независимых) наблюдений, и вы пытаетесь оценить конкретный параметр (например, среднее значение или дисперсию) в каждом случае. В байесовском выводе вы делаете последующие выводы о параметре, основываясь как на данных наблюдений для каждого случая, так и на предыдущем распределении для этого параметра. В выводе EB предварительное распределение для параметра оценивается из всей совокупности случаев данных, после чего вывод происходит так же, как для байесовского вывода. Следовательно, когда вы оцениваете параметр для конкретного случая, вы используете как данные для этого случая, так и предполагаемое предыдущее распределение, а последнее представляет «информацию» или «силу»
Теперь вы можете понять, почему у EB есть «заимствование», а у истинного Байеса - нет. В истинном Байесе предварительное распределение уже существует, поэтому его не нужно просить или заимствовать. В EB предварительное распределение было создано из самих данных наблюдений. Когда мы делаем вывод о конкретном случае, мы используем всю наблюдаемую информацию из этого случая и немного информации из каждого из других случаев. Мы говорим, что это только «заимствовано», потому что информация возвращается, когда мы переходим к следующему делу.
Идея EB и «заимствование информации» широко используется в статистической геномике, когда каждый «случай» обычно представляет собой ген или геномную особенность (Smyth, 2004; Phipson et al, 2016).
использованная литература
Эфрон, Брэдли и Карл Моррис. Парадокс Штейна в статистике. Scientific American 236, нет. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Смит Г.К. (2004). Линейные модели и эмпирические байесовские методы оценки дифференциальной экспрессии в экспериментах с микрочипами. Статистические приложения в генетике и молекулярной биологии Том 3, выпуск 1, статья 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS, и Smyth, GK (2016). Надежная оценка гиперпараметра защищает от гипервариабельных генов и повышает способность определять дифференциальную экспрессию. Анналы прикладной статистики 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920