Это иерархические рассуждения. В вашей линейной модели есть куча параметров, составляющих b. В чистой модели с фиксированными эффектами вы просто получите их оценки, и это будет так. Вместо этого вы представляете, что сами значения в b взяты из многомерного нормального распределения с ковариационной матрицей, параметризованной тэтой. Вот простой пример. Предположим, мы смотрим на количество животных за пять разных периодов времени в 10 разных местах. Мы бы получили линейную модель (я использую здесь R talk), которая выглядела бы как count ~ time + factor (location), чтобы у вас был (в данном случае) общий наклон для всех регрессий (по одному на каждый). местоположение), но разные перехват в каждом месте. Мы могли бы просто называть это моделью с фиксированным эффектом и оценивать все перехваты. Однако, мы хотим, чтобы не заботились о конкретных местах, если бы они были 10 мест, выбранных из большого числа возможных мест. Таким образом, мы помещаем ковариационную модель в перехваты. Например, мы объявляем перехваты многомерными нормальными и независимыми с общей дисперсией sigma2. Тогда sigma2 является параметром «тета», потому что он характеризует совокупность перехватов в каждом местоположении (которые, таким образом, являются случайными эффектами).