Объективность не обязательно особенно важна сама по себе.
Помимо очень ограниченного набора обстоятельств, наиболее полезные оценки являются предвзятыми, однако они получены.
Если две оценки имеют одинаковую дисперсию, можно легко выдвинуть аргумент в пользу предпочтения непредвзятого, а не предвзятого, но это необычная ситуация (то есть, вы можете разумно предпочесть непредвзятость, при прочих равных условиях - но эти противные при прочих равных условиях почти никогда не парит )
Более типично, если вы хотите непредвзятости, вы добавите некоторую дисперсию, чтобы получить ее, и тогда возникнет вопрос: зачем вам это делать ?
Смещение - это то, насколько ожидаемое значение моей оценки будет в среднем слишком высоким (с отрицательным смещением, указывающим на слишком низкое значение).
Когда я рассматриваю небольшую оценочную выборку, меня это не волнует. Меня обычно больше интересует, насколько ошибочной будет моя оценка в этом случае - мое типичное расстояние справа ... что-то вроде среднеквадратичной ошибки или средней абсолютной ошибки будет иметь больше смысла.
Так что, если вам нравится низкая дисперсия и низкое смещение, имеет смысл попросить сказать, например, оценку минимальной среднеквадратичной ошибки ; это очень редко непредвзято.
Предвзятость и непредвзятость - это полезное понятие, о котором нужно знать, но это не особенно полезное свойство для поиска, если только вы не сравниваете оценки с одной и той же дисперсией.
Оценки ML имеют тенденцию быть низкой дисперсией; они обычно не являются минимальными MSE, но они часто имеют более низкую MSE, чем дает изменение их, чтобы они были беспристрастными (когда вы можете сделать это вообще).
В качестве примера рассмотрит оценку дисперсии при отборе проб из нормального распределения σ 2 МСКО = S 2 (действительно, MMSE для дисперсии всегда имеет больший знаменатель, чемn-1).σ^2MMSE= S2n + 1, σ^2MLE= S2N, σ^2Unb= S2n - 1n - 1