Как интерпретировать среднеквадратичную ошибку (RMSE) в сравнении со стандартным отклонением?


21

Допустим, у меня есть модель, которая дает мне прогнозируемые значения. Я рассчитываю RMSE этих значений. А затем стандартное отклонение фактических значений.

Имеет ли смысл сравнивать эти два значения (дисперсии)? Я думаю, что если среднеквадратичное отклонение и стандартное отклонение схожи / одинаковы, то ошибка / дисперсия моей модели совпадает с тем, что происходит на самом деле. Но если даже не имеет смысла сравнивать эти значения, тогда этот вывод может быть неверным. Если моя мысль верна, то значит ли это, что модель настолько хороша, насколько это возможно, потому что она не может объяснить, что является причиной отклонения? Я думаю, что последняя часть, вероятно, неверна или, по крайней мере, нуждается в дополнительной информации, чтобы ответить.

Ответы:


22

Давайте предположим , что наши ответы и наши предсказанные значения у 1 , ... , у п .y1,,yny^1,,y^n

Выборочная дисперсия ( для простоты используется а не n - 1 ) равна 1nn1а СКО11ni=1n(yiy¯)2. Таким образом, выборочная дисперсия показывает, насколько сильно варьируются ответы в среднем, а MSE - насколько сильно варьируются ответы в зависимости от наших прогнозов. Если мы думаемобщие среднего ··· у , как являющиеся простейших предсказателячто мы когдалибо рассмотреть,затем путь сравнения MSE на образец дисперсию ответовмы можем видетьнасколько больше вариантов мы объяснили с нашей моделью. Это именно то, чтоделает значениеR2в линейной регрессии.1ni=1n(yiy^i)2y¯R2

Рассмотрим следующую картину: Выборочная дисперсия - это изменчивость вокруг горизонтальной линии. Если мы спроецируем все данные на ось Y, мы увидим это. СКО среднее квадрат расстояния до линии регрессии, то есть изменчивость вокруг линии регрессии (т.е. у меня ). Таким образом, изменчивость, измеренная выборочной дисперсией, представляет собой усредненное квадратное расстояние до горизонтальной линии, которое, как мы видим, существенно больше среднего квадратичного расстояния до линии регрессии. yiYy^iвведите описание изображения здесь


5

В случае , если речь идет о средней квадратичной ошибке предсказания, здесь может быть: зависимости от того, сколько (p) параметров оценено для прогнозирования, т. е. потеря степени свободы (DF).

i(yiy^i)2np,

Выборочная дисперсия может быть: где ˉ y - это просто оценка среднего значенияyi.

i(yiy¯)2n1,
y¯yi

Таким образом, вы можете рассматривать последнюю формулу (выборочную дисперсию) как частный случай первого (MSE), где y^i=y¯y¯

y^i

i(yiy^i)2n,

что проще всего вычислить.


У меня нет привилегии комментировать ответ @Chaconne, но я сомневаюсь, что в его последнем утверждении есть опечатка, где он говорит: «Таким образом, изменчивость, измеренная выборочной дисперсией, представляет собой усредненное квадратное расстояние до горизонтальной линии, которое мы можем см. существенно меньше среднего квадрата расстояния до линии ". Но на рисунке в его ответе предсказание значений y с линией довольно точно, что означает, что MSE мало, по крайней мере, намного лучше, чем «предсказание» со средним значением.
Сяо-Фенг Ли

3

1ni=1n(yiy¯)2

1ni=1n(yiy^i)2

Этот аргумент применяется к другим мерам ошибки, не только к RMSE, но RMSE особенно привлекательна для прямого сравнения с SD, потому что их математические формулы аналогичны.


Это лучший ответ, потому что он объясняет, как сравнение может быть полезным, а не просто описывает различия.
Ганс
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.