Ответы:
Оценка гипотезы о том, что и различны, эквивалентна проверке нулевой гипотезы (против альтернативы ).
Следующий анализ предполагает, что для вас разумно оценить как Он также принимает вашу модельную формулировку (которая часто является разумной), которая - поскольку ошибки являются аддитивными (и могут даже привести к отрицательным наблюдаемым значениям ) - не позволяет нам линеаризовать ее , взяв логарифмы обеих сторон.
Дисперсия может быть выражена в терминах ковариационной матрицы из как
Когда является оценена с методом наименьших квадратов, один , как правило , использует «T тест;» то есть распределение аппроксимируется распределением Стьюдента t с степенями свободы (где - количество данных, а - количество коэффициентов ). Независимо от этого, обычно является основой любого теста. Вы можете выполнить Z-тест (когда большое или при подборе с максимальным правдоподобием) или загрузить его, например.т = U / √
Чтобы быть точным, р-значение t-теста определяется как
где - функция распределения t (накопительная) Стьюдента. Это одно выражение для «хвостовой области»: вероятность того, что переменная Стьюдента t (с степенями свободы) равна или превышает размер статистики теста,
В целом, для чисел и вы можете использовать точно такой же подход, чтобы проверить любую гипотезу
против двусторонней альтернативы. (Это охватывает особый, но широко распространенный случай «контраста» .) Используйте оценочную матрицу дисперсии-ковариации чтобы оценить дисперсию и сформировать статистику
Вышеизложенным является случай и
Чтобы убедиться, что этот совет верен, я запустил следующий R
код, чтобы создать данные в соответствии с этой моделью (с нормально распределенными ошибками e
), подогнать их и вычислить значения много раз. Проверка состоит в том, что график вероятности (основанный на предполагаемом распределении Стьюдента t) близко следует диагонали. Вот тот график в моделировании размером где (очень маленький набор данных, выбранный, потому что распределение далеко от нормального) и= Ь = - 1 / 2.
В этом примере, по крайней мере, процедура работает прекрасно. Попробуйте повторить симуляцию, используя параметры (стандартное отклонение ошибки) и , отражающие вашу ситуацию.
Вот код
#
# Specify the true parameters.
#
set.seed(17)
a <- -1/2
b <- -1/2
sigma <- 0.25 # Variance of the errors
n <- 5 # Sample size
n.sim <- 500 # Simulation size
#
# Specify the hypothesis.
#
H.0 <- c(1, -1) # Coefficients of `a` and `b`.
mu <- 0
#
# Provide x and z values in terms of their logarithms.
#
log.x <- log(rexp(n))
log.z <- log(rexp(n))
#
# Compute y without error.
#
y.0 <- exp(a * log.x + b * log.z)
#
# Conduct a simulation to estimate the sampling distribution of the t statistic.
#
sim <- replicate(n.sim, {
#
# Add the errors.
#
e <- rnorm(n, 0, sigma)
df <- data.frame(log.x=log.x, log.z=log.z, y.0, y=y.0 + e)
#
# Guess the solution.
#
fit.ols <- lm(log(y) ~ log.x + log.z - 1, subset(df, y > 0))
start <- coefficients(fit.ols) # Initial values of (a.hat, b.hat)
#
# Polish it using nonlinear least squares.
#
fit <- nls(y ~ exp(a * log.x + b * log.z), df, list(a=start[1], b=start[2]))
#
# Test a hypothesis.
#
cc <- vcov(fit)
s <- sqrt((H.0 %*% cc %*% H.0))
(crossprod(H.0, coef(fit)) - mu) / s
})
#
# Display the simulation results.
#
summary(lm(sort(sim) ~ 0 + ppoints(length(sim))))
qqplot(qt(ppoints(length(sim)), df=n-2), sim,
pch=21, bg="#00000010", col="#00000040",
xlab="Student t reference value",
ylab="Test statistic")
abline(0:1, col="Red", lwd=2)