Вопросы с тегом «covariance»

Ковариация - это величина, используемая для измерения силы и направления линейных отношений между двумя переменными. Ковариация не измеряется, и поэтому ее часто трудно интерпретировать; при масштабировании по SD переменных он становится коэффициентом корреляции Пирсона.

2
Моделирование временных рядов с учетом мощности и кросс-спектральных плотностей
У меня возникают проблемы при создании набора стационарных цветных временных рядов, учитывая их ковариационную матрицу (их спектральные плотности мощности (PSD) и спектральные плотности перекрестных мощностей (CSD)). Я знаю, что, учитывая два временных ряда и , я могу оценить их спектральные плотности мощности (PSD) и кросс-спектральные плотности (CSD), используя многие широко …

3
Как работает формула для генерации коррелированных случайных величин?
Если у нас есть 2 нормальные некоррелированные случайные величины то мы можем создать 2 коррелированные случайные величины с формулойИкс1, X2X1,X2X_1, X_2 Y= ρ X1+ 1 - ρ2-----√Икс2Y=ρX1+1−ρ2X2Y=\rho X_1+ \sqrt{1-\rho^2} X_2 и тогда у будет корреляция с .ρ X 1YYYρρ\rhoИкс1X1X_1 Может кто-нибудь объяснить, откуда взялась эта формула?

4
На практике, как рассчитывается ковариационная матрица случайных эффектов в модели смешанных эффектов?
В основном меня интересует, как применяются различные ковариационные структуры и как рассчитываются значения внутри этих матриц. Такие функции, как lme (), позволяют нам выбирать, какую структуру мы бы хотели, но я бы хотел знать, как они оцениваются. Рассмотрим модель линейных смешанных эффектов .Y= Xβ+ Zu+ϵY=Xβ+Zu+ϵY=X\beta+Zu+\epsilon Где и . Более того:ε …

5
Мера «дисперсии» от ковариационной матрицы?
Если данные равны 1d, дисперсия показывает, насколько точки данных отличаются друг от друга. Если данные многомерны, мы получим ковариационную матрицу. Существует ли мера, которая дает единственное число, как точки данных отличаются друг от друга в целом для многомерных данных? Я чувствую, что уже может быть много решений, но я не …

4
Почему независимость подразумевает нулевую корреляцию?
Прежде всего, я не спрашиваю это: Почему нулевая корреляция не подразумевает независимость? Это решено (довольно красиво) здесь: /math/444408/why-does-zero-correlation-not-imply-independence Я спрашиваю об обратном ... скажем, две переменные полностью независимы друг от друга. Разве они не могли случайно обнаружить корреляцию? Не должно ли это быть ... независимость подразумевает ОЧЕНЬ МАЛЕНЬКУЮ корреляцию?

1
Могу ли я преобразовать ковариационную матрицу в неопределенности для переменных?
У меня есть блок GPS, который выводит измерение шума через ковариационную матрицу ΣΣ\Sigma : Σ=⎡⎣⎢σxxσyxσxzσxyσyyσyzσxzσyzσzz⎤⎦⎥Σ=[σxxσxyσxzσyxσyyσyzσxzσyzσzz]\Sigma = \left[\begin{matrix} \sigma_{xx} & \sigma_{xy} & \sigma_{xz} \\ \sigma_{yx} & \sigma_{yy} & \sigma_{yz} \\ \sigma_{xz} & \sigma_{yz} & \sigma_{zz} \end{matrix}\right] (там же TTt участие , но давайте игнорировать , что ни на секунду.) Предположим, я …

2
Оценка ковариационного апостериорного распределения многомерного гауссова
Мне нужно «изучить» распределение двумерного гауссиана с несколькими выборками, но хорошая гипотеза о предыдущем распределении, поэтому я хотел бы использовать байесовский подход. Я определил свой предыдущий: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ …

2
Определение ковариационной структуры: плюсы и минусы
Каковы преимущества указания ковариационной структуры в GLM (вместо того, чтобы рассматривать все недиагональные элементы в ковариационной матрице как ноль)? Помимо отражения того, что каждый знает о данных, делает это улучшить качество посадки? повысить точность прогнозирования на удерживаемых данных? Позвольте нам оценить степень ковариации? Каковы затраты на навязывание ковариационной структуры? Является …

4
Какова корреляция, если стандартное отклонение одной переменной равно 0?
Как я понимаю, мы можем получить корреляцию путем нормализации ковариации с помощью уравнения ρi,j=cov(Xi,Xj)σiσjρi,j=cov(Xi,Xj)σiσj\rho_{i,j}=\frac{cov(X_i, X_j)}{\sigma_i \sigma_j} где - стандартное отклонениеXi.σi=E[(Xi−μi)2]−−−−−−−−−−−√σi=E[(Xi−μi)2]\sigma_i=\sqrt{E[(X_i-\mu_i)^2]}XiXiX_i Меня беспокоит, что, если стандартное отклонение равно нулю? Есть ли условие, гарантирующее, что оно не может быть нулевым? Благодарю.

4
Почему дерево решений имеет низкий уклон и высокую дисперсию?
Вопросов Зависит ли это от того, мелкое дерево или глубокое? Или мы можем сказать это независимо от глубины / уровня дерева? Почему уклон низкий и дисперсия высокая? Пожалуйста, объясните интуитивно и математически

3
Почему корреляция не очень полезна, когда одна из переменных является категориальной?
Это небольшая проверка, пожалуйста, помогите мне понять, неправильно ли я понимаю эту концепцию и каким образом. У меня есть функциональное понимание корреляции, но я чувствую себя немного цепко, чтобы действительно уверенно объяснить принципы, лежащие в основе этого функционального понимания. Насколько я понимаю, статистическая корреляция (в отличие от более общего использования …

3
Означает ли ковариация, равная нулю, независимость для двоичных случайных величин?
Если и - две случайные величины, которые могут принимать только два возможных состояния, как я могу показать, что подразумевает независимость? Этот вид противоречит тому, что я узнал в тот день, что не подразумевает независимость ...XXXYYYCov(X,Y)=0Cov(X,Y)=0Cov(X,Y) = 0Cov(X,Y)=0Cov(X,Y)=0Cov(X,Y) = 0 Подсказка говорит, что нужно начинать с и как возможных состояний и …

3
Автоковариантность процесса ARMA (2,1) - вывод аналитической модели для
Мне нужно вывести аналитические выражения для автоковариантной функции γ(k)γ(k)\gamma\left(k\right) процесса ARMA (2,1), обозначенного как: yt=ϕ1yt−1+ϕ2yt−2+θ1ϵt−1+ϵtyt=ϕ1yt−1+ϕ2yt−2+θ1ϵt−1+ϵty_t=\phi_1y_{t-1}+\phi_2y_{t-2}+\theta_1\epsilon_{t-1}+\epsilon_t Итак, я знаю, что: γ(k)=E[yt,yt−k]γ(k)=E[yt,yt−k]\gamma\left(k\right) = \mathrm{E}\left[y_t,y_{t-k}\right] так что я могу написать: γ(k)=ϕ1E[yt−1yt−k]+ϕ2E[yt−2yt−k]+θ1E[ϵt−1yt−k]+E[ϵtyt−k]γ(k)=ϕ1E[yt−1yt−k]+ϕ2E[yt−2yt−k]+θ1E[ϵt−1yt−k]+E[ϵtyt−k]\gamma\left(k\right) = \phi_1 \mathrm{E}\left[y_{t-1}y_{t-k}\right]+\phi_2 \mathrm{E}\left[y_{t-2}y_{t-k}\right]+\theta_1 \mathrm{E}\left[\epsilon_{t-1}y_{t-k}\right]+\mathrm{E}\left[\epsilon_{t}y_{t-k}\right] затем, чтобы вывести аналитическую версию автоковариантной функции, мне нужно подставить значения - 0, 1, 2 ..., пока …


3
Каковы распределения в положительном k-мерном квадранте с параметризуемой ковариационной матрицей?
После zzk «s вопрос о его проблеме с негативным моделирования, я интересно , что параметризованные семейства распределений на положительной -мерном квадранте, , для которых матрица ковариаций может быть множество.рК+R+k\mathbb{R}_+^kΣΣ\Sigma Как обсуждалось с zzk , начиная с распределения в и применения линейного преобразования не работает.рК+R+k\mathbb{R}_+^kИкс⟶ Е1 / 2( Х- μ ) …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.