Вопросы с тегом «regression»

Методы анализа взаимосвязи между одной (или несколькими) «зависимыми» переменными и «независимыми» переменными.

3
Лог-линейная регрессия против логистической регрессии
Может ли кто-нибудь предоставить четкий список различий между логарифмической регрессией и логистической регрессией? Я понимаю, что первая - это простая модель линейной регрессии, но я не знаю, когда следует использовать каждую из них.

5
Причина не сокращения срока смещения (перехвата) в регрессии
Для линейной модели y=β0+xβ+εYзнак равноβ0+Иксβ+εy=\beta_0+x\beta+\varepsilon сжимающий член всегда равен P(β)п(β)P(\beta) . В чем причина того, что мы не уменьшаем смещение (перехват) члена β0β0\beta_0 ? Должны ли мы сократить срок смещения в моделях нейронных сетей?

5
Случайный лес против регрессии
Я запустил модель регрессии МНК на наборе данных с 5 независимыми переменными. Независимые переменные и зависимые переменные являются непрерывными и линейно связаны. Площадь R составляет около 99,3%. Но когда я запускаю то же самое, используя случайный лес в R, мой результат выглядит так: «% Var объяснено: 88.42». Почему случайный лесной …

4
Важность предикторов в множественной регрессии: частичное против стандартизированных коэффициентов
Мне интересно, какова точная связь между частичным и коэффициентами в линейной модели и должен ли я использовать только один или оба, чтобы проиллюстрировать важность и влияние факторов.R2R2R^2 Насколько я знаю, с помощью summaryя получаю оценки коэффициентов, а с anovaсуммой квадратов для каждого фактора - доля суммы квадратов одного фактора, деленная …

4
Разница между регрессионным анализом и дисперсионным анализом?
Этот вопрос был перенесен из Математического стека обмена, потому что на него можно ответить по перекрестной проверке. Мигрировал 7 лет назад . Сейчас я учусь регрессионному анализу и анализу отклонений. В регрессионном анализе у вас есть одна фиксированная переменная, и вы хотите знать, как переменная идет с другой переменной. При …
21 regression 

3
Расхождение с регрессом ANOVA (aov против lm в R)
У меня всегда было впечатление, что регрессия - это просто более общая форма ANOVA и результаты будут идентичны. Однако недавно я провел и регрессию, и ANOVA для одних и тех же данных, и результаты значительно различаются. То есть в регрессионной модели значимы как основные эффекты, так и взаимодействие, в то …
21 r  regression  anova 


2
Как использовать веса в функции lm в R?
Locked . Этот вопрос и его ответы заблокированы, потому что вопрос не по теме, но имеет историческое значение. В настоящее время он не принимает новые ответы или взаимодействия. Может ли кто-нибудь предложить несколько советов о том, как использовать weightsаргумент в lmфункции R ? Скажем, например, вы пытались вписать модель в …
21 r  regression 

3
Регрессия Пуассона против регрессии по методу наименьших квадратов?
Пуассоновская регрессия - это GLM с функцией log-link. Альтернативный способ моделирования данных с ненормально распределенным счетчиком - это предварительная обработка путем взятия журнала (или, скорее, журнала (1 + счет) для обработки 0). Если вы выполняете регрессию методом наименьших квадратов в ответах на количество журналов, связано ли это с регрессией Пуассона? …

2
Сложность тестирования линейности в регрессии
В статистическом моделировании: две культуры Лев Брейман пишет В настоящее время применяется практика проверки соответствия модели данных с помощью тестов соответствия и анализа остаточных данных. Однажды, несколько лет назад, я поставил задачу симулированной регрессии в семи измерениях с контролируемой степенью нелинейности. Стандартные тесты на пригодность к приему не отклоняли линейность, …

3
Коэффициент определения (
Я хочу полностью понять понятие описывающее количество вариаций между переменными. Каждое веб-объяснение немного механическое и тупое. Я хочу «получить» концепцию, а не просто механически использовать числа.р2р2r^2 Например: количество изученных часов и результаты теста ррr = 0,8 р2р2r^2 = .64 Итак, что это значит? 64% вариабельности результатов теста можно объяснить часами? …

5
Как мне улучшить мою нейронную сеть при прогнозировании синусоидальных волн?
Вот, посмотрите: вы можете точно увидеть, где заканчиваются тренировочные данные. Тренировочные данные идут от до 1 .- 1-1-1111 Я использовал Keras и плотную сеть 1-100-100-2 с активацией tanh. Я вычисляю результат по двум значениям, p и q как p / q. Таким образом, я могу получить любой размер числа, используя …

2
Каковы предположения о регрессии гребня и как их проверить?
Рассмотрим стандартную модель множественной регрессии где , так что нормальность, гомоскедастичность и некоррелированность ошибок сохраняются.Y= Xβ+ εY=Xβ+εY=X\beta+\varepsilonε ∼ N( 0 , σ2яN)ε∼N(0,σ2In)\varepsilon \sim \mathcal N(0, \sigma^2I_n) Предположим, что мы выполняем регрессию гребня, добавляя одинаковое небольшое количество ко всем элементам диагонали :ИксXX βR i D G E= [ X'Икс+ к я]- …

2
В простой линейной регрессии, откуда берется формула для дисперсии остатков?
Согласно тексту, который я использую, формула для дисперсии остатка определяется как:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) Я нахожу это трудно поверить , так как остаточная разница между наблюдаемым значением и подогнанной значения; если бы вычислить дисперсию разницы, по крайней мере я бы ожидал некоторых «плюсов» в результирующем выражении. Любая помощь …

2
Как описать или визуализировать модель множественной линейной регрессии
Я пытаюсь приспособить модель множественной линейной регрессии к моим данным с помощью пары входных параметров, скажем, 3. F( х )F( х )= A x1+ B x2+ CИкс3+ дили= ( A B C )Т( х1 Икс2 Икс3) + d(я)(II)(я)F(Икс)знак равноAИкс1+ВИкс2+СИкс3+dили(II)F(Икс)знак равно(A В С)Т(Икс1 Икс2 Икс3)+d\begin{align} F(x) &= Ax_1 + Bx_2 + …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.