Вопросы с тегом «regression»

Методы анализа взаимосвязи между одной (или несколькими) «зависимыми» переменными и «независимыми» переменными.

1
Регрессия: Преобразование переменных
При преобразовании переменных, вы должны использовать все те же преобразования? Например, могу ли я выбрать по-разному преобразованные переменные, как в: Пусть - возраст, стаж работы, стаж проживания и доход.Икс1, х2, х3x1,x2,x3x_1,x_2,x_3 Y = B1*sqrt(x1) + B2*-1/(x2) + B3*log(x3) Или вы должны соответствовать своим преобразованиям и использовать все то же самое? …

5
Как вывести решение о регрессии гребня?
У меня возникли некоторые проблемы с выводом решения для регрессии гребня. Я знаю регрессионное решение без условия регуляризации: β=(XTX)−1XTy.β=(XTX)−1XTy.\beta = (X^TX)^{-1}X^Ty. Но после добавления термина L2 к функции стоимости, получается решениеλ∥β∥22λ‖β‖22\lambda\|\beta\|_2^2 β=(XTX+λI)−1XTy.β=(XTX+λI)−1XTy.\beta = (X^TX + \lambda I)^{-1}X^Ty.

5
Чем оценки склонности отличаются от добавления ковариат в регрессии, и когда они предпочтительнее последней?
Я признаю, что я относительно новичок в оценках предрасположенности и причинного анализа. Одна вещь, которая не очевидна для меня как новичка, заключается в том, как «балансировка» с использованием показателей склонности математически отличается от того, что происходит, когда мы добавляем ковариаты в регрессию? Чем отличается операция и почему она (или она) …

1
Как центрирование данных избавляет от перехвата в регрессии и PCA?
Я продолжаю читать о случаях, когда мы центрируем данные (например, с помощью регуляризации или PCA), чтобы удалить перехват (как упомянуто в этом вопросе ). Я знаю, что это просто, но мне трудно понять это интуитивно. Может ли кто-нибудь предоставить интуицию или ссылку, которую я могу прочитать?


4
Должны ли «сохраняться» ковариаты, которые не являются статистически значимыми при создании модели?
У меня есть несколько ковариат в моем расчете для модели, и не все из них являются статистически значимыми. Должен ли я удалить те, которые не являются? Этот вопрос обсуждает это явление, но не отвечает на мой вопрос: как интерпретировать незначительный эффект ковариаты в ANCOVA? В ответе на этот вопрос нет …

6
Наименьший угол регрессии против лассо
Регрессия под наименьшим углом и лассо имеют тенденцию давать очень похожие пути регуляризации (идентичные, за исключением случаев, когда коэффициент пересекает ноль). Они оба могут эффективно соответствовать практически одинаковым алгоритмам. Есть ли какая-либо практическая причина, чтобы предпочесть один метод другому?
39 regression  lasso 

3
Нужна ли стандартизация перед установкой логистической регрессии?
Мой вопрос заключается в том, нужно ли нам стандартизировать набор данных, чтобы убедиться, что все переменные имеют одинаковую шкалу, между [0,1], до подбора логистической регрессии. Формула: xi−min(xi)max(xi)−min(xi)xi−min(xi)max(xi)−min(xi)\frac{x_i-\min(x_i)}{\max(x_i)-\min(x_i)} В моем наборе данных есть 2 переменные, они описывают одно и то же для двух каналов, но громкость отличается. Скажем, это количество посещений …

3
Почему полиномиальная регрессия считается частным случаем множественной линейной регрессии?
Если полиномиальная регрессия моделирует нелинейные отношения, как ее можно считать частным случаем множественной линейной регрессии? Википедия отмечает, что «хотя полиномиальная регрессия соответствует нелинейной модели данных, в качестве задачи статистической оценки она является линейной, в том смысле, что функция регрессии является линейной по неизвестным параметрам, которые оцениваются из данных. "E (у| …

2
Когда пуассоновская и отрицательная биномиальные регрессии соответствуют одинаковым коэффициентам?
Я заметил, что в R регрессии Пуассона и отрицательная биномиальная (NB) всегда соответствуют одинаковым коэффициентам для категориальных, но не непрерывных предикторов. Например, вот регрессия с категориальным предиктором: data(warpbreaks) library(MASS) rs1 = glm(breaks ~ tension, data=warpbreaks, family="poisson") rs2 = glm.nb(breaks ~ tension, data=warpbreaks) #compare coefficients cbind("Poisson"=coef(rs1), "NB"=coef(rs2)) Вот пример с непрерывным …

5
Прогноз в регрессии Кокса
Я делаю многомерную регрессию Кокса, у меня есть значимые независимые переменные и бета-значения. Модель очень хорошо вписывается в мои данные. Теперь я хотел бы использовать мою модель и прогнозировать выживание нового наблюдения. Мне неясно, как это сделать с моделью Кокса. В линейной или логистической регрессии было бы легко, просто поместите …

8
Допустимо ли включать базовую меру в качестве контрольной переменной при тестировании влияния независимой переменной на оценки изменений?
Я пытаюсь запустить регрессию OLS: DV: изменение веса за год (начальный вес - конечный вес) IV: Независимо от того вы занимаетесь спортом. Тем не менее, кажется разумным, что более тяжелые люди будут терять больше веса на единицу нагрузки, чем более худые люди. Таким образом, я хотел включить переменную управления: CV: …

3
Производная дисперсия коэффициента регрессии в простой линейной регрессии
В простой линейной регрессии имеем , где . Я вывел оценщик: где и - примерные значения и .y=β0+β1x+uy=β0+β1x+uy = \beta_0 + \beta_1 x + uu∼iidN(0,σ2)u∼iidN(0,σ2)u \sim iid\;\mathcal N(0,\sigma^2)β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 ,β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 , \hat{\beta_1} = \frac{\sum_i (x_i - \bar{x})(y_i - \bar{y})}{\sum_i (x_i - \bar{x})^2}\ , x¯x¯\bar{x}y¯y¯\bar{y}xxxyyy Теперь я хочу найти дисперсию . Я …

2
Интерпретация вывода R для биномиальной регрессии
Я довольно новичок в этом вопросе с тестами на биномиальные данные, но мне нужно было сделать один, и теперь я не уверен, как интерпретировать результат. Переменная y, переменная отклика, является биномиальной, а объясняющие факторы непрерывны. Вот что я получил при подведении итогов: glm(formula = leaves.presence ~ Area, family = binomial, …

3
Сравнение SVM и логистической регрессии
Может кто-нибудь подсказать, когда выбрать SVM или LR? Я хочу понять интуицию, лежащую в основе различий между критериями оптимизации изучения гиперплоскости двух, где соответствующие цели заключаются в следующем: SVM: попытаться максимизировать разницу между ближайшими векторами поддержки LR: максимизировать апостериорную вероятность класса Давайте рассмотрим линейное пространство признаков как для SVM, так …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.