Вопросы с тегом «regression»

Методы анализа взаимосвязи между одной (или несколькими) «зависимыми» переменными и «независимыми» переменными.

2
Показана эквивалентность между
По ссылкам Книга 1 , Книга 2 и бумага . Было упомянуто, что существует эквивалентность между регуляризованной регрессией (Ridge, LASSO и Elastic Net) и их формулами ограничения. Я также посмотрел на Cross Validated 1 и Cross Validated 2 , но я не вижу четкого ответа, демонстрирующего эту эквивалентность или логику. …

3
Может ли линейная регрессия быть значимой, если данные не являются линейными?
Я выполнил линейную регрессию, которая дала значительный результат, однако, когда я проверил диаграмму рассеяния на линейность, я не был уверен, что данные были линейными. Существуют ли другие способы проверки линейности без проверки диаграммы рассеяния? Может ли линейная регрессия быть значимой, если она не будет линейной? [Отредактировано, чтобы включить графики рассеяния]
11 regression 

2
Понимание формы доверительного интервала для полиномиальной регрессии (MLR)
Мне трудно понять форму доверительного интервала полиномиальной регрессии. Ниже приведен пример Y^= a + b ⋅ X+ c ⋅ X2Y^знак равноa+б⋅Икс+с⋅Икс2\hat{Y}=a+b\cdot X+c\cdot X^2 . На левом рисунке показана UPV (немасштабированная дисперсия прогноза), а на правом графике показан доверительный интервал и (искусственные) измеренные точки при X = 1,5, X = 2 …

1
Следует ли использовать поправки степеней свободы для определения параметров GLM?
Этот вопрос вдохновлен ответом Мартина здесь . Предположим, что мы подходим к GLM для однопараметрического семейства, такого как биномиальная модель или модель Пуассона, и что это процедура полного правдоподобия (в отличие от квазипуассона). Тогда дисперсия является функцией среднего значения. С биномом: и с Пуассоном .var[X]=E[X]E[1−X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var[X]=E[X]var[X]=E[X]\text{var}[X] = E[X] В …

1
Многомерная линейная регрессия против нескольких одномерных моделей регрессии
В настройках одномерной регрессии мы пытаемся моделировать Y= Хβ+ П о я с йYзнак равноИксβ+Nояsеy = X\beta +noise где вектор из наблюдений, а матрица проектирования с предикторами. Решение: . n X ∈ R n × m m β 0 = ( X T X ) - 1 X yY∈RNY∈рNy \in …

2
Почему эти таблицы регрессионных анова идентичны?
У меня есть две регрессии одного и того же Y и трехуровневого X. В целом n = 15, с n = 5 в каждой группе или уровне X. Первая регрессия рассматривает X как категоричный, присваивая переменные индикатора уровням 2 и 3 с уровнем один из которых является ссылкой. Индикаторы / …
11 regression  anova 

4
Почему методы регрессии методом наименьших квадратов и максимального правдоподобия не эквивалентны, когда ошибки обычно не распределяются?
Название говорит обо всем. Я понимаю, что наименьшие квадраты и максимальное правдоподобие дадут одинаковый результат для коэффициентов регрессии, если ошибки модели будут нормально распределены. Но что произойдет, если ошибки не распределяются нормально? Почему два метода больше не эквивалентны?

4
Искусственные нейронные сети, эквивалентные линейной регрессии с полиномиальными признаками?
Я хочу улучшить свое понимание нейронных сетей и их преимуществ по сравнению с другими алгоритмами машинного обучения. Мое понимание, как показано ниже, и мой вопрос: Можете ли вы исправить и дополнить мое понимание, пожалуйста? :) Мое понимание: (1) Искусственные нейронные сети = функция, которая предсказывает выходные значения из входных значений. …

2
Является ли разделение данных на тестовые и обучающие наборы чисто статистическими данными?
Я студент-физик, изучающий машинное обучение / науку о данных, поэтому я не хочу, чтобы этот вопрос вызвал какие-либо конфликты :) Однако большая часть любой программы по физике для студентов-физиков - это проведение лабораторных работ / экспериментов, что означает много данных. обработка и статистический анализ. Тем не менее, я замечаю резкую …

1
Как интерпретировать результаты, когда гребень и лассо по отдельности работают хорошо, но дают разные коэффициенты
Я использую регрессионную модель с Лассо и Риджем (для прогнозирования дискретной переменной результата в диапазоне от 0 до 5). Перед запуском модели я использую SelectKBestметод, scikit-learnчтобы уменьшить набор функций с 250 до 25 . Без первоначального выбора признаков и Лассо, и Ридж уступают более низким показателям точности [что может быть …

2
Если вы не можете сделать это ортогонально, сделайте это необработанно (полиномиальная регрессия)
При выполнении полиномиальной регрессии для на люди иногда используют необработанные полиномы, иногда ортогональные полиномы. Но когда они используют то, что кажется совершенно произвольным.YYYИксИксX Здесь и здесь используются сырые полиномы. Но здесь и здесь ортогональные полиномы, кажется, дают правильные результаты. Что, как, почему ?! В противоположность этому, когда вы узнаете о …

2
Если усадка применяется умным способом, всегда ли она работает лучше для более эффективных оценщиков?
Предположим, у меня есть два оценщика и которые являются согласованными оценками одного и того же параметра и такого, что с в смысле psd. Таким образом, асимптотически более эффективен, чем . Эти две оценки основаны на различных функциях потерь. β 2β0√βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0V1≤V2 β 1 β 2n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 …

3
Регрессия с искаженными данными
Попытка рассчитать количество посещений из демографии и обслуживания. Данные очень искажены. Гистограммы: qq графики (слева - лог): m <- lm(d$Visits~d$Age+d$Gender+city+service) m <- lm(log(d$Visits)~d$Age+d$Gender+city+service) cityи serviceявляются факторными переменными. Я получаю низкое значение p *** для всех переменных, но я также получаю низкий r-квадрат 0,05. Что я должен делать? Будет ли работать …

1
Насколько отличается регрессия вектора поддержки по сравнению с SVM?
Я знаю основы SVM и SVR, но до сих пор не понимаю, как проблема нахождения гиперплоскости, которая максимизирует запас, вписывается в SVR. Во-вторых, я прочитал кое-что о используемом в качестве предела терпимости в SVR. Что это означает?εϵ\epsilon В-третьих, есть ли разница между параметрами решающей функции, используемыми в SVM и SVR?

2
Деревья решений и регрессия - Могут ли прогнозируемые значения выходить за пределы диапазона данных обучения?
Когда речь идет о деревьях решений, может ли прогнозируемое значение лежать вне диапазона обучающих данных? Например, если диапазон набора обучающих данных целевой переменной составляет 0-100, когда я генерирую свою модель и применяю ее к чему-то другому, могут ли мои значения быть -5? или 150? Учитывая, что я понимаю регрессию дерева …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.