Вопросы с тегом «regression»

Методы анализа взаимосвязи между одной (или несколькими) «зависимыми» переменными и «независимыми» переменными.

2
Почему логистическая регрессия хорошо откалибрована и как ее испортить?
В scikit изучают документы по калибровке вероятности, они сравнивают логистическую регрессию с другими методами и отмечают, что случайный лес менее хорошо откалиброван, чем логистическая регрессия. Почему логистическая регрессия хорошо откалибрована? Как можно испортить калибровку логистической регрессии (а не то, что кто-то хотел бы - просто как упражнение)?

3
Регрессия остатков логистической регрессии на других регрессорах
С помощью регрессии OLS, применяемой к непрерывному отклику, можно построить уравнение множественной регрессии, последовательно выполняя регрессии остатков в каждом ковариате. У меня вопрос, есть ли способ сделать это с помощью логистической регрессии через остатки логистической регрессии ? Pr(Y=1|x,z)Pr(Y=1|x,z)\Pr(Y = 1 | x, z)xxxR1R1R_1R1R1R_1zzz

1
Регуляризованная линейная или RKHS-регрессия
Я изучаю разницу между регуляризацией в регрессии RKHS и линейной регрессией, но мне трудно понять решающее различие между ними. Учитывая пары ввода-вывода , я хочу оценить функцию следующим образом: где - функция ядра. Коэффициенты можно найти, решив где с некоторым неправильным обозначением i -й элемент матрицы ядра K это {\ …

1
Дисперсионный член в разностной декомпозиции линейной регрессии
В «Элементах статистического обучения» выражение для разложения смещения дисперсии линейной модели дается как где - фактическая целевая функция, - дисперсия случайной ошибки в модели и - линейная оценка функции .F ( х 0 ) σ 2 ε у = F ( х ) + εЕr r ( x0) = σ2ε+ …

4
Можно ли разложить подогнанные остатки на отклонения и отклонения после подгонки линейной модели?
Я хотел бы классифицировать точки данных как нуждающиеся в более сложной модели или не требующие более сложной модели. Мое текущее мышление состоит в том, чтобы подогнать все данные к простой линейной модели и наблюдать размер остатков, чтобы сделать эту классификацию. Затем я немного прочитал о влиянии смещения и дисперсии на …

1
Почему байесовский вероятный интервал в этой полиномиальной регрессии смещен, тогда как доверительный интервал правильный?
Рассмотрим график ниже, на котором я смоделировал данные следующим образом. Мы смотрим на двоичный результат для которого истинная вероятность быть 1 указана черной линией. Функциональная связь между ковариатой и является полиномом 3-го порядка с логистической связью (поэтому она является нелинейной в двустороннем порядке).yobsyobsy_{obs}xxxp(yobs=1|x)p(yobs=1|x)p(y_{obs}=1 | x) Зеленая линия - это логистическая …

1
Когда использовать регрессию Деминга
В настоящее время я работаю над тем, как преобразовать два разных значения фосфора друг в друга. Фон Существует множество (экстракционных) методов измерения содержания фосфора в почве. В разных странах применяются разные методы, поэтому для сравнения коэффициента рождаемости в разных странах необходимо рассчитать значение P-критерия x на основе значения P-критерия y …

1
Какая модель глубокого обучения может классифицировать категории, которые не являются взаимоисключающими
Примеры: у меня есть предложение в должностной инструкции: «Старший инженер Java в Великобритании». Я хочу использовать модель глубокого обучения, чтобы предсказать ее как 2 категории: English и IT jobs. Если я использую традиционную классификационную модель, она может предсказать только 1 метку с softmaxфункцией на последнем слое. Таким образом, я могу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

3
Определение статистической значимости коэффициента линейной регрессии при наличии мультиколлинеарности
Предположим, у меня есть несколько городов с разной численностью населения, и я хотел узнать, существует ли положительная линейная зависимость между количеством винных магазинов в городе и количеством DUI. Где я определяю, является ли эта связь значимой или нет, основываясь на t-критерии предполагаемого коэффициента регрессии. Теперь четко поп. размер города будет …

4
Как мне интерпретировать кривую выживания модели риска Кокса?
Как вы интерпретируете кривую выживания из модели пропорционального риска Кокса? В этом игрушечном примере предположим, что у нас есть модель пропорционального риска Кокса для ageпеременной в kidneyданных, и сгенерируем кривую выживания. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Например, в момент , какое утверждение верно? или оба не …

1
Почему в статьях редко сообщается, какой тип квадратов используется в результатах Anova?
Исходя из моего небольшого опыта в области статистики, кажется, что тип сумм квадратов (типа I, II, III, IV ...), используемых для получения результатов ANOVA, может существенно изменить результаты теста (особенно моделей с взаимодействиями и отсутствующими данные). Однако я еще не видел бумаги, сообщающей об этом. Почему это так? Я был …

2
Линейная регрессия: * Почему * вы можете разделить суммы квадратов?
Этот пост относится к двумерной модели линейной регрессии, . Я всегда брал разбиение общей суммы квадратов (SSTO) на сумму квадратов для ошибки (SSE) и суммы квадратов для модели (SSR) по вере, но как только я действительно начал думать об этом, я не понимаю почему это работает ...Yi=β0+β1xiYi=β0+β1xiY_i = \beta_0 + …

1
Связь между MLE и наименьшими квадратами в случае линейной регрессии
Хасти и Тибширани упоминают в разделе 4.3.2 своей книги, что в случае линейной регрессии подход наименьших квадратов фактически является частным случаем максимальной вероятности. Как мы можем доказать этот результат? PS: не жалейте математических деталей.

1
Левая и правая номенклатура в регрессионных моделях
y=β0+β1x1+ε0y=β0+β1x1+ε0y = \beta_{0} + \beta_{1}x_{1} + \varepsilon_{0} Язык для описания регрессионных моделей, таких как очень простая линейная регрессия, указанная выше, часто варьируется, и такие вариации часто несут тонкие сдвиги в значениях. Например, часть модели в левой части уравнения может быть названа (среди прочего, я не знаю) с коннотациями и обозначениями …

1
Сомнения в выводе уравнений регрессии гауссовского процесса в статье
Я читаю этот препринт и испытываю трудности с выводом уравнений для регрессии гауссовского процесса. Они используют настройки и обозначения Расмуссена и Уильямса . Таким образом, аддитивный, с нулевым средним, стационарный и нормально распределенный шум с дисперсией предполагается:σ2noiseσnoise2\sigma^2_{noise} y=f(x)+ϵ,ϵ∼N(0,σ2noise)y=f(x)+ϵ,ϵ∼N(0,σnoise2)y=f(\mathbf{x})+\epsilon, \quad \epsilon\sim N(0,\sigma^2_{noise}) Для предполагается предшествующий GP с нулевым средним , что …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.