Вопросы с тегом «logistic»

Относится в целом к ​​статистическим процедурам, которые используют логистическую функцию, чаще всего различные формы логистической регрессии


3
Дискриминантный анализ против логистической регрессии
Я нашел некоторые плюсы дискриминантного анализа, и у меня есть вопросы о них. Так: Когда классы хорошо разделены, оценки параметров для логистической регрессии удивительно нестабильны. Коэффициенты могут уходить в бесконечность. LDA не страдает от этой проблемы. Если число признаков мало и распределение предикторов ИксИксX приблизительно нормальное в каждом из классов, …

2
Как использовать порядковую логистическую регрессию со случайными эффектами?
В моем исследовании я буду измерять рабочую нагрузку с помощью нескольких показателей. С вариабельностью сердечного ритма (ВСР), электродермальной активностью (ЭДА) и с субъективной шкалой (СРП). После нормализации IWS имеет три значения: Рабочая нагрузка ниже нормальной Рабочая нагрузка средняя Рабочая нагрузка выше, чем обычно. Я хочу увидеть, насколько хорошо физиологические измерения …

2
Как построить границу решения в R для модели логистической регрессии?
Я сделал модель логистической регрессии, используя glm в R. У меня есть две независимые переменные. Как я могу построить границу решения моей модели на графике рассеяния двух переменных. Например, как я могу нарисовать фигуру, например: http://onlinecourses.science.psu.edu/stat557/node/55 Благодарю.
16 r  logistic 

2
Как логистическая регрессия может создавать кривые, которые не являются традиционными функциями?
Я думаю, что у меня есть некоторая фундаментальная путаница в отношении того, как работают функции в логистической регрессии (или, может быть, просто функции в целом). Как получается, что функция h (x) создает кривую, видимую слева на изображении? Я вижу, что это график двух переменных, но тогда эти две переменные (x1 …

1
Как подобрать смешанную модель с переменной отклика от 0 до 1?
Я пытаюсь использовать lme4::glmer()для подгонки биномиальной обобщенной смешанной модели (GLMM) с зависимой переменной, которая является не двоичной, а непрерывной переменной от нуля до единицы. Можно думать об этой переменной как о вероятности; на самом деле это вероятность того, как сообщили человеческих субъектов (в эксперименте , который я помочь анализирующего). Т.е. …

4
Точность градиентной машины уменьшается с увеличением числа итераций
Я экспериментирую с алгоритмом машины повышения градиента через caretпакет в R. Используя небольшой набор данных для поступления в колледж, я запустил следующий код: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

3
Модель Кокса против логистической регрессии
Допустим, нам дали следующую проблему: Предскажите, какие клиенты, скорее всего, прекратят покупки в нашем магазине в ближайшие 3 месяца. Для каждого клиента мы знаем месяц, когда он начал покупать в нашем магазине, и, кроме того, у нас есть много поведенческих особенностей в ежемесячных агрегатах. «Старший» клиент покупал в течение пятидесяти …

4
Всегда ли функция logit лучше всего подходит для регрессионного моделирования двоичных данных?
Я думал об этой проблеме. Обычная логистическая функция для моделирования двоичных данных: Но является ли функция логита, которая представляет собой S-образную кривую, всегда наилучшей для моделирования данных? Возможно, у вас есть основания полагать, что ваши данные не соответствуют нормальной S-образной кривой, а имеют другой тип кривой с областью(0,1).log(p1−p)=β0+β1X1+β2X2+…log⁡(p1−p)=β0+β1X1+β2X2+… \log\left(\frac{p}{1-p}\right)=\beta_0+\beta_1X_1+\beta_2X_2+\ldots (0,1)(0,1)(0,1) …

3
Интуиция для опорных векторных машин и гиперплоскости
В моем проекте я хочу создать модель логистической регрессии для прогнозирования двоичной классификации (1 или 0). У меня есть 15 переменных, 2 из которых являются категориальными, а остальные представляют собой смесь непрерывных и дискретных переменных. Чтобы соответствовать модели логистической регрессии, мне посоветовали проверить линейную отделимость с использованием SVM, персептрона или …

2
Матричная запись для логистической регрессии
В линейной регрессии (квадрат потери), используя матрицу, мы получаем очень краткие обозначения для цели minimize ∥Ax−b∥2minimize ‖Ax−b‖2\text{minimize}~~ \|Ax-b\|^2 Где AAA - матрица данных, xxx - коэффициенты, а bbb - ответ. Существует ли аналогичная матричная запись для цели логистической регрессии? Все записи, которые я видел, не могут избавиться от суммы по …

3
Логистическая регрессия: Scikit Learn против glmnet
Я пытаюсь продублировать результаты из sklearnбиблиотеки логистической регрессии, используя glmnetпакет в R. Из sklearnрегрессионной логистической документации , она пытается свести к минимуму функцию стоимости при l2 казни minw,c12wTw+C∑i=1Nlog(exp(−yi(XTiw+c))+1)minw,c12wTw+C∑i=1Nlog⁡(exp⁡(−yi(XiTw+c))+1)\min_{w,c} \frac12 w^Tw + C\sum_{i=1}^N \log(\exp(-y_i(X_i^Tw+c)) + 1) Из виньеток из glmnetего реализация минимизирует несколько иной стоимость функции минβ, β0- [ 1NΣя = …

1
Гессиан логистической функции
Мне трудно вывести гессиан целевой функции l(θ)l(θ)l(\theta) в логистической регрессии, где l(θ)l(θ)l(\theta) равно: l(θ)=∑i=1m[yilog(hθ(xi))+(1−yi)log(1−hθ(xi))]l(θ)=∑i=1m[yilog⁡(hθ(xi))+(1−yi)log⁡(1−hθ(xi))] l(\theta)=\sum_{i=1}^{m} \left[y_{i} \log(h_\theta(x_{i})) + (1- y_{i}) \log (1 - h_\theta(x_{i}))\right] hθ(x)hθ(x)h_\theta(x) - логистическая функция. ГессианXTDXXTDXX^T D X . Я пытался вывести его путем расчета∂2l(θ)∂θi∂θj∂2l(θ)∂θi∂θj\frac{\partial^2 l(\theta)}{\partial \theta_i \partial \theta_j} , но тогда это не было очевидно для …
15 logistic 

5
Является ли логистическая регрессия непараметрическим тестом?
Я недавно получил следующий вопрос по электронной почте. Я выложу ответ ниже, но мне было интересно услышать, что думают другие. Вы бы назвали логистическую регрессию непараметрическим тестом? Насколько я понимаю, простой маркировки теста непараметрическим, потому что его данные обычно не распределяются, недостаточно. Это больше связано с отсутствием предположений. Логистическая регрессия …

2
Применение логистической регрессии с низкой частотой событий
У меня есть набор данных , в котором частота событий очень низка (40000 отказа от ). Я применяю логистическую регрессию по этому вопросу. У меня была дискуссия с кем-то, где выяснилось, что логистическая регрессия не даст хорошей матрицы путаницы для данных с такой низкой частотой событий. Но из-за бизнес-проблемы и …
15 logistic 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.