Вопросы с тегом «poisson-regression»

Регрессия Пуассона является одной из ряда моделей регрессии для зависимых переменных, которые являются счетчиками (неотрицательными целыми числами). Более общая модель - отрицательная биноминальная регрессия. Оба имеют множество вариантов.

2
Являются ли тесты на избыточную дисперсию в GLM действительно * полезными *?
Феномен «чрезмерной дисперсии» в GLM возникает всякий раз, когда мы используем модель, которая ограничивает дисперсию переменной отклика, и данные демонстрируют большую дисперсию, чем позволяет ограничение модели. Это обычно происходит при моделировании данных подсчета с использованием Poisson GLM, и это можно диагностировать с помощью хорошо известных тестов. Если тесты показывают, что …

1
Нулевая инфляция Пуассона
Предположим, что независимы иY=(Y1,…,Yn)′Y=(Y1,…,Yn)′ \textbf{Y} = (Y_1, \dots, Y_n)' Yi=0Yi=kwith probability pi+(1−pi)e−λiwith probability (1−pi)e−λiλki/k!Yi=0with probability pi+(1−pi)e−λiYi=kwith probability (1−pi)e−λiλik/k!\eqalign{ Y_i = 0 & \text{with probability} \ p_i+(1-p_i)e^{-\lambda_i}\\ Y_i = k & \text{with probability} \ (1-p_i)e^{-\lambda_i} \lambda_{i}^{k}/k! } Также предположим, что параметры и p = ( p 1 , … , p …

2
Как интерпретировать оценки параметров в результатах Пуассона GLM [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 5 лет назад . Call: glm(formula = darters ~ river + pH + temp, family = poisson, data = darterData) Deviance Residuals: Min …

1
Есть ли в пуассоновской регрессии ошибка?
Мне было просто интересно, если в регрессии Пуассона есть ошибка? Может ли регрессия Пуассона иметь случайные эффекты и ошибочный член? Я запутался в этом вопросе. В логистической регрессии нет термина ошибки, потому что ваша переменная результата является двоичной. Это единственная модель glm, у которой нет остаточного члена?

1
Пакет GBM против Карет с использованием GBM
Я занимался настройкой модели caret, но затем перезапустил модель, используя gbmпакет. Насколько я понимаю, caretпакет использует gbmи вывод должен быть одинаковым. Тем не менее, только быстрый запуск теста data(iris)показывает несоответствие в модели около 5% с использованием RMSE и R ^ 2 в качестве метрики оценки. Я хочу найти оптимальную производительность …

2
Возможно ли, что AIC и BIC дают совершенно разные модели выбора?
Я выполняю модель пуассоновской регрессии с 1 переменной отклика и 6 ковариатами. Выбор модели с использованием AIC приводит к получению модели со всеми ковариатами, а также с 6 терминами взаимодействия. BIC, однако, приводит к модели только с 2 ковариатами и без условий взаимодействия. Возможно ли, что два критерия, которые выглядят …

1
Как бороться с чрезмерной дисперсией в пуассоновской регрессии: квази-правдоподобие, отрицательный биномиальный GLM или случайный эффект на уровне субъекта?
Я натолкнулся на три предложения по поводу чрезмерной дисперсии в переменной отклика Пуассона и стартовой модели с фиксированными эффектами: Используйте квази-модель; Используйте отрицательный биномиальный GLM; Используйте смешанную модель со случайным эффектом на уровне объекта. Но какой на самом деле выбрать и почему? Есть ли какой-то фактический критерий среди них?

2
Плюсы и минусы лог-ссылки в сравнении с идентификационной ссылкой для регрессии Пуассона
Я выполняю регрессию Пуассона с конечной целью сравнения (и взятия разности) предсказанного среднего значения между двумя уровнями фактора в моей модели: , удерживая другие модельные ковариаты (которые являются двоичными) постоянными. Мне было интересно, если кто-нибудь может дать несколько практических советов о том, когда использовать ссылку на журнал, а не ссылку …

1
Одинаковые коэффициенты, оцениваемые в модели Пуассона и Квази-Пуассона
При моделировании данных подсчета претензий в страховой среде я начал с Пуассона, но затем заметил чрезмерную дисперсию. Квази-Пуассон лучше моделировал большее отношение средней дисперсии, чем основной Пуассон, но я заметил, что коэффициенты были идентичны как в модели Пуассона, так и в модели Квази-Пуассона. Если это не ошибка, почему это происходит? …

1
Сверхдисперсность и моделирование в пуассоновских моделях случайных эффектов со смещениями
Я столкнулся с рядом практических вопросов при моделировании данных подсчета из экспериментальных исследований с использованием эксперимента внутри объекта. Я кратко опишу эксперимент, данные и то, что я уже сделал, а затем мои вопросы. Четыре различных фильма были показаны выборке респондентов в последовательности. После каждого фильма проводилось интервью, в котором мы …

2
Допущения о пуассоновской регрессии и как их проверить в R
Я хотел бы проверить, какая регрессия лучше всего подходит для моих данных. Моя зависимая переменная - это число и имеет много нулей. И мне понадобится некоторая помощь, чтобы определить, какую модель и семейство использовать (пуассоновское или квазипуассонное или нулевая инфляция пуассоновых регрессий) и как проверить предположения. Регрессия Пуассона: насколько я …

1
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?
mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и ti(x1) + ti(x2) + ti(x1, x2)может дать (немного) разные результаты. MWE …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
Какую модель регрессии лучше всего использовать с данными подсчета?
Я пытаюсь немного заняться статистикой, но я застрял в чем-то. Мои данные следующие: Year Number_of_genes 1990 1 1991 1 1993 3 1995 4 Теперь я хочу построить регрессионную модель, чтобы на основе данных можно было прогнозировать количество генов за любой данный год. До сих пор я делал это с помощью …

1
Почему Anova () и drop1 () предоставили разные ответы для GLMM?
У меня есть GLMM формы: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Когда я использую drop1(model, test="Chi"), я получаю другие результаты, чем если бы я использовал Anova(model, type="III")из пакета автомобиля или summary(model). Последние два дают одинаковые ответы. Используя кучу сфабрикованных данных, я обнаружил, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
О чем сообщает lsmeans для обобщенной линейной модели, такой как смешанная модель Пуассона (в соответствии с блеском)?
Я анализирую данные отслеживания глаз из разработанного эксперимента. Упрощенная версия моих данных выглядит следующим образом (Вы можете получить данные dput () здесь ), head(lookDATA) participant fixationImage fixationCount 1 9 Automobile 81 2 9 Bird 63 3 9 Chair 82 4 9 Dog 64 5 9 Face 90 6 9 Plant …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.