Есть несколько альтернатив поэтапной регрессии . Наиболее часто используемые:
- Мнение эксперта, чтобы решить, какие переменные включить в модель.
- Регрессия частично наименьших квадратов . По сути, вы получаете скрытые переменные и делаете регрессию с ними. Вы также можете сделать PCA самостоятельно, а затем использовать основные переменные.
- Оператор наименьшей абсолютной усадки и выбора (LASSO).
И PLS Regression, и LASSO реализованы в R-пакетах, таких как
PLS : http://cran.r-project.org/web/packages/pls/ и
LARS : http://cran.r-project.org/web/packages/lars/index.html
Если вы хотите изучить только взаимосвязь между вашей зависимой переменной и независимыми переменными (например, вам не нужны тесты статистической значимости), я бы также порекомендовал методы машинного обучения, такие как случайные леса или деревья классификации / регрессии . Случайные леса могут также аппроксимировать сложные нелинейные отношения между вашими зависимыми и независимыми переменными, которые не могли бы быть обнаружены линейными методами (такими как линейная регрессия ).
Хорошей отправной точкой для машинного обучения может быть представление задачи «Машинное обучение» в CRAN:
Вид задачи машинного обучения : http://cran.r-project.org/web/views/MachineLearning.html