Это в точности то же самое, что и случай, когда результат находится между 0 и 1, и этот случай обычно обрабатывается с помощью обобщенной линейной модели (GLM), такой как логистическая регрессия. В Интернете есть много отличных учебников по логистической регрессии (и другим GLM), а также есть известная книга Агрести по этой теме.
Бета-регрессия является жизнеспособной, но более сложной альтернативой. Скорее всего, логистическая регрессия будет хорошо работать для вашего приложения и, как правило, ее будет легче реализовать с помощью большинства статистических программ.
Почему бы не использовать обычную регрессию наименьших квадратов? На самом деле люди, иногда под названием «линейная модель вероятности» (LPM). Наиболее очевидная причина, по которой LPM являются «плохими», заключается в том, что нет простого способа ограничить результат в определенном диапазоне, и вы можете получить прогнозы выше 1 (или 100% или любой другой конечной верхней границы) и ниже 0 (или некоторая другая нижняя граница). По той же причине прогнозы вблизи верхней границы имеют тенденцию быть слишком высокими, а прогнозы вблизи нижней границы - слишком низкими. Математическая основа линейной регрессии явно предполагает, что подобные тенденции не существуют. Как правило, нет веских причин для установки LPM вместо логистической регрессии.
Кроме того, оказывается, что все модели регрессии OLS, включая LPM, могут быть определены как особый вид GLM, и в этом контексте LPM связаны с логистической регрессией.