Это правда, что предположения о линейной регрессии не являются реалистичными. Однако это верно для всех статистических моделей. «Все модели ошибочны, но некоторые полезны».
Полагаю, у вас сложилось впечатление, что нет причин использовать линейную регрессию, когда вы можете использовать более сложную модель. Это не так, потому что в целом более сложные модели более уязвимы для переоснащения и используют больше вычислительных ресурсов, что важно, например, если вы пытаетесь делать статистику на встроенном процессоре или веб-сервере. Более простые модели также легче понять и интерпретировать; Напротив, сложные модели машинного обучения, такие как нейронные сети, как правило, оказываются черными ящиками, более или менее.
Даже если когда-нибудь линейная регрессия станет практически бесполезной (что в обозримом будущем кажется крайне маловероятным), она все равно будет теоретически важной, поскольку более сложные модели, как правило, основываются на линейной регрессии в качестве основы. Например, чтобы понять регуляризованную логистическую регрессию со смешанными эффектами, сначала необходимо понять простую старую линейную регрессию.
Нельзя сказать, что более сложные, новые и блестящие модели не являются полезными или важными. Многие из них есть. Но более простые модели являются более широко применимыми и, следовательно, более важными и имеют смысл представлять сначала, если вы собираетесь представлять множество моделей. Есть много плохих данных анализа, проводимых в эти дни людьми, которые называют себя «исследователями данных» или что-то в этом роде, но даже не знают основополагающих вещей, например, каков на самом деле доверительный интервал. Не будь статистикой!