Недоопределенные системы недоопределены, только если вы не налагаете никаких других ограничений, кроме данных. Придерживаясь вашего примера, подгоняя 4-градусный полином к 4 точкам данных, вы получаете одну степень свободы, не ограниченную данными, что дает вам линию (в пространстве коэффициентов) одинаково хороших решений. Однако вы можете использовать различные методы регуляризации для решения проблемы. Например, налагая штраф на L2-норму (то есть сумму квадратов) коэффициентов, вы гарантируете, что всегда есть одно уникальное решение с самой высокой степенью пригодности.
Методы регуляризации также существуют для нейронных сетей, поэтому краткий ответ на ваш вопрос «да, вы можете». Особый интерес представляет метод, называемый «отбрасывание», при котором для каждого обновления весов вы случайным образом «отбрасываете» определенное подмножество узлов из сети. То есть для этой конкретной итерации алгоритма обучения вы притворяетесь, что эти узлы не существуют. Без исключения сеть может выучить очень сложные представления входных данных, которые зависят от правильной работы всех узлов. Такие представления, скорее всего, будут «запоминать» обучающие данные, а не находить обобщающие шаблоны. Выпадение гарантирует, что сеть не может использовать все узлы одновременно, чтобы соответствовать обучающим данным; он должен уметь хорошо представлять данные, даже если некоторые узлы отсутствуют,
Также обратите внимание, что при использовании отсева степени свободы в любой заданной точке во время обучения могут фактически быть меньше, чем количество тренировочных выборок, даже если в целом вы изучаете больше весов, чем тренировочных выборок.