Формула Vapnik-Chervonenkis (VC) -мерности для нейронных сетей варьируется от до , с в худшем случае, где - число ребер, а это количество узлов. Количество обучающих выборок, необходимых для строгой гарантии обобщения, линейно зависит от VC-измерения.
Это означает, что для сети с миллиардами ребер, как в случае успешных моделей глубокого обучения, учебному набору данных требуются миллиарды обучающих образцов в лучшем случае, а в худшем случае - квадриллионы. Самые большие тренировочные наборы в настоящее время имеют около ста миллиардов образцов. Поскольку данных для обучения недостаточно, вряд ли модели глубокого обучения обобщают. Вместо этого они переоснащают тренировочные данные. Это означает, что модели не будут хорошо работать с данными, которые отличаются от данных обучения, что является нежелательным свойством для машинного обучения.
Учитывая неспособность глубокого обучения обобщать, в соответствии с VC мерным анализом, почему результаты глубокого обучения так раздуты? Сама высокая точность некоторых наборов данных сама по себе ничего не значит. Есть ли что-то особенное в архитектурах глубокого обучения, которые значительно уменьшают размерность VC?
Если вы не считаете, что анализ VC-измерения является уместным, пожалуйста, предоставьте доказательства / объяснения того, что глубокое обучение является обобщающим и не является чрезмерным. Т.е. у него есть хороший отзыв и точность, или просто хороший отзыв? Достичь 100% - это тривиально, как и точность 100%. Получить оба близких к 100% очень сложно.
В качестве противоположного примера, здесь есть свидетельство того, что глубокое обучение переоснащается. Модель обмундирования легко обмануть, так как она содержит детерминированный / стохастический шум. Смотрите следующее изображение для примера переоснащения.
Кроме того, посмотрите ответы на этот вопрос с более низким рейтингом, чтобы понять проблемы с моделью сверхмодели, несмотря на хорошую точность данных испытаний.
Некоторые ответили, что регуляризация решает проблему большой размерности VC. Смотрите этот вопрос для дальнейшего обсуждения.