Выполнив поиск по сетке для каждой суррогатной модели, вы можете и должны проверить несколько вещей:
- изменение оптимизированных параметров (здесь и C ).
Являются ли оптимальные параметры стабильными? Если нет, то вы, скорее всего, попали в беду.γC
- Сравните заявленные показатели внутренней и внешней перекрестной проверки.
Если внутренняя (то есть настраиваемая) перекрестная проверка выглядит намного лучше, чем внешняя (проверка окончательной модели), то у вас тоже проблемы: вы перегружены. Существует значительный риск того, что настроенные параметры не являются оптимальными вообще. Однако, если внешняя перекрестная проверка выполняется правильно (все тестовые наборы действительно независимы от соответствующих суррогатных моделей), то, по крайней мере, у вас все еще будет объективная (!) Оценка производительности модели. Но вы не можете быть уверены, что это оптимально.
- Насколько выражен оптимум? Быстро ли ухудшается производительность при неоптимальных параметрах? Насколько хороша оптимальная производительность?
Существует много сказать о переоснащении по выбору модели. Тем не менее, следует иметь в виду, что как дисперсия, так и оптимистический уклон могут действительно повредить
- Дисперсия означает, что вы можете случайно оказаться довольно далеко от действительно оптимальных гиперпараметров.
- но и предвзятость может повредить: если вы переоснащены, вы можете столкнуться с ситуациями, когда многие модели идеально подходят для внутренней перекрестной проверки (но на самом деле это не так). В этом случае настройка может сбиться с пути, потому что она не распознает различия между моделями.
- Если смещение зависит от гиперпараметров, у вас большие проблемы.
Если вам интересен пример и вы можете читать по-немецки, я мог бы опубликовать свою дипломную работу в Интернете.
По моему опыту, настройка гиперпараметров является чрезвычайно эффективной идеей для переоснащения ...
Теперь, если вы понимаете, что переоснащаете себя, у вас есть в основном два варианта:
- Сообщите, что у оптимизации была проблема с переоснащением, но вы выполнили надлежащую внешнюю проверку, которая привела к ... (результаты внешней перекрестной проверки).
- ограничить сложность модели. Один из способов сделать это - исправить гиперпараметры:
В качестве альтернативы настройке гиперпараметров для каждого тренировочного набора, вы можете предварительно указать (гипер) параметры (т.е. исправить их заранее). Я делаю это как можно больше для своих моделей, так как у меня обычно бывает еще меньше случаев, чем у вас, см. Ниже.
Тем не менее, это исправление должно действительно и честно быть сделано заранее: например, я попросил коллегу его оптимизированные параметры на подобном наборе данных (независимый эксперимент) или сделал предварительный эксперимент, включая поиск в сетке по параметрам. Этот первый эксперимент затем используется для определения некоторых экспериментальных параметров, а также параметров модели для реального эксперимента и анализа данных. Смотрите ниже для дальнейших объяснений.
Конечно, можно провести правильное тестирование на автоматически оптимизированных моделях (двойная или вложенная проверка), но размер вашей выборки может не позволить разбить данные дважды .
В этой ситуации, ИМХО, гораздо лучше сообщить достоверную оценку модели, которая была построена с использованием профессионального опыта выбора параметров моделирования, чем сообщать о чрезмерно оптимистической оценке какой-либо автоматически оптимизированной модели.
Еще одна точка зрения на ситуацию заключается в том, что вы должны пойти на компромисс
- худшая производительность из-за откладывания еще одной группы случаев для оптимизации параметров (меньший размер обучающей выборки => худшая модель, но «оптимальные» параметры)
- худшие результаты из-за неоптимальной фиксации параметров экспертом (но при больших данных тренировки).
Некоторые похожие мысли по похожему вопросу: /stats//a/27761/4598
О фиксации параметров и комментариях Дикрана Марсупиала
Я использую термин гиперпараметры, как Дикран Марсупиал использует его в своей статье (ссылка в его ответе)
Я работаю со спектроскопическими данными. Это своего рода измерение, когда анализ и моделирование данных часто включает в себя довольно много предварительной обработки. Это можно рассматривать как гиперпараметры (например, какой порядок полинома следует использовать для базовой линии? Какие каналы измерения следует включить?). Есть другие решения, которые ближе к вашим параметрам SVM, например, сколько основных компонентов использовать, если PCA делается для уменьшения размерности до обучения «реальной» модели? И иногда я также использую классификацию SVM, поэтому мне приходится выбирать параметры SVM.
Теперь, IMHO, лучший способ исправить гиперпараметры, если у вас есть причины, которые приходят из приложения. Например, я обычно решаю, какую базовую линию использовать по физическим / химическим / биологическим причинам (т. Е. Знание об образце и спектроскопическом поведении, которое следует из этого). Тем не менее, я не знаю такой аргументации, которая помогает с параметрами SVM ...
Случай предварительных экспериментов, о которых я упоминал выше, выглядит следующим образом:
- мы берем данные группы клеток (хотим различать разные клеточные линии).
Спектры анализируются, запускается повторная двойная перекрестная проверка SVM (провел ночь или две на вычислительном сервере).
- γC
- Я также наблюдаю некоторое переоснащение: внешняя перекрестная проверка не так хороша, как результаты настройки. Это как и ожидалось.
- Тем не менее, существуют различия в производительности в диапазоне настройки гиперпараметров, и производительность в сетке настройки выглядит достаточно плавной. Хорошо.
Мой вывод таков: хотя я не могу быть уверен, что окончательные гиперпараметры являются оптимальными, внешняя перекрестная проверка дает мне правильную оценку эффективности суррогатных моделей.
Во время экспериментальной части мы определили некоторые изменения в экспериментальной установке (вещи, которые не влияют на сигнал-шум данных, но делают еще один шаг вперед в автоматизации прибора)
Мы улучшаем экспериментальные настройки и приобретаем новые спектры. Как клетки, они должны быть выращены в свежем виде. Т.е. новый набор данных - это даже независимые партии культур.
Теперь я сталкиваюсь с решением: должен ли я «пропустить» внутреннюю перекрестную проверку и просто использовать гиперпараметры, которые я определил для старых данных?
- Как упоминалось выше, я рискую, что эти заранее определенные гиперпараметры не являются оптимальными.
- Но я также не могу быть уверен, что получу действительно оптимальные гиперпараметры, выполнив внутреннюю (настраиваемую) перекрестную проверку.
- Однако настройка на старые данные была стабильной.
- Выполняя оптимизацию, я буду тренироваться на меньшем количестве образцов: поскольку у меня в любом случае слишком мало образцов (TM), я должен ожидать получить худшие модели, если я отложу больше образцов для второго цикла перекрестной проверки.
Поэтому в этом случае я решил использовать фиксированные параметры (исходя из опыта работы с аналогичными данными и зная, что в будущем нам придется выполнять нашу «домашнюю работу», включая, среди прочего, повторную проверку этих решений с большими данными).
Обратите внимание, что важно то, что я пропускаю внутреннюю ( настройка перекрестной проверки), а не внешнюю. С фиксированными гиперпараметрами я получаю объективную оценку производительности возможно субоптимальной модели. Это правда, что эта оценка подвержена высокой дисперсии, но эта разница в основном одинакова, независимо от того, занимаюсь я внутренней настройкой или нет.
Пропустив внешнюю перекрестную проверку, я получил бы оптимистически предвзятую оценку настроенной модели, которая в зависимости от приложения и данных может быть бесполезной (если очень чрезмерно оптимистичной), а оптимистическая предвзятость может быть явно неприемлемой.