Какие переменные / характеристики вы предпочитаете для бинарной классификации, когда в наборе обучения гораздо больше переменных / функций, чем наблюдений? Цель здесь состоит в том, чтобы обсудить, какова процедура выбора признаков, которая наилучшим образом уменьшает ошибку классификации.
Мы можем зафиксировать обозначения для согласованности: для пусть { x i 1 , … , x i n i } будет обучающим набором наблюдений из группы i . Таким образом, n 0 + n 1 = n - размер обучающего набора. Мы устанавливаем p как число объектов (т. Е. Размерность пространства объектов). Пусть x [ i ] обозначает i-ю координату x .
Пожалуйста, дайте полные ссылки, если вы не можете дать детали.
РЕДАКТИРОВАТЬ (обновляется постоянно): процедуры, предложенные в ответах ниже
- Жадный выбор вперед Процедура выбора переменной для двоичной классификации
- Обратное устранение Процедура выбора переменных для бинарной классификации
- Метрополис сканирования / MCMC Процедура выбора переменной для двоичной классификации
- оштрафованная логистическая регрессия Процедура выбора переменной для двоичной классификации
Так как это вики сообщества, может быть больше обсуждений и обновлений.
У меня есть одно замечание: в определенном смысле вы все даете процедуру, которая позволяет упорядочивать переменные, но не выбирать переменные (вы довольно уклончивы в том, как выбрать количество функций, я полагаю, вы все используете перекрестную проверку?) ответы в этом направлении? (так как это вики сообщества, вам не нужно быть автором ответов, чтобы добавить информацию о том, как выбрать количество переменных? Я открыл вопрос в этом направлении здесь Перекрестная проверка в очень высоком измерении (чтобы выбрать число используемые переменные в очень высокой размерной классификации) )