Я думаю, что это две разные вещи,
Начнем с выбора функций :
Этот метод используется для выбора функций, которые объясняют большую часть целевой переменной (имеет корреляцию с целевой переменной). Этот тест выполняется непосредственно перед применением модели к данным.
Чтобы объяснить это лучше, давайте рассмотрим пример: есть 10 признаков и 1 целевая переменная, 9 функций объясняют 90% целевой переменной, а 10 функций вместе объясняют 91% целевой переменной. Таким образом, переменная 1 не имеет большого значения, поэтому вы склонны удалять ее перед моделированием (это также субъективно для бизнеса). Меня также могут называть Predictor Важность.
Теперь давайте поговорим о Feature Extraction ,
Который используется в обучении без учителя, извлечении контуров в изображениях, извлечении би-граммов из текста, извлечении фонем из записи произносимого текста. Когда вы ничего не знаете о данных, таких как словарь данных, слишком много функций, что означает, что данные не в понятном формате. Затем вы пытаетесь применить эту технику, чтобы получить некоторые функции, которые объясняют большую часть данных. Извлечение признаков включает в себя преобразование функций, которое часто необратимо, потому что некоторая информация теряется в процессе уменьшения размерности.
Вы можете применить Feature Extraction к заданным данным, чтобы извлечь объекты, а затем применить Feature Feature относительно целевой переменной, чтобы выбрать подмножество, которое может помочь в создании хорошей модели с хорошими результатами.
Вы можете пройти через эти Link-1 , Link-2 для лучшего понимания.
мы можем реализовать их в R, Python, SPSS.
дайте мне знать, если нужно больше разъяснений.