Допустим, у меня есть набор данных с оценками по множеству пунктов вопросника, которые теоретически состоят из меньшего числа шкал, как в исследовании психологии.
Я знаю, что общий подход здесь состоит в том, чтобы проверять надежность весов, используя альфа-версию Кронбаха или что-то подобное, затем агрегировать элементы в весах, чтобы сформировать оценки по шкалам и продолжить анализ оттуда.
Но есть и факторный анализ, который может взять все ваши оценки предметов в качестве входных данных и сказать вам, какие из них образуют согласованные факторы. Вы можете понять, насколько сильны эти факторы, взглянув на нагрузки, сообщества и так далее. Для меня это звучит как то же самое, только гораздо глубже.
Даже если все ваши весы надежны, EFA может исправить вас, на каких предметах лучше всего подходят, да? Вы, вероятно, получите перекрестную загрузку, и может иметь смысл использовать производные оценки факторов, а не простые шкалы.
Если я хочу использовать эти шкалы для более позднего анализа (например, регрессии или ANOVA), должен ли я просто агрегировать шкалы, пока их надежность сохраняется? Или это что-то вроде CFA (тестирование, чтобы увидеть, являются ли весы хорошими факторами, что, кажется, измеряет то же самое, что и «надежность»).
Меня учили обоим подходам независимо друг от друга, и поэтому я действительно не знаю, как они связаны, могут ли они использоваться вместе или какой из них имеет больше смысла для какого контекста. Существует ли дерево решений для хорошей исследовательской практики в этом случае? Что-то вроде:
Запустите CFA в соответствии с прогнозируемой шкалой
- Если CFA показывает хорошую подгонку, рассчитайте коэффициенты и используйте их для анализа.
- Если CFA показывает плохое соответствие, запустите EFA вместо этого и используйте исследовательский подход (или что-то в этом роде).
Являются ли факторный анализ и проверка надежности действительно отдельными подходами к одной и той же вещи, или я где-то неправильно понимаю?