Что делать, если CFA подходит для масштабирования нескольких элементов плохо?


9

Я не уверен, как поступить с этим CFA, который я делаю в Lavaan. У меня есть выборка из 172 участников (я знаю, что это немного для CFA) и 28 предметов с 7-балльной шкалой Лайкерта, которая должна загружаться по семи факторам. Я сделал CFA с «mlm» -этиматорами, но подгонка модели была действительно плохой (χ2 (df = 329) = 739,36; сравнительный индекс соответствия (CFI) = .69; стандартизированный среднеквадратичный остаток (SRMR) =. 10; среднеквадратическая ошибка аппроксимации (RMSEA) = .09; RMSEA 90% доверительный интервал (CI) = [.08, .10]).

Я пробовал следующее:

  • Бифакторная модель с одним общим множителем метода -> не сходилась.

  • оценки для порядковых данных („WLSMV“) -> Подгонка модели: (χ2 (df = 329) = 462; сравнительный индекс соответствия (CFI) = .81; стандартизированный среднеквадратичный остаток (SRMR) =. 09; среднеквадратичная ошибка приближения (RMSEA) =. 05; RMSEA 90% доверительный интервал (CI) = [.04, .06])

  • уменьшение модели на элементы с низким коэффициентом загрузки и добавление ковариаций между конкретными элементами -> Подгонка модели: χ2 (df = 210) = 295; индекс сравнительного соответствия (CFI) = 0,86; стандартизированный среднеквадратичный остаток (SRMR) =. 08; среднеквадратическая ошибка аппроксимации (RMSEA) =. 07; RMSEA 90% доверительный интервал (ДИ) = [.06, .08].

Теперь мои вопросы:

  • Что мне делать с такой моделью?

  • Что было бы статистически правильно сделать?

  • Сообщите, что он подходит или что он не подходит? А какая из этих моделей?

Я был бы рад поговорить с вами об этом.

Вот вывод лавы CFA оригинальной модели:

    lavaan (0.5-17.703) converged normally after  55 iterations

                                              Used       Total
  Number of observations                           149         172

  Estimator                                         ML      Robust
  Minimum Function Test Statistic              985.603     677.713
  Degrees of freedom                               329         329
  P-value (Chi-square)                           0.000       0.000
  Scaling correction factor                                  1.454
    for the Satorra-Bentler correction

Model test baseline model:

  Minimum Function Test Statistic             2461.549    1736.690
  Degrees of freedom                               378         378
  P-value                                        0.000       0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    0.685       0.743
  Tucker-Lewis Index (TLI)                       0.638       0.705

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -6460.004   -6460.004
  Loglikelihood unrestricted model (H1)      -5967.202   -5967.202

  Number of free parameters                        105         105
  Akaike (AIC)                               13130.007   13130.007
  Bayesian (BIC)                             13445.421   13445.421
  Sample-size adjusted Bayesian (BIC)        13113.126   13113.126

Root Mean Square Error of Approximation:

  RMSEA                                          0.116       0.084
  90 Percent Confidence Interval          0.107  0.124       0.077  0.092
  P-value RMSEA <= 0.05                          0.000       0.000

Standardized Root Mean Square Residual:

  SRMR                                           0.096       0.096

Parameter estimates:

  Information                                 Expected
  Standard Errors                           Robust.sem

                   Estimate  Std.err  Z-value  P(>|z|)   Std.lv  Std.all
Latent variables:
  IC =~
    PTRI_1r           1.000                               1.093    0.691
    PTRI_7            1.058    0.118    8.938    0.000    1.156    0.828
    PTRI_21           0.681    0.142    4.793    0.000    0.744    0.582
    PTRI_22           0.752    0.140    5.355    0.000    0.821    0.646
  IG =~
    PTRI_10           1.000                               0.913    0.600
    PTRI_11r          0.613    0.152    4.029    0.000    0.559    0.389
    PTRI_19           1.113    0.177    6.308    0.000    1.016    0.737
    PTRI_24           0.842    0.144    5.854    0.000    0.769    0.726
  DM =~
    PTRI_15r          1.000                               0.963    0.673
    PTRI_16           0.892    0.118    7.547    0.000    0.859    0.660
    PTRI_23           0.844    0.145    5.817    0.000    0.813    0.556
    PTRI_26           1.288    0.137    9.400    0.000    1.240    0.887
  IM =~
    PTRI_13           1.000                               0.685    0.609
    PTRI_14           1.401    0.218    6.421    0.000    0.960    0.814
    PTRI_18           0.931    0.204    4.573    0.000    0.638    0.604
    PTRI_20r          1.427    0.259    5.514    0.000    0.978    0.674
  IN =~
    PTRI_2            1.000                               0.839    0.612
    PTRI_6            1.286    0.180    7.160    0.000    1.080    0.744
    PTRI_12           1.031    0.183    5.644    0.000    0.866    0.523
    PTRI_17r          1.011    0.208    4.872    0.000    0.849    0.613
  EN =~
    PTRI_3            1.000                               0.888    0.687
    PTRI_8            1.136    0.146    7.781    0.000    1.008    0.726
    PTRI_25           0.912    0.179    5.088    0.000    0.810    0.620
    PTRI_27r          1.143    0.180    6.362    0.000    1.015    0.669
  RM =~
    PTRI_4r           1.000                               1.114    0.700
    PTRI_9            0.998    0.105    9.493    0.000    1.112    0.786
    PTRI_28           0.528    0.120    4.403    0.000    0.588    0.443
    PTRI_5            0.452    0.149    3.037    0.002    0.504    0.408

Covariances:
  IC ~~
    IG                0.370    0.122    3.030    0.002    0.371    0.371
    DM                0.642    0.157    4.075    0.000    0.610    0.610
    IM                0.510    0.154    3.308    0.001    0.681    0.681
    IN                0.756    0.169    4.483    0.000    0.824    0.824
    EN                0.839    0.169    4.979    0.000    0.865    0.865
    RM                0.644    0.185    3.479    0.001    0.529    0.529
  IG ~~
    DM                0.380    0.103    3.684    0.000    0.433    0.433
    IM                0.313    0.096    3.248    0.001    0.501    0.501
    IN                0.329    0.107    3.073    0.002    0.429    0.429
    EN                0.369    0.100    3.673    0.000    0.455    0.455
    RM                0.289    0.116    2.495    0.013    0.284    0.284
  DM ~~
    IM                0.530    0.120    4.404    0.000    0.804    0.804
    IN                0.590    0.122    4.839    0.000    0.731    0.731
    EN                0.588    0.105    5.619    0.000    0.688    0.688
    RM                0.403    0.129    3.132    0.002    0.376    0.376
  IM ~~
    IN                0.439    0.126    3.476    0.001    0.763    0.763
    EN                0.498    0.121    4.128    0.000    0.818    0.818
    RM                0.552    0.122    4.526    0.000    0.723    0.723
  IN ~~
    EN                0.735    0.167    4.402    0.000    0.987    0.987
    RM                0.608    0.141    4.328    0.000    0.650    0.650
  EN ~~
    RM                0.716    0.157    4.561    0.000    0.724    0.724


Variances:
    PTRI_1r           1.304    0.272                      1.304    0.522
    PTRI_7            0.613    0.153                      0.613    0.314
    PTRI_21           1.083    0.199                      1.083    0.662
    PTRI_22           0.940    0.141                      0.940    0.582
    PTRI_10           1.483    0.257                      1.483    0.640
    PTRI_11r          1.755    0.318                      1.755    0.849
    PTRI_19           0.868    0.195                      0.868    0.457
    PTRI_24           0.530    0.109                      0.530    0.473
    PTRI_15r          1.121    0.220                      1.121    0.547
    PTRI_16           0.955    0.200                      0.955    0.564
    PTRI_23           1.475    0.219                      1.475    0.691
    PTRI_26           0.417    0.120                      0.417    0.213
    PTRI_13           0.797    0.113                      0.797    0.629
    PTRI_14           0.468    0.117                      0.468    0.337
    PTRI_18           0.709    0.134                      0.709    0.635
    PTRI_20r          1.152    0.223                      1.152    0.546
    PTRI_2            1.178    0.251                      1.178    0.626
    PTRI_6            0.942    0.191                      0.942    0.447
    PTRI_12           1.995    0.235                      1.995    0.727
    PTRI_17r          1.199    0.274                      1.199    0.625
    PTRI_3            0.882    0.179                      0.882    0.528
    PTRI_8            0.910    0.131                      0.910    0.472
    PTRI_25           1.048    0.180                      1.048    0.615
    PTRI_27r          1.273    0.238                      1.273    0.553
    PTRI_4r           1.294    0.242                      1.294    0.510
    PTRI_9            0.763    0.212                      0.763    0.382
    PTRI_28           1.419    0.183                      1.419    0.804
    PTRI_5            1.269    0.259                      1.269    0.833
    IC                1.194    0.270                      1.000    1.000
    IG                0.833    0.220                      1.000    1.000
    DM                0.927    0.181                      1.000    1.000
    IM                0.470    0.153                      1.000    1.000
    IN                0.705    0.202                      1.000    1.000
    EN                0.788    0.177                      1.000    1.000
    RM                1.242    0.257                      1.000    1.000

2
У меня сложилось впечатление, что данные просто не соответствуют модели, например, у вас есть чрезвычайно высокая корреляция между факторами. Попробуйте взглянуть на стандартизированное решение, чтобы получить корреляции вместо ковариаций (и стандартизированных нагрузок тоже). Может быть, вы хотите свернуть некоторые факторы? Может быть, вы хотите добавить метод фактор для элементов с обратным кодированием, если у вас есть некоторые - это часто значительно улучшает подгонку.
hplieninger

1
Я уже пытался рассмотреть элементы с обратным кодированием с помощью фактора метода. Улучшена посадка, но не намного. Я хотел бы свернуть один или два фактора, но я «обязан» придерживаться теоретически постулированного 7-факторного решения. И даже если я рухну, пригонка не сильно улучшится.
Teeglaze

Ответы:


14

1. Вернитесь к Исследовательскому Факторному Анализу.

Если вы получаете очень плохие соответствия CFA, то это часто является признаком того, что вы слишком быстро перешли на CFA. Вы должны вернуться к исследовательскому факторному анализу, чтобы узнать о структуре вашего теста. Если у вас большая выборка (в вашем случае у вас ее нет), вы можете разделить ее, чтобы получить пробную и подтверждающую выборку.

  • Примените процедуры разведочного факторного анализа, чтобы проверить, является ли теоретическое число факторов разумным. Я бы проверил график осыпи, чтобы увидеть, что он предлагает. Затем я бы проверил повернутую матрицу загрузки факторов с теоретическим числом факторов, а также с одним или двумя больше и одним или двумя меньшими факторами. Вы можете часто видеть признаки недостаточного или чрезмерного извлечения факторов, просматривая такие матрицы загрузки факторов.
  • Используйте анализ фактора для выявления проблемных предметов. В частности, элементы, загружаемые чаще всего по не теоретизированному коэффициенту, элементы с большой перекрестной загрузкой, элементы, которые не нагружаются сильно ни по одному из факторов.

Преимущество EFA заключается в том, что он дает большую свободу, поэтому вы узнаете гораздо больше о структуре теста, чем при рассмотрении только индексов модификации CFA.

В любом случае, надеюсь, что в результате этого процесса вы, возможно, определили несколько проблем и решений. Например, вы можете уронить несколько предметов; Вы можете обновить свою теоретическую модель того, сколько факторов существует, и так далее.

2. Улучшение Подтверждающего Факторного Анализа

Здесь можно сделать много замечаний:

CFA на весах со многими предметами на весы часто неэффективен по традиционным стандартам. Это часто приводит к тому, что люди (и заметьте, я думаю, что этот ответ часто неудачен) формируют участки предметов или используют только три или четыре предмета на шкалу. Проблема заключается в том, что обычно предлагаемые структуры CFA не в состоянии уловить небольшие нюансы в данных (например, небольшие перекрестные нагрузки, элементы в тесте, которые коррелируют чуть больше, чем другие, незначительные факторы неприятности). Они усилены многими пунктами в масштабе.

Вот несколько ответов на вышеуказанную ситуацию:

  • Сделайте поисковую SEM, которая учитывает различные небольшие перекрестные нагрузки и связанные условия
  • Изучить индексы модификаций и включить некоторые из самых больших разумных модификаций; например, несколько в масштабе коррелированных остатков; несколько перекрестных нагрузок. см modificationindices(fit)в lavaan.
  • Используйте разделение элементов, чтобы уменьшить количество наблюдаемых переменных

Общие комментарии

Так что, в общем, если ваша модель CFA действительно плохая, вернитесь в EFA, чтобы узнать больше о вашей шкале. В качестве альтернативы, если у вас хорошее EFA, а ваш CFA выглядит немного плохо из-за хорошо известных проблем, связанных с наличием большого количества элементов в каждой шкале, тогда уместны стандартные подходы CFA, упомянутые выше.


1
Большое спасибо за ваши советы. Я уже вернулся в EFA, но с вашими предложениями я выяснил, что многие элементы не загружаются с учетом того фактора, который они должны. У меня возникает соблазн свести модель к 5 факторам вместо 7 теоретических, но мой профессор не согласится с этим, но это нормально. К сожалению, 7-факторная модель с 4 элементами каждый не работает (независимо от того, что модифицируется). Я сообщу о сниженном CFA (с 7 факторами + 1 бифактор, 3 элемента в каждом), который едва соответствует (CFI = .89, RMSEA = .067, SRMR = .069), но это лучшее, что я получил.
Teeglaze

1
PS Джером, мне очень нравится твой блог. Это мне очень помогло и, безусловно, сделает это в будущем :) Спасибо!
Teeglaze

4

Я бы работал над тем, чтобы заставить бифакторную модель сходиться. Попробуйте скорректировать начальные значения ... это может быть подозрительный подход, поэтому имейте это в виду и интерпретируйте с осторожностью. Читайте об опасностях интерпретации моделей, которые сопротивляются конвергенции, если вы хотите быть по-настоящему осторожными - я признаю, что я сам пока не сделал этого много в своем исследовании SEM, поэтому я предлагаю сделать то, что вам нужно сделать, чтобы модель сходятся в основном в ваших интересах. Я не знаю, что это будет более подходящим для публикации, но если это явно не так, потому что модель бифактора тоже не подходит, это может быть полезно для вас знать.

В противном случае кажется, что вы сделали столько, сколько можете с имеющимися данными. AFAIK (я в последнее время глубоко изучал этот вопрос для своего собственного методологического проекта, поэтому, пожалуйста, исправьте меня, если я ошибаюсь !!), оценка WLSMV lavaanиспользует пороги из полихорических корреляций, что является наилучшим способом получить хорошее соответствие индексы из CFA порядковых данных. Если вы правильно указали свою модель (или, по крайней мере, оптимально), это все, что вы можете сделать. Удаление элементов с низкой загрузкой и свободная оценка ковариаций между элементами даже немного далеко, но вы тоже это попробовали.

Ваша модель не подходит по обычным стандартам, как вы, наверное, знаете. Конечно, вы не должны говорить, что это хорошо подходит, когда это не так. К сожалению, это относится ко всем наборам статистик соответствия, о которых вы сообщаете здесь (я полагаю, вы надеялись, что они подойдут). Некоторые из ваших подходящих статистических данных являются лишь довольно плохими, не совсем плохими (RMSEA = .05 приемлемо), но в целом ни одна из них не является хорошей новостью, и вы несете ответственность за то, чтобы быть честным об этом, если вы собираетесь публиковать эти результаты. Я надеюсь, что вы можете, FWIW.

В любом случае, вы можете собрать больше данных, если можете; это может помочь, в зависимости от того, что вы после. Если ваша цель - проверка подтверждающей гипотезы, то вы «посмотрели» на свои данные и увеличите частоту ошибок, если будете повторно использовать их в расширенной выборке, поэтому, если вы не можете просто отложить этот набор данных в сторону и реплицировать целое, свежий, более крупный, у вас есть сложный сценарий для обработки. Если вы в основном заинтересованы в оценке параметров и сужении доверительных интервалов, я думаю, что было бы разумно просто объединить столько данных, сколько вы можете собрать, включая те, которые вы уже использовали здесь. Если вы сможете получить больше данных, вы можете получить более подходящие индексы, которые сделают ваши оценки параметров более надежными. Надеюсь, этого достаточно.


Большой +1 для альтернативы @ Jeromy: вернуться в EFA. Исследовательский анализ бифактора тоже вариант. Есть даже пара статей об исследовательской SEM (о которых он также упоминает!), Которые мне все еще нужно прочитать ... опять же, это не совсем CFA, как вы, возможно, хотите, но если ваши цели соответствуют этим методам, ваш варианты могут быть еще не исчерпаны в конце концов.
Ник Стаунер

1
Бифакторная модель сходится при удалении одного предмета. Но подгонка все еще очень плохая, и факторы все еще сильно коррелируют. Я думаю, что мои возможности исчерпаны в конце концов. Тем не менее, мы собираем больше данных, чтобы иметь более надежные оценки. Спасибо за ответ!
Teeglaze
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.