2016-07-08 3 views
1

Я пытаюсь проверить модель SEM. Существует 3 индикатора (от I1 до I3), которые составляют скрытую конструкцию LC. Это должно объяснить зависимую переменную DV. Простой до сих пор.Регрессия от ошибки до зависимой переменной (lavaan)

Теперь я предполагаю, что уникальная дисперсия индикаторов (не запущенных в LC) будет способствовать дальнейшему объяснению DV. Что-то вроде этого:

IV1 ↖ 
IV2 ← LC → DV 
IV3 ↙  ↑ 
↑   │ 
e3 ───────┘ 

В lavaan термины ошибки/невязки (e3), как правило, не написано:

model = ' 
    # latent variables 
    LV =~ IV1 + IV2 + IV3 
    # regression 
    DV ~ LV 
' 

Далее, невязка I3 должен быть разделен на compontent, что способствует объяснить DV , и один остаточный остаток.

Я не хочу объяснить DV напрямую с помощью I3, потому что его цель показать, насколько уникальное объяснение I3 может способствовать DV. Поэтому дисперсия не должна распространяться на два пути. Вместо этого я хочу максимизировать путь IV3 → LC → DV, а затем поместить остатки в I3 → DV.

Вопрос: Как положить это в модель SEM? Это вообще возможно?

Бонусный вопрос: Имеет ли это значение? И даже больше: имеет ли смысл мнение SEM (теоретически есть), что каждая из независимых переменных имеет такой путь к DV?

Боковое примечание. То, что я уже сделал, заключалось в том, чтобы традиционно вычислять это, используя серию вычислений. Я подсчитал подвеску к LV (в среднем от I1 до I3, мог также использовать основной компонент), затем сделал 3 регрессии Ix → LC, а затем попробовал множественную регрессию остатков Ix на DV. Удаление общей дисперсии, по-видимому, делает одно из остатков излишним (я еще не полностью понял почему), поэтому модель регрессии не может оценить b для каждого из остатков, но пропускает (NA) последний. Но это скорее вопрос для CrossValidated - на данный момент я заинтересован в том, чтобы поместить мою модель в код программирования, т. Е. «Нарисовать» путь от остаточного (e3) до DV. Благодаря!

ответ

1

Для вашего вопроса:

Как я положил это в модели SEM? Это вообще возможно?

Ответ, я думаю, да - по крайней мере, если я правильно вас понимаю.

Если вы хотите предсказать результат, используя скрытую переменную и уникальную дисперсию одного из своих индикаторов, это можно легко выполнить в лаване. См. Пример кода ниже: первый пример включает предсказание результата только из скрытой переменной, тогда как второй пример прогнозирует тот же результат из той же скрытой переменной, а также уникальную дисперсию одного из индикаторов этой скрытой переменной:

#Call lavaan and use HolzingerSwineford1939 data set 
library(lavaan) 
dat = HolzingerSwineford1939 

#Model 1: x4 predicted by lv (visual) 
model1 = ' 
visual =~ x1 + x2 + x3 
x4 ~ visual 
' 
#Fit model 1 and get fit measures and r-squared estimates 
fit1 <- cfa(model1, data = dat, std.lv = T) 
summary(fit1, fit.measures = TRUE, rsquare=T) 

#Model 2: x4 predicted by lv (visual) and residual of x3 
model2 = ' 
visual =~ x1 + x2 + x3 
x4 ~ visual + x3 
' 
#Fit model 2 and get fit measures and r-squared estimates 
fit2 <- cfa(model2, data = dat, std.lv = T) 
summary(fit2, fit.measures = TRUE,rsquare=T) 

Обратите внимание, что R-квадрат для x4 (гипотетический результат) намного больше, если предсказать как скрытую переменную, на которую загружаются x3, так и уникальную дисперсию x3.

Что касается вашего второго вопроса:

Бонус вопрос: Имеет ли это смысл? И даже больше: имеет ли смысл мнение SEM (теоретически есть), что каждая из независимых переменных имеет такой путь к DV?

Это может имеет смысл, в некоторых случаях, чтобы указать такие пути, но я бы не сделать это в отсутствие сильной теории. Например, возможно, вы считаете, что переменная является слабым, но теоретически важным индикатором большей скрытой переменной - например, опыт «благоговения» - это «положительный аффект». Но, возможно, ваше исследование не заинтересовано в скрытой переменной, само по себе - вас интересуют уникальные эффекты страха перед предсказанием чего-то выше и вне его проявления как формы положительного аффекта. Таким образом, вы можете указать путь регрессии от уникальной дисперсии страха перед результатом, в дополнение к пути от положительного влияния на результат.

Но может ли это сделать для каждой из ваших переменных? Ну, нет, ты не мог. Как вы можете видеть, в этом конкретном случае имеется только одна оставшаяся степень свободы, поэтому модель находится на грани неполного определения (и если бы вы указали оставшиеся два возможных пути от уникальных дисперсий x1 и x2 до результат х4).

Более того, я думаю, что многие будут скептически относиться к вашей мотивации, пытаясь указать все эти пути. Моделирование пути от скрытой переменной к результату позволяет говорить с более широким процессом; что бы вы изучили, моделируя каждый путь от уникальной дисперсии до результата? Конечно, вы могли бы сказать: «Ну, оставшиеся« вещи »в этой переменной предсказывают x4!» ... но что вы можете сказать о природе этого «материала» - это просто изолированная манифеста. Вместо этого, я думаю, вы были бы на более сильной теоретической основе, чтобы рассмотреть дополнительные общие факторы, которые могут быть в значительной степени остаточной дисперсией ваших переменных (например, факторов метода); это добавило бы более концептуальную специфику в ваши анализы.

+0

Во-первых, спасибо за ваш сложный ответ! Только для меня, чтобы узнать что-то: как «lavaan» знает «использовать остаточную ошибку« x3 »в регрессии? Я больше привык к традиционным регрессиям. Там скрытая конструкция (которая у меня не была бы такой), а зависимая переменная должна «делиться» с дисперсией «x3». Имеет ли «определение» скрытых переменных некоторый приоритет над регрессией в SEM/lavaan? Я не беспокоюсь о R² (где это не повлияет), а о коэффициентах пути (где я ожидаю очень мало для 'x3 → x4'). – BurninLeo

+1

Подумайте об этом так: латентная переменная visual содержит всю общую дисперсию x1, x2 и x3. Поэтому, когда вы прогнозируете x4 визуальным и x3, коэффициент для x3 представляет собой связь между x3 и x4, управляя связью между x4 и общей дисперсией (то есть скрытой конструкцией) x1, x2 и x3. Но я не уверен, что обязательно буду ожидать небольшую связь между остатком x3 и x4 в каждом случае. – jsakaluk

Смежные вопросы