Я пытаюсь проверить модель SEM. Существует 3 индикатора (от I1 до I3), которые составляют скрытую конструкцию LC. Это должно объяснить зависимую переменную DV. Простой до сих пор.Регрессия от ошибки до зависимой переменной (lavaan)
Теперь я предполагаю, что уникальная дисперсия индикаторов (не запущенных в LC) будет способствовать дальнейшему объяснению DV. Что-то вроде этого:
IV1 ↖
IV2 ← LC → DV
IV3 ↙ ↑
↑ │
e3 ───────┘
В lavaan
термины ошибки/невязки (e3), как правило, не написано:
model = '
# latent variables
LV =~ IV1 + IV2 + IV3
# regression
DV ~ LV
'
Далее, невязка I3 должен быть разделен на compontent, что способствует объяснить DV , и один остаточный остаток.
Я не хочу объяснить DV напрямую с помощью I3, потому что его цель показать, насколько уникальное объяснение I3 может способствовать DV. Поэтому дисперсия не должна распространяться на два пути. Вместо этого я хочу максимизировать путь IV3 → LC → DV, а затем поместить остатки в I3 → DV.
Вопрос: Как положить это в модель SEM? Это вообще возможно?
Бонусный вопрос: Имеет ли это значение? И даже больше: имеет ли смысл мнение SEM (теоретически есть), что каждая из независимых переменных имеет такой путь к DV?
Боковое примечание. То, что я уже сделал, заключалось в том, чтобы традиционно вычислять это, используя серию вычислений. Я подсчитал подвеску к LV (в среднем от I1 до I3, мог также использовать основной компонент), затем сделал 3 регрессии Ix → LC, а затем попробовал множественную регрессию остатков Ix на DV. Удаление общей дисперсии, по-видимому, делает одно из остатков излишним (я еще не полностью понял почему), поэтому модель регрессии не может оценить b
для каждого из остатков, но пропускает (NA) последний. Но это скорее вопрос для CrossValidated - на данный момент я заинтересован в том, чтобы поместить мою модель в код программирования, т. Е. «Нарисовать» путь от остаточного (e3) до DV. Благодаря!
Во-первых, спасибо за ваш сложный ответ! Только для меня, чтобы узнать что-то: как «lavaan» знает «использовать остаточную ошибку« x3 »в регрессии? Я больше привык к традиционным регрессиям. Там скрытая конструкция (которая у меня не была бы такой), а зависимая переменная должна «делиться» с дисперсией «x3». Имеет ли «определение» скрытых переменных некоторый приоритет над регрессией в SEM/lavaan? Я не беспокоюсь о R² (где это не повлияет), а о коэффициентах пути (где я ожидаю очень мало для 'x3 → x4'). – BurninLeo
Подумайте об этом так: латентная переменная visual содержит всю общую дисперсию x1, x2 и x3. Поэтому, когда вы прогнозируете x4 визуальным и x3, коэффициент для x3 представляет собой связь между x3 и x4, управляя связью между x4 и общей дисперсией (то есть скрытой конструкцией) x1, x2 и x3. Но я не уверен, что обязательно буду ожидать небольшую связь между остатком x3 и x4 в каждом случае. – jsakaluk