2015-11-18 2 views
0

модель, которую я пытался указать было:конвергенция ошибка lme4

M4 <- glmer(CORT_pgmm~AO_Ause+(1|St),data=belcher,family=Gamma(link="log"), control=glmerControl(optimizer="bobyqa")) 

Делая это, я получил следующее предупреждение с помощью glmer с "bobyqa" и "Nelder_Mead" как оптимизаторы

Warning message: 
In checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, : 
    Model failed to converge with max|grad| = 0.0146734 (tol = 0.001, component 1) 
.

Я следовал инструкциям, данным г-ном Бен Болкером в предыдущем answer

Как только я c помещайте оптимизаторов в те, что содержатся в пакете optimx, появляется предупреждающее сообщение.

M4 <- glmer(CORT_pgmm~AO_Ause+(1|St),data=belcher,family=Gamma(link="log"), control=glmerControl(optimizer="optimx",optCtrl=list(method="nlminb"))) 

Тем не менее, я не уверен, как узнать, правильно ли это в моем случае. Как я могу быть уверен в этом?

Приношу извинения, если я не написал это правильно, так как это мой первый пост. Заранее благодарю за ваши ответы.

+0

Я позволю BenBolker ответить здесь, но обычно полезно предоставить [воспроизводимый пример] (http://stackoverflow.com/questions/5963269/how-to-make-a-great-r-reproducible- пример) –

ответ

0

Вы никогда не можете быть уверены (это численная оптимизация случая, о котором мы не можем доказать много в общем случае), но, как правило, я бы сказал, что если у вас есть , те же предполагаемые «оптимальные» оценки параметров с более чем одним разным оптимизатором, вы можете перестать беспокоиться о сбое конвергенции. Насколько близка «приблизительно» зависит от личного вкуса и научных целей. Для моих типичных случаев использования оценки параметров в пределах (скажем) 1% или консервативно 0,1% друг от друга с разными оптимизаторами считались бы «приблизительно равными».

+0

Спасибо за ваш ответ! Это было действительно полезно. –

+0

, если он решил вашу проблему, вам предлагается щелкнуть галочку, чтобы принять ее ... –