lmer: El modelo no logró converger con 1 valor propio negativo.
Estoy tratando de obtener algunos resultados en R, pero después de horas de búsqueda no puedo superar este error.
Código completo: aquí
Montenegro_Model2C2 <- lmer(ThuisvoelenZ ~ 1 + Gepest_voelenRZ + Instructietaal_Andere + (1 + Gepest_voelenRZ|IDSCHOOL) + (1 + Instructietaal_Andere|IDSCHOOL) + (1|IDCLASS), data = Montenegro, REML = F)
summary(Montenegro_Model2C2)
Me muestra la siguiente advertencia:
1: In checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :
unable to evaluate scaled gradient
2: In checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :
Model failed to converge: degenerate Hessian with 1 negative eigenvalues
3: Model failed to converge with 1 negative eigenvalue: -1.0e-01
Seguido de una salida con valores de correlación incorrectos (1.00):
Random effects:
Groups Name Variance Std.Dev. Corr
IDCLASS (Intercept) 0.103856 0.32227
IDSCHOOL (Intercept) 0.002433 0.04933
Instructietaal_Andere 0.025042 0.15825 1.00
IDSCHOOL.1 (Intercept) 0.020872 0.14447
Gepest_voelenRZ 0.010772 0.10379 0.46
Residual 0.771272 0.87822
Number of obs: 4814, groups: IDCLASS, 359; IDSCHOOL, 140
Más adelante en el script, en el modelo Model2C4, la correlación es aún peor. ¿Qué estoy haciendo mal aquí?
Puede encontrar el script completo aquí. Las funciones de OLP se encuentran aquí, y el conjunto de datos aquí.
davy.ai
El mensaje de advertencia “no se puede evaluar el gradiente escalado” y “el modelo no pudo converger: Hesse degenerado con 1 eigenvalores negativos” sugiere que el modelo no pudo converger. Esto podría ser debido a una variedad de razones, incluyendo iteraciones insuficientes, un punto de partida deficiente o tener variables con altas correlaciones o colinealidad.
En este caso, la correlación entre Gepest_voelenRZ e Instructietaal_Andere parece ser muy alta (1.00), lo cual podría estar causando que el modelo falle. Es importante verificar las altas correlaciones entre variables y considerar eliminar una de las variables o encontrar una forma de lidiar con la multicolinealidad en el modelo.
Una forma de lidiar con las altas correlaciones es utilizar técnicas de regularización como la regresión de ridge o la regresión de Lasso. Otra posible solución es utilizar una técnica llamada Análisis de Componentes Principales (PCA) para reducir la dimensionalidad de los datos y eliminar las variables colineales.
En general, es importante examinar cuidadosamente los datos de entrada, verificar las altas correlaciones o variables colineales, y considerar métodos alternativos si el modelo no logra converger.