- 0
- 0
- 0
- 0
Actualizado el 17 de julio de 2024, por Luis Benites.
La multicolinealidad en el análisis de regresión ocurre cuando dos o más variables predictoras están altamente correlacionadas entre sí, de modo que no brindan información única o independiente en el modelo de regresión. Si el grado de correlación entre variables es lo suficientemente alto, puede causar problemas al ajustar e interpretar el modelo de regresión.
Una forma de detectar la multicolinealidad es mediante el uso de una métrica conocida como factor de inflación de la varianza (VIF) , que mide la correlación y la fuerza de la correlación entre las variables predictoras en un modelo de regresión.
Este tutorial explica cómo utilizar VIF para detectar multicolinealidad en un análisis de regresión en SPSS.
Ejemplo: multicolinealidad en SPSS
Supongamos que tenemos el siguiente conjunto de datos que muestra el puntaje del examen de 10 estudiantes junto con la cantidad de horas que pasaron estudiando, la cantidad de exámenes de preparación que tomaron y su calificación actual en el curso:
Nos gustaría realizar una regresión lineal utilizando score como variable de respuesta y hours , prep_exams y current_grade como variables predictoras, pero queremos asegurarnos de que las tres variables predictoras no estén altamente correlacionadas.
Para determinar si la multicolinealidad es un problema, podemos producir valores VIF para cada una de las variables predictoras.
Para hacerlo, haga clic en la pestaña Analizar , luego en Regresión , luego en Lineal :
En la nueva ventana que aparece, arrastre la puntuación al cuadro etiquetado Dependiente y arrastre las tres variables predictoras al cuadro etiquetado Independiente (s). Luego haga clic en Estadísticas y asegúrese de que la casilla esté marcada junto a Diagnósticos de colinealidad . Luego haga clic en Continuar . Luego haga clic en Aceptar .
Una vez que haga clic en Aceptar , se mostrará la siguiente tabla que muestra el valor de VIF para cada variable de predicción:
Los valores de VIF para cada una de las variables predictoras son los siguientes:
- horas: 1.169
- prep_exams: 1.403
- current_grade: 1.522
El valor de VIF comienza en 1 y no tiene límite superior. Una regla general para interpretar los VIF es la siguiente:
- Un valor de 1 indica que no hay correlación entre una variable predictora dada y cualquier otra variable predictora en el modelo.
- Un valor entre 1 y 5 indica una correlación moderada entre una variable predictora dada y otras variables predictoras en el modelo, pero esto a menudo no es lo suficientemente grave como para requerir atención.
- Un valor mayor que 5 indica una correlación potencialmente severa entre una variable predictora dada y otras variables predictoras en el modelo. En este caso, las estimaciones de los coeficientes y los valores p en el resultado de la regresión probablemente no sean confiables.
Podemos ver que ninguno de los valores de VIF para las variables predictoras en este ejemplo es mayor que 5, lo que indica que la multicolinealidad no será un problema en el modelo de regresión.
- https://r-project.org
- https://www.python.org/
- https://www.stata.com/
¿Te hemos ayudado?
Ayudanos ahora tú, dejanos un comentario de agradecimiento, nos ayuda a motivarnos y si te es viable puedes hacer una donación:La ayuda no cuesta nada
Por otro lado te rogamos que compartas nuestro sitio con tus amigos, compañeros de clase y colegas, la educación de calidad y gratuita debe ser difundida, recuerdalo: