Teorema y suposiciones de Gauss Markov

Actualizado por ultima vez el 6 de marzo de 2022, por Luis Benites.

Teorema de Gauss Markov

El teorema de Gauss Markov nos dice que si se cumple un cierto conjunto de suposiciones , la estimación de mínimos cuadrados ordinarios para los coeficientes de regresión le brinda la mejor estimación lineal imparcial (AZUL) posible.

Suposiciones de Gauss Markov

Hay cinco supuestos de Gauss Markov (también llamados condiciones ):

  1. Linealidad : los parámetros que estamos estimando utilizando el método OLS deben ser lineales.
  2. Aleatorio : nuestros datos deben haber sido muestreados aleatoriamente de la población .
  3. No colinealidad : los regresores que se calculan no están perfectamente correlacionados entre sí.
  4. Exogeneidad : los regresores no están correlacionados con el término de error .
  5. Homocedasticidad : no importa cuáles sean los valores de nuestros regresores, el error de la varianza es constante.

Propósito de los Supuestos

Los supuestos de Gauss Markov garantizan la validez de los mínimos cuadrados ordinarios para estimar los coeficientes de regresión .

Verificar qué tan bien nuestros datos coinciden con estos supuestos es una parte importante de la estimación de los coeficientes de regresión. Cuando sepa dónde se violan estas condiciones, puede planificar formas de cambiar la configuración de su experimento para ayudar a que su situación se ajuste más a la situación ideal de Gauss Markov.

En la práctica, los supuestos de Gauss Markov rara vez se cumplen a la perfección , pero siguen siendo útiles como punto de referencia y porque nos muestran cuáles serían las condiciones «ideales». También nos permiten identificar áreas problemáticas que podrían causar que nuestros coeficientes de regresión estimados sean inexactos o incluso inutilizables.

Los supuestos de Gauss-Markov en álgebra

Podemos resumir los Supuestos de Gauss-Markov sucintamente en álgebra, diciendo que un modelo de regresión lineal representado por

y yo = x yo ‘ β + ε yo

y generado por la estimación de mínimos cuadrados ordinarios es la mejor estimación lineal no sesgada (AZUL) posible si

  • mi{ε yo } = 0, yo = 1, … , norte
  • 1 …ε n } y {x 1 ,…,x N } son independientes
  • cov{ε yo , ε j } = 0, yo, j = 1,…, NI ≠ j.
  • V{ε 1 = σ 2 , yo = 1, …N

Donde:

La primera de estas suposiciones se puede leer como «El valor esperado del término de error es cero». El segundo supuesto es la colinealidad , el tercero es la exogeneidad y el cuarto es la homocedasticidad .

Referencias

Anderson, Patricia. El teorema de Gauss-Markov: guía de estudio. Recuperado de http://www.dartmouth.edu/~econ20pa/StudyGuide1.doc el 20 de mayo de 2018.
Lee, Q. OLS, BLUE and the Gauss Markov Theorem. Sociedad de Economía: Universidad de Waterloo. Recuperado de http://uweconsoc.com/ols-blue-and-the-gauss-markov-theorem/ el 20 de mayo de 2018.
Troeger, Vera. Supuestos de Gauss-Markov, condiciones ideales completas de MCO. Recuperado de http://uweconsoc.com/ols-blue-and-the-gauss-markov-theorem/ el 20 de mayo de 2018.

Tengo una Maestría en Ciencias en Estadística Aplicada y he trabajado en algoritmos de aprendizaje automático para empresas profesionales tanto en el sector de la salud como en el comercio minorista.

Deja un comentario

¿Qué es el error escalado absoluto medio? El error escalado absoluto medio (MASE) es una métrica de error sin escala…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!