Teorema de Slutsky: Definición

Actualizado por ultima vez el 19 de mayo de 2022, por Luis Benites.

El teorema de Slutsky se utiliza para explorar la convergencia en las distribuciones de probabilidad . Nos dice que si una secuencia de vectores aleatorios converge en distribución y otra secuencia converge en probabilidad a una constante (que no debe confundirse con una secuencia constante ), esas secuencias son conjuntamente convergentes en distribución. Básicamente, le permite usar los resultados de convergencia probados para una secuencia para otras secuencias estrechamente relacionadas.

Slutsky no tiene aplicaciones prácticas reales; Su uso se limita principalmente a la estadística matemática teórica (específicamente, la teoría asintótica). Por ejemplo, amplía la utilidad del Teorema del Límite Central . Otros usos incluyen:

  • Explorar la convergencia en funciones de variables aleatorias .
  • Resalte las propiedades críticas de las variables aleatorias convergentes.
  • Calcular la convergencia de cualquier función continua de un conjunto de estadísticos, siempre que un conjunto de esos estadísticos converja (Davidson, 1994).

Definición formal del teorema de Slutsky

Más formalmente, Manoukian (1986) define el teorema de Slutsky de la siguiente manera:

Si X i es una secuencia de variables aleatorias que converge a una variable aleatoria X con una función de distribución F(x) y si Y i es una secuencia de variables aleatorias que converge a una probabilidad de constante c. Entonces:

  1. X i + Y i se distribuye asintóticamente como X + c.
  2. X i Y i se distribuye asintóticamente como Xc.
  3. X i / Y i se distribuye asintóticamente como X / c para c ≠ 0.

El teorema también se puede escribir de manera más sucinta como (de Proschan & Shaw, 2016):

Supongamos que Xn→DX, An↠pA y Bn↠pB,
donde A y B son constantes. Entonces AnXn+Bn↠DAX+B.

Ejemplo sencillo

Primero, necesitamos definir un par de funciones, g y h. La familia de funciones g i , se define como:

  • gramo 1 ({x norte} ) = {x norte }
  • gramo 2 ({x norte} ) = {2x norte }
  • gramo 3 ({x norte} ) = {3x norte }
  • gramo k ({x norte} ) = {kx norte }

g i converge en probabilidad a una constante c = μ.
Y h se define, en términos de g, como:
h (g 1 , g 2 , g 3 …g k ) = Con referencia a estas dos funciones, el teorema de Slutsky nos dice que el límite de h (g 1 , g 2 , g 3 …g k ) cuando n tiende a infinito es: (k(k + 1) / 2) · μ (Adaptado de Kapadia et.al) teorema de slutsky

Referencias:

Davidson, J. (1994). Teoría del límite estocástico: una introducción para econometristas .
Kapadia et. Alabama. (2005). Estadística matemática con aplicaciones .
Manoukian (1986) Estadística matemática no paramétrica . Prensa CRC.
Proschan, M. y Shaw, P. (2016). Fundamentos de la teoría de la probabilidad para estadísticos. Prensa CRC.

Tengo una Maestría en Ciencias en Estadística Aplicada y he trabajado en algoritmos de aprendizaje automático para empresas profesionales tanto en el sector de la salud como en el comercio minorista.

Deja un comentario

Mire el video para ver un ejemplo del MRT de Duncan, o siga leyendo a continuación. Prueba de rango múltiple…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!