Muestreo de Gibbs: definición y descripción general

Actualizado por ultima vez el 11 de diciembre de 2021, por Luis Benites.

¿Qué es el muestreo de Gibbs?

El muestreo de Gibbs (también llamado muestreo condicional alterno ) es un algoritmo Monte Carlo de cadena de Markov para datos de alta dimensión , como procesamiento de imágenes y micromatrices. Se llama Monte Carlo porque extrae muestras de distribuciones de probabilidad específicas ; la cadena de Markov proviene del hecho de que cada muestra depende de la muestra anterior. El muestreo de Gibbs es relativamente fácil de implementar. Sin embargo, es menos eficiente que la simulación directa de la distribución.

El método se basa en la densidad posterior de cada parámetro, condicional a los demás parámetros. Esto proporciona una representación precisa de las densidades posteriores marginales . Para que el algoritmo funcione, debe poder tomar muestras de todas las distribuciones condicionales para todos los parámetros del modelo (Segura & Braun, 2004). En la práctica, esto no siempre es posible, por lo que las distribuciones condicionales requeridas deben aproximarse mediante otro algoritmo como Metropolis Hastings o muestreo por sectores.

Cómo funciona

El muestreo de Gibbs es una forma eficiente de reducir un problema multidimensional a un problema de menor dimensión. Todo el vector de parámetros se subdivide en subvectores más pequeños (por ejemplo, vectores con un solo parámetro). Una iteración del algoritmo da como resultado que cada subvector se muestree aleatoriamente usando la densidad posterior del subvector, condicionado a los valores actuales del otro subvector (Duchateau & Janssen, 2007, p.234). En los casos en que el vector de parámetros es muy grande y se subdivide en partes muy pequeñas, el muestreo puede tardar mucho en converger .

Orígenes

El muestreo de Gibbs es un caso especial del algoritmo Metropolis-Hastings , inventado para simular sistemas complejos en física de estado sólido (Metropolis et. al, 1953). El nombre proviene del artículo de Geman y Geman de 1984, que ofrecía el algoritmo como un caso particular de la distribución de Gibbs. Fue desarrollado para reconstruir una imagen ruidosa (Bolstad, 2011).

Referencias

Bolstad, W. (2011). Comprensión de las estadísticas bayesianas computacionales . John Wiley & Sons,
Duchateau, L. & Janssen, P. (2007). El modelo de la fragilidad . Springer Science & Business Media.
German, S. y German, D. (1984). Relajación estocástica, distribuciones de Gibbs y restauración bayesiana de imágenes. Transacción IEEE sobre análisis de patrones e inteligencia artificial. 6, 721-41.
Metrópolis, N.; Rosenbluth, AW; Rosenbluth, MN; Cajero, AH; Teller, E. (1953). “Ecuaciones de Cálculos de Estado por Máquinas de Computación Rápida”. Revista de Física Química. 21 (6): 1087–1092.
Segura, J. & Braun, C. (2004). Un diccionario epónimo de economía : una guía de leyes y teoremas con nombres de economistas. Editorial Edward Elgar.

Tengo una Maestría en Ciencias en Estadística Aplicada y he trabajado en algoritmos de aprendizaje automático para empresas profesionales tanto en el sector de la salud como en el comercio minorista.

Deja un comentario

El siguiente artículo cubre el Razón de Verosimilitud tal como se aplica a las pruebas de diagnóstico en medicina .…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!