Error estándar de medición: definición y ejemplo

Actualizado por ultima vez el 7 de mayo de 2021, por .

Un error estándar de medición , a menudo denominado SE m , estima la variación en torno a una puntuación «verdadera» para un individuo cuando se toman medidas repetidas.

Se calcula como:

SE m = s√ 1-R

dónde:

  • s: la desviación estándar de las mediciones
  • R: el coeficiente de confiabilidad de una prueba

Tenga en cuenta que un coeficiente de confiabilidad varía de 0 a 1 y se calcula administrando una prueba a muchas personas dos veces y calculando la correlación entre los puntajes de sus pruebas.

Cuanto más alto sea el coeficiente de confiabilidad, más a menudo una prueba produce puntajes consistentes.

Ejemplo: cálculo de un error estándar de medición

Supongamos que una persona realiza una determinada prueba 10 veces en el transcurso de una semana que tiene como objetivo medir la inteligencia general en una escala de 0 a 100. Reciben las siguientes puntuaciones:

Puntuaciones: 88, 90, 91, 94, 86, 88, 84, 90, 90, 94

La media muestral es 89,5 y la desviación estándar muestral es 3,17.

Si se sabe que la prueba tiene un coeficiente de confiabilidad de 0.88, entonces calcularíamos el error estándar de medición como:

SE m = s√ 1-R = 3.17√ 1-.88 = 1.098

Cómo utilizar SE m para crear intervalos de confianza

Utilizando el error estándar de medición, podemos crear un intervalo de confianza que probablemente contenga la puntuación «verdadera» de un individuo en una determinada prueba con un cierto grado de confianza.

Si un individuo recibe una puntuación de x en una prueba, podemos usar las siguientes fórmulas para calcular varios intervalos de confianza para esta puntuación:

  • Intervalo de confianza del 68% = [ x – SE m , x + SE m ]
  • Intervalo de confianza del 95% = [ x – 2 * SE m , x + 2 * SE m ]
  • Intervalo de confianza del 99% = [ x – 3 * SE m , x + 3 * SE m ]

Por ejemplo, suponga que un individuo obtiene un 92 en una determinada prueba que se sabe que tiene un SE m de 2.5. Podríamos calcular un intervalo de confianza del 95% como:

  • Intervalo de confianza del 95% = [92 – 2 * 2.5, 92 + 2 * 2.5] = [87, 97]

Esto significa que tenemos un 95% de confianza en que la puntuación «verdadera» de una persona en esta prueba está entre 87 y 97.

Confiabilidad y error estándar de medición

Existe una relación simple entre el coeficiente de confiabilidad de una prueba y el error estándar de medición:

  • Cuanto mayor sea el coeficiente de confiabilidad, menor será el error estándar de medición.
  • Cuanto menor sea el coeficiente de confiabilidad, mayor será el error estándar de medición.

Para ilustrar esto, considere a un individuo que toma una prueba 10 veces y tiene una desviación estándar de puntajes de 2 .

Si la prueba tiene un coeficiente de confiabilidad de 0.9 , entonces el error estándar de medición se calcularía como:

  • SE m = s√ 1-R = 2√ 1-.9 = 0,632

Sin embargo, si la prueba tiene un coeficiente de confiabilidad de 0.5 , entonces el error estándar de medición se calcularía como:

  • SE m = s√ 1-R = 2√ 1-.5 = 1.414

Esto debería tener sentido intuitivamente: si los puntajes de una prueba son menos confiables, entonces el error en la medición del puntaje «verdadero» será mayor.

  • https://r-project.org
  • https://www.python.org/
  • https://www.stata.com/

Deja un comentario

Un ANOVA de una vía es una prueba estadística que se utiliza para determinar si existe o no una diferencia…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!