Contenido de este artículo
- 0
- 0
- 0
- 0
Dos términos que los estudiantes a menudo confunden en estadística son desviación estándar y error estándar .
La desviación estándar mide qué tan dispersos están los valores en un conjunto de datos.
El error estándar es la desviación estándar de la media en muestras repetidas de una población.
Veamos un ejemplo para ilustrar claramente esta idea.
Ejemplo: desviación estándar frente a error estándar
Supongamos que medimos el peso de 10 tortugas diferentes.
Para esta muestra de 10 tortugas, podemos calcular la media muestral y la desviación estándar muestral:
Suponga que la desviación estándar resulta ser 8,68. Esto nos da una idea de cuán distribuidos están los pesos de estas tortugas.
Pero supongamos que recolectamos otra muestra aleatoria simple de 10 tortugas y también tomamos sus medidas. Lo más probable es que esta muestra de 10 tortugas tenga una media y una desviación estándar ligeramente diferentes, incluso si se toman de la misma población:
Ahora, si imaginamos que tomamos muestras repetidas de la misma población y registramos la media muestral y la desviación estándar muestral para cada muestra:
Ahora imagine que graficamos cada una de las medias muestrales en la misma línea:
La desviación estándar de estas medias se conoce como error estándar.
La fórmula para calcular realmente el error estándar es:
Error estándar = s / √n
dónde:
- s: desviación estándar de la muestra
- n: tamaño de la muestra
¿Cuál es el punto de usar el error estándar?
Cuando calculamos la media de una muestra determinada, en realidad no nos interesa conocer la media de esa muestra en particular, sino la media de la población más grande de la que proviene la muestra.
Sin embargo, utilizamos muestras porque son mucho más fáciles de recopilar datos en comparación con una población completa. Y, por supuesto, la media de la muestra variará de una muestra a otra, por lo que utilizamos el error estándar de la media como una forma de medir qué tan precisa es nuestra estimación de la media.
Observará en la fórmula para calcular el error estándar que a medida que aumenta el tamaño de la muestra (n), el error estándar disminuye:
Error estándar = s / √n
Esto debería tener sentido ya que los tamaños de muestra más grandes reducen la variabilidad y aumentan la posibilidad de que la media de nuestra muestra esté más cerca de la media de la población real.
Cuándo utilizar la desviación estándar frente al error estándar
Si simplemente estamos interesados en medir qué tan dispersos están los valores en un conjunto de datos, podemos usar la desviación estándar .
Sin embargo, si estamos interesados en cuantificar la incertidumbre en torno a una estimación de la media, podemos usar el error estándar de la media .
Dependiendo de su escenario específico y de lo que esté tratando de lograr, puede optar por utilizar la desviación estándar o el error estándar.
- https://r-project.org
- https://www.python.org/
- https://www.stata.com/
¿Te hemos ayudado?
Ayudanos ahora tú, dejanos un comentario de agradecimiento, nos ayuda a motivarnos y si te es viable puedes hacer una donación:La ayuda no cuesta nada
Por otro lado te rogamos que compartas nuestro sitio con tus amigos, compañeros de clase y colegas, la educación de calidad y gratuita debe ser difundida, recuerdalo: