Contenido de este artículo
- 0
- 0
- 0
- 0
Actualizado el 17 de julio de 2024, por Luis Benites.
Se utiliza un coeficiente de correlación intraclase (ICC) para determinar si los elementos o sujetos pueden ser calificados de manera confiable por diferentes evaluadores.
El valor de un ICC puede variar de 0 a 1, donde 0 indica que no hay confiabilidad entre los evaluadores y 1 indica una confiabilidad perfecta.
La forma más fácil de calcular ICC en R es usar la función icc () del paquete irr , que usa la siguiente sintaxis:
icc (clasificaciones, modelo, tipo, unidad)
dónde:
- calificaciones: un marco de datos o matriz de calificaciones
- modelo: el tipo de modelo a utilizar. Las opciones incluyen «unidireccional» o «bidireccional»
- tipo: el tipo de relación que se va a calcular entre los evaluadores. Las opciones incluyen «coherencia» o «acuerdo»
- unidad: La unidad de análisis. Las opciones incluyen «simple» o «promedio»
Este tutorial proporciona un ejemplo de cómo utilizar esta función en la práctica.
Paso 1: crear los datos
Suponga que se les pide a cuatro jueces diferentes que califiquen la calidad de 10 exámenes de ingreso a la universidad diferentes. Podemos crear el siguiente marco de datos para mantener las calificaciones de los jueces:
#create data data <- data. marco (A = c (1, 1, 3, 6, 6, 7, 8, 9, 8, 7), B = c (2, 3, 8, 4, 5, 5, 7, 9, 8, 8), C = c (0, 4, 1, 5, 5, 6, 6, 9, 8, 8), D = c (1, 2, 3, 3, 6, 4, 6, 8, 8, 9))
Paso 2: Calcule el coeficiente de correlación intraclase
Supongamos que los cuatro jueces fueron seleccionados al azar de una población de jueces de exámenes de ingreso calificados y que nos gustaría medir el acuerdo absoluto entre los jueces y que estamos interesados en usar las calificaciones desde la perspectiva de un solo evaluador como base para nuestra medición.
Podemos usar el siguiente código en R para ajustar un modelo bidireccional , usando la concordancia absoluta como la relación entre los evaluadores y usando single como nuestra unidad de interés:
#cargar la biblioteca de paquetes de confiabilidad entre evaluadores (irr) #define data data <- data. marco (A = c (1, 1, 3, 6, 6, 7, 8, 9, 8, 7), B = c (2, 3, 8, 4, 5, 5, 7, 9, 8, 8), C = c (0, 4, 1, 5, 5, 6, 6, 9, 8, 8), D = c (1, 2, 3, 3, 6, 4, 6, 8, 8, 9)) #calcular ICC icc (datos, modelo = " doble ", tipo = " acuerdo ", unidad = " único ") Modelo: bidireccional Tipo: acuerdo Sujetos = 10 Evaluadores = 4 ICC (A, 1) = 0,782 Prueba F, H0: r0 = 0; H1: r0> 0 F (9,30) = 15,3, p = 5,93 e-09 Intervalo de confianza del 95% para los valores de población de ICC: 0,554 <ICC <0,931
El coeficiente de correlación intraclase (CCI) resulta ser 0,782 .
A continuación se explica cómo interpretar el valor de un coeficiente de correlación intraclase, según Koo & Li :
- Menos de 0,50: poca fiabilidad
- Entre 0,5 y 0,75: fiabilidad moderada
- Entre 0,75 y 0,9: buena fiabilidad
- Mayor que 0,9: excelente fiabilidad
Por lo tanto, concluiríamos que un ICC de 0,782 indica que los exámenes pueden ser calificados con «buena» confiabilidad por diferentes evaluadores.
Una nota sobre el cálculo del ICC
Hay varias versiones diferentes de un ICC que se pueden calcular, dependiendo de los siguientes tres factores:
- Modelo: efectos aleatorios unidireccionales, efectos aleatorios bidireccionales o efectos mixtos bidireccionales
- Tipo de relación: consistencia o acuerdo absoluto
- Unidad: calificador único o la media de calificadores
En el ejemplo anterior, el ICC que calculamos utilizó los siguientes supuestos:
- Modelo: efectos aleatorios bidireccionales
- Tipo de relación: Acuerdo absoluto
- Unidad: Evaluador único
Para obtener una explicación detallada de estos supuestos, consulte este artículo .
- https://r-project.org
- https://www.python.org/
- https://www.stata.com/
¿Te hemos ayudado?
Ayudanos ahora tú, dejanos un comentario de agradecimiento, nos ayuda a motivarnos y si te es viable puedes hacer una donación:La ayuda no cuesta nada
Por otro lado te rogamos que compartas nuestro sitio con tus amigos, compañeros de clase y colegas, la educación de calidad y gratuita debe ser difundida, recuerdalo: