Kappa de Cohen: medir el acuerdo entre evaluadores más allá del azar
Kappa-de-Cohen:-Una-Medida-de-Acuerdo-Entre-Evaluadores
En-el-ámbito-de-la-estadística,-garantizar-la-precisión-y-la-fiabilidad-de-las-evaluaciones-de-datos-es-fundamental.-Cuando-dos-evaluadores-categorizan-o-etiquetan-elementos,-es-crucial-medir-su-nivel-de-acuerdo.-Aquí-es-donde-entra-en-juego-el-Kappa-de-Cohen.-Nombrado-en-honor-al-psicólogo-estadounidense-Jacob-Cohen,-el-Kappa-de-Cohen-es-una-métrica-estadística-robusta-que-cuantifica-el-nivel-de-acuerdo-entre-dos-evaluadores-que-clasifican-elementos-en-categorías-mutuamente-excluyentes.
¿Por-Qué-es-Importante-el-Kappa-de-Cohen?
El-Kappa-de-Cohen-es-importante-porque-considera-el-acuerdo-que-ocurre-por-casualidad.-A-diferencia-de-los-cálculos-simples-de-acuerdo-porcentual,-que-no-tienen-en-cuenta-el-azar,-el-Kappa-de-Cohen-proporciona-una-representación-más-precisa.-Esta-estadística-se-utiliza-ampliamente-en-el-análisis-de-contenido,-pruebas-psicológicas,-clasificación-de-aprendizaje-automático,-diagnósticos-de-salud,-y-más.
Entendiendo-la-Fórmula-del-Kappa-de-Cohen
La-fórmula-del-Kappa-de-Cohen-es:
κ-=-(Po---Pe)-/-(1---Pe)
- κ-es-el-Kappa-de-Cohen.
- Po-es-el-acuerdo-observado-relativo-entre-los-evaluadores.
- Pe-es-la-probabilidad-hipotética-de-acuerdo-por-casualidad.
Si-bien-esta-fórmula-puede-parecer-intimidante-a-primera-vista,-desglosar-cada-componente-puede-hacerla-más-accesible.
Entendiendo-Po-(Acuerdo-Observado)
Po-representa-el-porcentaje-observado-de-acuerdo-entre-los-dos-evaluadores.-Se-calcula-tomando-el-número-de-veces-que-ambos-evaluadores-están-de-acuerdo-y-dividiéndolo-por-el-número-total-de-elementos-evaluados.
Entendiendo-Pe-(Acuerdo-por-Casualidad)
Pe-representa-la-probabilidad-de-que-ambos-evaluadores-estén-de-acuerdo-puramente-por-casualidad.-Esto-se-calcula-en-base-a-las-probabilidades-marginales-de-cada-evaluador-clasificando-un-elemento-en-una-categoría-particular.
Ejemplo:-Calculando-el-Kappa-de-Cohen
Imagina-dos-doctores-diagnosticando-un-conjunto-de-100-pacientes-para-una-condición-particular.-Sus-resultados-de-clasificación-son:
- Ambos-Doctores-Están-de-Acuerdo-(Sí):-40-pacientes
- Ambos-Doctores-Están-de-Acuerdo-(No):-30-pacientes
- Doctor-A:-Sí,-Doctor-B:-No:-10-pacientes
- Doctor-A:-No,-Doctor-B:-Sí:-20-pacientes
Primero,-calculemos-Po:
Po-=-(40-+-30)-/-100-=-0.70
A-continuación,-calculemos-Pe.-Considera-que:
- Tasa-de-Sí-del-Doctor-A:-(40-+-10)-/-100-=-0.50
- Tasa-de-No-del-Doctor-A:-(30-+-20)-/-100-=-0.50
- Tasa-de-Sí-del-Doctor-B:-(40-+-20)-/-100-=-0.60
- Tasa-de-No-del-Doctor-B:-(30-+-10)-/-100-=-0.40
Ahora-calculemos-Pe:
Pe-=-(0.50-*-0.60)-+-(0.50-*-0.40)-=-0.50
Finalmente,-insertemos-estos-valores-en-la-fórmula-del-Kappa-de-Cohen:
κ-=-(0.70---0.50)-/-(1---0.50)-=-0.40
Este-valor-de-Kappa-de-0.40-indica-un-nivel-moderado-de-acuerdo-más-allá-del-azar.
Conclusión
El-Kappa-de-Cohen-ofrece-un-medio-poderoso-para-medir-el-acuerdo-entre-evaluadores-mientras-considera-la-posibilidad-de-acuerdo-por-casualidad.-Es-una-herramienta-esencial-en-muchas-disciplinas,-proporcionando-claridad-y-comprensión-en-contextos-donde-el-juicio-humano-juega-un-papel-crucial.-Al-comprender-sus-componentes-y-cálculos,-los-estadísticos-y-profesionales-pueden-utilizar-esta-métrica-para-determinar-la-fiabilidad-y-consistencia-de-sus-evaluadores.
Preguntas-Frecuentes-(FAQ)
- ¿Cuál-es-un-buen-valor-para-el-Kappa-de-Cohen?
Generalmente,-valores-κ>0.75-se-consideran-acuerdo-excelente,-0.40<κ<0.75-se-consideran-acuerdo-aceptable-a-bueno,-y-κ<0.40-se-considera-pobre.
- ¿Puede-ser-negativo-el-Kappa-de-Cohen?
Sí,-un-Kappa-negativo-indica-menos-acuerdo-del-que-se-esperaría-por casualidad.
- ¿El Kappa de Cohen funciona para más de dos evaluadores?
El Kappa de Cohen es específicamente para dos evaluadores. Para más evaluadores, considera usar el Kappa de Fleiss.