Kappa de Cohen: Mesurer l'accord entre évaluateurs au delà du hasard


Sortie: Appuyez sur calculer

Kappa-de-Cohen-:-une-mesure-de-l'accord-entre-évaluateurs

Dans-le-domaine-des-statistiques,-garantir-la-précision-et-la-fiabilité-des-évaluations-de-données-est-primordial.-Lorsque-deux-évaluateurs-catégorisent-ou-étiquettent-des-éléments,-il-est-crucial-de-mesurer-leur-niveau-d'accord.-C'est-là-qu'intervient-le-Kappa-de-Cohen.-Nommé-d'après-le-psychologue-américain-Jacob-Cohen,-le-Kappa-de-Cohen-est-une-métrique-statistique-robuste-qui-quantifie-le-niveau-d'accord-entre-deux-évaluateurs-qui-classifient-des-éléments-en-catégories-mutuellement-exclusives.

Pourquoi-le-Kappa-de-Cohen-est-il-important-?

Le-Kappa-de-Cohen-est-important-car-il-tient-compte-de-l'accord-survenant-par-hasard.-Contrairement-aux-calculs-simples-de-pourcentage-d'accord,-qui-ne-tiennent-pas-compte-du-hasard,-le-Kappa-de-Cohen-fournit-une-représentation-plus-précise.-Cette-statistique-est-largement-utilisée-dans-l'analyse-de-contenu,-les-tests-psychologiques,-la-classification-en-apprentissage-automatique,-les-diagnostics-de-santé,-et-plus-encore.

Comprendre-la-formule-du-Kappa-de-Cohen

La-formule-du-Kappa-de-Cohen-est-:

κ-=-(Po---Pe)-/-(1---Pe)

    --
  • κ-est-le-Kappa-de-Cohen.
  • --
  • Po-est-l'accord-observé-relatif-entre-les-évaluateurs.
  • --
  • Pe-est-la-probabilité-hypothétique-d'accord-au-hasard.

Bien-que-cette-formule-puisse-sembler-intimidante-à-première-vue,-décomposer-chaque-composant-peut-la-rendre-plus-abordable.

Comprendre-Po-(Accord-Observé)

Po-représente-le-pourcentage-d'accord-observé-entre-les-deux-évaluateurs.-Il-est-calculé-en-prenant-le-nombre-de-fois-où-les-deux-évaluateurs-sont-d'accord-et-en-le-divisant-par-le-nombre-total-d'éléments-évalués.

Comprendre-Pe-(Accord-par-Hasard)

Pe-représente-la-probabilité-que-les-deux-évaluateurs-soient-d'accord-uniquement-par-hasard.-Cela-est-calculé-en-fonction-des-probabilités-marginales-de-chaque-évaluateur-classant-un-élément-dans-une-catégorie-particulière.

Exemple-:-Calcul-du-Kappa-de-Cohen

Imaginez-deux-médecins-diagnostiquant-un-ensemble-de-100-patients-pour-une-condition-particulière.-Leurs-résultats-de-classification-sont-:

    --
  • Les-deux-médecins-sont-d'accord-(Oui)-:-40-patients
  • --
  • Les-deux-médecins-sont-d'accord-(Non)-:-30-patients
  • --
  • Médecin-A-:-Oui,-Médecin-B-:-Non-:-10-patients
  • --
  • Médecin-A-:-Non,-Médecin-B-:-Oui-:-20-patients

Tout-d'abord,-calculons-Po-:

Po-=-(40-+-30)-/-100-=-0.70

Ensuite,-nous-calculons-Pe.-Considérons-que-:

    --
  • Taux-de-Oui-du-Médecin-A-:-(40-+-10)-/-100-=-0.50
  • --
  • Taux-de-Non-du-Médecin-A-:-(30-+-20)-/-100-=-0.50
  • --
  • Taux-de-Oui-du-Médecin-B-:-(40-+-20)-/-100-=-0.60
  • --
  • Taux-de-Non-du-Médecin-B-:-(30-+-10)-/-100-=-0.40

Maintenant,-calculons-Pe-:

Pe-=-(0.50-*-0.60)-+-(0.50-*-0.40)-=-0.50

Enfin,-insérons-ces-valeurs-dans-la-formule-du-Kappa-de-Cohen-:

κ-=-(0.70---0.50)-/-(1---0.50)-=-0.40

Cette-valeur-de-Kappa-de-0.40-indique-un-niveau-d'accord-modéré-au-delà-du-hasard.

Conclusion

Le-Kappa-de-Cohen-offre-un-moyen-puissant-de-mesurer-l'accord-entre-évaluateurs-tout-en-tenant-compte-de-la-possibilité-d'accord-au-hasard.-C'est-un-outil-essentiel-dans-de-nombreuses-disciplines,-fournissant-clarté-et-compréhension-dans-les-contextes-où-le-jugement-humain-joue-un-rôle-crucial.-En-comprenant-ses-composants-et-ses-calculs,-les-statisticiens-et-les-professionnels-peuvent-utiliser-cette-métrique-pour-déterminer-la-fiabilité-et-la-cohérence-de-leurs-évaluateurs.

Foire-aux-questions-(FAQ)

    --
  1. Quelle-est-une-bonne-valeur-pour-le-Kappa-de-Cohen-? --

    En-général,-des-valeurs-κ>0.75-sont-considérées-comme-un-excellent-accord,-0.40<κ<0.75-sont-un-accord-de-correct-à-bon,-et-κ<0.40-sont-médiocres.

    --
  2. --
  3. Le-Kappa-de-Cohen-peut-il-être-négatif-? --

    Oui,-un-Kappa-négatif-indique-moins-d'accord-qu'attendu-par-hasard.

    --
  4. --
  5. Le-Kappa-de-Cohen-fonctionne-t-il-pour-plus de deux évaluateurs ?

    Le Kappa de Cohen est spécifiquement pour deux évaluateurs. Pour plus de deux évaluateurs, considérez l'utilisation du Kappa de Fleiss.

Tags: Statistiques, Analyse des données, Mesure de l'accord