コーエンのカッパ:ランダムな一致の枠を超えた評価者間の合意の測定
Cohen のカッパ: 評価者間の一致の尺度
統計の分野では、データ評価の正確性と信頼性を確保することが最も重要です。2 人の評価者が項目を分類またはラベル付けする場合、一致のレベルを測定することが重要です。ここで Cohen のカッパが役立ちます。アメリカの心理学者 Jacob Cohen にちなんで名付けられた Cohen のカッパは、項目を相互に排他的なカテゴリに分類する 2 人の評価者間の一致のレベルを定量化する堅牢な統計指標です。
Cohen のカッパが重要な理由
Cohen のカッパが重要なのは、偶然に生じる一致を考慮するためです。偶然の一致を考慮しない単純な一致率の計算とは異なり、Cohen のカッパはより正確な表現を提供します。この統計は、コンテンツ分析、心理テスト、機械学習分類、ヘルスケア診断などで広く使用されています。
Cohen の Kappa 式を理解する
Cohen の Kappa の式は次のとおりです。
κ = (Po - Pe) / (1 - Pe)
- κ は Cohen の Kappa です。
- Po は評価者間の相対的な一致です。
- Pe は偶然の一致の仮説的な確率です。
この式は一見すると難しそうに見えますが、各要素を分解するとより理解しやすくなります。
Po (一致の観測値) を理解する
Po は 2 人の評価者間の一致の観測パーセンテージを表します。これは、両方の評価者が一致した回数を、評価された項目の総数で割ることによって計算されます。
Pe (偶然の一致) を理解する
Pe は、両方の評価者が偶然に一致する確率を表します。これは、各評価者が項目を特定のカテゴリに分類する限界確率に基づいて計算されます。
例: Cohen の Kappa の計算
2 人の医師が 100 人の患者を特定の病状で診断していると想像してください。分類結果は次のとおりです:
- 両方の医師が同意 (はい): 患者 40 人
- 両方の医師が同意 (いいえ): 患者 30 人
- 医師 A: はい、医師 B: いいえ: 患者 10 人
- 医師 A: いいえ、医師 B: はい: 患者 20 人
まず、Po を計算します:
Po = (40 + 30) / 100 = 0.70
次に、Pe を計算します。次のことを考慮してください:
- 医師 A の「はい」の割合: (40 + 10) / 100 = 0.50
- 医師 A の「いいえ」の割合: (30 + 20) / 100 = 0.50
- 医師 B の「はい」の割合: (40 + 20) / 100 = 0.60
- 医師 B の「いいえ」の割合: (30 + 10) / 100 = 0.40
次に Pe を計算します:
Pe = (0.50 * 0.60) + (0.50 * 0.40) = 0.50
最後に、これらを Cohen の Kappa 式に代入します:
κ = (0.70 - 0.50) / (1 - 0.50) = 0.40
この Kappa 値 0.40 は、偶然を超えた中程度の一致レベルを示しています。
結論
Cohen の Kappa は、偶然の一致の可能性を考慮しながら、評価者間の一致を測定する強力な手段を提供します。これは多くの分野で不可欠なツールであり、人間の判断が極めて重要な役割を果たす状況で明確さと理解を提供します。統計学者や専門家は、その構成要素と計算を理解することで、この指標を利用して評価者の信頼性と一貫性を確かめることができます。
よくある質問 (FAQ)
- Cohen の Kappa の適切な値はどれくらいですか?
一般的に、κ>0.75 の値は優れた一致と見なされ、0.40<κ<0.75 の値はまずまずから良好な一致、κ<0.40 の値は不十分です。
- Cohen の Kappa は負になることがありますか?
はい、負の Kappa は、偶然のみで予想されるよりも一致が少ないことを示します。
- Cohen の Kappa は 2 人以上の評価者にも有効ですか?
Cohen の Kappa は、2 人の評価者専用です。評価者を増やす場合は、Fleiss の Kappa の使用を検討してください。