Articles

Kappa Cohena

oceniając Kappa Cohena

wartość kappa może być mniejsza niż 0 (ujemna). Wynik 0 oznacza, że istnieje losowa umowa między oceniającymi, podczas gdy wynik 1 oznacza, że istnieje pełna zgoda między oceniającymi. W związku z tym wynik mniejszy niż 0 oznacza, że jest mniej porozumienia niż przypadkowa szansa. Poniżej pokażę Ci formułę, aby to wypracować, ale ważne jest, abyś zapoznał się z rysunkiem 4, aby mieć silne zrozumienie.

Rysunek 4: N X N grid używany do interpretacji wyników raterów

powód, dla którego podświetlałem dwie siatki, stanie się jasny Za chwilę, ale na razie pozwólcie, że podzielę każdą siatkę.

a => całkowita liczba wystąpień, które obie oceny stwierdziły, że były poprawne. Raterzy się zgadzają.

B => całkowita liczba instancji, które rater 2 powiedział, że były nieprawidłowe, ale Rater 1 powiedział, że były poprawne. To nieporozumienie.

C => całkowita liczba instancji, które rater 1 powiedział, że były nieprawidłowe, ale Rater 2 powiedział, że były poprawne. Jest to również niezgoda.

D => całkowita liczba wystąpień, które oba Ratery stwierdziły, że były nieprawidłowe. Raterzy się zgadzają.

aby obliczyć wartość kappa, musimy najpierw poznać prawdopodobieństwo porozumienia (to wyjaśnia, dlaczego zaznaczyłem przekątną porozumienia). Wzór ten otrzymuje się przez dodanie liczby testów, w których liczniki się zgadzają, a następnie podzielenie go przez całkowitą liczbę testów. Na przykładzie z rysunku 4 oznaczałoby to (A + D)/(A + B+ C+ D).

Rysunek 5: prawdopodobieństwo porozumienia

idealne! Następnym krokiem jest obliczenie prawdopodobieństwa losowej umowy. Korzystając z rysunku 4 jako wskazówki, wartością oczekiwaną jest całkowita liczba razy, które Rater 1 powiedział poprawnie, podzielona przez całkowitą liczbę instancji, pomnożona przez całkowitą liczbę razy, które Rater 2 powiedział poprawnie, podzielona przez całkowitą liczbę instancji, dodana do całkowitej liczby razy, które Rater 1 powiedział nieprawidłowo, pomnożona przez całkowitą liczbę razy, które Rater 2 powiedział nieprawidłowo. Jest to dużo informacji do wzięcia, więc na rysunku 6 sformułowałem to równanie za pomocą powyższej siatki.

Figure 6: Formula to derive probability of random agreement

Lastly, the formula for Cohen’s Kappa is the probability of agreement take away the probability of random agreement divided by 1 minus the probability of random agreement.

Figure 7: Wzór współczynnika Kappa Cohena.

Super! Jesteś teraz w stanie odróżnić wiarygodność od trafności, wyjaśnić kappa Cohena i ocenić go. Ta statystyka jest bardzo przydatna, chociaż ponieważ zrozumiałem, jak to działa, teraz wierzę, że może być niedostatecznie wykorzystana podczas optymalizacji algorytmów do określonego metryki. Co więcej, kappa Cohena wykonuje również dobrą pracę, mierząc zarówno wielopoziomowe, jak i niezrównoważone problemy klasowe.

P. S. Jeśli jest coś, co chcesz, żebym omówił z nauką o danych, możesz wysłać do mnie wiadomość na Twitterze @KurtisPykes lub zostawić odpowiedź na ten post.