About: Cohen's kappa

An Entity of Type: Abstraction100002137, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

Cohen's kappa coefficient (κ, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as κ takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items.

Property Value
dbo:abstract
  • معامل كوهين كابا (κ) هو مقياس إحصائي يقيس ما يعرف بالتوافق بين المُقيم الداخلي للبنود النوعية. وهو يأخذ بنظر الاعتبار ما يتم احتسابه من توافق عن طريق الصدفة كما أنه أكثر رصانة كمقياس من حساب نسبة التوافق. غير أن هناك جدل حول معامل كوهين كابا بسبب صعوبة في تفسير مؤشرات التوافق التي يصدرها. وقد اقترح بعض الباحثين أنه من قد يكون من الأبسط أن يتم احتساب الاختلاف بين العناصر بدلاً من التوافق. (ar)
  • Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Maß kann aber auch für die Intrarater-Reliabilität verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung für Cohens Kappa lautet wobei der gemessene Übereinstimmungswert der beiden Schätzer und die zufällig erwartete Übereinstimmung ist. Wenn die Rater in allen ihren Urteilen übereinstimmen, ist . Sofern sich nur Übereinstimmungen zwischen den beiden Ratern feststellen lassen, die mathematisch dem Ausmaß des Zufalls entsprechen, nimmt es einen Wert von an. (Negative Werte weisen dagegen auf eine Übereinstimmung hin, die noch kleiner ist als eine zufällige Übereinstimmung.) Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von seien gut bis ausgezeichnet. Landis und Koch (1977) schlagen vor: = „schlechte Übereinstimmung (poor agreement)“, = „etwas (slight) Übereinstimmung“, 0,21–0,40 = „ausreichende (fair) Übereinstimmung“, 0,41–0,60 = „mittelmäßige (moderate) Übereinstimmung“, 0,61–0,80 = „beachtliche (substantial) Übereinstimmung“, 0,81–1,00 = „(fast) vollkommene ((almost) perfect) Übereinstimmung“. Problematisch am Koeffizienten ist, dass sein maximaler Wert nicht immer Eins ist (s. u.). (de)
  • Cohen's kappa coefficient (κ, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as κ takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items. (en)
  • El Coeficiente kappa de Cohen es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada​ para elementos cualitativos (variables categóricas). En general se cree que es una medida más robusta que el simple cálculo del porcentaje de concordancia, ya que κ tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores​ han expresado su preocupación por la tendencia de κ a dar por seguras las frecuencias de las categorías observadas, lo que puede tener el efecto de subestimar el acuerdo para una categoría de uso habitual; por esta razón, κ se considera una medida de acuerdo excesivamente conservadora. Otros​ discuten la afirmación de que kappa "tiene en cuenta" la posibilidad de acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito de cómo afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del estadístico kappa supone que, cuando no están absolutamente seguros, los evaluadores simplemente aventuran una respuesta (un escenario muy poco realista). Kappa mide el grado de concordancia de las evaluaciones nominales u ordinales realizadas por múltiples evaluadores cuando se evalúan las mismas muestras. Por ejemplo, dos médicos diferentes examinan a 45 pacientes para determinar si tienen una enfermedad específica. ¿Con qué frecuencia coincidirá el diagnóstico de los médicos con respecto a la enfermedad (positivo o negativo)? Otro ejemplo de evaluaciones nominales son las clasificaciones de los defectos encontrados en pantallas de televisores por varios inspectores. ¿Concuerdan consistentemente los inspectores en su clasificación de burbujas, cavidades y sucio? (es)
  • Estatistikan, Cohenen kappa κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztasuna aztertzeko ere erabil daiteke. Formula honen arabera kalkulatzen da: (1) izanik, adostasun proportzioa eta zoriz itxarondako adostasun maila hurrenez hurren. Koefiziente honek [-1,1] tarteko balioak hartzen ditu. Negatiboa denean, desadostasuna da nagusi balorazioetan. [0,0.6] tartean adostasuna txikia eta 0.6tik gorako balio baterako adostasuna handia dela esan daiteke, interpretazio egoki bat egiteko antzeko ikerketak eta ikergai den egoera bera ere kontuan hartu direla jakinik betiere. (eu)
  • En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981). (fr)
  • Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione è possibile valutare questo parametro: dove è data dalla somma della prima diagonale della matrice divisa per il totale dei giudizi e rappresenta la percentuale di giudizio, di fatto, concorde tra i giudici. Mentre è il prodotto dei totali positivi sommato a quelli negativi, il tutto diviso per il quadrato del totale dei giudizi , e rappresenta la probabilità di accordo casualmente. Infatti è la percentuale di valutazioni positive "reali" (o assegnate da uno dei due controllori) e lo stesso in modo analogo per , ed ; la probabilità di accordo positivo (casuale o statistico) tra i due è quindi così come quella di accordo negativo è , da cui si ottiene la formula per la percentuale di accordo casuale, sommando le due probabilità. Se , allora la statistica rappresenta il caso ottimo. Infatti . Esistono diversi "gradi di concordanza", in base ai quali possiamo definire se Kappa di Cohen è scarso o ottimo: * se k assume valori inferiori a 0, allora non c'è concordanza; * se k assume valori compresi tra 0-0,4, allora la concordanza è scarsa; * se k assume valori compresi tra 0,4-0,6, allora la concordanza è discreta; * se k assume valori compresi tra 0,6-0,8, la concordanza è buona; * se k assume valori compresi tra 0,8-1, la concordanza è ottima. (it)
  • 일반적으로 카파 상관계수는 코헨(Cohen)의 카파 상관계수(Kappa)를 가리키며 이는 2명의 관찰자(또는 평가자)의 신뢰도를 확보하기위한 확률로서 평가지표로 사용되는 상관계수이다. 2명이상에서 신뢰도를 얻기위해서는 (Fleiss' kappa)를 사용할 수 있다. (ko)
  • Współczynnik Kappa Cohena (ang. Cohen's kappa) – wykorzystywany w statystyce współczynnik rzetelności dwukrotnych pomiarów tej samej zmiennej, która jest zmienną nominalną i zależną. Pomiaru zmiennej może dokonać jeden sędzia kompetentny (dwukrotnie, w odstępie czasowym) lub dwóch różnych sędziów kompetentnych w tym samym czasie. Kappa Cohena przyjmuje wartości od -1 do 1. Im bliżej wartości 1, tym oceny dwóch sędziów (lub jednego sędziego w odstępie czasowym) są bardziej zgodne. Z kolei im bliżej wartości 0, tym oceny są bardziej rozbieżne. Wartości od -1 do 0 są w praktyce niewykorzystywane, gdyż ujemna wartość Kappy Cohena oznaczałaby zgodność ocen mniejszą niż w przypadku gdyby były to zmienne całkowicie losowe. Twórcą współczynnika jest amerykański statystyk Jacob Cohen. (pl)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 1701650 (xsd:integer)
dbo:wikiPageLength
  • 27919 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1122996640 (xsd:integer)
dbo:wikiPageWikiLink
dbp:wikiPageUsesTemplate
dcterms:subject
gold:hypernym
rdf:type
rdfs:comment
  • معامل كوهين كابا (κ) هو مقياس إحصائي يقيس ما يعرف بالتوافق بين المُقيم الداخلي للبنود النوعية. وهو يأخذ بنظر الاعتبار ما يتم احتسابه من توافق عن طريق الصدفة كما أنه أكثر رصانة كمقياس من حساب نسبة التوافق. غير أن هناك جدل حول معامل كوهين كابا بسبب صعوبة في تفسير مؤشرات التوافق التي يصدرها. وقد اقترح بعض الباحثين أنه من قد يكون من الأبسط أن يتم احتساب الاختلاف بين العناصر بدلاً من التوافق. (ar)
  • Cohen's kappa coefficient (κ, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as κ takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items. (en)
  • En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981). (fr)
  • 일반적으로 카파 상관계수는 코헨(Cohen)의 카파 상관계수(Kappa)를 가리키며 이는 2명의 관찰자(또는 평가자)의 신뢰도를 확보하기위한 확률로서 평가지표로 사용되는 상관계수이다. 2명이상에서 신뢰도를 얻기위해서는 (Fleiss' kappa)를 사용할 수 있다. (ko)
  • Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Maß kann aber auch für die Intrarater-Reliabilität verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung für Cohens Kappa lautet Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von seien gut bis ausgezeichnet. (de)
  • Estatistikan, Cohenen kappa κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztas (eu)
  • El Coeficiente kappa de Cohen es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada​ para elementos cualitativos (variables categóricas). En general se cree que es una medida más robusta que el simple cálculo del porcentaje de concordancia, ya que κ tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores​ han expresado su preocupación por la tendencia de κ a dar por seguras las frecuencias de las categorías observadas, lo que puede tener el efecto de subestimar el acuerdo para una categoría de uso habitual; por esta razón, κ se considera una medida de acuerdo excesivamente conservadora. (es)
  • Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione è possibile valutare questo parametro: Se , allora la statistica rappresenta il caso ottimo. Infatti . (it)
  • Współczynnik Kappa Cohena (ang. Cohen's kappa) – wykorzystywany w statystyce współczynnik rzetelności dwukrotnych pomiarów tej samej zmiennej, która jest zmienną nominalną i zależną. Pomiaru zmiennej może dokonać jeden sędzia kompetentny (dwukrotnie, w odstępie czasowym) lub dwóch różnych sędziów kompetentnych w tym samym czasie. Kappa Cohena przyjmuje wartości od -1 do 1. Im bliżej wartości 1, tym oceny dwóch sędziów (lub jednego sędziego w odstępie czasowym) są bardziej zgodne. Z kolei im bliżej wartości 0, tym oceny są bardziej rozbieżne. Wartości od -1 do 0 są w praktyce niewykorzystywane, gdyż ujemna wartość Kappy Cohena oznaczałaby zgodność ocen mniejszą niż w przypadku gdyby były to zmienne całkowicie losowe. (pl)
rdfs:label
  • معامل كوهين كابا (ar)
  • Cohens Kappa (de)
  • Coeficiente kappa de Cohen (es)
  • Cohen's kappa (en)
  • Cohenen kappa (eu)
  • Kappa de Cohen (fr)
  • Kappa di Cohen (it)
  • 카파 상관계수 (ko)
  • Kappa Cohena (pl)
  • Kappa de Cohen (pt)
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License