Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance.
Attributes | Values |
---|
rdf:type
| |
rdfs:label
| - Kappa de Fleiss (ca)
- Fleissen kappa (eu)
- Fleiss' kappa (en)
- Kappa de Fleiss (fr)
|
rdfs:comment
| - La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. (ca)
- Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. (en)
- Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. (eu)
- Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. (fr)
|
dcterms:subject
| |
Wikipage page ID
| |
Wikipage revision ID
| |
Link from a Wikipage to another Wikipage
| |
Link from a Wikipage to an external page
| |
sameAs
| |
dbp:wikiPageUsesTemplate
| |
Link from a Wikipa... related subject.
| |
date
| |
url
| |
has abstract
| - La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. La kappa de Fleiss tan sols es pot utilitzar amb qualificacions binàries o d'escala nominal. No n'existeix una versió que sigui per qualificacions ordenades categòricament. (ca)
- Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. Fleiss' kappa can be used with binary or nominal-scale. It can also be applied to Ordinal data (ranked data): the MiniTab online documentation gives an example. However, this document notes: "When you have ordinal ratings, such as defect severity ratings on a scale of 1–5, Kendall's coefficients, which account for ordering, are usually more appropriate statistics to determine association than kappa alone." Keep in mind however, that Kendall rank coefficients are only appropriate for rank data. (en)
- Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. Fleissen kappa adierazleak zoriz itxaron daitekeen adostasun maila baztertuz neurtzen du adostasun maila. Honela kalkulatzen da: (1) Zatitzailean zoriz itxaron daitekeen adostasun maila ezabatu da. Zatikizunean berriz, balorazio ezberdinetarako adostasun maila azaltzen da, betiere zoriz itxaron daitekeen adostasun maila bazterturik. (eu)
- Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. Le Kappa de Fleiss peut être utilisé pour la classification binaire ou nominale. Il n'y a pas de version disponible pour les classifications de type ordonnée telles que celle de Likert. (fr)
|
gold:hypernym
| |
prov:wasDerivedFrom
| |
page length (characters) of wiki page
| |
foaf:isPrimaryTopicOf
| |
is Link from a Wikipage to another Wikipage
of | |
is Wikipage redirect
of | |
is Wikipage disambiguates
of | |
is known for
of | |
is foaf:primaryTopic
of | |