This HTML5 document contains 125 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbthttp://dbpedia.org/resource/Template:
wikipedia-enhttp://en.wikipedia.org/wiki/
dbrhttp://dbpedia.org/resource/
n14http://www.gsu.edu/~psyrab/
dbpedia-arhttp://ar.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
n15http://commons.wikimedia.org/wiki/Special:FilePath/
n30http://www.agreestat.com/
dctermshttp://purl.org/dc/terms/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n31http://www.john-uebersax.com/stat/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n37http://d-nb.info/gnd/
n20http://si.dbpedia.org/resource/
n27http://dbpedia.org/resource/File:
dbphttp://dbpedia.org/property/
dbpedia-euhttp://eu.dbpedia.org/resource/
xsdhhttp://www.w3.org/2001/XMLSchema#
dbohttp://dbpedia.org/ontology/
dbpedia-pthttp://pt.dbpedia.org/resource/
dbpedia-huhttp://hu.dbpedia.org/resource/
dbchttp://dbpedia.org/resource/Category:
dbpedia-dehttp://de.dbpedia.org/resource/
dbpedia-plhttp://pl.dbpedia.org/resource/
dbpedia-thhttp://th.dbpedia.org/resource/
yagohttp://dbpedia.org/class/yago/
wikidatahttp://www.wikidata.org/entity/
goldhttp://purl.org/linguistics/gold/
yago-reshttp://yago-knowledge.org/resource/
n23https://global.dbpedia.org/id/
dbpedia-ithttp://it.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
foafhttp://xmlns.com/foaf/0.1/
n29https://digitalcommons.fairfield.edu/mathandcomputerscience-facultypubs/
dbpedia-kohttp://ko.dbpedia.org/resource/
dbpedia-trhttp://tr.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
freebasehttp://rdf.freebase.com/ns/
owlhttp://www.w3.org/2002/07/owl#

Statements

Subject Item
dbr:Cohen's_kappa
rdf:type
yago:Ability105616246 yago:Know-how105616786 yago:WikicatEvaluationMethods yago:WikicatCategoricalData yago:Datum105816622 yago:Method105660268 yago:Trial105799212 yago:WikicatStatisticalTests yago:Abstraction100002137 yago:HigherCognitiveProcess105770664 yago:PsychologicalFeature100023100 yago:Thinking105770926 yago:Inquiry105797597 yago:Information105816287 yago:Cognition100023271 yago:Process105701363 yago:Experiment105798043 yago:ProblemSolving105796750 owl:Thing
rdfs:label
Kappa di Cohen Kappa de Cohen Kappa de Cohen معامل كوهين كابا Coeficiente kappa de Cohen Kappa Cohena Cohens Kappa Cohen's kappa Cohenen kappa 카파 상관계수
rdfs:comment
Estatistikan, Cohenen kappa κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztas Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Maß kann aber auch für die Intrarater-Reliabilität verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung für Cohens Kappa lautet Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von seien gut bis ausgezeichnet. El Coeficiente kappa de Cohen es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada​ para elementos cualitativos (variables categóricas). En general se cree que es una medida más robusta que el simple cálculo del porcentaje de concordancia, ya que κ tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores​ han expresado su preocupación por la tendencia de κ a dar por seguras las frecuencias de las categorías observadas, lo que puede tener el efecto de subestimar el acuerdo para una categoría de uso habitual; por esta razón, κ se considera una medida de acuerdo excesivamente conservadora. En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981). Współczynnik Kappa Cohena (ang. Cohen's kappa) – wykorzystywany w statystyce współczynnik rzetelności dwukrotnych pomiarów tej samej zmiennej, która jest zmienną nominalną i zależną. Pomiaru zmiennej może dokonać jeden sędzia kompetentny (dwukrotnie, w odstępie czasowym) lub dwóch różnych sędziów kompetentnych w tym samym czasie. Kappa Cohena przyjmuje wartości od -1 do 1. Im bliżej wartości 1, tym oceny dwóch sędziów (lub jednego sędziego w odstępie czasowym) są bardziej zgodne. Z kolei im bliżej wartości 0, tym oceny są bardziej rozbieżne. Wartości od -1 do 0 są w praktyce niewykorzystywane, gdyż ujemna wartość Kappy Cohena oznaczałaby zgodność ocen mniejszą niż w przypadku gdyby były to zmienne całkowicie losowe. Cohen's kappa coefficient (κ, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as κ takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items. 일반적으로 카파 상관계수는 코헨(Cohen)의 카파 상관계수(Kappa)를 가리키며 이는 2명의 관찰자(또는 평가자)의 신뢰도를 확보하기위한 확률로서 평가지표로 사용되는 상관계수이다. 2명이상에서 신뢰도를 얻기위해서는 (Fleiss' kappa)를 사용할 수 있다. معامل كوهين كابا (κ) هو مقياس إحصائي يقيس ما يعرف بالتوافق بين المُقيم الداخلي للبنود النوعية. وهو يأخذ بنظر الاعتبار ما يتم احتسابه من توافق عن طريق الصدفة كما أنه أكثر رصانة كمقياس من حساب نسبة التوافق. غير أن هناك جدل حول معامل كوهين كابا بسبب صعوبة في تفسير مؤشرات التوافق التي يصدرها. وقد اقترح بعض الباحثين أنه من قد يكون من الأبسط أن يتم احتساب الاختلاف بين العناصر بدلاً من التوافق. Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione è possibile valutare questo parametro: Se , allora la statistica rappresenta il caso ottimo. Infatti .
foaf:depiction
n15:Kappa_vs_accuracy.png n15:Kappa_example.png
dcterms:subject
dbc:Nonparametric_statistics dbc:Inter-rater_reliability dbc:Summary_statistics_for_contingency_tables dbc:Categorical_variable_interactions
dbo:wikiPageID
1701650
dbo:wikiPageRevisionID
1122996640
dbo:wikiPageWikiLink
dbr:Bangdiwala's_B dbr:Standard_normal dbr:Meteorology dbr:Inter-rater_reliability dbr:Binomial_distribution dbr:Confidence_intervals dbr:Fleiss'_kappa dbr:Jacob_Cohen_(statistician) dbr:Statistical_classification dbr:Statistic dbc:Inter-rater_reliability dbr:Krippendorff's_alpha dbr:Intra-rater_reliability dbr:Youden's_J_statistic dbr:Informedness dbc:Nonparametric_statistics n27:Kappa_vs_accuracy.png dbr:Scott's_Pi n27:Kappa_example.png dbr:Independence_(probability_theory) dbr:Bootstrapping_(statistics) dbr:Intraclass_correlation dbr:Confusion_matrix dbr:Kappa dbc:Summary_statistics_for_contingency_tables dbr:P-value dbr:Statistics dbr:Machine_learning dbr:Joseph_L._Fleiss dbr:Binary_classification dbc:Categorical_variable_interactions
dbo:wikiPageExternalLink
n14:ComKappa2.zip n29:60 n30:research_papers.html n31:kappa.htm%23procon
owl:sameAs
dbpedia-fr:Kappa_de_Cohen yago-res:Cohen's_kappa dbpedia-tr:Cohen'in_kappa_katsayısı dbpedia-pt:Kappa_de_Cohen freebase:m.05pkgl dbpedia-pl:Kappa_Cohena dbpedia-de:Cohens_Kappa n20:ෆ්ලයිස්ගේ_කැපා_විශ්ලේෂණය dbpedia-th:สัมประสิทธิ์แคปปาของโคเฮน n23:AoFG dbpedia-es:Coeficiente_kappa_de_Cohen dbpedia-ko:카파_상관계수 dbpedia-it:Kappa_di_Cohen dbpedia-hu:Cohen-féle_kappa dbpedia-fa:کاپای_کوهن dbpedia-eu:Cohenen_kappa n37:7522376-4 dbpedia-ar:معامل_كوهين_كابا wikidata:Q1107106
dbp:wikiPageUsesTemplate
dbt:Mvar dbt:Authority_control dbt:Short_description dbt:For dbt:Rp dbt:Reflist dbt:Diagonal_split_header dbt:Citation_needed dbt:Machine_learning_evaluation_metrics dbt:Cite_journal dbt:Statistics
dbo:thumbnail
n15:Kappa_vs_accuracy.png?width=300
dbo:abstract
Cohen's kappa coefficient (κ, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as κ takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items. Estatistikan, Cohenen kappa κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztasuna aztertzeko ere erabil daiteke. Formula honen arabera kalkulatzen da: (1) izanik, adostasun proportzioa eta zoriz itxarondako adostasun maila hurrenez hurren. Koefiziente honek [-1,1] tarteko balioak hartzen ditu. Negatiboa denean, desadostasuna da nagusi balorazioetan. [0,0.6] tartean adostasuna txikia eta 0.6tik gorako balio baterako adostasuna handia dela esan daiteke, interpretazio egoki bat egiteko antzeko ikerketak eta ikergai den egoera bera ere kontuan hartu direla jakinik betiere. El Coeficiente kappa de Cohen es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada​ para elementos cualitativos (variables categóricas). En general se cree que es una medida más robusta que el simple cálculo del porcentaje de concordancia, ya que κ tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores​ han expresado su preocupación por la tendencia de κ a dar por seguras las frecuencias de las categorías observadas, lo que puede tener el efecto de subestimar el acuerdo para una categoría de uso habitual; por esta razón, κ se considera una medida de acuerdo excesivamente conservadora. Otros​ discuten la afirmación de que kappa "tiene en cuenta" la posibilidad de acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito de cómo afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del estadístico kappa supone que, cuando no están absolutamente seguros, los evaluadores simplemente aventuran una respuesta (un escenario muy poco realista). Kappa mide el grado de concordancia de las evaluaciones nominales u ordinales realizadas por múltiples evaluadores cuando se evalúan las mismas muestras. Por ejemplo, dos médicos diferentes examinan a 45 pacientes para determinar si tienen una enfermedad específica. ¿Con qué frecuencia coincidirá el diagnóstico de los médicos con respecto a la enfermedad (positivo o negativo)? Otro ejemplo de evaluaciones nominales son las clasificaciones de los defectos encontrados en pantallas de televisores por varios inspectores. ¿Concuerdan consistentemente los inspectores en su clasificación de burbujas, cavidades y sucio? En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981). Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione è possibile valutare questo parametro: dove è data dalla somma della prima diagonale della matrice divisa per il totale dei giudizi e rappresenta la percentuale di giudizio, di fatto, concorde tra i giudici. Mentre è il prodotto dei totali positivi sommato a quelli negativi, il tutto diviso per il quadrato del totale dei giudizi , e rappresenta la probabilità di accordo casualmente. Infatti è la percentuale di valutazioni positive "reali" (o assegnate da uno dei due controllori) e lo stesso in modo analogo per , ed ; la probabilità di accordo positivo (casuale o statistico) tra i due è quindi così come quella di accordo negativo è , da cui si ottiene la formula per la percentuale di accordo casuale, sommando le due probabilità. Se , allora la statistica rappresenta il caso ottimo. Infatti . Esistono diversi "gradi di concordanza", in base ai quali possiamo definire se Kappa di Cohen è scarso o ottimo: * se k assume valori inferiori a 0, allora non c'è concordanza; * se k assume valori compresi tra 0-0,4, allora la concordanza è scarsa; * se k assume valori compresi tra 0,4-0,6, allora la concordanza è discreta; * se k assume valori compresi tra 0,6-0,8, la concordanza è buona; * se k assume valori compresi tra 0,8-1, la concordanza è ottima. Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Maß kann aber auch für die Intrarater-Reliabilität verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung für Cohens Kappa lautet wobei der gemessene Übereinstimmungswert der beiden Schätzer und die zufällig erwartete Übereinstimmung ist. Wenn die Rater in allen ihren Urteilen übereinstimmen, ist . Sofern sich nur Übereinstimmungen zwischen den beiden Ratern feststellen lassen, die mathematisch dem Ausmaß des Zufalls entsprechen, nimmt es einen Wert von an. (Negative Werte weisen dagegen auf eine Übereinstimmung hin, die noch kleiner ist als eine zufällige Übereinstimmung.) Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von seien gut bis ausgezeichnet. Landis und Koch (1977) schlagen vor: = „schlechte Übereinstimmung (poor agreement)“, = „etwas (slight) Übereinstimmung“, 0,21–0,40 = „ausreichende (fair) Übereinstimmung“, 0,41–0,60 = „mittelmäßige (moderate) Übereinstimmung“, 0,61–0,80 = „beachtliche (substantial) Übereinstimmung“, 0,81–1,00 = „(fast) vollkommene ((almost) perfect) Übereinstimmung“. Problematisch am Koeffizienten ist, dass sein maximaler Wert nicht immer Eins ist (s. u.). 일반적으로 카파 상관계수는 코헨(Cohen)의 카파 상관계수(Kappa)를 가리키며 이는 2명의 관찰자(또는 평가자)의 신뢰도를 확보하기위한 확률로서 평가지표로 사용되는 상관계수이다. 2명이상에서 신뢰도를 얻기위해서는 (Fleiss' kappa)를 사용할 수 있다. معامل كوهين كابا (κ) هو مقياس إحصائي يقيس ما يعرف بالتوافق بين المُقيم الداخلي للبنود النوعية. وهو يأخذ بنظر الاعتبار ما يتم احتسابه من توافق عن طريق الصدفة كما أنه أكثر رصانة كمقياس من حساب نسبة التوافق. غير أن هناك جدل حول معامل كوهين كابا بسبب صعوبة في تفسير مؤشرات التوافق التي يصدرها. وقد اقترح بعض الباحثين أنه من قد يكون من الأبسط أن يتم احتساب الاختلاف بين العناصر بدلاً من التوافق. Współczynnik Kappa Cohena (ang. Cohen's kappa) – wykorzystywany w statystyce współczynnik rzetelności dwukrotnych pomiarów tej samej zmiennej, która jest zmienną nominalną i zależną. Pomiaru zmiennej może dokonać jeden sędzia kompetentny (dwukrotnie, w odstępie czasowym) lub dwóch różnych sędziów kompetentnych w tym samym czasie. Kappa Cohena przyjmuje wartości od -1 do 1. Im bliżej wartości 1, tym oceny dwóch sędziów (lub jednego sędziego w odstępie czasowym) są bardziej zgodne. Z kolei im bliżej wartości 0, tym oceny są bardziej rozbieżne. Wartości od -1 do 0 są w praktyce niewykorzystywane, gdyż ujemna wartość Kappy Cohena oznaczałaby zgodność ocen mniejszą niż w przypadku gdyby były to zmienne całkowicie losowe. Twórcą współczynnika jest amerykański statystyk Jacob Cohen.
gold:hypernym
dbr:Statistic
prov:wasDerivedFrom
wikipedia-en:Cohen's_kappa?oldid=1122996640&ns=0
dbo:wikiPageLength
27919
foaf:isPrimaryTopicOf
wikipedia-en:Cohen's_kappa