. . . "Kappa di Cohen"@it . . . "Estatistikan, Cohenen kappa \u03BA kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztas"@eu . "Kappa de Cohen"@fr . . . . . . . . . . . . . "Cohens Kappa ist ein statistisches Ma\u00DF f\u00FCr die Interrater-Reliabilit\u00E4t von Einsch\u00E4tzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Ma\u00DF kann aber auch f\u00FCr die Intrarater-Reliabilit\u00E4t verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung f\u00FCr Cohens Kappa lautet Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilit\u00E4tswerte von seien gut bis ausgezeichnet."@de . . . . . . . "Cohen's kappa coefficient (\u03BA, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as \u03BA takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items."@en . . "Estatistikan, Cohenen kappa \u03BA kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, printzipioz 2 balorazio metodo edo epailetarako, balorazioa aldagai kualitatibo edo kuantitatibo diskretu baten arabera egiten delarik, zoriz itxaron daitekeen adostasun maila ere kontuan hartuz. 2 epaile baino gehiagotarako bertsio bat ere garatu da. Adibidez, froga bat burutu ondoren, bi irakaslek hainbat ikaslek irakasgai bat gainditu duten, gainditu ez duten edo gainditzeko beste aukera bat eman behar zaien erabaki dute modu independentean. Cohenen kappa koefizienteak bi irakasleak euren balorazioetan zenbateraino datozen bat neurtzen saiatuko litzateke adibidean, zoriz itxaron daitekeen adostasun maila baztertuz. Neurketa ezberdinen zehaztasuna aztertzeko ere erabil daiteke. Formula honen arabera kalkulatzen da: (1) izanik, adostasun proportzioa eta zoriz itxarondako adostasun maila hurrenez hurren. Koefiziente honek [-1,1] tarteko balioak hartzen ditu. Negatiboa denean, desadostasuna da nagusi balorazioetan. [0,0.6] tartean adostasuna txikia eta 0.6tik gorako balio baterako adostasuna handia dela esan daiteke, interpretazio egoki bat egiteko antzeko ikerketak eta ikergai den egoera bera ere kontuan hartu direla jakinik betiere."@eu . "El Coeficiente kappa de Cohen es una medida estad\u00EDstica que ajusta el efecto del azar en la proporci\u00F3n de la concordancia observada\u200B para elementos cualitativos (variables categ\u00F3ricas). En general se cree que es una medida m\u00E1s robusta que el simple c\u00E1lculo del porcentaje de concordancia, ya que \u03BA tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores\u200B han expresado su preocupaci\u00F3n por la tendencia de \u03BA a dar por seguras las frecuencias de las categor\u00EDas observadas, lo que puede tener el efecto de subestimar el acuerdo para una categor\u00EDa de uso habitual; por esta raz\u00F3n, \u03BA se considera una medida de acuerdo excesivamente conservadora. Otros\u200B discuten la afirmaci\u00F3n de que kappa \"tiene en cuenta\" la posibilidad de acuerdo. Para hacerlo con eficacia se requerir\u00EDa un modelo expl\u00EDcito de c\u00F3mo afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del estad\u00EDstico kappa supone que, cuando no est\u00E1n absolutamente seguros, los evaluadores simplemente aventuran una respuesta (un escenario muy poco realista). Kappa mide el grado de concordancia de las evaluaciones nominales u ordinales realizadas por m\u00FAltiples evaluadores cuando se eval\u00FAan las mismas muestras. Por ejemplo, dos m\u00E9dicos diferentes examinan a 45 pacientes para determinar si tienen una enfermedad espec\u00EDfica. \u00BFCon qu\u00E9 frecuencia coincidir\u00E1 el diagn\u00F3stico de los m\u00E9dicos con respecto a la enfermedad (positivo o negativo)? Otro ejemplo de evaluaciones nominales son las clasificaciones de los defectos encontrados en pantallas de televisores por varios inspectores. \u00BFConcuerdan consistentemente los inspectores en su clasificaci\u00F3n de burbujas, cavidades y sucio?"@es . "Kappa de Cohen"@pt . . . . . . . . . . . . . . . . "En statistique, la m\u00E9thode du \u03BA (kappa) mesure l\u2019accord entre observateurs lors d'un codage qualitatif en cat\u00E9gories. L'article introduisant le \u03BA a pour auteur Jacob Cohen \u2013 d'o\u00F9 sa d\u00E9signation de \u03BA de Cohen \u2013 et est paru dans le journal Educational and Psychological Measurement en 1960. Le \u03BA est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le \u03BA de Fleiss (1981)."@fr . . "Il Kappa di Cohen \u00E8 un coefficiente statistico che rappresenta il grado di accuratezza e affidabilit\u00E0 in una classificazione statistica; \u00E8 un indice di concordanza che tiene conto della probabilit\u00E0 di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilit\u00E0 di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione \u00E8 possibile valutare questo parametro: dove \u00E8 data dalla somma della prima diagonale della matrice divisa per il totale dei giudizi e rappresenta la percentuale di giudizio, di fatto, concorde tra i giudici. Mentre \u00E8 il prodotto dei totali positivi sommato a quelli negativi, il tutto diviso per il quadrato del totale dei giudizi , e rappresenta la probabilit\u00E0 di accordo casualmente. Infatti \u00E8 la percentuale di valutazioni positive \"reali\" (o assegnate da uno dei due controllori) e lo stesso in modo analogo per , ed ; la probabilit\u00E0 di accordo positivo (casuale o statistico) tra i due \u00E8 quindi cos\u00EC come quella di accordo negativo \u00E8 , da cui si ottiene la formula per la percentuale di accordo casuale, sommando le due probabilit\u00E0. Se , allora la statistica rappresenta il caso ottimo. Infatti . Esistono diversi \"gradi di concordanza\", in base ai quali possiamo definire se Kappa di Cohen \u00E8 scarso o ottimo: \n* se k assume valori inferiori a 0, allora non c'\u00E8 concordanza; \n* se k assume valori compresi tra 0-0,4, allora la concordanza \u00E8 scarsa; \n* se k assume valori compresi tra 0,4-0,6, allora la concordanza \u00E8 discreta; \n* se k assume valori compresi tra 0,6-0,8, la concordanza \u00E8 buona; \n* se k assume valori compresi tra 0,8-1, la concordanza \u00E8 ottima."@it . . "1122996640"^^ . . "\u0645\u0639\u0627\u0645\u0644 \u0643\u0648\u0647\u064A\u0646 \u0643\u0627\u0628\u0627"@ar . . . . "Coeficiente kappa de Cohen"@es . . "El Coeficiente kappa de Cohen es una medida estad\u00EDstica que ajusta el efecto del azar en la proporci\u00F3n de la concordancia observada\u200B para elementos cualitativos (variables categ\u00F3ricas). En general se cree que es una medida m\u00E1s robusta que el simple c\u00E1lculo del porcentaje de concordancia, ya que \u03BA tiene en cuenta el acuerdo que ocurre por azar. Algunos investigadores\u200B han expresado su preocupaci\u00F3n por la tendencia de \u03BA a dar por seguras las frecuencias de las categor\u00EDas observadas, lo que puede tener el efecto de subestimar el acuerdo para una categor\u00EDa de uso habitual; por esta raz\u00F3n, \u03BA se considera una medida de acuerdo excesivamente conservadora."@es . . . . . . . . . . "En statistique, la m\u00E9thode du \u03BA (kappa) mesure l\u2019accord entre observateurs lors d'un codage qualitatif en cat\u00E9gories. L'article introduisant le \u03BA a pour auteur Jacob Cohen \u2013 d'o\u00F9 sa d\u00E9signation de \u03BA de Cohen \u2013 et est paru dans le journal Educational and Psychological Measurement en 1960. Le \u03BA est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le \u03BA de Fleiss (1981)."@fr . . . . "Wsp\u00F3\u0142czynnik Kappa Cohena (ang. Cohen's kappa) \u2013 wykorzystywany w statystyce wsp\u00F3\u0142czynnik rzetelno\u015Bci dwukrotnych pomiar\u00F3w tej samej zmiennej, kt\u00F3ra jest zmienn\u0105 nominaln\u0105 i zale\u017Cn\u0105. Pomiaru zmiennej mo\u017Ce dokona\u0107 jeden s\u0119dzia kompetentny (dwukrotnie, w odst\u0119pie czasowym) lub dw\u00F3ch r\u00F3\u017Cnych s\u0119dzi\u00F3w kompetentnych w tym samym czasie. Kappa Cohena przyjmuje warto\u015Bci od -1 do 1. Im bli\u017Cej warto\u015Bci 1, tym oceny dw\u00F3ch s\u0119dzi\u00F3w (lub jednego s\u0119dziego w odst\u0119pie czasowym) s\u0105 bardziej zgodne. Z kolei im bli\u017Cej warto\u015Bci 0, tym oceny s\u0105 bardziej rozbie\u017Cne. Warto\u015Bci od -1 do 0 s\u0105 w praktyce niewykorzystywane, gdy\u017C ujemna warto\u015B\u0107 Kappy Cohena oznacza\u0142aby zgodno\u015B\u0107 ocen mniejsz\u0105 ni\u017C w przypadku gdyby by\u0142y to zmienne ca\u0142kowicie losowe."@pl . "Cohens Kappa ist ein statistisches Ma\u00DF f\u00FCr die Interrater-Reliabilit\u00E4t von Einsch\u00E4tzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Ma\u00DF kann aber auch f\u00FCr die Intrarater-Reliabilit\u00E4t verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.Die Gleichung f\u00FCr Cohens Kappa lautet wobei der gemessene \u00DCbereinstimmungswert der beiden Sch\u00E4tzer und die zuf\u00E4llig erwartete \u00DCbereinstimmung ist. Wenn die Rater in allen ihren Urteilen \u00FCbereinstimmen, ist . Sofern sich nur \u00DCbereinstimmungen zwischen den beiden Ratern feststellen lassen, die mathematisch dem Ausma\u00DF des Zufalls entsprechen, nimmt es einen Wert von an. (Negative Werte weisen dagegen auf eine \u00DCbereinstimmung hin, die noch kleiner ist als eine zuf\u00E4llige \u00DCbereinstimmung.) Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilit\u00E4tswerte von seien gut bis ausgezeichnet. Landis und Koch (1977) schlagen vor: = \u201Eschlechte \u00DCbereinstimmung (poor agreement)\u201C, = \u201Eetwas (slight) \u00DCbereinstimmung\u201C, 0,21\u20130,40 = \u201Eausreichende (fair) \u00DCbereinstimmung\u201C, 0,41\u20130,60 = \u201Emittelm\u00E4\u00DFige (moderate) \u00DCbereinstimmung\u201C, 0,61\u20130,80 = \u201Ebeachtliche (substantial) \u00DCbereinstimmung\u201C, 0,81\u20131,00 = \u201E(fast) vollkommene ((almost) perfect) \u00DCbereinstimmung\u201C. Problematisch am Koeffizienten ist, dass sein maximaler Wert nicht immer Eins ist (s. u.)."@de . . . . . . . . "27919"^^ . . . . "Kappa Cohena"@pl . . "Cohen's kappa coefficient (\u03BA, lowercase Greek kappa) is a statistic that is used to measure inter-rater reliability (and also intra-rater reliability) for qualitative (categorical) items. It is generally thought to be a more robust measure than simple percent agreement calculation, as \u03BA takes into account the possibility of the agreement occurring by chance. There is controversy surrounding Cohen's kappa due to the difficulty in interpreting indices of agreement. Some researchers have suggested that it is conceptually simpler to evaluate disagreement between items."@en . . . "\uC77C\uBC18\uC801\uC73C\uB85C \uCE74\uD30C \uC0C1\uAD00\uACC4\uC218\uB294 \uCF54\uD5E8(Cohen)\uC758 \uCE74\uD30C \uC0C1\uAD00\uACC4\uC218(Kappa)\uB97C \uAC00\uB9AC\uD0A4\uBA70 \uC774\uB294 2\uBA85\uC758 \uAD00\uCC30\uC790(\uB610\uB294 \uD3C9\uAC00\uC790)\uC758 \uC2E0\uB8B0\uB3C4\uB97C \uD655\uBCF4\uD558\uAE30\uC704\uD55C \uD655\uB960\uB85C\uC11C \uD3C9\uAC00\uC9C0\uD45C\uB85C \uC0AC\uC6A9\uB418\uB294 \uC0C1\uAD00\uACC4\uC218\uC774\uB2E4. 2\uBA85\uC774\uC0C1\uC5D0\uC11C \uC2E0\uB8B0\uB3C4\uB97C \uC5BB\uAE30\uC704\uD574\uC11C\uB294 (Fleiss' kappa)\uB97C \uC0AC\uC6A9\uD560 \uC218 \uC788\uB2E4."@ko . . "\uC77C\uBC18\uC801\uC73C\uB85C \uCE74\uD30C \uC0C1\uAD00\uACC4\uC218\uB294 \uCF54\uD5E8(Cohen)\uC758 \uCE74\uD30C \uC0C1\uAD00\uACC4\uC218(Kappa)\uB97C \uAC00\uB9AC\uD0A4\uBA70 \uC774\uB294 2\uBA85\uC758 \uAD00\uCC30\uC790(\uB610\uB294 \uD3C9\uAC00\uC790)\uC758 \uC2E0\uB8B0\uB3C4\uB97C \uD655\uBCF4\uD558\uAE30\uC704\uD55C \uD655\uB960\uB85C\uC11C \uD3C9\uAC00\uC9C0\uD45C\uB85C \uC0AC\uC6A9\uB418\uB294 \uC0C1\uAD00\uACC4\uC218\uC774\uB2E4. 2\uBA85\uC774\uC0C1\uC5D0\uC11C \uC2E0\uB8B0\uB3C4\uB97C \uC5BB\uAE30\uC704\uD574\uC11C\uB294 (Fleiss' kappa)\uB97C \uC0AC\uC6A9\uD560 \uC218 \uC788\uB2E4."@ko . "Cohens Kappa"@de . . . . . . "Cohen's kappa"@en . . . . . . . . . "1701650"^^ . "Cohenen kappa"@eu . "\uCE74\uD30C \uC0C1\uAD00\uACC4\uC218"@ko . . . . . . "\u0645\u0639\u0627\u0645\u0644 \u0643\u0648\u0647\u064A\u0646 \u0643\u0627\u0628\u0627 (\u03BA) \u0647\u0648 \u0645\u0642\u064A\u0627\u0633 \u0625\u062D\u0635\u0627\u0626\u064A \u064A\u0642\u064A\u0633 \u0645\u0627 \u064A\u0639\u0631\u0641 \u0628\u0627\u0644\u062A\u0648\u0627\u0641\u0642 \u0628\u064A\u0646 \u0627\u0644\u0645\u064F\u0642\u064A\u0645 \u0627\u0644\u062F\u0627\u062E\u0644\u064A \u0644\u0644\u0628\u0646\u0648\u062F \u0627\u0644\u0646\u0648\u0639\u064A\u0629. \u0648\u0647\u0648 \u064A\u0623\u062E\u0630 \u0628\u0646\u0638\u0631 \u0627\u0644\u0627\u0639\u062A\u0628\u0627\u0631 \u0645\u0627 \u064A\u062A\u0645 \u0627\u062D\u062A\u0633\u0627\u0628\u0647 \u0645\u0646 \u062A\u0648\u0627\u0641\u0642 \u0639\u0646 \u0637\u0631\u064A\u0642 \u0627\u0644\u0635\u062F\u0641\u0629 \u0643\u0645\u0627 \u0623\u0646\u0647 \u0623\u0643\u062B\u0631 \u0631\u0635\u0627\u0646\u0629 \u0643\u0645\u0642\u064A\u0627\u0633 \u0645\u0646 \u062D\u0633\u0627\u0628 \u0646\u0633\u0628\u0629 \u0627\u0644\u062A\u0648\u0627\u0641\u0642. \u063A\u064A\u0631 \u0623\u0646 \u0647\u0646\u0627\u0643 \u062C\u062F\u0644 \u062D\u0648\u0644 \u0645\u0639\u0627\u0645\u0644 \u0643\u0648\u0647\u064A\u0646 \u0643\u0627\u0628\u0627 \u0628\u0633\u0628\u0628 \u0635\u0639\u0648\u0628\u0629 \u0641\u064A \u062A\u0641\u0633\u064A\u0631 \u0645\u0624\u0634\u0631\u0627\u062A \u0627\u0644\u062A\u0648\u0627\u0641\u0642 \u0627\u0644\u062A\u064A \u064A\u0635\u062F\u0631\u0647\u0627. \u0648\u0642\u062F \u0627\u0642\u062A\u0631\u062D \u0628\u0639\u0636 \u0627\u0644\u0628\u0627\u062D\u062B\u064A\u0646 \u0623\u0646\u0647 \u0645\u0646 \u0642\u062F \u064A\u0643\u0648\u0646 \u0645\u0646 \u0627\u0644\u0623\u0628\u0633\u0637 \u0623\u0646 \u064A\u062A\u0645 \u0627\u062D\u062A\u0633\u0627\u0628 \u0627\u0644\u0627\u062E\u062A\u0644\u0627\u0641 \u0628\u064A\u0646 \u0627\u0644\u0639\u0646\u0627\u0635\u0631 \u0628\u062F\u0644\u0627\u064B \u0645\u0646 \u0627\u0644\u062A\u0648\u0627\u0641\u0642."@ar . "\u0645\u0639\u0627\u0645\u0644 \u0643\u0648\u0647\u064A\u0646 \u0643\u0627\u0628\u0627 (\u03BA) \u0647\u0648 \u0645\u0642\u064A\u0627\u0633 \u0625\u062D\u0635\u0627\u0626\u064A \u064A\u0642\u064A\u0633 \u0645\u0627 \u064A\u0639\u0631\u0641 \u0628\u0627\u0644\u062A\u0648\u0627\u0641\u0642 \u0628\u064A\u0646 \u0627\u0644\u0645\u064F\u0642\u064A\u0645 \u0627\u0644\u062F\u0627\u062E\u0644\u064A \u0644\u0644\u0628\u0646\u0648\u062F \u0627\u0644\u0646\u0648\u0639\u064A\u0629. \u0648\u0647\u0648 \u064A\u0623\u062E\u0630 \u0628\u0646\u0638\u0631 \u0627\u0644\u0627\u0639\u062A\u0628\u0627\u0631 \u0645\u0627 \u064A\u062A\u0645 \u0627\u062D\u062A\u0633\u0627\u0628\u0647 \u0645\u0646 \u062A\u0648\u0627\u0641\u0642 \u0639\u0646 \u0637\u0631\u064A\u0642 \u0627\u0644\u0635\u062F\u0641\u0629 \u0643\u0645\u0627 \u0623\u0646\u0647 \u0623\u0643\u062B\u0631 \u0631\u0635\u0627\u0646\u0629 \u0643\u0645\u0642\u064A\u0627\u0633 \u0645\u0646 \u062D\u0633\u0627\u0628 \u0646\u0633\u0628\u0629 \u0627\u0644\u062A\u0648\u0627\u0641\u0642. \u063A\u064A\u0631 \u0623\u0646 \u0647\u0646\u0627\u0643 \u062C\u062F\u0644 \u062D\u0648\u0644 \u0645\u0639\u0627\u0645\u0644 \u0643\u0648\u0647\u064A\u0646 \u0643\u0627\u0628\u0627 \u0628\u0633\u0628\u0628 \u0635\u0639\u0648\u0628\u0629 \u0641\u064A \u062A\u0641\u0633\u064A\u0631 \u0645\u0624\u0634\u0631\u0627\u062A \u0627\u0644\u062A\u0648\u0627\u0641\u0642 \u0627\u0644\u062A\u064A \u064A\u0635\u062F\u0631\u0647\u0627. \u0648\u0642\u062F \u0627\u0642\u062A\u0631\u062D \u0628\u0639\u0636 \u0627\u0644\u0628\u0627\u062D\u062B\u064A\u0646 \u0623\u0646\u0647 \u0645\u0646 \u0642\u062F \u064A\u0643\u0648\u0646 \u0645\u0646 \u0627\u0644\u0623\u0628\u0633\u0637 \u0623\u0646 \u064A\u062A\u0645 \u0627\u062D\u062A\u0633\u0627\u0628 \u0627\u0644\u0627\u062E\u062A\u0644\u0627\u0641 \u0628\u064A\u0646 \u0627\u0644\u0639\u0646\u0627\u0635\u0631 \u0628\u062F\u0644\u0627\u064B \u0645\u0646 \u0627\u0644\u062A\u0648\u0627\u0641\u0642."@ar . . "Il Kappa di Cohen \u00E8 un coefficiente statistico che rappresenta il grado di accuratezza e affidabilit\u00E0 in una classificazione statistica; \u00E8 un indice di concordanza che tiene conto della probabilit\u00E0 di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilit\u00E0 di concordanza casuale e l'eccesso massimo ottenibile. Questo valore deve il suo nome allo scienziato . Attraverso la matrice di confusione \u00E8 possibile valutare questo parametro: Se , allora la statistica rappresenta il caso ottimo. Infatti ."@it . "Wsp\u00F3\u0142czynnik Kappa Cohena (ang. Cohen's kappa) \u2013 wykorzystywany w statystyce wsp\u00F3\u0142czynnik rzetelno\u015Bci dwukrotnych pomiar\u00F3w tej samej zmiennej, kt\u00F3ra jest zmienn\u0105 nominaln\u0105 i zale\u017Cn\u0105. Pomiaru zmiennej mo\u017Ce dokona\u0107 jeden s\u0119dzia kompetentny (dwukrotnie, w odst\u0119pie czasowym) lub dw\u00F3ch r\u00F3\u017Cnych s\u0119dzi\u00F3w kompetentnych w tym samym czasie. Kappa Cohena przyjmuje warto\u015Bci od -1 do 1. Im bli\u017Cej warto\u015Bci 1, tym oceny dw\u00F3ch s\u0119dzi\u00F3w (lub jednego s\u0119dziego w odst\u0119pie czasowym) s\u0105 bardziej zgodne. Z kolei im bli\u017Cej warto\u015Bci 0, tym oceny s\u0105 bardziej rozbie\u017Cne. Warto\u015Bci od -1 do 0 s\u0105 w praktyce niewykorzystywane, gdy\u017C ujemna warto\u015B\u0107 Kappy Cohena oznacza\u0142aby zgodno\u015B\u0107 ocen mniejsz\u0105 ni\u017C w przypadku gdyby by\u0142y to zmienne ca\u0142kowicie losowe. Tw\u00F3rc\u0105 wsp\u00F3\u0142czynnika jest ameryka\u0144ski statystyk Jacob Cohen."@pl . . . .