About: BLEU     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : dbo:Software, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FBLEU&invfp=IFP_OFF&sas=SAME_AS_OFF

BLEU (bilingual evaluation understudy) is an algorithm for evaluating the quality of text which has been machine-translated from one natural language to another. Quality is considered to be the correspondence between a machine's output and that of a human: "the closer a machine translation is to a professional human translation, the better it is" – this is the central idea behind BLEU. BLEU was one of the first metrics to claim a high correlation with human judgements of quality, and remains one of the most popular automated and inexpensive metrics.

AttributesValues
rdf:type
rdfs:label
  • BLEU (ca)
  • BLEU (en)
  • BLEU (es)
  • BLEU (algorithme) (fr)
  • BLEU (it)
  • BLEU (pl)
  • 雙語替換評測 (zh)
rdfs:comment
  • BLEU (bilingual evaluation understudy, in italiano:Valutazione bilingue) è un algoritmo di valutazione della qualità del testo che viene tradotto da una macchina da una lingua naturale ad un'altra.La qualità è considerata con la corrispondenza tra quanto prodotto dalla "macchina" e quello che comunicherebbe un essere umano: quanto il prodotto della macchina è più vicino a una traduzione umana professional.BLEU è stata una delle prime metriche a dichiarare una grande correlazione con i giudizi umani di qualità e rimane una delle metriche più famose e poco costose. (it)
  • 雙語替換評測(英語:bilingual evaluation understudy,縮寫:BLEU)是用於評估自然語言的字句用機器翻譯出來的品質的一種演算法。雙語替換評測的核心概念是翻譯的品質取決於機器翻譯的輸出與人工翻譯之間的對應關係,「若機器翻譯越接近專業人士的翻譯結果,則機器翻譯的表現越好」。雙語替換評測是第一個宣稱,其與人工判斷翻譯品質方式呈高度相關的度量,且目前仍是最流行的自動化與低成本的度量之一。 透過將各個譯文片段(通常是句子)與一組翻譯品質好的參考譯文進行比較,計算出各個片段的分數。 接著這些分數平均於整個語料庫,估算翻譯的整體品質。此算法不考慮字句的可理解性或語法的正確性。 雙語替換評測的輸出分數始終為0到1之間的數字。該輸出值意味著候選譯文與参考譯文之間的相似程度,越接近1的值表示文本相似度越高。人工翻譯少有能達到數值1,因为數值1表示候選文本與參考文本完全相同。由於這個原因,没有必要要求候選的翻譯片段要獲得1分。而也因为有更多可以匹配的機會,增加其他参考的譯文文本將增加此評測得分。 (zh)
  • BLEU (bilingual evaluation understudy) is an algorithm for evaluating the quality of text which has been machine-translated from one natural language to another. Quality is considered to be the correspondence between a machine's output and that of a human: "the closer a machine translation is to a professional human translation, the better it is" – this is the central idea behind BLEU. BLEU was one of the first metrics to claim a high correlation with human judgements of quality, and remains one of the most popular automated and inexpensive metrics. (en)
  • BLEU (Bilingual Evaluation Understudy) es un método de evaluación de la calidad de traducciones realizadas por sistemas de traducción automática. Una traducción tiene mayor calidad cuanto más similar es con respecto a otra de referencia, que se supone correcta. BLEU puede calcularse utilizando más de una traducción de referencia. Esto permite una mayor robustez a la medida frente a traducciones libres realizadas por humanos. (es)
  • BLEU (bilingual evaluation understudy) est un algorithme d’évaluation de la qualité du texte qui a été traduit mécaniquement d’une langue naturelle à une autre. La qualité est considérée comme la correspondance entre la production d’une machine et celle d’un humain : « plus une traduction automatique est proche d’une traduction humaine professionnelle, mieux c’est » - c’est l’idée centrale derrière BLEU. BLEU a été l’une des premières métriques à revendiquer une corrélation élevée avec les jugements humains de qualité, et reste l’une des métriques automatisées les plus populaires et les moins couteuses. (fr)
  • BLEU (Bilingual Evaluation Understudy) – algorytm do ewaluacji jakości tłumaczenia automatycznego z jednego języka naturalnego na inny. Jakość jest rozumiana jako korelacja między danymi wyjściowymi a tekstem ludzkim: „im bliższe tłumaczenie automatyczne jest profesjonalnemu tłumaczeniu ludzkiemu, tym jest lepsze”. BLEU był jedną z pierwszych metryk, która uzyskała wysoką korelację z ludzkim osądem jakości. Pozostaje także najbardziej popularną z metod. BLEU jest zaprojektowany, aby przybliżać ludzką ocenę na poziomie dużych korpusów i nie sprawdza się do oceny pojedynczych zdań. (pl)
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
date
url
has abstract
  • BLEU (BiLingual Evaluation Understudy, en català «estudi d'avaluació bilingüe») és un mètode d'avaluació de traduccions automàtiques. Una traducció té una millor qualitat com més semblant és respecte d'una referència, que se suposa correcta. BLEU es pot calcular utilitzant més d'una traducció de referència. Això permet una millor robustesa en la mesura enfront d'altres traduccions lliures realitzades per humans. BLEU es calcula normalment a nivell de frases i troba la precisió en n-grames entre la traducció del sistema i la referència. Nogensmenys, s'utilitza una precisió modificada a fi de solucionar certes deficiències en la mesura. (ca)
  • BLEU (bilingual evaluation understudy) is an algorithm for evaluating the quality of text which has been machine-translated from one natural language to another. Quality is considered to be the correspondence between a machine's output and that of a human: "the closer a machine translation is to a professional human translation, the better it is" – this is the central idea behind BLEU. BLEU was one of the first metrics to claim a high correlation with human judgements of quality, and remains one of the most popular automated and inexpensive metrics. Scores are calculated for individual translated segments—generally sentences—by comparing them with a set of good quality reference translations. Those scores are then averaged over the whole corpus to reach an estimate of the translation's overall quality. Intelligibility or grammatical correctness are not taken into account. BLEU's output is always a number between 0 and 1. This value indicates how similar the candidate text is to the reference texts, with values closer to 1 representing more similar texts. Few human translations will attain a score of 1, since this would indicate that the candidate is identical to one of the reference translations. For this reason, it is not necessary to attain a score of 1. Because there are more opportunities to match, adding additional reference translations will increase the BLEU score. (en)
  • BLEU (Bilingual Evaluation Understudy) es un método de evaluación de la calidad de traducciones realizadas por sistemas de traducción automática. Una traducción tiene mayor calidad cuanto más similar es con respecto a otra de referencia, que se supone correcta. BLEU puede calcularse utilizando más de una traducción de referencia. Esto permite una mayor robustez a la medida frente a traducciones libres realizadas por humanos. BLEU se calcula normalmente a nivel de frases y halla la precisión en ngramas entre la traducción del sistema y la de referencia. Sin embargo, se utiliza una precisión modificada con el fin de solucionar ciertas deficiencias en la medida. (es)
  • BLEU (bilingual evaluation understudy) est un algorithme d’évaluation de la qualité du texte qui a été traduit mécaniquement d’une langue naturelle à une autre. La qualité est considérée comme la correspondance entre la production d’une machine et celle d’un humain : « plus une traduction automatique est proche d’une traduction humaine professionnelle, mieux c’est » - c’est l’idée centrale derrière BLEU. BLEU a été l’une des premières métriques à revendiquer une corrélation élevée avec les jugements humains de qualité, et reste l’une des métriques automatisées les plus populaires et les moins couteuses. Les notes sont calculées pour chaque segment traduit - généralement des phrases - en les comparant avec un ensemble de traductions de référence de bonne qualité. La moyenne de ces notes est ensuite calculée sur l’ensemble du corpus pour obtenir une estimation de la qualité globale de la traduction. L’intelligibilité ou l’exactitude grammaticale ne sont pas prises en compte. La sortie de BLEU est toujours un nombre compris entre 0 et 1, qui indique dans quelle mesure le texte candidat est similaire aux textes de référence, les valeurs plus proches de 1 représentant des textes plus similaires. Peu de traductions humaines atteindront une note de 1, car cela indiquerait que le candidat est identique à l’une des traductions de référence. Pour cette raison, il n’est pas nécessaire d’obtenir un score de 1, car il y a plus de possibilités d’appariement, l’ajout de traductions de référence supplémentaires augmentera le score BLEU. Les valeurs BLEU peuvent varier grandement en fonction des paramètres et du pré-traitement. Afin d'atténuer ce problème, l'implémentation recommandée est sacreBLEU. Il est à noter que le score BLEU est souvent rapporté en pourcentage, soit en 0 et 100%, plutôt qu'entre 0 et 1. (fr)
  • BLEU (bilingual evaluation understudy, in italiano:Valutazione bilingue) è un algoritmo di valutazione della qualità del testo che viene tradotto da una macchina da una lingua naturale ad un'altra.La qualità è considerata con la corrispondenza tra quanto prodotto dalla "macchina" e quello che comunicherebbe un essere umano: quanto il prodotto della macchina è più vicino a una traduzione umana professional.BLEU è stata una delle prime metriche a dichiarare una grande correlazione con i giudizi umani di qualità e rimane una delle metriche più famose e poco costose. (it)
  • BLEU (Bilingual Evaluation Understudy) – algorytm do ewaluacji jakości tłumaczenia automatycznego z jednego języka naturalnego na inny. Jakość jest rozumiana jako korelacja między danymi wyjściowymi a tekstem ludzkim: „im bliższe tłumaczenie automatyczne jest profesjonalnemu tłumaczeniu ludzkiemu, tym jest lepsze”. BLEU był jedną z pierwszych metryk, która uzyskała wysoką korelację z ludzkim osądem jakości. Pozostaje także najbardziej popularną z metod. Punkty liczone są dla pojedynczych przetłumaczonych segmentów – zwykle zdań – przez porównanie ich ze zbiorem tłumaczeń referencyjnych dobrej jakości. Punkty te są następnie uśredniane w obrębie całego korpusu, aby oszacować całkowitą jakość tłumaczenia. Pod uwagę nie są brane zrozumiałość oraz poprawność gramatyczna. BLEU jest zaprojektowany, aby przybliżać ludzką ocenę na poziomie dużych korpusów i nie sprawdza się do oceny pojedynczych zdań. (pl)
  • 雙語替換評測(英語:bilingual evaluation understudy,縮寫:BLEU)是用於評估自然語言的字句用機器翻譯出來的品質的一種演算法。雙語替換評測的核心概念是翻譯的品質取決於機器翻譯的輸出與人工翻譯之間的對應關係,「若機器翻譯越接近專業人士的翻譯結果,則機器翻譯的表現越好」。雙語替換評測是第一個宣稱,其與人工判斷翻譯品質方式呈高度相關的度量,且目前仍是最流行的自動化與低成本的度量之一。 透過將各個譯文片段(通常是句子)與一組翻譯品質好的參考譯文進行比較,計算出各個片段的分數。 接著這些分數平均於整個語料庫,估算翻譯的整體品質。此算法不考慮字句的可理解性或語法的正確性。 雙語替換評測的輸出分數始終為0到1之間的數字。該輸出值意味著候選譯文與参考譯文之間的相似程度,越接近1的值表示文本相似度越高。人工翻譯少有能達到數值1,因为數值1表示候選文本與參考文本完全相同。由於這個原因,没有必要要求候選的翻譯片段要獲得1分。而也因为有更多可以匹配的機會,增加其他参考的譯文文本將增加此評測得分。 (zh)
gold:hypernym
prov:wasDerivedFrom
page length (characters) of wiki page
foaf:isPrimaryTopicOf
is Link from a Wikipage to another Wikipage of
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 67 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software