About: Binary entropy function     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/c/9EgTQiEzkT

In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm.

AttributesValues
rdfs:label
  • Binary entropy function (en)
  • 二値エントロピー関数 (ja)
  • Entropia binarna (pl)
rdfs:comment
  • 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja)
  • Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl)
  • In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. (en)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Binary_entropy_plot.svg
dct:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
thumbnail
Link from a Wikipa... related subject.
has abstract
  • In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. When , the binary entropy function attains its maximum value. This is the case of an unbiased coin flip. is distinguished from the entropy function in that the former takes a single real number as a parameter whereas the latter takes a distribution or random variable as a parameter.Sometimes the binary entropy function is also written as .However, it is different from and should not be confused with the Rényi entropy, which is denoted as . (en)
  • 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja)
  • Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl)
prov:wasDerivedFrom
page length (characters) of wiki page
foaf:isPrimaryTopicOf
is Link from a Wikipage to another Wikipage of
is Wikipage redirect of
is Wikipage disambiguates of
is foaf:primaryTopic of
Faceted Search & Find service v1.17_git147 as of Sep 06 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3332 as of Dec 5 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 68 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2025 OpenLink Software