An Entity of Type: Thing, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm.

Property Value
dbo:abstract
  • In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. When , the binary entropy function attains its maximum value. This is the case of an unbiased coin flip. is distinguished from the entropy function in that the former takes a single real number as a parameter whereas the latter takes a distribution or random variable as a parameter.Sometimes the binary entropy function is also written as .However, it is different from and should not be confused with the Rényi entropy, which is denoted as . (en)
  • 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja)
  • Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 5275277 (xsd:integer)
dbo:wikiPageInterLanguageLink
dbo:wikiPageLength
  • 4344 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1071507954 (xsd:integer)
dbo:wikiPageWikiLink
dbp:wikiPageUsesTemplate
dcterms:subject
rdfs:comment
  • 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は もしくは のように表記され、確率 の1値または2値ベルヌーイ過程の情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 のとき であり、 のエントロピーは(シャノン単位で)次のように与えられる。 , ここで、 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。 は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 とは区別される。二値エントロピー関数を と表記する場合もある。しかし、 も と表記することがあるため、混同に注意が必要である。 (ja)
  • Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1. Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi: gdzie: jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny. W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit. Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa (pl)
  • In information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by , where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2. See binary logarithm. (en)
rdfs:label
  • Binary entropy function (en)
  • 二値エントロピー関数 (ja)
  • Entropia binarna (pl)
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License