An Entity of Type: Thing, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A| denotes the cardinality of A.

Property Value
dbo:abstract
  • Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs)
  • The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A| denotes the cardinality of A. If the base of the logarithm is 2, then the unit of uncertainty is the shannon (more commonly known as bit). If it is the natural logarithm, then the unit is the nat. Hartley used a base-ten logarithm, and with this base, the unit of information is called the hartley (aka ban or dit) in his honor. It is also known as the Hartley entropy. (en)
  • La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde | A | denota la cardinalidad de A. Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley. (es)
  • La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
dbo:wikiPageID
  • 3781180 (xsd:integer)
dbo:wikiPageLength
  • 3836 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 979908386 (xsd:integer)
dbo:wikiPageWikiLink
dbp:id
  • 6070 (xsd:integer)
  • 6082 (xsd:integer)
dbp:title
  • Derivation of Hartley function (en)
  • Hartley function (en)
dbp:wikiPageUsesTemplate
dcterms:subject
rdfs:comment
  • Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs)
  • La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde | A | denota la cardinalidad de A. Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley. (es)
  • La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
  • The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A| denotes the cardinality of A. (en)
rdfs:label
  • Hartleyova funkce (cs)
  • Hartley function (en)
  • Función de Hartley (es)
  • Entropie de Hartley (fr)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is dbp:knownFor of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License