dbo:abstract
|
- Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs)
- The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A| denotes the cardinality of A. If the base of the logarithm is 2, then the unit of uncertainty is the shannon (more commonly known as bit). If it is the natural logarithm, then the unit is the nat. Hartley used a base-ten logarithm, and with this base, the unit of information is called the hartley (aka ban or dit) in his honor. It is also known as the Hartley entropy. (en)
- La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde | A | denota la cardinalidad de A. Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley. (es)
- La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
|
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 3836 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
dbp:id
|
- 6070 (xsd:integer)
- 6082 (xsd:integer)
|
dbp:title
|
- Derivation of Hartley function (en)
- Hartley function (en)
|
dbp:wikiPageUsesTemplate
| |
dcterms:subject
| |
rdfs:comment
|
- Hartleyova funkce, kterou zavedl v roce 1928 americký vynálezce , je jedním ze způsobů měření neurčitosti. Pro zadanou konečnou množinu je funkce dána vzorcem: kde značí mohutnost množiny . Je-li základem logaritmu hodnota 2, pak je výsledná jednotka neurčitosti označována shannon. Jedná-li se o přirozený logaritmus o základu e, pak je výsledná jednotka neurčitosti označována . Sám Hartley používal desítkový logaritmus od základu 10, proto je při použití desítkového logaritmu vzniklá jednotka neurčitosti nazývána . (cs)
- La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928. Si se elige uniformemente al azar una muestra de un conjunto finito A, la información que se revela con el resultado está dada por la función de Hartley donde | A | denota la cardinalidad de A. Si la base del logaritmo es 2, la unidad de medida de la incertidumbre es el shannon. Si es el logaritmo natural, entonces la unidad es el nat. Hartley usó un logaritmo en base 10, y en esta base la unidad de información se denomina hartley en su honor. También se conoce como entropía de Hartley. (es)
- La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
- The Hartley function is a measure of uncertainty, introduced by Ralph Hartley in 1928. If a sample from a finite set A uniformly at random is picked, the information revealed after the outcome is known is given by the Hartley function where |A| denotes the cardinality of A. (en)
|
rdfs:label
|
- Hartleyova funkce (cs)
- Hartley function (en)
- Función de Hartley (es)
- Entropie de Hartley (fr)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:isPrimaryTopicOf
| |
is dbo:knownFor
of | |
is dbo:wikiPageRedirects
of | |
is dbo:wikiPageWikiLink
of | |
is dbp:knownFor
of | |
is foaf:primaryTopic
of | |