An Entity of Type: Thing, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

In various science/engineering applications, such as independent component analysis, image analysis, genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations.

Property Value
dbo:abstract
  • Odhad entropie je v mnoha oborech užitečný jako odhad systémů nebo procesů, který je založen na (jejich) pozorování. Nejjednodušší a nejčastěji používaný je odhad založený na histogramu, avšak jsou používány i jiné přístupy, přičemž každý má své výhody a nevýhody. Hlavním hlediskem při výběru metody je otázka kompromisu mezi tendencí rozptylem odhadu, ale faktorem může být i povaha (podezřelost) distribuce dat. (cs)
  • Das Themengebiet der Entropieschätzung befasst sich mit den unterschiedlichen Methoden für die statistische Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben. Für die formale Berechnung derShannon-Entropie ist gemäß Definition die Kenntnis der Wahrscheinlichkeiten der zugrunde liegendenNachrichtenquelle notwendig. Jedoch sind in der Praxis diese Wahrscheinlichkeiten meistens unbekannt, und man istdarauf angewiesen, die Wahrscheinlichkeiten der Nachrichten aus einer vorgegebenen endlichen Stichprobezu schätzen, um damit auf die Entropie der Gesamtheit zu schließen. Aufgrund der naturgegebenenstatistischen Schwankungen in endlichen Stichproben sind dabei systematische und unsystematischeAbweichungen bei den Schätzungen zu erwarten. Bei dem gewöhnlichen Maximum-Likelihood-Schätzer für die Entropie werden die Wahrscheinlichkeiten , , in der Shannon-Entropie , durch die Maximum-Likelihood-Schätzer ersetzt. Erscheint im Falle voninsgesamt Beobachtungen das Ereignis mit einer absoluten Häufigkeitvon , so führt die Verwendung von zu dem in der Praxis häufig verwendeten Maximum-Likelihood-Schätzer für die Entropie Dieser Schätzer ist aus statistischer Sicht besonders geeignet, wenn die Stichprobe sehr viel größer als die mögliche Anzahl der unterschiedlichen Ereignisse ist, d. h. gegeben ist. Andernfalls führt der obige Schätzer oft zu einer systematischen Unterschätzung der Entropie. Dieser Fehler wird besonders dann merklich, wenn der Umfang der Stichprobe nicht sehr viel größer als die Anzahl der unterschiedlichen Nachrichten der Quelle ist. In der Praxis ist jedoch letzteres oft von besonderem Interesse. (de)
  • In various science/engineering applications, such as independent component analysis, image analysis, genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations. The simplest and most common approach uses histogram-based estimation, but other approaches have been developed and used, each with its own benefits and drawbacks. The main factor in choosing a method is often a trade-off between the bias and the variance of the estimate, although the nature of the (suspected) distribution of the data may also be a factor. (en)
dbo:wikiPageID
  • 18246628 (xsd:integer)
dbo:wikiPageLength
  • 8161 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1007427848 (xsd:integer)
dbo:wikiPageWikiLink
dbp:wikiPageUsesTemplate
dcterms:subject
rdfs:comment
  • Odhad entropie je v mnoha oborech užitečný jako odhad systémů nebo procesů, který je založen na (jejich) pozorování. Nejjednodušší a nejčastěji používaný je odhad založený na histogramu, avšak jsou používány i jiné přístupy, přičemž každý má své výhody a nevýhody. Hlavním hlediskem při výběru metody je otázka kompromisu mezi tendencí rozptylem odhadu, ale faktorem může být i povaha (podezřelost) distribuce dat. (cs)
  • Das Themengebiet der Entropieschätzung befasst sich mit den unterschiedlichen Methoden für die statistische Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben. Für die formale Berechnung derShannon-Entropie ist gemäß Definition die Kenntnis der Wahrscheinlichkeiten der zugrunde liegendenNachrichtenquelle notwendig. Jedoch sind in der Praxis diese Wahrscheinlichkeiten meistens unbekannt, und man istdarauf angewiesen, die Wahrscheinlichkeiten der Nachrichten aus einer vorgegebenen endlichen Stichprobezu schätzen, um damit auf die Entropie der Gesamtheit zu schließen. , (de)
  • In various science/engineering applications, such as independent component analysis, image analysis, genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations. (en)
rdfs:label
  • Odhad entropie (cs)
  • Entropieschätzung (de)
  • Entropy estimation (en)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is rdfs:seeAlso of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License