This HTML5 document contains 154 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
n23http://dbpedia.org/resource/Wikt:
dctermshttp://purl.org/dc/terms/
dbpedia-dahttp://da.dbpedia.org/resource/
n14https://web.archive.org/web/20120717011943/http:/www.lecb.ncifcrf.gov/~toms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n17https://global.dbpedia.org/id/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
dbpedia-euhttp://eu.dbpedia.org/resource/
dbpedia-arhttp://ar.dbpedia.org/resource/
owlhttp://www.w3.org/2002/07/owl#
dbpedia-ithttp://it.dbpedia.org/resource/
wikipedia-enhttp://en.wikipedia.org/wiki/
n12http://www.umsl.edu/~fraundor/
dbpedia-zhhttp://zh.dbpedia.org/resource/
dbchttp://dbpedia.org/resource/Category:
provhttp://www.w3.org/ns/prov#
dbphttp://dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
dbpedia-nlhttp://nl.dbpedia.org/resource/
dbrhttp://dbpedia.org/resource/
n22http://ilab.usc.edu/surprise/
n25http://d-nb.info/gnd/

Statements

Subject Item
dbr:Information_content
rdf:type
owl:Thing
rdfs:label
Information content Autoinformazione Власна інформація 自信息 Zelfinformatie المضمون المعلومي Informationsgehalt Informazio kantitate Собственная информация
rdfs:comment
В теорії інформації вла́сна інформ́ація (англ. self-information), або несподі́ваність (англ. surprisal), — це міра кількості інформації, пов'язаної з подією в імовірнісному просторі, або зі значенням дискретної випадкової величини. Вона виражається в одиницях інформації, наприклад, в бітах, натах або гартлі, залежно від основи логарифма, який застосовується в обчисленнях. Термін власна інформація іноді використовують як синонім такого пов'язаного поняття теорії інформації, як ентропія. Ці два значення не тотожні, і ця стаття описує лише перший сенс. In information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The information content can be expressed in various units of information, of which the most common is the "bit" (more correctly called the shannon), as explained below. 在信息论中,自信息(英語:self-information),由克勞德·夏農提出,是与概率空间中的單一事件或离散随机变量的值相关的資訊量的量度。它用信息的單位表示,例如 bit、nat或是hart,使用哪个单位取决于在计算中使用的对数的底。自信息的期望值就是信息论中的熵,它反映了随机变量采样时的平均不确定程度。 Собственная информация — статистическая функция дискретной случайной величины. Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии. Для случайной величины , имеющей конечное число значений: собственная информация определяется как Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли. Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde. Dieser Begriff wurde von Claude Shannon erstmals in seiner Informationstheorie formalisiert: Der Informationsgehalt eines Zeichens ist seine statistische Signifikanz. Er bezeichnet also die minimale Anzahl von Bits, die benötigt werden, um ein Zeichen (also eine Information) darzustellen oder zu übertragen. Wichtig ist dabei, dass dies nicht unbedingt der Anzahl der tatsächlich empfangenen Bits (der Datenmenge) entspricht, da der Informationsgehalt vom semantischen Kontext abhängig ist. المضمون المعلومي كمية أساسية مشتقة من احتمال وقوع معين بالنظر إلى متغير عشوائي. ويجوز اعتبارها طريقة بديلة للتعبير عن الاحتمال، لكن لها مزايا رياضية معينة في نظرية المعلومات. Informazio-teorian, informazio kantitatea zorizko aldagai batek lagin batean eman dezakeen informazioa da. Formalki, probabilitate teorian edozein gertaerarako definitutako ausazko aldagaia da informazio kantitatea, ausazko aldagaia neurtua izango den ala ez kontuan hartu gabe. Informazio kantitatea informazio-unitateetan adierazten da. Informazio-teoriaren testuinguruan, informazio kantitatearen itxaropen matematikoa entropia da, eta zera adierazten du: behatzaile batek sistema baten ausazko aldagai baten laginketatik lortzea espero dezaken batezbesteko informazio-kantitatea. L'autoinformazione di un evento è la quantità d'incertezza associata all'evento, ovvero l'informazione che si ottiene affermando innanzitutto che tale evento si sia realizzato, e rimuovendo quindi l'incertezza associata. Tale concetto viene introdotto nell'ambito della Teoria dell'informazione, ponendone le basi. Zelfinformatie is de hoeveelheid informatie die kennis over (de uitkomst van) een bepaalde gebeurtenis, toevoegt aan iemands kennis. De hoeveelheid zelfinformatie wordt uitgedrukt in de eenheid van informatie, de bit en is nauw verwant met het begrip entropie (gemiddelde hoeveelheid informatie) uit de informatietheorie. De hoeveelheid zelfinformatie is per definitie uitsluitend afhankelijk van de kans op die gebeurtenis. En daarbij geldt: hoe kleiner deze kans, hoe groter de zelfinformatie bij het bekend worden dat die gebeurtenis zich voor heeft gedaan. De definitie is te herschrijven als:
dcterms:subject
dbc:Entropy_and_information dbc:Information_theory
dbo:wikiPageID
542447
dbo:wikiPageRevisionID
1122962463
dbo:wikiPageWikiLink
dbr:Likelihood dbr:Additive_map dbr:Log-likelihood dbr:Discrete_uniform_distribution dbr:Measure_(mathematics) dbc:Information_theory dbr:Constant_random_variable dbr:Degeneracy_(mathematics) dbr:A_priori_knowledge dbr:George_Carlin dbr:Probability_space dbr:Entropy_(information_theory) dbr:Bernoulli_trial dbr:Discrete_uniform_random_variable dbr:Probability_distribution dbr:Joint_probability_mass_function dbr:Information_theory dbr:Shannon_entropy dbr:Equiprobable dbr:Continuous_Random_Variables dbr:Euler's_number dbr:Natural_logarithm dbr:Hartley_(unit) dbr:Event_(probability_theory) dbr:Lottery dbr:Myron_Tribus dbr:Sampling_(signal_processing) dbr:Scoring_rule dbr:Independence_(probability_theory) dbr:Probability dbr:Outcome_(probability) dbc:Entropy_and_information dbr:Finite_measure dbr:Shannon's_source_coding_theorem dbr:Independent_events dbr:Probability_theory dbr:Surprisal_analysis dbr:Convolution dbr:Total_probability dbr:Variance dbr:Combination dbr:Statistical_independence dbr:Isomorphism dbr:Logarithm dbr:Expected_value dbr:Random_variable dbr:Fair_coin dbr:Measure_space dbr:Independent_and_identically_distributed_random_variables dbr:Twelvefold_way n23:one_in_a_million dbr:Deterministic_system dbr:Fair_dice dbr:Odds dbr:Claude_Shannon dbr:Polar_regions_of_Earth dbr:Dirac_measure dbr:Obverse_and_reverse dbr:A_Mathematical_Theory_of_Communication dbr:Categorical_variable dbr:Cauchy's_functional_equation dbr:Monotonic_function dbr:Without_loss_of_generality dbr:Sigma_additivity dbr:Discrete_Random_Variable dbr:Lottery_mathematics dbr:Shannon_(unit) dbr:Surprise_(emotion) dbr:Winning_the_lottery dbr:Joint_probability_distribution dbr:Sum_of_independent_random_variables dbr:Integer dbr:Random_variate dbr:Log-odds dbr:Discrete_random_variable dbr:Number dbr:Normalization_(statistics) dbr:Discrete_convolution dbr:Differential_entropy dbr:Probability_mass_function dbr:Mutually_exclusive dbr:One_half dbr:Units_of_information dbr:Nat_(unit) dbr:Mutual_information dbr:Support_(mathematics) dbr:Probability_measure dbr:Multinomial_distribution dbr:Bit dbr:Coin_flipping dbr:Independent_random_variables
dbo:wikiPageExternalLink
n12:egsurpri.html n14:glossary.html%23surprisal n22:
owl:sameAs
dbpedia-uk:Власна_інформація dbpedia-zh:自信息 dbpedia-it:Autoinformazione wikidata:Q735075 n17:4uCLe dbpedia-ar:المضمون_المعلومي dbpedia-eu:Informazio_kantitate dbpedia-da:Informationsmængde n25:4213883-8 dbpedia-de:Informationsgehalt dbpedia-nl:Zelfinformatie dbpedia-ru:Собственная_информация
dbp:wikiPageUsesTemplate
dbt:Authority_control dbt:Section_link dbt:Sfrac dbt:Expand_section dbt:Reflist dbt:Short_description dbt:Rp dbt:Clarify dbt:Cleanup
dbp:date
October 2018 June 2017
dbp:reason
unclear terminology In what context?
dbo:abstract
In information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome. As it is such a basic quantity, it also appears in several other settings, such as the length of a message needed to transmit the event given an optimal source coding of the random variable. The Shannon information is closely related to entropy, which is the expected value of the self-information of a random variable, quantifying how surprising the random variable is "on average". This is the average amount of self-information an observer would expect to gain about a random variable when measuring it. The information content can be expressed in various units of information, of which the most common is the "bit" (more correctly called the shannon), as explained below. المضمون المعلومي كمية أساسية مشتقة من احتمال وقوع معين بالنظر إلى متغير عشوائي. ويجوز اعتبارها طريقة بديلة للتعبير عن الاحتمال، لكن لها مزايا رياضية معينة في نظرية المعلومات. Собственная информация — статистическая функция дискретной случайной величины. Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии. Для случайной величины , имеющей конечное число значений: собственная информация определяется как Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли. Собственную информацию можно понимать как «меру неожиданности» события — чем меньше вероятность события, тем больше информации оно содержит. Zelfinformatie is de hoeveelheid informatie die kennis over (de uitkomst van) een bepaalde gebeurtenis, toevoegt aan iemands kennis. De hoeveelheid zelfinformatie wordt uitgedrukt in de eenheid van informatie, de bit en is nauw verwant met het begrip entropie (gemiddelde hoeveelheid informatie) uit de informatietheorie. De hoeveelheid zelfinformatie is per definitie uitsluitend afhankelijk van de kans op die gebeurtenis. En daarbij geldt: hoe kleiner deze kans, hoe groter de zelfinformatie bij het bekend worden dat die gebeurtenis zich voor heeft gedaan. Verder geldt voor de zelfinformatie per definitie het volgende. Als een gebeurtenis C is samengesteld uit twee van elkaar onafhankelijke gebeurtenissen A en B, dan is de informatie bij bekend worden van C, gelijk aan de som van de informatie bij het bekend worden van gebeurtenis A en gebeurtenis B afzonderlijk. Rekening houdend met deze randvoorwaarden heeft men de zelfinformatie die behoort bij een gebeurtenis A met kans gedefinieerd als: . Door deze definitie, waarin gebruik wordt gemaakt van de logaritmefunctie, is voldaan aan bovengenoemde randvoorwaarden. De definitie is te herschrijven als: В теорії інформації вла́сна інформ́ація (англ. self-information), або несподі́ваність (англ. surprisal), — це міра кількості інформації, пов'язаної з подією в імовірнісному просторі, або зі значенням дискретної випадкової величини. Вона виражається в одиницях інформації, наприклад, в бітах, натах або гартлі, залежно від основи логарифма, який застосовується в обчисленнях. Термін власна інформація іноді використовують як синонім такого пов'язаного поняття теорії інформації, як ентропія. Ці два значення не тотожні, і ця стаття описує лише перший сенс. Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde. Dieser Begriff wurde von Claude Shannon erstmals in seiner Informationstheorie formalisiert: Der Informationsgehalt eines Zeichens ist seine statistische Signifikanz. Er bezeichnet also die minimale Anzahl von Bits, die benötigt werden, um ein Zeichen (also eine Information) darzustellen oder zu übertragen. Wichtig ist dabei, dass dies nicht unbedingt der Anzahl der tatsächlich empfangenen Bits (der Datenmenge) entspricht, da der Informationsgehalt vom semantischen Kontext abhängig ist. L'autoinformazione di un evento è la quantità d'incertezza associata all'evento, ovvero l'informazione che si ottiene affermando innanzitutto che tale evento si sia realizzato, e rimuovendo quindi l'incertezza associata. Tale concetto viene introdotto nell'ambito della Teoria dell'informazione, ponendone le basi. L'ambiguità esistente tra incertezza ed informazione non deve stupire. Esse si presentano infatti come due facce della stessa medaglia: senza incertezza non c'è informazione, e quanta più incertezza c'è nel segnale aleatorio, tanto più informativo è rivelare qual è la determinazione del segnale. Fatte queste premesse, sarà più facile capire lo stretto legame tra il concetto di "autoinformazione" e quello di "probabilità". 在信息论中,自信息(英語:self-information),由克勞德·夏農提出,是与概率空间中的單一事件或离散随机变量的值相关的資訊量的量度。它用信息的單位表示,例如 bit、nat或是hart,使用哪个单位取决于在计算中使用的对数的底。自信息的期望值就是信息论中的熵,它反映了随机变量采样时的平均不确定程度。 Informazio-teorian, informazio kantitatea zorizko aldagai batek lagin batean eman dezakeen informazioa da. Formalki, probabilitate teorian edozein gertaerarako definitutako ausazko aldagaia da informazio kantitatea, ausazko aldagaia neurtua izango den ala ez kontuan hartu gabe. Informazio kantitatea informazio-unitateetan adierazten da. Informazio-teoriaren testuinguruan, informazio kantitatearen itxaropen matematikoa entropia da, eta zera adierazten du: behatzaile batek sistema baten ausazko aldagai baten laginketatik lortzea espero dezaken batezbesteko informazio-kantitatea.
prov:wasDerivedFrom
wikipedia-en:Information_content?oldid=1122962463&ns=0
dbo:wikiPageLength
26861
foaf:isPrimaryTopicOf
wikipedia-en:Information_content