This HTML5 document contains 124 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dctermshttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-cahttp://ca.dbpedia.org/resource/
dbpedia-kohttp://ko.dbpedia.org/resource/
n29http://su.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
n18https://global.dbpedia.org/id/
n28https://archive.org/details/advancedeconomet00amem/page/
dbpedia-hehttp://he.dbpedia.org/resource/
yagohttp://dbpedia.org/class/yago/
n10https://archive.today/20121215055105/http:/www4.utsouthwestern.edu/wardlab/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-nnhttp://nn.dbpedia.org/resource/
freebasehttp://rdf.freebase.com/ns/
dbpedia-plhttp://pl.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
dbpedia-ithttp://it.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
n25https://archive.org/details/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbchttp://dbpedia.org/resource/Category:
dbphttp://dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
dbpedia-nlhttp://nl.dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbr:Cramér–Rao_bound
rdf:type
yago:Difference104748836 yago:Quality104723816 yago:Attribute100024264 yago:WikicatInequalities yago:Abstraction100002137 yago:Inequality104752221 yago:WikicatStatisticalInequalities
rdfs:label
Desigualtat de Cramér-Rao 크라메르-라오 하한 Cramér-Rao-ongelijkheid Cota de Cramér-Rao Cramér-Rao-Ungleichung Неравенство Крамера — Рао Borne de Cramér-Rao Disuguaglianza di Cramér-Rao Нерівність Крамера — Рао Cramér–Rao bound Nierówność Rao-Craméra クラメール・ラオの限界
rdfs:comment
Неравенство Краме́ра — Ра́о — неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера. Названо по именам шведского математика Харальда Крамера и индийского математика Кальямпуди Рао, но независимо от них устанавливалось также Фреше, (фр. Georges Darmois), (англ. Alexander Aitken) и (Harold Silverstone). Известно обобщение в квантовой теории оценивания — квантовое неравенство Крамера — Рао. En estadística, el llindar de Cramér-Rao (abreujada CRB per les seves sigles de l'anglès) o llindar inferior de Cramér-Rao (CRLB), anomenat així en honor de Harald Cramér i Calyampudi Radhakrishna Rao, expressa una cota inferior per a la variància d'un estimador no esbiaixat, basat en la informació de Fisher. Estableix que la inversa multiplicativa de la informació de Fisher d'un paràmetre ,, és una cota inferior per a la variància d'un estimador no esbiaixat del paràmetre (denotat mitjançant ). és la funció de versemblança. В математичній статистиці нерівністю Крамера—Рао (на честь Гаральда Крамера та К.Р. Рао) називається нерівність, яка при деяких умовах, що накладені на статистичну модель, дає нижню границю для дисперсії оцінки невідомого параметра, виражаючи її через інформацію за Фішером. En statistique, la borne Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais, basée sur l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao. Elle énonce que l'inverse de l'information de Fisher, , d'un paramètre θ, est un minorant de la variance d'un estimateur sans biais de ce paramètre (noté ). Si le modèle est régulier, la borne de Cramer Rao peut s'écrire :où L(X;θ) est la fonction de vraisemblance. In estimation theory and statistics, the Cramér–Rao bound (CRB) expresses a lower bound on the variance of unbiased estimators of a deterministic (fixed, though unknown) parameter, the variance of any such estimator is at least as high as the inverse of the Fisher information. Equivalently, it expresses an upper bound on the precision (the inverse of variance) of unbiased estimators: the precision of any such estimator is at most the Fisher information.The result is named in honor of Harald Cramér and C. R. Rao, but has independently also been derived by Maurice Fréchet, Georges Darmois, as well as Alexander Aitken and Harold Silverstone. In statistica, la disuguaglianza di Cramér-Rao, che prende il nome da Harald Cramér e Calyampudi Radhakrishna Rao, afferma che il reciproco della matrice informazione di Fisher per un parametro costituisce un limite inferiore alla varianza di uno stimatore corretto per il parametro (denotato ): In alcuni casi, non esiste uno stimatore corretto che consegue il limite inferiore così stabilito. Non è infrequente trovare riferimenti alla disuguaglianza di Cramér-Rao come al limite inferiore di Cramér-Rao. En estadística, la cota de Cramér-Rao (abreviada CRB por sus siglas del inglés) o cota inferior de Cramér-Rao (CRLB), llamada así en honor a Harald Cramér y Calyampudi Radhakrishna Rao, expresa una cota inferior para la varianza de un estimador insesgado, basado en la . Establece que la inversa multiplicativa de la información de Fisher de un parámetro , , es una cota inferior para la varianza de un estimador insesgado del parámetro (denotado mediante ). Nótese que es la función de verosimilitud. En algunos casos, no existe un estimador insesgado que alcance la cota inferior. 크라메르-라오 하한(Cramér-Rao lower bound)은 확률적으로 분포하는 데이터의 분산에 대한 이론적인 하한이다. 약자로 CRLB라고도 한다. 여기서 정의되는 하한은 다음과 같이 피셔 정보 의 역수가 된다. 즉, 여기서 피셔 정보는 다음과 같이 정의된다. 여기서 는 확률밀도 함수의 자연로그를 나타내고, 는 에 대한 기댓값을 나타낸다. Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy). W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera. In de schattingstheorie, een deelgebied van de wiskundige statistiek, is de Cramér-Rao-onglijkheid, of ongelijkheid van Cramér-Rao een ongelijkheid die een ondergrens geeft voor de variantie van een puntschatter. Dit geeft de mogelijkheid schatters met elkaar te vergelijken. De ongelijkheid is genoemd naar de Zweedse statisticus Harald Cramér en de Indiase statisticus C.R. Rao. Onder bepaalde voorwaarden is voor zuivere schatters deze ondergrens gelijk aan het omgekeerde van de fisherinformatie. Die Cramér-Rao-Ungleichung, auch Informationsungleichung oder Fréchet-Ungleichung genannt, ist eine zentrale Ungleichung der Schätztheorie, einem Teilgebiet der mathematischen Statistik. Sie liefert in regulären statistischen Modellen eine Abschätzung für die Varianz von Punktschätzern und damit eine Möglichkeit, unterschiedliche Schätzer miteinander zu vergleichen sowie ein Kriterium für die Bestimmung von gleichmäßig besten erwartungstreuen Schätzern. Die Ungleichung ist nach Harald Cramér und Calyampudi Radhakrishna Rao beziehungsweise nach Maurice René Fréchet benannt. ・統計学におけるクラメール・ラオの限界(CRB)(クラメールラオのげんかい、英: Cramér–Rao bound)(クラメール・ラオの下限(CRLB)、クラメール・ラオの不等式、Frechet–Darmois–Cramér–Rao 不等式、情報不等式とも)とは、ある確率分布の未知母数を推定する不偏推定量には、その分散についてある下限値が存在することを示すものである。名称は、1940年代にそれぞれ独立に推定精度に関する限界を見出した、ハラルド・クラメール、、モーリス・ルネ・フレシェ、にちなむ。 最も単純に述べると、『任意の不偏推定量の分散は、 そのフィッシャー情報量の逆数以上になる』というものである。不偏な推定量がこの下限を達成するとき、その推定量は(完全な)であるという。この場合、その推定量はあらゆる不偏推定量の中でが最小のものとなるため、必然的に(MVU推定量)にもなる。 しかしながら、どんな不偏推定量を考えても分散が決してクラメール・ラオの下限に到達できないようなケースもある(MVU推定量が存在するときでもこれは起こりえる)。 クラメール・ラオの限界には、不偏でない推定量に対するバージョンもある。不偏性の条件を取り除くことで、推定量の分散・平均二乗誤差が、不偏の場合のクラメール・ラオの下限を「下回る」ようなケースも存在する。も参照。
dcterms:subject
dbc:Articles_containing_proofs dbc:Statistical_inequalities dbc:Estimation_theory
dbo:wikiPageID
581124
dbo:wikiPageRevisionID
1118378368
dbo:wikiPageWikiLink
dbc:Estimation_theory dbr:Unbiased_estimator dbr:Harold_Silverstone dbr:Moment_about_the_mean dbr:Alexander_Aitken dbr:Covariance_matrix dbr:Trace_(matrix) dbr:Scalar_(mathematics) dbc:Articles_containing_proofs dbr:Minimum_variance_unbiased dbr:Precision_(statistics) dbr:Likelihood_function dbr:Statistics dbc:Statistical_inequalities dbr:Covariance dbr:Georges_Darmois dbr:Chain_rule dbr:Multivariate_normal_distribution dbr:Chapman–Robbins_bound dbr:Jacobian_matrix dbr:Natural_logarithm dbr:Continuously_differentiable dbr:Normal_distribution dbr:Vector_space dbr:Multiplicative_inverse dbr:Fisher_information dbr:Statistic dbr:Maurice_René_Fréchet dbr:C._R._Rao dbr:Variance dbr:Cauchy–Schwarz_inequality dbr:Positive_semidefinite_matrix dbr:Random_variable dbr:Fisher_information_matrix dbr:Kullback's_inequality dbr:Brascamp–Lieb_inequality dbr:Expected_value dbr:Estimation_theory dbr:Estimator dbr:Harald_Cramér dbr:Efficiency_(statistics) dbr:Mean_squared_error dbr:Probability_density_function dbr:Score_(statistics) dbr:Estimator_bias
dbo:wikiPageExternalLink
n10:fandplimittool.asp n25:advancedeconomet00amem n28:14
owl:sameAs
dbpedia-he:חסם_קרמר-ראו dbpedia-ja:クラメール・ラオの限界 freebase:m.02s51j dbpedia-de:Cramér-Rao-Ungleichung n18:C9Ab dbpedia-it:Disuguaglianza_di_Cramér-Rao dbpedia-ko:크라메르-라오_하한 dbpedia-ca:Desigualtat_de_Cramér-Rao dbpedia-fr:Borne_de_Cramér-Rao dbpedia-nl:Cramér-Rao-ongelijkheid dbpedia-uk:Нерівність_Крамера_—_Рао dbpedia-es:Cota_de_Cramér-Rao dbpedia-pl:Nierówność_Rao-Craméra n29:Cramér-Rao_inequality wikidata:Q1138810 dbpedia-ru:Неравенство_Крамера_—_Рао dbpedia-nn:Cramér-Rao-grensa
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:Em dbt:Math_proof dbt:Cite_book dbt:Short_description
dbp:proof
First equation: Let be an infinitesimal, then for any , plugging in, we have Plugging this into multivariate Chapman–Robbins bound gives . Second equation: It suffices to prove this for scalar case, with taking values in . Because for general , we can take any , then defining , the scalar case givesThis holds for all , so we can concludeThe scalar case states that with . Let be an infinitesimal, then for any , taking in the single-variate Chapman–Robbins bound gives . By linear algebra, for any positive-definite matrix , thus we obtain
dbp:title
Proof
dbp:drop
hidden
dbo:abstract
In de schattingstheorie, een deelgebied van de wiskundige statistiek, is de Cramér-Rao-onglijkheid, of ongelijkheid van Cramér-Rao een ongelijkheid die een ondergrens geeft voor de variantie van een puntschatter. Dit geeft de mogelijkheid schatters met elkaar te vergelijken. De ongelijkheid is genoemd naar de Zweedse statisticus Harald Cramér en de Indiase statisticus C.R. Rao. Onder bepaalde voorwaarden is voor zuivere schatters deze ondergrens gelijk aan het omgekeerde van de fisherinformatie. In statistica, la disuguaglianza di Cramér-Rao, che prende il nome da Harald Cramér e Calyampudi Radhakrishna Rao, afferma che il reciproco della matrice informazione di Fisher per un parametro costituisce un limite inferiore alla varianza di uno stimatore corretto per il parametro (denotato ): In alcuni casi, non esiste uno stimatore corretto che consegue il limite inferiore così stabilito. Non è infrequente trovare riferimenti alla disuguaglianza di Cramér-Rao come al limite inferiore di Cramér-Rao. Si ritiene che il matematico francese Maurice René Fréchet sia stato il primo a scoprire e dimostrare questa disuguaglianza. En estadística, la cota de Cramér-Rao (abreviada CRB por sus siglas del inglés) o cota inferior de Cramér-Rao (CRLB), llamada así en honor a Harald Cramér y Calyampudi Radhakrishna Rao, expresa una cota inferior para la varianza de un estimador insesgado, basado en la . Establece que la inversa multiplicativa de la información de Fisher de un parámetro , , es una cota inferior para la varianza de un estimador insesgado del parámetro (denotado mediante ). Nótese que es la función de verosimilitud. En algunos casos, no existe un estimador insesgado que alcance la cota inferior. A esta cota se la conoce también como la desigualdad de Cramér-Rao o como la desigualdad de información. Die Cramér-Rao-Ungleichung, auch Informationsungleichung oder Fréchet-Ungleichung genannt, ist eine zentrale Ungleichung der Schätztheorie, einem Teilgebiet der mathematischen Statistik. Sie liefert in regulären statistischen Modellen eine Abschätzung für die Varianz von Punktschätzern und damit eine Möglichkeit, unterschiedliche Schätzer miteinander zu vergleichen sowie ein Kriterium für die Bestimmung von gleichmäßig besten erwartungstreuen Schätzern. Die Ungleichung ist nach Harald Cramér und Calyampudi Radhakrishna Rao beziehungsweise nach Maurice René Fréchet benannt. In estimation theory and statistics, the Cramér–Rao bound (CRB) expresses a lower bound on the variance of unbiased estimators of a deterministic (fixed, though unknown) parameter, the variance of any such estimator is at least as high as the inverse of the Fisher information. Equivalently, it expresses an upper bound on the precision (the inverse of variance) of unbiased estimators: the precision of any such estimator is at most the Fisher information.The result is named in honor of Harald Cramér and C. R. Rao, but has independently also been derived by Maurice Fréchet, Georges Darmois, as well as Alexander Aitken and Harold Silverstone. An unbiased estimator that achieves this lower bound is said to be (fully) efficient. Such a solution achieves the lowest possible mean squared error among all unbiased methods, and is therefore the minimum variance unbiased (MVU) estimator. However, in some cases, no unbiased technique exists which achieves the bound. This may occur either if for any unbiased estimator, there exists another with a strictly smaller variance, or if an MVU estimator exists, but its variance is strictly greater than the inverse of the Fisher information. The Cramér–Rao bound can also be used to bound the variance of biased estimators of given bias. In some cases, a biased approach can result in both a variance and a mean squared error that are below the unbiased Cramér–Rao lower bound; see estimator bias. Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy). W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera. Następujące sformułowania nierówności wymienione są od najprostszej do bardziej ogólnej wersji. Wszystkie sformułowania wymagają pewnych warunków regularności spełnianych przez wiele „porządnych” rozkładów prawdopodobieństwa. Warunki te wymienione są . En statistique, la borne Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais, basée sur l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao. Elle énonce que l'inverse de l'information de Fisher, , d'un paramètre θ, est un minorant de la variance d'un estimateur sans biais de ce paramètre (noté ). Si le modèle est régulier, la borne de Cramer Rao peut s'écrire :où L(X;θ) est la fonction de vraisemblance. Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure. ・統計学におけるクラメール・ラオの限界(CRB)(クラメールラオのげんかい、英: Cramér–Rao bound)(クラメール・ラオの下限(CRLB)、クラメール・ラオの不等式、Frechet–Darmois–Cramér–Rao 不等式、情報不等式とも)とは、ある確率分布の未知母数を推定する不偏推定量には、その分散についてある下限値が存在することを示すものである。名称は、1940年代にそれぞれ独立に推定精度に関する限界を見出した、ハラルド・クラメール、、モーリス・ルネ・フレシェ、にちなむ。 最も単純に述べると、『任意の不偏推定量の分散は、 そのフィッシャー情報量の逆数以上になる』というものである。不偏な推定量がこの下限を達成するとき、その推定量は(完全な)であるという。この場合、その推定量はあらゆる不偏推定量の中でが最小のものとなるため、必然的に(MVU推定量)にもなる。 しかしながら、どんな不偏推定量を考えても分散が決してクラメール・ラオの下限に到達できないようなケースもある(MVU推定量が存在するときでもこれは起こりえる)。 クラメール・ラオの限界には、不偏でない推定量に対するバージョンもある。不偏性の条件を取り除くことで、推定量の分散・平均二乗誤差が、不偏の場合のクラメール・ラオの下限を「下回る」ようなケースも存在する。も参照。 Неравенство Краме́ра — Ра́о — неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера. Названо по именам шведского математика Харальда Крамера и индийского математика Кальямпуди Рао, но независимо от них устанавливалось также Фреше, (фр. Georges Darmois), (англ. Alexander Aitken) и (Harold Silverstone). Известно обобщение в квантовой теории оценивания — квантовое неравенство Крамера — Рао. 크라메르-라오 하한(Cramér-Rao lower bound)은 확률적으로 분포하는 데이터의 분산에 대한 이론적인 하한이다. 약자로 CRLB라고도 한다. 여기서 정의되는 하한은 다음과 같이 피셔 정보 의 역수가 된다. 즉, 여기서 피셔 정보는 다음과 같이 정의된다. 여기서 는 확률밀도 함수의 자연로그를 나타내고, 는 에 대한 기댓값을 나타낸다. В математичній статистиці нерівністю Крамера—Рао (на честь Гаральда Крамера та К.Р. Рао) називається нерівність, яка при деяких умовах, що накладені на статистичну модель, дає нижню границю для дисперсії оцінки невідомого параметра, виражаючи її через інформацію за Фішером. En estadística, el llindar de Cramér-Rao (abreujada CRB per les seves sigles de l'anglès) o llindar inferior de Cramér-Rao (CRLB), anomenat així en honor de Harald Cramér i Calyampudi Radhakrishna Rao, expressa una cota inferior per a la variància d'un estimador no esbiaixat, basat en la informació de Fisher. Estableix que la inversa multiplicativa de la informació de Fisher d'un paràmetre ,, és una cota inferior per a la variància d'un estimador no esbiaixat del paràmetre (denotat mitjançant ). és la funció de versemblança. En alguns casos, no existeix un estimador no esbiaixats que pugui aconseguir aquest llindar inferior. A aquesta cota la hi coneix també com la desigualtat de Cramér-Rao o com la desigualtat d'informació.
prov:wasDerivedFrom
wikipedia-en:Cramér–Rao_bound?oldid=1118378368&ns=0
dbo:wikiPageLength
24417
foaf:isPrimaryTopicOf
wikipedia-en:Cramér–Rao_bound