An Entity of Type: Difference104748836, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

In estimation theory and statistics, the Cramér–Rao bound (CRB) expresses a lower bound on the variance of unbiased estimators of a deterministic (fixed, though unknown) parameter, the variance of any such estimator is at least as high as the inverse of the Fisher information. Equivalently, it expresses an upper bound on the precision (the inverse of variance) of unbiased estimators: the precision of any such estimator is at most the Fisher information.The result is named in honor of Harald Cramér and C. R. Rao, but has independently also been derived by Maurice Fréchet, Georges Darmois, as well as Alexander Aitken and Harold Silverstone.

Property Value
dbo:abstract
  • En estadística, el llindar de Cramér-Rao (abreujada CRB per les seves sigles de l'anglès) o llindar inferior de Cramér-Rao (CRLB), anomenat així en honor de Harald Cramér i Calyampudi Radhakrishna Rao, expressa una cota inferior per a la variància d'un estimador no esbiaixat, basat en la informació de Fisher. Estableix que la inversa multiplicativa de la informació de Fisher d'un paràmetre ,, és una cota inferior per a la variància d'un estimador no esbiaixat del paràmetre (denotat mitjançant ). és la funció de versemblança. En alguns casos, no existeix un estimador no esbiaixats que pugui aconseguir aquest llindar inferior. A aquesta cota la hi coneix també com la desigualtat de Cramér-Rao o com la desigualtat d'informació. (ca)
  • Die Cramér-Rao-Ungleichung, auch Informationsungleichung oder Fréchet-Ungleichung genannt, ist eine zentrale Ungleichung der Schätztheorie, einem Teilgebiet der mathematischen Statistik. Sie liefert in regulären statistischen Modellen eine Abschätzung für die Varianz von Punktschätzern und damit eine Möglichkeit, unterschiedliche Schätzer miteinander zu vergleichen sowie ein Kriterium für die Bestimmung von gleichmäßig besten erwartungstreuen Schätzern. Die Ungleichung ist nach Harald Cramér und Calyampudi Radhakrishna Rao beziehungsweise nach Maurice René Fréchet benannt. (de)
  • In estimation theory and statistics, the Cramér–Rao bound (CRB) expresses a lower bound on the variance of unbiased estimators of a deterministic (fixed, though unknown) parameter, the variance of any such estimator is at least as high as the inverse of the Fisher information. Equivalently, it expresses an upper bound on the precision (the inverse of variance) of unbiased estimators: the precision of any such estimator is at most the Fisher information.The result is named in honor of Harald Cramér and C. R. Rao, but has independently also been derived by Maurice Fréchet, Georges Darmois, as well as Alexander Aitken and Harold Silverstone. An unbiased estimator that achieves this lower bound is said to be (fully) efficient. Such a solution achieves the lowest possible mean squared error among all unbiased methods, and is therefore the minimum variance unbiased (MVU) estimator. However, in some cases, no unbiased technique exists which achieves the bound. This may occur either if for any unbiased estimator, there exists another with a strictly smaller variance, or if an MVU estimator exists, but its variance is strictly greater than the inverse of the Fisher information. The Cramér–Rao bound can also be used to bound the variance of biased estimators of given bias. In some cases, a biased approach can result in both a variance and a mean squared error that are below the unbiased Cramér–Rao lower bound; see estimator bias. (en)
  • En estadística, la cota de Cramér-Rao (abreviada CRB por sus siglas del inglés) o cota inferior de Cramér-Rao (CRLB), llamada así en honor a Harald Cramér y Calyampudi Radhakrishna Rao, expresa una cota inferior para la varianza de un estimador insesgado, basado en la . Establece que la inversa multiplicativa de la información de Fisher de un parámetro , , es una cota inferior para la varianza de un estimador insesgado del parámetro (denotado mediante ). Nótese que es la función de verosimilitud. En algunos casos, no existe un estimador insesgado que alcance la cota inferior. A esta cota se la conoce también como la desigualdad de Cramér-Rao o como la desigualdad de información. (es)
  • En statistique, la borne Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais, basée sur l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao. Elle énonce que l'inverse de l'information de Fisher, , d'un paramètre θ, est un minorant de la variance d'un estimateur sans biais de ce paramètre (noté ). Si le modèle est régulier, la borne de Cramer Rao peut s'écrire :où L(X;θ) est la fonction de vraisemblance. Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure. (fr)
  • In statistica, la disuguaglianza di Cramér-Rao, che prende il nome da Harald Cramér e Calyampudi Radhakrishna Rao, afferma che il reciproco della matrice informazione di Fisher per un parametro costituisce un limite inferiore alla varianza di uno stimatore corretto per il parametro (denotato ): In alcuni casi, non esiste uno stimatore corretto che consegue il limite inferiore così stabilito. Non è infrequente trovare riferimenti alla disuguaglianza di Cramér-Rao come al limite inferiore di Cramér-Rao. Si ritiene che il matematico francese Maurice René Fréchet sia stato il primo a scoprire e dimostrare questa disuguaglianza. (it)
  • 크라메르-라오 하한(Cramér-Rao lower bound)은 확률적으로 분포하는 데이터의 분산에 대한 이론적인 하한이다. 약자로 CRLB라고도 한다. 여기서 정의되는 하한은 다음과 같이 피셔 정보 의 역수가 된다. 즉, 여기서 피셔 정보는 다음과 같이 정의된다. 여기서 는 확률밀도 함수의 자연로그를 나타내고, 는 에 대한 기댓값을 나타낸다. (ko)
  • In de schattingstheorie, een deelgebied van de wiskundige statistiek, is de Cramér-Rao-onglijkheid, of ongelijkheid van Cramér-Rao een ongelijkheid die een ondergrens geeft voor de variantie van een puntschatter. Dit geeft de mogelijkheid schatters met elkaar te vergelijken. De ongelijkheid is genoemd naar de Zweedse statisticus Harald Cramér en de Indiase statisticus C.R. Rao. Onder bepaalde voorwaarden is voor zuivere schatters deze ondergrens gelijk aan het omgekeerde van de fisherinformatie. (nl)
  • ・統計学におけるクラメール・ラオの限界(CRB)(クラメールラオのげんかい、英: Cramér–Rao bound)(クラメール・ラオの下限(CRLB)、クラメール・ラオの不等式、Frechet–Darmois–Cramér–Rao 不等式、情報不等式とも)とは、ある確率分布の未知母数を推定する不偏推定量には、その分散についてある下限値が存在することを示すものである。名称は、1940年代にそれぞれ独立に推定精度に関する限界を見出した、ハラルド・クラメール、、モーリス・ルネ・フレシェ、にちなむ。 最も単純に述べると、『任意の不偏推定量の分散は、 そのフィッシャー情報量の逆数以上になる』というものである。不偏な推定量がこの下限を達成するとき、その推定量は(完全な)であるという。この場合、その推定量はあらゆる不偏推定量の中でが最小のものとなるため、必然的に(MVU推定量)にもなる。 しかしながら、どんな不偏推定量を考えても分散が決してクラメール・ラオの下限に到達できないようなケースもある(MVU推定量が存在するときでもこれは起こりえる)。 クラメール・ラオの限界には、不偏でない推定量に対するバージョンもある。不偏性の条件を取り除くことで、推定量の分散・平均二乗誤差が、不偏の場合のクラメール・ラオの下限を「下回る」ようなケースも存在する。も参照。 (ja)
  • Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy). W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera. Następujące sformułowania nierówności wymienione są od najprostszej do bardziej ogólnej wersji. Wszystkie sformułowania wymagają pewnych warunków regularności spełnianych przez wiele „porządnych” rozkładów prawdopodobieństwa. Warunki te wymienione są . (pl)
  • Неравенство Краме́ра — Ра́о — неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера. Названо по именам шведского математика Харальда Крамера и индийского математика Кальямпуди Рао, но независимо от них устанавливалось также Фреше, (фр. Georges Darmois), (англ. Alexander Aitken) и (Harold Silverstone). Известно обобщение в квантовой теории оценивания — квантовое неравенство Крамера — Рао. (ru)
  • В математичній статистиці нерівністю Крамера—Рао (на честь Гаральда Крамера та К.Р. Рао) називається нерівність, яка при деяких умовах, що накладені на статистичну модель, дає нижню границю для дисперсії оцінки невідомого параметра, виражаючи її через інформацію за Фішером. (uk)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 581124 (xsd:integer)
dbo:wikiPageLength
  • 24417 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1118378368 (xsd:integer)
dbo:wikiPageWikiLink
dbp:drop
  • hidden (en)
dbp:proof
  • First equation: Let be an infinitesimal, then for any , plugging in, we have Plugging this into multivariate Chapman–Robbins bound gives . Second equation: It suffices to prove this for scalar case, with taking values in . Because for general , we can take any , then defining , the scalar case givesThis holds for all , so we can concludeThe scalar case states that with . Let be an infinitesimal, then for any , taking in the single-variate Chapman–Robbins bound gives . By linear algebra, for any positive-definite matrix , thus we obtain (en)
dbp:title
  • Proof (en)
dbp:wikiPageUsesTemplate
dcterms:subject
rdf:type
rdfs:comment
  • Die Cramér-Rao-Ungleichung, auch Informationsungleichung oder Fréchet-Ungleichung genannt, ist eine zentrale Ungleichung der Schätztheorie, einem Teilgebiet der mathematischen Statistik. Sie liefert in regulären statistischen Modellen eine Abschätzung für die Varianz von Punktschätzern und damit eine Möglichkeit, unterschiedliche Schätzer miteinander zu vergleichen sowie ein Kriterium für die Bestimmung von gleichmäßig besten erwartungstreuen Schätzern. Die Ungleichung ist nach Harald Cramér und Calyampudi Radhakrishna Rao beziehungsweise nach Maurice René Fréchet benannt. (de)
  • 크라메르-라오 하한(Cramér-Rao lower bound)은 확률적으로 분포하는 데이터의 분산에 대한 이론적인 하한이다. 약자로 CRLB라고도 한다. 여기서 정의되는 하한은 다음과 같이 피셔 정보 의 역수가 된다. 즉, 여기서 피셔 정보는 다음과 같이 정의된다. 여기서 는 확률밀도 함수의 자연로그를 나타내고, 는 에 대한 기댓값을 나타낸다. (ko)
  • In de schattingstheorie, een deelgebied van de wiskundige statistiek, is de Cramér-Rao-onglijkheid, of ongelijkheid van Cramér-Rao een ongelijkheid die een ondergrens geeft voor de variantie van een puntschatter. Dit geeft de mogelijkheid schatters met elkaar te vergelijken. De ongelijkheid is genoemd naar de Zweedse statisticus Harald Cramér en de Indiase statisticus C.R. Rao. Onder bepaalde voorwaarden is voor zuivere schatters deze ondergrens gelijk aan het omgekeerde van de fisherinformatie. (nl)
  • ・統計学におけるクラメール・ラオの限界(CRB)(クラメールラオのげんかい、英: Cramér–Rao bound)(クラメール・ラオの下限(CRLB)、クラメール・ラオの不等式、Frechet–Darmois–Cramér–Rao 不等式、情報不等式とも)とは、ある確率分布の未知母数を推定する不偏推定量には、その分散についてある下限値が存在することを示すものである。名称は、1940年代にそれぞれ独立に推定精度に関する限界を見出した、ハラルド・クラメール、、モーリス・ルネ・フレシェ、にちなむ。 最も単純に述べると、『任意の不偏推定量の分散は、 そのフィッシャー情報量の逆数以上になる』というものである。不偏な推定量がこの下限を達成するとき、その推定量は(完全な)であるという。この場合、その推定量はあらゆる不偏推定量の中でが最小のものとなるため、必然的に(MVU推定量)にもなる。 しかしながら、どんな不偏推定量を考えても分散が決してクラメール・ラオの下限に到達できないようなケースもある(MVU推定量が存在するときでもこれは起こりえる)。 クラメール・ラオの限界には、不偏でない推定量に対するバージョンもある。不偏性の条件を取り除くことで、推定量の分散・平均二乗誤差が、不偏の場合のクラメール・ラオの下限を「下回る」ようなケースも存在する。も参照。 (ja)
  • Неравенство Краме́ра — Ра́о — неравенство, которое при некоторых условиях на статистическую модель даёт нижнюю границу для дисперсии оценки неизвестного параметра, выражая её через информацию Фишера. Названо по именам шведского математика Харальда Крамера и индийского математика Кальямпуди Рао, но независимо от них устанавливалось также Фреше, (фр. Georges Darmois), (англ. Alexander Aitken) и (Harold Silverstone). Известно обобщение в квантовой теории оценивания — квантовое неравенство Крамера — Рао. (ru)
  • В математичній статистиці нерівністю Крамера—Рао (на честь Гаральда Крамера та К.Р. Рао) називається нерівність, яка при деяких умовах, що накладені на статистичну модель, дає нижню границю для дисперсії оцінки невідомого параметра, виражаючи її через інформацію за Фішером. (uk)
  • En estadística, el llindar de Cramér-Rao (abreujada CRB per les seves sigles de l'anglès) o llindar inferior de Cramér-Rao (CRLB), anomenat així en honor de Harald Cramér i Calyampudi Radhakrishna Rao, expressa una cota inferior per a la variància d'un estimador no esbiaixat, basat en la informació de Fisher. Estableix que la inversa multiplicativa de la informació de Fisher d'un paràmetre ,, és una cota inferior per a la variància d'un estimador no esbiaixat del paràmetre (denotat mitjançant ). és la funció de versemblança. (ca)
  • In estimation theory and statistics, the Cramér–Rao bound (CRB) expresses a lower bound on the variance of unbiased estimators of a deterministic (fixed, though unknown) parameter, the variance of any such estimator is at least as high as the inverse of the Fisher information. Equivalently, it expresses an upper bound on the precision (the inverse of variance) of unbiased estimators: the precision of any such estimator is at most the Fisher information.The result is named in honor of Harald Cramér and C. R. Rao, but has independently also been derived by Maurice Fréchet, Georges Darmois, as well as Alexander Aitken and Harold Silverstone. (en)
  • En estadística, la cota de Cramér-Rao (abreviada CRB por sus siglas del inglés) o cota inferior de Cramér-Rao (CRLB), llamada así en honor a Harald Cramér y Calyampudi Radhakrishna Rao, expresa una cota inferior para la varianza de un estimador insesgado, basado en la . Establece que la inversa multiplicativa de la información de Fisher de un parámetro , , es una cota inferior para la varianza de un estimador insesgado del parámetro (denotado mediante ). Nótese que es la función de verosimilitud. En algunos casos, no existe un estimador insesgado que alcance la cota inferior. (es)
  • En statistique, la borne Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais, basée sur l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao. Elle énonce que l'inverse de l'information de Fisher, , d'un paramètre θ, est un minorant de la variance d'un estimateur sans biais de ce paramètre (noté ). Si le modèle est régulier, la borne de Cramer Rao peut s'écrire :où L(X;θ) est la fonction de vraisemblance. (fr)
  • In statistica, la disuguaglianza di Cramér-Rao, che prende il nome da Harald Cramér e Calyampudi Radhakrishna Rao, afferma che il reciproco della matrice informazione di Fisher per un parametro costituisce un limite inferiore alla varianza di uno stimatore corretto per il parametro (denotato ): In alcuni casi, non esiste uno stimatore corretto che consegue il limite inferiore così stabilito. Non è infrequente trovare riferimenti alla disuguaglianza di Cramér-Rao come al limite inferiore di Cramér-Rao. (it)
  • Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy). W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera. (pl)
rdfs:label
  • Desigualtat de Cramér-Rao (ca)
  • Cramér-Rao-Ungleichung (de)
  • Cota de Cramér-Rao (es)
  • Cramér–Rao bound (en)
  • Borne de Cramér-Rao (fr)
  • Disuguaglianza di Cramér-Rao (it)
  • 크라메르-라오 하한 (ko)
  • クラメール・ラオの限界 (ja)
  • Cramér-Rao-ongelijkheid (nl)
  • Nierówność Rao-Craméra (pl)
  • Неравенство Крамера — Рао (ru)
  • Нерівність Крамера — Рао (uk)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is dbp:knownFor of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License