About: Markov process     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : yago:StochasticProcess113561896, within Data Space : dbpedia.org associated with source document(s)
QRcode icon
http://dbpedia.org/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FMarkov_process

AttributesValues
rdf:type
rdfs:label
  • Proceso de Márkov (es)
  • Processus de Markov (fr)
  • マルコフ過程 (ja)
  • Markov process (en)
  • Markovproces (nl)
  • Марковский процесс (ru)
  • 馬可夫過程 (zh)
  • Марковський процес (uk)
rdfs:comment
  • マルコフ過程(マルコフかてい、英: Markov process)とは、マルコフ性をもつ確率過程のことをいう。すなわち、未来の挙動が現在の値だけで決定され、過去の挙動と無関係であるという性質を持つ確率過程である。 このような過程は例えば、確率的にしか記述できない物理現象の時間発展の様子に見られる。なぜなら、粒子の将来の挙動は現在の挙動によってのみ決定されるが、この性質は系の粒子数が多くなり確率論的な解析を必要とする状態にも引き継がれるからである。 ロシア人数学者、アンドレイ・マルコフにちなんで命名されている。 (ja)
  • In de kansrekening is een markovproces een stochastisch proces (opeenvolging van toevallige uitkomsten) waarvoor geldt dat het verleden irrelevant is om de toekomst te voorspellen als men het heden kent. Deze statistische eigenschap van een markovproces wordt de markoveigenschap genoemd. De eigenschap en het proces zijn genoemd naar de Russische wiskundige Andrej Markov, die de basis legde voor een grondige studie van dergelijke processen. (nl)
  • Ма́рковский проце́сс — случайный процесс, эволюция которого после любого заданного значения временно́го параметра не зависит от эволюции, предшествовавшей , при условии, что значение процесса в этот момент фиксировано («будущее» процесса не зависит от «прошлого» при известном «настоящем»; другая трактовка (Вентцель): «будущее» процесса зависит от «прошлого» лишь через «настоящее»). Процесс Маркова — модель авторегрессии первого порядка AR(1):. Марковская цепь — частный случай марковского процесса, когда пространство его состояний дискретно (то есть не более чем счётно). (ru)
  • Ма́рковський проце́с — це випадковий процес у якому ймовірність його конкретних значень у будь-який момент за умови відомих значень у попередні моменти залежить тільки від значення у найближчий (останній) момент . Іншими словами, «майбутнє» процесу залежить лише від останнього відомого стану, і не залежить від більш ранніх. (uk)
  • 在概率論及統計學中,馬可夫過程(英語:Markov process)是一個具備了馬可夫性質的隨機過程,因為俄國數學家安德雷·馬可夫得名。馬可夫過程是不具備記憶特質的(memorylessness)。換言之,馬可夫過程的条件概率僅僅與系统的當前狀態相關,而與它的過去歷史或未來狀態,都是獨立、不相關的。 具備離散狀態的馬可夫過程,通常被稱為馬可夫鏈。馬可夫鏈通常使用離散的時間集合定義,又稱離散時間馬可夫鏈。有些學者雖然採用這個術語,但允許時間可以取連續的值。 (zh)
  • En la teoría de la probabilidad y en estadística, un proceso de Márkov, llamado así por el matemático ruso Andréi Márkov, es un fenómeno aleatorio dependiente del tiempo para el cual se cumple una propiedad específica: la propiedad de Márkov. En una descripción común, un proceso estocástico con la propiedad de Márkov, o sin memoria, es uno para el cual la probabilidad condicional sobre el estado presente, futuro y pasado del sistema son independientes.​Los procesos de Márkov surgen en probabilidad y en estadística en una de dos maneras: (es)
  • En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Si la loi conditionnelle de sachant le passé, i.e. sachant est une fonction de seul, alors : où est un état quelconque du processus. L'identité ci-dessus identifie la probabilité markovienne. Andreï Markov a publié les premiers résultats de ces processus en 1906. (fr)
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Wikipage redirect
sameAs
dbp:wikiPageUsesTemplate
has abstract
  • En la teoría de la probabilidad y en estadística, un proceso de Márkov, llamado así por el matemático ruso Andréi Márkov, es un fenómeno aleatorio dependiente del tiempo para el cual se cumple una propiedad específica: la propiedad de Márkov. En una descripción común, un proceso estocástico con la propiedad de Márkov, o sin memoria, es uno para el cual la probabilidad condicional sobre el estado presente, futuro y pasado del sistema son independientes.​Los procesos de Márkov surgen en probabilidad y en estadística en una de dos maneras: 1. * Un proceso estocástico, que se define a través de un argumento separado, puede demostrarse (matemáticamente) que tiene la propiedad de Márkov y como consecuencia tiene las propiedades que se pueden deducir de esta para todos los procesos de Márkov. 2. * De más importancia práctica es el uso de la suposición que la propiedad de Márkov es válida para un proceso aleatorio con el fin de construir, ab initio, un modelo estocástico para este proceso. En términos de modelado, suponer que la propiedad de Márkov es válida es una de un limitado número de formas sencillas de introducir dependencia estadística en un modelo para un proceso estocástico, de tal manera que permita que la fuerza de la dependencia en los diferentes retardos decline a medida que el retardo aumenta. Frecuentemente el término cadena de Márkov se usa para dar a entender que un proceso de Márkov tiene un discreto (infinito o numerable). Usualmente una cadena de Márkov sería definida para un conjunto discreto de tiempos (es decir, una cadena de Márkov de tiempo discreto),​ aunque algunos autores usan la misma terminología donde "tiempo" puede tomar valores continuos.​ (es)
  • En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Un processus de Markov en temps discret est une séquence de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur étant l'état du processus à l'instant Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, c.-à-d. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable. Si la loi conditionnelle de sachant le passé, i.e. sachant est une fonction de seul, alors : où est un état quelconque du processus. L'identité ci-dessus identifie la probabilité markovienne. Andreï Markov a publié les premiers résultats de ces processus en 1906. Une généralisation à un espace d'états infini dénombrable a été donnée par Kolmogorov en 1936. Les processus de Markov sont liés au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle. (fr)
  • マルコフ過程(マルコフかてい、英: Markov process)とは、マルコフ性をもつ確率過程のことをいう。すなわち、未来の挙動が現在の値だけで決定され、過去の挙動と無関係であるという性質を持つ確率過程である。 このような過程は例えば、確率的にしか記述できない物理現象の時間発展の様子に見られる。なぜなら、粒子の将来の挙動は現在の挙動によってのみ決定されるが、この性質は系の粒子数が多くなり確率論的な解析を必要とする状態にも引き継がれるからである。 ロシア人数学者、アンドレイ・マルコフにちなんで命名されている。 (ja)
  • In de kansrekening is een markovproces een stochastisch proces (opeenvolging van toevallige uitkomsten) waarvoor geldt dat het verleden irrelevant is om de toekomst te voorspellen als men het heden kent. Deze statistische eigenschap van een markovproces wordt de markoveigenschap genoemd. De eigenschap en het proces zijn genoemd naar de Russische wiskundige Andrej Markov, die de basis legde voor een grondige studie van dergelijke processen. (nl)
  • Ма́рковский проце́сс — случайный процесс, эволюция которого после любого заданного значения временно́го параметра не зависит от эволюции, предшествовавшей , при условии, что значение процесса в этот момент фиксировано («будущее» процесса не зависит от «прошлого» при известном «настоящем»; другая трактовка (Вентцель): «будущее» процесса зависит от «прошлого» лишь через «настоящее»). Процесс Маркова — модель авторегрессии первого порядка AR(1):. Марковская цепь — частный случай марковского процесса, когда пространство его состояний дискретно (то есть не более чем счётно). (ru)
  • Ма́рковський проце́с — це випадковий процес у якому ймовірність його конкретних значень у будь-який момент за умови відомих значень у попередні моменти залежить тільки від значення у найближчий (останній) момент . Іншими словами, «майбутнє» процесу залежить лише від останнього відомого стану, і не залежить від більш ранніх. (uk)
  • 在概率論及統計學中,馬可夫過程(英語:Markov process)是一個具備了馬可夫性質的隨機過程,因為俄國數學家安德雷·馬可夫得名。馬可夫過程是不具備記憶特質的(memorylessness)。換言之,馬可夫過程的条件概率僅僅與系统的當前狀態相關,而與它的過去歷史或未來狀態,都是獨立、不相關的。 具備離散狀態的馬可夫過程,通常被稱為馬可夫鏈。馬可夫鏈通常使用離散的時間集合定義,又稱離散時間馬可夫鏈。有些學者雖然採用這個術語,但允許時間可以取連續的值。 (zh)
gold:hypernym
prov:wasDerivedFrom
page length (characters) of wiki page
foaf:isPrimaryTopicOf
is Link from a Wikipage to another Wikipage of
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3331 as of Sep 2 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (62 GB total memory, 39 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software