About: Markov model     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : yago:Whole100003553, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FMarkov_model&invfp=IFP_OFF&sas=SAME_AS_OFF

In probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property.

AttributesValues
rdf:type
rdfs:label
  • سلسلة ماركوف (ar)
  • Cadena de Màrkov (ca)
  • Markovův řetězec (cs)
  • Markow-Kette (de)
  • Markov-Modell (de)
  • Αλυσίδα Μάρκοφ (el)
  • Cadena de Márkov (es)
  • Markov kate (eu)
  • Slabhra Markov (ga)
  • Rantai Markov (in)
  • Chaîne de Markov (fr)
  • Processo markoviano (it)
  • Markov model (en)
  • 마르코프 모형 (ko)
  • 마르코프 연쇄 (ko)
  • マルコフ連鎖 (ja)
  • Markovketen (nl)
  • Łańcuch Markowa (pl)
  • Cadeias de Markov (pt)
  • Цепь Маркова (ru)
  • Markovkedja (sv)
  • Ланцюг Маркова (uk)
  • Марковська модель (uk)
  • 马尔可夫链 (zh)
rdfs:comment
  • In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zufällig verändernder Systeme verwendet wird. Es wird angenommen, dass zukünftige Zustände nur vom aktuellen Zustand abhängen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen ermöglicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unmöglich wären. Aus diesem Grund ist es in den Bereichen der prädiktiven Modellierung und probabilistischen Prognose wünschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist. (de)
  • Η αλυσίδα Μάρκοφ, ή μαρκοβιανή αλυσίδα, που πήρε το όνομα της από τον , είναι ένα μαθηματικό σύστημα που μεταβάλλεται από μια κατάσταση σε μια άλλη, ανάμεσα σε ένα πεπερασμένο αριθμό καταστάσεων. Είναι μια τυχαία διαδικασία που δε διατηρεί μνήμη για τις προηγούμενες μεταβολές: Η επόμενη κατάσταση εξαρτάται μόνο από την τωρινή κατάσταση και σε καμιά περίπτωση από αυτές που προηγήθηκαν. Αυτό το συγκεκριμένο είδος "αμνησίας" ονομάζεται μαρκοβιανή ιδιότητα. Οι Μαρκοβιανές Αλυσίδες έχουν πολλές εφαρμογές ως στατιστικά μοντέλα καθημερινών διαδικασιών. (el)
  • In probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property. (en)
  • マルコフ連鎖(マルコフれんさ、英: Markov chain)とは、確率過程の一種であるマルコフ過程のうち、とりうる状態が離散的(有限または可算)なもの(離散状態マルコフ過程)をいう。また特に、時間が離散的なもの(時刻は添え字で表される)を指すことが多い。マルコフ連鎖は、未来の挙動が現在の値だけで決定され、過去の挙動と無関係である(マルコフ性)。各時刻において起こる状態変化(遷移または推移)に関して、マルコフ連鎖は遷移確率が過去の状態によらず、現在の状態のみによる系列である。特に重要な確率過程として、様々な分野に応用される。 (ja)
  • 마르코프 모형 또는 마르코프 모델은 확률 모델의 유형이다. (ko)
  • 확률론에서 마르코프 연쇄(Марков 連鎖, 영어: Markov chain)는 이산 시간 확률 과정이다. 마르코프 연쇄는 시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. 마르코프 성질은 과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 뜻한다 (ko)
  • Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года. (ru)
  • Em matemática, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) com a propriedade de que a distribuição de probabilidade do próximo estado depende apenas do estado atual e não na sequência de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição dessa propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov têm muitas aplicações como modelos estatísticos de processos do mundo real. (pt)
  • Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів). Існують ланцюги Маркова як з дискретним так і з неперервним часом. В даній статті розглядається дискретний випадок. (uk)
  • 马尔可夫链(英語:Markov chain),又稱離散時間馬可夫鏈(discrete-time Markov chain,縮寫為DTMC),因俄國數學家安德烈·马尔可夫得名,为狀態空間中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作馬可夫性質。马尔科夫链作为实际过程的统计模型具有许多应用。 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。 (zh)
  • У теорії ймовірностей, моделі Маркова це стохастичні моделі, які використовуються для моделювання систем, що випадково змінюються, де передбачається, що майбутні стани залежать тільки від поточного стану, а не від послідовності подій, які передували цьому (тобто, вона передбачає властивість Маркова). Як правило, це припущення дозволяє міркування і обчислення з моделлю, яка б в іншому випадку лишилась нерозв'язною. (uk)
  • سلسلة ماركوف (بالإنجليزية: Markov Chain)‏ مصطلح رياضي وهو عبارة عن عملية تصادفية تحمل خاصية ماركوفية. في عملية كهذه، تكهُنُ المستقبل انطلاقا من الحاضر لا يحتاج إلى معرفة الماضي. ولقد أخذت اسم مبتكرها الروسي أندريا ماركوف. سلسلة ماركوف في وقت متقطع هي السلسلة X1, X2, X3,... متكونة من متغيرات عشوائية. مجموعة القيمات الممكنة تدعي فضاء الحالات. وXn تدعى حالة العملية في الآن n. إذا كان توزيع الاحتمال الشرطي لXn+1 على الحالات الفارطة دالة وحده إذن .حيث x هي دالة ما في العملية. المعادلة هذه تعرف بالاحتمال الماركوفي. (ar)
  • Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. (ca)
  • Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. Tato tzv. dovoluje proces znázornit stavovým diagramem, kde z každého stavu (uzlu grafu) vycházejí hrany možných přechodů do dalšího stavu s připsanou pravděpodobností. Markovovy řetězce mají mnoho praktických použití, zejména v informatice, v chemii, v ekonomii i v dalších společenských vědách. (cs)
  • Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Eine Markow-Kette ist darüber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. (de)
  • En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk−1, en el caso de que xk sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de xk+1 dado xk fuese independiente de k. Ta (es)
  • Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. (eu)
  • En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov. (fr)
  • Sa mhatamaitic, is éard atá i Slabhra Markov ná slabhra eachtraí ina mbraitheann an dóchúlacht go ngluaisfear ar aghaidh don chéad staid eile ar an staid atá ann anois. Is féidir iad a léiriú le maitrísí. Léirítear slabhra Markov déstaide, ina bhfuil dhá staid a d'fhéadfaí a bheith ann, mar seo: D'fhionn an matamaiticeoir Sóivéadach (1856-1922) an coincheap áisiúil seo. (ga)
  • Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. (in)
  • Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilità di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (proprietà di Markov) e non da come si è giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la proprietà di Markov. Prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. (it)
  • Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: "de toekomst gegeven het heden niet afhangt van het verleden". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. D (nl)
  • Proces Markowa – ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa. Łańcuchy Markowa to procesy Markowa z czasem dyskretnym. Łańcuch Markowa jest ciągiem zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje to stany w czasie Jeśli rozkład warunkowy jest funkcją wyłącznie zmiennej to mówimy, że proces stochastyczny posiada własność Markowa. (pl)
  • En Markovkedja är inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill säga att processens förlopp kan bestämmas utifrån dess befintliga tillstånd utan kännedom om det förflutna. En Markovkedja som är tidskontinuerlig kallas en Markovprocess. Markovkedjor har många tillämpningsområden, bland annat för att beskriva och inom bioinformatik. Resultaten som ligger till grund för teorin om Markovkedjor framlades 1906 av Andrej Markov. (sv)
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
sameAs
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 67 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software