. . . . . . . . . "Em matem\u00E1tica, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) \u00E9 um caso particular de processo estoc\u00E1stico com estados discretos (o par\u00E2metro, em geral o tempo, pode ser discreto ou cont\u00EDnuo) com a propriedade de que a distribui\u00E7\u00E3o de probabilidade do pr\u00F3ximo estado depende apenas do estado atual e n\u00E3o na sequ\u00EAncia de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matem\u00E1tico Andrei Andreyevich Markov. A defini\u00E7\u00E3o dessa propriedade, tamb\u00E9m chamada de mem\u00F3ria markoviana, \u00E9 que os estados anteriores s\u00E3o irrelevantes para a predi\u00E7\u00E3o dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov t\u00EAm muitas aplica\u00E7\u00F5es como modelos estat\u00EDsticos de processos do mundo real."@pt . . "Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena."@eu . . . "Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: \"de toekomst gegeven het heden niet afhangt van het verleden\". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. D"@nl . . "\uD655\uB960\uB860\uC5D0\uC11C \uB9C8\uB974\uCF54\uD504 \uC5F0\uC1C4(\u041C\u0430\u0440\u043A\u043E\u0432 \u9023\u9396, \uC601\uC5B4: Markov chain)\uB294 \uC774\uC0B0 \uC2DC\uAC04 \uD655\uB960 \uACFC\uC815\uC774\uB2E4. \uB9C8\uB974\uCF54\uD504 \uC5F0\uC1C4\uB294 \uC2DC\uAC04\uC5D0 \uB530\uB978 \uACC4\uC758 \uC0C1\uD0DC\uC758 \uBCC0\uD654\uB97C \uB098\uD0C0\uB0B8\uB2E4. \uB9E4 \uC2DC\uAC04\uB9C8\uB2E4 \uACC4\uB294 \uC0C1\uD0DC\uB97C \uBC14\uAFB8\uAC70\uB098 \uAC19\uC740 \uC0C1\uD0DC\uB97C \uC720\uC9C0\uD55C\uB2E4. \uC0C1\uD0DC\uC758 \uBCC0\uD654\uB97C \uC804\uC774\uB77C \uD55C\uB2E4. \uB9C8\uB974\uCF54\uD504 \uC131\uC9C8\uC740 \uACFC\uAC70\uC640 \uD604\uC7AC \uC0C1\uD0DC\uAC00 \uC8FC\uC5B4\uC84C\uC744 \uB54C\uC758 \uBBF8\uB798 \uC0C1\uD0DC\uC758 \uC870\uAC74\uBD80 \uD655\uB960 \uBD84\uD3EC\uAC00 \uACFC\uAC70 \uC0C1\uD0DC\uC640\uB294 \uB3C5\uB9BD\uC801\uC73C\uB85C \uD604\uC7AC \uC0C1\uD0DC\uC5D0 \uC758\uD574\uC11C\uB9CC \uACB0\uC815\uB41C\uB2E4\uB294 \uAC83\uC744 \uB73B\uD55C\uB2E4"@ko . . . "Cadena de M\u00E1rkov"@es . "Cadeias de Markov"@pt . "\u0391\u03BB\u03C5\u03C3\u03AF\u03B4\u03B1 \u039C\u03AC\u03C1\u03BA\u03BF\u03C6"@el . "\u0426\u0435\u0301\u043F\u044C \u041C\u0430\u0301\u0440\u043A\u043E\u0432\u0430 \u2014 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0441\u043B\u0443\u0447\u0430\u0439\u043D\u044B\u0445 \u0441\u043E\u0431\u044B\u0442\u0438\u0439 \u0441 \u043A\u043E\u043D\u0435\u0447\u043D\u044B\u043C \u0438\u043B\u0438 \u0441\u0447\u0451\u0442\u043D\u044B\u043C \u0447\u0438\u0441\u043B\u043E\u043C \u0438\u0441\u0445\u043E\u0434\u043E\u0432, \u0433\u0434\u0435 \u0432\u0435\u0440\u043E\u044F\u0442\u043D\u043E\u0441\u0442\u044C \u043D\u0430\u0441\u0442\u0443\u043F\u043B\u0435\u043D\u0438\u044F \u043A\u0430\u0436\u0434\u043E\u0433\u043E \u0441\u043E\u0431\u044B\u0442\u0438\u044F \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u0442\u043E\u043B\u044C\u043A\u043E \u043E\u0442 \u0441\u043E\u0441\u0442\u043E\u044F\u043D\u0438\u044F, \u0434\u043E\u0441\u0442\u0438\u0433\u043D\u0443\u0442\u043E\u0433\u043E \u0432 \u043F\u0440\u0435\u0434\u044B\u0434\u0443\u0449\u0435\u043C \u0441\u043E\u0431\u044B\u0442\u0438\u0438. \u0425\u0430\u0440\u0430\u043A\u0442\u0435\u0440\u0438\u0437\u0443\u0435\u0442\u0441\u044F \u0442\u0435\u043C \u0441\u0432\u043E\u0439\u0441\u0442\u0432\u043E\u043C, \u0447\u0442\u043E, \u0433\u043E\u0432\u043E\u0440\u044F \u043D\u0435\u0441\u0442\u0440\u043E\u0433\u043E, \u043F\u0440\u0438 \u0444\u0438\u043A\u0441\u0438\u0440\u043E\u0432\u0430\u043D\u043D\u043E\u043C \u043D\u0430\u0441\u0442\u043E\u044F\u0449\u0435\u043C \u0431\u0443\u0434\u0443\u0449\u0435\u0435 \u043D\u0435\u0437\u0430\u0432\u0438\u0441\u0438\u043C\u043E \u043E\u0442 \u043F\u0440\u043E\u0448\u043B\u043E\u0433\u043E. \u041D\u0430\u0437\u0432\u0430\u043D\u0430 \u0432 \u0447\u0435\u0441\u0442\u044C \u0410. \u0410. \u041C\u0430\u0440\u043A\u043E\u0432\u0430 (\u0441\u0442\u0430\u0440\u0448\u0435\u0433\u043E), \u043A\u043E\u0442\u043E\u0440\u044B\u0439 \u0432\u043F\u0435\u0440\u0432\u044B\u0435 \u0432\u0432\u0451\u043B \u044D\u0442\u043E \u043F\u043E\u043D\u044F\u0442\u0438\u0435 \u0432 \u0440\u0430\u0431\u043E\u0442\u0435 1906 \u0433\u043E\u0434\u0430."@ru . "En la teor\u00EDa de la probabilidad, se conoce como cadena de M\u00E1rkov o modelo de M\u00E1rkov a un tipo especial de proceso estoc\u00E1stico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta caracter\u00EDstica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ning\u00FAn evento anterior. En un primer art\u00EDculo de 1906 A. A. Markov defini\u00F3 la \"cadena simple\" como \"una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk\u22121, en el caso de que xk sea conocida\u201D. Markov llam\u00F3 a la cadena \"homog\u00E9nea\" si la distribuci\u00F3n condicional de xk+1 dado xk fuese independiente de k. Ta"@es . . . "Markovkedja"@sv . . . . . "22022581"^^ . . "Slabhra Markov"@ga . . "\u041B\u0430\u043D\u0446\u044E\u0433 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0432 \u043C\u0430\u0442\u0435\u043C\u0430\u0442\u0438\u0446\u0456 \u0446\u0435 \u0432\u0438\u043F\u0430\u0434\u043A\u043E\u0432\u0438\u0439 \u043F\u0440\u043E\u0446\u0435\u0441, \u0449\u043E \u0437\u0430\u0434\u043E\u0432\u043E\u043B\u044C\u043D\u044F\u0454 \u0432\u043B\u0430\u0441\u0442\u0438\u0432\u0456\u0441\u0442\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0456 \u044F\u043A\u0438\u0439 \u043F\u0440\u0438\u0439\u043C\u0430\u0454 \u0441\u043A\u0456\u043D\u0447\u0435\u043D\u043D\u0443 \u0447\u0438 \u0437\u043B\u0456\u0447\u0435\u043D\u043D\u0443 \u043A\u0456\u043B\u044C\u043A\u0456\u0441\u0442\u044C \u0437\u043D\u0430\u0447\u0435\u043D\u044C (\u0441\u0442\u0430\u043D\u0456\u0432). \u0406\u0441\u043D\u0443\u044E\u0442\u044C \u043B\u0430\u043D\u0446\u044E\u0433\u0438 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u044F\u043A \u0437 \u0434\u0438\u0441\u043A\u0440\u0435\u0442\u043D\u0438\u043C \u0442\u0430\u043A \u0456 \u0437 \u043D\u0435\u043F\u0435\u0440\u0435\u0440\u0432\u043D\u0438\u043C \u0447\u0430\u0441\u043E\u043C. \u0412 \u0434\u0430\u043D\u0456\u0439 \u0441\u0442\u0430\u0442\u0442\u0456 \u0440\u043E\u0437\u0433\u043B\u044F\u0434\u0430\u0454\u0442\u044C\u0441\u044F \u0434\u0438\u0441\u043A\u0440\u0435\u0442\u043D\u0438\u0439 \u0432\u0438\u043F\u0430\u0434\u043E\u043A."@uk . . "Markow-Kette"@de . . "In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zuf\u00E4llig ver\u00E4ndernder Systeme verwendet wird. Es wird angenommen, dass zuk\u00FCnftige Zust\u00E4nde nur vom aktuellen Zustand abh\u00E4ngen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen erm\u00F6glicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unm\u00F6glich w\u00E4ren. Aus diesem Grund ist es in den Bereichen der pr\u00E4diktiven Modellierung und probabilistischen Prognose w\u00FCnschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist."@de . . . "En Markovkedja \u00E4r inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill s\u00E4ga att processens f\u00F6rlopp kan best\u00E4mmas utifr\u00E5n dess befintliga tillst\u00E5nd utan k\u00E4nnedom om det f\u00F6rflutna. En Markovkedja som \u00E4r tidskontinuerlig kallas en Markovprocess. Markovkedjor har m\u00E5nga till\u00E4mpningsomr\u00E5den, bland annat f\u00F6r att beskriva och inom bioinformatik. Resultaten som ligger till grund f\u00F6r teorin om Markovkedjor framlades 1906 av Andrej Markov."@sv . "En la teor\u00EDa de la probabilidad, se conoce como cadena de M\u00E1rkov o modelo de M\u00E1rkov a un tipo especial de proceso estoc\u00E1stico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta caracter\u00EDstica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ning\u00FAn evento anterior. En un primer art\u00EDculo de 1906 A. A. Markov defini\u00F3 la \"cadena simple\" como \"una secuencia infinita x1, x2, ..., xk, xk+1, ..., de variables conectadas de tal modo que xk+1 para cualquier k es independiente de x1, x2, ..., xk\u22121, en el caso de que xk sea conocida\u201D. Markov llam\u00F3 a la cadena \"homog\u00E9nea\" si la distribuci\u00F3n condicional de xk+1 dado xk fuese independiente de k. Tambi\u00E9n consider\u00F3 cadenas \"complicadas (complex en ingl\u00E9s)\" en las que \"cada n\u00FAmero est\u00E1 conectado directamente no s\u00F3lo con uno, sino con varios n\u00FAmeros anteriores\".\u200B Recibe su nombre del matem\u00E1tico ruso Andr\u00E9i M\u00E1rkov (1856-1922), que lo introdujo en 1906.\u200B Estos modelos estad\u00EDsticos cuentan con un gran n\u00FAmero de aplicaciones reales."@es . "Proces Markowa \u2013 ci\u0105g zdarze\u0144, w kt\u00F3rym prawdopodobie\u0144stwo ka\u017Cdego zdarzenia zale\u017Cy jedynie od wyniku poprzedniego. W uj\u0119ciu matematycznym, procesy Markowa to takie procesy stochastyczne, kt\u00F3re spe\u0142niaj\u0105 w\u0142asno\u015B\u0107 Markowa. \u0141a\u0144cuchy Markowa to procesy Markowa z czasem dyskretnym. \u0141a\u0144cuch Markowa jest ci\u0105giem zmiennych losowych. Dziedzin\u0119 tych zmiennych nazywamy przestrzeni\u0105 stan\u00F3w, a realizacje to stany w czasie Je\u015Bli rozk\u0142ad warunkowy jest funkcj\u0105 wy\u0142\u0105cznie zmiennej to m\u00F3wimy, \u017Ce proces stochastyczny posiada w\u0142asno\u015B\u0107 Markowa. Przedstawiona definicja zak\u0142ada czas dyskretny. Istniej\u0105 procesy Markowa z czasem ci\u0105g\u0142ym, jednak nie s\u0105 one przedstawione w tym artykule. Procesy Markowa zawdzi\u0119czaj\u0105 swoj\u0105 nazw\u0119 ich tw\u00F3rcy Andriejowi Markowowi, kt\u00F3ry po raz pierwszy opisa\u0142 problem w 1906 roku. Uog\u00F3lnienie na przeliczalnie niesko\u0144czone przestrzenie stan\u00F3w zosta\u0142o opracowane przez Ko\u0142mogorowa w 1936. \u0141a\u0144cuchy Markowa maj\u0105 zwi\u0105zek z ruchami Browna oraz hipotez\u0105 ergodyczn\u0105, dwoma wa\u017Cnymi w fizyce tematami, ale powsta\u0142y jako uog\u00F3lnienie prawa wielkich liczb na zdarzenia zale\u017Cne."@pl . . "Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov. Rantai Markov memiliki banyak aplikasi sebagai model statistik dari proses dunia nyata,, seperti mempelajari sistem kendali jelajah pada kendaraan bermotor, antrian atau antrian pelanggan yang tiba di bandara, nilai tukar mata uang dan dinamika populasi hewan. Proses Markov adalah dasar untuk metode simulasi stokastik umum yang dikenal sebagai rantai Markov Monte Carlo, yang digunakan untuk mensimulasikan pengambilan sampel dari distribusi probabilitas yang kompleks, dan telah menemukan aplikasi dalam statistik Bayesian, termodinamika, mekanika statistik, fisika, kimia, ekonomi, keuangan, sinyal pemrosesan, teori informasi, dan pemrosesan ucapan."@in . . . "\u30DE\u30EB\u30B3\u30D5\u9023\u9396\uFF08\u30DE\u30EB\u30B3\u30D5\u308C\u3093\u3055\u3001\u82F1: Markov chain\uFF09\u3068\u306F\u3001\u78BA\u7387\u904E\u7A0B\u306E\u4E00\u7A2E\u3067\u3042\u308B\u30DE\u30EB\u30B3\u30D5\u904E\u7A0B\u306E\u3046\u3061\u3001\u3068\u308A\u3046\u308B\u72B6\u614B\u304C\u96E2\u6563\u7684\uFF08\u6709\u9650\u307E\u305F\u306F\u53EF\u7B97\uFF09\u306A\u3082\u306E\uFF08\u96E2\u6563\u72B6\u614B\u30DE\u30EB\u30B3\u30D5\u904E\u7A0B\uFF09\u3092\u3044\u3046\u3002\u307E\u305F\u7279\u306B\u3001\u6642\u9593\u304C\u96E2\u6563\u7684\u306A\u3082\u306E\uFF08\u6642\u523B\u306F\u6DFB\u3048\u5B57\u3067\u8868\u3055\u308C\u308B\uFF09\u3092\u6307\u3059\u3053\u3068\u304C\u591A\u3044\u3002\u30DE\u30EB\u30B3\u30D5\u9023\u9396\u306F\u3001\u672A\u6765\u306E\u6319\u52D5\u304C\u73FE\u5728\u306E\u5024\u3060\u3051\u3067\u6C7A\u5B9A\u3055\u308C\u3001\u904E\u53BB\u306E\u6319\u52D5\u3068\u7121\u95A2\u4FC2\u3067\u3042\u308B\uFF08\u30DE\u30EB\u30B3\u30D5\u6027\uFF09\u3002\u5404\u6642\u523B\u306B\u304A\u3044\u3066\u8D77\u3053\u308B\u72B6\u614B\u5909\u5316\uFF08\u9077\u79FB\u307E\u305F\u306F\u63A8\u79FB\uFF09\u306B\u95A2\u3057\u3066\u3001\u30DE\u30EB\u30B3\u30D5\u9023\u9396\u306F\u9077\u79FB\u78BA\u7387\u304C\u904E\u53BB\u306E\u72B6\u614B\u306B\u3088\u3089\u305A\u3001\u73FE\u5728\u306E\u72B6\u614B\u306E\u307F\u306B\u3088\u308B\u7CFB\u5217\u3067\u3042\u308B\u3002\u7279\u306B\u91CD\u8981\u306A\u78BA\u7387\u904E\u7A0B\u3068\u3057\u3066\u3001\u69D8\u3005\u306A\u5206\u91CE\u306B\u5FDC\u7528\u3055\u308C\u308B\u3002"@ja . . . "\u30DE\u30EB\u30B3\u30D5\u9023\u9396"@ja . . . . . "In der Wahrscheinlichkeitstheorie ist ein Markov-Modell ein stochastisches Modell, das zur Modellierung sich zuf\u00E4llig ver\u00E4ndernder Systeme verwendet wird. Es wird angenommen, dass zuk\u00FCnftige Zust\u00E4nde nur vom aktuellen Zustand abh\u00E4ngen, nicht von den Ereignissen, die davor eingetreten sind (d. h. es nimmt die Markov-Eigenschaft an). Im Allgemeinen erm\u00F6glicht diese Annahme Schlussfolgerungen und Rechentechniken, die sonst unm\u00F6glich w\u00E4ren. Aus diesem Grund ist es in den Bereichen der pr\u00E4diktiven Modellierung und probabilistischen Prognose w\u00FCnschenswert, dass ein bestimmtes Modell die Markov-Eigenschaft aufweist."@de . "Proces Markowa \u2013 ci\u0105g zdarze\u0144, w kt\u00F3rym prawdopodobie\u0144stwo ka\u017Cdego zdarzenia zale\u017Cy jedynie od wyniku poprzedniego. W uj\u0119ciu matematycznym, procesy Markowa to takie procesy stochastyczne, kt\u00F3re spe\u0142niaj\u0105 w\u0142asno\u015B\u0107 Markowa. \u0141a\u0144cuchy Markowa to procesy Markowa z czasem dyskretnym. \u0141a\u0144cuch Markowa jest ci\u0105giem zmiennych losowych. Dziedzin\u0119 tych zmiennych nazywamy przestrzeni\u0105 stan\u00F3w, a realizacje to stany w czasie Je\u015Bli rozk\u0142ad warunkowy jest funkcj\u0105 wy\u0142\u0105cznie zmiennej to m\u00F3wimy, \u017Ce proces stochastyczny posiada w\u0142asno\u015B\u0107 Markowa."@pl . . . . . . . . . . . . . . "\u041B\u0430\u043D\u0446\u044E\u0433 \u041C\u0430\u0440\u043A\u043E\u0432\u0430"@uk . . . . . . "Una cadena de M\u00E0rkov , que rep el seu nom del matem\u00E0tic rus Andrei M\u00E0rkov (1856-1922), \u00E9s una s\u00E8rie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment dep\u00E8n de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen mem\u00F2ria. \"Recorden\" l'\u00FAltim esdeveniment i aix\u00F2 condiciona les possibilitats dels esdeveniments futurs. Aquesta depend\u00E8ncia de l'esdeveniment anterior distingeix a les cadenes de M\u00E0rkov de les s\u00E8ries d'esdeveniments independents, com tirar una moneda a l'aire o un dau. Aquest tipus de proc\u00E9s, introdu\u00EFt per M\u00E0rkov en un article publicat a 1907, presenta una forma de depend\u00E8ncia simple, per\u00F2 molt \u00FAtil en molts models, entre les variables aleat\u00F2ries que formen un proc\u00E9s estoc\u00E0stic. En els negocis, les cadenes de M\u00E0rkov s'han utilitzat per analitzar els patrons de compra dels , per planificar les necessitats de i per analitzar el reempla\u00E7ament d'equip. Les seves aplicacions s\u00F3n diverses, com ara en els models estad\u00EDstics de procesos del m\u00F3n real, com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les din\u00E0miques poblacionals dels animals. Els processos de Markov s\u00F3n la base dels m\u00E8todes generals de simulaci\u00F3 estoc\u00E0stica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabil\u00EDstiques complexes, i se n'han trobat aplicacions en l'estad\u00EDstica bayesiana, la termodin\u00E0mica, la mec\u00E0nica estad\u00EDstica, la f\u00EDsica, la qu\u00EDmica, l'economia, les finances, el processament de senyals, la teoria de la informaci\u00F3 i la intel\u00B7lig\u00E8ncia artificial. S'utilitza l'adjectiu markovi\u00E0 (en angl\u00E8s, Markovian) per notar que alguna cosa est\u00E0 relacionada amb el proc\u00E9s de Markov."@ca . "Probabilitate-teorian, Markov katea aldi bakoitzeanmultzo diskretu eta finko batekoi egoera batetik j egoera batera aldatzeko pij probabilitate konstanteak dituen prozesu estokastiko bat da,hasiera batean egoera bakoitzean izateko probabilitateak ere zehazten dituena. Nabarmendu behar da egoera jakinbatera aldatzeko probabilitatea aurreko aldiko egoeraren mendean dagoela soilik. Prozesu hauek Andrei Markov matematikariaren izena hartzen dute, bera izan baitzen horiek aztertu zituen lehena. Adibidez, toki batean egun bakoitzean euria egiteko probabilitatea bezperan euria egin zuen mendean dago.Bezperan euria egin bazuen, biharamunean euria egin eta ateri izateko probabilitateak0.3 eta 0.7 dira, hurrenez hurren. Aldiz, bezperan ateri izan bazen, biharamunean euria eta ateriizateko probabilitateak 0.4 eta 0.6 dira. Horrela, prozesu honi dagokion Markov katea honelairudika daiteke, matrize bat erabiliz, errenkadek bezpera eta zutabeak biharamuna adierazten dutelarik: Arestian agertzen direnak P(A/B) baldintzapeko probabilitateak dira: B gertatu dela jakinda, A gertatzeko probabilitatea alegia. Adibidean horrela planteatuta, biharamun bateko eguraldia bezperako eguraldiaren mendean dago soilik, Markoven kateen propietatea errespetatuz. Markov kateen azterketaz denboran zehar gertatzen den bilakaeraren ezaugarri eta propietateak ezagutuko dira,esaterako ohikoa da kateak izan dezakeen banaketa egonkorra kalkulatzea, epe luzera(kontuan hartu gabe zein alditan den) egoera bakoitzean izateko probabilitateak zehaztea. Emandako adibidean, banaketa egonkorrakepe luzera, eguna zehaztu gabe, edozein egunetan euria egin eta ateri izateko probabilitateak adieraziko lituzke, gaur egunetik behatuta."@eu . . . . . . . . . . . . . "1121986416"^^ . "Cadena de M\u00E0rkov"@ca . . . . . . "En math\u00E9matiques, une cha\u00EEne de Markov est un processus de Markov \u00E0 temps discret, ou \u00E0 temps continu et \u00E0 espace d'\u00E9tats discret. Un processus de Markov est un processus stochastique poss\u00E9dant la propri\u00E9t\u00E9 de Markov : l'information utile pour la pr\u00E9diction du futur est enti\u00E8rement contenue dans l'\u00E9tat pr\u00E9sent du processus et n'est pas d\u00E9pendante des \u00E9tats ant\u00E9rieurs (le syst\u00E8me n'a pas de \u00AB m\u00E9moire \u00BB). Les processus de Markov portent le nom de leur inventeur, Andre\u00EF Markov. Un processus de Markov \u00E0 temps discret est une s\u00E9quence de variables al\u00E9atoires \u00E0 valeurs dans l\u2019espace des \u00E9tats, qu'on notera dans la suite. La valeur est l'\u00E9tat du processus \u00E0 l'instant Les applications o\u00F9 l'espace d'\u00E9tats est fini ou d\u00E9nombrable sont innombrables : on parle alors de cha\u00EEne de Markov ou de cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Les propri\u00E9t\u00E9s essentielles des processus de Markov g\u00E9n\u00E9raux, par exemple les propri\u00E9t\u00E9s de r\u00E9currence et d'ergodicit\u00E9, s'\u00E9noncent ou se d\u00E9montrent plus simplement dans le cas des cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Cet article concerne pr\u00E9cis\u00E9ment les cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Andre\u00EF Markov a publi\u00E9 les premiers r\u00E9sultats sur les cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats fini en 1906. Une g\u00E9n\u00E9ralisation \u00E0 un espace d'\u00E9tats infini d\u00E9nombrable a \u00E9t\u00E9 publi\u00E9e par Kolmogorov en 1936. Les processus de Markov sont li\u00E9s au mouvement brownien et \u00E0 l'hypoth\u00E8se ergodique, deux sujets de physique statistique qui ont \u00E9t\u00E9 tr\u00E8s importants au d\u00E9but du XXe si\u00E8cle."@fr . "\u0426\u0435\u043F\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430"@ru . . "Markov kate"@eu . . "\uB9C8\uB974\uCF54\uD504 \uBAA8\uD615 \uB610\uB294 \uB9C8\uB974\uCF54\uD504 \uBAA8\uB378\uC740 \uD655\uB960 \uBAA8\uB378\uC758 \uC720\uD615\uC774\uB2E4."@ko . "\u0633\u0644\u0633\u0644\u0629 \u0645\u0627\u0631\u0643\u0648\u0641 (\u0628\u0627\u0644\u0625\u0646\u062C\u0644\u064A\u0632\u064A\u0629: Markov Chain)\u200F \u0645\u0635\u0637\u0644\u062D \u0631\u064A\u0627\u0636\u064A \u0648\u0647\u0648 \u0639\u0628\u0627\u0631\u0629 \u0639\u0646 \u0639\u0645\u0644\u064A\u0629 \u062A\u0635\u0627\u062F\u0641\u064A\u0629 \u062A\u062D\u0645\u0644 \u062E\u0627\u0635\u064A\u0629 \u0645\u0627\u0631\u0643\u0648\u0641\u064A\u0629. \u0641\u064A \u0639\u0645\u0644\u064A\u0629 \u0643\u0647\u0630\u0647\u060C \u062A\u0643\u0647\u064F\u0646\u064F \u0627\u0644\u0645\u0633\u062A\u0642\u0628\u0644 \u0627\u0646\u0637\u0644\u0627\u0642\u0627 \u0645\u0646 \u0627\u0644\u062D\u0627\u0636\u0631 \u0644\u0627 \u064A\u062D\u062A\u0627\u062C \u0625\u0644\u0649 \u0645\u0639\u0631\u0641\u0629 \u0627\u0644\u0645\u0627\u0636\u064A. \u0648\u0644\u0642\u062F \u0623\u062E\u0630\u062A \u0627\u0633\u0645 \u0645\u0628\u062A\u0643\u0631\u0647\u0627 \u0627\u0644\u0631\u0648\u0633\u064A \u0623\u0646\u062F\u0631\u064A\u0627 \u0645\u0627\u0631\u0643\u0648\u0641. \u0633\u0644\u0633\u0644\u0629 \u0645\u0627\u0631\u0643\u0648\u0641 \u0641\u064A \u0648\u0642\u062A \u0645\u062A\u0642\u0637\u0639 \u0647\u064A \u0627\u0644\u0633\u0644\u0633\u0644\u0629 X1, X2, X3,... \u0645\u062A\u0643\u0648\u0646\u0629 \u0645\u0646 \u0645\u062A\u063A\u064A\u0631\u0627\u062A \u0639\u0634\u0648\u0627\u0626\u064A\u0629. \u0645\u062C\u0645\u0648\u0639\u0629 \u0627\u0644\u0642\u064A\u0645\u0627\u062A \u0627\u0644\u0645\u0645\u0643\u0646\u0629 \u062A\u062F\u0639\u064A \u0641\u0636\u0627\u0621 \u0627\u0644\u062D\u0627\u0644\u0627\u062A. \u0648Xn \u062A\u062F\u0639\u0649 \u062D\u0627\u0644\u0629 \u0627\u0644\u0639\u0645\u0644\u064A\u0629 \u0641\u064A \u0627\u0644\u0622\u0646 n. \u0625\u0630\u0627 \u0643\u0627\u0646 \u062A\u0648\u0632\u064A\u0639 \u0627\u0644\u0627\u062D\u062A\u0645\u0627\u0644 \u0627\u0644\u0634\u0631\u0637\u064A \u0644Xn+1 \u0639\u0644\u0649 \u0627\u0644\u062D\u0627\u0644\u0627\u062A \u0627\u0644\u0641\u0627\u0631\u0637\u0629 \u062F\u0627\u0644\u0629 \u0648\u062D\u062F\u0647 \u0625\u0630\u0646 .\u062D\u064A\u062B x \u0647\u064A \u062F\u0627\u0644\u0629 \u0645\u0627 \u0641\u064A \u0627\u0644\u0639\u0645\u0644\u064A\u0629. \u0627\u0644\u0645\u0639\u0627\u062F\u0644\u0629 \u0647\u0630\u0647 \u062A\u0639\u0631\u0641 \u0628\u0627\u0644\u0627\u062D\u062A\u0645\u0627\u0644 \u0627\u0644\u0645\u0627\u0631\u0643\u0648\u0641\u064A. \u0646\u0634\u0631 \u0623\u0646\u062F\u0631\u064A \u0645\u0627\u0631\u0643\u0648\u0641 \u0627\u0644\u0646\u062A\u0627\u0626\u062C \u0627\u0644\u0623\u0648\u0644\u0649 \u062D\u0648\u0644 \u0647\u0630\u0647 \u0627\u0644\u0639\u0645\u0644\u064A\u0629 \u0639\u0627\u0645 1906\u0645. \u0627\u0644\u062A\u0639\u0645\u064A\u0645 \u0625\u0644\u0649 \u0641\u0636\u0627\u0621 \u062D\u0627\u0644\u0627\u062A \u0644\u0627 \u0645\u062A\u0646\u0627\u0647\u064A\u0629 \u0645\u0639\u062F\u0648\u062F\u0629 \u0623\u062A\u0649 \u0645\u0646 (\u0628\u0627\u0644\u0625\u0646\u062C\u0644\u064A\u0632\u064A\u0629: Andrei Kolmogorov)\u200F \u0641\u064A 1936\u0645."@ar . . . "\u0397 \u03B1\u03BB\u03C5\u03C3\u03AF\u03B4\u03B1 \u039C\u03AC\u03C1\u03BA\u03BF\u03C6, \u03AE \u03BC\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AE \u03B1\u03BB\u03C5\u03C3\u03AF\u03B4\u03B1, \u03C0\u03BF\u03C5 \u03C0\u03AE\u03C1\u03B5 \u03C4\u03BF \u03CC\u03BD\u03BF\u03BC\u03B1 \u03C4\u03B7\u03C2 \u03B1\u03C0\u03CC \u03C4\u03BF\u03BD , \u03B5\u03AF\u03BD\u03B1\u03B9 \u03AD\u03BD\u03B1 \u03BC\u03B1\u03B8\u03B7\u03BC\u03B1\u03C4\u03B9\u03BA\u03CC \u03C3\u03CD\u03C3\u03C4\u03B7\u03BC\u03B1 \u03C0\u03BF\u03C5 \u03BC\u03B5\u03C4\u03B1\u03B2\u03AC\u03BB\u03BB\u03B5\u03C4\u03B1\u03B9 \u03B1\u03C0\u03CC \u03BC\u03B9\u03B1 \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03C3\u03B5 \u03BC\u03B9\u03B1 \u03AC\u03BB\u03BB\u03B7, \u03B1\u03BD\u03AC\u03BC\u03B5\u03C3\u03B1 \u03C3\u03B5 \u03AD\u03BD\u03B1 \u03C0\u03B5\u03C0\u03B5\u03C1\u03B1\u03C3\u03BC\u03AD\u03BD\u03BF \u03B1\u03C1\u03B9\u03B8\u03BC\u03CC \u03BA\u03B1\u03C4\u03B1\u03C3\u03C4\u03AC\u03C3\u03B5\u03C9\u03BD. \u0395\u03AF\u03BD\u03B1\u03B9 \u03BC\u03B9\u03B1 \u03C4\u03C5\u03C7\u03B1\u03AF\u03B1 \u03B4\u03B9\u03B1\u03B4\u03B9\u03BA\u03B1\u03C3\u03AF\u03B1 \u03C0\u03BF\u03C5 \u03B4\u03B5 \u03B4\u03B9\u03B1\u03C4\u03B7\u03C1\u03B5\u03AF \u03BC\u03BD\u03AE\u03BC\u03B7 \u03B3\u03B9\u03B1 \u03C4\u03B9\u03C2 \u03C0\u03C1\u03BF\u03B7\u03B3\u03BF\u03CD\u03BC\u03B5\u03BD\u03B5\u03C2 \u03BC\u03B5\u03C4\u03B1\u03B2\u03BF\u03BB\u03AD\u03C2: \u0397 \u03B5\u03C0\u03CC\u03BC\u03B5\u03BD\u03B7 \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03B5\u03BE\u03B1\u03C1\u03C4\u03AC\u03C4\u03B1\u03B9 \u03BC\u03CC\u03BD\u03BF \u03B1\u03C0\u03CC \u03C4\u03B7\u03BD \u03C4\u03C9\u03C1\u03B9\u03BD\u03AE \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03BA\u03B1\u03B9 \u03C3\u03B5 \u03BA\u03B1\u03BC\u03B9\u03AC \u03C0\u03B5\u03C1\u03AF\u03C0\u03C4\u03C9\u03C3\u03B7 \u03B1\u03C0\u03CC \u03B1\u03C5\u03C4\u03AD\u03C2 \u03C0\u03BF\u03C5 \u03C0\u03C1\u03BF\u03B7\u03B3\u03AE\u03B8\u03B7\u03BA\u03B1\u03BD. \u0391\u03C5\u03C4\u03CC \u03C4\u03BF \u03C3\u03C5\u03B3\u03BA\u03B5\u03BA\u03C1\u03B9\u03BC\u03AD\u03BD\u03BF \u03B5\u03AF\u03B4\u03BF\u03C2 \"\u03B1\u03BC\u03BD\u03B7\u03C3\u03AF\u03B1\u03C2\" \u03BF\u03BD\u03BF\u03BC\u03AC\u03B6\u03B5\u03C4\u03B1\u03B9 \u03BC\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AE \u03B9\u03B4\u03B9\u03CC\u03C4\u03B7\u03C4\u03B1. \u039F\u03B9 \u039C\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AD\u03C2 \u0391\u03BB\u03C5\u03C3\u03AF\u03B4\u03B5\u03C2 \u03AD\u03C7\u03BF\u03C5\u03BD \u03C0\u03BF\u03BB\u03BB\u03AD\u03C2 \u03B5\u03C6\u03B1\u03C1\u03BC\u03BF\u03B3\u03AD\u03C2 \u03C9\u03C2 \u03C3\u03C4\u03B1\u03C4\u03B9\u03C3\u03C4\u03B9\u03BA\u03AC \u03BC\u03BF\u03BD\u03C4\u03AD\u03BB\u03B1 \u03BA\u03B1\u03B8\u03B7\u03BC\u03B5\u03C1\u03B9\u03BD\u03CE\u03BD \u03B4\u03B9\u03B1\u03B4\u03B9\u03BA\u03B1\u03C3\u03B9\u03CE\u03BD."@el . "Een markovketen, genoemd naar de Russische wiskundige Andrej Markov, beschrijft een systeem dat zich door een aantal toestanden beweegt en stapsgewijs overgangen vertoont van de ene naar een andere (of dezelfde) toestand. De specifieke markov-eigenschap houdt daarbij in dat populair uitgedrukt: \"de toekomst gegeven het heden niet afhangt van het verleden\". Dat betekent dat als het systeem zich in een bepaalde toestand bevindt, het toekomstige gedrag van het systeem, dus de komende overgangen, slechts afhangen van de huidige toestand en niet van de weg waarlangs deze toestand tot stand is gekomen. De successievelijke toestanden van het systeem worden beschreven door een rij stochastische variabelen met respectievelijke kansverdelingen , waarin de toestand van het systeem is na stappen. De markov-eigenschap wordt uitgedrukt in een eigenschap van de overgangskansen."@nl . "Markov\u016Fv \u0159et\u011Bzec popisuje obvykle diskr\u00E9tn\u00ED n\u00E1hodn\u00FD (stochastick\u00FD \u010Di pravd\u011Bpodobnostn\u00ED) proces, pro kter\u00FD plat\u00ED, \u017Ee pravd\u011Bpodobnosti p\u0159echodu do n\u00E1sleduj\u00EDc\u00EDho stavu z\u00E1visej\u00ED pouze na sou\u010Dasn\u00E9m stavu, ne na p\u0159edchoz\u00EDch stavech. Tato tzv. dovoluje proces zn\u00E1zornit stavov\u00FDm diagramem, kde z ka\u017Ed\u00E9ho stavu (uzlu grafu) vych\u00E1zej\u00ED hrany mo\u017En\u00FDch p\u0159echod\u016F do dal\u0161\u00EDho stavu s p\u0159ipsanou pravd\u011Bpodobnost\u00ED. Markovovy \u0159et\u011Bzce maj\u00ED mnoho praktick\u00FDch pou\u017Eit\u00ED, zejm\u00E9na v informatice, v chemii, v ekonomii i v dal\u0161\u00EDch spole\u010Densk\u00FDch v\u011Bd\u00E1ch."@cs . . . . "\u9A6C\u5C14\u53EF\u592B\u94FE\uFF08\u82F1\u8A9E\uFF1AMarkov chain\uFF09\uFF0C\u53C8\u7A31\u96E2\u6563\u6642\u9593\u99AC\u53EF\u592B\u93C8\uFF08discrete-time Markov chain\uFF0C\u7E2E\u5BEB\u70BADTMC\uFF09\uFF0C\u56E0\u4FC4\u570B\u6578\u5B78\u5BB6\u5B89\u5FB7\u70C8\u00B7\u9A6C\u5C14\u53EF\u592B\u5F97\u540D\uFF0C\u4E3A\u72C0\u614B\u7A7A\u9593\u4E2D\u7ECF\u8FC7\u4ECE\u4E00\u4E2A\u72B6\u6001\u5230\u53E6\u4E00\u4E2A\u72B6\u6001\u7684\u8F6C\u6362\u7684\u968F\u673A\u8FC7\u7A0B\u3002\u8BE5\u8FC7\u7A0B\u8981\u6C42\u5177\u5907\u201C\u65E0\u8BB0\u5FC6\u201D\u7684\u6027\u8D28\uFF1A\u4E0B\u4E00\u72B6\u6001\u7684\u6982\u7387\u5206\u5E03\u53EA\u80FD\u7531\u5F53\u524D\u72B6\u6001\u51B3\u5B9A\uFF0C\u5728\u65F6\u95F4\u5E8F\u5217\u4E2D\u5B83\u524D\u9762\u7684\u4E8B\u4EF6\u5747\u4E0E\u4E4B\u65E0\u5173\u3002\u8FD9\u79CD\u7279\u5B9A\u7C7B\u578B\u7684\u201C\u65E0\u8BB0\u5FC6\u6027\u201D\u79F0\u4F5C\u99AC\u53EF\u592B\u6027\u8CEA\u3002\u9A6C\u5C14\u79D1\u592B\u94FE\u4F5C\u4E3A\u5B9E\u9645\u8FC7\u7A0B\u7684\u7EDF\u8BA1\u6A21\u578B\u5177\u6709\u8BB8\u591A\u5E94\u7528\u3002 \u5728\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u6BCF\u4E00\u6B65\uFF0C\u7CFB\u7EDF\u6839\u636E\u6982\u7387\u5206\u5E03\uFF0C\u53EF\u4EE5\u4ECE\u4E00\u4E2A\u72B6\u6001\u53D8\u5230\u53E6\u4E00\u4E2A\u72B6\u6001\uFF0C\u4E5F\u53EF\u4EE5\u4FDD\u6301\u5F53\u524D\u72B6\u6001\u3002\u72B6\u6001\u7684\u6539\u53D8\u53EB\u505A\u8F6C\u79FB\uFF0C\u4E0E\u4E0D\u540C\u7684\u72B6\u6001\u6539\u53D8\u76F8\u5173\u7684\u6982\u7387\u53EB\u505A\u8F6C\u79FB\u6982\u7387\u3002\u968F\u673A\u6F2B\u6B65\u5C31\u662F\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u4F8B\u5B50\u3002\u968F\u673A\u6F2B\u6B65\u4E2D\u6BCF\u4E00\u6B65\u7684\u72B6\u6001\u662F\u5728\u56FE\u5F62\u4E2D\u7684\u70B9\uFF0C\u6BCF\u4E00\u6B65\u53EF\u4EE5\u79FB\u52A8\u5230\u4EFB\u4F55\u4E00\u4E2A\u76F8\u90BB\u7684\u70B9\uFF0C\u5728\u8FD9\u91CC\u79FB\u52A8\u5230\u6BCF\u4E00\u4E2A\u70B9\u7684\u6982\u7387\u90FD\u662F\u76F8\u540C\u7684\uFF08\u65E0\u8BBA\u4E4B\u524D\u6F2B\u6B65\u8DEF\u5F84\u662F\u5982\u4F55\u7684\uFF09\u3002"@zh . . "Sa mhatamaitic, is \u00E9ard at\u00E1 i Slabhra Markov n\u00E1 slabhra eachtra\u00ED ina mbraitheann an d\u00F3ch\u00FAlacht go ngluaisfear ar aghaidh don ch\u00E9ad staid eile ar an staid at\u00E1 ann anois. Is f\u00E9idir iad a l\u00E9iri\u00FA le maitr\u00EDs\u00ED. L\u00E9ir\u00EDtear slabhra Markov d\u00E9staide, ina bhfuil dh\u00E1 staid a d'fh\u00E9adfa\u00ED a bheith ann, mar seo: D'fhionn an matamaiticeoir S\u00F3iv\u00E9adach (1856-1922) an coincheap \u00E1isi\u00FAil seo."@ga . . . "Una cadena de M\u00E0rkov , que rep el seu nom del matem\u00E0tic rus Andrei M\u00E0rkov (1856-1922), \u00E9s una s\u00E8rie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment dep\u00E8n de l'esdeveniment immediat anterior. En efecte, les cadenes d'aquest tipus tenen mem\u00F2ria. \"Recorden\" l'\u00FAltim esdeveniment i aix\u00F2 condiciona les possibilitats dels esdeveniments futurs. Aquesta depend\u00E8ncia de l'esdeveniment anterior distingeix a les cadenes de M\u00E0rkov de les s\u00E8ries d'esdeveniments independents, com tirar una moneda a l'aire o un dau."@ca . . . . . . "\u0423 \u0442\u0435\u043E\u0440\u0456\u0457 \u0439\u043C\u043E\u0432\u0456\u0440\u043D\u043E\u0441\u0442\u0435\u0439, \u043C\u043E\u0434\u0435\u043B\u0456 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0446\u0435 \u0441\u0442\u043E\u0445\u0430\u0441\u0442\u0438\u0447\u043D\u0456 \u043C\u043E\u0434\u0435\u043B\u0456, \u044F\u043A\u0456 \u0432\u0438\u043A\u043E\u0440\u0438\u0441\u0442\u043E\u0432\u0443\u044E\u0442\u044C\u0441\u044F \u0434\u043B\u044F \u043C\u043E\u0434\u0435\u043B\u044E\u0432\u0430\u043D\u043D\u044F \u0441\u0438\u0441\u0442\u0435\u043C, \u0449\u043E \u0432\u0438\u043F\u0430\u0434\u043A\u043E\u0432\u043E \u0437\u043C\u0456\u043D\u044E\u044E\u0442\u044C\u0441\u044F, \u0434\u0435 \u043F\u0435\u0440\u0435\u0434\u0431\u0430\u0447\u0430\u0454\u0442\u044C\u0441\u044F, \u0449\u043E \u043C\u0430\u0439\u0431\u0443\u0442\u043D\u0456 \u0441\u0442\u0430\u043D\u0438 \u0437\u0430\u043B\u0435\u0436\u0430\u0442\u044C \u0442\u0456\u043B\u044C\u043A\u0438 \u0432\u0456\u0434 \u043F\u043E\u0442\u043E\u0447\u043D\u043E\u0433\u043E \u0441\u0442\u0430\u043D\u0443, \u0430 \u043D\u0435 \u0432\u0456\u0434 \u043F\u043E\u0441\u043B\u0456\u0434\u043E\u0432\u043D\u043E\u0441\u0442\u0456 \u043F\u043E\u0434\u0456\u0439, \u044F\u043A\u0456 \u043F\u0435\u0440\u0435\u0434\u0443\u0432\u0430\u043B\u0438 \u0446\u044C\u043E\u043C\u0443 (\u0442\u043E\u0431\u0442\u043E, \u0432\u043E\u043D\u0430 \u043F\u0435\u0440\u0435\u0434\u0431\u0430\u0447\u0430\u0454 \u0432\u043B\u0430\u0441\u0442\u0438\u0432\u0456\u0441\u0442\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430). \u042F\u043A \u043F\u0440\u0430\u0432\u0438\u043B\u043E, \u0446\u0435 \u043F\u0440\u0438\u043F\u0443\u0449\u0435\u043D\u043D\u044F \u0434\u043E\u0437\u0432\u043E\u043B\u044F\u0454 \u043C\u0456\u0440\u043A\u0443\u0432\u0430\u043D\u043D\u044F \u0456 \u043E\u0431\u0447\u0438\u0441\u043B\u0435\u043D\u043D\u044F \u0437 \u043C\u043E\u0434\u0435\u043B\u043B\u044E, \u044F\u043A\u0430 \u0431 \u0432 \u0456\u043D\u0448\u043E\u043C\u0443 \u0432\u0438\u043F\u0430\u0434\u043A\u0443 \u043B\u0438\u0448\u0438\u043B\u0430\u0441\u044C \u043D\u0435\u0440\u043E\u0437\u0432'\u044F\u0437\u043D\u043E\u044E."@uk . . "\u041C\u0430\u0440\u043A\u043E\u0432\u0441\u044C\u043A\u0430 \u043C\u043E\u0434\u0435\u043B\u044C"@uk . "\uB9C8\uB974\uCF54\uD504 \uC5F0\uC1C4"@ko . "Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten f\u00FCr das Eintreten zuk\u00FCnftiger Ereignisse anzugeben. Eine Markow-Kette ist dar\u00FCber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen \u00FCber die zuk\u00FCnftige Entwicklung m\u00F6glich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses. Man unterscheidet Markow-Ketten unterschiedlicher Ordnung. Im Falle einer Markow-Kette erster Ordnung hei\u00DFt das: Der zuk\u00FCnftige Zustand des Prozesses ist nur durch den aktuellen Zustand bedingt und wird nicht durch vergangene Zust\u00E4nde beeinflusst. Die mathematische Formulierung im Falle einer endlichen Zustandsmenge ben\u00F6tigt lediglich den Begriff der diskreten Verteilung sowie der bedingten Wahrscheinlichkeit, w\u00E4hrend im zeitstetigen Falle die Konzepte der Filtration sowie der bedingten Erwartung ben\u00F6tigt werden. Die Begriffe Markow-Kette und Markow-Prozess werden im Allgemeinen synonym verwendet. Zum Teil sind aber zur Abgrenzung mit Markow-Ketten Prozesse in diskreter Zeit (diskreter Zustandsraum) gemeint und mit Markow-Prozessen Prozesse in stetiger Zeit (stetiger Zustandsraum)."@de . . "In probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property."@en . "Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilit\u00E0 di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (propriet\u00E0 di Markov) e non da come si \u00E8 giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la propriet\u00E0 di Markov. Prende il nome dal matematico russo Andrej Andreevi\u010D Markov che per primo ne svilupp\u00F2 la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router."@it . "Si definisce processo stocastico markoviano (o di Markov), un processo aleatorio in cui la probabilit\u00E0 di transizione che determina il passaggio a uno stato di sistema dipende solo dallo stato del sistema immediatamente precedente (propriet\u00E0 di Markov) e non da come si \u00E8 giunti a questo stato. Viceversa si dice processo non markoviano un processo aleatorio per cui non vale la propriet\u00E0 di Markov. Prende il nome dal matematico russo Andrej Andreevi\u010D Markov che per primo ne svilupp\u00F2 la teoria. Modelli di tipo markoviano vengono utilizzati nella progettazione di reti di telecomunicazioni: la teoria delle code che ne consegue trova applicazione in molti ambiti, dalla fila agli sportelli ai pacchetti dati in coda in un router. Un processo di Markov pu\u00F2 essere descritto per mezzo dell'enunciazione della propriet\u00E0 di Markov, o condizione di \"assenza di memoria\", che pu\u00F2 essere scritta come:"@it . . "Rantai Markov"@in . . . . . "Markovketen"@nl . "Markov model"@en . "\u041B\u0430\u043D\u0446\u044E\u0433 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0432 \u043C\u0430\u0442\u0435\u043C\u0430\u0442\u0438\u0446\u0456 \u0446\u0435 \u0432\u0438\u043F\u0430\u0434\u043A\u043E\u0432\u0438\u0439 \u043F\u0440\u043E\u0446\u0435\u0441, \u0449\u043E \u0437\u0430\u0434\u043E\u0432\u043E\u043B\u044C\u043D\u044F\u0454 \u0432\u043B\u0430\u0441\u0442\u0438\u0432\u0456\u0441\u0442\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0456 \u044F\u043A\u0438\u0439 \u043F\u0440\u0438\u0439\u043C\u0430\u0454 \u0441\u043A\u0456\u043D\u0447\u0435\u043D\u043D\u0443 \u0447\u0438 \u0437\u043B\u0456\u0447\u0435\u043D\u043D\u0443 \u043A\u0456\u043B\u044C\u043A\u0456\u0441\u0442\u044C \u0437\u043D\u0430\u0447\u0435\u043D\u044C (\u0441\u0442\u0430\u043D\u0456\u0432). \u0406\u0441\u043D\u0443\u044E\u0442\u044C \u043B\u0430\u043D\u0446\u044E\u0433\u0438 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u044F\u043A \u0437 \u0434\u0438\u0441\u043A\u0440\u0435\u0442\u043D\u0438\u043C \u0442\u0430\u043A \u0456 \u0437 \u043D\u0435\u043F\u0435\u0440\u0435\u0440\u0432\u043D\u0438\u043C \u0447\u0430\u0441\u043E\u043C. \u0412 \u0434\u0430\u043D\u0456\u0439 \u0441\u0442\u0430\u0442\u0442\u0456 \u0440\u043E\u0437\u0433\u043B\u044F\u0434\u0430\u0454\u0442\u044C\u0441\u044F \u0434\u0438\u0441\u043A\u0440\u0435\u0442\u043D\u0438\u0439 \u0432\u0438\u043F\u0430\u0434\u043E\u043A."@uk . . "Cha\u00EEne de Markov"@fr . . "En math\u00E9matiques, une cha\u00EEne de Markov est un processus de Markov \u00E0 temps discret, ou \u00E0 temps continu et \u00E0 espace d'\u00E9tats discret. Un processus de Markov est un processus stochastique poss\u00E9dant la propri\u00E9t\u00E9 de Markov : l'information utile pour la pr\u00E9diction du futur est enti\u00E8rement contenue dans l'\u00E9tat pr\u00E9sent du processus et n'est pas d\u00E9pendante des \u00E9tats ant\u00E9rieurs (le syst\u00E8me n'a pas de \u00AB m\u00E9moire \u00BB). Les processus de Markov portent le nom de leur inventeur, Andre\u00EF Markov."@fr . . "\u0633\u0644\u0633\u0644\u0629 \u0645\u0627\u0631\u0643\u0648\u0641"@ar . . . . . "\u30DE\u30EB\u30B3\u30D5\u9023\u9396\uFF08\u30DE\u30EB\u30B3\u30D5\u308C\u3093\u3055\u3001\u82F1: Markov chain\uFF09\u3068\u306F\u3001\u78BA\u7387\u904E\u7A0B\u306E\u4E00\u7A2E\u3067\u3042\u308B\u30DE\u30EB\u30B3\u30D5\u904E\u7A0B\u306E\u3046\u3061\u3001\u3068\u308A\u3046\u308B\u72B6\u614B\u304C\u96E2\u6563\u7684\uFF08\u6709\u9650\u307E\u305F\u306F\u53EF\u7B97\uFF09\u306A\u3082\u306E\uFF08\u96E2\u6563\u72B6\u614B\u30DE\u30EB\u30B3\u30D5\u904E\u7A0B\uFF09\u3092\u3044\u3046\u3002\u307E\u305F\u7279\u306B\u3001\u6642\u9593\u304C\u96E2\u6563\u7684\u306A\u3082\u306E\uFF08\u6642\u523B\u306F\u6DFB\u3048\u5B57\u3067\u8868\u3055\u308C\u308B\uFF09\u3092\u6307\u3059\u3053\u3068\u304C\u591A\u3044\u3002\u30DE\u30EB\u30B3\u30D5\u9023\u9396\u306F\u3001\u672A\u6765\u306E\u6319\u52D5\u304C\u73FE\u5728\u306E\u5024\u3060\u3051\u3067\u6C7A\u5B9A\u3055\u308C\u3001\u904E\u53BB\u306E\u6319\u52D5\u3068\u7121\u95A2\u4FC2\u3067\u3042\u308B\uFF08\u30DE\u30EB\u30B3\u30D5\u6027\uFF09\u3002\u5404\u6642\u523B\u306B\u304A\u3044\u3066\u8D77\u3053\u308B\u72B6\u614B\u5909\u5316\uFF08\u9077\u79FB\u307E\u305F\u306F\u63A8\u79FB\uFF09\u306B\u95A2\u3057\u3066\u3001\u30DE\u30EB\u30B3\u30D5\u9023\u9396\u306F\u9077\u79FB\u78BA\u7387\u304C\u904E\u53BB\u306E\u72B6\u614B\u306B\u3088\u3089\u305A\u3001\u73FE\u5728\u306E\u72B6\u614B\u306E\u307F\u306B\u3088\u308B\u7CFB\u5217\u3067\u3042\u308B\u3002\u7279\u306B\u91CD\u8981\u306A\u78BA\u7387\u904E\u7A0B\u3068\u3057\u3066\u3001\u69D8\u3005\u306A\u5206\u91CE\u306B\u5FDC\u7528\u3055\u308C\u308B\u3002"@ja . "In probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property."@en . . "Markov\u016Fv \u0159et\u011Bzec"@cs . "\u0397 \u03B1\u03BB\u03C5\u03C3\u03AF\u03B4\u03B1 \u039C\u03AC\u03C1\u03BA\u03BF\u03C6, \u03AE \u03BC\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AE \u03B1\u03BB\u03C5\u03C3\u03AF\u03B4\u03B1, \u03C0\u03BF\u03C5 \u03C0\u03AE\u03C1\u03B5 \u03C4\u03BF \u03CC\u03BD\u03BF\u03BC\u03B1 \u03C4\u03B7\u03C2 \u03B1\u03C0\u03CC \u03C4\u03BF\u03BD , \u03B5\u03AF\u03BD\u03B1\u03B9 \u03AD\u03BD\u03B1 \u03BC\u03B1\u03B8\u03B7\u03BC\u03B1\u03C4\u03B9\u03BA\u03CC \u03C3\u03CD\u03C3\u03C4\u03B7\u03BC\u03B1 \u03C0\u03BF\u03C5 \u03BC\u03B5\u03C4\u03B1\u03B2\u03AC\u03BB\u03BB\u03B5\u03C4\u03B1\u03B9 \u03B1\u03C0\u03CC \u03BC\u03B9\u03B1 \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03C3\u03B5 \u03BC\u03B9\u03B1 \u03AC\u03BB\u03BB\u03B7, \u03B1\u03BD\u03AC\u03BC\u03B5\u03C3\u03B1 \u03C3\u03B5 \u03AD\u03BD\u03B1 \u03C0\u03B5\u03C0\u03B5\u03C1\u03B1\u03C3\u03BC\u03AD\u03BD\u03BF \u03B1\u03C1\u03B9\u03B8\u03BC\u03CC \u03BA\u03B1\u03C4\u03B1\u03C3\u03C4\u03AC\u03C3\u03B5\u03C9\u03BD. \u0395\u03AF\u03BD\u03B1\u03B9 \u03BC\u03B9\u03B1 \u03C4\u03C5\u03C7\u03B1\u03AF\u03B1 \u03B4\u03B9\u03B1\u03B4\u03B9\u03BA\u03B1\u03C3\u03AF\u03B1 \u03C0\u03BF\u03C5 \u03B4\u03B5 \u03B4\u03B9\u03B1\u03C4\u03B7\u03C1\u03B5\u03AF \u03BC\u03BD\u03AE\u03BC\u03B7 \u03B3\u03B9\u03B1 \u03C4\u03B9\u03C2 \u03C0\u03C1\u03BF\u03B7\u03B3\u03BF\u03CD\u03BC\u03B5\u03BD\u03B5\u03C2 \u03BC\u03B5\u03C4\u03B1\u03B2\u03BF\u03BB\u03AD\u03C2: \u0397 \u03B5\u03C0\u03CC\u03BC\u03B5\u03BD\u03B7 \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03B5\u03BE\u03B1\u03C1\u03C4\u03AC\u03C4\u03B1\u03B9 \u03BC\u03CC\u03BD\u03BF \u03B1\u03C0\u03CC \u03C4\u03B7\u03BD \u03C4\u03C9\u03C1\u03B9\u03BD\u03AE \u03BA\u03B1\u03C4\u03AC\u03C3\u03C4\u03B1\u03C3\u03B7 \u03BA\u03B1\u03B9 \u03C3\u03B5 \u03BA\u03B1\u03BC\u03B9\u03AC \u03C0\u03B5\u03C1\u03AF\u03C0\u03C4\u03C9\u03C3\u03B7 \u03B1\u03C0\u03CC \u03B1\u03C5\u03C4\u03AD\u03C2 \u03C0\u03BF\u03C5 \u03C0\u03C1\u03BF\u03B7\u03B3\u03AE\u03B8\u03B7\u03BA\u03B1\u03BD. \u0391\u03C5\u03C4\u03CC \u03C4\u03BF \u03C3\u03C5\u03B3\u03BA\u03B5\u03BA\u03C1\u03B9\u03BC\u03AD\u03BD\u03BF \u03B5\u03AF\u03B4\u03BF\u03C2 \"\u03B1\u03BC\u03BD\u03B7\u03C3\u03AF\u03B1\u03C2\" \u03BF\u03BD\u03BF\u03BC\u03AC\u03B6\u03B5\u03C4\u03B1\u03B9 \u03BC\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AE \u03B9\u03B4\u03B9\u03CC\u03C4\u03B7\u03C4\u03B1. \u039F\u03B9 \u039C\u03B1\u03C1\u03BA\u03BF\u03B2\u03B9\u03B1\u03BD\u03AD\u03C2 \u0391\u03BB\u03C5\u03C3\u03AF\u03B4\u03B5\u03C2 \u03AD\u03C7\u03BF\u03C5\u03BD \u03C0\u03BF\u03BB\u03BB\u03AD\u03C2 \u03B5\u03C6\u03B1\u03C1\u03BC\u03BF\u03B3\u03AD\u03C2 \u03C9\u03C2 \u03C3\u03C4\u03B1\u03C4\u03B9\u03C3\u03C4\u03B9\u03BA\u03AC \u03BC\u03BF\u03BD\u03C4\u03AD\u03BB\u03B1 \u03BA\u03B1\u03B8\u03B7\u03BC\u03B5\u03C1\u03B9\u03BD\u03CE\u03BD \u03B4\u03B9\u03B1\u03B4\u03B9\u03BA\u03B1\u03C3\u03B9\u03CE\u03BD."@el . "\u9A6C\u5C14\u53EF\u592B\u94FE\uFF08\u82F1\u8A9E\uFF1AMarkov chain\uFF09\uFF0C\u53C8\u7A31\u96E2\u6563\u6642\u9593\u99AC\u53EF\u592B\u93C8\uFF08discrete-time Markov chain\uFF0C\u7E2E\u5BEB\u70BADTMC\uFF09\uFF0C\u56E0\u4FC4\u570B\u6578\u5B78\u5BB6\u5B89\u5FB7\u70C8\u00B7\u9A6C\u5C14\u53EF\u592B\u5F97\u540D\uFF0C\u4E3A\u72C0\u614B\u7A7A\u9593\u4E2D\u7ECF\u8FC7\u4ECE\u4E00\u4E2A\u72B6\u6001\u5230\u53E6\u4E00\u4E2A\u72B6\u6001\u7684\u8F6C\u6362\u7684\u968F\u673A\u8FC7\u7A0B\u3002\u8BE5\u8FC7\u7A0B\u8981\u6C42\u5177\u5907\u201C\u65E0\u8BB0\u5FC6\u201D\u7684\u6027\u8D28\uFF1A\u4E0B\u4E00\u72B6\u6001\u7684\u6982\u7387\u5206\u5E03\u53EA\u80FD\u7531\u5F53\u524D\u72B6\u6001\u51B3\u5B9A\uFF0C\u5728\u65F6\u95F4\u5E8F\u5217\u4E2D\u5B83\u524D\u9762\u7684\u4E8B\u4EF6\u5747\u4E0E\u4E4B\u65E0\u5173\u3002\u8FD9\u79CD\u7279\u5B9A\u7C7B\u578B\u7684\u201C\u65E0\u8BB0\u5FC6\u6027\u201D\u79F0\u4F5C\u99AC\u53EF\u592B\u6027\u8CEA\u3002\u9A6C\u5C14\u79D1\u592B\u94FE\u4F5C\u4E3A\u5B9E\u9645\u8FC7\u7A0B\u7684\u7EDF\u8BA1\u6A21\u578B\u5177\u6709\u8BB8\u591A\u5E94\u7528\u3002 \u5728\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u6BCF\u4E00\u6B65\uFF0C\u7CFB\u7EDF\u6839\u636E\u6982\u7387\u5206\u5E03\uFF0C\u53EF\u4EE5\u4ECE\u4E00\u4E2A\u72B6\u6001\u53D8\u5230\u53E6\u4E00\u4E2A\u72B6\u6001\uFF0C\u4E5F\u53EF\u4EE5\u4FDD\u6301\u5F53\u524D\u72B6\u6001\u3002\u72B6\u6001\u7684\u6539\u53D8\u53EB\u505A\u8F6C\u79FB\uFF0C\u4E0E\u4E0D\u540C\u7684\u72B6\u6001\u6539\u53D8\u76F8\u5173\u7684\u6982\u7387\u53EB\u505A\u8F6C\u79FB\u6982\u7387\u3002\u968F\u673A\u6F2B\u6B65\u5C31\u662F\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u4F8B\u5B50\u3002\u968F\u673A\u6F2B\u6B65\u4E2D\u6BCF\u4E00\u6B65\u7684\u72B6\u6001\u662F\u5728\u56FE\u5F62\u4E2D\u7684\u70B9\uFF0C\u6BCF\u4E00\u6B65\u53EF\u4EE5\u79FB\u52A8\u5230\u4EFB\u4F55\u4E00\u4E2A\u76F8\u90BB\u7684\u70B9\uFF0C\u5728\u8FD9\u91CC\u79FB\u52A8\u5230\u6BCF\u4E00\u4E2A\u70B9\u7684\u6982\u7387\u90FD\u662F\u76F8\u540C\u7684\uFF08\u65E0\u8BBA\u4E4B\u524D\u6F2B\u6B65\u8DEF\u5F84\u662F\u5982\u4F55\u7684\uFF09\u3002"@zh . . "\u0423 \u0442\u0435\u043E\u0440\u0456\u0457 \u0439\u043C\u043E\u0432\u0456\u0440\u043D\u043E\u0441\u0442\u0435\u0439, \u043C\u043E\u0434\u0435\u043B\u0456 \u041C\u0430\u0440\u043A\u043E\u0432\u0430 \u0446\u0435 \u0441\u0442\u043E\u0445\u0430\u0441\u0442\u0438\u0447\u043D\u0456 \u043C\u043E\u0434\u0435\u043B\u0456, \u044F\u043A\u0456 \u0432\u0438\u043A\u043E\u0440\u0438\u0441\u0442\u043E\u0432\u0443\u044E\u0442\u044C\u0441\u044F \u0434\u043B\u044F \u043C\u043E\u0434\u0435\u043B\u044E\u0432\u0430\u043D\u043D\u044F \u0441\u0438\u0441\u0442\u0435\u043C, \u0449\u043E \u0432\u0438\u043F\u0430\u0434\u043A\u043E\u0432\u043E \u0437\u043C\u0456\u043D\u044E\u044E\u0442\u044C\u0441\u044F, \u0434\u0435 \u043F\u0435\u0440\u0435\u0434\u0431\u0430\u0447\u0430\u0454\u0442\u044C\u0441\u044F, \u0449\u043E \u043C\u0430\u0439\u0431\u0443\u0442\u043D\u0456 \u0441\u0442\u0430\u043D\u0438 \u0437\u0430\u043B\u0435\u0436\u0430\u0442\u044C \u0442\u0456\u043B\u044C\u043A\u0438 \u0432\u0456\u0434 \u043F\u043E\u0442\u043E\u0447\u043D\u043E\u0433\u043E \u0441\u0442\u0430\u043D\u0443, \u0430 \u043D\u0435 \u0432\u0456\u0434 \u043F\u043E\u0441\u043B\u0456\u0434\u043E\u0432\u043D\u043E\u0441\u0442\u0456 \u043F\u043E\u0434\u0456\u0439, \u044F\u043A\u0456 \u043F\u0435\u0440\u0435\u0434\u0443\u0432\u0430\u043B\u0438 \u0446\u044C\u043E\u043C\u0443 (\u0442\u043E\u0431\u0442\u043E, \u0432\u043E\u043D\u0430 \u043F\u0435\u0440\u0435\u0434\u0431\u0430\u0447\u0430\u0454 \u0432\u043B\u0430\u0441\u0442\u0438\u0432\u0456\u0441\u0442\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430). \u042F\u043A \u043F\u0440\u0430\u0432\u0438\u043B\u043E, \u0446\u0435 \u043F\u0440\u0438\u043F\u0443\u0449\u0435\u043D\u043D\u044F \u0434\u043E\u0437\u0432\u043E\u043B\u044F\u0454 \u043C\u0456\u0440\u043A\u0443\u0432\u0430\u043D\u043D\u044F \u0456 \u043E\u0431\u0447\u0438\u0441\u043B\u0435\u043D\u043D\u044F \u0437 \u043C\u043E\u0434\u0435\u043B\u043B\u044E, \u044F\u043A\u0430 \u0431 \u0432 \u0456\u043D\u0448\u043E\u043C\u0443 \u0432\u0438\u043F\u0430\u0434\u043A\u0443 \u043B\u0438\u0448\u0438\u043B\u0430\u0441\u044C \u043D\u0435\u0440\u043E\u0437\u0432'\u044F\u0437\u043D\u043E\u044E."@uk . . "Markov\u016Fv \u0159et\u011Bzec popisuje obvykle diskr\u00E9tn\u00ED n\u00E1hodn\u00FD (stochastick\u00FD \u010Di pravd\u011Bpodobnostn\u00ED) proces, pro kter\u00FD plat\u00ED, \u017Ee pravd\u011Bpodobnosti p\u0159echodu do n\u00E1sleduj\u00EDc\u00EDho stavu z\u00E1visej\u00ED pouze na sou\u010Dasn\u00E9m stavu, ne na p\u0159edchoz\u00EDch stavech. Tato tzv. dovoluje proces zn\u00E1zornit stavov\u00FDm diagramem, kde z ka\u017Ed\u00E9ho stavu (uzlu grafu) vych\u00E1zej\u00ED hrany mo\u017En\u00FDch p\u0159echod\u016F do dal\u0161\u00EDho stavu s p\u0159ipsanou pravd\u011Bpodobnost\u00ED. Obr\u00E1zek \u0159\u00EDk\u00E1, \u017Ee je-li syst\u00E9m ve stavu E, p\u0159ejde s pravd\u011Bpodobnost\u00ED 0,7 do stavu A, kde\u017Eto s pravd\u011Bpodobnost\u00ED 0,3 z\u016Fstane ve stavu E. Podobn\u011B po stavu A bude s pravd\u011Bpodobnost\u00ED 0,4 n\u00E1sledovat stav E, kde\u017Eto s pravd\u011Bpodobnost\u00ED 0,6 syst\u00E9m z\u016Fstane ve stavu A. Chov\u00E1n\u00ED takov\u00E9ho syst\u00E9mu je tedy \u201Ebezpam\u011B\u0165ov\u00E9\u201C: nen\u00ED pot\u0159eba si pamatovat historii, sta\u010D\u00ED pouze aktu\u00E1ln\u00ED stav. Reprezentac\u00ED takov\u00E9ho syst\u00E9mu tedy m\u016F\u017Ee b\u00FDt kone\u010Dn\u00FD automat. Markovovy \u0159et\u011Bzce dostaly jm\u00E9no po matematiku Andreji Markovovi. P\u0159\u00EDklad: Pokud je zn\u00E1mo, s jakou pravd\u011Bpodobnost\u00ED n\u00E1sleduj\u00ED nap\u0159. v angli\u010Dtin\u011B po ur\u010Dit\u00E9m znaku abecedy jin\u00E9 znaky, lze automaticky generovat n\u00E1hodn\u00E9 \u0159et\u011Bzce znak\u016F, kter\u00E9 sice zpravidla ned\u00E1vaj\u00ED smysl, ale na pohled se anglick\u00FDm v\u011Bt\u00E1m velmi podobaj\u00ED. Markovovy \u0159et\u011Bzce maj\u00ED mnoho praktick\u00FDch pou\u017Eit\u00ED, zejm\u00E9na v informatice, v chemii, v ekonomii i v dal\u0161\u00EDch spole\u010Densk\u00FDch v\u011Bd\u00E1ch."@cs . . . "Em matem\u00E1tica, uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC) \u00E9 um caso particular de processo estoc\u00E1stico com estados discretos (o par\u00E2metro, em geral o tempo, pode ser discreto ou cont\u00EDnuo) com a propriedade de que a distribui\u00E7\u00E3o de probabilidade do pr\u00F3ximo estado depende apenas do estado atual e n\u00E3o na sequ\u00EAncia de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matem\u00E1tico Andrei Andreyevich Markov. A defini\u00E7\u00E3o dessa propriedade, tamb\u00E9m chamada de mem\u00F3ria markoviana, \u00E9 que os estados anteriores s\u00E3o irrelevantes para a predi\u00E7\u00E3o dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov t\u00EAm muitas aplica\u00E7\u00F5es como modelos estat\u00EDsticos de processos do mundo real."@pt . "Eine Markow-Kette (englisch Markov chain; auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess. Ziel bei der Anwendung von Markow-Ketten ist es, Wahrscheinlichkeiten f\u00FCr das Eintreten zuk\u00FCnftiger Ereignisse anzugeben. Eine Markow-Kette ist dar\u00FCber definiert, dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen \u00FCber die zuk\u00FCnftige Entwicklung m\u00F6glich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses."@de . "Processo markoviano"@it . "\u0633\u0644\u0633\u0644\u0629 \u0645\u0627\u0631\u0643\u0648\u0641 (\u0628\u0627\u0644\u0625\u0646\u062C\u0644\u064A\u0632\u064A\u0629: Markov Chain)\u200F \u0645\u0635\u0637\u0644\u062D \u0631\u064A\u0627\u0636\u064A \u0648\u0647\u0648 \u0639\u0628\u0627\u0631\u0629 \u0639\u0646 \u0639\u0645\u0644\u064A\u0629 \u062A\u0635\u0627\u062F\u0641\u064A\u0629 \u062A\u062D\u0645\u0644 \u062E\u0627\u0635\u064A\u0629 \u0645\u0627\u0631\u0643\u0648\u0641\u064A\u0629. \u0641\u064A \u0639\u0645\u0644\u064A\u0629 \u0643\u0647\u0630\u0647\u060C \u062A\u0643\u0647\u064F\u0646\u064F \u0627\u0644\u0645\u0633\u062A\u0642\u0628\u0644 \u0627\u0646\u0637\u0644\u0627\u0642\u0627 \u0645\u0646 \u0627\u0644\u062D\u0627\u0636\u0631 \u0644\u0627 \u064A\u062D\u062A\u0627\u062C \u0625\u0644\u0649 \u0645\u0639\u0631\u0641\u0629 \u0627\u0644\u0645\u0627\u0636\u064A. \u0648\u0644\u0642\u062F \u0623\u062E\u0630\u062A \u0627\u0633\u0645 \u0645\u0628\u062A\u0643\u0631\u0647\u0627 \u0627\u0644\u0631\u0648\u0633\u064A \u0623\u0646\u062F\u0631\u064A\u0627 \u0645\u0627\u0631\u0643\u0648\u0641. \u0633\u0644\u0633\u0644\u0629 \u0645\u0627\u0631\u0643\u0648\u0641 \u0641\u064A \u0648\u0642\u062A \u0645\u062A\u0642\u0637\u0639 \u0647\u064A \u0627\u0644\u0633\u0644\u0633\u0644\u0629 X1, X2, X3,... \u0645\u062A\u0643\u0648\u0646\u0629 \u0645\u0646 \u0645\u062A\u063A\u064A\u0631\u0627\u062A \u0639\u0634\u0648\u0627\u0626\u064A\u0629. \u0645\u062C\u0645\u0648\u0639\u0629 \u0627\u0644\u0642\u064A\u0645\u0627\u062A \u0627\u0644\u0645\u0645\u0643\u0646\u0629 \u062A\u062F\u0639\u064A \u0641\u0636\u0627\u0621 \u0627\u0644\u062D\u0627\u0644\u0627\u062A. \u0648Xn \u062A\u062F\u0639\u0649 \u062D\u0627\u0644\u0629 \u0627\u0644\u0639\u0645\u0644\u064A\u0629 \u0641\u064A \u0627\u0644\u0622\u0646 n. \u0625\u0630\u0627 \u0643\u0627\u0646 \u062A\u0648\u0632\u064A\u0639 \u0627\u0644\u0627\u062D\u062A\u0645\u0627\u0644 \u0627\u0644\u0634\u0631\u0637\u064A \u0644Xn+1 \u0639\u0644\u0649 \u0627\u0644\u062D\u0627\u0644\u0627\u062A \u0627\u0644\u0641\u0627\u0631\u0637\u0629 \u062F\u0627\u0644\u0629 \u0648\u062D\u062F\u0647 \u0625\u0630\u0646 .\u062D\u064A\u062B x \u0647\u064A \u062F\u0627\u0644\u0629 \u0645\u0627 \u0641\u064A \u0627\u0644\u0639\u0645\u0644\u064A\u0629. \u0627\u0644\u0645\u0639\u0627\u062F\u0644\u0629 \u0647\u0630\u0647 \u062A\u0639\u0631\u0641 \u0628\u0627\u0644\u0627\u062D\u062A\u0645\u0627\u0644 \u0627\u0644\u0645\u0627\u0631\u0643\u0648\u0641\u064A."@ar . "\u0141a\u0144cuch Markowa"@pl . . . . "\uB9C8\uB974\uCF54\uD504 \uBAA8\uD615 \uB610\uB294 \uB9C8\uB974\uCF54\uD504 \uBAA8\uB378\uC740 \uD655\uB960 \uBAA8\uB378\uC758 \uC720\uD615\uC774\uB2E4."@ko . . "\uB9C8\uB974\uCF54\uD504 \uBAA8\uD615"@ko . "\uD655\uB960\uB860\uC5D0\uC11C \uB9C8\uB974\uCF54\uD504 \uC5F0\uC1C4(\u041C\u0430\u0440\u043A\u043E\u0432 \u9023\u9396, \uC601\uC5B4: Markov chain)\uB294 \uC774\uC0B0 \uC2DC\uAC04 \uD655\uB960 \uACFC\uC815\uC774\uB2E4. \uB9C8\uB974\uCF54\uD504 \uC5F0\uC1C4\uB294 \uC2DC\uAC04\uC5D0 \uB530\uB978 \uACC4\uC758 \uC0C1\uD0DC\uC758 \uBCC0\uD654\uB97C \uB098\uD0C0\uB0B8\uB2E4. \uB9E4 \uC2DC\uAC04\uB9C8\uB2E4 \uACC4\uB294 \uC0C1\uD0DC\uB97C \uBC14\uAFB8\uAC70\uB098 \uAC19\uC740 \uC0C1\uD0DC\uB97C \uC720\uC9C0\uD55C\uB2E4. \uC0C1\uD0DC\uC758 \uBCC0\uD654\uB97C \uC804\uC774\uB77C \uD55C\uB2E4. \uB9C8\uB974\uCF54\uD504 \uC131\uC9C8\uC740 \uACFC\uAC70\uC640 \uD604\uC7AC \uC0C1\uD0DC\uAC00 \uC8FC\uC5B4\uC84C\uC744 \uB54C\uC758 \uBBF8\uB798 \uC0C1\uD0DC\uC758 \uC870\uAC74\uBD80 \uD655\uB960 \uBD84\uD3EC\uAC00 \uACFC\uAC70 \uC0C1\uD0DC\uC640\uB294 \uB3C5\uB9BD\uC801\uC73C\uB85C \uD604\uC7AC \uC0C1\uD0DC\uC5D0 \uC758\uD574\uC11C\uB9CC \uACB0\uC815\uB41C\uB2E4\uB294 \uAC83\uC744 \uB73B\uD55C\uB2E4"@ko . "\u0426\u0435\u0301\u043F\u044C \u041C\u0430\u0301\u0440\u043A\u043E\u0432\u0430 \u2014 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0441\u043B\u0443\u0447\u0430\u0439\u043D\u044B\u0445 \u0441\u043E\u0431\u044B\u0442\u0438\u0439 \u0441 \u043A\u043E\u043D\u0435\u0447\u043D\u044B\u043C \u0438\u043B\u0438 \u0441\u0447\u0451\u0442\u043D\u044B\u043C \u0447\u0438\u0441\u043B\u043E\u043C \u0438\u0441\u0445\u043E\u0434\u043E\u0432, \u0433\u0434\u0435 \u0432\u0435\u0440\u043E\u044F\u0442\u043D\u043E\u0441\u0442\u044C \u043D\u0430\u0441\u0442\u0443\u043F\u043B\u0435\u043D\u0438\u044F \u043A\u0430\u0436\u0434\u043E\u0433\u043E \u0441\u043E\u0431\u044B\u0442\u0438\u044F \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u0442\u043E\u043B\u044C\u043A\u043E \u043E\u0442 \u0441\u043E\u0441\u0442\u043E\u044F\u043D\u0438\u044F, \u0434\u043E\u0441\u0442\u0438\u0433\u043D\u0443\u0442\u043E\u0433\u043E \u0432 \u043F\u0440\u0435\u0434\u044B\u0434\u0443\u0449\u0435\u043C \u0441\u043E\u0431\u044B\u0442\u0438\u0438. \u0425\u0430\u0440\u0430\u043A\u0442\u0435\u0440\u0438\u0437\u0443\u0435\u0442\u0441\u044F \u0442\u0435\u043C \u0441\u0432\u043E\u0439\u0441\u0442\u0432\u043E\u043C, \u0447\u0442\u043E, \u0433\u043E\u0432\u043E\u0440\u044F \u043D\u0435\u0441\u0442\u0440\u043E\u0433\u043E, \u043F\u0440\u0438 \u0444\u0438\u043A\u0441\u0438\u0440\u043E\u0432\u0430\u043D\u043D\u043E\u043C \u043D\u0430\u0441\u0442\u043E\u044F\u0449\u0435\u043C \u0431\u0443\u0434\u0443\u0449\u0435\u0435 \u043D\u0435\u0437\u0430\u0432\u0438\u0441\u0438\u043C\u043E \u043E\u0442 \u043F\u0440\u043E\u0448\u043B\u043E\u0433\u043E. \u041D\u0430\u0437\u0432\u0430\u043D\u0430 \u0432 \u0447\u0435\u0441\u0442\u044C \u0410. \u0410. \u041C\u0430\u0440\u043A\u043E\u0432\u0430 (\u0441\u0442\u0430\u0440\u0448\u0435\u0433\u043E), \u043A\u043E\u0442\u043E\u0440\u044B\u0439 \u0432\u043F\u0435\u0440\u0432\u044B\u0435 \u0432\u0432\u0451\u043B \u044D\u0442\u043E \u043F\u043E\u043D\u044F\u0442\u0438\u0435 \u0432 \u0440\u0430\u0431\u043E\u0442\u0435 1906 \u0433\u043E\u0434\u0430."@ru . "Markov-Modell"@de . "Sa mhatamaitic, is \u00E9ard at\u00E1 i Slabhra Markov n\u00E1 slabhra eachtra\u00ED ina mbraitheann an d\u00F3ch\u00FAlacht go ngluaisfear ar aghaidh don ch\u00E9ad staid eile ar an staid at\u00E1 ann anois. Is f\u00E9idir iad a l\u00E9iri\u00FA le maitr\u00EDs\u00ED. L\u00E9ir\u00EDtear slabhra Markov d\u00E9staide, ina bhfuil dh\u00E1 staid a d'fh\u00E9adfa\u00ED a bheith ann, mar seo: Mar shampla, is f\u00E9idir le duine taisteal abhaile \u00F3n obair ar charr n\u00F3 traein. M\u00E1 th\u00E9ann s\u00E9 ar charr l\u00E1 amh\u00E1in, is \u00ED an d\u00F3ch\u00FAlacht go nd\u00E9anfaidh s\u00E9 amhlaidh an l\u00E1 d\u00E1r gcionn n\u00E1 0.4. M\u00E1 th\u00E9ann s\u00E9 ar an traein l\u00E1 amh\u00E1in, is \u00ED an d\u00F3ch\u00FAlacht go nd\u00E9anfaidh s\u00E9 amhlaidh an l\u00E1 d\u00E1r gcionn n\u00E1 0.3. L\u00E9ir\u00EDtear iad seo leis an maitr\u00EDs thrasdultach: D'fhionn an matamaiticeoir S\u00F3iv\u00E9adach (1856-1922) an coincheap \u00E1isi\u00FAil seo."@ga . "10286"^^ . "Rantai Markov adalah proses stokastik yang menggambarkan urutan barisan yang mungkin di mana probabilitas setiap kejadian hanya bergantung pada keadaan yang dicapai pada kejadian sebelumnya. Urutan tak terbatas yang dapat dihitung, di mana rantai bergerak pada langkah waktu diskrit, memberikan rantai Markov waktu diskrit (DTMC). Proses waktu kontinu disebut rantai Markov waktu kontinu (CTMC). Ini dinamai ahli matematika Rusia Andrei Markov."@in . . "En Markovkedja \u00E4r inom matematiken en tidsdiskret stokastisk process med Markovegenskapen, det vill s\u00E4ga att processens f\u00F6rlopp kan best\u00E4mmas utifr\u00E5n dess befintliga tillst\u00E5nd utan k\u00E4nnedom om det f\u00F6rflutna. En Markovkedja som \u00E4r tidskontinuerlig kallas en Markovprocess. En Markovkedja som antar \u00E4ndligt m\u00E5nga v\u00E4rden kan representeras av en \u00F6verg\u00E5ngsmatris. Givet en sannolikhetsvektor, erh\u00E5lles sannolikhetsvektorn f\u00F6r n\u00E4sta steg i kedjan av multiplikation med \u00F6verg\u00E5ngsmatrisen. Flera steg kan ber\u00E4knas genom exponentiering av \u00F6verg\u00E5ngsmatrisen. Det \u00E4r \u00E4ven m\u00F6jligt att ber\u00E4kna processens , det vill s\u00E4ga vad som h\u00E4nder d\u00E5 processen forts\u00E4tter i o\u00E4ndligheten, med hj\u00E4lp av egenvektorer. Markovkedjor har m\u00E5nga till\u00E4mpningsomr\u00E5den, bland annat f\u00F6r att beskriva och inom bioinformatik. Resultaten som ligger till grund f\u00F6r teorin om Markovkedjor framlades 1906 av Andrej Markov."@sv . "\u9A6C\u5C14\u53EF\u592B\u94FE"@zh .