Markov prelucrează exemple. Elemente ale teoriei cozilor. Exemple de teoria probabilității

Un proces aleatoriu este un set sau o familie de variabile aleatoare ale căror valori sunt indexate de un parametru de timp. De exemplu, numărul de elevi dintr-o clasă, presiunea atmosferică sau temperatura din acea clasă în funcție de timp sunt procese aleatorii.

Procesele aleatorii sunt utilizate pe scară largă în studiul sistemelor stocastice complexe ca modele matematice adecvate ale funcționării unor astfel de sisteme.

Conceptele de bază pentru procesele aleatorii sunt conceptele starea procesuluiȘi tranziție el de la o stare la alta.

Valorile variabilelor care descriu procesul aleator, în acest moment timp sunt numite statAleatoriuproces. Un proces aleatoriu face o tranziție de la o stare la alta dacă valorile variabilelor care definesc o stare se schimbă în valorile care definesc o altă stare.

Numărul de stări posibile (spațiul de stări) ale unui proces aleatoriu poate fi finit sau infinit. Dacă numărul de stări posibile este finit sau numărabil (numerele secvențiale pot fi atribuite tuturor stărilor posibile), atunci procesul aleatoriu se numește proces de stare discretă. De exemplu, numărul de clienți dintr-un magazin, numărul de clienți dintr-o bancă în timpul zilei sunt descrise prin procese aleatorii cu stări discrete.

Dacă variabilele care descriu un proces aleatoriu pot lua orice valoare dintr-un interval continuu finit sau infinit și, prin urmare, numărul de stări este de nenumărat, atunci procesul aleator se numește proces de stare continuă. De exemplu, temperatura aerului în timpul zilei este un proces aleatoriu cu stări continue.

Pentru procesele aleatoare cu stări discrete, tranzițiile bruște de la o stare la alta sunt caracteristice, în timp ce în procesele cu stări continue, tranzițiile sunt netede. În plus, vom lua în considerare numai procesele cu stări discrete, care sunt adesea numite lanţuri.

Notează prin g(t) proces aleatoriu cu stări discrete și valori posibile g(t), adică stări posibile ale circuitului, - prin simboluri E 0 , E 1 , E 2 , … . Uneori numerele 0, 1, 2, ... din seria naturală sunt folosite pentru a desemna stări discrete.

proces aleatoriu g(t) se numește procesdindiscrettimp, dacă tranzițiile procesului de la stare la stare sunt posibile numai la momente strict definite, prefixate t 0 , t 1 , t 2 , … . Dacă tranziția unui proces de la stare la stare este posibilă în orice moment necunoscut anterior, atunci se numește proces aleatoriu. procescu continuutimp. În primul caz, este evident că intervalele de timp dintre tranziții sunt deterministe, iar în al doilea - variabile aleatorii.

Un proces cu timp discret are loc fie atunci când structura sistemului descrisă de acest proces este de așa natură încât stările sale se pot schimba numai în momente predeterminate de timp, fie când se presupune că pentru a descrie procesul (sistemul) este suficient. să cunoască stările în anumite momente în timp. Atunci aceste momente pot fi numerotate și vorbesc despre stat E i atunci t i .

Procesele aleatoare cu stări discrete pot fi reprezentate ca un grafic de tranziții (sau stări), în care vârfurile corespund stărilor, iar arcele orientate corespund tranzițiilor de la o stare la alta. Dacă în afara statului E i este posibilă doar o singură tranziție de stare E j, atunci acest fapt este reflectat pe graficul de tranziție printr-un arc îndreptat de la vârf E iîn partea de sus E j(Fig. 1a). Tranzițiile de la o stare la mai multe stări și de la mai multe stări la o stare sunt reflectate în graficul de tranziție, așa cum se arată în Fig. 1b și 1c.

Dintre diversele tipuri de sisteme care ne înconjoară: tehnice, informaționale, sociale etc., ne vor interesa sistemele care apar în procesele de servicii, în procesele de servicii. ÎN matematici aplicate asa se numesc ei - sisteme de așteptare (QS). Aparatul matematic pentru studierea acestor sisteme a fost dezvoltat de mult timp și vă permite să construiți modele ale unor astfel de sisteme pentru a descrie procesele de service și a calcula principalele caracteristici ale funcționării sistemului pentru a determina eficacitatea acestuia. Acest aparat se bazează pe teoria probabilității și teoria proceselor aleatorii. Luați în considerare ideile și conceptele de bază.

2.1. Elemente ale teoriei proceselor aleatoare Markov utilizate în modelarea sistemelor

Se numește funcția X(t). Aleatoriu, dacă valoarea sa pentru orice argument t este o variabilă aleatorie.

Se apelează o funcție aleatoare X(t) al cărei argument este timpul proces aleatoriu.

Procesele Markov sunt un tip special de procese aleatorii. Locul special al proceselor Markov printre alte clase de procese aleatoare se datorează următoarelor circumstanțe: pentru procesele Markov, un aparat matematic este bine dezvoltat care permite rezolvarea multor sarcini practice, cu ajutorul proceselor Markov se poate descrie (exact sau aproximativ) comportamentul unor sisteme destul de complexe.

Definiție. proces aleatoriu într-un sistem S, numit Markovian sau proces nici un efect secundar, dacă are următoarea proprietate: pentru orice moment de timp t 0 probabilitatea oricărei stări a sistemului în viitor depinde numai de starea acestuia în prezent și nu depinde de când și cum sistemul S ajuns în această stare.

Clasificarea proceselor Markov. Clasificarea proceselor aleatoare Markov se face în funcție de continuitatea sau discretitatea setului de valori ale funcției X (t) și a parametrului t.

Există următoarele tipuri principale de procese aleatorii Markov:

    cu stări discrete și timp discret (lanțul Markov);

    cu stări continue și timp discret (secvențe Markov);

    cu stări discrete și timp continuu (lanț Markov continuu);

    cu stare continuă și timp continuu.

Vom lua în considerare numai procesele Markov cu stări discrete S 1 , S 2 , ..., S n .

Graficul de stare. Procesele Markov în stare discretă sunt ilustrate convenabil folosind așa-numitul grafic de stare ( orez. 2.1), unde cercurile denotă stările S 1 , S 2 , ... sisteme S, iar săgețile reprezintă posibile tranziții de la stat la stat.

Orez. 2.1. Exemplu de grafic de stare a sistemuluiS

Doar tranzițiile directe sunt marcate pe grafic și nu tranzițiile prin alte stări. Posibilele întârzieri în starea anterioară sunt descrise ca o „buclă”, adică o săgeată direcționată dintr-o stare dată către aceasta. Numărul de stări ale sistemului poate fi fie finit, fie infinit (nenumărabil).

Este foarte convenabil să descriem apariția evenimentelor aleatoare sub formă de probabilități de tranziție de la o stare a sistemului la alta, deoarece se crede că, după ce a trecut într-una dintre stări, sistemul nu mai trebuie să ia în considerare circumstanțele în care a ajuns în această stare.

Procesul aleatoriu este numit procesul Markov(sau proces fără efecte secundare), dacă pentru fiecare moment de timp t probabilitatea oricărei stări a sistemului în viitor depinde numai de starea sa din prezent și nu depinde de modul în care sistemul a ajuns în această stare.

Deci, este convenabil să definiți un proces Markov ca un grafic de tranziție de la stare la stare. Vom lua în considerare două opțiuni pentru descrierea proceselor Markov − cu timp discret şi continuu.

În primul caz, trecerea de la o stare la alta are loc în momente de timp predeterminate - cicluri (1, 2, 3, 4, ...). Tranziția se realizează la fiecare pas, adică cercetătorul este interesat doar de succesiunea stărilor prin care trece procesul aleatoriu în desfășurarea sa și nu este interesat de când s-a produs exact fiecare dintre tranziții.

În al doilea caz, cercetătorul este interesat atât de lanțul de stări care se schimbă între ele, cât și de momentele de timp în care au avut loc astfel de tranziții.

Și mai departe. Dacă probabilitatea de tranziție nu depinde de timp, atunci lanțul Markov se numește omogen.

Procesul Markov cu timp discret

Deci, reprezentăm modelul procesului Markov ca un grafic în care stările (vârfurile) sunt interconectate prin legături (tranziții de la i starea în j-e stare), vezi fig. 33.1.

Orez. 33.1. Exemplu de grafic de tranziție

Fiecare tranziție este caracterizată probabilitatea de tranziție P ij. Probabilitate P ij arată cât de des după lovire i-a stare este efectuată apoi trecerea la j-imobiliar. Desigur, astfel de tranziții au loc aleatoriu, dar dacă măsurăm frecvența tranzițiilor pe un timp suficient de lung, se dovedește că această frecvență va coincide cu o probabilitate de tranziție dată.

Este clar că pentru fiecare stare, suma probabilităților tuturor tranzițiilor (săgețile de ieșire) de la ea la alte stări trebuie să fie întotdeauna egală cu 1 (vezi Fig. 33.2).

Orez. 33.2. Fragment din graficul de tranziție
(tranzițiile de la a i-a stare sunt
grup complet de evenimente aleatorii)

De exemplu, un grafic complet ar putea arăta ca cel prezentat în Fig. 33.3.

Orez. 33.3. Un exemplu de grafic de tranziție Markov

Implementarea procesului Markov (procesul modelării acestuia) este calculul unei secvențe (lanț) de tranziții de la stare la stare (vezi Fig. 33.4). Lanțul din fig. 33,4 este secvență aleatorieși poate avea și alte implementări.

Orez. 33.4. Un exemplu de lanț Markov modelat
conform graficului Markov prezentat în fig. 33.3

Pentru a determina în ce stare nouă va trece procesul de la starea actuală i starea, este suficient să împărțim intervalul în subintervale ale valorii P i 1 , P i 2 , P i 3, … ( P i 1 + P i 2 + P i 3 + … = 1), vezi fig. 33.5. Apoi, folosind RNG, trebuie să obțineți următorul număr aleatoriu distribuit uniform în interval r pp și determinați în care dintre intervale se încadrează (vezi prelegerea 23).

Orez. 33.5. Procesul de modelare a tranziției de la i-a
stări ale lanțului Markov în j-a folosind
generator de numere aleatorii

După aceea, se efectuează tranziția la starea determinată de RNG, iar procedura descrisă se repetă pentru noua stare. Rezultatul modelului este un lanț Markov (vezi Fig. 33.4 ) .

Exemplu. Imitația tragerii cu tunul asupra unei ținte. Pentru a simula tragerea unui tun către o țintă, construim un model al unui proces aleatoriu Markov.

Definim urmatoarele trei stari: S 0 - ținta nu este deteriorată; S 1 - ținta este deteriorată; S 2 - ținta este distrusă. Să setăm vectorul probabilităților inițiale:

S0 S1 S2
P0 0.8 0.2 0

Sens P 0 pentru fiecare dintre stări arată care este probabilitatea fiecăreia dintre stările obiectului înainte de începerea fotografierii.

Să definim matricea de tranziție a stărilor (vezi Tabelul 33.1).

Tabelul 33.1.
Matricea probabilității de tranziție
proces Markov discret
ÎN S0 ÎN S1 ÎN S2 Suma probabilităților
tranziții
Din S0 0.45 0.40 0.15 0.45 + 0.40 + 0.15 = 1
Din S1 0 0.45 0.55 0 + 0.45 + 0.55 = 1
Din S2 0 0 1 0 + 0 + 1 = 1

Matricea specifică probabilitatea de tranziție de la fiecare stare la fiecare. Rețineți că probabilitățile sunt stabilite în așa fel încât suma probabilităților de tranziție de la o stare la restul este întotdeauna egală cu unu (sistemul trebuie să meargă undeva).

Vizual, modelul procesului Markov poate fi imaginat sub forma următorului grafic (vezi Fig. 33.6).

Orez. 33.6. graficul procesului Markov,
simulând împușcarea cu un tun la o țintă

Folosind modelul și metoda de modelare statistică, vom încerca să rezolvăm următoarea problemă: să determinăm numărul mediu de proiectile necesare pentru distrugerea completă a țintei.

Să simulăm, folosind un tabel de numere aleatorii, procesul de fotografiere. Fie starea inițială S 0 . Să luăm o secvență dintr-un tabel de numere aleatoare: 0,31, 0,53, 0,23, 0,42, 0,63, 0,21, ... (numere aleatoare pot fi luate, de exemplu, din acest tabel).

0.31 : ținta este în stare S 0 și rămâne în stat S 0 pentru că 0< 0.31 < 0.45;
0.53 : ținta este în stare S 0 și merge la stat S 1 de la 0.45< 0.53 < 0.45 + 0.40;
0.23 : ținta este în stare S 1 și rămâne în stat S 1 de la 0< 0.23 < 0.45;
0.42 : ținta este în stare S 1 și rămâne în stat S 1 de la 0< 0.42 < 0.45;
0.63 : ținta este în stare S 1 și merge la stat S 2 de la 0,45< 0.63 < 0.45 + 0.55.

De când s-a ajuns la stat S 2 (apoi ținta se mișcă de la S 2 pe stat S 2 cu probabilitatea 1), atunci ținta este lovită. Pentru aceasta, în acest experiment au fost necesare 5 obuze.

Pe fig. 33.7 prezintă diagrama de timp care se obține în timpul procesului de simulare descris. Diagrama arată modul în care procesul de schimbare a stărilor are loc în timp. Ciclul de simulare pentru acest caz are o valoare fixă. Însuși faptul tranziției este important pentru noi (în ce stare intră sistemul) și nu contează când se întâmplă.


Orez. 33.7. Timpul de tranziție
într-un grafic Markov (exemplu de simulare)

Procedura de distrugere a țintei este finalizată în 5 cicluri, adică lanțul Markov al acestei implementări este după cum urmează: S 0 — S 0 — S 1 - S 1 - S 1 - S 2 . Desigur, acest număr nu poate fi răspunsul la problemă, deoarece implementările diferite vor da răspunsuri diferite. O sarcină poate avea un singur răspuns.

Repetând această simulare, puteți obține, de exemplu, mai multe astfel de implementări (depinde de ce numere aleatoare specifice vor cădea): 4 ( S 0 — S 0 — S 1 - S 1 - S 2 ); 11 (S 0 — S 0 — S 0 — S 0 — S 0 — S 1 - S 1 - S 1 - S 1 - S 1 - S 1 - S 2 ); 5 (S 1 - S 1 - S 1 - S 1 - S 1 - S 2 ); 6 (S 0 — S 0 — S 1 - S 1 - S 1 - S 1 - S 2 ); 4 (S 1 - S 1 - S 1 - S 1 - S 2 ); 6 (S 0 — S 0 — S 1 - S 1 - S 1 - S 1 - S 2 ); 5 (S 0 — S 0 — S 1 - S 1 - S 1 - S 2 ). Un total de 8 ținte au fost distruse. Numărul mediu de cicluri în procedura de tragere a fost: (5 + 4 + 11 + 5 + 6 + 4 + 6 + 5) / 8 = 5,75 sau, rotunjind, 6. Iată câte obuze, în medie, este recomandat să aibă arme în rezerva de luptă pentru ținte de distrugere la astfel de probabilități de lovire.

Acum trebuie să determinăm exactitatea. Este exactitatea care ne poate arăta cât de mult ar trebui să avem încredere într-un răspuns dat. Pentru a face acest lucru, să urmărim modul în care succesiunea de răspunsuri aleatoare (aproximative) converge către rezultatul corect (exact). Reamintim că, conform teoremei limitei centrale (vezi cursul 25, cursul 21), suma variabilelor aleatoare este o valoare non-aleatoare, prin urmare, pentru a obține un răspuns fiabil statistic, este necesar să se monitorizeze numărul mediu de shell-uri obținute într-un număr de implementări aleatorii.

La prima etapă a calculelor, răspunsul mediu a fost de 5 proiectile, la a doua etapă, răspunsul mediu a fost (5 + 4)/2 = 4,5 proiectile, iar la a treia etapă, (5 + 4 + 11)/3 = 6.7. Mai mult, o serie de valori medii, pe măsură ce se acumulează statisticile, arată astfel: 6,3, 6,2, 5,8, 5,9, 5,8. Dacă reprezentăm această serie sub formă de grafic mărime medie proiectile necesare pentru a lovi ținta, în funcție de numărul experimentului, se va constata că această serie converge către o anumită valoare, care este răspunsul (vezi Fig. 33.8).

Orez. 33.8. Modificarea valorii medii în funcție de numărul experimentului

Vizual, putem observa că graficul „se calmează”, diferența dintre valoarea curentă calculată și valoarea ei teoretică scade în timp, tinzând spre un rezultat precis statistic. Adică, la un moment dat, graficul intră într-un anumit „tub”, a cărui dimensiune determină acuratețea răspunsului.

Algoritmul de simulare va avea următoarea formă (vezi Fig. 33.9).

Încă o dată, observăm că în cazul avut în vedere mai sus, nu contează pentru noi în ce momente de timp se va produce tranziția. Tranzițiile merg ritm cu ritm. Dacă este important să se indice în ce moment va avea loc tranziția, cât timp va rămâne sistemul în fiecare dintre stări, este necesar să se aplice un model cu timp continuu.

Procese stocastice Markov cu timp continuu

Deci, din nou, reprezentăm modelul procesului Markov ca un grafic în care stările (vârfurile) sunt interconectate prin legături (tranziții de la i starea în j-e stare), vezi fig. 33.10.

Orez. 33.10. Un exemplu de grafic Markov
proces în timp continuu

Acum fiecare tranziție este caracterizată de densitatea probabilității de tranziție λ ij. Prin definitie:

În acest caz, densitatea este înțeleasă ca o distribuție a probabilității în timp.

Tranziție de la i starea în j-e are loc în momente aleatorii timp, care sunt determinate de intensitatea tranziției λ ij .

La intensitatea tranzițiilor (aici acest concept coincide ca semnificație cu distribuția densității de probabilitate în timp t) trec atunci când procesul este continuu, adică distribuit în timp.

Cu intensitatea fluxului (și tranzițiile sunt fluxul evenimentelor), am învățat deja cum să lucrăm în prelegerea 28. Cunoscând intensitatea λ ij apariția evenimentelor generate de un fir, puteți simula un interval aleator între două evenimente din acest fir.

Unde τ ij este intervalul de timp dintre instalarea sistemului i-om și j-a stare.

Mai departe, evident, un sistem din oricare i-a stare poate merge într-una din mai multe state j , j + 1 , j+ 2 , … asociat cu acesta prin tranziții λ ij , λ ij + 1 , λ ij+ 2, ….

ÎN j-e starea prin care va trece τ ij; în ( j+ 1)-a stare prin care va trece τ ij+ 1; în ( j+ 2 )-a stare prin care va trece τ ij+ 2 etc.

Este clar că sistemul poate merge de la i starea doar la una dintre aceste stări și la una, la care trecerea are loc mai devreme.

Deci din succesiunea de timpi: τ ij , τ ij + 1 , τ ij+ 2 etc. trebuie să alegeți minimul și să determinați indicele j, indicând în ce stare va avea loc tranziția.

Exemplu. Simularea funcționării mașinii. Să simulăm funcționarea mașinii (vezi Fig. 33.10), care poate fi în următoarele stări: S 0 - mașina este funcțională, liberă (simplu); S 1 - mașina este funcțională, ocupată (prelucrare); S 2 - mașina este în stare bună, înlocuirea sculei (schimbarea) λ 02 < λ 21 ; S 3 - utilajul este defect, fiind reparat λ 13 < λ 30 .

Să setăm valorile parametrilor λ , folosind date experimentale obținute în condiții de producție: λ 01 - filet pentru prelucrare (fără reajustare); λ 10 - fluxul de servicii; λ 13 - fluxul defecțiunilor echipamentelor; λ 30 - flux de recuperare.

Implementarea va arăta astfel (vezi Figura 33.11).

Orez. 33.11. Exemplu de simulare continuă
Proces Markov cu vizualizare la timp
diagramă (galben indică interzis,
albastru - stări realizate)

În special, din fig. 33.11 se poate observa că lanțul realizat arată astfel: S 0 — S 1 - S 0 —… Tranzițiile au avut loc în următoarele momente: T 0 — T 1 - T 2 - T 3 -, Unde T 0 = 0 , T 1 = τ 01 , T 2 = τ 01 + τ 10 .

O sarcină . Deoarece modelul este construit pentru a putea rezolva o problemă pe el, al cărei răspuns nu era deloc evident pentru noi înainte (vezi prelegerea 01), formulăm o astfel de problemă pentru acest exemplu. Determinați fracțiunea de timp din timpul zilei în care durează timpul de repaus al mașinii (calculați conform figurii) T cf = ( T + T + T + T)/N .

Algoritmul de simulare va arăta astfel (vezi Fig. 33.12).

Orez. 33.12. Diagrama bloc a algoritmului de simulare pentru continuu
Procesul Markov pe exemplul simulării funcționării unei mașini-unelte

Foarte des, aparatul proceselor Markov este folosit în modelarea jocurilor pe computer, a acțiunilor personajelor de pe computer.

Cursul 9

procesele Markov
Cursul 9
procesele Markov



1

procesele Markov

procesele Markov
Procesul aleatoriu din sistem este numit
Markovian dacă nu are nicio consecință. Acestea.
dacă avem în vedere starea curentă a procesului (t 0) – ca
prezent, set de stări posibile ((s),s t) - as
trecut, set de stări posibile ( (u),u t) - as
viitor, apoi pentru un proces Markov cu un fix
prezent, viitorul nu depinde de trecut, ci este determinat
prezent doar și nu depinde de când și cum sistemul
ajuns în această stare.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
2

procesele Markov

procesele Markov
Procesele aleatoare Markov poartă numele remarcabilului matematician rus A.A. Markov, care a început primul studiul relației probabilistice a variabilelor aleatoare.
și a creat o teorie care poate fi numită „dinamică
probabilități.” În viitor, bazele acestei teorii au fost
baza inițială a teoriei generale a proceselor aleatorii, precum și științe aplicate atât de importante precum teoria proceselor de difuzie, teoria fiabilității, teoria cozilor de așteptare etc.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
3

Markov Andrei Andreevici Markov Andrei Andreevici Markov Andrei Andreevici

procesele Markov
Markov Andrei Andreevici
1856-1922
matematician rus.
Am scris aproximativ 70 de lucrări pe
teorii
numere,
teorii
aproximări ale funcţiilor, teorii
probabilități. A extins semnificativ domeniul de aplicare al legii
numere mari si centrale
teorema limitei. Este un
fondatorul teoriei proceselor aleatorii.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
4

procesele Markov

procesele Markov
În practică, procesele Markov pure sunt de obicei
nu se intalnesc. Dar există procese pentru care influența „preistoriei” poate fi neglijată și atunci când se studiază
astfel de procese pot fi aplicate modele Markov. ÎN
În prezent, teoria proceselor Markov și aplicațiile sale sunt utilizate pe scară largă în diverse domenii.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
5

procesele Markov

procesele Markov
Biologie: procese de naștere și moarte - populații, mutații,
epidemii.
Fizică:
radioactiv
decăderi,
teorie
contoare
particule elementare, procese de difuzie.
Chimie:
teorie
urme
în
nuclear
emulsii fotografice,
modele probabilistice ale cineticii chimice.
Imagini.jpg
Astronomie: teoria fluctuațiilor
strălucirea căii lactee.
Teoria cozilor: centrale telefonice,
ateliere de reparații, case de bilete, birouri de informații,
mașini-unelte și alte sisteme tehnologice, sisteme de control
sisteme de productie flexibile, prelucrarea informatiilor de catre servere.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
6

procesele Markov

procesele Markov
Lăsa să intre în prezent t0 sistemul este în
anumită stare S0. Cunoaștem caracteristicile
starea sistemului în prezent și tot ceea ce era la t< t0
(istoria procesului). Putem prezice viitorul
acestea. ce se întâmplă când t > t0?
Nu tocmai, dar câteva caracteristici probabilistice
proces în viitor poate fi găsit. De exemplu, probabilitatea ca
că după un timp
sistemul S va fi în stare
S1 sau rămâne în starea S0 etc.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
7

procesele Markov. Exemplu.

procesele Markov
procesele Markov. Exemplu.
System S - un grup de aeronave implicate în luptă aeriană. Fie x numărul
avioane „roșii”, y este numărul de avioane „albastre”. Până la momentul t0, numărul de aeronave supraviețuitoare (nu doborâte).
respectiv – x0, y0.
Ne interesează probabilitatea ca la timp
t 0 superioritatea numerică va fi de partea „roșiilor”. Această probabilitate depinde de starea în care se afla sistemul.
la momentul t0 și nu la momentul și în ce secvență aeronava doborâtă până la momentul t0 a fost ucisă.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
8

Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Procesul Markov cu număr finit sau numărabil
stările și momentele de timp se numește discrete
lanțul Markov. Tranzițiile de la stat la stat sunt posibile numai la timpi întregi.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
9

10. Lanțuri Markov discrete. Exemplu

procesele Markov

Presupune
ce
vorbire
merge
despre
aruncări succesive de monede
joc „aruncare”; moneda este aruncată în
momente condiționale de timp t =0, 1, ... și pe
la fiecare pas jucătorul poate câștiga ±1 s
la fel
probabilitate
1/2,
asa de
Astfel, în momentul t, câștigul său total este o variabilă aleatorie ξ(t) cu valori posibile j = 0, ±1, ... .
Cu condiția ca ξ(t) = k, la pasul următor câștigul va fi
este deja egal cu ξ(t+1) = k ± 1, luând valorile j = k ± 1 cu aceeași probabilitate 1/2. Putem spune că aici, cu o probabilitate adecvată, are loc o tranziție de la starea ξ(t) = k la starea ξ(t + 1) = k ± 1.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
10

11. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Generalizând acest exemplu, ne putem imagina un sistem cu
număr numărabil de stări posibile, care în timp
timpul discret t = 0, 1, ... trece aleatoriu de la o stare la alta.
Fie ξ(t) poziția sa la momentul t ca rezultat al unui lanț de tranziții aleatorii
ξ(0) -> ξ(1) -> ... -> ξ(t) -> ξ(t+1) ->...-> ... .
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
11

12. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Când se analizează procese aleatoare cu stări discrete, este convenabil să se folosească o schemă geometrică - un grafic
state. Vârfurile graficului sunt stările sistemului. Contele Arcs
– posibile tranziții de la stat la stat.
Jocul „aruncă”.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
12

13. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Notați toate stările posibile prin numere întregi i = 0, ±1, ...
Să presupunem că, având în vedere o stare cunoscută ξ(t) =i, la pasul următor sistemul trece la starea ξ(t+1) = j cu probabilitate condiționată
P( (t 1) j (t) i)
indiferent de comportamentul ei în trecut, mai precis, indiferent de
de la lanțul de tranziții la momentul t:
P( (t 1) j (t) i; (t 1) it 1;...; (0) i0 )
P( (t 1) j (t) i)
Această proprietate se numește Markovian.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
13

14. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Număr
pij P( (t 1) j (t) i)
numită probabilitate
trecerea sistemului de la starea i la starea j într-o singură etapă
punct de timp t1.
Dacă probabilitatea de tranziție nu depinde de t, atunci lanțul
Markov este numit omogen.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
14

15. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Matricea P , ale cărei elemente sunt probabilități
tranziția pij , se numește matrice de tranziție:
p11 ... p1n
P p 21 ... p 2n
p
n1 ... pnn
Este stocastică, adică
pij 1 ;
i
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
p ij 0 .
15

16. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
Matricea de tranziție pentru jocul „aruncă”
...
k2
k2
0
k 1
1/ 2
k
0
k 1
k
k 1
k2
0
1/ 2
0
0
1/ 2
0
1/ 2
0
1/ 2
0
0
0
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
...
k 1 k 2
0
0
0
1/ 2
0
1/ 2
...
0
0
1/ 2
0
16

17. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
Grădinarul, ca urmare a unei analize chimice a solului evaluează
starea ei cu unul dintre cele trei numere - bun (1), corect (2) sau rău (3). Ca urmare a observațiilor de-a lungul anilor, grădinarul a observat
că productivitatea solului în curent
anul depinde doar de starea lui în
anul precedent. Prin urmare, probabilitățile
trecerea solului de la o stare la
altul poate fi reprezentat prin următoarele
Lanț Markov cu matricea P1:
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
17

18. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
Cu toate acestea, ca urmare a măsurilor agrotehnice, grădinarul poate modifica probabilitățile de tranziție în matricea P1.
Apoi matricea P1 va fi înlocuită
la matricea P2:
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
18

19. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Luați în considerare modul în care stările procesului se schimbă în timp. Vom lua în considerare procesul în momente succesive de timp, începând de la momentul 0. Să stabilim distribuția inițială de probabilitate p(0) ( p1 (0),..., pm (0)) , unde m este numărul de procese stări, pi (0) este probabilitatea de a găsi
proces in starea i in momentul initial timp. Probabilitatea pi (n) se numește probabilitatea necondiționată a stării
i la momentul n 1.
Componentele vectorului p(n) arată care dintre stările posibile ale circuitului la momentul n sunt cele mai multe
probabil.
m
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
pk (n) 1
k 1
19

20. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Cunoașterea șirului ( p (n)) pentru n 1,... vă permite să vă faceți o idee despre comportamentul sistemului în timp.
Într-un sistem cu 3 stări
p11 p12 p13
P p21
p
31
p22
p32
p23
p33
p2 (1) p1 (0) p12 p2 (0) p22 p3 (0) p32
p2 (n 1) p1 (n) p12 p2 (n) p22 p3 (n) p32
În general:
p j (1) pk (0) pkj
p j (n 1) pk (n) pkj
k
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
k
p(n 1) p(n) P
20

21. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
Matricea
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
Etapa
(p(n))
n
0
1, 0, 0
n
1
0.2 , 0.5 , 0.3
n
2
0.04 , 0.35 , 0.61
n
3
0.008 , 0.195 , 0.797
n
4
0.0016 , 0.1015 , 0.8969
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
21

22. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
n
Matrice de tranziție în n trepte P(n) P .
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
p(2) p(0) P
2
p(2)
P(2) P2
1, 0, 0
0.0016
0.
0.
0.0016
0.
0.
0.1015
0.0625
0.
0.1015
0.0625
0.
0.8969
0.9375
1.
0.8969
0.9375
1.
0.04 , 0.35 , 0.61
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
22

23. Lanțuri Markov discrete

procesele Markov
Lanțuri Markov discrete
Cum se comportă lanțurile Markov pentru n?
Pentru un lanț Markov omogen, în anumite condiții, este valabilă următoarea proprietate: p (n) pentru n.
Probabilitățile 0 nu depind de distribuția inițială
p(0) , dar sunt determinate numai de matricea P . În acest caz, se numește distribuție staționară, iar lanțul în sine este numit ergodic. Proprietatea ergodicității înseamnă că pe măsură ce n crește
probabilitatea stărilor practic încetează să se schimbe, iar sistemul intră într-un mod stabil de funcționare.
i
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
23

24. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
0.20 0.50 0.30
0.00 0.50 0.50
0.00 0.00 1.00
0 0 1
P() 0 0 1
0 0 1
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
p()(0,0,1)
24

25. Lanțuri Markov discrete. Exemplu

procesele Markov
Lanțuri Markov discrete. Exemplu
0.30 0.60 0.10
0.10 0.60 0.30
0.05 0.40 0.55
0.1017 0.5254 0.3729
P() 0,1017 0,5254 0,3729
0.1017 0.5254 0.3729
p()(0,1017,0,5254,0,3729)
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
25

26. Markov procesează cu timp continuu

procesele Markov

Un proces se numește proces în timp continuu dacă
momentele posibilelor tranziții de la stat la stat nu sunt fixate în prealabil, ci sunt incerte, aleatorii și pot apărea
oricând.
Exemplu. Sistemul tehnologic S este format din două dispozitive,
fiecare dintre care la un moment aleator de timp poate ieși din
clădire, după care începe imediat reparația nodului, continuând tot un timp necunoscut, întâmplător.
Sunt posibile următoarele stări ale sistemului:
S0 - ambele dispozitive funcționează;
S1 - primul dispozitiv este în curs de reparare, al doilea funcționează corect;
S2 - al doilea dispozitiv este în curs de reparare, primul funcționează corect;
S3 - ambele dispozitive sunt în curs de reparare.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
26

27. Markov procesează cu timp continuu

procesele Markov
Markov procesează cu timp continuu
Au loc tranziții ale sistemului S de la stare la stare
aproape instantaneu, în momente aleatorii de eșec
orice dispozitiv sau
sfarsitul reparatiei.
Probabilitatea de simultan
defecțiunea ambelor dispozitive
poate fi neglijat.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
27

28. Fluxuri de evenimente

procesele Markov
Fluxuri de evenimente
Un flux de evenimente este o succesiune de evenimente omogene care urmează unul după altul în anumite momente aleatorii în timp.
este numărul mediu de evenimente
Intensitatea fluxului de evenimente
pe unitatea de timp.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
28

29. Fluxuri de evenimente

procesele Markov
Fluxuri de evenimente
Un flux de evenimente este numit staționar dacă caracteristicile sale probabilistice nu depind de timp.
În special, intensitatea
fluxul staționar este constant. Fluxul evenimentelor are inevitabil concentrații sau rarefări, dar nu sunt de natură obișnuită, iar numărul mediu de evenimente pe unitatea de timp este constant și nu depinde de timp.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
29

30. Fluxuri de evenimente

procesele Markov
Fluxuri de evenimente
Un flux de evenimente se numește flux fără consecințe dacă pentru
oricare două segmente de timp care nu se suprapun și numărul de evenimente care se încadrează pe unul dintre ele nu depinde de câte evenimente au căzut pe celălalt. Cu alte cuvinte, asta înseamnă că evenimentele care formează fluxul apar în anumite momente.
timpul independent unul de celălalt și fiecare cauzat de propriile sale cauze.
Un flux de evenimente se numește obișnuit dacă probabilitatea de apariție a două sau mai multe evenimente într-un interval elementar t este neglijabil de mică în comparație cu probabilitatea de apariție a unuia.
evenimente, adică evenimentele din el apar unul câte unul și nu în grupuri de mai multe simultan
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
30

31. Fluxuri de evenimente

procesele Markov
Fluxuri de evenimente
Un flux de evenimente se numește cel mai simplu (sau Poisson staționar) dacă are trei proprietăți simultan: 1) este staționar, 2) este obișnuit, 3) nu are consecințe.
Cel mai simplu flux are cea mai simplă descriere matematică. El joacă printre streamuri aceeași specială
rol, cum ar fi legea distribuției normale printre altele
legi de distribuție. Și anume, atunci când se impune este suficient un numar mare independent, staționar și obișnuit
curge (comparabile între ele ca intensitate), se obţine un debit apropiat de cel mai simplu.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
31

32. Fluxuri de evenimente

procesele Markov
Fluxuri de evenimente
Pentru cel mai simplu flux cu intensitate
interval
timpul T dintre evenimentele adiacente are o exponențială
distribuție cu densitate
p(x) e x , x 0 .
Pentru variabilă aleatorie T, care are o distribuție exponențială, valorea estimata este reciproca parametrului.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
32

33. Markov procesează cu timp continuu

procesele Markov
Markov procesează cu timp continuu
Luând în considerare procesele cu stări discrete și timp continuu, putem presupune că toate tranzițiile sistemului S de la stare la stare au loc sub acțiunea lui
cele mai simple fluxuri de evenimente (fluxuri de apeluri, fluxuri de eșec, fluxuri de recuperare etc.).
Dacă toate fluxurile de evenimente care transferă sistemul S de la o stare la alta sunt cele mai simple, atunci procesul are loc în
sistem, va fi Markovian.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
33

34. Markov procesează cu timp continuu

procesele Markov
Markov procesează cu timp continuu
Să fie afectat sistemul din stat
cel mai simplu flux de evenimente. De îndată ce apare primul eveniment al acestui flux, sistemul „sare” din stare
intr-o stare.
- intensitatea fluxului de evenimente, translatarea sistemului
in afara statului
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
în
.
34

35. Procese Markov cu timp continuu

procesele Markov
Markov procesează cu timp continuu
Fie sistemul S luat în considerare
stări posibile
. Probabilitatea p ij (t) este probabilitatea trecerii de la starea i la starea j în timpul t.
Probabilitatea stării i-a
este probabilitatea ca
că la momentul t sistemul va fi în stare
. Este evident că pentru orice moment de timp suma
dintre toate probabilitățile de stare este egală cu unul:
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
35

36. Procese Markov cu timp continuu

procesele Markov
Markov procesează cu timp continuu
Pentru a găsi toate probabilitățile de stare
Cum
funcţiile timpului sunt compilate şi rezolvate ecuatii diferentiale Kolmogorov - un tip special de ecuație în care funcțiile necunoscute sunt probabilitățile stărilor.
Pentru probabilitățile de tranziție:
p ij (t) p ik (t) kj
k
Pentru probabilități necondiționate:
p j (t) p k (t) kj
k
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
36

37. Kolmogorov Andrei Nikolaevici

procesele Markov
Kolmogorov Andrei Nikolaevici
1903-1987
mare rusă
matematician.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
37

38. Procese Markov cu timp continuu

procesele Markov
Markov procesează cu timp continuu
- Rata de eșec;
- intensitatea fluxului de recuperare.
Să fie sistemul în stat
S0. Este transferat în starea S1 de către flux
defecțiunea primului dispozitiv. Intensitatea lui este
Unde
- Timpul mediu de funcționare fără defecțiune a dispozitivului.
Din starea S1 la S0, sistemul este transferat prin fluxul de restaurări
primul dispozitiv. Intensitatea lui este
Unde
- timpul mediu de reparare al primei mașini.
În mod similar, se calculează intensitățile fluxurilor de evenimente care transferă sistemul de-a lungul tuturor arcelor de grafic.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
38

39. Sisteme de așteptare

procesele Markov

Exemple de sisteme de așteptare (QS): centrale telefonice, ateliere de reparații,
bilet
casete de marcat,
referinţă
Biroul,
mașini-unelte și alte sisteme tehnologice,
sisteme
management
flexibil
sisteme de productie,
prelucrarea informatiilor de catre servere etc.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
39

40. Sisteme de aşteptare

procesele Markov
Sisteme de așteptare
QS constă dintr-un anumit număr de porții
unități, care sunt numite canale de serviciu (acestea sunt
mașini, roboți, linii de comunicație, casierii etc.). Orice CMO
este conceput pentru a deservi fluxul de aplicații (cerințe) care sosesc la momente aleatorii.
Servirea cererii continuă pentru un timp aleatoriu, după care canalul este eliberat și este gata să primească următorul.
aplicatii.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
40

41. Sisteme de aşteptare

procesele Markov
Sisteme de așteptare
Procesul de operare QS este un proces aleatoriu cu discret
stări și timp continuu. Starea QS-ului se schimbă brusc în momentele apariției unor evenimente
(sosirea unei noi cereri, sfârșitul serviciului, moment,
când aplicația, care s-a săturat să aștepte, iese din coadă).
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
41

42. Sisteme de aşteptare

procesele Markov
Sisteme de așteptare
Clasificarea sistemelor de aşteptare
1. QS cu defecțiuni;
2. CMO cu o coadă.
Într-un QS cu refuzuri, o cerere care ajunge în momentul în care toate canalele sunt ocupate primește un refuz, părăsește QS-ul și nu mai este
deservite.
Într-un QS cu coadă, o revendicare care ajunge în momentul în care toate canalele sunt ocupate nu pleacă, ci intră în coadă și așteaptă oportunitatea de a fi servită.
QS cu cozi sunt subdivizate în tipuri diferiteîn funcţie
asupra modului în care este organizată coada - limitată sau nelimitată. Restricțiile se pot aplica atât pentru lungimea cozii, cât și pentru durata
așteptări, „disciplină de serviciu”.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
42

43. Sisteme de aşteptare

procesele Markov
Sisteme de așteptare
Subiectul teoriei cozilor este construcția
modele matematice care leagă condiții date
Operarea QS (numărul de canale, performanța acestora, reguli
munca, natura fluxului de aplicații) cu caracteristicile care ne interesează - indicatori ai eficacității QS. Acești indicatori descriu capacitatea QS de a face față fluxului
aplicatii. Acestea pot fi: numărul mediu de aplicații deservite de QS pe unitatea de timp; numărul mediu de canale ocupate; numărul mediu de aplicații din coadă; timpul mediu de așteptare pentru serviciu etc.
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"
43

44.

MULȚUMIRI
PENTRU ATENȚIE!!!
44

45. Construiți un grafic de tranziție

procesele Markov
Construiți un grafic de tranziție
0.30
0.70
0.0
0.10
0.60
0.30
0.50
0.50
0.0
KHNURE, departament. PM, lector Kirichenko L.O.
„Teoria probabilității, matematică
statistici și procese aleatorii"

Procesele Markov au fost dezvoltate de oamenii de știință în 1907. Matematicieni de frunte din acea vreme au dezvoltat această teorie, unii dintre ei încă o îmbunătățesc. Acest sistem se extinde și în alte domenii științifice. Lanțurile Markov practice sunt folosite în diverse domenii în care o persoană trebuie să ajungă într-o stare de așteptare. Dar pentru a înțelege clar sistemul, trebuie să cunoașteți termenii și prevederile. Aleatoritatea este considerată a fi principalul factor care determină procesul Markov. Adevărat, nu seamănă cu conceptul de incertitudine. Are anumite condiții și variabile.

Caracteristicile factorului aleator

Această condiție este supusă stabilității statice, mai precis, regularităților sale, care nu sunt luate în considerare în caz de incertitudine. La rândul său, acest criteriu permite utilizarea metodelor matematice în teoria proceselor Markov, după cum a observat un om de știință care a studiat dinamica probabilităților. Lucrarea pe care a creat-o s-a ocupat direct de aceste variabile. La rândul său, procesul aleator studiat și dezvoltat, care are conceptele de stare și tranziție, și este folosit și în probleme stocastice și matematice, face în același timp posibil ca aceste modele să funcționeze. Printre altele, oferă o oportunitate de a îmbunătăți alte științe teoretice și practice aplicate importante:

  • teoria difuziei;
  • teoria cozilor;
  • teoria fiabilității și alte lucruri;
  • chimie;
  • fizică;
  • Mecanica.

Caracteristicile esențiale ale unui factor neplanificat

Acest proces Markov este condus de o funcție aleatorie, adică orice valoare a argumentului este considerată o valoare dată sau una care ia o formă pre-preparată. Exemple sunt:

  • fluctuații în lanț;
  • viteza de miscare;
  • rugozitatea suprafeței într-o zonă dată.

De asemenea, se crede în mod obișnuit că faptul că o funcție aleatoare este timpul, adică are loc indexarea. O clasificare are forma unei stări și a unui argument. Acest proces poate fi atât cu stări sau timp discret, cât și continuu. Mai mult, cazurile sunt diferite: totul se întâmplă fie într-o formă, fie sub altă formă, fie simultan.

Analiză detaliată a conceptului de aleatorie

Construi model matematic cu indicatorii de performanță necesari într-o formă clar analitică a fost destul de dificil. Implementează în continuare aceasta sarcina a devenit posibil, deoarece a apărut un proces aleatoriu Markov. Analizând acest concept în detaliu, este necesar să se derivă o anumită teoremă. Un proces Markov este un sistem fizic care și-a schimbat poziția și starea, care nu au fost preprogramate. Astfel, se dovedește că în el are loc un proces aleatoriu. De exemplu: o orbită spațială și o navă care este lansată în ea. Rezultatul a fost atins doar din cauza unor inexactități și ajustări, fără de care modul specificat nu este implementat. Majoritatea proceselor în curs sunt inerente aleatorii, incertitudinii.

De fapt, aproape orice opțiune care poate fi luată în considerare va fi supusă acestui factor. Un avion, un dispozitiv tehnic, o cantină, un ceas - toate acestea sunt supuse unor modificări aleatorii. Mai mult, această funcție este inerentă oricărui proces aflat în desfășurare în lumea reală. Cu toate acestea, atâta timp cât acest lucru nu se aplică parametrilor reglați individual, perturbațiile care apar sunt percepute ca deterministe.

Conceptul unui proces stocastic Markov

Designul oricărui dispozitiv tehnic sau mecanic obligă creatorul să țină cont de diverși factori, în special de incertitudini. Calculul fluctuațiilor și perturbațiilor aleatoare apare în momentul de interes personal, de exemplu, la implementarea unui pilot automat. Unele dintre procesele studiate în științe precum fizica și mecanica sunt astfel.

Dar acordarea atenției acestora și efectuarea unor cercetări riguroase ar trebui să înceapă în momentul în care este direct nevoie. Un proces aleatoriu Markov are următoarea definiție: caracteristica probabilității formei viitoare depinde de starea în care se află la un moment dat și nu are nimic de-a face cu modul în care arăta sistemul. Deci, acest concept indică faptul că rezultatul poate fi prezis, luând în considerare doar probabilitatea și uitând de fundal.

Interpretarea detaliată a conceptului

În acest moment, sistemul este într-o anumită stare, se mișcă și se schimbă, este, de fapt, imposibil de prezis ce se va întâmpla în continuare. Dar, având în vedere probabilitatea, putem spune că procesul va fi finalizat într-o anumită formă sau o reține pe cea anterioară. Adică viitorul se naște din prezent, uitând de trecut. Când un sistem sau un proces intră într-o stare nouă, istoricul este de obicei omis. Probabilitatea joacă un rol important în procesele Markov.

De exemplu, contorul Geiger arată numărul de particule, care depinde de un anumit indicator, și nu de exact momentul în care a venit. Aici criteriul principal este cel de mai sus. În aplicarea practică, pot fi luate în considerare nu numai procesele Markov, ci și altele similare, de exemplu: aeronavele participă la bătălia sistemului, fiecare dintre acestea fiind indicată de o anumită culoare. În acest caz, criteriul principal este din nou probabilitatea. În ce moment va apărea preponderența în numere și pentru ce culoare nu este cunoscută. Adică, acest factor depinde de starea sistemului și nu de succesiunea morților aeronavelor.

Analiza structurală a proceselor

Un proces Markov este orice stare a unui sistem fără o consecință probabilistică și fără a ține cont de preistorie. Adică dacă includeți viitorul în prezent și omiteți trecutul. Suprasaturarea acestui timp cu preistorie va duce la multidimensionalitate și va duce la construcții complexe de lanțuri. Prin urmare, este mai bine să studiați aceste sisteme cu circuite simple cu parametri numerici minimi. Ca urmare, aceste variabile sunt considerate a fi determinante și condiționate de unii factori.

Un exemplu de procese Markov: un dispozitiv tehnic care funcționează în acel moment. În această stare de lucruri, ceea ce interesează este probabilitatea ca dispozitivul să funcționeze o perioadă lungă de timp. Dar dacă percepem echipamentul ca fiind depanat, atunci această opțiune nu va mai aparține procesului luat în considerare din cauza faptului că nu există informații despre cât timp a funcționat dispozitivul înainte și dacă au fost efectuate reparații. Cu toate acestea, dacă aceste două variabile de timp sunt suplimentate și incluse în sistem, atunci starea acestuia poate fi atribuită lui Markov.

Descrierea stării discrete și a continuității timpului

Modelele procesului Markov sunt aplicate în momentul în care este necesară neglijarea preistoriei. Pentru cercetarea în practică, cel mai des sunt întâlnite stări discrete, continue. Exemple de astfel de situații sunt: ​​structura echipamentului include noduri care pot eșua în timpul orelor de lucru, iar acest lucru se întâmplă ca o acțiune neplanificată, aleatorie. Ca urmare, starea sistemului este supusă reparației unuia sau celuilalt element, în acest moment unul dintre ele va fi în stare bună, sau ambele vor fi depanate, sau invers, vor fi complet ajustate.

Procesul Markov discret se bazează pe teoria probabilității și este, de asemenea, o tranziție a sistemului de la o stare la alta. Mai mult, acest factor apare instantaneu, chiar dacă apar avarii accidentale și lucrări de reparații. Pentru a analiza un astfel de proces, este mai bine să folosiți grafice de stare, adică diagrame geometrice. Stările sistemului în acest caz sunt indicate prin diferite forme: triunghiuri, dreptunghiuri, puncte, săgeți.

Modelarea acestui proces

Procesele Markov în stare discretă sunt posibile modificări ale sistemelor ca urmare a unei tranziții care are loc instantaneu și care pot fi numerotate. De exemplu, puteți construi un grafic de stare din săgeți pentru noduri, unde fiecare va indica calea factorilor de defecțiune direcționați diferit, starea de funcționare etc. În viitor, pot apărea orice întrebări: cum ar fi faptul că nu toate elementele geometrice indică în direcția corectă, deoarece în acest proces, fiecare nod se poate deteriora. Când lucrați, este important să țineți cont de închideri.

Un proces Markov în timp continuu are loc atunci când datele nu sunt prefixate, se întâmplă întâmplător. Tranzițiile nu au fost planificate anterior și au loc în salturi, în orice moment. În acest caz din nou rol principal probabilitatea joacă. Cu toate acestea, dacă situația actuală este una dintre cele de mai sus, atunci va fi necesar un model matematic pentru a o descrie, dar este important să înțelegem teoria posibilității.

Teorii probabilistice

Aceste teorii consideră probabilistice, având caracteristici cum ar fi ordinea aleatorie, mișcarea și factorii, problemele matematice, nu cele deterministe care sunt certe din când în când. Un proces Markov controlat are și se bazează pe un factor de oportunitate. Mai mult, acest sistem este capabil să treacă la orice stare instantaneu în diferite condiții și intervale de timp.

Pentru a pune această teorie în practică, trebuie să știți cunoștințe importante probabilitatea și aplicațiile sale. În cele mai multe cazuri, cineva se află într-o stare de așteptare, ceea ce, în sens general, este teoria luată în considerare.

Exemple de teoria probabilității

Exemple de procese Markov în această situație sunt:

  • o cafenea;
  • casele de bilete;
  • ateliere de reparații;
  • stații pentru diverse scopuri etc.

De regulă, oamenii întâlnesc acest sistem zilnic, astăzi se numește coadă. La unitățile în care este prezent un astfel de serviciu, este posibil să se solicite diverse solicitări, care sunt satisfăcute în proces.

Modele de proces ascunse

Astfel de modele sunt statice și copiază munca procesului original. În acest caz, caracteristica principală este funcția de monitorizare a parametrilor necunoscuți care trebuie dezlegați. Ca urmare, aceste elemente pot fi folosite în analiză, practică sau pentru a recunoaște diferite obiecte. Procesele convenționale Markov se bazează pe tranziții vizibile și pe probabilitate, în modelul latent se observă doar variabile necunoscute, care sunt afectate de stare.

Dezvăluirea esențială a modelelor Markov ascunse

Are, de asemenea, o distribuție de probabilitate printre alte valori, ca urmare, cercetătorul va vedea o secvență de simboluri și stări. Fiecare acțiune are o distribuție de probabilitate între alte valori, astfel încât modelul latent oferă informații despre stările succesive generate. Primele note și referiri la acestea au apărut la sfârșitul anilor șaizeci ai secolului trecut.

Apoi au început să fie folosite pentru recunoașterea vorbirii și ca analizatori de date biologice. În plus, modelele latente s-au răspândit în scris, mișcări, informatică. De asemenea, aceste elemente imită activitatea procesului principal și sunt statice, totuși, în ciuda acestui fapt, trăsături distinctive mult mai mare. În special, acest fapt se referă la observarea directă și generarea secvenței.

Proces staționar Markov

Această condiție există pentru o funcție de tranziție omogenă, precum și pentru o distribuție staționară, care este considerată acțiunea principală și, prin definiție, aleatorie. Spațiul de fază pentru acest proces este o mulțime finită, dar în această stare de lucruri, diferențierea inițială există întotdeauna. Probabilitățile de tranziție în acest proces sunt luate în considerare în condiții de timp sau elemente suplimentare.

Un studiu detaliat al modelelor și proceselor Markov relevă problema satisfacerii echilibrului în diferite sfere ale vieții și activității societății. Având în vedere că această industrie afectează știința și serviciile de masă, situația poate fi corectată prin analizarea și prezicerea rezultatului oricăror evenimente sau acțiuni ale acelorași ceasuri sau echipamente defecte. Pentru a utiliza pe deplin capacitățile procesului Markov, merită să le înțelegeți în detaliu. La urma urmei, acest dispozitiv a găsit o aplicație largă nu numai în știință, ci și în jocuri. Acest sistem în forma sa pură nu este de obicei luat în considerare și, dacă este utilizat, atunci numai pe baza modelelor și schemelor de mai sus.

Vizualizări