Lantul Markov

Extras din proiect Cum descarc?

In lumea reala, exista o multitudine de fenomene din diferite domenii cum ar fi management, economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesara parcurgerea aleatorie.De aceea, in studierea acestor fenomene se utilizeaza procesele stochastice. 
Definitia 1. Se numeste proces stochastic un experiment aleator care consta dintr-o suita de subexperimente aleatoare. O clasa speciala de astfel de procese este reprezentata de lanturile Markov.
Multe experimente aleatoare se desfasoara in etape. De aceea, un astfel de experiment
poate fi considerat ca fiind o secventa de subexperimente si fiecare rezultat al experimentului este determinat de rezultatele subexperimentelor (in ordine).
Asadar, un proces stochastic este o multime indexata de variabile aleatoare, {Xt}, unde t parcurge o multime T numita multimea indicilor pozitivi T = N, iar Xt reprezinta o
caracteristica cantitativa sau calitativa a sistemului cercetat.
Avem o succesiune de experimente cu aceleasi rezultate posibile. Prin urmare, se va considera ca t este un moment de timp care ia valorile 1, 2, 3, ..., n. Aceasta succesiune reda secventa de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, ..., m (m - numar finit). Cele m rezultate posibile vor fi numite starile in care se poate afla sistemul la un moment dat. Unitatea de masura pentru momentele de timp succesive t depinde de sistemul studiat.
Dintre tipurile de astfel de secvente il putem mentiona pe acela in care probabilitatile rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de exemplu: aruncarea repetata a unui zar, extragerile unei bile din urna cu revenire).
Un alt tip de secventa este acela in care probabilitatile rezultatelor la un moment dat depind de rezultatele din experientele anterioare (de exemplu: extragerile succesive din urna
fara revenire). In cazul acestui din urma tip de experiment se pot distinge doua subcazuri extreme:
o extrema e reprezentata de faptul ca probabilitatile rezultatelor la un moment dat
depind de rezultatele tuturor experimentelor precedente din secventa;
o cealalta extrema a nivelului de dependenta este atunci cand probabilitatile rezultatelor la un moment dat depind doar de rezultatele experimentului precedent. In aceasta situatie secventa de experimente se numeste proces (lant) Markov.
Definitia 2. Un proces Markov sau lant Markov este o succesiune de experimente in care fiecare experiment are m rezultate posibile E1, E2,...,Em, iar probabilitatea fiecarui rezultat depinde doar de rezultatul experimentului precedent.
Definitia 3. Se spune ca un proces stochastic are proprietatea lui Markov daca este indeplinita egalitatea:
P(Xt+1= j/X1 = k1, ..., Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i), 
pentru t =1, 2, ...,n si pentru orice succesiune k1, k2, ...kt-1, i, j de stari din multimea celor m
stari posibile ale sistemului.
Fie 2 evenimente, A si B.Notam P(A/B) - probabilitatea evenimentului A conditionata de evenimentul B.
Proprietatea lui Markov arata faptul ca probabilitatea conditionata a oricarui eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, ..., Xt-1 = kt-1 si starea prezenta Xt = i, este independenta de starile trecute si depinde doar de starea prezenta a procesului.
Exista o larga varietate de fenomene care sugereaza o comportare in maniera unui proces Markov. Ca si exemple, am redat urmatoarele situatii:
o probabilitatea ca o persoana sa cumpere un produs de o anumita marca (detergent, bere, cosmetice, incaltaminte etc.) poate depinde de marca aleasa la cumparatura precedenta;
o probabilitatea ca o persoana sa aiba cazier poate depinde de faptul ca parintii au avut sau nu cazier;
o probabilitatea ca starea de sanatate a unui pacient sa se imbunatateasca, sa se inrautateasca sau sa ramana stabila intr-o zi poate depinde de ceea ce s-a intamplat in ziua precedenta.
Evolutia unui proces Markov poate fi descrisa prin intermediul unei matrice. 
Matricea de tranzitie este un instrument foarte eficient pentru reprezentarea compartamentului unui proces Markov.
Definitia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, ..., Em. Forma generala a unei matrici de tranzitie pentru acest gen de experimente are forma:
Starea Viitoare
Starea Curenta =P
O data cu modelarea sistemului, acesta poate fi in una din cele m stari curente posibile. O stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla in una din cele m stari. 
Matricea de tranzitie este formata din elemente pij care reprezinta probabilitatea conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j.
Observatii
1. Pij cu i = j reprezinta probabilitatea ca sistemul sa ramana in aceeasi stare dupa efectuarea experimentului, iar Pij cu i != j reprezinta probabilitatea ca sistemul sa treaca dintr-o stare in alta.
2. Matricea de tranzitie este o matrice patratica de ordin m.
Proprietati
Elementele matricei de tranzitie trebuie sa satisfaca urmatoarele:
1. 0 <= pij <= 1, i,j = 1,...,m (pentru ca este vorba de probabilitati),
2. , i=1,2,...m. Suma pe linie trebuie sa dea 1 pentru ca E1, E2,...Em este un sistem complet de evenimente.
Proprietatea 2 asigura ca, data fiind o stare curenta i a sistemului, sistemul va trece cu siguranta intr-o stare j din cele m posibile dupa efectuarea experimentului.


Fisiere in arhiva (1):

  • Lantul Markov.doc

Imagini din acest proiect Cum descarc?

Banii inapoi garantat!

Plateste in siguranta cu cardul bancar si beneficiezi de garantia 200% din partea Proiecte.ro.


Descarca aceast proiect cu doar 5 €

Simplu si rapid in doar 2 pasi: completezi adresa de email si platesti.

1. Numele, Prenumele si adresa de email:

Pe adresa de email specificata vei primi link-ul de descarcare, nr. comenzii si factura (la plata cu cardul). Daca nu gasesti email-ul, verifica si directoarele spam, junk sau toate mesajele.

2. Alege modalitatea de plata preferata:



* La pretul afisat se adauga 19% TVA.


Hopa sus!