proceso de decisión markoviana

Upload: angel-arizaca-apaza

Post on 01-Mar-2016

213 views

Category:

Documents


0 download

DESCRIPTION

Es un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el ultimo evento y esto condiciona las posibilidades de los eventos futuros.

TRANSCRIPT

Proceso de decisin Markoviana

Proceso de decisin MarkovianaCadenas de MarkovEs un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. Recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos futuros.Proceso de decisin de Markov (MDP)Proporcionan un marco matemtico para modelar la toma de decisiones en situaciones donde los resultados son en parte al azar y en parte bajo el control de un tomador de decisiones.Alcance del problema de decisin Markoviana

Alcance del problema de decisin Markoviana

Alcance del problema de decisin Markoviana

Alcance del problema de decisin Markoviana

ConclusionesUtilizamos los procesos de markov cuando la toma de decisiones de un evento dependa de los eventos que lo antecedan, los cuales condicionen las posibilidades de eventos futuros.

Podemos utilizar este mtodo para realizar el anlisis de diferentes productos, marketing, predicciones meteorolgicas, Prediccin de prdida de clientes, etc.