proceso de decisión markoviana
DESCRIPTION
Es un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el ultimo evento y esto condiciona las posibilidades de los eventos futuros.TRANSCRIPT
Proceso de decisin Markoviana
Proceso de decisin MarkovianaCadenas de MarkovEs un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. Recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos futuros.Proceso de decisin de Markov (MDP)Proporcionan un marco matemtico para modelar la toma de decisiones en situaciones donde los resultados son en parte al azar y en parte bajo el control de un tomador de decisiones.Alcance del problema de decisin Markoviana
Alcance del problema de decisin Markoviana
Alcance del problema de decisin Markoviana
Alcance del problema de decisin Markoviana
ConclusionesUtilizamos los procesos de markov cuando la toma de decisiones de un evento dependa de los eventos que lo antecedan, los cuales condicionen las posibilidades de eventos futuros.
Podemos utilizar este mtodo para realizar el anlisis de diferentes productos, marketing, predicciones meteorolgicas, Prediccin de prdida de clientes, etc.