Está en la página 1de 4

INTRODUCCIÓN

MDP (Proceso de decisión de Markov) es una forma matemática problema ideal de


aprendizaje por refuerzo, donde se puede encontrar concepto teórico exacto que lo
describe, MDP se describe, asimismo. Completamente observable, por lo que la mayor
parte de los problemas ejercicios puede definirse como Common Diagnostic Model.
Este tipo de problema podría modelarse, como punto de vista del concepto teórico como
la decisión, como el proceso de toma de decisiones de Markov; donde los posibles
estados en los que el agente puede establecerse, sus posibles acciones, una función de
recompensa basada en preferencias y un modelo dinámico se expresan como una
función de probabilidad especificada. Una vez que se establece el modelo, es posible
encontrar una solución que establezca el mejor curso de acción para cada estado
(política) para maximizar los beneficios a largo plazo de la agencia. Los MDP también
son útiles en los campos de las computadoras, la ingeniería, los acuíferos, la robótica, y
muchas listas más de referencia para las aplicaciones de la toma de decisiones de
Markov.
El siguiente trabajo proporciona información teórica sobre el proceso de decisiones de
Markov (MDP). Trataremos de resumir y sea entendible la parte teórica de los
conceptos teóricos y operacionales. Y aprender varias fórmulas de resolución para
resolver problemas complejos y de la vida real. En particular, se considera que algunos
ejercicios complementan la parte teórica del trabajo.
PREGUNTAS DE RETROALIMENTACIÓN
1. ¿Cuál es el objetivo de emplear el proceso de decisión de Markov?

a) Establecer un proceso industrial.


b) Considerar un modelo y no a la realidad de manera probabilista.
c) Realizar pronósticos sobre tendencias sobre eventos independientes.
d) Realizar pronósticos sobre tendencias sobre cadenas de eventos.

2. ¿Cuál de las siguientes alternativas no es un supuesto de las cadenas de Markov?


a) Existe un número finito de estados.
b) Existe un número finito de etapas.
c) Las probabilidades de la variable de estado  X n se pueden calcular
usando únicamente la matriz de probabilidades de transición.
d) La distribución de probabilidades de una etapa no cambia de una etapa a la otra.
e) Todas la anteriores no son supuestos del análisis.
RECOMENDACIONES

1. El uso del proceso de Markov es importante, porque la práctica incluye usar el


supuesto de que la cualidad de Markov es fundamental para procesar valores
aleatorios con fin de construir, en resumen, un modelo estocástico para el
proceso. La propiedad de Markov permite una reducción en la fuerza de la
dependencia en el retardo disminuya a medida que el retardo aumenta.

2. Modelo de toma de decisiones usando probabilidad. Estas probabilidades se con
sideran temporales, porque la variable de interés se divide en estados de los que 
se quiere conocer la decisión óptima a aplicar.
CONCLUSIONES

En los últimos años, la economía – finanzas en el proceso de globalización ha


experimentado una serie de profundos cambios y transformaciones, que afectan la toma
de decisiones de política económica y financiera. Estos cambios han abierto nuevos
modelos que destacan la exposición de los agentes a diferentes tipos de riesgo. En
conjunto, estos modelos han abierto nuevos horizontes para las teorías económicas y
financieras, y por lo tanto han llevado al uso de herramientas matemáticas más robustas
(y más complejas), y que permiten una mejor comprensión de los fenómenos aleatorios
(obviamente, todos los fenómenos son aleatorios). Particularmente en el campo de la
teoría económica y financiera, uno de los cambios importante es ir más allá del marco
definido; no solo por el riesgo inherente a la mayoría de los activos financieros, sino
como una respuesta a más completa para comprender mejor los procesos de tomas de
decisiones de los agentes económicos.

También podría gustarte