Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Artículo Científico Artículo Procesos de Decisión Markovianosv2
Artículo Científico Artículo Procesos de Decisión Markovianosv2
Jennifer Arcila1, Jennifer Arango 2, Carlos Avendaño3, Julissa Ortega4, Robinson Calvo5
1,2,3,4
Universidad ECCI, Dirección de Ingeniería Industrial, Bogotá, Colombia
* jenifer.arcilac@ecci.edu.co
** rcalvoc@ecci.edu.co
RESUMEN (Jenifer)
En xxxx
ABSTRACT (Jenifer)
In xxxx
How to cite: Jennifer Arcila, Jenifer Arango, Carlos Avendaño, Julissa Ortega, Robinson Calvo
Procesos de Decisión Markovianos
Revista EJE, Vol. # No. #, p1-pn, 20XX
DOI: http://dx.doi.org/000.000.000
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
2. OBJETIVOS
2.1 General
2.2 Específicos
● Investigar los principios teóricos de los Procesos de
Decisión Markovianos, incluyendo sus conceptos
clave como estados, acciones y funciones de
recompensa.
2
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
3
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
3.2 Aplicación
Entonces, el equipo Royal puede jugar en la primera Ahora, la probabilidad de pasar del campo 1 a cualquiera
semana en el campo 2, en la segunda semana en el de los otros campos se puede representar gráficamente de
campo 3, en la tercera semana en el campo cuatro, y en la siguiente manera:
cuarta semana puede que el equipo juegue en el campo 1,
pero siempre estará jugando solamente en uno de estos
campos, entonces los campos serían los Estados, y en
este ejemplo serían 4 estados.
Y la programación de los partidos solamente le asignaría
alguno de estos estados por semana.
Ahora, suponga que la asignación de un partido depende
de ciertas probabilidades que a su vez dependen de cual
campo le fue asignado en el partido anterior, entonces se
puede pensar que esos sorteos se pueden representar
mediante una cadena de Markov.
Ejemplo:
4
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
p1 p1 p1
p11 + 2 + 3 + 4 = 1
p2 p2 p2
p21 + 2 + 3 + 4 = 1
p3 p3 p3
p31 + 2 + 3 + 4 = 1
p4 p4 p4
p41 + 2 + 3 + 4 = 1 Se deben multiplicar las probabilidades de cada
trayectoria y luego sumarlas a las demás trayectorias así:
Por esta razón se le conoce como
P31*p14 + p32*p24 + p33*p34 + p34*p44
Ejemplo: M2 = M1*M1
M3 = M2 X M1 = (M1)3
Graficar las probabilidades de pasar del campo 3 al Mn= (M1)n
campo 4:
5
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
6
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
Predicción de series temporales (Time Series Estas son solo algunas aplicaciones comunes de la
Forecasting): Las cadenas de Markov se clasificación de estados en cadenas de Markov. En
utilizan para modelar y predecir series general, esta clasificación es esencial para entender el
temporales, como el comportamiento del comportamiento de sistemas y procesos que evolucionan
mercado financiero, el clima, la demanda de en el tiempo y dependen de eventos aleatorios, lo que
productos, entre otros. Clasificar los estados es permite tomar decisiones informadas y optimizar el
esencial para analizar la transición entre rendimiento en una amplia gama de campos. [4]
diferentes estados en una serie temporal y
predecir futuros estados. 5. PROBABILIDAD DE ESTADO ESTABLE
(Carlos)
Análisis de procesos industriales (Industrial 5.1 Definición
Process Analysis): En la industria, se utilizan 5.2 Aplicación
cadenas de Markov para modelar y analizar
procesos complejos, como la producción, el
6. CADENAS ABSORVENTES (Julissa)
mantenimiento y la gestión de inventario. La
clasificación de estados ayuda a identificar los 6.1 Definición
estados recurrentes y absorbentes, lo que es Un estado i de una cadena de Markov se dice absorbente
esencial para optimizar la eficiencia y la si es imposible abandonarlo (e.d. pii = 1). Es, por tanto,
planificación. un tipo particular de estado recurrente. Una cadena de
Markov se dice absorbente si posee al menos un estado
Redes de comunicación y telecomunicaciones absorbente y desde cada estado es posible llegar al estado
(Communication Networks): En sistemas de absorbente (no necesariamente en un paso).
redes de comunicación, como redes de
telecomunicaciones o de computadoras, las Comentario. Se puede ver que en una cadena absorbente,
cadenas de Markov se utilizan para analizar el todos los estados que no son absorbentes son transitorios.
rendimiento y la congestión de la red. La
clasificación de los estados ayuda a evaluar la 6.2 Aplicación
probabilidad de que un nodo o enlace de red
esté ocupado o libre. Supongamos el caso de la ruina del jugador. Este juega a
un juego que tiene probabilidad 1/2 de ganar un dólar y
Biología y genética (Biology and Genetics): Las probabilidad 1/2 de perderlo. Parará cuando se quede sin
cadenas de Markov se utilizan para modelar dinero o cuando alcance 4 dólares. La matriz de
procesos biológicos, como la evolución de transición es:
especies, la propagación de enfermedades y la
dinámica de poblaciones. La clasificación de Desde cualquiera de los estados 1, 2 y 3 es posible
estados permite analizar cómo diferentes alcanzar en un número finito de pasos los estados
estados representan diferentes condiciones absorbentes 0 y 4. Por tanto, la cadena es absorbente. Los
biológicas o genéticas. estados 1, 2 y 3 son transitorios. 11.2. ABSORBING
Análisis de juegos y estrategias (Game Theory): 7. CONCLUSIONES (Todos, mínimo una cada
En teoría de juegos, las cadenas de Markov se uno)
utilizan para modelar y analizar la dinámica de
juegos estratégicos. La clasificación de estados La clasificación de los estados en cadenas de Markov es
ayuda a evaluar las estrategias de los jugadores esencial para entender el comportamiento y las
y predecir resultados. propiedades de la cadena. Esto facilita la toma de
decisiones informadas y la optimización de sistemas en
una variedad de campos, desde la industria y la biología
hasta las finanzas y las redes de comunicación.
7
Revista EJE – Engineering Journal ECCI ISSN XXXX-XXXX, Vol. X, Número X, páginas XX-XX, 20XX
8. REFERENCIAS BIBLIOGRÁFICAS
(Todos, mínimo una cada uno, cada referencia debe
estar citada en el contenido del trabajo, como el
ejemplo, ver introducción)