Está en la página 1de 8

Ejemplos de utilizacion cadenas de markov

Supongamos que estamos interesados en modelar el clima en una


determinada región del mundo. Para hacer esto, podemos dividir el clima
en tres estados: soleado, nublado y lluvioso. Además, supongamos que la
probabilidad de que el clima cambie de un día a otro depende únicamente
del clima del día anterior. Esta suposición es coherente con las cadenas de
Markov.

Para construir nuestra cadena de Markov, necesitamos determinar las


probabilidades de transición entre estados. Supongamos que si hoy es
soleado, hay un 70% de probabilidad de que mañana también sea soleado,
un 20% de probabilidad de que esté nublado y un 10% de probabilidad de
que llueva. Si hoy está nublado, hay un 50% de probabilidad de que
mañana siga siendo nublado, un 30% de probabilidad de que esté soleado
y un 20% de probabilidad de que llueva. Si hoy está lloviendo, hay un 40%
de probabilidad de que mañana siga lloviendo, un 30% de probabilidad de
que esté nublado y un 30% de probabilidad de que esté soleado.

Una vez que tenemos estas probabilidades de transición, podemos


construir la matriz de transición de la cadena de Markov. Esta matriz es una
matriz cuadrada con dimensiones 3x3, donde cada elemento de la matriz
representa la probabilidad de transición de un estado a otro. En nuestro
ejemplo, la matriz de transición sería la siguiente:

Soleado Nublado Lluvioso

Soleado 0.7 0.2 0.1


Soleado Nublado Lluvioso

Nublado 0.3 0.5 0.2

Lluvioso 0.3 0.3 0.4

Esta matriz nos indica las probabilidades de transición de un estado a otro.


Por ejemplo, si hoy está nublado, la probabilidad de que mañana esté
nublado nuevamente es del 50%, mientras que la probabilidad de que esté
soleado es del 30% y la probabilidad de que llueva es del 20%.

Una vez que tenemos la matriz de transición, podemos utilizarla para


calcular la distribución de probabilidad estacionaria de la cadena de
Markov. Esta distribución de probabilidad nos indica la probabilidad de que
el clima se encuentre en cada estado en el largo plazo. En nuestro ejemplo,
la distribución de probabilidad estacionaria es la siguiente:

Soleado Nublado Lluvioso

Probabilidad estacionaria 0.56 0.27 0.17

Esto significa que en el largo plazo, el clima será soleado el 56% del tiempo,
nublado el 27% del tiempo y lluvioso el 17% del tiempo.

En resumen, este ejemplo de las cadenas de Markov nos muestra cómo


podemos utilizar estas herramientas para modelar sistemas estocásticos y
predecir su comportamiento en el futuro. Las cadenas de Markov son útiles
para una amplia variedad de aplicaciones, incluyendo la meteorología, la
economía, la biología y la física. La construcción de una cadena de Markov
implica determinar las probabilidades de transición entre estados y utilizar
estas probabilidades para construir una matriz de transición. A partir de
esta matriz, podemos calcular la distribución de probabilidad estacionaria,
que nos indica la probabilidad de que el sistema se encuentre en cada
estado en el largo plazo.

Las cadenas de Markov también se utilizan en la ciencia de datos y el


aprendizaje automático. Por ejemplo, podemos utilizar las cadenas de
Markov para modelar el comportamiento de los usuarios en un sitio web y
predecir sus acciones futuras. También se utilizan para el procesamiento
del lenguaje natural, como en la generación de texto automático y la
traducción automática.

En conclusión, las cadenas de Markov son una herramienta poderosa para


modelar sistemas estocásticos y predecir su comportamiento en el futuro.
Con su amplia variedad de aplicaciones y su eficacia en la modelización de
sistemas complejos, las cadenas de Markov son una herramienta valiosa en
muchas áreas de investigación y aplicación práctica.

1. Redes sociales: Podemos utilizar las cadenas de Markov para modelar el


comportamiento de los usuarios en una red social como Twitter o Facebook.
Supongamos que estamos interesados en modelar el comportamiento de los
usuarios en Twitter. Podemos dividir los estados en tres categorías: inactivo, activo y
muy activo. Supongamos que si un usuario está inactivo, hay un 20% de probabilidad
de que se mantenga inactivo, un 60% de probabilidad de que se vuelva activo y un
20% de probabilidad de que se vuelva muy activo. Si un usuario está activo, hay un
30% de probabilidad de que se mantenga activo, un 50% de probabilidad de que se
vuelva inactivo y un 20% de probabilidad de que se vuelva muy activo. Si un usuario
está muy activo, hay un 50% de probabilidad de que se mantenga muy activo, un
30% de probabilidad de que se vuelva activo y un 20% de probabilidad de que se
vuelva inactivo. A partir de estas probabilidades de transición, podemos construir la
matriz de transición de la cadena de Markov y utilizarla para predecir el
comportamiento de los usuarios en el largo plazo.
2. Control de calidad: Las cadenas de Markov también se utilizan en el control de
calidad de los procesos de fabricación. Supongamos que estamos interesados en
modelar el proceso de producción de una fábrica de automóviles. Podemos dividir
los estados en tres categorías: producción normal, producción defectuosa y
mantenimiento. Supongamos que si la producción es normal, hay un 90% de
probabilidad de que siga siendo normal, un 5% de probabilidad de que sea
defectuosa y un 5% de probabilidad de que se realice mantenimiento. Si la
producción es defectuosa, hay un 10% de probabilidad de que se repare y se vuelva
normal, y un 90% de probabilidad de que se realice mantenimiento. Si se está
realizando mantenimiento, hay un 80% de probabilidad de que se vuelva a la
producción normal y un 20% de probabilidad de que se siga realizando
mantenimiento. Utilizando estas probabilidades de transición, podemos construir
una matriz de transición y utilizarla para predecir el rendimiento del proceso de
producción de la fábrica de automóviles.
3. Análisis de sentimiento: Las cadenas de Markov también se utilizan en el análisis de
sentimiento en el procesamiento del lenguaje natural. Supongamos que estamos
interesados en analizar los sentimientos expresados en los tweets de los usuarios de
Twitter sobre una marca en particular. Podemos dividir los estados en tres categorías:
sentimientos positivos, neutrales y negativos. Supongamos que si un usuario expresa
un sentimiento positivo, hay un 70% de probabilidad de que siga expresando un
sentimiento positivo, un 20% de probabilidad de que exprese un sentimiento neutral
y un 10% de probabilidad de que exprese un sentimiento negativo. Si un usuario
expresa un sentimiento neutral, hay un 50% de probabilidad de que siga siendo
neutral, un 30% de probabilidad de que exprese un sentimiento positivo y un 20%
de probabilidad de que exprese un sentimiento negativo. Si un usuario expresa un
sentimiento negativo, hay un 60% de probabilidad de que siga expresando un sentimiento
negativo, un 20% de probabilidad de que exprese un sentimiento positivo y un 20% de
probabilidad de que exprese un sentimiento neutral. A partir de estas probabilidades de
transición, podemos construir la matriz de transición de la cadena de Markov y utilizarla para
predecir la probabilidad de que los usuarios expresen sentimientos positivos, neutrales o
negativos en el futuro.

Ejemplo 1: Comportamiento de los usuarios en Twitter

Supongamos que estamos interesados en modelar el comportamiento de


los usuarios en Twitter. Podemos dividir los estados en tres categorías:
inactivo, activo y muy activo. Las probabilidades de transición entre los
estados son las siguientes:
• Si un usuario está inactivo, hay un 20% de probabilidad de que se
mantenga inactivo, un 60% de probabilidad de que se vuelva activo y un
20% de probabilidad de que se vuelva muy activo.
• Si un usuario está activo, hay un 30% de probabilidad de que se mantenga
activo, un 50% de probabilidad de que se vuelva inactivo y un 20% de
probabilidad de que se vuelva muy activo.
• Si un usuario está muy activo, hay un 50% de probabilidad de que se
mantenga muy activo, un 30% de probabilidad de que se vuelva activo y
un 20% de probabilidad de que se vuelva inactivo.

Podemos representar estas probabilidades de transición en una matriz de


transición como sigue:

P= code
| 0.2 0.6 0.2
| 0.5 0.3 0.2 |
| 0.2 0.3 0.5 |

A partir de esta matriz de transición, podemos calcular la probabilidad de


que un usuario esté en cada estado después de n pasos. Por ejemplo, si
queremos saber la probabilidad de que un usuario esté inactivo después
de 5 pasos, podemos calcular:

p_0 = | 1 0 0 | p_5 = p_0 * P^5

Donde p_0 es el vector de probabilidades iniciales y P^5 es la matriz de


transición elevada a la quinta potencia. La solución es:

p_5 = | 0.29 0.41 0.30 |

Esto significa que después de 5 pasos, hay un 29% de probabilidad de que


el usuario esté inactivo, un 41% de probabilidad de que esté activo y un
30% de probabilidad de que esté muy activo.

Ejemplo 2: Control de calidad en una fábrica de automóviles

Supongamos que estamos interesados en modelar el proceso de


producción de una fábrica de automóviles. Podemos dividir los estados en
tres categorías: producción normal, producción defectuosa y
mantenimiento. Las probabilidades de transición entre los estados son las
siguientes:

• Si la producción es normal, hay un 90% de probabilidad de que siga siendo


normal, un 5% de probabilidad de que sea defectuosa y un 5% de
probabilidad de que se realice mantenimiento.
• Si la producción es defectuosa, hay un 10% de probabilidad de que se
repare y se vuelva normal, y un 90% de probabilidad de que se realice
mantenimiento.
• Si se está realizando mantenimiento, hay un 80% de probabilidad de que
se vuelva a la producción normal y un 20% de probabilidad de que se siga
realizando mantenimiento.

Podemos representar estas probabilidades

continue
de transición en una matriz de transición como sigue:

cssCopy code
P = | 0.90 0.05 0.05 |
| 0.10 0.00 0.90 |
| 0.80 0.00 0.20 |

A partir de esta matriz de transición, podemos calcular la probabilidad de


que la producción esté en cada estado después de n pasos. Por ejemplo, si
queremos saber la probabilidad de que la producción esté en estado de
mantenimiento después de 3 pasos, podemos calcular:

p_0 = | 1 0 0 |
p_3 = p_0 * P^3

Donde p_0 es el vector de probabilidades iniciales y P^3 es la matriz de


transición elevada a la tercera potencia. La solución es:

makefileCopy code
p_3 = | 0.3425 0.0075 0.6500 |
Esto significa que después de 3 pasos, hay un 34.25% de probabilidad de
que la producción esté en estado de mantenimiento, un 0.75% de
probabilidad de que esté en estado defectuoso y un 65% de probabilidad
de que esté en estado normal.

Ejemplo 3: Pronóstico del clima

Supongamos que estamos interesados en predecir el clima en una región


en función del clima actual. Podemos dividir los estados en tres categorías:
soleado, nublado y lluvioso. Las probabilidades de transición entre los
estados son las siguientes:

• Si el clima es soleado, hay un 60% de probabilidad de que siga siendo


soleado, un 30% de probabilidad de que se vuelva nublado y un 10% de
probabilidad de que llueva.
• Si el clima está nublado, hay un 40% de probabilidad de que se vuelva
soleado, un 50% de probabilidad de que siga siendo nublado y un 10% de
probabilidad de que llueva.
• Si el clima es lluvioso, hay un 20% de probabilidad de que se vuelva
soleado, un 30% de probabilidad de que se vuelva nublado y un 50% de
probabilidad de que siga lloviendo.

Podemos representar estas probabilidades de transición en una matriz de


transición como sigue:

cssCopy code
P = | 0.6 0.3 0.1 |
| 0.4 0.5 0.1 |
| 0.2 0.3 0.5 |

A partir de esta matriz de transición, podemos calcular la probabilidad del


clima en cada estado después de n pasos. Por ejemplo, si queremos saber
la probabilidad de que el clima sea lluvioso después de 2 pasos, podemos
calcular:

makefileCopy code
p_0 = | 0 1 0 |
p_2 = p_0 * P^2
Donde p_0 es el vector de probabilidades iniciales y P^2 es la matriz de
transición elevada a la segunda potencia. La solución es:

makefileCopy code
p_2 = | 0.260 0.350 0.390 |

Esto significa que después de 2 pas


de, hay un 26% de probabilidad de que el clima sea lluvioso, un 35% de
probabilidad de que sea nublado y un 39% de probabilidad de que sea
soleado. Podemos seguir calculando la probabilidad del clima en cada
estado para cualquier número de pasos que deseemos.

En resumen, las cadenas de Markov son un modelo matemático útil para


modelar sistemas dinámicos que cambian de un estado a otro en el tiempo.
Las aplicaciones son variadas y van desde la planificación financiera hasta
la predicción del clima. A través de ejemplos como los presentados,
podemos entender mejor cómo funcionan las cadenas de Markov y cómo
podemos usarlas para resolver problemas del mundo real.

También podría gustarte