18-oct-2023 Análisis de Markov. ¿Qué es una cadena de Markov? Una cadena de Markov es un proceso estocástico especial. El objetivo es dar probabilidades de sucesos futuros al aplicar esta cadena. Esta cadena de Markov está definida de tal manera que, incluso conociendo sólo una parte de la historia pasada, la previsión de un acontecimiento futuro es tan buena como si se conociera toda la historia pasada de un proceso. Las cadenas de Markov pueden distinguirse según distintos órdenes. Así, una cadena de Markov de primer orden se define de tal manera que el estado futuro de un proceso sólo está condicionado por el estado actual y no está influido por los estados pasados. La formulación matemática puede requerir únicamente la noción de una distribución discreta y una probabilidad condicional en el caso de un conjunto finito de estados y los conceptos de una filtración y una expectativa condicional en el caso de tiempo continuo. Las cadenas de Markov pueden utilizarse de forma excelente para modelar cambios de estado aleatorios en un sistema, si hay motivos para suponer que los cambios de estado sólo se influyen mutuamente durante periodos de tiempo limitados o que incluso carecen de memoria. Existen cadenas de Markov finitas discretas y cadenas de Markov infinitas discretas. ¿Para qué sirven las cadenas de Markov? Las cadenas de Markov son modelos sencillos y descriptivos para representar matemáticamente con precisión procesos del mundo real. Por ejemplo, dadas unas probabilidades conocidas y supuestamente constantes, es posible predecir el estado probable de un sistema para cualquier futuro. Las cadenas de Markov son la base de los procesos estocásticos, que, por un lado, pueden basarse en la aleatoriedad sin memoria y, por otro, pueden ser posibles con transiciones de estado a probabilidades dadas en cada caso. Las cadenas de Markov pueden modelar redes de Petri estocásticas generales y clasificaciones basadas en recomendaciones subjetivas. ¿Cuáles son los ámbitos de aplicación? Las cadenas de Markov se utilizan, por ejemplo, en los filtros de spam, que son mucho más eficaces que los filtros bayesianos. Los procesos de colas y las distribuciones de probabilidad de objetos en sistemas en movimiento también pueden calcularse muy fácilmente. Además, es posible crear una clasificación objetiva para todo el sistema a partir de muchas recomendaciones subjetivas. El PageRank de Google también se basa en cadenas de Markov. Las aplicaciones clásicas son las colas y los tipos de cambio. El comportamiento de una presa también puede modelizarse con ayuda de una cadena de Markov. También es posible modelizar un sistema de control de velocidad para vehículos de motor. También es posible la evaluación analítica de algoritmos de movilidad, como el paseo aleatorio. La dinámica de poblaciones también puede modelizarse para predecir el crecimiento de la población humana o animal. También puede modelizarse el movimiento molecular browniano. La programación estadística y la simulación de distribuciones de equilibrio con el software "Statistik Software R" son especialmente relevantes.