0 calificaciones0% encontró este documento útil (0 votos)
23 vistas2 páginas
Este documento describe los procesos de Markov, incluyendo su propiedad fundamental de que el futuro depende solo del presente y no del pasado. Explica que los procesos de Markov son modelos útiles para sistemas dinámicos estocásticos en diversas disciplinas. También define conceptos como espacios de estado continuo y discreto, procesos estocásticos, y usos de procesos de Markov como modelos probabilísticos.
Este documento describe los procesos de Markov, incluyendo su propiedad fundamental de que el futuro depende solo del presente y no del pasado. Explica que los procesos de Markov son modelos útiles para sistemas dinámicos estocásticos en diversas disciplinas. También define conceptos como espacios de estado continuo y discreto, procesos estocásticos, y usos de procesos de Markov como modelos probabilísticos.
Este documento describe los procesos de Markov, incluyendo su propiedad fundamental de que el futuro depende solo del presente y no del pasado. Explica que los procesos de Markov son modelos útiles para sistemas dinámicos estocásticos en diversas disciplinas. También define conceptos como espacios de estado continuo y discreto, procesos estocásticos, y usos de procesos de Markov como modelos probabilísticos.
Procesos de Markov con espacios determinada por la posición inicial del
MINISTERIO DEL PODER POPULAR PARA LA DEFENSA parametrales. sistema y una ley de movimiento UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÈCNICA especificada. Estos tipos de procesos son importantes y DE LA FUERZA ARMADA BOLIVARIANA son modelos en donde, suponiendo Propiedad de Markov UNEFA - NÚCLEO ANZOÀTEGUI conocido el estado presente del sistema, los La propiedad de Markov nos muestra que el estados anteriores no tienen influencia en futuro es independiente del pasado, dado el los estados futuros del sistema. presente, lo cual se expresa en la siguiente Esta condición se llama propiedad de formula: Markov y puede expresarse de la siguiente forma: Para cualesquiera estados x0, x1,. . ., xn−1 (pasado), xn (presente), xn+1 (futuro), se cumple la igualdad P (Xn+1 = La cual significa que el estado actual xn+1 | X0 = x0,. . ., Xn = xn) = P (Xn+1 = (representado por S) contiene toda la xn+1 | Xn = xn). información relevante de los estados pasados (S₁,….. S), por lo tanto ya no nos De esta forma la probabilidad del evento serviría tener mayor información de los futuro (Xn = xn) solo depende el evento estados pasados. (Xn−1 = xn−1), mientras que la información correspondiente al evento pasado (X0 = x0,. Espacio Continuos de estado. . ., Xn−2 = xn−2) es irrelevante. Un espacio de estado es el conjunto de Los procesos de Markov han sido todas las configuraciones posibles de un estudiados extensamente y existe un gran sistema. Es una abstracción útil para número de sistemas que surgen en muy razonar sobre el comportamiento de un Bachilleres: diversas disciplinas del conocimiento para sistema dado y se usa ampliamente en los Profesora: Deamaris Rodríguez Cristian Pérez 30.038.748 los cuales el modelo de proceso estocástico campos de la inteligencia artificial y la teoría y la propiedad de Markov son razonables. de juegos. Eduardo Lessey 16.572.182 En particular, los sistemas dinámicos En la teoría de sistemas dinámicos, un deterministas dados por una ecuación sistema discreto definido por una función f , VI SEMESTRE ING. DE diferencial pueden considerarse procesos el espacio de estados del sistema se puede SISTEMAS de Markov pues su evolución futura queda modelar como un gráfico dirigido donde cada estado posible de un sistema dinámico proceso se inicia en el estado (0,0) y habrá Ejemplo de aplicación de un proceso de está representado por un vértice, y hay un transiciones entre los distintos estados, Markov: borde dirigido desde a a b si y solo si ƒ ( a ) = siempre que sea anotado un gol. Con cada En el caso hipotético de que en el mercado b . Esto se conoce como diagrama de gol, puede hacer que x ó y se incrementen existen tres marcas de detergentes, cada estado. en uno, de donde, el marcador (x,y) pasa a una de las cuales tiene una cierta porción (x+1,y) o a (x,y+1). Para un sistema dinámico continuo definido de dicho mercado en la semana 1, la por una función f, el espacio de estados del Procesos Gaussianos semana siguiente la distribución puede sistema es la imagen de f. cambiar dependiendo de las decisiones del En la teoría de la probabilidad, un proceso consumidor (seguir con la misma marca o Los espacios de estados son útiles en gaussiano es un proceso estocástico f (x) tal cambiar por otra), y esta decisión depende informática como un modelo simple de que al tomar cualquier número finito de mucho de la última compra. Muchas otras máquinas. Formalmente, un espacio de variables aleatorias, de la colección que situaciones presentan este patrón de estados se puede definir como una tupla [N, forma el proceso aleatorio en sí, tienen una comportamiento: los valores de las acciones A, S, G] donde: distribución de probabilidad conjunta de la bolsa día a día, la distribución de la gaussiana. N es un conjunto de estados población entre diferentes regiones año a A es un conjunto de arcos que Se dice que un proceso a tiempo continuo año etc. conectan los estados {Xt: t ≥ 0} es un proceso Gaussiano si para S es un subconjunto no vacío de N cualesquiera colección finita de tiempos t1,. que contiene estados de inicio . ., tn, el vector (Xt1,. . ., Xtn) tiene G es un subconjunto no vacío de N distribución normal o Gaussiana. que contiene los estados objetivos. Un proceso gaussiano se puede usar como Ejemplo. ¿Cuáles son el espacio de estados distribución de probabilidad a priori en y el espacio del parámetro para un proceso funciones en inferencia bayesiana. La estocástico que representa el posible inferencia por valores continuos que hace marcador durante un partido de fútbol? uso de procesos gaussianos se conoce como regresión gaussiana y se usa en varios Solución. El espacio de estados S es el campos, desde la automatización hasta la conjunto de valores posibles que puede geoestadística (kriging). Los procesos tomar el posible marcador, de donde S = gaussianos también son una poderosa {(x,y): x, y = 0, 1, 2, ...}. El espacio del herramienta para la interpolación no lineal. Andréi Márkov parámetro es T = (0,90). Notemos que el