Matrices estocásticas o de marcov Definición.

(Matriz de transición) Una matriz de transición para una cadena de Markov de n estados es una matriz de n x n Con todos los registros no negativos y con la propiedad adicional de que la suma de los Registros de cada columna (o fila) es 1. Recordemos que M es la matriz del grafo de la red, y que sus entradas mijson ceros o unos. Llamemos Nj al número de enlaces desde la páginaPj (esto es, la suma de lasentradas de cada columna de M). Vamos ahora a construir una nueva matriz M_ a partir de la M Original sustituyendo cada entrada mij por

Los registros de la nueva matriz M_ son números no negativos (entre 0 y 1) tales que la suma delos registros de cada columna vale 1. En la siguiente figura se muestra, para una cierta columna,el resultado de la transformación

La matriz M_ así construida es lo que se llama una matriz estocástica(o de Markov). Se denomina matriz de Markov, o fila- si I) ij; • 0 para 1 ” i, j ” n; (II) n ™ 1 para 1 ” i ” n j=1ij TEOREMA Cada valor propio

de una matriz de Markov satisface | | ” 1.

su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.85.transición de un usuario enlace en un sitio web en particular puede ser modelado utilizando primero o de segundo orden los modelos de Markov y puede ser utilizado para hacer predicciones sobre el futuro de navegación y personalizar la página web de un usuario individual. entonces: Donde xi es el estado del proceso en el instante i.El PageRank de una página web utilizada por Google es definido por una cadena de Markov.Si N es el número de páginas web conocen. entre las variables aleatorias que forman un proceso estocástico. es una serie de eventos. para todas [8] las páginas que no están vinculados. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola. Una cadena de Márkov. se define como un proceso estocástico discreto que cumple con la propiedad de Márkov. El rango de estas variables. y una página i tiene i enlaces k. es decir. que recibe su nombre del matemáticorusoAndrei Andreevitch Markov (1856-1922). El parámetro se toma alrededor de 0. entonces tiene una probabilidad de transición para todas las páginas que están vinculadas y . para planear las necesidades de personal y para analizar el reemplazo de equipo. Una cadena de Márkov es una secuencia X1.. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. [7] Es la probabilidad de estar en la página i en la distribución estacionaria en la siguiente cadena de Markov en todos conocidos) páginas web (. En efecto. . de variables aleatorias. Definición formal En matemáticas. pero muy útil en muchos modelos. las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos. .. X3. si se conoce la historia del sistema hasta su instante actual. En los negocios. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes. modelos de Markov se han utilizado también para analizar el comportamiento de navegación web de los usuarios . como tirar una moneda al aire o un dado. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. el valor de Xn es el estado del proceso en el tiempo n. es llamado espacio estado.[1] presenta una forma de dependencia simple. las cadenas de este tipo tienen memoria. Este tipo de proceso. La identidad mostrada es la propiedad de Márkov. introducido por Márkov en un artículo publicado en 1907.. X2.

Sign up to vote on this title
UsefulNot useful