Matrices estocásticas o de marcov Definición.

(Matriz de transición) Una matriz de transición para una cadena de Markov de n estados es una matriz de n x n Con todos los registros no negativos y con la propiedad adicional de que la suma de los Registros de cada columna (o fila) es 1. Recordemos que M es la matriz del grafo de la red, y que sus entradas mijson ceros o unos. Llamemos Nj al número de enlaces desde la páginaPj (esto es, la suma de lasentradas de cada columna de M). Vamos ahora a construir una nueva matriz M_ a partir de la M Original sustituyendo cada entrada mij por

Los registros de la nueva matriz M_ son números no negativos (entre 0 y 1) tales que la suma delos registros de cada columna vale 1. En la siguiente figura se muestra, para una cierta columna,el resultado de la transformación

La matriz M_ así construida es lo que se llama una matriz estocástica(o de Markov). Se denomina matriz de Markov, o fila- si I) ij; • 0 para 1 ” i, j ” n; (II) n ™ 1 para 1 ” i ” n j=1ij TEOREMA Cada valor propio

de una matriz de Markov satisface | | ” 1.

Si N es el número de páginas web conocen. En efecto. es una serie de eventos. El rango de estas variables. introducido por Márkov en un artículo publicado en 1907. . que recibe su nombre del matemáticorusoAndrei Andreevitch Markov (1856-1922). Una cadena de Márkov es una secuencia X1. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola. para planear las necesidades de personal y para analizar el reemplazo de equipo. para todas [8] las páginas que no están vinculados.. Una cadena de Márkov. .transición de un usuario enlace en un sitio web en particular puede ser modelado utilizando primero o de segundo orden los modelos de Markov y puede ser utilizado para hacer predicciones sobre el futuro de navegación y personalizar la página web de un usuario individual. su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. el valor de Xn es el estado del proceso en el tiempo n. entonces: Donde xi es el estado del proceso en el instante i. las cadenas de este tipo tienen memoria. se define como un proceso estocástico discreto que cumple con la propiedad de Márkov. entonces tiene una probabilidad de transición para todas las páginas que están vinculadas y . Este tipo de proceso.85. Definición formal En matemáticas. pero muy útil en muchos modelos.[1] presenta una forma de dependencia simple. las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos. es decir. En los negocios. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. si se conoce la historia del sistema hasta su instante actual. La identidad mostrada es la propiedad de Márkov. de variables aleatorias. y una página i tiene i enlaces k. El parámetro se toma alrededor de 0. entre las variables aleatorias que forman un proceso estocástico.. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. como tirar una moneda al aire o un dado. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes. modelos de Markov se han utilizado también para analizar el comportamiento de navegación web de los usuarios . es llamado espacio estado.El PageRank de una página web utilizada por Google es definido por una cadena de Markov. X2.. [7] Es la probabilidad de estar en la página i en la distribución estacionaria en la siguiente cadena de Markov en todos conocidos) páginas web (. X3.

Sign up to vote on this title
UsefulNot useful