Matrices estocásticas o de marcov Definición.

(Matriz de transición) Una matriz de transición para una cadena de Markov de n estados es una matriz de n x n Con todos los registros no negativos y con la propiedad adicional de que la suma de los Registros de cada columna (o fila) es 1. Recordemos que M es la matriz del grafo de la red, y que sus entradas mijson ceros o unos. Llamemos Nj al número de enlaces desde la páginaPj (esto es, la suma de lasentradas de cada columna de M). Vamos ahora a construir una nueva matriz M_ a partir de la M Original sustituyendo cada entrada mij por

Los registros de la nueva matriz M_ son números no negativos (entre 0 y 1) tales que la suma delos registros de cada columna vale 1. En la siguiente figura se muestra, para una cierta columna,el resultado de la transformación

La matriz M_ así construida es lo que se llama una matriz estocástica(o de Markov). Se denomina matriz de Markov, o fila- si I) ij; • 0 para 1 ” i, j ” n; (II) n ™ 1 para 1 ” i ” n j=1ij TEOREMA Cada valor propio

de una matriz de Markov satisface | | ” 1.

entonces tiene una probabilidad de transición para todas las páginas que están vinculadas y .[1] presenta una forma de dependencia simple. Este tipo de proceso. entre las variables aleatorias que forman un proceso estocástico. [7] Es la probabilidad de estar en la página i en la distribución estacionaria en la siguiente cadena de Markov en todos conocidos) páginas web (. las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos. de variables aleatorias. para planear las necesidades de personal y para analizar el reemplazo de equipo. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes. . X2. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. si se conoce la historia del sistema hasta su instante actual. es una serie de eventos. Una cadena de Márkov. pero muy útil en muchos modelos.transición de un usuario enlace en un sitio web en particular puede ser modelado utilizando primero o de segundo orden los modelos de Markov y puede ser utilizado para hacer predicciones sobre el futuro de navegación y personalizar la página web de un usuario individual. se define como un proceso estocástico discreto que cumple con la propiedad de Márkov. como tirar una moneda al aire o un dado. es decir.. La identidad mostrada es la propiedad de Márkov. introducido por Márkov en un artículo publicado en 1907. El parámetro se toma alrededor de 0. entonces: Donde xi es el estado del proceso en el instante i. las cadenas de este tipo tienen memoria.. el valor de Xn es el estado del proceso en el tiempo n.85. su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. En efecto. El rango de estas variables. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. y una página i tiene i enlaces k. para todas [8] las páginas que no están vinculados. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola. que recibe su nombre del matemáticorusoAndrei Andreevitch Markov (1856-1922).. Definición formal En matemáticas.Si N es el número de páginas web conocen. En los negocios. modelos de Markov se han utilizado también para analizar el comportamiento de navegación web de los usuarios .El PageRank de una página web utilizada por Google es definido por una cadena de Markov. X3. es llamado espacio estado. . Una cadena de Márkov es una secuencia X1.

Sign up to vote on this title
UsefulNot useful