Está en la página 1de 7

package Montecarlo.Servidor; import import import import java.rmi.Naming; java.rmi.RemoteException; java.rmi.registry.LocateRegistry; java.rmi.registry.

Registry;

//Clase donde se arranca el servidor //IP ser dado por una propiedad del sistema durante el arranque del servidor //ServidorID tambin ser dado al iniciar el arranque y coincide con la posicin //del servidor en la lista de servidores del cliente como del monitor public class Servidor { public static String Ip = ""; public static int ServidorID=0; public static void main(String args[]) { String registryURL; try { //Arranca el registro RMI en el puerto 1099 si este no est activo startRegistry(1099); ServidorID = Integer.parseInt(System.getProperty("ServidorID")); Ip = System.getProperty("java.rmi.server.hostname"); System.out.println("IP:" + Ip + ": Servidor (" + ServidorID + ")"); ImplServidor obj = new ImplServidor(); registryURL = "rmi://" + Ip + ":1099/montecarlo"; //Registra la implementacin del servidor (montecarlo) en el registro Naming.rebind(registryURL, obj); System.out.println("Listo el servidor de Clculo de IP por el Mtodo Montecarlo."); } catch (Exception re) { System.out.println("Exception en main: " + re); } } //Funcin de control del inicio del registro en un puerto dado private static void startRegistry(int RMIPortNum) throws RemoteException { try { Registry registry = LocateRegistry.getRegistry(RMIPortNum); registry.list(); } catch (RemoteException e) {

LocateRegistry.createRegistry(RMIPortNum); } } }

CADENAS DE MARKOV
CADENAS DE MARKOV En la teora de la probabilidad, se conoce como cadena de Mrkov a un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907. Definicin: En matemticas, se define como un proceso estocstico discreto que cumple con la propiedad de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro. Una cadena de Mrkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una funcin de Xn por s sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Mrkov.

Fundamentos bsicos:

Cadenas homogneas y no homogneas


Una cadena de Markov se dice homognea si la probabilidad de ir del estado i al estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es:

Para todo n y para cualquier i, j. Si para alguna pareja de estados y para algn tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no homognea.

Probabilidades de transicin y matriz de transicin


La probabilidad de ir del estado i al estado j en n unidades de tiempo es

En la probabilidad de transicin en un paso se omite el superndice de modo que queda

Un hecho importante es que las probabilidades de transicin en n pasos satisfacen la ecuacin de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k < n se cumple que

Donde E denota el espacio de estados. Cuando la cadena de Markov es homognea, muchas de sus propiedades tiles se pueden obtener a travs de su matriz de transicin, definida entrada a entrada como Ai,j = pij esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso. Del mismo modo se puede obtener la matriz de transicin en n pasos como:

, donde

Vector de probabilidad invariante


Se define la distribucin inicial

Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Markov si:

Donde P denota la matriz de transicin de la cadena de Markov. Al vector de probabilidad invariante tambin se le llama distribucin estacionaria o distribucin de equilibrio. CADENAS DE MARKOV ABSORBENTES Una cadena de markov en la que uno o ms estados es un estado absorbente es una cadena de markov absorbente. Para contestar preguntas importantes acerca de una cadena de markov absorbentes, se alistan los estados en el siguiente orden: primero los estados transitorios, luego los estrados absorbentes. Suponga que hay s m estados transitorios (t1, t2,, ts-m) y m estados absorbentes (a1, a2,, am), se escribe la matriz de probabilidades de transicin P como sigue:

Proceso Estocstico Un proceso estocatico discreto en el tiempo es simplemente una descripcion de la relacion entre las variables aleatorias (x0, x1, x2,) Estado Transitorio Un estado es transitorio si, despues de haber entrado a este estado, el proceso nunca regresa a el. Por consiguiente, el estado i es transitorio si y solo si existe un estado j(ji) que es accesible desde el estado j, pero no viceversa, esto es, si el estado i no es accesible desde el estado j. Estado Recurrente Un estado es recurrente si, despues de haber entrado a este estado, el proceso definitivamente regresara a ese estado. Por conciguiente, un estado es recurrente si y solo si no es transitorio. Un estado i es periodico con periodo K > 1 si K es el numero mas pequeo tal que la trayectoria que conducen del estado i de regreso al estado i tienen una longitud que es multiplo de K. si un estado recurrente no es periodico, se conoce como aperiodico. Matriz Ergdica Si los estados en una cadena son recurrentes, aperiodicos y se comunican entre si, se dice que la cadena es ergdica.

Aplicaciones de las cadenas de Markov:

Fsica Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la fsica estadstica. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusin de Laplace. Meteorologa Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual solo depende del ltimo estado y no de toda la historia en s, de modo que se pueden usar cadenas de Markov para formular modelos climatolgicos bsicos. Modelos epidemiolgicos

Una importante aplicacin de las cadenas de Markov se encuentra en el proceso Galton-Watson. ste es un proceso de ramificacin que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (vase modelaje matemtico de epidemias). Internet El pagerank de una pgina web (usado por Google en sus motores de bsqueda) se define a travs de una cadena de Markov, donde la posicin que tendr una pgina en el buscador ser determinada por su peso en la distribucin estacionaria de la cadena. Simulacin Las cadenas de Markov son utilizadas para proveer una solucin analtica a ciertos problemas de simulacin tales como el Modelo M/M/1. Juegos de azar Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro. Economa y Finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones para determinar cundo existe oportunidad de arbitraje, as como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. Ejemplo: En un pas como Colombia existen 3 operadores principales de telefona mvil como lo son tigo, Comcel y movistar (estados). Los porcentajes actuales que tiene cada operador en el mercado actual son para tigo 0.4 para Comcel 0.25 y para movistar 0.35. (estado inicial) Se tiene la siguiente informacin un usuario actualmente de tigo tiene una probabilidad de permanecer en tigo de 0.60, de pasar a Comcel 0.2 y de pasarse a movistar de 0.2; si en la actualidad el usuario es cliente de Comcel tiene una probabilidad de mantenerse en Comcel del 0.5 de que esta persona se cambie a tigo 0.3 y que se pase a movistar de 0.2; si el usuario es cliente en la actualidad de movistar la probabilidad que permanezca en movistar es de 0.4 de que se cambie a tigo de 0.3 y a Comcel de 0.3. Partiendo de esta informacin podemos elaborar la matriz de transicin.

La suma de las probabilidades de cada estado en este caso operador deben ser iguales a 1

Po= (0.4 0.25 0.35)

estado inicial

Ahora procedemos a encontrar los estados en los siguientes pasos o tiempos, esto se realiza multiplicando la matriz de transicin por el estado inicial y asi sucesivamente pero multiplicando por el estado inmediatamente anterior.

Como podemos ver la variacin en el periodo 4 al 5 es muy mnima casi insignificante podemos decir que ya se a llegado al vector o estado estable.

También podría gustarte