P. 1
Métodos para Generar Variables aleatorias

Métodos para Generar Variables aleatorias

|Views: 4.271|Likes:

More info:

Published by: Neyd Enriquez de Fernandez on Apr 11, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

08/21/2013

pdf

text

original

Métodos para Generar Variables aleatorias Hay cuatro métodos generales de generación de variables aleatorias y una serie de métodos

Particulares de las distintas distribuciones. La facilidad de aplicación de dichos métodos, así como el coste computacional asociado a los Mismos, varía mucho según la familia de variables aleatorias a las que se apliquen. Normalmente existen varios algoritmos que se pueden utilizar para generar valores de una Determinada distribución, y diferentes factores que se pueden considerar para determinar qué algoritmo utilizar en un caso particular. Desafortunadamente dichos factores suelen entrar en conflicto unos con otros y a veces se ha de llegar a una solución de compromiso. Algunos de estos factores son los siguientes: Exactitud: se han de obtener valores de una variable con una precisión dada. A veces se tiene suficiente con obtener una aproximación y otras no. Eficiencia: el algoritmo que implementa el método de generación tiene asociado un tiempo de ejecución y un gasto de memoria. Elegiremos un método que sea eficiente en cuando al tiempo y a la cantidad de memoria requeridos. Complejidad: Buscamos métodos que tengan complejidad mínima, siempre y cuando se garantice cierta exactitud. Robusted: el método tiene que ser eficiente para cualquier valor que tomen los parámetros de la distribución que siga la variable aleatoria. Facilidad de implementación. 

Métodos generales

Los métodos generales para la generación de variables aleatorias son: Método de Inversión, de Aceptación-Rechazo, de Composición y de Convolución. A continuación pasamos a estudiarlos. Método De Los Cuadrados Consiste en que cada número de una sucesión es producido tomando los dígitos medios de un número obtenido mediante la elevación al cuadrado. P1: Obtener semilla (valores iniciales 445) P2: Aplicación de Algoritmos recursivos (elevar al cuadrado) P3: Validación del conjunto de datos generados Ejemplo: Consideremos la semilla 445 X X2 N° Aleatorio 445 1| 9802 | 5 0,9802 9802 96| 0792 | 04 0,0792 792 6 | 2726 | 4 0,2726 2726 ««««« «««««

Métodos para Generar Variables aleatorias 

Método de Inversión La función de distribución (también llamada función de distribución acumulativa), F(x), de una variable aleatoria X es definida para cada número real x como sigue:
F(x)=P(X”x) para -’<x<’ Donde P(X”x) es la probabilidad asociada con el suceso {X”x}. Así F(x) es la probabilidad, cuando se ha realizado el experimento, de que la variable X tome un valor menor o igual que x. Una función de distribución F(x) tiene las siguientes propiedades:

Una variable aleatoria X se dice que es discreta si puede tomar unos valores determinados, no pudiendo tomar ningún valor comprendido entre dos consecutivos. Así la variable sólo puede tomar un conjunto finito de valores x1, x2,...,xn. La probabilidad de que la variable aleatoria X tome el valor xi es dado por:

Donde la sumatoria significa la suma de todas las probabilidades p(x1), p(x2),... Todas las probabilidades acerca de X se pueden calcular desde p(x), a la cual se le llama función de probabilidad para la variable discreta X. Si I=[a,b], donde a y b son números reales tales que a”b, entonces

El método de inversión va a aprovechar las propiedades de la función de distribución para obtener un valor de la variable aleatoria a partir de un número aleatorio uniformemente distribuido en el intervalo (0,1).

Los métodos de inversión.  Método de Aceptación Rechazo Este método es más probabilístico que el anterior. composición y convolución son métodos de generación directos. en el sentido en que tratan directamente con la función de distribución.  Caso discreto Al ser discreta no hay fórmula de su inversa y puede ocurrir que dado un u no se encuentre imagen x de la función.Vamos a ver en qué consiste dicho método tanto para el caso en el que la variable aleatoria sea continua como para cuando es discreta. . h(x) una función de densidad en I. Al ser la función de distribución continua. Vamos a utilizar un número aleatorio u. sino que este valor esté entre dos valores posibles. El método de aceptaciónrechazo es menos directo en su aproximación Es a X una variable aleatoria con función de densidad Supóngase que f(x)=Cg(x)h(x) con C una constante. Tal punto va a ser el valor de la variable que queremos generar.1) y vamos a suponer que es el valor que toma la función de distribución en un punto x.  Caso continuo En este caso la función de distribución es continua. uniformemente distribuido en (0. En este caso la función de distribución es discontinua y tiene una forma escalonada. y e Y (con función de Demostración: . entonces . vamos a encontrar un valor de x para cualquier u. Si densidad h) son independientes.

entonces se hace x=y. Se . Se genera independiente). Ahora interesa conocer cuál es la probabilidad de que en una iteración concreta se rechace el valor generado: y un valor y de la variable Y (de forma Como el número de iteraciones del método hasta aceptar un valor sigue una distribución geométrica de parámetro (cuya esperanza es C).D. Si .E. 2. Si u>g(y). Algoritmo de aceptación y rechazo: 1.Q. 3. Si hacemos tendrá . se va al paso 1. entonces si queremos optimizar el método habrá que intentaar que C sea próxima a uno y que h sea sencilla de generar. entonces buscamos que sea .

entonces también se tiene que cumplir que finita. Se elige la i-ésima función con probabilidad pi y se genera un valor para la función de densidad fi. gamma. Se 2. . se pueden expresar de forma exacta o aproximada mediante la suma lineal de otras variables aleatorias. .  Método de composición El método consiste en generar dos números aleatorios. . con fi función de densidad. En varios casos se aplica el Teorema Central del Límite y en otros se utiliza el método directo para encontrar las variables aleatorias. El método de convolución se puede usar siempre y cuando la variable aleatoria x se pueda expresar como una combinación lineal de k variables aleatorias Permite generar una distribución a partir de la suma de distribuciones más elementales o mediante la transformada z. El método de composición consiste en lo siguiente: 1.Como coincide con h salvo la constante y h es una función de sea densidad en I.  Procedimientos especiales Existen algunas distribuciones estadísticas de probabilidad en las cuales es posible emplear sus propiedades para obtener expresiones matemáticas para la generación de variables aleatorias en forma eficiente. binomial. poisson. etc. El valor de la variable obtenida es el valor buscado.  Método de convolución Muchas variables aleatorias incluyendo la normal. Sea f(x) la función de densidad de una variable aleatoria X. uno sirve para seleccionar un trozo y el otro se utiliza para generar un valor de una variable que sigue la distribución de dicho trozo. f como . descompone .. erlang.

. ’). En otras palabras. En las siguientes propiedades se asume que las funciones f(t) y g(t) con funciones que poseen transformada de La place. la transformada inversa de La place de una función F (s) es una función f (t) cuya TL sea F (s).}. aceptación-rechazo. directos. tal que satisface F (s) = L{f} (s). que es continua en [0.Transformada inversa. El método de la transformada inversa: Suponga que queremos generar el valor de una variable aleatorio discreta X con función de masa de probabilidad (Transformada Inversa de La place) La Transformada Inversa de La place de una función F (s) es una función única L 1 {F } (t) = f (t). A la transformada inversa de una función se le denota con la letra minúscula correspondiente a la de su transformada o utilizando el operador transformada inversa L 1 {. convolución.

. como Generar un número aleatorio U Si U<p0 hacer X = x0 y terminar Si U<p0+ p1 hacer X = x1 y terminar Si U<p0+ p1 + p2 hacer X = x2 y terminar .Podemos escribir lo anterior en forma algorítmica.Observaciones: 1.

se tiene el siguiente algoritmo: 1. entonces k=A(y). Falta determinar los valores Q(i) y los alias A(i) de modo que se tenga . Método de la transformación inversa Sea X una variable aleatoria discreta con función de distribución F y probabilidades puntuales Considerando la función F. entonces se hace i=i+1. Si u>s. z=frac(ku). Si z>Q(y). Método del alias (Este método sólo es válido para variables cuya probabilidad está concentrada en un número finito de puntos) Sea X tal que P(X=xi)=pi. que es escalonada. 2. Se toma x=xk. entonces k=y. se tiene el siguiente algoritmo: 1. Si . Se genera 2. Tras una fase de preprocesamiento que se detalla más adelante. Se hace s=p1.Generación de variables aleatorias discretas: distribuciones poisson. i=1. Si . s=s+pi y se repite el paso 2.Binomial. entonces x=xi es el valor que se genera y finaliza el algoritmo. . Sean y=1+[ku]. y geométrica. . Se genera .

Para cada se define 2. . Si esto no es posible.Fase de preprocesamiento: 1. finaliza el preprocesamiento. i=3. Q(i)=kai. Ij=true. Ejemplo: Sea vector de probabilidades es ( ) con x=0. I(3)=False. . y y Hágase Ii=false. A(4)=1. A(i)=j. Ii=true.1. j=1. Selecciónese j tal que . .3. Se repiten las siguientes operaciones (a lo sumo) k-1 veces: y Selecciónese i tal que .2. . j=2. El i=4. I(4)=False. A(3)=2.

. Ahora asignamos el 1 al valor 0. con lo cual cuando apliquemos la segunda parte del algoritmo del alias nos dará los valores que buscamos. el 2 al 1.i=1. . . La variable geométrica se puede relacionar fácilmente con la variable exponencial: Sea Sea x>0. el 3 al 2 y el 4 al 3. Distribuciones concretas Distribución geométrica Representa el número de fracasos hasta que se produce el primer éxito en un experimento de Bernouilli de parámetro p. A(1)=2. j=2.

Como . Ya se vio que para ello hay que . por lo que se concluye que Distribución binomial negativa Representa el número de fracasos antes del r-ésimo éxito en un experimento de Bernouilli de parámetro p. por lo que basta simular r veces una geométrica con parámetro p y sumar los valores obtenidos. tomemos tal que para conseguir la expresión de probabilidad puntual de una distribución G(p). Basta tomar una hacer . Otro modo consiste en observar que una variable BN(p. Existen varias formas de simular variables con distribución binomial negativa: la más inmediata es ir simulando experimentos de Bernouilli de parámetro p y contabilizar los fracasos hasta que se obtiene el éxito résimo. con . .r) es suma de r variables geométricas G(p) independientes. Tras esto se toma un valor y generado según y se toma x=[y]. Veamos también un algoritmo directo basado en el método de composición. Sean (Poisson) y .

.r). Como nosotros queremos simular . para generar una variable siguiente modo: se generan valores . entonces el número de sucesos por . podemos proceder del tales que . con . resultando el una BN(p. . En unidad de tiempo sigue una distribución de Poisson de parámetro consecuencia. Ese valor x corresponderá a una variable Como los valores Tj son exponenciales de parámetro tiene que . Se genera 2.Luego esta composición es . por lo que . Este valor x está distribuido según una distribución binomial negativa BN(p. . Distribución de Poisson En la primera parte de la asignatura se vio que si los tiempos entre sucesos consecutivos son . entonces se .r). entonces debemos tomar siguiente algoritmo: 1. Se genera .

.En resumen. el algoritmo es el siguiente: 1. x=1. y se hace k=kui. Sean k=1. Se genera 3. 2. entonces x-1 es el valor buscado. Si . En caso contrario se hace x=x+1 y se va al paso 2.

basado en los estadísticos ordenados y que permite generar n valores a la vez. . Otro método. Erlang. Gamma. Ahora se hace y Estos valores corresponden a una variable Exp(1) y son independientes. y Triangular Distribución exponencial Un método que ya se usado varias veces consiste en tomar con . u(n)=1. normal.Generación de variables aleatorias continuas: distribuciones Uniforme. Exponencial. es el siguiente: se generan Ordenando obtenemos definimos u(0)=0. Beta.

Distribución gamma Sea y . El siguiente teorema nos da un método directo para y son simular estas variables. entonces . del segundo parámetro y una variable es una consideramos la siguiente descomposición: Es por esto por lo que basta limitarse a simular variables con . Si independientes. Como esta distribución es reproductiva respecto .

Demostración: Sean v>0. Por la independencia de W y V: Se considera el cambio Así El recinto transformado es La distribución marginal de X es . 0<w<1.

E. Distribución beta Si . El valor máximo de f se alcanza en Sin embargo. entonces e Demostración: . entonces f está acotada y se puede aplicar aceptación y para una cota de rechazo. . Si son independientes. En los dos siguientes teoremas veremos dos métodos para simular variables beta de modo eficiente. el método sólo es eficiente si tanto como están próximos a uno.Luego Q. .D.

Se considera el cambio de variable La densidad conjunta es El recinto transformado es La distribución marginal de X1 es .

Luego Q. entonces Y1 e Y2 también lo son.E. Si . Distribución de Y1 (la de Y2 se obtiene de forma análoga pero considerando en lugar de ): El recinto transformado es 0<y1<1. entonces e independientes. . Sean U1. Distribución de (Y1. Demostración: Como U1 y U2 son independientes. entonces Distribución de Se considera el cambio de variable : .Y2): Como Y1 e Y2 son independientes.D.

.El recinto transformado es Ahora. si . entonces: En consecuencia.

Luego Además.E.1). basta generar una variable N(0. Distribución normal Para generar una variable pues . Las variables Z1.1) e . la probabilidad de que se acepte el par (y1.y2) en una iteración concreta es Q. Demostración: e independientes.D. Con el fin de generar una variable N(0.1) se considera el cambio de coordenadas siguiente (cambio polar): con independientes. Z2 son N(0.

tal que: probabilidad . La forma más simple sería sacar aleatoriamente nuevos valores a partir de los valores ya observados. Distribuciones Empíricas de probabilidad La distribución empírica asociada a una muestra es la ley de probabilidad sobre el conjunto de las modalidades. respetando sus frecuencias. .1 Sean diferentes valores que toman los una muestra. La idea es la siguiente. Supongamos que queremos aumentar artificialmente la cantidad de datos. Para los denotamos: el número de veces que el valor valor aparece o sea el efectivo del . Definición 2. que afecta a cada observación con el peso . se simularía la distribución empírica. En otras palabras. La distribución empírica de la muestra es la ley de sobre el conjunto .El recinto transformado es . Así Luego y son independientes.

La media de la muestra es la esperanza de su distribución empírica. hablamos de clase modal.2 Sea una muestra numérica. a los valores iguales a los puestos en orden creciente: Aquí tenemos como ejemplo a una muestra de tamaño estadígrafos de orden. Puede ser bimodal o multimodal en otros casos. Para estudiar una distribución empírica. Llamamos estadígrafos de orden de la muestra. la moda de la distribución empírica es el valor que tiene la frecuencia más alta. Definición 2. la primera etapa consiste en ordenar los datos en orden creciente. la varianza y la desviación estándar pueden ser vistas como carácterísticas probabilistas de la distribución empírica. es decir escribir sus estadígrafos de orden. . Para un carácter discreto.La media. Para un carácter continuo agrupado en clases de amplitudes iguales. Una distribución empírica se llama unimodal si la frecuencia maximal es significativamente mayor que las otras. y sus La función de distribución empírica es la función de distribución de la distribución empírica.

que denotamos por y que toma los valores: En otras palabras. es la proporción de los elementos de la muestra que son menores o iguales a .Definición 2.3 La función de distribución empírica es la función de en . .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->