Documentos de Académico
Documentos de Profesional
Documentos de Cultura
68 69
x Mida la eficiencia del sistema ante las condiciones presentadas. CAPTULO III: x Escale respuesta de nuevo al dominio del sistema original. MTODOS DEla SIMULACIN 3.1 x Tcnicas Proporcione de simulacin la respuesta yaevaluacin la pregunta de original. errores en simulacin
3.1.1 Tipos Estos de seis simulacin pasos reflejan el mtodo general de simulacin con relacin a Lade tarea de ejecutar El simulaciones proporciona la penetracin y una problemas la prediccin. modelo anlogo toma algunas libertades con comprensin respecto a profundael de los procesos que se estn modelando. Unde ejemplo simple deSe una modelar sistema fsico.fsicos La invariacin de la escala es una tales libertades. simulacin implica lanzar de una bola enun el modelo aire. La que bola se puede decir que simula un puede ver ya la necesidad escoger proporcione todos los servicios y misil, por ejemplo. Es decir, experimentando con las bolas que se propiedades para validar correctamente el comportamiento verdadero del sistema. comienzan en diversas alturas iniciales y los vectores velocidad, puede Las primeras computadoras electrnicas eran iniciales anlogasde enla comparacin con ser dicho est simulando la trayectoria de un misil. Esta clase de simulacin se se digital. Elque usose primario de una computadora anloga es simular un sistema fsico que conoce como simulacin anlogade puesto que implica un modelo fsico de una bola. Una pueda modelar como un sistema ecuaciones diferenciales. Los dispositivos simulacin de computadora, por otra parte, es una simulacin donde un programa es el electrnicos tales como amplificadores operacionales cuando estn utilizados modelo de simulacin. Se construye una simulacin computarizada dellos misil conjuntamente con los resistores y los condensadores funcionan como integradores y construyendo un programa que sirva para las ecuaciones del de movimiento para los diferenciadores. Esto significa que unomodelar puede simular un sistema ecuaciones los objetos vuelo. Si mira al sistema fsico que est bajo estudio como exacto, creando un en programa dese simulacin en una computadora anloga. El tipo ms abstracto entonces sede pueden crear aproximaciones de ese modelo como si se tuvieran diversos de modelo la simulacin es el modelo digital, en el cual un programa de computadora niveles de abstraccin. permite que se ejecute el modelo. Nuestro inters est en modelos digitales puesto que El modelo fsico es el sistema bajo estudio. Es decir, se intenta estudiar un misil son los ms flexibles y pueden ser programados fcilmente. en vueloLa creando una simulacin de ella. Una forma en de que simular este sistema simulacin es una metodologa aplicada se describe el es crear una versin ms pequea del sistema. Una bala es realmente misil miniatura - por lo comportamiento de sistemas complejos usando modelos un matemticos o simblicos. tanto, se modelo pueden sirve estudiar losuna misiles en vuelo disparando balas en lugar de otro misil. Nuestro como hiptesis para mostrar cmo un sistema realmente se Las balas son, de todo, mucho ms baratas que los misiles viene la comporta bajo despus ciertas condiciones de tiempo o funcionamiento. Se cuando puede tambin experimentacin. Severdaderos puede entonces contestar a preguntas sobre la simulacin del misil simular sistemas no variando algunos parmetros, condiciones iniciales y por despussobre de este procedimiento asunciones nuestro modelo. general: x Obtenga la pregunta que se contestar o el problema que se solucionar en un 3.1.2 Tipos de modelos de simulacin dominio dadode - tal como la teora de comunicaciones. Por ejemplo, se puede Los modelos simulacin se pueden clasificar atendiendo a diferentes criterios: que tan eficiente resulta un sistema al enfrentar un crecimiento 1. Segnpreguntar el instante temporal que representa: x x x inesperadorepresentan de abonados Estticos: a un sistema en un instante determinado. Traduzca la representan pregunta y el problema al modelo de la simulacin. Entonces se Dinmicos: a un sistema evolucionando en el tiempo. lanzan que
el problema antedicho a de un estado: modelo de la escala pequea usando un 2. Segntraduce la aleatoriedad de sus variables x modelo del sistema. Esto implicadel correctamente la reduccin de todos los Deterministas: la representacin sistema no contiene ninguna variable aspectos del problema. Esto no es trivial, y muchos fenmenos fsicos no son aleatoria. invariantes a la operacin del escalamiento. x Encienda o ejecute el modelo del sistema.
70
Estocsticos o aleatorios: la representacin del sistema contiene al menos una variable de estado no determinista.
3. Segn el modo en que evolucionan sus variables de estado: x Discretos o de eventos discretos: si las variables de estado del modelo varan dentro de un conjunto contable de instantes de tiempo. x 3.2 Continuos: si las variables de estado varan en un tiempo continuo. Simulacin de Montecarlo
3.2.1 Introduccin a los mtodos de Monte Carlo Los mtodos numricos conocidos como mtodos de Monte Carlo son mtodos estadsticos de la simulacin que utiliza secuencias de nmeros aleatorios para realizar la modelacin de los sistemas que estn siendo analizados. Los mtodos de Monte Carlo se han utilizado por siglos, pero solamente en las ltimas dcadas pasadas la tcnica ha ganado el estatus de un mtodo numrico capaz de tratar las aplicaciones ms complejas. Los mtodos estadsticos de la simulacin se pueden poner en contraste con los mtodos numricos convencionales de discretizacin, que se aplican tpicamente a las ecuaciones diferenciales ordinarias o parciales que describen un cierto sistema fsico o matemtico. En muchas aplicaciones de Monte Carlo, el proceso fsico se simula directamente, y no hay necesidad de encontrar las ecuaciones diferenciales que describen el comportamiento del sistema. El nico requisito es que el sistema fsico (o matemtico) sea descrito por las funciones de densidad de probabilidad (pdf), que sern discutidas ms detalladamente adelante en este captulo. Por ahora, se asume que el comportamiento de un sistema se puede describir por los pdf. Una vez que se conocen los pdf, la simulacin de Monte Carlo puede proceder a realizar un muestreo aleatorio del mismo, entonces, se realizan ensayos mltiples de la simulacin y se toma el resultado deseado de un promedio sobre el nmero de las observaciones. En muchas aplicaciones prcticas, uno puede predecir el error estadstico (la varianza) en este resultado medio, y por lo tanto, encontrar una estimacin del nmero de los ensayos de la simulacin de Monte Carlo que son necesarios alcanzar un error dado. Se requiere de una manera rpida y eficaz de generar los nmeros aleatorios para realizar la simulacin, stos nmeros deben estar distribuidos uniformemente en el intervalo [0.1]. Los resultados de estas muestras aleatorias, o los ensayos, se deben acumular o registrar de una manera apropiada para producir el resultado deseado, pero la caracterstica esencial de Monte Carlo es el uso de las tcnicas de muestreo aleatorio
71
para llegar una solucin del problema fsico. En contraste, un acercamiento numrico convencional de la solucin comenzara con el modelo matemtico del sistema fsico, individualizando las ecuaciones diferenciales y despus solucionando un conjunto de las ecuaciones algebraicas para el estado desconocido del sistema. Se debe tener presente sin embargo que esta descripcin general de los mtodos de Monte Carlo puede no funcionar directamente en algunas aplicaciones. Los mtodos de Monte Carlo estn utilizados para simular procesos aleatorios o estocsticos, puesto que stos se pueden describir fcilmente por los pdf. Sin embargo, muchas aplicaciones de Monte Carlo no tienen ningn contenido estocstico evidente, pero, en estos, uno puede plantear una solucin en trminos de los pdf realizando una discretizacin o aleatorizacin del sistema, aunque esta transformacin puede parecerse artificial, este paso de progresin permite que el sistema sea tratado como un proceso estocstico con el fin de realizar la simulacin y por lo tanto poder emplear los mtodos de Monte Carlo para simular el sistema. 3.2.2 Componentes importantes de un algoritmo de Monte Carlo Una vez que se conocen los conceptos bsicos que abarca la simulacin de Monte Carlo, se describen brevemente los componentes principales de un mtodo de Monte Carlo. Una comprensin de estos componentes proporcionar un fundamento para que se construya una aplicacin propia de simulacin basado en los mtodos de Monte Carlo. Los componentes primarios de un mtodo de la simulacin de Monte Carlo son los siguientes: x Las funciones de distribucin de la probabilidad (pdf) - el sistema fsico ( o matemtico) se debe describir por un conjunto de los pdf x Generador del nmero aleatorio - una fuente de los nmeros aleatorios distribuidos uniformemente en el intervalo de la unidad debe estar disponible. x Regla del muestreo - una prescripcin para hacer un muestreo de los pdf especificados, si se asume que la disponibilidad de nmeros aleatorios en el intervalo de unidad, debe ser dada. x Anotar (o registrar) - los resultados, se debe acumular en cuentas las cantidades de inters. x Valoracin del error - una estimacin del error estadstico (varianza) en funcin del nmero de ensayos y de otras cantidades debe ser determinada.
72
Tcnicas de la reduccin de la varianza - mtodos para reducir la varianza en la solucin estimada para reducir el tiempo de cmputo para la simulacin de Monte Carlo
Paralelizacin y vectorizacin - algoritmos para permitir que los mtodos de Monte Carlo sean puestos en ejecucin eficientemente en configuraciones avanzadas del ordenador.
3.3
Revisin de probabilidades Para tener una visin completa de los mtodos de Monte Carlo y su utilizacin,
se va a realizar un breve estudio de probabilidades debido a que todo el proceso de simulacin se basa en el muestreo aleatorio de las funciones de densidad probabilsticas, por lo tanto, se ver cmo realizar este muestreo y las tcnicas necesarias para lograr encontrar los resultados deseados. 3.3.1 Espacios de muestra, resultados, y acontecimientos Se refiere al proceso fsico o matemtico del sistema que va a ser analizado por medio de la simulacin como experimento, el cual tiene un nmero (posiblemente infinito) dado de resultados, a los cuales se asignarn probabilidades de ocurrencia. El espacio de muestra del experimento es la coleccin de todos los resultados posibles .
As, si se realiza el experimento, su resultado se asegura que estar en el espacio de muestra . Tambin se describe una realizacin del experimento como ensayo, y por la en el espacio de muestra . El . Un
experimento puede dar lugar a la ocurrencia de un acontecimiento especfico acontecimiento se puede ver como consecuencia del resultado (o de los resultados) del experimento. A un acontecimiento se asigna una probabilidad '. La cantidad
caractersticas dadas a continuacin para ser una probabilidad verdadera. x x x x 0 x PK x 1 Si EK es seguro que ocurra, PK = 1. Si EK es seguro que no ocurra, PK = 0. Si eventos Ei y Ej son mutualmente exclusivos, entonces: P(Ei y Ej) = 0
73
P(Ei o Ej) = Pi + Pj x Si eventos Ei, i = 1,2,....,N, son mutualmente exclusivos y exhaustivos (Uno de los N eventos es seguro que ocurra), entonces la sumatoria de todas las probabilidades de los eventos ser igual a 1. 3.3.2 Probabilidades condicionales, comunes y marginales Ahora se considera un experimento que consista en dos partes en la cual, cada parte conduce a la ocurrencia de acontecimientos especficos. Se definen los acontecimientos que se presentan de la primera parte del experimento como probabilidad y los acontecimientos de la segunda parte como y y con con probabilidad
. La combinacin de los acontecimientos acontecimiento compuesto, denotado por el par ordenado probabilidad comn
se define como la probabilidad que la primera parte del y la segunda parte del experimento es la probabilidad de
experimento conduzca al acontecimiento conduzca al acontecimiento que ocurra el acontecimiento acontecimientos y ocurran).
Cualquier probabilidad comn se puede descomponer en factores que son el producto de una probabilidad marginal y de una probabilidad condicional: (1) donde es la probabilidad comn, es la probabilidad marginal (la probabilidad
de que el acontecimiento ), y
es la probabilidad condicional. Observe que la probabilidad marginal es simplemente la probabilidad que ocurra el . Ahora se asume que hay acontecimientos
(2) Usando la ecuacin (2), se manipula fcilmente la ecuacin (1) para obtener la expresin siguiente para la probabilidad comn
74
(3)
Usando la ecuacin (1), la ecuacin (3) conduce a la expresin siguiente para la probabilidad condicional: (4)
, la probabilidad marginal
tanto satisfacen las caractersticas dadas para que sean reales. Si los acontecimientos y son independientes, entonces la probabilidad de
una que uno ocurra no afecta la probabilidad de que otro ocurra, por lo tanto: (5) Usando la ecuacin (4), la ecuacin (5) conduce inmediatamente a (6) para los acontecimientos independientes y . Esta ltima ecuacin refleja el hecho es independiente de si ha
de que la probabilidad de que ocurra el acontecimiento ocurrido el acontecimiento 3.3.3 Variables Aleatorias .
Las variables aleatorias son unas herramientas importantsimas en el anlisis de sistemas por medio de tcnicas de simulacin, debido a que permiten la cuantificacin de procesos aleatorios, y facilitan manipulaciones numricas, tales como la definicin de la desviacin esperada y estndar. Se defina una variable aleatoria como un nmero verdadero un acontecimiento ocurre con probabilidad que se asigne a
3.3.3.1 Valor de la expectativa, varianza y funciones de variables aleatorias Ahora que se ha asignado un nmero al resultado de un acontecimiento, se puede definir un valor promedio para la variable aleatoria sobre los acontecimientos posibles. Este valor medio se llama el valor de la expectativa para la variable aleatoria y tiene la definicin siguiente:
75
Valor de la expectativa o valor esperado = Uno puede definir una funcin de una variable aleatoria que tambin ser una variable aleatoria. Es decir, dada la variable aleatoria entonces la funcin
(7)
es
tambin una variable aleatoria, y se puede definir el valor de la expectativa de como: (8) El valor de la expectativa de una combinacin lineal de variables aleatorias es simplemente la combinacin lineal de sus valores respectivos de expectativas; (9) El valor de la expectativa es simplemente el primer momento de la variable aleatoria, significando que uno est encontrando el promedio de la variable aleatoria misma. As el valor esperado es el valor medio del primer momento de la variable aleatoria, Los momentos superiores de las variables aleatorias tienen un significado valioso para el anlisis de procesos aleatorios, el promedio del cuadrado de la variable aleatoria conduce a una cantidad importante conocida como varianza. Se puede definir los momentos ms altos de la variable aleatoria como sigue: (10) Tambin se definen los momentos centrales que expresan la variacin de la variable aleatoria sobre su medio.
(11)
(12)
Se muestra directamente la identidad importante siguiente: (13) Tambin se encuentra til la raz cuadrada de la varianza, que es la desviacin estndar, y se representa matemticamente como sigue:
Desviacin estndar =
3.3.3.2 Varianza de una combinacin lineal El medio de una combinacin lineal de variables aleatorias es la combinacin lineal de los medios, segn lo mostrado en la ecuacin (9).
(14)
76
(15) Se considera el valor medio del producto de dos variables aleatorias: (16) Ahora si y son variables aleatorias independientes, entonces (17) donde es la probabilidad de que la variable aleatoria ocurra. Pero si la ecuacin
(18) As, si dos variables aleatorias son independientes, el valor de la expectativa de su producto es el producto de sus valores de expectativa. Ahora considere el caso de la variacin de una combinacin lineal de variables aleatorias dada en la ecuacin (15), observe que si las variables aleatorias y son independientes, la ecuacin (18)
cuando est insertada en la ecuacin (15) rinde la expresin siguiente: (19) 3.3.3.3 Coeficiente de covarianza y de correlacin La cancelacin del ltimo trmino de la ecuacin (15) para variables aleatorias independientes motiva el concepto de la covarianza.
Covarianza =
Si y son independientes, entonces incluso si y
(20)
. Sin embargo, es posible tener no son independientes. Debe ser observado que la
covariacin puede ser negativa. Una cantidad relacionada que se presenta a menudo en anlisis estadstico es el coeficiente de correlacin, que es una medida conveniente del grado al cual se correlacionan dos variables aleatorias, y se define como sigue: Coeficiente de correlacin = (21)
77
3.3.3.4 Variables Aleatoria Continuas Se ha considerado hasta ahora solamente variables aleatorias discretas, es decir, un nmero especfico se asigna al acontecimiento pero, qu si los
acontecimientos no se pueden enumerar por nmeros enteros. Las definiciones antedichas para variables aleatorias discretas se pueden generalizar fcilmente al caso continuo. Primero, si hay un rango continuo de valores, tales como un ngulo entre 0 y entonces la probabilidad de conseguir exactamente un ngulo especfico es cero, porque hay un nmero infinito de los ngulos a elegir, y sera imposible elegir exactamente el ngulo correcto. Sin embargo, se puede hablar de la probabilidad de una variable aleatoria que adquiere un valor dentro de un intervalo dado. Para hacer esto, se define una funcin de densidad de probabilidad, o el pdf. 3.3.4 Funcin de densidad de probabilidad (pdf) El significado del pdf variable aleatoria est en el intervalo es que es la probabilidad de que la escrito como: (22) sta es una definicin operacional de unidades (es una probabilidad), entonces , puesto que no tiene
inversas, dependiendo de las unidades de . La figura 3.1 muestra un pdf tpico ilustra la interpretacin de la probabilidad de encontrar la variable aleatoria dentro de con el rea bajo la curva de a .
Se puede tambin determinar la probabilidad de encontrar la variable aleatoria en alguna parte en el intervalo finito (23) cul, por supuesto, est bajo el rea de la curva a
78
Ya que
es una densidad de probabilidad, debe ser positiva para todos los . Adems, la probabilidad de encontrar la variable
aleatoria en alguna parte en el eje verdadero debe ser la unidad. Pues, como resulta, estas dos condiciones son las nicas condiciones necesarias para que legtimo, y se resumen abajo. (24) (25) Observe que estas restricciones no son muy rigurosas, y en hecho permiten que uno aplique los mtodos de Monte Carlo para solucionar los problemas que no tienen ninguna aleatoriedad evidente. Planteando una aplicacin determinada en trminos de las funciones que obedecen estas condiciones relativamente suaves, uno puede tratarlas mientras que los pdf quizs emplean las tcnicas de gran alcance de la simulacin de Monte Carlo para solucionar la aplicacin original. Ahora se define una cantidad importante, relacionada con el pdf, que se conoce como la funcin de distribucin acumulativa, o el cdf. 3.3.4.1 Funcin de distribucin acumulativa (cdf) Para que se pueda asegurar que ocurra un evento dentro del intervalo que se est imponiendo, se debe hacer que el valor de la variable aleatoria sea mayor que el sea un pdf
valor de , que es el instante en el que se produce un evento, por lo tanto, si se descarta el intervalo o los valores de la variable aleatoria en la que no se producen acontecimientos, Se puede definir un cdf como la funcin de distribucin acumulativa de la probabilidad que la variable aleatoria sea menor que o igual a
(26) Observe que puesto que unidad, obedece las condiciones siguientes: es el aumento montono y el integral de se normaliza a la
79
La figura 3.2 ilustra un cdf representativo. Observe la dependencia de cuando . Ya que es la integral indefinida de ,
. El cdf se puede tambin definir para un pdf discreto; sin embargo, esto no se ver hasta que se discuta el tema del muestreo de una distribucin discreta.
3.3.4.2 Valor y variacin de la expectativa para los pdf continuos Se puede definir el valor medio de la expectativa y variacin para un pdf continuo, constante con nuestras definiciones anteriores para un pdf discreto: (27) (28) De manera semejante, si se define una funcin de valor real de la
variable aleatoria, se obtienen fcilmente las expresiones siguientes para la media y la variacin de un pdf continuo: (29) (30) Es importante tener presente que las cantidades caractersticas del pdf y la funcin . y son medios verdaderos, las
80
Esta distribucin puede describir un nmero de fenmenos fsicos. La distribucin exponencial es caracterizada por el solo parmetro y uno puede mostrar
fcilmente que el medio y la variacin para la distribucin exponencial estn dados cerca: (32)
(33) La figura 3.3 ilustra la distribucin exponencial. Observe que es la desviacin estndar de la distribucin exponencial (34) Se aprender ms adelante que se puede asociar la desviacin estndar a una clase de desviacin prevista del medio, significando eso para la distribucin exponencial, se esperara que la mayora de las muestras aunque el rango real de muestras cayeran dentro de
(35) Por lo tanto el 83% de las muestras de la distribucin exponencial se pueden esperar que caigan dentro de una mitad de una desviacin de estndar del medio, aunque algunas de las muestras estarn lejos del medio, ya que
81
Distribucin (Normal) Gaussiana: El segundo ejemplo es quizs el pdf ms importante de la probabilidad y de la estadstica: la distribucin gaussiana o normal. (36) Esto es una distribucin de dos parmetros ( medio de la distribucin y y ), y puede ser mostrado que es el
Se procede a calcular la probabilidad de que una muestra de la distribucin Gaussiana caer dentro de una sola desviacin de estndar del medio (37) Semejantemente, la probabilidad que la muestra est dentro de dos desviaciones de estndar (dentro de ) del medio es (38) Por lo tanto el 68% de las muestras, en promedio, caern dentro de una sobre el 95% de las muestras caern dentro de dos del medio y
La distribucin Gaussiana ser encontrada con frecuencia en este curso, no slo porque es un pdf fundamental para muchas aplicaciones fsicas y matemticas, sino que tambin porque desempea un papel central en la valoracin de errores con la simulacin de Monte Carlo. Distribucin De Cauchy (39) Esta distribucin es una pdf interesante, porque en sentido estricto, no existe su medio y su variacin es infinita. Dada nuestra definicin del medio,
82
(40) se encuentra que esta integral no existe porque los integrales separados para no existen. Sin embargo, si se permite una integracin del valor principal, donde los lmites se toman simultneamente, se ve que la integral para la integral para y el medio es cero, de acuerdo con una interpretacin grfica de cancela y
este pdf, segn lo representado en la figura 3.5. Sin embargo, si se intenta computar la variacin, se encuentra: (41) el cual es un integral ilimitado. As, si se muestrea de la distribucin de Cauchy y se procura predecir el fragmento al cual las muestras caern cerca al medio, se falla. Observe que la distribucin de Cauchy es un pdf legtimo, porque satisface las caractersticas de un pdf dado en la ecuacin (24) y en la ecuacin (25), a saber, (42) (43) pero su variacin es infinita y su medio hace necesario una definicin ms general de la integracin.
stos han sido ejemplos de un pdf de una sola variable aleatoria, o pdf univariable. Ahora se consideran los pdf bivariables, que generalizan fcilmente a los pdf multivariables. Las distribuciones bivariables son necesarias para un nmero de asuntos importantes en Monte Carlo, incluyendo el muestreo de los pdf multidimensionales y del anlisis del muestreo del rechazamiento.
83
3.3.5 Muestreo de funciones de distribucin de probabilidad Segn lo descrito anteriormente, una simulacin de Monte Carlo consiste en algn sistema fsico o matemtico que se pueda describir en trminos de las funciones de distribucin de probabilidad, o pdf. Estos pdf, suplidos quizs por cmputos adicionales, describen la evolucin del sistema total. La meta del mtodo de Monte Carlo es simular el sistema fsico por el muestreo aleatorio de estos pdf y realizar los cmputos suplementarios necesarios para describir la evolucin del sistema tratado. Esencialmente, la fsica y las matemticas son substituidas por el muestreo aleatorio de los estados posibles del pdf que describen el sistema. Ahora se presta atencin a cmo se obtiene realmente muestras aleatorias de los pdf arbitrarios. En esta seccin se considerar el muestreo de los pdf continuos y discretos. La tabla 1 resume las caractersticas importantes de ambos tipos de pdf. Propiedad Positividad Normalizacin Continua f(x) f ( x) x 0, toda _ x
x
x f ( x' )dx' x 1
xx
xp
j x1
x1
Interpretacin
pi x prob(i ) x prob( x j x xi )
Media
xx
x xf ( x)dx
xx x 2
x x xxj pj
j x1 N
Varianza
x x x ( x x x ) f ( x)dx
2 xx
2 xx x (x j x x)2 p j j x1
Ahora se discute cmo obtener una muestra escogida aleatoria continuo 3.3.5.1 Pdf continuos equivalentes Es conveniente expresar un pdf discreto como un pdf continuo usando las funciones delta. Esto har la discusin que sobreviene ms fcil seguir y simplifica muchas de las manipulaciones para los pdf discretos. Dado un pdf discreto asocia el acontecimiento a la variable aleatoria discreta pdf continuo equivalente como sigue:
de un pdf
se
y entonces se define a un
(44)
84
Aqu
Usando estas caractersticas, se muestra directamente que el medio y la variacin del pdf continuo equivalente, segn lo definido en la ecuacin (44), son idnticos al medio y la variacin del pdf discreto original. Se comienza con la definicin del medio del pdf continuo equivalente: (47) Ahora se toma la sumatoria fuera del integral y se utiliza la ecuacin (46), (48) que es el medio verdadero para el pdf discreto. Mucho del material que sigue, se mantiene para los pdf discretos y continuos, y esta equivalencia ser til en esta discusin. 3.3.5.2 Transformacin de los pdf Es necesario realizar una transformacin previa de un pdf para poder realizar el muestreo, porque as, se facilita el proceso de generar un nmero aleatorio que sirve para muestrear de la funcin nueva encontrada y encontrar directamente el valor buscado. Para tener una discusin completa del muestreo, se necesitan explicar las reglas de la transformacin para los pdf. Es decir, dado un pdf variable que la variable aleatoria y la meta es encontrar el pdf ocurre. para que sea una y para poder uno define una nueva que describe la probabilidad
Primero, se necesita restringir la transformacin transformacin nica, porque debe haber una relacin de 1 a 1 entre indicar que un valor dado de
tiene una relacin de 1 a 1, este puede ser un aumento montono o una disminucin montona, puesto que cualquier otro comportamiento dara lugar a una
85
conservar la probabilidad, es decir, la probabilidad de la variable aleatoria en alrededor debe ser igual que la probabilidad de la variable aleatoria ya que si ocurre, la relacin de 1 a 1 entre y
alrededor
La transformacin fsica implica que estas probabilidades deben ser iguales. La figura 3.6 ilustra esto para una transformacin de ejemplo
= Probabilidad que y est en dy
(49) y uno puede entonces resolver para (50) Esto se mantiene para la funcin de aumento montona que para una funcin que disminuye montonamente todo valor de , el hecho donde . Es fcil mostrar para
86
(51) Combinando ambos casos conducen a la siguiente regla simple para transformar los pdf: (52) 3.3.5.3 Muestreo va la inversin del cdf Ya que la variable aleatoria puede muestrear invertir o y el cdf tienen una relacin de 1 a 1, uno y despus resolver para al
al muestrear primero
. Pero se sabe que el cdf esta distribuido uniformemente . Por lo tanto, se utiliza simplemente un nmeros, para generar una es determinado por la inversin,
en [0.1], lo cual se denota como generador de nmeros aleatorios que produzca muestra del cdf
. Entonces el valor de
. Esto se representa grficamente en la figura 3.7. La inversin no es siempre posible, pero en muchos casos importantes lo contrario se obtiene fcilmente.
A continuacin se resumen los pasos para una conversin por medio de inversin de un cdf. Paso 1. Haga un muestreo de un nmero aleatorio Paso 2. Comprese con el cdf: de
87
Paso 3. Invierta el cdf y solucinelo para : De esta manera, se ha encontrado una forma de realizar el muestreo aleatorio que es la base de la simulacin de Monte Carlo. Para nuestro caso particular, la generacin y el muestreo aleatorio simularn el comportamiento impredecible del trfico dentro de los sistemas de telecomunicaciones. Ahora se va a continuar nuestro estudio con la revisin de otra herramienta muy importante para el anlisis de los sistemas de comunicaciones que el la teora de colas de espera. 3.4 Teora de colas
3.4.1 Introduccin Una de las herramientas matemticas ms poderosas para realizar anlisis cuantitativos de sistemas de comunicaciones, redes de ordenadores, etc. es la teora de colas de espera. Esta tcnica se desarrollo primeramente para analizar el comportamiento estadstico de los sistemas de conmutacin telefnica, sin embargo, desde entonces, tambin ha sido aplicada para resolver muchos problemas de redes, tal como lo es el comportamiento del trfico. 3.4.2 Sistemas de colas Se pueden utilizar sistemas de colas de espera para modelar procesos en los cuales los clientes van llegando, esperan su turno para recibir el servicio, reciben el servicio y luego se marchan. Ejemplos de sistemas de colas de espera se encuentran en las cajas registradoras de los supermercados, en las ventanillas despachadoras de boletos y en las salas de espera de los consultorios mdicos. Los sistemas de colas de espera pueden definirse mediante cinco componentes: x x x x x La funcin de densidad de probabilidad del tiempo entre llegadas. La funcin de densidad de probabilidad del tiempo de servicio. El nmero de servidores. La disciplina de ordenamiento en las colas. El tamao mximo de las colas. Conviene notar explcitamente que slo se estn considerando sistemas con un numero infinito de clientes (es decir, la existencia de una larga cola no reduce la poblacin de clientes a tal grado que se reduzca materialmente la velocidad de entradas o de servicio).
88
La densidad de probabilidad del tiempo entre llegadas describe el intervalo de tiempo entre llegadas consecutivas. Se podra imaginar que se coloca a una persona para observar la llegada de los clientes. A cada llegada, el observador registrara el tiempo transcurrido desde que ocurri la llegada previa. Despus de que hubiese transcurrido un tiempo suficientemente largo de estar registrando las muestras, las listas de nmeros podra clasificarse y agruparse: es decir, tantos tiempos entre llegadas de 0.1 segundos, tantos de 0.2 seg., etc. Esta densidad de probabilidad caracteriza el proceso de llegadas, el cual es descrito por una funcin de distribucin de probabilidad o pdf. Cada cliente requiere de cierta cantidad de tiempo proporcionado por el servidor, el tiempo de servicio requerido varia entre un cliente y otro. Para analizar un sistema de colas de espera, deben conocerse tanto la funcin de densidad de probabilidad del tiempo de servicio, como la funcin de densidad del tiempo entre llegadas. La cantidad de servidores no necesita explicarse. Muchos bancos, por ejemplo, tienen una sola cola larga para todos sus clientes y, cada vez que un cajero se libera, el cliente que se encuentra al frente de la cola se dirige a dicha caja. A este sistema se le denomina sistema de cola multiservidor. En otros bancos, cada cajero o cajera, tiene su propia cola particular. En este caso se tendr un conjunto de colas independientes de un solo servidor, y no un sistema multiservidor. La disciplina de ordenamiento de una cola describe el orden segn el cual los clientes van siendo tomados de la cola de espera. Los supermercados utilizan el mtodo del primero en llegar es el primero en ser servido. En las salas de urgencia de los hospitales se utiliza, ms a menudo, el criterio de primero el que est ms grave, no el primero en llegar es el primero en ser atendido. En un entorno amistoso de oficina, ante la fotocopiadora, se despacha primero al que tenga menor trabajo. No todos los sistemas de colas de espera poseen una capacidad infinita de recepcin de clientes. Cuando demasiados clientes quieren hacer cola, pero slo existe un nmero finito de lugares en cola de espera, algunos de estos clientes se pierden o son rechazados. Aqu se centrar exclusivamente en sistemas de capacidad infinita con un solo servidor y una disciplina de al primero en llegar se le despacha primero. Para estos sistemas se utiliza ampliamente, en la literatura sobre colas de espera, la notacin A/B/m, en donde A es la densidad de probabilidad de tiempo entre llegadas, B es la densidad de probabilidad de tiempo de servicio y m es el nmero de servidores. Las densidades de probabilidad A y B son escogidas a partir del conjunto:
89
x x x
M - densidad de probabilidad exponencial D - todos los clientes tienen el mismo valor G - general ( es decir, densidad de probabilidad arbitraria o definida por el usuario) La hiptesis de utilizar una probabilidad de tiempo entre llegadas exponencial es
totalmente razonable para cualquier sistema que maneja una gran cantidad de clientes independientes. En semejantes condiciones, la probabilidad de que lleguen exactamente n clientes, durante un intervalo de longitud t, estar dada por la ley de Poisson:
en la cual es la velocidad media de llegadas. Ahora se demostrar que las llegadas de Poisson generan una densidad de probabilidad de tiempo entre llegadas de tipo exponencial. La probabilidad, a(t)t, de que un intervalo entre llegadas se encuentre entre t y t+t, es exactamente la probabilidad de que no existan llegadas durante un tiempo t, multiplicada por la probabilidad de que exista una sola llegada en el intervalo infinitesimal t:
donde
Ntese que la integracin de la ecuacin anterior, entre 0 y x; es igual a 1, al ser una probabilidad. Aunque la hiptesis de una densidad de probabilidad de tiempo entre llegadas de tipo exponencial es normalmente razonable, en trminos generales es ms difcil defender la hiptesis de que los tiempos de servicios sean tambin de carcter exponencial. Sin embargo, para las situaciones en las cuales mientras ms grande sea el tiempo de servicio, menor ser su probabilidad de ocurrir, el modelo M/M/1 puede ser una aproximacin adecuada. Ahora se estudia con ms detenimiento el proceso de Poisson:
90
3.4.3 Proceso de Poisson El proceso de llegada de Poisson es el ms usado en el diseo de los modelos de colas. Este ha sido muy difundido para el trafico de redes telefnicas as como para la evaluacin del desempeo de sistemas de conmutacin en general. Se utilizan tres enunciados bsicos para definir el proceso de llegada de Poisson. Considrese un pequeo intervalo de tiempo t (t-->0), separando los tiempos t y t + t, como se muestra en la figura 3.8. Entonces: 1. La probabilidad de una llegada en el intervalo t se define como t<<1, siendo una constante de proporcionalidad especificada. 2. La probabilidad de cero llegadas en t es 1-t+0(t). 3. Las llegadas son procesos sin memoria: cada llegada (evento) en un intervalo de tiempo es independiente de eventos en intervalos previos o futuros. Con esta ltima definicin, en el proceso de Poisson la probabilidad de un evento en el tiempo t + t depende de la probabilidad en el tiempo de slo . Ntese que de acuerdo con los enunciados 1 y 2, queda excluido el caso de ms de una llegada u ocurrencia de un evento en el intervalo t (t-->0), al menos a 0(t). Si ahora se toma un intervalo finito T (como se muestra en la figura 3.9) mayor, se encuentra la probabilidad p(k) de k llegadas en T dada como: (53)
Figura 3.9 Derivacin de la distribucin de Poisson en funcin de una distribucin aleatoria de llegadas
Esta se conoce como la distribucin de Poisson. Esta distribucin est debidamente normalizada:
91
La varianza:
(55) El parmetro , definido inicialmente como una constante de proporcionalidad (vase el enunciado 1 para el proceso de Poisson), resulta ser un parmetro de velocidad:
de la ecuacin (53). Este representa entonces la tasa de promedio de llegadas de Poisson. De las ecuaciones (53) y (54) se desprende que la desviacin estndar la distribucin, normalizada al valor promedio E(K), tiende a cero conforme T aumenta: . Esto implica que para valores grandes de T, la distribucin de
se encuentra concentrada alrededor de valores muy cercanos al valor promedio T. De esta forma, si se mide el nmero (aleatorio) de llegadas n en un intervalo T grande ("grande" implica T>>1, o T>>1/ ), n/T sera la buena estimacin de . Ntese tambin que .Conforme T aumenta y la distribucin alcanza valores
alrededor de E(k)=T, la probabilidad de no llegadas en el intervalo T se aproxima exponencialmente a cero con T. Ahora considrese un intervalo grande de tiempo, y selense los intervalos en los que ocurre un evento (llegada) Poisson. Se obtiene una secuencia aleatoria de puntos como la demostrada en la figura 3.10. El tiempo entre las llegadas sucesivas se representa con el smbolo . Es evidente que es una variable aleatoria positiva con distribucin continua. En la estadstica de Poisson, es una variable aleatoria de distribucin exponencial; es decir, su funcin de densidad de probabilidad dada por (56) Esta distribucin exponencial entre llegadas se esboza en la figura 3.11. En procesos de llegada de Poisson, el tiempo entre las llegadas es ms bien pequeo, y la probabilidad entre dos eventos (llegadas) sucesivos disminuye en forma exponencial con el tiempo . est
92
Despus de un clculo simple se ve que el valor medio E() de esta distribucin exponencial es
(57)
mientras que la varianza est dada por (58) El tiempo promedio entre llegadas resulta el esperado, ya que si la tasa de llegadas es , el tiempo entre ellas debera ser 1/. El hecho de que la estadstica del proceso de Poisson de lugar a una distribucin exponencial entre llegadas se deduce con facilidad de la distribucin de Poisson de la ecuacin (53). Considrese el diagrama de tiempo de la figura 3.12. Como muestra, sea la variable aleatoria que representa el tiempo transcurrido desde un origen arbitrario hasta el tiempo de la primera llegada. Tmese cualquier valor x. No ocurren llegadas en el intervalo(0,x) si, y slo si, >x. La probabilidad de que >x es exactamente la probabilidad de que no ocurran llegadas en (0,x); es decir,
93
que es justamente la distribucin acumulativa de probabilidad o cdf aleatoria . Por tanto, se tiene (59) de donde sigue la funcin de densidad de probabilidad La cercana relacin entre el proceso de llegada de Poisson y el tiempo entre llegadas
de la variable
con distribucin exponencial puede aplicarse despus de discutir las propiedades de la distribucin exponencial del tiempo de servicio. As, considrese una cola con usuarios (paquetes o llamadas) en espera de servicio. Cntrese la atencin en la salida de la cola y selese el tiempo en que un usuario completa el servicio. Esto se muestra de manera esquemtica en la figura 3.13. Sea r, como se muestra, la variable aleatoria que representa el tiempo entre cumplimiento de servicio. Tambin puede ser el tiempo de servicio si el siguiente usuario es atendido tan pronto como el que est en servicio abandona el sistema. En particular, tmese el caso en que r tiene distribucin exponencial, con un valor promedio E(r)=1/. Entonces (60) Pero al comparar las figuras 3.13 y 3.10 es evidente que si r, el tiempo entre cumplimientos de servicio, tiene distribucin exponencial, entonces los tiempos de terminacin deben representar por s mismos un proceso de Poisson. El proceso de servicio es completamente anlogo al proceso de llegada. Sobre esta base, la probabilidad de un cumplimiento en el intervalo(t, t + t)
94
es t + 0(t), mientras que la probabilidad de no cumplimiento o de no llegadas para el intervalo (t, t + t) es 1-t + 0(t), independientemente de los cumplimientos pasados o futuros. El modelo de servicio con distribucin exponencial tiene implcita la propiedad de independencia de los enunciados para el proceso de Poisson. Antes de proseguir el proceso de formacin de las colas, se incluye una propiedad ms al proceso de Poisson. Supngase que se mezclan m flujos de Poisson independientes, de tasas arbitrarias de llegada , respectivamente. Entonces el flujo compuesto es en s un flujo de
Esta es una propiedad muy til, y constituye una de las razones por las que a menudo se usan modelos de procesos de llegadas de Poisson para las llegadas. En el contexto de redes de conmutacin de paquetes y conmutacin de circuitos, esta situacin ocurre al combinar estadstica de paquetes y llamadas de varias fuentes de datos (terminales y telfonos), cada una de las cuales genera paquetes o llamadas (segn el caso) con cierta tasa de Poisson. 3.4.4 Colas M/M/1 Se considera en primer lugar una cola infinita donde llegan por trmino medio Clientes por unidad de tiempo, y son servidos por trmino medio clientes por segundo. La cola puede encontrarse en los estados {1,2,3,4,..K}. El nmero de transiciones K-->K+1 es entonces y el nmero de transiciones K-->K-1 es :
En el equilibrio, el nmero de transiciones en uno y otro sentido ha de ser igual, por trmino medio, sin importar si la cola se encuentre vaca permanentemente o crezca
95
(61)
Resolviendo la primera para peude sustituir en la tercera para encontrar resultado general: (62) Falta por encontrar
se puede encontrar
de la segunda, que se
y as sucesivamente, obteniendo el
Como se supone que el ritmo medio de servicio es mayor que el ritmo medio de llegada: (64) Finalmente:
(65) El nmero medio de clientes en la cola no es otro que : (66) Se sabe que: (67) Derivando la expresin anterior y multiplicando ambos lados por se obtiene: (68) En definitiva:
96
(69) Obsrvese que cuando el ritmo de llegada se aproxima al ritmo de servicio la cola crece indefinidamente. Por otra parte, si llegan clientes a la cola por trmino medio, y esta tiene la longitud que se acaba de encontrar, el tiempo T viene dado por: (70) Se supone ahora que el nmero de clientes en la cola es finito, de manera que aquellos que encuentran la cola llena son rechazados. Sea M el nmero mximo de clientes en cola. En este caso:
(71)
de donde: (72) Ahora sin embargo la condicin de normalizacin, al extenderse la suma sobre un nmero finito de estados, es distinta. Se encuentra que:
(73)
(74)
Derivando esta expresin respecto a y multiplicando por , se puede sustituir ya en (74), resolviendo el problema.
97
3.5
Bases del anlisis de la varianza Supnganse k muestras aleatorias independientes, de tamao n, extradas de una
nica poblacin normal. A partir de ellas existen dos maneras independientes de estimar la varianza de la poblacin x2: 1) Una llamada varianza dentro de los grupos (ya que slo contribuye a ella la varianza dentro de las muestras), o varianza de error, o cuadrados medios del error, y habitualmente representada por MSE (Mean Square Error) o MSW (Mean Square Within) que se calcula como la media de las k varianzas muestrales (cada varianza muestral es un estimador centrado dexx2 y la media de k estimadores centrados es tambin un estimador centrado y ms eficiente que todos ellos). MSE es un cociente: al numerador se le llama suma de cuadrados del error y se representa por SSE y al denominador grados de libertad por ser los trminos independientes de la suma de cuadrados. 2) Otra llamada varianza entre grupos (slo contribuye a ella la varianza entre las distintas muestras), o varianza de los tratamientos, o cuadrados medios de los tratamientos y representada por MSA o MSB (Mean Square Between). Se calcula a partir de la varianza de las medias muestrales y es tambin un cociente; al numerador se le llama suma de cuadrados de los tratamientos (se le representa por SSA) y al denominador (k-1) grados de libertad. MSA y MSE, estiman la varianza poblacional en la hiptesis de que las k muestras provengan de la misma poblacin. La distribucin muestral del cociente de dos estimaciones independientes de la varianza de una poblacin normal es una F con los grados de libertad correspondientes al numerador y denominador respectivamente, por lo tanto se puede contrastar dicha hiptesis usando esa distribucin. Si basndose en este contraste se rechaza la hiptesis de que MSE y MSA estimen la misma varianza, se puede rechazar la hiptesis de que las k medias provengan de una misma poblacin. Aceptando que las muestras provengan de poblaciones con la misma varianza, este rechazo implica que las medias poblacionales son distintas, de modo que con un nico contraste se contrasta la igualdad de k medias. Existe una tercera manera de estimar la varianza de la poblacin, aunque no es independiente de las anteriores. Si se consideran las kn observaciones como una nica muestra, su varianza muestral tambin es un estimador centrado de x 2:
98
Se suele representar por MST, se le denomina varianza total o cuadrados medios totales, es tambin un cociente y al numerador se le llama suma de cuadrados total y se representa por SST, y el denominador (kn -1) grados de libertad. Los resultados de un anova se suelen representar en una tabla como la siguiente: Fuente de variacin Entre grupos Tratamientos Dentro Error Total kn-1 SST (n-1)k SSE SSE/k(n-1) G.L. k-1 SS SSA MS SSA/(k-1) F MSA/MSE
Y el cociente F se usa para realizar el contraste de la hiptesis de medias iguales. La regin crtica para dicho contraste es F > Fa(k-1,(n-1)k) 3.5.1 Reduccin de la Varianza Un mtodo para reducir el tamao del intervalo de confianza es el de incrementar la duracin que se va a emplear en la simulacin, ya que mientras ms iteraciones sean ejecutadas, ms cercana a la realidad estar la respuesta que produce la simulacin. Pero la meta de la simulacin es de alcanzar valores de varianza aceptables en la menor cantidad de iteraciones posibles, es decir, mejorar la eficiencia del modelo. La forma ms simple, ms conocida y empleada es el uso de nmeros aleatorios antitticos. Como ya se conoce, la simulacin trabaja en base a un generador de nmeros aleatorios entre 0 y 1, el nmero generado se le llamar r. Este valor r es entonces transformado en un valor aleatorio cualquiera que sea necesitado. Ya que r es un nmero aleatorio entre 0 y 1, tambin lo ser s si se define a s como s = 1 r. Ahora, se supone que se realizan dos ciclos de simulacin, una emplea las variables aleatorias otra emplea . Estas simulaciones no son independientes, y la
por lo tanto, cuando una de ellas emplea un nmero aleatorio grande, la otra tiene un nmero pequeo. Si se hace que simulacin, y sea el valor estadstico del primer ciclo de y estn correlacionados con
negativamente. Los dos tienen un valor esperado . Por lo tanto, se puede estimar . Se supone que se repite este proceso n veces. Si se hace que , entonces es una estimacin sin desplazamiento de .
99
Se
recuerda
varianza ms pequea que cualquiera de x o y. Ya que las variables antitticas tienden a dar covarianzas negativas, esto ayudar a obtener mejores estimaciones.