Documentos de Académico
Documentos de Profesional
Documentos de Cultura
i
ii
ÍNDICE
PREFACIO i
1. INTRODUCCIÓN 1
1.1. Simulaciones determinı́sticas y estocásticas . . . . . . . . 5
1.2. El papel de la simulación . . . . . . . . . . . . . . . . . . 6
1.3. Por qué simular? . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1. Naturaleza de los sistemas: variabilidad, relaciones
y complejidad. . . . . . . . . . . . . . . . . . . . . 7
1.3.2. Ventajas de la simulación . . . . . . . . . . . . . 11
1.3.3. Desventajas de la simulación . . . . . . . . . . . . 12
1.4. La necesidad de la simulación . . . . . . . . . . . . . . . 13
1.5. Cuándo simular . . . . . . . . . . . . . . . . . . . . . . . 13
2. MODELOS DE SIMULACIÓN 15
2.1. Clasificación de los modelos de simulación . . . . . . . . 15
2.1.1. Modelos determinı́sticos . . . . . . . . . . . . . . 15
2.1.2. Modelos estocásticos o probabilı́sticos . . . . . . . 15
2.1.3. Modelos dinámicos . . . . . . . . . . . . . . . . . 16
2.1.4. Modelos estáticos . . . . . . . . . . . . . . . . . . 16
2.1.5. Modelos continuos . . . . . . . . . . . . . . . . . 16
iii
iv ÍNDICE
BIBLIOGRAFIA 127
CAPÍTULO 1
INTRODUCCIÓN
1
2
Teoría de
Telecomunicaciones
Procesamiento Digital Teoría de Probabilidad y
de Señales Procesos Estocásticos
Simulación de
Teoría de Tràfico Sistemas de Teoría de Números
Telecomunicaciones
Teoría General de
Análisis Numérico
sistemas
Teoría de Estimación
para visitar a los clientes; si hay ocho ciudades (clientes) para visitar,
luego el viajero se enfrenta a 2520 posibles combinaciones de rutas
(calculadas como (n − 1)!/2), si la cantidad de ciudades se incrementa
también lo hará la cantidad de posibles rutas, luego el problema es
objeto de complejidad combinatoria. La complejidad combinatoria se
encuentra presente en la operación de muchos tipos de sistemas, entre
ellos los sistemas de comunicaciones, por ejemplo una red en la cual los
paquetes son procesados a través de una serie de enrutadores, una vez un
paquete es procesado en un enrrutador es pasado a culaquier otro de los
enrutadores dependiendo del tipo de paquete, del destino hacia el cual
se dirige y del algoritmo de enruamiento utilizado, cuando el número
de enrutadores se incrementa también se incrementan las posibles
conexiones a una tasa mayor, la figura 1.3 muestra las posibilidades de
interconexión de los enrutadores en una red con dos, tres, cuatro y cinco
enrutadores, hay dos interconexions entre dos enrutadores cualquiera
y el número total de interconexiones puede calcularse como n(n − 1),
donde n es el número de enrutadores en la red.
2 interconexiones
6 interconexiones
12 interconexiones
20 interconexiones
15
16 Clasificación de los modelos de simulación
Confiabilidad.
MODELOS DE SIMULACIÓN 17
Sencillez.
Manejabilidad.
2.2. Simulación
Análisis
Validación
Experimentación
Animación
Implantación
Monitoreo y Control
MODELOS DE SIMULACIÓN 19
Implantación
Sistema Real
Optimización
Pruebas de ajuste Real
Datos Históricos
Información Real
Resultados Reales
Probabilistica
Métodos de
Transformación Modelo de Simulación Optimización
Simuada
Números Aleatorios
Uniformes (0,1)
Réplicas Diseño de Experimentos
Variables Aleatorias
Simuladas Resultados de Simulación
Desventajas
Desventajas
1. Es necesario invertir en la adquisición del software.
Distribución uniforme
La gráfica de la función de densidad de la distribución de probabilidad
uniforme y la tabla de caracterı́sticas se muestran a continuación.
a b x
Uniforme U(a,b)
1
Función de Densidad f (x) = b−a si a ≤ x ≤ b
Distribución Acumulada F (x) = x−a
b−a
si a ≤ x ≤ b
Parámetros a y b son parámetros reales
Rango [a, b]
a+b
Media 2
(b−a)2
Varianza 12
Distribución exponencial
La gráfica de la función de densidad de la distribución de probabilidad
exponencial y la tabla de caracterı́sticas se muestran a continuación.
0 x
Exponencial Exp(λ)
x
Función de Densidad f (x) = λ1 e− λ si x ≥ 0
x
Distribución Acumulada F (x) = 1 − e− λ si si x ≥ 0
Parámetros parámetro de escala λ > 0
Rango [0, ∞]
Media λ
Varianza λ2
Distribución Weibull
La gráfica de la función de densidad de la distribución de probabilidad
Weibull y la tabla de caracterı́sticas se muestran a continuación.
1.0
α=3,β=1
0.65
x
0 0.9 2.0
Weibull Weib(α, β)
α
Función de Densidad f (x) = αβ −α xα−1 e−(x/β) si x ≥ 0
α
Distribución Acumulada F (x) = 1 − e−(x/β) si x ≥ 0
Parámetros parámetros de escala y forma α >
0, β > 0
Rango [0, ∞]
β
Media Γ( 1 )
α nα
β2 2 1
1 2 o
Varianza α
2Γ( α
) − α
Γ( α )
Distribución triangular
La gráfica de la función de densidad de la distribución de probabilidad
triangular y la tabla de caracterı́sticas se muestran a continuación.
0 a b c x
Triangular Trian(a, b, c)
( 2(x−a)
(c−a)(b−a)
si a ≤ x ≤ b
Función de Densidad f (x) = 2(c−x)
(c−a)(c−b)
si b ≤
x≤c
( (x−a)2
(c−a)(b−a)
si a ≤x≤b
Distribución Acumulada F (x) = (c−x)2
1 − (c−a)(c−b) si b≤x≤c
Parámetros parámetros de escala y localización σ, µ
Rango [a, c]
Media µ
Varianza σ2
Distribución normal
La gráfica de la función de densidad de la distribución de probabilidad
normal y la tabla de caracterı́sticas se muestran a continuación.
0 μ-σ μ μ+σ x
Normal N(µ, σ)
1 x−µ 2
Función de Densidad f (x) = 2σ√1 2π e− 2 ( σ ) si − ∞ ≤
x≤∞
Distribución Acumulada No existe ecuación
Parámetros parámetros de localización y escala µ, σ
Rango (−∞, ∞)
Media µ
Varianza σ2
Distribución lognormal
La gráfica de la función de densidad de la distribución de probabilidad
lognormal y la tabla de caracterı́sticas se muestran a continuación.
0 x
Lognormal LogN(µ, σ)
1 ln x−µ 2
Función de Densidad f (x) = √1 e− 2 ( σ ) si x > 0
x 2πσ2
Distribución Acumulada No existe ecuación
Parámetros parámetros de escala y forma σ, µ
Rango [0, ∞]
Media e−µ+σ/2
2 2
Varianza e−2µ+σ (e−σ − 1)
Distribución geométrica
La gráfica de la función de densidad de la distribución de probabilidad
geométrica y la tabla de caracterı́sticas se muestran a continuación
p=0.25
0 1 2 ………... 16 x
Geométrica Ge(p)
Distribución de Probabili- p(x) = p(1 − p)x
dad
Distribución Acumulada F (x) = 1 − (1 − p)|x|+1 si x ≥ 0
Rango {0, 1, ..., n}
1−p
Media p
1−p
Varianza p2
Distribución Bernoulli
La gráfica de la función de densidad de la distribución de probabilidad
Bernoulli y la tabla de caracterı́sticas se muestran a continuación.
1-p
0 1 x
Bernoulli Be(t, p)
1 − p si x = 0
Distribución de Probabili- p(x) =
p si x = 1
dad
0 si x < 0
Distribución Acumulada F (x) = 1−p si 0 ≤ x ≤ 1
1 si x ≥ 1
Rango {0, 1}
Media p
Varianza p(1 − p)
1-p
………….
0 i j x
Distribución Binomial
La gráfica de la función de densidad de la distribución de probabilidad
binomial y la tabla de caracterı́sticas se muestran a continuación.
p=0.25, n=20
0 1 2 ………... 12 x
Binomial BI(n, p)
n
Distribución de p(x) = px (1 − p)n−x ∀ x ∈
x
Probabilidad
{0, 1, 2, ..., n}
0 si x < 0
x
P n
Distribución F (x) = x pi (1 − p)i si 0 ≤ x < n
i
Acumulada i=0
1 si x ≥ n
Rango {0, 1, 2, ..., n}
Media np
Varianza np(1 − p)
Distribución Poisson
La gráfica de la función de densidad de la distribución de probabilidad
Poisson y la tabla de caracterı́sticas se muestran a continuación.
λ=8
0 1 2 ………... 16 x
Poisson PS(λ)
e−λ λx
Distribución de Probabili- p(x) = x!
x ∈ {0, 1, 2, ...}
dad
P
|x|
λi
Distribución Acumulada F (x) = e−λ i!
si x ≥ 0
i=0
Rango λ > 0, x ∈ {0, 1, 2, ...}
Media λ
Varianza λ
50
25
x
0 1 2 ………... 19
Prueba de Kolmogorov-Smirnov.
42 Pruebas de bondad de ajuste
h i
F Ei = n ∗ F (x) | LS (2.4)
LI
donde:
Zx
F (x) = f (y)dy (2.5)
0
MODELOS DE SIMULACIÓN 43
4. Se calcula el estimador:
m
X
(F Ei − F Oi)2
C= (2.7)
i=1
F Ei
Intervalo FO
0-1 6
1-3 6
3-5 5
5-7 7
7-9 6
9-11 6
11-13 5
TOTAL 41
44 Pruebas de bondad de ajuste
0 2 4 ………... 40 Minutos
1
F (x) = 13
(LS − LI)
donde:
LI: Lı́mite inferior de cada intervalo
LS: Lı́mite superior de cada intervalo
i
X
F OAi = F On (2.11)
n=1
F OAi
P OAi = (2.12)
n
5. Con la distribución propuesta se calcula la probabilidad esperada
(PE) para cada uno de los intervalos como
h i
P EAi = F (x) | LS (2.13)
0
donde:
Zx
F (x) = f (y)dy (2.14)
0
donde:
LS: Lı́mite superior de cada intervalo
Intervalo FO
0-3 20
3-6 12
6-9 7
9-12 4
12-15 2
15-18 1
> 18 5
De acuerdo con los datos de la columna de FO, se puede pensar que
siguen distribución de probabilidad exponencial con media λ = 6, luego
la hipótesis será:
x
f (x) = λ1 e− λ si x ≥ 0
calculando la media λ de la forma:
1
P
n
Media = n
xi = 6
i=1
LS
F (x) = 1 − e− 6
50 Pruebas de bondad de ajuste
Retardo en ms FO
0-1 0
2-3 1
4-5 8
6-7 12
8-9 20
10-11 10
12-13 3
14-15 1
16-17 0
Observando los datos se puede pensar que siguen una distribución normal
con media de 8 dı́as y una desviación estándar de 2 dı́as. La función
normal no es integrable, ası́ que se utilizará la tabla normal estándar.
xi −µ
zi = σ
LS3 −µ 5−8
z3 = σ
= 2
= −1,5
52 Ejercicios
2.11. Ejercicios
1. Un multiplexor procesa tramas con un tiempo que sigue una dis-
tribución exponencial con media de 20 minutos/trama. Indique cuál
es la probabilidad de que una trama cualquiera sea procesada en
un tiempo mayor a 35 minutos.
5, 8, 4, 7, 8, 2, 4, 4, 3, 5, 6, 7, 8, 4, 8, 7, 3, 4, 5, 6, 7, 2, 3, 4, 5 3, 5, 6, 1,
2, 3, 2, 5, 6, 7, 8, 7, 1, 5, 6, 7, 3, 4,2, 0, 1, 0, 0, 2, 3
1.88 3.53 1.42 0.39 0.80 0.54 0.53 1.28 0.34 5.50
1.90 1.80 0.82 0.01 4.91 0.15 0.79 2.16 0.10 0.35
0.02 0.21 0.05 1.10 0.36 2.81 0.80 0.04 0.24 0.90
1.50 0.26 1.49 0.26 1.03 0.53 0.63 0.66 0.45 1.73
2.62 0.36 2.03 0.17 0.38 2.67 2.03 1.00 4.29 0.48
10. Los datos en meses del tiempo entre fallos de un satélite son:
36.33 48.00 32.02 36.78 38.52 40.33 35.78 45.39 35.99 36.68
41.52 36.54 36.60 40.56 40.42 33.92 39.82 34.48 34.35 37.73
35.89 31.75 41.91 45.70 31.50 44.58 34.04 32.03 48.53 47.29
41.91 38.45 36.10 40.57 34.28 35.90 48.47 32.86 40.91 32.80
38.69 41.33 49.31 45.99 34.06 37.46 35.97 39.22 41.92 31.08
2.71 2.12 1.66 0.34 2.24 6.92 4.01 7.96 13.51 3.57
1.12 1.18 4.18 3.08 0.80 3.86 0.57 0.57 1.80 3.50
5.31 2.52 2.40 3.10 2.34 4.48 12.09 2.62 3.13 16.47
2.19 0.32 18.24 1.87 4.90 17.21 0.53 1.97 0.00 4.24
0.71 5.13 1.87 2.73 4.83 3.76 8.88 1.94 3.73 8.94
MODELOS DE SIMULACIÓN 55
151.3 155.1 150.1 158.7 148.8 148.7 147.9 153.1 151.6 150.9
149.2 160.3 157.7 146.9 150.6 146.8 144.5 160.9 147.7 150.0
157.1 136.6 146.7 142.8 150.0 144.5 156.2 145.6 150.2 151.7
158.8 149.6 144.8 145.2 158.8 150.1 149.6 142.1 150.6 151.6
145.5 154.6 158.4 164.2 152.6 144.5 147.5 142.3 149.3 148.5
1 0 0 0 0 0 1 0 0 1
0 0 0 1 0 1 1 1 1 0
0 0 1 0 1 0 1 1 0 1
0 0 0 0 1 0 0 1 0 0
1 0 0 0 0 0 0 0 1 0
3 3 2 3 3 3 4 3 2 1
4 3 2 3 1 2 2 3 4 3
3 3 2 2 4 3 5 2 2 3
3 1 3 0 3 2 5 4 3 2
2 3 0 4 4 5 3 2 3 4
56 Ejercicios
Una vez obtenida toda la información, es decir, los datos de entrada del
sistema real, es necesario convertirlos en información o datos de entrada
del modelo de simulación. Es posible distinguir dos tipos de información:
57
Métodos de generación de números pseudoaleatorios
58 uniformes en (0,1)
1. Uniformemente distribuidos.
2. Estadı́sticamente independientes.
1
3. Su media debe ser estadı́sticamente igual a 2
1
4. Su varianza debe ser estadı́sticamente igual a 12
.
xi+1
Ui+1 = (3.2)
m−1
donde
x0 : Semilla del generador.
a, c, m : Constantes
Ui+1 : Números pseudoaleatorios generados
x5 = (441 + 13 ∗ 441)mod767 = 38
U1 = 0,372
U2 = 0,778
U3 = 0,8472
U4 = 0,5757
U5 = 0,0496
a=8∗c±3
c = cualquier entero
Excel
Ui = Rand()
Pascal
Ui = Random()
Basic
Ui = Rand()
n
1X
x= ui (3.3)
n i=1
1 1
LSx = + zα/2 √ (3.4)
2 12 n
1 1
LIx = − zα/2 √ (3.5)
2 12 n
1
P
30
x= 30
ui = 0,507
i=1
LIx ≤ x ≤ LSx
0,4701 < 0,507 < 0,5298
por lo tanto, dado que el valor promedio se encuentra entre los lı́mites,
se acepta la hipótesis H0 , es decir, se puede afirmar que la media de los
números es estadı́sticamente igual a 12 .
n
1 X
V (x) = (ui − x)2 (3.6)
n − 1 i=1
χ2α/2,n−1
LSv(x) = (3.7)
12(n − 1)
χ21−α/2,n−1
LIv(x) = (3.8)
12(n − 1)
1
P
n
1
P
30
V (x) = n−1
(ui − x)2 = 30−1
(ui − 0,507)2 = 0,104
i=1 i=1
GENERACIÓN DE NÚMEROS PSEUDOALEATORIOS 65
Intervalo FO FE
0.0-0.1 3 3
0.1-0.2 4 3
0.2-0.3 3 3
0.3-0.4 4 3
0.4-0.5 1 3
0.5-0.6 2 3
0.6-0.7 2 3
0.7-0.8 3 3
0.8-0.9 3 3
0.9-1.0 5 3
H0 : ui ∼ independiente
Hi : ui ∼ dependiente
Para realizar esta prueba de hipótesis existen varios métodos, puede se-
leccionarse cualquiera de la siguiente lista:
GENERACIÓN DE NÚMEROS PSEUDOALEATORIOS 67
Prueba de poker.
Prueba de corridas arriba y abajo.
Prueba de corridas arriba y abajo de la media.
Prueba de la longitud de las corridas.
Prueba de distancia.
Prueba de series.
Prueba de huecos.
Prueba de poker
La prueba de poker permite verificar la independencia de un conjunto de
números en el intervalo (0,1) a partir de la aplicación de la prueba χ2 para
la cual se definen intervalos de acuerdo a los eventos que se presentan en
el juego de poker, para ello se definen las siguientes hipótesis, verificadas
en los siguientes pasos establecidos por la prueba.
H0 : ui ∼ independiente
Hi : ui ∼ dependiente
P (P achuca) = 0,3024
P (Un par) = 0,5040
P (Dos pares) = 0,1080
P (Una tercia) = 0,0720
P (F ull) = 0,0090
P (P óker) = 0,0045
P (Quintilla) = 0,0001
68 Pruebas Estadı́sticas
F Ei = n ∗ P (Eventoi ) (3.10)
m
X
(F Ei − F Oi)2
C= (3.11)
i=1
F Ei
Ejemplo.
Realice la prueba de poker a los siguientes 30 números con un nivel de
confianza del 95 %
Agrupando los números de acuerdo con sus dı́gitos, como si fuera una
mano de poker se obtiene la siguiente tabla de frecuencias:
Intervalo FO PE FE = (n * PE)
Pachuca 14 0.3024 9.072
Un par 15 0.5040 15.120
Dos pares 1 0.1080 3.240
Una tercia 1 0.0720 2.160
Full 0 0.0090 0.270
Poker 0 0.0045 0.135
Quintilla 0 0.0001 0.003
Prueba de corridas
La prueba de corridas al igual que la prueba de poker permite verificar
la independencia de un conjunto de números en el intervalo (0,1), para
ello se definen las siguientes hipótesis, verificadas en los siguientes pasos
establecidos por la prueba.
H0 : ui ∼ independiente
Hi : ui ∼ dependiente
2n − 1
E(h) = (3.12)
3
16n − 29
V (h) = (3.13)
90
Donde n es el número de datos generados.
4. Calcular el estadı́stico
|h − E(h)|
z= p (3.14)
V (h)
si el estadı́stico z es menor que el valor crı́tico de Zα/2 se acepta la
hipótesis de independencia.
- + – + + - + + + - +
- + + - + - +
2n−1 (2∗30)−1
E(h) = 3
= 3
= 13
16n−29 (16∗30)−29
V (h) = 90
= 90
= 3,23
z = |h−E(h)|
√ = |14−13|
√ = 0,55
V (h) 3,23)
Prueba de series
La prueba de series, al igual que las pruebas de corridas y poker, permite
verificar la independencia de un conjunto de números en el intervalo (0,1),
para ello se definen las siguientes hipótesis, verificadas en los siguientes
pasos establecidos por la prueba.
H0 : ui ∼ independiente
Hi : ui ∼ dependiente
num
F Ei = (3.15)
m
donde núm es el número total de parejas ordenadas.
m
X
(F Ei − F Oi)2
C= (3.16)
i=1
F Ei
ui+1 1 3 2 1 2
0.75 1 1 1 3
0.5 1 3 3 1
0.25 2 2 1 2
0 0.25 0.5 0.75 1
ui
m h
P i 16 h
P i
(F Ei −F Oi )2 (1,8125−F Oi )2
C= F Ei
= 1,8125
=
i=1 i=1
1
1,8125
[7(1,8125 − 1)2 + 5(1,8125 − 2)2 + 4(1,8125 − 3)2 ] = 5,75
3.3. Ejercicios
1. Genere números aleatorios entre 0 y 1 con los siguientes generadores
congruenciales y determine el ciclo de vida de cada uno.
a. 4567234902
b. 3567345
c. 234500012
5, 8, 4, 7, 8, 2, 4, 4, 3, 5, 6, 7, 8, 4, 8, 7, 3, 4, 5, 6, 7, 2, 3, 4, 5 3, 5, 6, 1,
2, 3, 2, 5, 6, 7, 8, 7, 1, 5, 6, 7, 3, 4, 2, 0, 1, 0, 0, 2, 3
77
Método de la transformada inversa para distribuciones
78 continuas
Método de convolución.
Método directo.
0 x 0 xi x
f (ui ) = 1 si 0 ≤ ui ≤ 1 (4.5)
f (ui ) = 0 en caso contrario (4.6)
xi = F −1 (ui) (4.7)
Método de la transformada inversa para distribuciones
80 continuas
1
xi = − ln(1 − ui ) (4.10)
λ
Por lo tanto cada vez que en esta expresión sustituimos ui por un valor
en el intervalo (0, 1) correspondiente a una observación de la variable
aleatoria U, uniformemente distribuida en dicho intervalo, obtenemos el
valor x de una observación de la variable aleatoria exponencial X de
parámetro λ.
1
f (x) = si a ≤ x ≤ b (4.11)
b−a
La distribución acumulada de esta función de 0 a un valor x es:
x
F (x) = si a ≤ x ≤ b (4.12)
b−a
MÉTODOS DE GENERACIÓN DE VARIABLES
ALEATORIAS 81
xi = a + (b − a)ui (4.13)
ui
0 1 2 ………... 12 x xi x
4.2.1. Metodologı́a
Paso 1
Paso 2
Paso 3
p(0) = (1 − p) y p(1) = p
F (0) = (1 − p) y F (1) = 1
2. Calcular:
Zb
A1 = f (x)dx (4.17)
a
86 Método de rechazo
A1
p= ⇒ A1 = Ap (4.18)
A
donde A es el área del rectángulo. En consecuencia todo procedimiento
de estimación de p se convierte en un procedimiento de estimación de A1
puesto que A es conocida.
Zb
A= f (x)dx (4.21)
a
es la integral de una función real f(x) no integrable analı́ticamente, su
cálculo, que es un problema determinista, puede aproximarse por medio
de los métodos de Monte Carlo de la manera siguiente:
Sea Y la variable aleatoria (b−a)f (X), donde X es una variable aleatoria
continua uniformemente distribuida en el intervalo [a, b]. El valor espe-
rado de Y es:
1
donde θ(x) = (b−a) es la función de probabilidad de X. Esto permite
reducir el problema de evaluación de la integral al de estimar el valor
esperado E(Y ), para lo cual podemos utilizar la media muestral:
n n
b 1X 1X
A = Y (n) = Yi = (b − a) f (Xi ) (4.23)
n i=1 n i=1
Zb
f (x)dx = (b − a)f (ξ), ξ ∈ [a, b] (4.24)
a
v
uP
u n 2 b1 )2
u [f (Xi )] − n(A
t i=1
σAb1 = (4.26)
n(n − 1)
Para terminar con la generación de muestras de variables aleatorias con-
tinuas con la presentación de métodos ad-hoc para variables aleatorias
con funciones de probabilidad a las que no se puede aplicar alguno de
los métodos discutidos, como el de la transformada inversa, y los que se
pueden aplicar pueden tener un elevado coste computacional. El ejemplo
arquetı́pico es el de las variables aleatorias que siguen la ley normal:
1 1 2
f (x) = √ e− 2 x si −∞ <x< ∞ (4.27)
2π
de media cero y varianza 1, denotada habitualmente como X˜N(0, 1),
cuya función de distribución no puede representarse analı́ticamente por lo
que habitualmente se representa en forma tabular que se calcula numéri-
camente.
x − µx
y= √ (4.29)
σx / n
x = σ2 z + µ (4.31)
Un método más exacto que el acabado de exponer, es de Box y Muller que
utiliza dos variables independientes u1 y u2 para producir dos variables
normales estándar independientes x1 y x2 :
p
x1 = cos(2πu2) −2 ln(u1 ) (4.32)
p
x2 = cos(2πu1) −2 ln(u2 ) (4.33)
MÉTODOS DE GENERACIÓN DE VARIABLES
ALEATORIAS 91
x
X
y = F (x) = p(1 − p)i−1 = 1 − (1 − p)x
i=1
para 0 < p < 1, x = {1, 2, 3, ...} (4.35)
ln(1 − y)
ln(1 − y) = x ln(1 − p) ⇒ x = (4.36)
ln(1 − p)
y como x tiene que ser entero, se elige el entero k que satisface la relación:
ln(1 − y) ln(1 − y)
<k <1+ (4.37)
ln(1 − p) ln(1 − p)
λx e−λ
f (x) = para λ ≥ 0, x = {0, 1, 2, 3, ...} (4.38)
x!
cuya función de distribución es:
92 Otros métodos estadı́sticos
x
X
λi e−λ −λ λ2 λ3 λx
y = F (x) = =e 1+λ+ + + ... +
i=1
i! 2! 3! x!
para λ ≥ 0, x = {0, 1, 2, 3, ...} (4.39)
λ2 λ3 λx
1+λ+ + + ... + ≥ yeλ (4.40)
2! 3! x!
xi = a + (b − a)ui (4.41)
donde:
a = Lı́mite inferior de la distribución uniforme.
b = Lı́mite superior de la distribución uniforme.
xi = Número aleatorio con distribución uniforme entre a y b.
ui = Número aleatorio con distribución uniforme entre 0 y 1.
1
xi = − ln(1 − ui ) (4.42)
λ
donde:
1
λ
=Media de la distribución exponencial.
xi = Número aleatorio con distribución exponencial.
h p i
zi = cos(2πui+1 ) −2 ln(1 − ui ) σ + µ (4.44)
h p i
zi = sen(2πui+1) −2 ln(1 − ui) σ + µ (4.45)
donde:
94 Resumen para distribuciones continuas
1 k
xi = − ln( Π ui ) (4.46)
kλ i=1
donde:
1
λ
=Valor esperado.
k = Parámetro de forma.
xi = Número aleatorio con distribución erlang.
1 k
xi = − ln( Π ui ) (4.48)
kλ i=1
donde:
1
λ
=Valor esperado.
k = Parámetro de forma.
xi = Número aleatorio con distribución gamma.
MÉTODOS DE GENERACIÓN DE VARIABLES
ALEATORIAS 95
4.5.7. Distribución χ2
Obtenida a partir del método de convolución
Xn
xi = zj2 (4.49)
j=1
donde:
zj =Números aleatorios con distribución normal estándar.
n = Grados de libertad.
xi = Número aleatorio con distribución χ2 .
si 0 ≤ ui ≤ 1 − p xi = 0 (4.50)
si 1 − p ≤ ui ≤ 1 xi = 1 (4.51)
donde:
p = Probabilidad de ocurrencia del evento x = 1.
1 − p = Probabilidad de ocurrencia del evento x = 0.
xi = Número aleatorio con distribución bernoulli.
ui = Número aleatorio con distribución uniforme entre 0 y 1.
donde:
p = Probabilidad de exito de la distribución binomial que se involucra al
generar los bernoulli.
N = Número del evento máximo de la distribución binomial.
xi = Número aleatorio con distribución binomial.
Bj = Número aleatorio con distribución bernoulli.
Paso 1
Paso 2
Calcular T= T* ui
Paso 3
4.7. Ejercicios
1. Genere 100 números aleatorios uniformes entre 0 y 25 a partir de
la siguiente expresión:
101
102 Cálculo del número óptimo de simulaciones
σ 2 (zα/2 )2
n= (5.1)
k2
donde:
z = estadı́stico normal estándar para cierta a.
k = desviación absoluta máxima permitida sobre la media de la distribu-
ción a simular.
σ 2 = variancia de la distribución a simular.
s2 (tn1 −1,α/2 )2
n= (5.2)
k2
VERIFICACIÓN Y VALIDACIÓN DE RESULTDOS 103
donde:
t = estadı́stico de la distribución t student.
k = desviación absoluta máxima permitida sobre la media de la distribu-
ción a simular.
s2 = estimador de la variancia de la distribución a simular.
m2
n= (5.3)
α
donde:
α = Probabilidad de error permitida.
1
m
= Número de desviaciones estándar máximo permitido sobre la media
de la distribución a simular.
σ2 (zα/2 )2
n= k2
donde:
z = 1.96 para una confiabilidad del 95 %.
k = 0,166σ
n = 138,29.
Observe que los resultados para varias corridas pueden ser completamente
diferentes. Ası́, una sola corrida no produce las respuestas. Se presentan
aquı́ algunas técnicas que ayudarán al analista a encontrar de forma más
rápida un estimador del resultado.
F1 + F2
G= (5.9)
2
Además, la varianza del nuevo estimador está dada por la Ecuación 5.10.
VERIFICACIÓN Y VALIDACIÓN DE RESULTDOS 109
1 1 1
σ 2 (G) = σ 2 (F1 ) + σ 2 (F2 ) + Cov(F1 , F2 ) (5.10)
4 4 2
1
σ 2 (G) = σ 2 (F ) (5.11)
2
Hasta este punto, no se ha logrado una mayor reducción de varianza, ya
que para el estimador G, si bien tiene una varianza igual a la mitad de
la varianza de F , su cálculo implica considerar el doble de muestras. Sin
embargo, es posible reducir el valor de la varianza de G si se logra una
covarianza negativa entre los estimadores F1 y F2 , es decir, el término
Cov(F1 , F2 ) en la Ecuación 5.10 debe ser menor que cero.
2n
1X
F2n = Fi (5.12)
2n i=1
X 2n
2 1
σ (G2n ) = (Fi − F2n )2 (5.13)
(2n − 1) i=1
Sin embargo, en el algoritmo anterior, es posible utilizar los valores de
(1 − Ui ) para generar las muestras de F , debido a que si la variable
aleatoria Ui se distribuye uniformemente entre cero y uno, entonces la
variable aleatoria (1 − Ui ) también lo hace. Esta propiedad puede usarse
para definir otro estimador de F , como se explica en el párrafo siguientes.
Fi + F̃i
G= (5.14)
2
A las variables Ui y (1−Ui ) se les da el nombre de “variables antitéticas”.
deduce que E(G) = E(F ), ya que, por propiedades del valor esperado,
se cumple que:
Cov(F, Z)
c∗ = (5.20)
σ 2 (Z)
Sustituyendo c en la Ecuación 5.19 por el valor de c∗ , se tiene que la
varianza de G queda definida como:
Cov(F, Z)2
σ 2 (G) = σ 2 (F ) − (5.21)
σ 2 (Z)
De la Ecuación 5.21 se infiere que para que la varianza de G sea menor
que la varianza de F , se necesita definir la variable aleatoria Z tal que la
covarianza entre F y Z sea distinta de cero.
Cabe señalar que, en caso de que la varianza de Z o la covarianza entre
F y Z sean valores desconocidos a priori, se pueden utilizar estimaciones
de estos obtenidas a partir de un número p de corridas piloto de la simu-
lación, como se presenta en las ecuaciones 5.22 y 5.23.
P
p
(Zi − E(Z))2
σd
2 (G) = i=1
(5.22)
p−1
P
p
(Fi − Fp )(Zi − E(Z))
i=1
Cov(F̂ , Z) = (5.23)
p−1
112 Reducción de la varianza
F (x)P (x)
F ∗ (x) = (5.25)
P ∗ (x)
Evidentemente, ası́ definida la nueva función de prueba, el valor esperado
de ésta es igual al valor esperado de la función de prueba original, ya que
se cumple:
X
E(F ∗ ) = F ∗ (x)P ∗ (x) (5.26)
x∈X
X F ∗ (x)P (x)
E(F ∗ ) = P ∗ (x) (5.27)
x∈X
P ∗(x)
X
E(F ∗ ) = F (x)P (x) = E(F ) (5.28)
x∈X
F (x)P (x)
P ∗ (x) = (5.31)
E(F )
De esta forma, según expresa la Ecuación 5.31, la nueva función de pro-
babilidades considera la participación relativa de F (x) sobre E(F ) y, por
lo tanto, el muestreo favorece el sorteo de los estados más importantes.
H0 : V (modelo) = V (real)
H1 : V (modelo) 6= V (real)
VERIFICACIÓN Y VALIDACIÓN DE RESULTDOS 115
V (real) = 40,57
V (modelo) = 36,96
x1 − x2
t = q q (5.32)
n1 σ12 +n2 σ22 1 1
n1 +n2 n1
+ n2
104,9 − 103,87
t = q q (5.33)
8(40,57)+10(36,96) 1 1
8+10 8
+ 10
5.5. Ejercicios
1. Después de ejecutar una réplica de simulación con 325 corridas,
los resultados de la variable de salida son: E(t)= 9560 y V(t)=
54. Tomando en cuenta un error de un 5 %, ¿cuál es la exactitud
lograda en esta réplica ?
10. Los datos reales congestión de una central durante una semana son
15, 17, 9, 12, 11, 14, 13. La realización de un modelo de simulación
arroja los siguientes resultados de dicha congestión: 13, 14, 17, 8,
10, 9, 12, 12, 14, 12, 9, 11. ¿Son los resultados de la simulación
similares a los reales con un nivel de confiabilidad del 95 %?
1.88 3.53 1.42 0.39 0.80 0.54 0.53 1.28 0.34 5.50 1.90 1.80
0.82 0.01 4.91 0.15 0.79 2.16 0.10 0.35 0.02 0.21 0.05 1.10
0.36 2.81 0.80 0.04 0.24 0.90 1.50 0.26 1.49 0.26 1.03 0.53
0.63 0.66 0.45 1.73 2.62 0.36 2.03 0.17 0.38 2.67 2.03 1.00
4.29 0.48
13. Los datos reales, durante 7 dı́as, del porcentaje de errores en una red
son: 5, 15, 25, 7, 9, 13, 10. Un modelo de simulación del porcentaje
de errores durante 10 corridas arrojó los siguientes resultados: 6, 9,
7, 2, 11, 5, 6, 7, 11, 4. Valide los resultados del modelo de simulación
con la realidad con un nivel de aceptación del 95 %.
119
120 La modelización.
6.1. La modelización.
6.4. Optimización
La finalidad de cualquier análisis de sistemas es optimizar la medida de
efectividad, describiendo normas para las variables de decisión a la vista
de variables no controlables. Ası́ pues, el tomador de decisiones desea
encontrar ese conjunto de variables de decisión. Una vez que se tiene
un modelo de simulación computacional válido y que se ha verificado es-
tadı́sticamente, entonces, para lograr la optimización se necesita empezar
a jugar con las variables de decisión; se busca el mejor valor de la medida
de efectividad. Este proceso de optimización tiene que realizarse mediante
el proceso de prueba y error, sin embargo, el número de combinaciones de
las variables de decisión que pueden ser probadas es infinito, por eso es
TENDENCIAS DE LA SIMULACIÓN 125
Simplex.
Simplex EVOP.
Superficies de respuesta.
[5] Ackoff, R. L., The Scientific Method, John Wiley and Sons, 1963.
[7] Lotka, A. J., Undamped Oscillations Derived from the Law of Mass
Action, J. Amer. Chem. Soc., 42, 1595-9, 1920.
127
128 BIBLIOGRAFIA
[32] Von Neumann, J., Various Techniques Used in Connection with Ran-
dom Digits, National Bureau of Standards Applied Mathematics,
Series 12, pp. 36-38, 1951.
[33] Hammersley, J. M. y D. C. Handscomb, Monte Carlo Methods, John
Wiley, 1964.
[34] Knuth, D. E., The Art of Computer Programming, Vol. 2,Seminu-
merical Algorithms, Addison-Wesley, 1981.
[35] Tocher, K. D., The Art of Simulation, English University Press,
1960.
[36] Lehmer, D. H., Mathematical Models in Large-Scale Computing
Units, Ann. Comput. Lab. Hardward University, 26, 141- 146, 1951.
[37] Shannon, R. E., Systems Simulation: The Art and the Science,
Prentice-Hall, 1975.
[38] Fishman, G. S., Principles of Discrete Event Simulation, John Wiley,
1978.
[39] Kiviat, P. J., Simulation Languages, in: Computer Simulation Ex-
periments with Models of Economic Systems, John Wiley, 1971.
[40] Emshoff, J. R. y Sisson, R. L., Design and Use of Computer Simu-
lation Models, MacMillan, 1970.
[41] Gordon, G. y R. Efron, A General Purpose Digital Simulator and
Examples of its Application: Part I - Description of the Simulator,
IBM Systems Journal, IV, No. 3, pp 174-183, 1964.
[42] Schriber, J., An Introduction to Simulation Using GPSS/H, John
Wiley, 1990.
[43] Hooper, J. W., Strategy-related Characteristics of Discrete-Event
Languages and Models, Simulation 46, No.4, pp. 86-106, 1986.
[44] Box, G. E. P., W. G. Hunter y J. S. Hunter, Statistics for Experi-
menters, John Wiley, 1978.
BIBLIOGRAFIA 131
[55] Pidd, M., Computer Modeling for Discrete Simulation, John Wiley,
1989.
132 BIBLIOGRAFIA
[57] Paul, R. J., Artificial Intelligence and Simulation Modeling, in: Com-
puter Modeling for Discrete Simulation, Ed. by M. Pidd, John Wiley,
1989.