Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ProcesosEstocasticos (UNA)
ProcesosEstocasticos (UNA)
A LOS
PROCESOS
ESTOC ASTICOS
Jose Loreto Romero Palma
II
Oda a los Procesos Estocasticos
Pasara el tiempo
tus variables
y creceran
con un paso lento
continuo e integrable,
escuchare tu lamento
de fiel dato amable?
Por que te encajonan
en parametros
mudables?
la cortisona,
Explicaras
eres oraculo
de das, semanas
III
IV
con parametros
formales.
Cuanto
avanza el progreso!
Que hicimos de los naturales,
reales, quebrados y enteros?
Que de Pitagoras
y Thales?
Todo era tan sencillo...
sales?
que tu...
cono
de donde
Roas
Julian
Nuestros Besos
del libro Vendran
Indice general
III
Prefacio
IX
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Algebra
de eventos. Otras definiciones de probabilidad . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
10
13
. . . . . . . . .
15
. . . . . . . . . . . . . . . .
22
25
. . . . . . . . . . . . . . . .
30
33
a la simulacion
y al R
2. Introduccion
37
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
al R . . . . . . . . . .
2.1. Para que la simulacion?
Breve introduccion
38
INDICE GENERAL
VI
2.2. Como
conseguir el interprete R . . . . . . . . . . . . . . . . . . .
39
al lenguaje R . . . . . . . . . . . . . . . . . . .
2.3. Breve introduccion
41
50
57
3. Introduccion
61
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.1. Definicion
. . . . . . . . . .
62
65
70
72
75
78
80
85
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
86
87
90
93
96
104
109
112
118
. . . . . . . . . . . .
INDICE GENERAL
VII
4.10.Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .
121
125
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
126
127
axiomatica
5.2. Derivacion
del proceso de Poisson. . . . . . . . . . . .
132
. . . . . . . . . . . . . . . . . .
137
142
uniforme
5.5. El proceso de Poisson y la distribucion
. . . . . . . . . .
150
158
161
6. Cadenas de Markov
167
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
168
notacion,
ejemplos y un poco de historia . . . . . . . . .
6.1. Definicion,
168
173
Indice Alfabetico
188
Bibliografa
189
VIII
INDICE GENERAL
Prefacio
El presente material surgio originalmente para ser utilizado como texto princi
pal de consulta para el curso de Procesos Estocasticos
de la carrera de Ingeniera
de Sistemas que dicto en la UNEFA. Aun
cuando existe abundante bibliografa y
material disponible en Internet sobre este tema, considero que existen sobradas
del presente texto. En primer lugar, los libros
razones que justifican la elaboracion
pensados para un publico
mera exposicion
En fin, la bibliografa existente es muy dispersa,
escasa y no adecuada a las necesidades del estudiante venezolano, por lo cual
considero que este texto viene a llenar un vaco.
do cientfico en la exposicion
que es una ciencia
netamente teorica,
puede parecer un disparate. No obstante, se piensa que este enfoque puede rendir muchos dividendos, sobre todo instruccionales. Con los
en codigo
IX
INDICE GENERAL
en el resto del texto. La tercera unidad es quizas la mas abstracta de todo el texto.
de lo que es un proceso estocastico
temas de calculo
diferencial e integral, series y ecuaciones diferenciales. Desgra de los pensa matematicos
demasiado enfasis
en el aspecto de como
calcular y se soslaye el como
cons
de ellos. En el fondo, se
truir modelos matematicos
y resolver problemas a traves
en la didactica
de las matematicas,
se ha incluido en el apendice
un breve artcu
lo sobre como leer textos matematicos,
con orientaciones para el estudio de este
tecnica
de simulacion
Con ello se pretende
motivar al auto-estudio, inculcar el espritu investigativo y fomentar una actitud crti
ca y positiva hacia el estudio de la estocastica,
lo cual sin duda facilitara el estudio
general al estudiante es estudiar
de estos temas tan abstractos. Mi recomendacion
de las simulaciones en
detenidamente los problemas resueltos y la implementacion
el texto para posteriormente realizar los problemas propuestos.
amplia, el contenido de este texto esta enmarcado
Desde una perspectiva mas
dentro de un componente importante en el pensum de la ingeniera de sistemas
Me refiero al conglomerado de materias tay de las ciencias de la computacion.
de operaciones, matematicas
y modelos matematicos.
estadstica, metodos
numericos
y simulacion
A mi juicio,
integral de un analista de sistedicho componente es medular para la formacion
debe apuntar mas
alla de ser un simple tecnocrata
mas, quien
operario de TICs
y Comunicacion).
INDICE GENERAL
XI
ra el analisis
matematico
de los sistemas, cuyo fin ulterior es el de apoyar la toma
del decisor en aras de loracional de decisiones y permitir medir el desempeno
grar progresivamente un mayor bienestar colectivo. En un pas como Venezuela,
es verdaderamente acuciante capacitar profesionales con estas destrezas; nuestro
depende de ello.
desarrollo como nacion
Quiero en estas lneas agradecer a los profesores y autores que de manera di En particular, extiendo mis
recta o indirecta contribuyeron en mi propia formacion.
agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad
a mis colegas y companeros
gacion
para que sean ellos mismos
y que esta
XII
INDICE GENERAL
Unidad 1
Repaso de teora de
probabilidades
On peut meme
dire, a` parler en rigueur, que
presque toutes nos connaissances ne sont que
probables; et dans le petit nombre des choses
que nous pouvons savoir avec certitude dans les
sc`ences mathematiques
elles-memes,
les prici e,
linduction et
paux moyens de parvenir a` la verit
...
lanalogie, se fondent sur les probabilites
GEOMETRI A Y PROBABILIDAD
Laplace, P.S.
Theorie de Probabilite
Tinta y lapiz
sobre papel
Anatoli Fomenko
Objetivos de la Unidad
El objetivo general de esta Unidad es hacer un repaso de la teora de probabilidades a fin de que el estudiante domine los conceptos fundamentales necesarios
Kolmogorov y el algebra
de eventos.
Aplicar la funcion
de
1.1.
tematica
de experimentos aleatorios , que son procesos cuyos resultados no se
sentido matematico
de la palabra, y sus elementos constituyentes son los resul se conocen como eventos
tados posibles del experimento aleatorio, que tambien
elementales. Usualmente se denota el espacio muestral mediante la letra griega
omega mayuscula
() y los eventos elementales mediante la omega minuscula
1
con algun
subndice (i ) para distinguirlos entre s . Para mantener la consisten se aclara que por evento elemental se entiende cada resultado
cia en la notacion,
posible del experimento aleatorio (los elementos constituyentes de ) o los subconjuntos unitarios de formados por los elementos de correspondientes. Es
de eventos elementales, bajo la acepcion
de subconjuntos
de notar que la coleccion
de : su union
es el conjunto y son mutuamente
unitarios, forman una particion
disjuntos 2 dos a dos.
Los eventos elementales se pueden componer mediante uniones para formar
de eventos del
eventos , que son subconjuntos del espacio muestral. La coleccion
finitas tambien.
del
espacio muestral.
alla del alcance teorico
en la Universidad de Estatal
Matematico
ruso, estudio bajo Nikolai Luzon
importantes contribude Moscu,
obteniendo su Ph D en 1929.Sus mas
//en.wikipedia.org/wiki/Andrey_Nikolaevich_Kolmogorov
An
n=1
mas
fuerte se denomina -algebra.
Un algebra
que satisface esta condicion
Por
/ } y () (esta ultima
ejemplo, {0,
se lee partes de omega, que es la clase de
matematica
para definir todos los eventos posibles.
A modo de ejemplo, si el experimento aleatorio consiste en escoger al azar una
1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
S
An = P(An ) Esta es la propiedad de -aditividad
P
n=1
n=1
1.2. Algebra
de eventos. Otras definiciones de probabilidad
A pesar de que los axiomas de Kolmogorov son pocos, permiten, mediante un
rentes al calculo
de probabilidades. Por ejemplo, el primer axioma establece que la
probabilidad de que se verifique cualquiera de los resultados posibles de un experimento aleatorio es igual a uno (P() = 1). Este axioma es coherente con nuestra
- siempre que realizamos un experimento aleatorio, se verificara alguno
intuicion
es la probabilidad de que se verifique
de los resultados posibles. Ahora bien, cual
/ ? Intuitivamente, debera ser cero, pues tras la realizacion
de
el evento vaco: P(0)
un experimento aleatorio siempre se verificara alguno de los resultados posibles y
/ = 0.
Demostrar que P(0)
Solucion
Segun
las leyes algebraicas de conjuntos, se tiene que:
(I) 0/ = .
(II) 0/ = 0/ , lo cual implica que y 0/ son mutuamente excluyentes.
segun
El espacio muestral es el conjunto universal y ademas,
el axioma 1, se
/
tiene que P() = 1. Por otro lado, el hecho de que y 0 sean mutuamente excluyentes implica que podemos usar el axioma 2:
segun
(i)
/
= P() + P(0)
/
= 1 + P(0)
el axioma 1
P() = 1 segun
=1
/
P() = P( 0)
/
P(0) = 0, como se quera demostrar.
s
anterior,
Con argumentos completamente analogos
a los de la demostracion
que, dado un evento A, la probabilidad del evento
se puede demostrar tambien
dencia historica
del desarrollo de las matematicas
siempre ha apuntado hacia una
progresiva. Para ser historicamente
abstraccion
exactos, la teora de las probabilidades surge mucho antes de los trabajos de Kolmogorov durante la primera mitad
del siglo XX.
indisolublemente ligados
Los orgenes de la teora de las probabilidades estan
de Laplace que datan
al estudio de los juegos de azar y a los trabajos del Marques
1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
bilites
de la
elaboro sobre el papel central que
probabilidad. Laplace tambien
normal en la teora de la probabilidad y a el
juega la distribucion
se le atribuye el haber descubierto y demostrado el Teorema Central del Lmite. Fuente: http://thales.cica.es/rd/Recursos/
rd97/Biografias/52-4-b-laplace.html
que publico en
Laplace, en su obra titulada Theorie
Analytique des Probabilites
4
los casos posibles es la medida de dicha probabilidad, que de este modo es una
cuyo numerador se corresponde al numero
fraccion
de casos favorables al evento
enements
`
La theorie
des hasards consiste a` reduire
tous les ev
du meme
genre a` un certain
enment
existence, et a` determiner
le nombre de cas favorables a lev
dont on cherche la probabilite.
qui nest
Le rapport de ce nombre a` celui de tous les cas possibles est la mesure
de cette probabilite,
(Probabilidad segun
Definicion
total de casos po Laplace). Si n es el numero
para los cuales se verifica cierto evento A, entonces la probabilidad del evento A
viene dada por
P(A) =
nA
n
clasica
matematico
que permita precisar dichas probabilidades, la alternativa es hallar estas de manera emprica, repitiendo el experimento aleatorio muchas veces bajo
las mismas condiciones. A medida que se repite el experimento un mayor nume
de veces en los que se verifica un determinado evento
ro de veces, la proporcion
con respecto al numero
total de realizaciones del experimento aleatorio se acer
a su probabilidad. Esto se conoce tambien
como la ley de los
cara cada vez mas
grandes numeros
, y la idea descansa en la repetibilidad, siempre bajo identicas
1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD
nA
n n
P(A) = lm
A lo largo de este libro, haremos uso de este enfoque emprico para calcular,
de manera aproximada, algunas probabilidades. Las repeticiones de los experi en computadora mediante programas de simulacion.
En el barrio El Engano
96
de entre ellas son chismosas, 84 son envidiosas y 100 son chismosas o envidiosas. Si en
el mercado municipal me encuentro una mujer
del barrio por casualidad (al azar), cual es la
probabilidad de que sea chismosa pero no envidiosa?
Daum Marries Her Pedantic Automaton George in May 1920, John Heartfield is Very Glad of It,
1920, pintura de George Grosz.
Solucion
Primero identificamos el espacio muestral y los eventos pertinentes:
10
P(B) =
P(A) =
84
164
96
164
0, 5854.
0, 5122.
P(A B) =
100
164
0, 6098.
(porque?)
1.3.
matematico
de los fenomenos
aleatorios porque es un mecanismo para traducir
los objetos del espacio muestral, que no necesariamente se identifican de forma
numerica,
a elementos de algun
Esto facilita enormemente la
conjunto numerico.
11
del fenomeno
aleatorio, como la esperanza y la varianza.
(Variable Aleatoria). Sea (, , P) un espacio de probabilidad. La
Definicion
X : R que asigna a cada elemento
variable aleatoria X() es una funcion
del espacio muestral un valor real. Adicionalmente, la variable aleatoria es una
medible, porque deber verificar que {|X() < } .
funcion
Aun
cuando esta caracterstica de las variables aleatorias como funciones medibles no se menciona en los textos elementales de probabilidades con los que Ud.
anterior porque es
probablemente estudio esta materia, se incluye en la definicion
subconjuntos numericos.
Es decir, convierte la medida de probabilidad de eventos
12
x R | p(x) 0
p(x) = 1
x=
A veces, p(x) se denota por px , para enfatizar la naturaleza discreta de la variable aleatoria ( p tiene un subndice porque los valores posibles de X son numerables). Si X es una variable continua, no tiene sentido hablar de probabilidades
de denpuntuales porque todas son iguales a cero. Se define entonces la funcion
sidad de probabilidad f , que se corresponde a la derivada Radon-Nikodym de la
de distribucion.
Una variable aleatoria que tiene asociada una tal funcion
de
funcion
de densidad f (x)
densidad se denomina absolutamente continua, y dicha funcion
verifica lo siguiente:
x R | f (x) 0
Zx
y
F(x) =
f (t) dt
Es de notar que en el caso continuo, f (x) no representa una probabilidad puntual, pues ya hemos establecido que las probabilidades puntuales son necesariamente iguales a cero; en cambio f (x) asume valores mayores o iguales a cero.
13
fenomenos
aleatorios. El estudiante que haya cursado cualquier curso elemental
de probabilidades conoce algunas de estas leyes de probabilidad y sus caractersti importantes. En las tablas 1.1 y 1.2 se describen las leyes de probabilidad
cas mas
usuales.
mas
adelante.
Por ultimo,
se establece un teorema que nos sera de utilidad mas
1 dx
fY (y) = fX g (y)
dy
en donde la cantidad J = |dx/dy| recibe el nombre de Jacobiano de la transfor
macion.
1.4.
Dos caractersticas importantes de una variable aleatoria son su tendencia cen media con respecto a la tendencia central. Ambas estan
dadas
tral y su dispersion
E[X] =
x dF(x)
14
es:
E[X] =
x f (x) dx
E[X] = x p(x)
E[Y ] = E[h(X)] =
h(x)dF(x)
15
V [X] = E[(X ) ] =
(X )2 dF(x)
para el
calculo
de la varianza.
Finalmente, como ultima
nota en este aparte, se menciona la cota de Tchebys
chev , que involucra la esperanza y la varianza de una variable y es de utilidad para
acotar de forma muy aproximada ciertas probabilidades cuando no se tiene ningun
P [|X | ]
V [X]
2
y, recprocamente,
1.5.
V [X]
2
caracterstica y funcion
generatriz. PropieFuncion
dades y tablas de las principales distribuciones.
en la Estadstica de la funcion
generatriz de una variable discreta y la
El interes
caracterstica de una variable discreta o contnua radica en el calculo
funcion
de los
momentos y en el calculo
de las distribuciones muestrales, siendo estas particular
mente utiles
para el calculo
de la suma de n variables aleatorias independientes e
16
identicamente
distribuidas. Otro caso donde son de utilidad es cuando se tiene una
x (u) = E[e
iuX
]=
eiuX dF(x)
es integrable para cada u y conComo eiuX = cos ux + i sin ux, esta funcion
secuentemente, (u) posee una parte real y una parte imaginaria. X (u) tambien
es conocida como la transformada deZFourier de F(x). Si la variable X es absolu
funcion
u, por lo tanto, cuando se hable de su
con respecto
derivada de orden k subsecuentemente, se refiere a la diferenciacion
caracterstica
a u. Por los momentos se indican algunas propiedades de la funcion
que son de utilidad, aclarando que en lo sucesivo omitimos el subndice X en X (u)
(0) = 1
|(t)| 1
E[X k ] =
(k) (0)
ik
Esta ultima
propiedad es particularmente util,
17
1
T 2
F(x2 ) F(x1 ) = lm
Z T iux1
e
eiux2
T
iu
(u)du
1
px (x) = lm
T 2T
Z T
eiux (u)du
1
fx (x) =
2
Z T
eiux (u)du
de la inPor ultimo
es importante notar, aun
a la exposicion
adelantandose
dependencia estocastica
y la convolucion
de una suma de variables indepencaracterstica sirve para obtener la distribucion
dientes. Esto se desprende del hecho de que el valor esperado de un producto de
variables aleatorias independientes es igual al producto de los valores esperados
de las variables respectivas, pero este punto se tratara en mayor detalle posteriormente.
En el caso en que la variable aleatoria X sea discreta y tome valores positivos,
generatriz del siguiente modo:
se puede definir su funcion
8
18
g(u) = E[ux ] =
p(k)ux
k=0
Siempre y cuando u este dentro del radio de convergencia de dicha serie infini generatriz son las siguientes:
ta. Algunas propiedades notables de la funcion
1. p(k) =
g(k) (0)
k!
para k = 0, 1, 2, ...
E[X(X
2. E[X(X 1)...(X k + 1)] = g(k) (1), para k = 1, 2, .... La expresion
1)...(X k + 1)] se conoce como momento factorial de orden k para la variable X .
caracterstica, la funcion
generatriz determina unvocamente
Como la funcion
sirve a efectos de determila ley de probabilidad de una variable aleatoria y tambien
de la suma de variables aleatorias independientes. Las funciones
nar la distribucion
generatrices de diversas variables aleatorias discretas se dan en la tabla 1.1.
Bernoulli
px (x) =
1 p x = 0
x=1
x
/ {0, 1}
Valores Esperados:
E[X] = p
V [X] = pq
Generadora:
Funcion
Caracterstica:
Funcion
g(z) = q + pz
x (u) = q + peiu
19
(continuacion)
Binomial
el numero
pX (x) =
n
x
px qnx si x {0, . . . , n}
0
E[X] = np
V [X] = npq
si x
/ {0, ..., n}
Generadora:
Funcion
g(z) =
Valores Esperados:
Caracterstica:
Funcion
(q + pz)n
x (u) = (q + peiu )n
Geometrica
Valores Esperados:
pqx1 si x N+
px (x) =
0
si x
/ N+
E[X] =
Generadora:
Funcion
Caracterstica:
Funcion
g(z) =
pz
1qz
x (u) =
1
p
V [X] =
q
p2
peiu
1qeiu
Binomial Negativa
La variable aleatoria binomial negativa representa el numero
de ensayos hasta
observar la r-esima
ocurrencia de un exito
(r es un numero
fijo).
de probabilidad:
Funcion
pX (x) =
x1
r1
pr qxr si x r
Generadora:
Funcion
g(z) =
pz
1qz
r
Valores Esperados:
E(X) =
si x < r
r
p
V (X) =
rq
p2
Caracterstica:
Funcion
x (u) =
peiu
1qeiu
r
20
(continuacion)
Poisson
La variable aleatoria Poisson representa el numero
de eventos que ocurren en un
instante de tiempo de amplitud fija cuando la tasa media de eventos en ese intervalo
de tiempo es .
de probabilidad:
Funcion
Valores Esperados:
x
e
x!
pX (x) =
E(X) =
si x N 0
V (X) =
si x < 0
Generadora:
Funcion
Caracterstica:
Funcion
g(z) = e(z1)
x (u) = e(e
iu 1)
Uniforme
Es la variable aleatoria continua uniformemente distribuida sobre un intervalo (a, b).
La probabilidad de que la variable aleatoria uniforme se encuentre dentro de algun
fx (x) =
1
ba
si a < x < b
en caso contrario
Valores esperados:
E[X] =
a+b
2
V [X] =
(ba)2
12
caracterstica:
Funcion
x (u) =
eiub eiua
iu(b a)
Normal
El numero
de exitos
en n ensayos independientes de Bernoulli obedece aproxima
damente una ley Normal a medida que n tiende a infinito. Segun
el teorema central
21
(continuacion)
(Normal - continuacion)
de densidad:
Funcion
fX (x) = 12 exp 12
Valores esperados:
x 2
E[X] =
V [X] = 2
caracterstica:
Funcion
x (u) = exp iu 21 u2 2
Exponencial
geometrica
y representa el tiempo que transcurre hasta que falla un componente.
Como la geometrica,
la variable aleatoria exponencial tiene la propiedad de no
poseer memoria: el haber esperado una cantidad de tiempo determinado sin que
no condiciona el tiempo adicional de
haya ocurrido la falla o el suceso en cuestion
de ser un valor
la tasa media de eventos por unidad de tiempo y tiene la restriccion
real positivo.
de densidad:
Funcion
Valores esperados:
ex si x > 0
fX (x) =
0
en caso contrario
E[X] =
V [X] =
1
2
caracterstica:
Funcion
x (u) = 1 iu
1
Gamma
parametros
son , r > 0.
22
(continuacion)
(Normal - continuacion)
de densidad:
Funcion
fx (x) =
r1 ex
(r) (x)
Valores esperados:
si x > 0
en caso contrario
E[X] =
V [X] =
r
2
caracterstica:
Funcion
x (u) = 1 iu
r
(r) es la funcion
gamma, que se define a continuaNota: La funcion
cion:
R
(r) = 0 ur1 eu du, r > 0
tiene las siguientes propiedades:
Esta funcion
1. (n + 1) = n(n), n > 0.
2. (n + 1) = n!, si n es un numero entero positivo.
1.6.
estan,
pues,
se observan simultaneamente
en cada individuo de una poblacion;
asociadas al mismo espacio muestral (ver Fig. 1.3). As por ejemplo, si estamos
23
X()' $
X()
v
v
*
X
&%
'$
- v
Y ()
&%
Y ()
24
x1 =
xn =
p (x1 , . . . , xn ) = 1
inRf ty
x1 =
xn =
de distribucion
de probabilidad conjunta Un vector aleatorio (X1 , . . . , Xn )
Funcion
de distribasado en un espacio de probabilidad (, , P) tiene una funcion
conjunta definida del siguiente modo:
bucion
25
h
i
X1 ,...,Xn (u1 , . . . , un ) = E ei(u1 X1 ++un Xn
Z
Rn
pX (x) =
yRangoY
p(x, y)
fX (x) =
restantes.
1.7.
mas
El analisis
de las relaciones entre las variables aleatorias de un modelo probabilstico tiene mucho que ver con el concepto de la independencia entre variables
26
senalar
otro aspecto importante sobre las relaciones de dependencia entre variables aleatorias: la estadstica se limita a discernir si ciertos niveles de una variable
van acompanados
por ciertos niveles de otra variable - las tecnicas
estadsticas
clasicas
no permiten discernir sobre las relaciones de causalidad de unas varia
bles sobre otras. En nuestro ejemplo, si encontrasemos
que el origen racial no es
cion
de forma sesgada para favorecer a los
individuos de cierta raza por sobre los individuos de otras razas. En todo caso, si
la dependencia estocastica
es equivalente a la causalidad, eso es algo que debe
27
estocastico.
Seguidamente se dan algunas caracterizaciones de la independencia de las
variables aleatorias conjuntamente distribuidas:
I.
de la independencia en terminos
Caracterizacion
de sus funciones de
probabilidad
Un conjunto de variables aleatorias conjuntamente distribuidas se dice ser in de probabilidad conjunta se puede factorizar
dependiente si y solo si su funcion
como el producto de las funciones de probabilidad de cada variable:
funcion
II .
de la independencia en terminos
Caracterizacion
de sus funciones de
distribucion
Para toda n-pla de valores (x1 , , xn ), se tiene que
de la independencia en terminos
Caracterizacion
de la esperanza ma
tematica
Para toda n-pla de funciones (g1 , , gn ) donde existan los respectivos valores
28
de la independencia en terminos
caracCaracterizacion
de su funcion
terstica
caracterstica de un vector aleatorio conjuntamente distribuido es
La funcion
igual al producto de las funciones caractersticas de cada variable aleatoria
se infierespectiva cuando estas son independientes. Dicha caracterizacion
re de la propiedad anterior para el valor esperado del producto de variables
aleatorias independientes.
Segun
las distintas caracterizaciones de independencia vistas, se tiene que dos
variables aleatorias, o son independientes o no lo son. Pero si hemos de establecer
un grado o la magnitud de la dependencia entre dos variables, una medida sera la
es:
covarianza , cuya definicion
cov[X,Y ]
[X,Y ] = p
V [X] V [Y ]
29
el cual se puede demostrar que esta acotado entre -1 y 19 . En realidad, el coe mide el grado de linealidad en la relacion
de dos variables.
ficiente de correlacion
lineal decreciente perfecta:
Si es -1, se tiene que entre X e Y existe una relacion
afn de la otra y si una variable crece,
una variable se puede expresar como funcion
lineal creciente perfecla otra decrece. En cambio = 1 representa una relacion
afn de la otra y ambas decrecen o crecen
ta: una variable aleatoria es funcion
terminos
de la esperanza matematica
de su producto tienen como consecuencia
fX+Y (y) =
fX (x) fY (y x)dx
. En
Integrales como la de arriba se denominan bajo el nombre de convolucion
30
facilmente
porque la suma de variables exponenciales independientes de identico
en el analisis
de ciertos procesos estocasticos.
1.8.
A fin de consolidar su aprendizaje de los conceptos expuestos en las secciones anteriores sobre variables multidimensionales e independencia, considere el
problema a continuacion:
Solucion
Primero, debemos identificar el espacio muestral subyacente al experimento aleatorio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede
definir (o modelar, si prefiere) mediante el siguiente conjunto de pares ordenados:
= {(d1 , d2 ) | d1 , d2 N, 1 d1 , d2 6}
31
Dicho conjunto tiene 36 elementos y asumiendo que los dados son justos y que el
lanzamiento de un dado no condiciona el lanzamiento del otro, cada uno de estos
36 eventos elementales del espacio muestral tiene una probabilidad asociada de
1
al castellano: todos los posibles resultados de lanzar dos dados son
36 . Traduccion
equiprobables.
A partir de este conjunto definimos las dos variables aleatorias como en el
enunciado del problema. Estas variables pueden considerarse como caractersti
asociadas a cada evento elemental o individuo de la
cas numericas
que estaran
En conjunto, se esquematiza todo esto en una tabla:
poblacion.
X(i )
Y (i )
X(i )
Y (i )
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
(1,1)
(1,2)
(1,3)
(1,4)
(1,5)
(1,6)
(2,1)
(2,2)
(2,3)
(2,4)
(2,5)
(2,6)
(3,1)
(3,2)
(3,3)
(3,4)
(3,5)
(3,6)
2
3
4
5
6
7
3
4
5
6
7
8
4
5
6
7
8
9
0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
(4,1)
(4,2)
(4,3)
(4,4)
(4,5)
(4,6)
(5,1)
(5,2)
(5,3)
(5,4)
(5,5)
(5,6)
(6,1)
(6,2)
(6,3)
(6,4)
(6,5)
(6,6)
5
6
7
8
9
10
6
7
8
9
10
11
7
8
9
10
11
12
1
1
1
1
1
1
0
0
0
0
0
0
1
1
1
1
1
1
32
10
11
12
1
36
1
36
2
36
1
36
3
36
2
36
3
36
2
36
4
36
1
36
4
36
1
36
3
36
1
36
2
36
1
36
1
36
1
36
1
36
1
36
Totales
10
11
12
fY (y)
1
36
0
1
36
1
36
3
36
4
36
2
36
3
36
5
36
2
36
4
36
6
36
1
36
4
36
5
36
1
36
3
36
4
36
1
36
2
36
3
36
1
36
1
36
2
36
12
36
24
36
fX (x)
1
36
2
36
3
36
1
36
1
36
2
36
1
36
1
36
33
las probabilidades conjuntas para los casos Y = 0 o Y = 1 son distintas. Todo esto
confirma que X e Y son mutuamente dependientes, aunque el grado de dependen notado es la razon
por la cual
cia no es total. Otra cosa que seguramente habras
las funciones de probabilidad individuales de X y de Y se denominan funciones de
probabilidad marginales: siendo totales de columnas y de filas, se especifican en
los margenes
de la tabla de contingencia.
1.9.
Problemas propuestos
34
Casos favorables al 10
136
145
226
235
244
334
Pero Galileo, en su libro Considerazione sopra il giuoco dei dadi, vio que estas combinaciones no se pueden considerar igualmente probables. Explique
porque y calcule las probabilidades correspondientes.
tambien?
Demuestrelo o verifique lo contrario mediante un contraejemplo.
frecuentista de la probabilidad como en la definicion
clasica
(segun
Laplace) de la probabilidad se caracteriza la probabilidad de
un evento A como el cociente nnA . Cual es la diferencia entre ambas definiciones entonces?
del concepto de variable aleatoria, porque es necesaria la
13. En la definicion
de que la variable aleatoria sea una funcion
medible?
condicion
35
de distribucion
de probabilidad.
14. Sea X una variable aleatoria y F su funcion
Demuestre que F(+) = 1.
de densidad de
15. Sea X una variable aleatoria contnua y f (x) su funcion
probabilidad. Explique porque f (x) y la probabilidad puntual P{X = x} no
son lo mismo.
16. Se lanza una moneda repetidas veces hasta obtener tres caras en sucesion
y se observa el numero
total de lanzamientos efectuados (X ).
100 llaves, y esta tan borracho que debe tantear las llaves en cada cerradura
de manera aleatoria (cada llave tiene igual probabilidad de usarse en cada
tanteo. Todas las noches su esposa lo observa en este trance. Como buena
cuaima, ella decide que San Pedro dormira en el sofa si tiene que tantear
de 7 llaves (pues en ese caso ella considera que estara demasiado
mas
borracho). Esta noche, San Pedro llega a su casa totalmente empapado en
36
b) P{T = 5}.
f (x; k) =
k
2
1
2k/2
Unidad 2
a la simulacion
Introduccion
estocastica
mediante R
como el proceso de disenar
Definimos simulacion
un modelo de un sistema real y conducir experimentos con este modelo a fin de entender el comportamiento del sistema y/o evaluar varias estrate del sistema. Por lo tanto es
gias para la operacion
PARALL ELLES
I NT ERFERENTES
1952
Jesus Soto
Robert Shannon
al arte de la simulacion
Introduccion
37
38
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
Objetivos de la Unidad
a la simulacion
esEl objetivo general de esta Unidad es servir de introduccion
tocastica
como una herramienta para afianzar el aprendizaje de los contenidos de
Al termino
de la misma, se quiere que el estudiante logre los siguientes objetivos
especficos:
Instalar o acceder al interprete de comandos del lenguaje R, que sera el
las simulaciones en este libro.
lenguaje con el cual se implementaran
calculo
de probabilidades o valores esperados.
2.1.
al R
Para que la simulacion?
Breve introduccion
que involucra el
teorico
de un matematico
experimentado sobre alguna situacion
nuestra formacion
teorica
denominada simulacion.
como la programacion
misma, es un arte. No existe un procediLa simulacion,
miento mecanico
para hacer simulaciones. Lo que se requiere del analista es determinar detalladamente las reglas y la secuencia de acciones que rigen el comportamiento de los componentes del sistema a simular. Se deben establecer bien las
relaciones de dependencia entre los componentes y deslindar aquellos comporta comportamientos.
mientos de componentes que son independientes de los demas
2.2. COMO
CONSEGUIR EL INTERPRETE R
39
partida de un juego. Como en las simulaciones se pretende determinar las probabilidades o los valores esperados, se deben realizar muchas iteraciones de estos
ciclos para ver cual es su comportamiento a la larga. Es en este punto donde
estocastica.
Entre estos, se escogio el lenguaje R para desarrollar los ejemplos y
trabajos practicos
de este curso. El lenguaje R es un sistema para el analisis
es
y aplicacion
basado en el
tadstico y grafico,
a la vez un entorno de programacion
lenguaje S desarrollado por los Laboratorios AT&T Bell1 . Uno de los atractivos prin
cipales de R es que se distribuye libremente bajo los terminos
de la GNU General
lenguaje de programacion
de
bucles y condicionamiento junto con herramientas sofisticadas de alto nivel para el
analisis
estadstico, lo cual le da una enorme flexibilidad. Por todas estas razones,
preponderancia en el mundo academico
investigacion
2.2.
Como
conseguir el interprete R
la pagina
principal del proyecto R (CRAN): http://cran.r-project.org/. Si se
Linux, que es lo que el autor recomienda, se
ha de usar el R bajo una instalacion
instalar un IDE3 como el Geany, el cual es bastante facil
de usar.
sugiere tambien
4
Junto con este libro se ha incluido un Live CD de Linux con R, algunas libreras
40
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
cuentra mas
existe la posibilidad de usar el R desde un servidor RWeb (Ver Fig.
Tambien
de un servidor RWeb, el usuario puede ejecutar scripts de R sin ne2.1). A traves
http://www.mzandee.net/zandee/statistiek/rweb/
Bioinformatique Lyonhttp://pbil.univ-lyon1.fr/Rweb/ - del Pole
nais, adscrito a la Universidad de Lyon en Francia, corriendo R 2.11.1.
Lille1 cohttp://claree.univ-lille1.fr/Rweb/ - de la Universitee
2.9.0.
rriendo R version
ma University, version
actualizada de R.
2. Se escribe el codigo
R del script a ejecutar en el recuadro correspondiente
AL LENGUAJE R
2.3. BREVE INTRODUCCION
41
2.3.
al lenguaje R
Breve introduccion
fuerte es el computo
numerico
y el procesamiento estadstico de datos, es un len
guaje de proposito
general y es multiparadigma - lo cual quiere decir que soporta la
orientada a objetos (mediante el sistema S4) y la programacion
funprogramacion
cional (gracias a su herencia de Scheme y otros lenguajes basados en Lisp). Desde
procedimental y estructurada, lo cual quiere decir
luego, R soporta la programacion
que el lenguaje posee las estructuras de control usuales en otros lenguajes: for,
daremos una breve introduccion
al lenguaje R, que
while, if, etc. En esta seccion
no pretende ser un curso completo.
42
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
En primer lugar, debemos aclarar que R es un lenguaje interpretado, no compilado. Esto quiere decir que el usuario puede ingresar expresiones o comandos de
5 que inmediatamente seran
evaluados, devolviendo el
R tras el caracter de peticion
interprete
un resultado. El usuario puede, si lo desea, encadenar una secuencia de
instrucciones o expresiones en R para crear lo que se conoce como un programa solo que en R no los llamamos programas, sino scripts, porque R es un lenguaje interpretado. Dichos scripts se crean como un archivo de texto plano en un editor de
para
textos como Notepad, gedit o el editor de scripts que se incluye en la version
como extension
(constantes numericas
En R, los tres tipos basicos
de datos7 son el numerico
reales o enteras, indistintamente), las cadenas de caracteres (que se encierran
Existen tambien
Sin
embargo, en este curso no nos ocuparemos de este tipo de datos.
8
AL LENGUAJE R
2.3. BREVE INTRODUCCION
43
mediante el operador . Desde luego, R posee muchas otras funciones matemati (y otras
cas como log, sin, cos disponibles en cualquier lenguaje de programacion
especificas que no estan
incluidas en cualquier lenguaje de programacion).
mas
A
algunos ejemplos de expresiones con cadenas de caracteres:
continuacion
> paste("procesos","estocasticos")
[1] "procesos estocasticos"
> paste("aritmetica",2+2)
[1] "aritmetica 4"
> paste("procesos","estocasticos",sep="")
[1] "procesosestocasticos"
logicos:
> 2+2==4
[1] TRUE
> 2+2!=5
[1] TRUE
> 3>5
[1] FALSE
> TRUE & FALSE
[1] FALSE
> TRUE | FALSE
[1] TRUE
9
de los parentesis
44
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
> !TRUE
[1] FALSE
logicos
logica
de disyuncion
& es el operador de conjuncion
y ! es el operador de
negacion).
Las variables en R se denotan mediante identificadores. Un identificador valido en R comienza por una letra (mayuscula
o minuscula),
seguido de dgitos y/u
continuacion:
> raiz2 <- sqrt(2)
> raiz2
[1] 1.414214
> raiz22
[1] 2
> raiz22==2
[1] FALSE
de la representacion
En todo lo anterior, el lector se habra preguntado porque aparece un [1] antes
de esto tiene que ver
de los resultados que arroja el interprete R. La explicacion
con una estructura de datos fundamental en R: el vector. Un vector es una lista
AL LENGUAJE R
2.3. BREVE INTRODUCCION
45
intenta concatenar elementos de distintos tipos y los vectores son, por definicion,
secuencias de datos del mismo tipo, se convierten todos los datos a cadenas de
length() devuelve la longitud (cantidad de elementos) del
caracteres. La funcion
1
2
15 16
29 30
43 44
57 58
71 72
85 86
99 100
3
17
31
45
59
73
87
4
18
32
46
60
74
88
5
19
33
47
61
75
89
6
20
34
48
62
76
90
7
21
35
49
63
77
91
8
22
36
50
64
78
92
9
23
37
51
65
79
93
10
24
38
52
66
80
94
11
25
39
53
67
81
95
12
26
40
54
68
82
96
13
27
41
55
69
83
97
14
28
42
56
70
84
98
46
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
> seq(0,1,0.1)
[1] 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Este ultimo
ejemplo ayuda a dilucidar un poco la pregunta que nos hicimos an
teriormente sobre el [1] al comienzo de las expresiones de salida en los primeros
ejemplos. El 1 en [1] representa el primer elemento del vector10 . A lo largo de
todos estos ejemplos, inclusive aquellas expresiones que generaban un solo dato elemental, el interprete R devuelve vectores al evaluar dichas expresiones, aun
10
A diferencia del lenguaje C, donde el primer elemento de un arreglo es aquel cuyo ndice es 0,
en R el ndice del primer elemento es 1.
AL LENGUAJE R
2.3. BREVE INTRODUCCION
47
en R. La expresion
de indexacion
entre corchetes puede ser una
de la indexacion
condicion logica- entonces el interprete R devuelve todos los elementos del vector
En este caso, como a es la secuencia de los 50
que satisfacen dicha condicion.
primeros numeros
pares positivos, a[a>22 & a<50] sera todos aquellos numeros
supongase
que queremos calcular los cuadrados de los 10 primeros numeros
en
teros (del 1 al 10). Una primera forma de hacerlo, que no sera muy eficiente por
cierto, sera generar la secuencia de los 10 primeros numeros,
recorrerla con un
# ------------------------------------------------------------# 2_1. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------# inicializamos las variables : a es la secuencia de
u nmeros del
#1 al 10 , b es inicialmente un vector vacio e i es el indice ,
# que inicialmente apunta al primer elemento de a
a <- 1:10
b <- NULL
i <- 1
# recorremos el vector a elevando cada elemento al cuadrado
#y concatenandoselo al vector b
while (i<=10) {
b <- c(b,a[i]2)
i <- i + 1
}
# finalmente hacemos que el interprete devuelva el vector b:
b
[1]
16
25
36
49
64
81 100
El de arriba fue nuestro primer script. Observe que los comentarios se indi numeral (#) como primer caracter
- a partir del smbolo
can colocando el caracter
numeral, el resto de la lnea sera considerada como comentario. Es una buena
aun,
practica
colocar comentarios abundantemente. Mas
pa una buena practica
el lenguaje de programacion.
logica
pues
entre parentesis,
todo el cuerpo del bucle se indica
encerrandolo
entre llaves { ...}, tal como se hace en C. Aun
cuando la indenta-
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
48
11 del codigo
cion
no es necesaria en R, es una buena practica
indentar el cuerpo
interno de las estructuras de control. De esta forma, el programador puede visuali
zar facilmente
el nivel de anidamiento de un codigo
dentro de un programa, lo cual
como la variable ndice del for asume justamente los valores numericos
que queremos elevar al cuadrado, no es preciso crear la secuencia a como al principio del
script anterior:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# ------------------------------------------------------------# 2_2. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------# inicializamos las variables : b es inicialmente un vector
# vacio , i es el indice del bucle for .
b <- NULL
# elevamos cada
u nmero i al cuadrado y lo concatenamos al
# vector b
for (i in 1:10) {
b <- c(b,i2)
}
# finalmente hacemos que el interprete devuelva el vector b:
b
[1]
16
25
36
49
64
81 100
elegante y mas
breve (menos lneas de codigo)
No solo es el script 2 2.R mas
mas
rapido
es tambien
que el script 2 1.R, aunque la diferencia entre un while
largas.
y un for realmente se nota cuando se recorren secuencias mucho mas
El uso del for como estructura de control para iterar en un bucle una cantidad
La indentacion
de colocar espacios en blanco al principio de una lnea de
codigo.
AL LENGUAJE R
2.3. BREVE INTRODUCCION
49
directamente a traves
1
2
3
4
5
6
7
8
# ------------------------------------------------------------# 2_3. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------b <- (1:10)2
b
[1]
16
25
36
49
64
81 100
Se han expuesto los rudimentos del lenguaje R. Aunque todava hay muchas
funcionalidades del lenguaje por ver, estamos en condiciones de abordar un primer
problema de simulacion.
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
50
2.4.
Solucion
2.4. DOS PROBLEMAS DE SIMULACION
51
Paso 3 El animador (Monty Hall), sabiendo donde esta el carro, escoge una puerta
que no sea la que opto el concursante ni la que contiene el carro y la abre,
de esa puerta. Si queda una sola puerta
revelando que hay una cabra detras
elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos
puertas elegibles, Monty escoge cualquiera de las dos al azar.
queremos determinar la probabilidad de ganar si el
Paso 4 Como en la simulacion
concursante cambia de puerta, hacemos que el jugador opte una segunda
vez por la puerta distinta a la que selecciono la primera vez y a la puerta que
acaba de abrir Monty.
Paso 5 Si la segunda puerta que escogio el concursante al cambiar de puerta
de la cual estaba el carro el
en el paso anterior es igual a la puerta detras
concursante gana.
cion
junto con el resultado arrojado por la misma, que es de
en R para esta simulacion
0.6688, lo cual como se podra apreciar, se acerca bastante a 23 .
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# -------------------------------------------------------------# 2_4. R
# simulacion del concurso de Monty Hall
# autor : Jose L. Romero P.
# fecha : 10/8/2007
# -------------------------------------------------------------cnt <-0
puertas <- c(1 ,2 ,3)
N <- 10000
for (i in 1:N) {
puerta.premio <- sample(puertas,size=1 ,replace=TRUE)
puerta1.jugador <- sample(puertas,size=1 ,replace=TRUE)
otras.puertas <setdiff(puertas,union(puerta.premio,puerta1.jugador))
ifelse((length(otras.puertas)==1) ,
monty.abre.puerta <- otras.puertas,
monty.abre.puerta <sample(otras.puertas,size=1 ,replace=TRUE)
)
puerta2.jugador <setdiff(puertas,union(puerta1.jugador,monty.abre.puerta))
if (puerta2.jugador==puerta.premio) cnt <- cnt+1
}
52
24
25
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
un vector logico.
En tal caso, para cada componente logico
del vector con se devuelve un vector de la misma longitud que el vector condicion
dicion,
el segundo argumento o el tercuyos componentes correspondientes seran
2.4. DOS PROBLEMAS DE SIMULACION
53
Solucion
Para comenzar, denotemos por X e Y el instante de tiempo dentro de una hora a
la cual llega cada empresario respectivamente. Segun
parte del enuncia la ultima
do que establece que cada uno llega independientemente del otro y en cualquier
instante aleatorio en el lapso de esa hora, se desprende que tanto X como Y son
variables aleatorias continuas independientes y uniformemente distribuidas entre 0
y 60 (se trabajara el problema en base al lapso de 60 minutos). Para que los empresarios se encuentren, la diferencia en valor absoluto de los tiempos de llegada
de uno y otro debe ser menor o igual a 10 minutos. Es decir, se quiere calcular
P{|X Y | 10}. Claramente, esta diferencia en valor absoluto varia entre 0 y 60
de probabilidad de |X Y |.
minutos, pero aun
no se ha determinado la distribucion
haya podido llegar a este punto de la solucion,
aunque quizas
no seQuizas
pa como proceder a partir de ah- es precisamente en ayudar a dilucidar este tipo
Para el problema en cuesde situaciones en que radica la vala de la simulacion.
esta
emprica de un
tion,
va a consistir basicamente
en generar una distribucion
numero
suficientemente grande de valores |X Y | basados en numeros
aleato
en R a continuacion:
preambulos,
se da el codigo
de la simulacion
1
2
3
4
5
6
7
54
8
9
10
11
12
13
14
15
16
17
18
19
20
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
0.305262
La curva roja
Figura 2.3: Histograma de frecuencias generado por la simulacion.
de densidad de probabilidad teorica.
representa la funcion
2.4. DOS PROBLEMAS DE SIMULACION
55
metodo
hist de R. Esto genero el histograma de la Fig. 2.3, pero sin la lnea roja
aun.
que los rectangulos
son levemente irregulares, pero sus alturas
Observese
de densidad teorica,
parece ajustarse bien, por lo menos intuitivamente, a lo obser de densidad de la variable
vado. En este punto nos damos cuenta que la funcion
|X Y | debe ser un segmento de recta decreciente entre 0 y 60, como la lnea
f|XY | (d) = 2
60d
Z
1
60 d
dt =
2
60
1800
de dicha formula
La motivacion
viene de notar que el evento correspondiente a
la diferencia |X Y | es exactamente igual a d se verifica para X [0, 60 d], Y =
X + d (suponiendo X mayor o igual a Y ), la integral viene a representar la masa de
probabilidad total para cada uno de estos casos. El factor de 2 a la izquierda de la
evidencia ser una funcion
de
integral se debe a que X Y o Y X . Dicha funcion
de los valores posibles de d es igual a
densidad legtima pues su integral a traves
uno:
Z60
Z60
f|XY | (z)dz =
0
60 z
dz
1800
z2 60
z
=1
30 3600 0
cion
la probabilidad
deseada:
56
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
P{|X Y | 10} =
Z10
f|XY | (z)dz =
z
z2 10
30 3600 0
1
1
11
=
= 0, 3055
3 36 36
(0,305262) se corresponde
Como se puede ver, el resultado de la simulacion
s
En este curso se hara un uso intensivo de simulaciones como estas para apoyar
caractersticas de un fenomeno
aleatorio, aunque solo de forma aproximada.
mulacion
deducidos
analticamente.
es esencialmente la repeticion,
siempre bajo identicas
La simulacion
condiciones y un numero
elevado de veces, de un experimento aleatorio. A partir
simulacion,
de las probabilidades o
valores esperados.
57
Poisson,
rnorm numeros
aleatorios normalmente distribuidos, etc.). Estas funciones
son vectorizables.
rrollo teorico
de cada problema. As mismo, se invita al lector a dilucidar cualquier
2.5.
Problemas propuestos
a medida que
3. Porque mejora la precision
en una simulacion
aumenta el numero
de veces que se repite el experimento aleatorio?
Como
vectorizara este codigo?
para que se quiere optimizar el tiempo de ejecucion
de
6. En una simulacion,
58
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
en
7. Respecto al problema propuesto N 7, calcule mediante una simulacion
R las probabilidades de ganar apostando a que por lo menos un seis salga
en 4 lanzamientos de un dado y de ganar apostando a que por lo menos un
doble seis sale en 24 lanzamientos de dos dados.
8. Cuatro caballos, Pedro poco dientes, Tres pelos, El burro Machey y Mi potro
Frecuencia con la
que ha ganado
0,40
0,10
0,30
0,20
Probabilidad
1/9
2/9
2/9
1/9
2/9
1/9
59
Probabilidad de
acertar el tiro
A
B
C
0,3
1
0,5
En este duelo, comienza el participante A, luego le toca el turno a B y por ultimo a C. Comienza la ronda nuevamente en el mismo orden hasta que quede
eliminando sucesivamente a aquellos que reciban un
un solo hombre en pie,
tiro.
El participante A debe escoger entre dos estrategias al comienzo del duelo:
disparar a B o disparar al aire. Si dispara al aire, no elimina a nadie. Tocandole el turno a B, este elimina a C y cuando le toque el turno a A nuevamente,
este tiene una probabilidad de 0,3 de eliminar a B y as ganar el duelo. Si le
dispara primero a B, podra eliminarlo e intercambiar disparos indefinidamen es la probabilidad de que A gane el duelo si
te con C hasta eliminarlo. Cual
emplea esta segunda estrategia? Es menor o mayor que la probabilidad de
ganar disparando al aire la primera vez? Determine esta probabilidad analti en R.
camente y mediante una simulacion
B
t
t
@
@
@Ot
@
@
@
@t
D
60
A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
Al salir de su casa, escoge al azar uno de los cuatro caminos que conducen
a la casa de algun
amigo. Desde all, escoge al azar uno de los tres caminos,
12
Unidad 3
a los procesos
Introduccion
estocasticos.
Terminologa y
nociones preeliminares
Pregunta en un foro del Guardian Weekly:
es la probabilidad de que un chimCual
61
62
UNIDAD 3. INTRODUCCION
Objetivos de la Unidad
3.1.
Definicion
de tales fenomenos
son: el movimiento browniano de una partcula, el crecimiento
tal como una colonia bacterial, el tamano
de una cola en una
de una poblacion
cliente/servidor, la recepcion
de una senal
en presencia de ruido o perturestacion
baciones, los precios de un bien en un lapso de tiempo, las fluctuaciones de fortuna
geografica
estocasticos
espaciales son la distribucion
de especies de plantas o
animales y es estudio de epidemias, donde el contagio de una enfermedad en un
principal de
sitio depende de su proximidad con otros sitios infectados. El interes
bien sobre los procesos estocasticos
La palabra estocasticos
es de origen griego, proviene de Stokhos, que significa objetivo, o
es habil
blanco en el juego de dardos. Stokhastikos como adjetivo, alude a apuntar bien, a quien
3.1. DEFINICION
63
espaciales.
suposicion
(correspondiente a los precios de una accion
de un proceso estocastico,
de variables
Para efectos matematicos,
un proceso estocastico
es una sucesion
aleatorias, cada una de las cuales describe el estado del sistema en un instante de
es adecuada porque abarca los siguientes aspectos:
tiempo dado. Esta definicion
1) el estado del sistema en un tiempo determinado es variable, y su variabilidad se
debe a mecanismos aleatorios, 2) la variable aleatoria del estado del sistema es
que depende del tiempo y en consecuencia, su distribucion
esta deteruna funcion
minada por el instante de tiempo que se considere, 3) si se consideran los estados
de un sistema en distintos instantes de tiempo conjuntamente, se puede concep
tuar un proceso estocastico
como un vector aleatorio n-dimensional. Resumiendo:
toma valores en un
En esta definicion,
de tiempo, el cual
conjunto T denominado conjunto ndice. Segun
sea T un conjunto numerable o
t Xt () se
Si se tiene un proceso estocastico
y se fija algun
la funcion
considerese
el siguiente ejemplo: se cuenta el numero
de personas que entran a
todos los posibles instantes de tiempo entre las 9 y 10am el proceso estocastico
Por ultimo,
si consideramos una realizacion
antes descri
tendramos una
to para un da especfico, digamos el 29 de agosto de este ano,
64
UNIDAD 3. INTRODUCCION
continuacion:
Ft1 ,...,tn x1 , . . . , xn = P{X(t1 ) x1 , . . . , X(tn ) xn }
se conocen como las funciones de distribucion
basico
consiste en escoger un numero
al azar en [0, 1]. Sobre este espacio de
b. {Y (t),t [0, 1]} definido por X(t, ) =
0 si t 6=
1 si t =
En la practica,
es muy difcil, sino imposible, obtener las funciones finito- dimensionales para todo conjunto de ndices (t1 ,. . .,tn ) y todo n, por lo cual se definen las
de primer y segundo orden. La funcion
de distribucion
de
funciones de distribucion
de la variable aleatoria en un tiempo
primer orden se corresponde a la distribucion
determinado:
65
3.2.
P (A B)
P (A | B) =
P (B)
se puede exla cual tiene sentido si la probabilidad de B es no-nula. Esta nocion
tender al condicionamiento de una variable Y por otra variable X si X e Y son
discretas.
P (Y = yn |X = xm ) =
pX,Y (xm , yn )
P{Y = yn X = xm }
=
P{X = xm }
pX (xm )
(3.2.1)
E [Y |X = xm ] =
sobre y
y P (Y = y|X = xm )
66
UNIDAD 3. INTRODUCCION
f () = E [Y |X = ] =
y P (Y = y|X = )
(3.2.2)
sobre y
definicion
debemos
generalizarla aun
mas:
(Esperanza condicional de Y dadas X1 , . . . , Xn ). Sean X1 , . . . , Xn variaDefinicion
bles aleatorias que toman valores en un conjunto E y sea Y otra variable aleatoria.
X1 , . . . , Xn es:
La esperanza condicional de Y dada la sucesion
E [Y |X1 , . . . , Xn ] = f (X1 , . . . , Xn )
donde f esta definida para cualquier vector (1 , . . . , n ), con i E por
f (1 , . . . , n ) = E[Y |X1 = 1 , . . . , Xn = n ]
=
y P(Y = y|X1 = 1 , . . . , Xn = n )
sobre y
(3.2.3)
g(1 , . . . , n ) = E [Y |X1 = 1 , . . . , Xn = n ] =
67
y f (y|1 , . . . , n ) dy (3.2.4)
sobre y
Los conceptos de probabilidad y esperanza condicional son imprescindibles pa de las probabira caracterizar los diversos tipos de procesos aleatorios- es a traves
lidades y la esperanza condicional que se definen las relaciones de dependencia (o
de independencia) entre los estados de un proceso aleatorio en distintos instantes
la esperanza condicional y las probabilidades condicionales
de tiempo. Ademas,
UNIDAD 3. INTRODUCCION
68
de Bagdad)
Problema Resuelto 3.1 (El Ladron
de Bagdad se encuentra en un calaEl Ladron
bozo con tres puertas. Una de las puertas conduce a un tunel
que luego de un da de camino
Solucion
de Bagdad escoge una de las tres puertas constituye un
Cada vez que el Ladron
E[N] =
1
1q
n=0
n=1
n=1
n=0
1
q
1
2
= pq
= = 2 , ya que p = , q =
2
(1 q)
p
3
3
La variable geometrica
difiere un poco de la indicada en la tabla 1.1 porque
2
desmemoriado y ademas,
tampoco tiene GPS ni mucho menos GoogleMaps.
Es un ladron
69
es el numero
en este contexto, la variable aleatoria de interes
de ensayos fallidos
geometrica
como el numero
total de ensayos efectuados hasta conseguir el primer
Sn = X1 + . . . + XN
P{Xi = 1} = P{Xi = 3} =
1
2
estamos interesados en encontrar
En terminos
de esperanzas condicionales,
E E[Sn |N] = E E[Xi + . . . + Xn |N] . Habida cuenta que E[Sn |N] es una variable
aleatoria, que los Xi son variables aleatorias independientes con igual esperanza y
que a su vez son independientes de N , se tiene que:
q
1
1
E E[Sn |N] = E E[X1 + . . . + Xn | | N] = E[N] E[Xi ] = 1 + 3
p
2
2
= 22 = 4
de Bagdad permanecera en el
La cantidad esperada de das que el Ladron
confirma el
calabozo antes de salir libre es de cuatro das. Veamos si la simulacion
resultado hallado analticamente:
1
2
3
4
5
6
7
8
9
10
11
70
12
13
14
15
16
17
18
19
20
UNIDAD 3. INTRODUCCION
for (i in 1:N) {
total.dias <- 0
dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
while (dia.i!=0) {
total.dias <- total.dias+dia.i
dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
}
x<-c(x,total.dias)
}
21
22
23
24
25
26
27
28
29
30
31
4.012
3.3.
de covarianza.
covarianza.
3.3. VALOR MEDIO Y NUCLEO
DE COVARIANZA
71
(Funcion
Definicion
de valor medio se denota por mx (t) y se define por:
Su funcion
Z
mx (t) = E[X(t)] =
x fx(t) (x)dx
(Nucleo
Definicion
de covarianza). Sea {X(t),t T } un proceso estocastico
define como:
de una partcula
torias. Por ejemplo, supongase
que X(t) representa la posicion
en movimiento rectilneo no acelerado con velocidad constante. X(t) se define en
de una posicion
inicial X0 y una velocidad V de la siguiente forma:
funcion
X(t) = X0 +V t
Su funcion
de covarianza se calculan a continuacion:
72
UNIDAD 3. INTRODUCCION
ceso estocastico
en el sentido en que solo dependen de los instantes de tiempo
considerados.
3.4.
de
Frecuentemente, es mas
a traves
de como
una caracterizacion
este evoluciona en el tiempo, pues los incrementos,
seno cambios de estado de un proceso generalmente poseen propiedades mas
cillas que las variables mismas de la secuencia aleatoria. Primero debemos definir
que entendemos por incremento:
(Incremento). Dado un proceso aleatorio {X(t),t T }, un incremento
Definicion
o cambio de estado de un proceso en un lapso de tiempo,
representa la evolucion
coleccion
en T linealmente ordenados, t1 , . . . ,tn , que satisface t1 <
. . . < tn . Se dice que X(t) es un proceso con incrementos independientes si las
variables aleatorias X(t2 ) X(t1 ), . . . , X(tn ) X(tn1 ) son independientes.
73
menos intuitivamente) que si conocemos las distribuciones de Y (t0 ),Y (t1 ), . . . ,Y (tn )
conjunta de X(t0 ), X(t1 ), . . . , X(tn ). Esto se
podemos determinar la distribucion
caracterstica conjunta y la propiedad de inpuede verificar mediante la funcion
dependencia de los incrementos. Por una parte, segun
esto ultimo:
Y (t0 ),...,Y (tn ) u0 , , un = Y (t0 ) u0 Y (tn ) un
(3.4.1)
= E ei
(3.4.2)
de los parametros
z0 = u0 u1 ,
...
, zn1 = un1 un ,
zn = un
o equivalentemente:
u0 = z0 + . . . + zn , u1 = z1 + . . . + zn ,
...
, un = zn
74
UNIDAD 3. INTRODUCCION
la estacionariedad de un fenomeno
aleatorio se refiere a que el mecanismo que lo
produce permanece invariante en el tiempo.
(Incrementos estacionarios). Un proceso es de incrementos estacioDefinicion
de probabilidad de los incrementos X(t1 + h) X(t1 ) y
narios si la distribucion
X(t2 + h) X(t2 ) es igual para valores positivos cualesquiera de t1 ,t2 y h.
se puede colegir que la distribucion
de los incrementos estaDe esta definicion
cionarios solo depende de la amplitud del intervalo de tiempo h. La idea de estacionariedad se puede extender a la secuencia de variables aleatorias que conforman
el proceso estocastico
en s.
(Proceso estocastico
Definicion
estrictamente estacionario de orden n). Sea T
un conjunto de ndices de linealmente ordenados tal que la suma de dos miem pertenece a T y consideremos un proceso esbros cualesquiera de T tambien
tocastico
{X(t)|t T } definido sobre ese conjunto de ndices temporales. Se
dice que {X(t)|t T } es un proceso estrictamente estacionario de orden n si la
conjunta de un par de vectores aleatorios de dimensi
n arbitraria
distribucion
on
X(t1 ), X(t2 ), . . . , X(tn ) y X(t1 + h), X(t2 + h), . . . , X(tn + h) es la misma para
todo t1 , t2 , . . . , tn y h en T .
Un proceso estocastico
es estrictamente estacionario si es estrictamente es plantea que un
tacionario de orden n para todo entero positivo n. Esta condicion
proceso estrictamente estacionario esta en equilibrio probabilstico y que los instantes particulares en los cuales se observan el proceso no tienen relevancia. En
de X(t) es la misma para todo t .
particular, la distribucion
(Proceso estocastico
Definicion
debilmente
estacionario). Un proceso {X(t)|t
T } es debilmente
estacionario o estacionario en el sentido amplio si tiene momentos finitos de segundo orden, si mt (t) = m es constante para todo t y si
3.5.
75
Algunos tipos de procesos aleatorios: caminata aleatoria, martingalas, procesos de Markov, procesos de
Poisson, procesos de Wiener
la distribucion
Sn = S0 + Zi
i=1
tematicas
en el manejo de las martingalas y la segunda si resume en esencia lo
UNIDAD 3. INTRODUCCION
76
la siguiente definicion:
P{N(t) N(s) = k} = e
(ts)
k
(t s)
k!
77
tematico
del movimiento browniano, la fsica matematica
(la
mecanica
cuantica
y la teora relativista cuantica)
e investiga de la informacion.
Sin embargo,
ciones sobre la transmision
conocido por ser el padre de la cibernetica.
es mas
Fuente:
http://www.isss.org/lumwiener.htm
UNIDAD 3. INTRODUCCION
78
3.6.
Problemas resueltos
X|X +Y = s Hipergeometrica
n + m, s,
n
n+m
Solucion
La suma X +Y de dos variables aleatorias binomiales e independientes es una variable aleatoria binomial:
m
q + p eiu
n
= q + p eiu
m+n
Especficamente, X + Y Binomial(n + m, p). Por lo tanto, la probabilidad condicional P{X = s|X +Y = s} es:
P{X = s|X +Y = s} =
m
sx
x m+n
s
79
X|X +Y = s Hipergeometrica
n + m, s,
n
n+m
Solucion
las seis propiedades de la esperanza condicional
Para este problema se utilizaran
3.2) y la independencia de los incrementos.
(ver seccion
Propiedad 1
Propiedad 2
Por
independencia
de los incrementos y
por las propiedades
5y6
Sn = Xi
i=1
Solucion
UNIDAD 3. INTRODUCCION
80
E[Sn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= E[Sn + Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= E[Sn |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
+E[Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= sn + E[Xn+1 ]
= sn + 0 = sn
de Sn
definicion
Propiedad 1 de la esperanza
condicional
Propiedad 2; Propiedad 6
E[Xn ] = 0 para todo n
3.7.
Problemas propuestos
a) De cubito
supino y las manos cruzadas sobre su pecho, viendose
bella
2. Se coloca un termometro
en medio del desierto de Gobi para registrar la
Que clatemperatura durante las 24 horas del da, todos los das del ano.
se de proceso estocastico
es este en cuanto a su espacio de estados y su
espacio de parametros?
Dira usted que este proceso es de incrementos
estacionarios? Explique.
3. Supongase
que pedidos de cantidades variables (N ) de artculos arriban dia segun
de probabilidades:
riamente a un almacen
la siguiente distribucion
n
P(N = n)
10
0,05
11
0,15
12
0,30
13
0,30
14
0,15
15
0,05
81
distribuidas segun
1 y 2 respectivamente,
la ley de Poisson con parametros
entonces
X|X +Y = s Binomial s,
1
1 + 2
bucion
la informacion
en m pruebas (X > m)
pruebas (X = m + n).
es olvidada si se realizan mas
7. De manera analoga
al ejercicio anterior, demuestre que si T Exponencial(),
entonces P{T > m + n|T > m} = P{T > n} (propiedad de falta de memoria
de la exponencial).
8. Considerese
el proceso aleatorio X(t) = At + B donde A es una variable
aleatoria que toma los valores 3 y 4 con probabilidades 41 y 34 , respectiva de probabilidad P{B = 1} =
mente y B es una variable aleatoria con funcion
1
P{B = 2} = 2 . A y B son variables aleatorias independientes. Obtenga la
de valor medio y el nucleo
funcion
de covarianza del proceso aleatorio.
independientes con esperanza 0 y varianza 2 (caminata aleatoria simetri de valor medio y el nucleo
ca). Calcule la funcion
de covarianzas del proceso
{Sn }.
82
UNIDAD 3. INTRODUCCION
15. (La cadena de Ehrenfest) Motivado por problemas relacionados con la mecanica estadstica T. Ehrenfest describio un experimento con 2 urnas, dentro de
distribuidas N moleculas.
83
84
UNIDAD 3. INTRODUCCION
Unidad 4
Caminatas Aleatorias y
Movimiento Browniano
85
86
Objetivos de la Unidad
de una familia de proceEl objetivo general de esta Unidad es hacer una exposicion
sos estocasticos
denominados como caminata aleatoria. As mismo, se hace una
del movimiento browniano y de su relacion
con la caminata aleatoria.
exposicion
4.1.
El proceso de Bernoulli
(a) Un inspector de calidad verifica si los productos de una lnea de ensamblaje son
4.2. LA CANTIDAD DE EXITOS
87
(b) Se monta una alcabala policial en un determinado punto y se paran a todos los
conductores que por ella transitan para verificar si portan armas, conducen un
vehculo robado o presentan alguna otra irregularidad. Bajo condiciones similares a las del ejemplo anterior, si la probabilidad de que un conductor presente
alguna irregularidad es constante e independiente entre los conductores que
descrita se puede modelar adecuavan transitando por la alcabala, la situacion
damente mediante un proceso de Bernoulli.
En todos estos casos, las variables constituyentes del proceso de Bernoulli re
presentan experimentos aleatorios con dos posibles resultados- exito
o fracaso. En
a continuacion.
4.2.
La cantidad de exitos.
Caminatas aleatorias basadas
en procesos de Bernoulli.
ocurridos en el n-esimo
ensayo y los n 1 ensayos anteriores, se define un nuevo proceso aleatorio que es una caminata aleatoria, pues lo que sucede en cada
se puede modelar mediante la secuencia aleatoria {Si |i 1} definida
observacion
como:
n
Sn = Xi
(4.2.1)
i=1
proximos
m ensayos de un proceso de Bernoulli (Sn+m Sn ) es independien
te de la cantidad de exitos
registrados en los n 1 ensayos anteriores.
88
exitos.
Matematicamente:
P{Sn+m Sn = sm |S1 = s1 , S2 = s2 , . . . , Sn = sn } =
P{Sm = sm }.
por ser Sn definida como la suma de n incrementos no negativos
Ademas,
(los Xi son siempre iguales a 0 o a 1), Sn es una secuencia creciente. Por
de Sn como
aun
de la definicion
su distribucion
E[Sn ] = E
V [Sn ] = V
Xi
Xi
i=1
n
i=1
= E[Xi ] = p = np
(4.2.2)
= V [Xi ] = pq = npq
(4.2.3)
i=1
n
i=1
i=1
n
i=1
# ---------------------------------------------------------------# 4_1. R
# simulacion de una trayectoria de una caminata aleatoria
# basada en el numero de exitos en i ensayos de Bernoulli .
# autor : Jose L. Romero P.
# fecha : 16/8/2011
# ---------------------------------------------------------------pe <- 0.4
# pe es la probabilidad de exito en cada ensayo
b <- sample(size=15 ,c(0 ,1) ,prob=c(1 -pe,pe),replace=TRUE)
s <- c(0 ,cumsum(b))
tiempo <- 0:15
png(" bernoulli1 . png ")
plot(tiempo,s,type="s" ,xlab=" tiempo \n(i)" ,
ylab=expression(S[i]) ,lwd=6 ,axes=FALSE)
ejex <- 0:15
ejey <- 0:max(s)
axis(1 ,at=ejex,labels=ejex,pos=0)
axis(2 ,at=ejey,labels=ejey,pos=0)
# dibuja las lineas del reticulado
abline(v=1:15 ,lty=3 ,col=" black ")
4.2. LA CANTIDAD DE EXITOS
21
22
23
89
90
n
n s ns
P{Sn = s} =
p q , para 0 s n
s
4.1, en conjuncion
con las obserEn la practica,
la formula
de la Proposicion
vaciones hechas anteriormente sobre la independencia y estacionariedad de los
4.3.
sobre las
La cantidad de ensayos hasta r exitos:
mas
caminatas aleatorias basadas en procesos de Bernoulli.
aleatorias representa los instantes o ensayos en los cuales ocurre los exitos
sucesi
vos. Intentemos esquematizar esto matematicamente.
Si por ejemplo tenemos una
trayectoria de un proceso de Bernoulli como esta: x1 = 0, x2 = 0, x3 = 1, x4 = 0,
x5 = 1, . . . , la trayectoria del proceso que estamos definiendo sera t1 = 3, t2 = 5,
exito.
ndice k de aquella secuencia donde ocurre el i-esimo
Que podemos decir sobre el comportamiento de esta secuencia aleatoria?
En primer lugar, debe ser una secuencia estrictamente creciente, porque el i-esi-
4.3. CANTIDAD DE ENSAYOS HASTA R EXITOS
91
mo exito
ocurre en el ensayo Ti , el siguiente exito
necesariamente ocurre despues
y se tiene que Ti+1 > Ti para cualquier i. De modo intuitivo, constatamos que los
incrementos de este proceso son idependientes y estacionarios (esto se puede
demostrar). El razonamiento de ello es a grandes rasgos el siguiente: el mecanismo subyacente que produce la secuencia {T j | j 1} es el proceso de Bernoulli
de variables independientes cuyo parametro
que despues
exito
ocurren n 1 fracasos sucesivos, luego de los cua
riza el numero
de ensayos de Bernoulli hasta el j-esimo
exito,
entonces
demostracion:
P{Tk+1 = n|T1 , T2 , . . . , Tk } = P{Tk+1 = n|Tk } =
0
si Tk n
qn1Tk p si Tk < n
Esto ademas
{T j | j 1} goza de la propiedad de Markov. Antes de proceder aclararemos de una vez que T0 = 0 porque
con el 0-esimo
exito
ocurre el 0-esimo
ensayo con probabilidad uno. Ahora surge
la pregunta: Como
se distribuyen los {T j , j 1}?. Si ha ledo atentamente esta
, muy probablemente ya lo haya adivinado:
exposicion
n 1 k nk
P{Tk = n} =
pq
paran = k, k + 1, . . .
k1
En lo anterior se establece que cada Tk en la secuencia aleatoria {T j | j 1} se
distribuye segun
la ley binomial negativa. Existen varias formas de demostrar esto,
92
expedita para nosotros es tomar en cuenta que este proceso es, despues
de
la mas
todo, una caminata aleatoria; cada variable Tk es una sumatoria de k incrementos
independientes e identicamente
distribuidos, es decir:
caracterstica de Tk es:
geometrica,
entonces la funcion
Tk (u) =
peiu
1 qeiu
k
pTk (n) =
n1
k1
pk qnk si n k
0
si n < k
# ---------------------------------------------------------------# 4_2. R
# simulacion de una trayectoria de una caminata aleatoria
# basada en el numero de ensayos de Bernoulli hasta alcanzar el
# i - esimo exito .
# autor : Jose L. Romero P.
# fecha : 16/8/2011
# ---------------------------------------------------------------pe <- 0.4
# pe es la probabilidad de exito en cada ensayo
b <- sample(size=20 ,c(0 ,1) ,prob=c(1 -pe,pe),replace=TRUE)
Ti <- c(0 ,which(b==1))
ensayo <- 0:(length(Ti) -1)
png(" bernoulli2 . png ")
plot(ensayo,Ti,type="S" ,xlab=" exito \n(i)" ,
ylab=expression(T[i] - ensayos),lwd=6 ,axes=FALSE)
ejex <- ensayo
ejey <- 0:max(Ti)
axis(1 ,at=ejex,labels=ejex,pos=0)
axis(2 ,at=ejey,labels=ejey,pos=0)
# dibuja las lineas del reticulado
abline(v=1:(length(Ti) -1) ,lty=3 ,col=" black ")
abline(h=1:max(Ti),lty=3 ,col=" black ")
23
24
93
de R
Como elemento novedoso en el script precedente, observamos la funcion
which, la cual devuelve un vector con los ndices de los elementos que satisfacen
logica
la expresion
en su argumento. En este caso, which devuelve los ndices de
4.4.
Para reforzar el aprendizaje del contenido de las secciones 4.1 - 4.3 se plantean
En lo que sigue, se asume que {Si |i 1} se refiere
los ejercicios a continuacion.
a una caminata aleatoria basada en un proceso de Bernoulli con probabilidad de
exito
en cada ensayo igual a p y cuyas variables aleatorias Si se corresponden a la
cantidad de exitos
en i ensayos.
94
Solucion
4.1, se
(a) En virtud de las observaciones en la pagina
87 y segun
la Proposicion
tiene:
4 2 2
P{S7 S3 = 2} = P{S4 = 2} =
p q = 6p2 q2
2
(b)
P{S3 = 2, S5 = 4, S1 1 = 7} = P{S3 = 2, S5 S3 = 2, S1 1 S5 = 3}
Los incrementos en la probabilidad anterior son todos independientes entre s,
anterior es igual a:
de modo que la expresion
95
4.3, se asume
Para los siguientes problemas resueltos, referentes a la seccion
que {T j | j 1} caracteriza a los tiempos (numero
de ensayos) hasta los respec
tivos j-esimos
exitos,
donde cada ensayo se basa en un proceso de Bernoulli con
probabilidad de exito
igual a p.
Solucion
(a)
96
propiedad de Markov de {T j | j 1}
= E[T6 T3 ] + T3
3
= + T3
p
4.2 y propiedad 2
Proposicion
4.5.
Fn = Xi
i=0
P{Xi = 1} = p
P{Xi = 1} = 1 p = q
97
Teora de Juegos, se trata de un juego de suma cero1 . Asumamos que este juego
de suma cero termina cuando alguno de los participantes se arruina, lo cual ocurre
cuando la fortuna del jugador alcanza los T BF, en cuyo caso se arruino la casa, o
Los estados 0 y T
la fortuna del jugador llega a 0 BF, en cuyo caso se arruino el.
de la fortuna del jugador se denominan barreras absorbentes , porque una vez que
sale de ellos.
la trayectoria toca alguno de esos estados, jamas
Una pregunta interesante en torno a este juego es la siguiente: partiendo de
un capital inicial de x BF, cual es la probabilidad de que el jugador se arruine?
Esta pregunta constituye el problema de la ruina del jugador . Para abordar este
Rx = pRx+1 + qRx1
(4.5.1)
Rx = P (ruina|{Fn = x})
para algun
n
(4.5.2)
Luego:
1
Los juegos en los que los intereses de los jugadores son diametralmente opuestos se llaman de
98
P ruina {Fn = x}
= P ruina {Fn = x} {Xn+1 = 1} {Xn+1 = 1}
= P ruina {Fn = x} {Xn+1 = 1}
+ P ruina {Fn = x} {Xn+1 = 1}
precedente la definicion
de la probabilidad
Por otro lado, utilizando en la ecuacion
condicional, que establece que P{A B} = P{A|B}P{B}, se tiene
P ruina{Fn = x} P{Fn = x}
(4.5.3)
= P ruina {Fn = x} {Xn+1 = 1} P {Fn = x} {Xn+1 = 1}
+ P ruina{Fn = x} {Xn+1 = 1} P {Fn = x} {Xn+1 = 1}
= P ruina{Fn = x} {Xn+1 = 1} P{Fn = x}P{Xn+1 = 1}
+ P ruina{Fn = X} {Xn+1 = 1} P{Fn = x}P{Xn+1 = 1}
La ultima
igualdad en (4.5.3) se debe a la independencia entre Xn+1 y Fn . Aunado
a eso:
{Fn = x} {Xn+1 = 1}
P ruina
= P ruina{Fn+1 = x + 1} = Rx+1
{Fn = x} {Xn+1 = 1}
P ruina
= P ruina{Fn+1 = x 1} = Rx1
(4.5.4)
as la validez de la formula
recursiva dada en (4.5.1).
99
an = an1 +
(4.5.5)
Rx+1 Rx =
q
(Rx Rx1 )
p
(4.5.6)
x1
q
Rx Rx1 =
(R1 R0 )
p
Con respecto a este resultado, se observan dos inconvenientes: 1) todava se
en diferencias resultante, pero el
desconoce R1 y 2) Podramos resolver la ecuacion
Ver NEUMAN.
100
x1
q
RT R0 = Rx Rx1 =
(R1 R0 )
x=1
x=1 p
T
T 1
1 = RT R0 = (R1 R0 )
x=0
q
p
x
precedente, y segun
A partir de la ecuacion
el valor de p, se tiene:
1
T
1 qp
(R1 R0 ) = T
q
1
p
Si p = q = 21
(R1 R0 ) =
Si p 6= q
(4.5.7a)
(4.5.7b)
i1
q
(R1 R0 )
Rx R0 = Ri Ri1 =
i=1
i=1 p
x i1
x1 i
q
q
Rx = R0 +
(R1 R0 ) = 1 + (R1 R0 )
p
i=1
i=0 p
x
Si p = q =
1
,
2
Si p 6= q,
Rx = 1
101
x
T x
=
T
T
x
T x
q
1 qp
qp
p
Rx = 1 + T
= T
q
q
1
1
p
p
(4.5.8a)
(4.5.8b)
# ---------------------------------------------------------------# 4_3. R
# probabilidad de la ruina de un jugador
# autor : Jose L. Romero P.
# fecha :29/7/2007
# ---------------------------------------------------------------# Ruina : funcion que arroja 1 si el resultado de una caminata
# aleatoria es la ruina , 0 en caso contrario .
# argumentos :
# x= capital inicial del jugador ,
# T= capital total
# p= probabilidad de ganar 1 en cada turno
Ruina <- function (x,T,p) {
j <- x # asigna capital inicial
while (j %in % 1:(T-1))
j <- j + sample(c( -1 ,1) ,1 ,replace=TRUE,c(1 -p,p))
if (j==0) return(1) else return(0)
}
19
20
21
22
23
24
25
26
27
28
29
102
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
En el script 4 3.R hay algunos elementos interesantes que vale la pena ex detalle. Primeramente, se dan ejemplos de como
plicar en mas
definir funciones
(<-) y la palabra reservada function seguida
mediante el operador de asignacion
103
sera equivalente a
rradas entre corchetes ({}). El valor que retornara la funcion
que mediante el return. Las funciones replicate (lnea 26) y sapply (lnea 33
funcional y junto con otras
y lneas 42-46) son caractersticas de la programacion
funciones como lapply, tapply, mapply, Vectorize y otras afines, aplican la
dada en su argumento a traves
de todos los elementos de una estructura
funcion
de datos compuesta (vector, lista, etc.) proporcionada como argumento. La prime
ra, replicate, se invoca con dos argumentos: replicate(n,expr). La funcion
indicada por expr n veces y devuelve un vector de
entonces evalua
la expresion
reiterada de expr.
longitud n cuyos componentes son el resultado de la evaluacion
eficiente que emplear un for e ir concatenanEl uso de replicate es mucho mas
do progresivamente las expresiones a un vector mediante llamadas a c en cada
sapply(X,FUN) aplica la funcion
proporcionada como arciclo del for. La funcion
gumento FUN a cada elemento del vector X, devolviendo un vector de igual longitud
Figura 4.3: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,5
104
Figura 4.4: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,6
4.6.
105
tengase
en cuenta ademas
que nos trazamos en
formal con la verificacion
emprica
este curso es el de complementar la verificacion
proceso estocastico
- es una variable aleatoria que resume un aspecto del juego,
visto este
como una trayectoria de un proceso estocastico.
Estamos interesados en
del juego, es decir, nos interesa hallar:
determinar el promedio de la duracion
Dx = E[Tx ]
anterior, partiendo de
A tal fin, vamos a proceder como lo hicimos en la seccion
en diferencias:
la siguiente ecuacion
Dx = pDx+1 + qDx1 + 1
con D0 = DT = 0
(4.6.1)
lacion
de lo dicho anteriormente sobre un juego en donde el jugador
bien entender en que se bacomienza con un capital de 0 o T . Nos interesa mas
(4.6.1) en s. La clave de este asunto es escindir el juego en dos
sa la ecuacion
etapas:
106
(4.6.2)
Dx = E[Tx ] = bP{Tx = b} =
b
(4.6.3)
amena:
(ver paginas
97-101), transformandola
primero a una forma mas
Dx+1 Dx =
q
1
(Dx Dx1 )
p
p
(4.6.4)
107
Dx+1 Dx =
x
q
p
x
q
p
x
1 qp
(D1 D0 )
p 1 qp
1
(D1 D0 )
x
q
p
(4.6.5a)
pq
y para p = q:
Dx+1 Dx = (D1 D0 )
x
= (D1 D0 ) 2x
p
(4.6.5b)
sencillo
Vamos a abordar primero el caso en que p 6= q , que parece ser el mas
(modo ironico
on). Como en el problema de la ruina del jugador, no conocemos
para Dx+1 Dx hallada en el desarrollo
D1 D0 , pero sustituyendo la expresion
T 1
0 = DT D0 =
Dk+1 Dk
k=0
T 1
q
p
k
1
(D1 D0 )
k=0
k
q
p
pq
T 1
k
T
1
q
= D1 D0 +
p
pq
p q k=0
1 q T
p
1
= D1 D0 +
pq
1 qp
D1 D0 =
T
1
T p q
p 1 qp
108
x1
Dx = Dx D0 =
x1
Dk+1 Dk =
k=0
q
p
k=0
x1
k
1
(D1 D0 )
k
q
p
pq
k
x
1
q
=
+ D1 D0 +
p
pq
p q k=0
x
q
1
p
T
x
=
q
T
q
p
p 1 qp
x
T 1 qp
x
=
T p q
(p q) 1 qp
(4.6.6a)
obtenemos la formula
para D1 D0 :
T 1
0 = DT D0 =
Dk+1 Dk
k=0
T 1
(D1 D0 ) 2k = T (D1 D0 ) T (T 1) =
k=0
D1 D0 = T 1
en la formula
x1
Dx = Dx D0 =
109
x1
k=0
x1
(T 1 2k)
k=0
(4.6.6b)
Si le interesa ver una forma alternativa de deducir las formulas para la duracion
promedio del juego o la probabilidad de ruina del jugador, puede consultar el libro
es posible deducir estas formulas
de la UNA3 . Tambien
mediante los metodos
de
de ecuaciones en diferencias de segundo orden. En lo tangente a las
resolucion
emprica
formulas
(4.6.6a) y (4.6.6b), se deja al lector como ejercicio la verificacion
en lenguaje R (ver problema propuesto N 16).
mediante una simulacion
4.7.
promeLos calculos
de la probabilidad de ruina del jugador y de la duracion
dio del juego realizados en la secciones anteriores parecieran no ser de mucho
practico
interes
si se consideran estrictamente en el contexto literal y especfico de
del capital de un jugador apostando una unidad monetaria en cada
la fluctuacion
de todo caractersticas de un grupo de fenomenos
dinamicos
denominados como caminatas aleatorias, las cuales como se ha dicho
Es oportuno senalar
que algunos autores definen caminata aleatoria (o random
estricto que la caracterizacion
que se ha dado aqu del
walk ) de un modo mas
concepto. Segun
estos autores, una caminata aleatoria es una trayectoria en el
espacio para la cual:
3
110
es mas
estricta porque se asume que la
Decimos que esta caracterizacion
de cada paso de la caminata aleatoria es equiprobable. En el problema
direccion
promedio del juego, los cuales
de la probabilidad de ruina del jugador o la duracion
se dan en el contexto de una caminata aleatoria unidimensional, hemos asumido el
caso general bajo el cual las dos direcciones de cada paso no son necesariamente
alternativa, hemos asumido que
equiprobables. Sin embargo, como en la definicion
los pasos son de longitud constante (y unitaria). Para modelar la caminata aleatoria
(a)
(b)
111
El lector con un poco de curiosidad cientfica puede, al observar estas graficas, plantearse algunas preguntas como las siguientes:
matematico
que el utilizado en este libro. El lector interesado en ampliar sobre esto
puede consultar el Captulo 12 sobre caminatas aleatorias en el libro Introduction to Probability de Grinstead y Snell o el libro de An Introduction to Probability
Theory and Its Applications - Volume I de Feller. Por cierto, en el primero de estos libros se expone un resultado interesante que vamos a dar seguidamente sin
demostracion:
Si no hay barreras absorbentes en una caminata aleatoria, la probabilidad de retornar al punto de origen en una caminata aleatoria de una
o dos dimensiones es uno. En cambio, en tres dimensiones, la probabilidad de un retorno eventual al punto de partida es estrictamente
menor que uno - es de hecho aproximadamente igual a 0,654 .
El resultado anterior responde una de las preguntas planteadas anteriormente. Se invita al lector a investigar las respuestas a las otras preguntas mediante
simulaciones estocasticas.
4
112
fenomeno
que lleva su nombre. Fuente: http://es.wikipedia.
org/wiki/Robert_Brown
4.8.
Movimiento browniano
El termino
movimiento browniano se debe a Robert Brown (ver figura 4.6),
un cientfico botanico
escoces. Si bien Robert Brown no fue quien descubrio el
organica
o inorganica
, 2) por su irregularidad y aparente autonoma, el movimiento de estas partculas se asemeja al de los microorganismos, 3) este movimiento
del fluido, capilaridad, desprendimienno se produce por corrientes o evaporacion
fenomeno
.
113
rerum natura7 (Sobre la naturaleza de las cosas), que se traduce en los siguientes
terminos:
De los atomos
primordiales procede este movimiento,
moviendose
en la luz solar,
aunque no vemos los golpes que los incitan a ello.
Con impresionante perspicacia, Lucrecio se adelantaba a las ideas expuestas en un trabajo de Albert Einstein sobre el movimiento browniano publicado en
en que tambien
publico su artculo sobre la teora de la relatividad y
19058 , ano
. Basandose
en la hipotesis
atomica,
y ampliando los resultados derivados por
Maxwell, segun
los cuales las partculas del fluido no tenan todas la misma ve de velocidades, Einstein explica matematicamente
puede soslayar: aunque sus argumentos no dan pie a una teora de la dinamica
de las partculas en movimiento browniano, determinan la naturaleza estadstica
7
9
Pernas, D. y otros (2004).
Ver Cazas
10
Pernas, D. y otros (2004).
Consultar Cazas
8
114
11 . Eventualmente, a partir de
del fenomeno
y el valor del coeficiente de difusion
estos resultados, Perrin hallara el numero
de Avogrado experimentalmente, por lo
parametro
continuo. {X(t)|t 0} es un proceso de Wiener si:
(I) X(0) = 0.
(II) X(t) es casi seguro continuo.
(III) X(t) es de incrementos independientes, estacionarios
y normalmente distri
buidos: X(t) X(s) Normal 0, 2 (t s) .
casi seguro continuo es un termino
La posicion
16
fue seguida por L. Bachelier y posteriormente motivo a A.
Feller acota que esta aproximacion
Kolmogorov a desarrollar los fundamentos formales de los procesos de Markov. Bachelier fue el
115
unidad de tiempo, supongase que ocurre cierta cantidad n muy grande de colisio la partcula grande se desplaza hacia la derecha o
nes, y que en cada colision,
hacia la izquierda cierta distancia infinitesimalmente corta. Estas suposiciones
demasiado simplificadoras, pero, recordando que se trata de un modelo
son quizas
matematico,
tienen su justificacion:
las colisiones no
generan desplazamientos constantes en cualquiera de las dos direcciones, estos
se pueden promediar. Por otra parte, es concebible subdividir el tiempo, que es
una magnitud continua, en lapsos infinitesimalmente cortos de modo que en cada
Esto supone ademas
que existe un numero
uno se registre a lo sumo una colision.
enorme de atomos
en el fluido que colisionan constantemente con la partcula.
es una caminata aleatoria basada en ensayos de BerEl modelo en cuestion
X(t + 1) X(t) = Zi
i=1
de una sucesion
variables aleatorias Bi del
se pueden definir los Zi en funcion
siguiente modo:
Zi = (2Bi 1)
P{Zi = } = q = 1 p
P{Zi = +} = p
(4.8.1)
116
X(t + 1) X(t) = Zi
i=1
n
= (2Bi 1) = (2Sn n)
i=1
(4.8.2)
los calculos
correspondientes y basandose
en razonamientos similares a los utilizados anteriormente, se determina que:
X(t) X(s) Normal 0, 2 (t s)
Como los ensayos de tipo binomial representados por los Zi son estocasticamente independientes y equidistribuidos, y en virtud de que dos incrementos no
superpuestos de tipo X(t) X(s) se componen de series de ensayos Zi no superpuestos y por lo tanto independientes, se sigue que el {X(t)|t 0} as caracterizado, es un proceso de incrementos independientes y estacionarios. Adicionalmente
18
Se requiere que n (t s) sea entero, pero t s es real. Esto no presenta mayores problemas
porque n es un numero
muy grande.
117
de la definicion
de proceso de Wiener, concluyendo que
vale la tercera condicion
este proceso, caracterizado por una serie muy grande de ensayos de tipo binomial,
es un proceso de Wiener.
Es oportuno dilucidar algunos aspectos, el primero siendo el significado de la
constante 2 . Esta constante representa la variabilidad de los incrementos de tiem2 19 . El segundo es que,
po unitario y se podra estimar empricamente mediante Sn1
segun
la forma en que se construye el proceso de Wiener, se puede constatar que
el desplazamiento futuro de una partcula que efectua
un movimiento browniano no
depende de su trayectoria pasada, y que el mecanismo aleatorio que genera estos
desplazamientos permanece inalterable a lo largo del tiempo. En presencia de un
con un corpusculo,
del fenomeno
de partculas atomicas
en colision
existe una
fluctuaciones
el equilibrio y la partcula efectua
lentamente, aunque con pequenas
determinada.
hacia arriba o hacia abajo, un desplazamiento en una direccion
del proceso de Wiener dada
Para este ultimo
caso, se generaliza la definicion
del proceso de
Wiener generalizado u homogeneo con desplazamiento, en funcion
Wiener con media nula:
0} un proceso estocastico
de parametro
continuo.{W (t)|t 0} es un proceso de
Wiener homogeneo
con desplazamiento si:
19
2
Por Sn1
se denota la varianza muestral insesgada, definida como
(Xi X)2
i=1
n1
118
4.9.
cierta posicion
es la probabilidad de que dicha partcula alcance el extremo a antes que el
extremo b? O conversamente, Con que probabilidad alcanza a b antes que
a a?20
promedio necesaria para que una partcula en movi2. Cual es la duracion
miento browniano alcance alguna de las barreras absorbentes?
Estas cuestiones nos remiten de nuevo al problema de la ruina del jugador, que
1. Los montos de los capitales (x, y y T ) son siempre cantidades enteras mayores o iguales a cero. En el contexto del movimiento browniano, esto sera
de la partcula a puntos enteros durante toda
equivalente a limitar la posicion
su trayectoria a lo largo de la recta real.
de
2. En cada instante discretizado de tiempo, el capital del jugador (la posicion
la partcula, respectivamente) aumenta o disminuye en una unidad. Nuevamente, esto presenta ciertas dificultades para la aplicabilidad al estudio del
movimiento browniano. Por una parte, los incrementos de 1 implican un
movimiento discontinuo, cuando el proceso de Wiener que modela al movi casi siempre continuo. Por otra parte,
miento browniano es, por definicion,
los incrementos unitarios fijos no capturan adecuadamente la variabilidad de
los incrementos en un movimiento browniano, cuyas desviaciones de cero
119
calculo
de la probabilidad de alcanzar una u otra barrera absorbente en un mo de tiempo promedio de
vimiento browniano unidimensional, as como la duracion
E[Zi ] = (1 p) + p = (2p 1) =
E[Zi2 ]
2 2
+
= =
n
n
2
p
n2 + 2
+ n2 +2
p =
2
2
=
1
n
(4.9.1)
n +
120
"
ba
=n p
2
2
" n + #
x0 a
x =n p
n2 + 2
(4.9.2)
((4.9.2)), la division
por es un cambio de
En las ecuaciones de traslacion
Rx0 =
!n
p
n2 + 2
p
n2 + 2 +
ba
n2 +2
!n
p
n2 + 2
p
n2 + 2 +
!n
p
n2 + 2
p
n2 + 2 +
ba
x0 a
n2 +2
(4.9.3)
n2 +2
e2(bx0 )/ 1
Rx0 = 2(ba)/2
e
1
(4.9.4)
lm Rx0 =
b x0
ba
(4.9.5)
121
Esta ultima
expresion
((4.5.8a)), para el caso en que p = q. De forma analoga, se plantean las formulas para Dx0 . Es preciso aclarar que cuando se subdivide la unidad de tiempo en
((4.6.6a)) indica la duracion
promedio en
n subintervalos, y dado que la ecuacion
terminos
de subintervalos discretos infinitesimales de tiempo, se debe dividir la
de Dx entre n para obtener la duracion
promedio exprecorrespondiente expresion
sada en unidades de tiempo:
2(ax0 )/2
(b
a)
1
e
1
x0 a
Dx0 = lm Dx =
2
2(ab)/
n n
1e
(4.9.6)
lente a la formula
(4.6.6b)) para el caso en que p = q:
lm Dx0 =
4.10.
(x0 a)(b x0 )
2
(4.9.7)
Problemas propuestos
1. Una fabrica
produce recipientes cuya capacidad se verifica al finalizar el pro y se consideran defectuosos aquellos cuya capacidad
ceso de produccion,
esta por debajo de los 0,975 lt. o por encima de 1,025 lt. Pruebas estadsti
cas sugieren que la capacidad de un recipiente producido tiene distribucion
estandar
lidad de exito
p.
a) Calcule E[Sn+m |Sn ].
b) Calcule P{S7 = 4, S8 = 7}.
122
xi =
i=0
1 xn+1
1x
si x 6= 1
an = a0 + n
n
an = n a0 + 1
a
si = 1
si 6= 1
123
vez hasta que haya completado o perdido los 20 BF que tena. Compare
los meritos
de ambas estrategias. (Nota: una ruleta tiene 38 numeros
de los
cuales 18 son negros, en cada turno de ruleta se gana lo que se apuesta con
20
probabilidad p = 18
38 o se pierde con probabilidad q = 38 ).
124
Unidad 5
El procesos de Poisson
homogeneo
matematicas.
brir matematicas
y ensenar
de
distribucion,
elegira la Distribucion
Poisson.
T RES M UNDOS
Litografa - 1955
M.C. Escher
125
126
Objetivos de la Unidad
de los procesos de
El objetivo general de esta Unidad es hacer una exposicion
la cantidad de exitos
en n ensayos cuando n y p 0 pero np = es
Aplicar la distribucion
en los cuales los
objetos de cierta clase se distribuyen aleatoriamente en el espacio segun
un
Estudiar la relacion
y la distribucion
de procesos de Poisson espaciales.
uniforme y aplicar esto en la simulacion
5.1.
127
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
128
Tabla 5.1: Calculo de las probabilidades de recibir K llamadas en 3 minutos mediante aproximaciones sucesivas por medio del modelo binomial.
Variable aleatoria: X = numero
de llamadas recibidas en un lapso de 3 minutos.
n k
Ley de probabilidad binomial: P(X = k) =
p (1 p)nk
k
k
0
1
2
3
4
5
6
7
8
9
10
11
12
n=9
p = 0, 5
n = 72
p = 0, 0625
n = 576
p = 0, 0078125
n = 4608
p = 0, 0009766
n = 368649
p = 0, 0001224
0,001953125
0,017578125
0,070312500
0,164062500
0,246093750
0,246093750
0,164062500
0,070312500
0,017578125
0,001953125
0,000000000
0,000000000
0,000000000
0,009592502
0,046044010
0,108970823
0,169510170
0,194936695
0,176742603
0,131575049
0,082704317
0,044798171
0,021237652
0,008919814
0,003351688
0,001616506
0,010914422
0,049501632
0,112060781
0,168826478
0,190428291
0,171535406
0,128538998
0,082415331
0,046155830
0,022936580
0,010240190
0,004148853
0,002297208
0,011084598
0,049929451
0,112426676
0,168731600
0,189884897
0,170914969
0,128172304
0,082369633
0,046307757
0,023136275
0,010401146
0,004249931
0,002390768
0,011105946
0,049982856
0,112472106
0,168719601
0,189817275
0,170837865
0,128126661
0,082363787
0,046326488
0,023161045
0,010421198
0,004262581
0,002402592
En los calculos
siguientes se determina la respuesta exacta a esta pregunta.
de probabilidad binomial:
Considerando pues la funcion
n k
n!
P{X = K} =
p (1 p)nk =
pk (1 p)nk
k
k!(n k)!
k f actores
z
}|
{
n(n 1)(n 2) (n k + 1) k
=
p (1 p)nk
k!
Primero de define = np, de modo que p = n y 1 p = 1 n . Sustituyendo
anterior todos los terminos
en la ecuacion
que involucren p por sus expresiones
equivalentes en obtenemos:
129
n(n 1)(n 2) (n k + 1) k
nk
P{X = K} =
1
k!
n
n
nk
k
n(n 1)(n 2) . . . (n k + 1)
=
1
k!
n
n| n{z n}
k f actores
nk
1
2
k1
1
1 1
1
1
=
k!
n
n
n
n
n
k
k
1
2
k1
=
1
1
1 1
1
1
k!
n
n
n
n
n
k
lm
P{X = k}
n
k
k
1 n
1 n
1 1 n1 1 2n 1 k1
n
n k!
k
=
e
k!
= lm
(5.1.1)
Ya que, segun
lo recordado en nuestra clase de sexto grado de primaria cuando
estudiabamos
limites:
n
lm 1
= e ,
n
n
k
lm 1
=1 y
n
n
c
lm 1
=1
n
n
lm P{X = k} = e
k
k!
130
es que nos
Este resultado es muy importante por varias razones. Una razon
x
e si x N+
PX (x) =
x!
0
si x
/ N+
de
Se le sugiere al estudiante que demostrar que en efecto, la distribucion
de probabilidad valida
Historicamente,
la ley de probabilidad de Poisson esta asociada al estudio de la
muy numerosa
cantidad de eventos de cierto tipo que ocurren entre una poblacion
una poblacion.
Poisson (1781-1840) formulo en 1837 la distribucion
de frecuencias de el numero
debidas a patadas de caballos2 . La distribucion
de
131
wiki/Sim%C3%A9on_Denis_Poisson
Bajas Anuales
Frecuencias
0
109
1
65
2
22
3
3
4 o mas
1
del parametro
Bajas anuales
0
1
2
3
4 o mas
Observaciones de frecuencias absolutas (evidencia emprica)
Frecuencias
109
65
22
3
1
absolutas
Frecuencias
0,545 0,325 0,110 0,015
0,005
relativas
Observaciones esperadas segun
el modelo de Poisson
Probabilidades 0,543 0,331 0,101 0,021
0,004
esperadas
Frecuencias
absolutas
esperadas
108,6
66,2
20,2
4,2
0,6
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
132
5.2.
axiomatica
Derivacion
del proceso de Poisson.
de Poisson
Llegados a este punto, podemos entender que la ley de distribucion
de
Poisson a un determinado fenomeno
real? Como relacionamos la distribucion
de un determinado fenomeno,
debemos verificar que las probabilidad p de exito
se
de todos los ensayos y que los ensayos se realizan
mantenga constante a traves
de Poisson es
de forma independiente entre s. Si consideramos que la distribucion
un caso lmite de la binomial, entonces se vislumbra una respuesta a la segunda
pregunta.
En efecto, supongase
que estamos interesados en contar la cantidad de even
tos de cierto tipo que han sucedido hasta un instante de tiempo t . Para tal fenomeno,
hacemos las siguientes suposiciones:
AXIOMATICA
5.2. DERIVACION
DEL PROCESO DE POISSON.
133
que sucede en cada intervalo, sin importar cuan distantes en el tiempo sean
esos intervalos uno del otro. Segun
la terminologa de la Unidad 3, el proceso
de Poisson es un proceso con incrementos estacionarios.
3. Segun
5.1.1, vemos que subdi las deducciones que culminan en la formula
vidiendo el numero
de ensayos del modelo binomial en lapsos temporales de
continuacion.
Axioma 1 Para intervalos de tiempo disjuntos (no superpuestos), las cantidades
de eventos que ocurren en cada intervalo son independientes entre s. El
proceso de Poisson es un proceso con incrementos independientes.
Axioma 2 Defnase Z(x + t) Z(x) como la cantidad de eventos que ocurren en
un intervalo de tiempo [x, x + t) y Z(y + t) Z(y) como la cantidad de
eventos que ocurren en otro intervalo de tiempo [y, y + t), siendo ambos
intervalos de tiempo de la misma amplitud. Entonces, Z(x + t) Z(x) y
la misma distribucion
de probabilidades. El proceso
Z(y + t) Z(y) tendran
de Poisson es un proceso con incrementos estacionarios.
134
(5.2.1a)
(5.2.1b)
pequena
= 0. Observese
que las probabilidades P0 (t)
y P1 (t) son complementarias, de modo que la probabilidad que se produz eventos en un lapso de tiempo infinitesimalmente corto es
can dos o mas
P0 (t + t)
AXIOMATICA
5.2. DERIVACION
DEL PROCESO DE POISSON.
135
P0 (t + t) P0 (t)
t + 0(t)
= lm P0 (t)
= P0 (t)
t0
t0
t
t
P00 (t) = lm
P00 (t)
=
P0 (t)
diferencial sencilla y tomando en cuenta el Axioma 4 que
Integrando esta ecuacion
inicial P{Z(0) = 0} = P0 (0) = 1, deducimos finalmente
establece una condicion
que:
P0 (t) = et
(5.2.2)
(5.2.3)
La ecuacion
5
Una formula
para resolver tales ecuaciones diferenciales es la siguiente :
5
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
136
a la ecuacion
diferencial no homogenea
La solucion
Pn (t) = e
Zt
Pn1 (x) x dx
(5.2.4)
P1 (t) = et
et et dt = (t)et
(t)2 t
e
2
Z
(t)3 t
(t)2 t t
e e dt =
e
P3 (t) = et
2
6
P2 (t) = e
tet et dt =
..
.
(t)n
lo cual se
Claro esta,
de induccion,
deja como ejercicio propuesto para el estudiante (problema propuesto N 15). Re
cuerde que si se quiere demostrar cierta premisa An para todo n 0, el metodo
de
consiste en demostrar que A0 es cierto y que An An+1 .
induccion
En resumen, hemos visto en esta primera parte del presente capitulo las con
diciones o premisas bajo las cuales se produce un proceso estocastico
de Poisson
137
homogeneo.
La palabra homogeneo
se refiere a que la intensidad de flujo es
una constante en el tiempo, esto queda establecido por el Axioma 2 referente a los
incrementos estacionarios.
de un proceso
Ahora estamos en condiciones de volver a plantear la definicion
de Poisson homogeneo:
((t s))k
k!
5.3.
138
de un microscopio.
Figura 5.2: Esporas en un plato de petri vistas a traves
de bacterias, lo cual nos da las frecuencias absolutas empricas (hay n = 32 observaciones). Acto seguido calculamos el promedio (estimado) de bacterias por cada
al modelo de Poisson) y de ah, multiplicando dichas frecuencias relativas teoricas por el numero
total de observaciones, determinamos las frecuencias absolutas
fuese realmente
teoricas,
las cuales cabria esperarse si el fenomeno
en cuestion
un proceso de Poisson. Todo lo dicho se resume en la siguiente tabla:
El parametro
, con el cual se calculan las probabilidades de Poisson respecti-
139
k
0
1
2
3
4
5
6
7
Frecuencia
absoluta
(emprica)
1
7
13
6
4
0
0
1
Frec. absoluta
esperada
3.1684291
7.3269922
8.4718348
6.5303726
3.7753717
1.7461094
0.6729797
0.2223236
i xi
=
i=0
7
xi
0 1 + 1 7 + 2 13 + 3 6 + 4 4 + 5 0 + 6 0 + 7 1
= 2, 3125
32
i=0
Segun
lo que hemos desarrollado para este ejemplo hasta ahora, surgen algu 6:
nas preguntas, que se dejan como problemas propuestos al final de esta seccion
es el area
del parametro
seccion.
140
independientes e identicamente
distribuidas. Esto quiere decir que la cantidad de
bacterias observadas en una esquina del plato Petri es independiente de la canti aun,
condicion
y el fenomeno
ya no sera un proceso de Poisson homogeneo.
Dicho de otro modo,
los axiomas 1 y 2 parecen indicar que los eventos en un proceso de Poisson se
distribuyen uniformemente en el tiempo (o el espacio en este caso), pero esto es
que abordaremos posteriormente. Por ultimo,
una cuestion
el axioma 3 plantea la
existencia de un parametro
que representa la cantidad promedio de eventos que
se producen en un intervalo de tiempo de longitud unitaria y que permanece cons
tante en el tiempo. En el caso de un proceso de Poisson espacial homogeneo
como
el que estamos tratando, viene a representar la cantidad promedio de bacterias
141
de densidad de D es:
por unidad de area,
entonces la funcion
fD (y) = 2.ey
(5.3.1)
fD (y) = 4y2 .e 3 y
(5.3.2)
Demostracion
(caso bidimensional)
Primero, observese
que P{D > y} denota la probabilidad de que un circulo de
de densidad:
Y si derivamos con respecto a y obtenemos la funcion
caso tridimensional es parecido) nos damos cuenta que D sigue una distribucion
de densidad se caracteriza por dos parametros
142
x
f (x; , ) = x1 e
E[D] = 1 + 1
V [D] =
y
2
1 + 2 1 + 1
5.4.
Una forma alternativa de estudiar un proceso de Poisson es mediante la obser de los tiempos que transcurren entre eventos sucesivos, en contraposicion
a
vacion
observar la cantidad de eventos que se producen en un lapso de
tiempo de longitud fija, como hemos venido ha
ciendo hasta ahora. Para ilustrar esto, supongase que estamos interesados en estudiar el proceso asociado a la llegada de clientes a un banco. Es este contexto, consideraremos que se
produce un evento cuando un cliente entra por
la puerta principal del banco. Es razonable suponer que estos eventos se producen conforme
a un proceso de Poisson? Vamos a analizar la
(de la llegada de clientes a un banco)
situacion
a la luz de los axiomas que definen al proceso de Poisson y verificar, a grosso modo y de
Petroleum & Cactus bank
Vineta
en Tintin en America
manera intuitiva, si se cumplen las condiciones
Herge
mencionadas.
143
en componentes electricos,
que se deben generalmente en picos de voltaje (altos
o bajos) y no al tiempo que lleva funcionando el componente (cuando el funcio las
namiento del componente no supone desgaste del mismo). En contraposicion,
Entre las 9:00 y 9:15 am llegaron muchos clientes al banco. Un cliente que
digamos a las 9:23am, observa que el banco esta lleno y
llega despues,
decide no entrar al banco para volver luego cuando no haya tanta cola. Aun
144
de llegada (tambien
) debe ser
esto no quiere decir
constante durante el periodo de tiempo considerado. Atencion,
que siempre llegara la misma cantidad de clientes por hora al banco. Si fuese as,
Durante los das de quincena o los viernes (pago semanal de obreros), llegan
clientes al banco para cobrar su salario.
mas
En un da normal, la tasa de llegada de clientes puede variar segun
la ho
llegadas en horas pico, cuando la gente sale de su
ra, produciendose
mas
trabajo, por ejemplo.
eventos ocurran en un
Segun
el Axioma 3, la probabilidad de que dos o mas
mismo lapso de tiempo infinitesimalmente corto es virtualmente nula. Sin embargo,
no es difcil imaginarse momentos en los cuales entran varios clientes al banco al
que mencionamos arriba de varios clientes
mismo tiempo, como por ejemplo aquel
que llegan en grupo. No obstante, por razones de seguridad la mayora de los bancos restringen la entrada a una persona a la vez y en efecto los clientes terminan
no entrando todos al mismo tiempo.
Los ejemplos que citamos arriba de condiciones bajo las cuales se violan los
supuestos teoricos
de los procesos de Poisson son de hecho desviaciones del
145
este proceso? Claramente, el tiempo que transcurre entre dos llegadas de clientes
{Tn |n N+ }
P(Tn t) = 1 et , ,t > 0
que si los Tn son exponencialmente distribuidos, cabra
Recordemos ademas
esperar en promedio 1 minutos (o cualquier otra unidad de tiempo conveniente)
Sn = Ti
i=1
5.2 en la descripcion
del axioma 3.
Ver seccion
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
146
de
llegada del n-esimo
cliente. Se puede deducir de algun
modo la distribucion
probabilidad de los Sn ? Teniendo en cuenta que Sn es una suma de n variables
independientes e identicamente
distribuidas, se puede deducir mediante el uso de
caracterstica o el desarrollo de las convulsiones que Sn es una variable
la funcion
Gamma). Por lo tanto,
distribuida segun
la ley de Erlang (ver tabla 1.2 , distribucion
de densidad es:
su funcion
fSn (t) =
(t)n1 et , ,t > 0
(n 1)!
Como
se distribuye N(t) si los tiempos inter-arribos son independientes e identicamente distribuidos segun
la ley exponencial? Veamos: N(t) = n representa el
suceso que se produce cuando han entrado exactamente n clientes al banco en
el transcurso de [0,t] minutos. Este suceso es equivalente al siguiente: El tiempo
=
0
(x)n1 ex dx
(n 1)!
Zt
(x)n ex dx
n!
Zt
P{N(t) = n} =
(t)n
(x)n1 ex dx + et
(n 1)!
n!
= et
Zt
0
(t)n
n!
(x)n1 ex dx
(n 1)!
147
trafico),
el proceso resultante es un proceso de Poisson. Se puede demostrar tam aunque no se hara en esta exposicion,
que los tiempos inter-eventos de un
bien,
parametro
. En resumen, establecemos el siguiente teorema:
de los tiempos inter-eventos en un proceso
Teorema 5.3 (Sobre la distribucion
de Poisson homogeneo).
Sea {N(t)|t > 0} un proceso de Poisson homogeneo
con tasa de intensidad de flujo igual a . Entonces, el tiempo entre dos eventos
sucesivos se distribuye segun
una ley de probabilidad exponencial con densidad
fTn (t) dada por:
fTn (t) = et , ,t > 0
homogeneo.
del proceso de Poisson tiene una consecuencia de capital
Esta caracterizacion
importancia practica
para nosotros: para simular un proceso de Poisson en el
tiempo, debemos generar una secuencia de numeros
aleatorios exponencialmente distribuidos. La suma acumulada de dicha secuencia representara entonces los tiempos exactos en que suceden los eventos de tipo Poisson.
que existe entre
Ya desde el comienzo de esta unidad planteamos la relacion
el proceso estocastico
asociado a la cantidad de exitos
en n ensayos de bernoulli
4.2) y el proceso de Poisson homogeneo,
(ver la seccion
sintetizada en el Teorema
en la unidad sobre caminatas aleatorias de este
5.1. Pero en la siguiente seccion
acabamos
distribuye segun
. En esta seccion,
una ley de probabilidad geometrica
de plantear que en un proceso de Poisson, los tiempos inter-eventos se distribuyen
exponencial?
relacionadas la distribucion
y la distribucion
entre ambas distribuciones es que ambas gozan de la propieUna relacion
4.3.
Ver seccion
4.2.
Ver la Proposicion
12
Ver problemas propuestos N 6 y N 7 de la unidad 3.
11
148
de la distribucion
completamente analogo
con lo que plantea el Teorema 5.1:
exponencial como caso lmite de la distribucion
Demostracion
entre el numero
Consideramos la relacion
de ensayos x que se realizan y el tiempo
x
n
1
x = h (t) = tn
t = h(x) =
la funcion
correspondiente al numero
de ensayos entre
gX (x) = (1 p)x1 p
fT (t) = n
lm gX
=np
149
dx
h (t)
dt
1
tn1
= lm 1
n
n
n
n
= et
Tiempo discreto
(numero de ensayos)
Tiempo continuo
(segundos, minutos,
etc.)
Cantidad de exitos
(resp.
eventos) en n ensayos (resp.
en un lapso de tiempo t )
Distribucion
binomial
Distribucion
de Poisson
exitos
(resp. tiempo entre
eventos)
Distribucion
geometrica
Distribucion
exponencial
el r-esimo
exito
(resp. tiempo entre r eventos)
Distribucion
binomial
negativa
Distribucion
de Erlang
(Gamma)
150
5.5.
establecer. Supongase
que en un horizonte de 0 a 20 unidades de tiempo observa en esa ventana de tiempo ocurrieron
mos un proceso de Poisson y que ademas,
UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION
151
# ---------------------------------------------------------------# 5_1. R
# Distribucion de aleatoria de puntos sobre una recta , segun
# a) la distribucion uniforme
# b) la distancia entre puntos es exponencial ( Poisson )
# autor : Jose L. Romero P.
# fecha : 24/08/2011
# ---------------------------------------------------------------png(" poisson -y - uniforme %02d. png ")
# primero se simula el proceso de poisson desde 0 a tmax unidades
# de tiempo
alfa <- 1
tmax <- 20/alfa
tiempos.de.llegada <- NULL
tiempo <- 0
while (tiempo < tmax) {
tiempo <- tiempo + rexp(alfa)
tiempos.de.llegada <- c(tiempos.de.llegada,tiempo)
}
l <- length(tiempos.de.llegada)
tiempos.de.llegada <- tiempos.de.llegada[1:(l-1)]
plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
ylab="")
points(x=tiempos.de.llegada,y=rep(0 ,l-1) ,col=" steelblue2 " ,
cex=1.5 ,bg=" steelblue4 " ,pch=21)
axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
labels=seq(from=0 ,to=tmax,by=5))
# se distribuye la misma cantidad de eventos sobre la recta
# mediante la distribucion uniforme
uniforme <- runif(n=l-1 ,min=0 ,max=tmax)
plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
ylab="")
points(x=uniforme,y=rep(0 ,l-1) ,col=" tomato " ,
cex=1.5 ,bg=" tomato4 " ,pch=21)
axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
labels=seq(from=0 ,to=tmax,by=5))
mas
importante aprendida
En este programa estamos incorporando la leccion
en el aparte anterior: para obtener los tiempos de ocurrencia de los eventos en
de un proceso de Poisson, deben obtenerse muestras de numeros
la simulacion
152
1. La distribucion
y en otra no son identicas,
pero son muy similares. Esto se debe a que el mecanismo aleatorio que las
genera es identico
en una y en otra, resultado que pretendemos demostrar
matematicamente
en lo que sigue.
2. Hay cierta tendencia en ambas figuras a que los puntos se aglomeren unos
muy cercanos a otros. De hecho, hay algunos puntos que casi coinciden (son
del proceaquellos crculos muy pegados unos de otros). En la realizacion
muy sencilla: la distancia (tiempo)
so de Poisson esto tiene una explicacion
que media entre dos sucesos consecutivos es distribuida exponencialmen anterior. La distribucion
exponencial es
te, como se demostro en la seccion
frecuente tener distanmuy sesgada hacia la izquierda, de modo que es mas
uniforme,
cias entre puntos muy cortas. Lo mismo ocurrira con la distribucion
k!
Tk
cuando 0 t1 t2 . . . tk T
(5.5.1)
UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION
153
t1 tk k!
Tk
P t1 S1 t1 + t1 , . . . ,tk Sk tk + tk |N(T ) = K
=
t1 tk
k!
Tk
a la izquierda de 4.11 es
lizo con el proposito
expreso de sugerir que la expresion
de densidad conjunta (condicional) si hacemos tender los ti a cero
una funcion
de densidad es la derivada de la funcion
de distribucion
K!
fS1 ,S2 , ..., Sk t1 ,t2 , ...,tk |N(T ) = K = k
T
cuando
0 t1 t2 .... tk T
(5.5.2)
154
UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION
lambda=
lambda=
lambda=
lambda=
lambda=
>
155
2 probabilidad= 0.3078
4 probabilidad= 0.306
6 probabilidad= 0.3082
8 probabilidad= 0.2967
10 probabilidad= 0.3069
teorica
(la lnea roja) mediante el script 5 2.R de abajo. Dicho grafico
se incluye en
la similitud entre este y el de la seccion
2.4. Por sula Fig. 5.5: llama la atencion
2.4 es mas
natural
puesto, el abordaje que se le hizo a este problema en la seccion
directo que el que hicimos ahora. Ademas,
el script 5 2.R es muchsimo mas
y mas
ineficiente
lento que el script 2 5.R, debido al uso del while, que es mucho mas
vectorizada de la muestra en el script 2 5.R. Con todo, la idea es
que la generacion
afianzar el conocimiento intuitivo sobre lo que establece el Teorema 5.5 y sobre las
condiciones necesarias para su validez. Se vuelve a recalcar que el valor particular
del parametro
no esta entre estas condiciones necesarias.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
# ---------------------------------------------------------------# 5_2. R
# El problema del encuentro revisitado .
# autor : Jose L. Romero P.
# fecha : 24/08/2011
# ---------------------------------------------------------------png(" encuentro2_r. png ")
N <- 1000000
lambda <- 2
dif <- NULL
cnt <- 0
while (cnt < N) {
x <- cumsum(rexp(lambda,n=3))
if (x[2] <1 & x[3] >1) {
dif <- c(dif,x[2] -x[1])
cnt <- cnt + 1
}
}
hist(dif,br=60 ,right=FALSE,freq=FALSE,
main=" Histograma de frecuencia " ,
ylab=" denisdad de probabilidad empirica ")
abline(a=2 ,b= -2 ,col=" red ")
legend(x=0.4 ,y=1.5 ,legend=" Funcion de densidad teorica " ,
fill=" red ")
Las implicaciones del Teorema 5.5 se pueden enlazar con todo lo que hemos
156
ciones que hicimos para los procesos de Poisson espaciales. De hecho, las condiciones de estacionariedad e independencia de los incrementos, que caracterizan
UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION
157
se da conforme a un proceso de
de puntos en el espacio cuando esa distribucion
Poisson espacial. Se le sugiere al lector revisar dicho script detenidamente:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
158
en las colonias de bacterias de la figura 5.2 o en las figuras 5.3 y 5.4. Quizas
por eso es que las estrellas y otros cuerpos celestes forman conglomerados como
galaxias y constelaciones?
5.6.
Problemas resueltos
Solucion
Como la enfermedad es no contagiosa, su presencia en cualquier habitante del
pueblo es independiente del resto de las personas. Por lo tanto un modelo razo es suponer que se trata de 3000 ensayos de Bernoulli con
nable de la situacion
de Poisson
probabilidad de exito
de 0,001. Usamos en este caso la aproximacion
con parametro
= np = 3, de donde obtenemos:
P{X = 0} = e = e3 = 0, 0498
P{X = 1} = e = 3e3 = 0, 1494
P{X 2} = 1 (P{X = 0} + P{X = 1}) = 0, 8008
s
Solucion
El evento cuya probabilidad deseamos calcular se puede escribir como P{N(2, 5) =
15, N(3, 2) N(2, 5) = 4, N(4, 5) N(3, 2) = 13} y sabemos que una de las caractersticas del proceso de Poisson es la de poseer incrementos estacionarios e
159
Solucion
de la variable aleatoria X , basta con
Para determinar completamente la distribucion
de Poisson homogeneo.
Una forma de abordar el problema sera as:
cion
de la maxima
verosimilitud. Basicamente,
dicho metodo
P{X(T ) = 1} = eT
T
1
160
log P{X(T ) = 1} =
log
1
T T
e
= (T +log +log T ) = T +
1
e igualando dicha derivada a cero (para hallar el punto crtico), se tiene que = T1 ,
como habamos concluido antes.
cada galleta de avena es una variable aleatoria de tipo Poisson con un promedio
de 1,5 pasas por galleta.
es la probabilidad de tener una o mas
pasas en una galleta de avena
(a) Cual
seleccionada al azar?
(b) En vista de que los clientes han protestado, la Abuela ha dado instrucciones
a sus empleados que desechen las galletas de avena sin pasas. Cual es la
esperanza matematica
y la varianza del numero
de pasas por galleta en las
galletas restantes?
Solucion
Sea X el numero
de pasas de una galleta escogida al azar, donde
P{X = k} = e1,5
(1, 5)k
k!
P{X 0 = k} =
(
(1,5)k
e1,5 0,7769k!
0
para k 1
caso contrario
161
De ah, la esperanza de X 0 es
(1, 5)k
E[X 0 ] =
1, 5
(1, 5)k
= 1, 9308
k!
k=0
1, 5k
k=1
Y la varianza es
k=1
(1, 5)k
k=2
= e1,5
(1, 5)2
0, 7769
(1, 5)k2
k=2 (k 2)!
= e1,5
(1, 5)2
0, 7769
(1, 5)2
(1, 5)k
=
k!
0, 7769
k=0
(1,5)2
5.7.
Problemas propuestos
es una funcion
de probabilidad y deduzca
1. Demuestre que la siguiente funcion
la esperanza matematica
y la varianza de la variable aleatoria correspondiente:
(
pX (x) =
x
x! e
xN0
x<0
p(x + 1; ) =
p(x; )
x+1
162
3. El numero
de partculas emitidas de una fuente radioactiva durante un pe
de Poisson y la
riodo de tiempo es una variable aleatoria con distribucion
1
probabilidad de que no haya emisiones es de 3 . Calcule la probabilidad de
emisiones en ese lapso de tiempo.
tener 2 o mas
4. Considerese
el torneo de futbol
americano que se efectua
numero
de anotaciones (touchdowns) de cada equipo por juego. En base a
anotaciones por
equipo y juego
0
1
2
3
4
5
6
7 o mas
Totales
Numero
de veces
observada
(frecuencia
absoluta)
35
99
104
110
62
25
10
3
448
5. Supongase
que en un recipiente que contiene 10.000 partculas, la probabilidad de que se escape una es de 0,0004 y cada escape ocurre de forma
es la probabilidad de que en ese recipiente ocurran 5
independiente. Cual
escapes?
o mas
6. Supongase
que una operadora de tele-mercadeo recibe una llamada con
probabilidad 0,01 y ninguna llamada con probabilidad 0,99 en un segundo.
de Poisson para calcular la probabilidad de que la
Utilice la aproximacion
operadora no reciba llamadas si se ausenta durante 5 minutos para tomarse
un cafe y comparela
con la probabilidad binomial correspondiente.
anos,
la probabilidad anual de contraer retinopata diabetica
(ceguera) es de
es la
0,0067. En un grupo de 1000 pacientes con estas condiciones, cual
163
el proximo ano?
nacidos de los cuales 30
8. En un hospital, se le hicieron pruebas a 3741 recien
resultaron HIV-positivos. En una muestra aleatoria de 500 pacientes tomados
cual
es la probabilidad de que exactamente 10 de ellos
de esta poblacion,
hipergeometrica
9. Supongase
que el 1,5 % de las familias en Caracas tienen un ingreso anual
por encima de los 30.000,00 Bs. F. Calcule la probabilidad de que al selec
cionar una muestra aleatoria de 60 familias caraquenas,
a lo sumo 2 tienen
ingresos superiores a los 30.000,00 BF.
errores?
uno o mas
es la probabilidad de que se transmitan exactamente diez numeb) Cual
y probabilidad de exito
s/t .
UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO
164
14. Considerese
un proceso de Poisson homogeneo
{N(t)|t > 0} con tasa .
Calcule su nucleo
de covarianza K(s, s + t) con s,t > 0.
(t)n
areas
Nk en que hay exactamente k impactos.
k
Nk
0
229
1
211
2
93
3
35
4
7
5 o mas
1
Total
576
a) Cuantos
impactos de bombas volantes se registraron en total, segun
la estadstica anterior?
a este fenomeno.
d) Segun
las condiciones que dan origen al proceso de Poisson, inter
prete y deduzca las implicaciones de que el fenomeno
descrito sea un
de 50 arboles
por hectarea.
Cual
y el arbol
mas
cercano?
18. Sea {Tn |n N+ } una secuencia de variables mutuamente independientes e
identicamente
distribuidas segun
una distribucion
+
estacionario? Es debilmente
estacionario? Razone su respuesta.
19. Supongase
que los tiempos entre eventos de un proceso (que llamaremos
165
el algebra
de conjuntos y los axiomas basicos
de la probabilidad para demostrar la siguiente equivalencia: P{N(t) = n} = P{Sn t} P{Sn+1 t}.
20. Considerese
un proceso de Poisson homogeneo
{N(t)|t > 0} con tasa y la
+
secuencia aleatoria {Sn |n N } son los tiempos de ocurrencia de eventos
asociados a este proceso de Poisson. Calcule P{S3 x|N(t) = 10} con 0
x t.
por computadora de un proceso de Poisson con in21. Realice una simulacion
tensidad promedio de 2 sucesos por unidad de tiempo. Utilizando dicha si estime:
mulacion
a) P{N[2,4] = 2}, donde N[2,4] representa la cantidad de sucesos ocurridos
en el intervalo [2, 4].
b) P{3 S3 5}, donde S3 es el instante en que ocurre el tercer suceso.
22. Un vendedor de perrocalientes observa que aun
cuando sus clientes asiduos no llegan en intervalos de tiempo regulares, no obstante arriban segun
respondio el perrero. Calcule la probabilidad de que el perrero pueda identificar correctamente los tiempos de llegada de cada cliente, si para cada
cliente se indica un intervalo de dos minutos dentro del cual se asegura que
166
Unidad 6
Cadenas de Markov
tocasticos
puede verse como una generalizacion,
de una forma u otra, de las cadenas de Markov.
F UEGO EN EL ATARDECER
Oleo - 1929
Paul Klee
Norris, J. R.
prefacio del libro Markov Chains
167
168
Objetivos de la Unidad
de las cadenas de
El objetivo general de esta Unidad es hacer una exposicion
6.1.
notacion,
ejemplos y un poco de historia
Definicion,
de Markov de parametro
discreto, que son procesos estocasticos
de parametro
discreto y de espacio de estados discreto que verifican la propiedad de Markov.
so estocastico
{Xi |i T } de parametro
discreto es una cadena de Markov ho
mogenea
si para todo i0 , i1 , . . . , in , j E (E es el espacio de estados) se verifica
la propiedad de Markov:
(6.1.1)
Las probabilidades P(Xn+1 = j|Xn = i) se denominan probabilidades de tran porque mediante ellas se determina la transicion
de un estado a otro entre
sicion
dos instantes de tiempo sucesivos en una cadena de Markov. Es de observar que
son probabilidades condicionales, pero no estan
NOTACION,
EJEMPLOS Y UN POCO DE HISTORIA
6.1. DEFINICION,
169
Markov en la definicion
la propiedad de Markov implica que, en una cadena de Markov, el estado presente del
necesaria para determinar los estados
proceso incorpora en s toda la informacion
sobre el estado presente, se hace innecefuturos, por lo cual, al haber informacion
sobre el pasado para determinar las probabilidades
sario disponer de informacion
del siguiente estado.
de transicion
de un estado a otro entre insDebido a que las probabilidades de transicion
tantes discretos de tiempo sucesivos no dependen del ndice temporal (homogeneidad) ni del estado del proceso en instantes pasados (propiedad de Markov),
podemos abreviar escribiendo pi, j = P(Xn+1 = j|Xn = i). La abreviatura hace po en forma matricial, mediante lo
sible representar las probabilidades de transicion
:
que se denomina una matriz de transicion
p1,1
p2,1
P= .
..
pn,1
p1,2
p2,2
..
.
..
pn,2
p1,n
p2,n
..
.
pn,n
el elemento de la i-esima
En la matriz de transicion,
fila y la i-esima columna
representa la probabilidad de que el sistema cambie del estado i al estado j en
La representacion
matricial de las cadenas de Markov facilita en
una transicion.
algo el estudio de estas ultimas
permitiendo el uso de algunas herramientas del
Algunos ejemplos
y N1
de que el virus no haga mutacion
la probabilidad con la que el virus
muta a cualquiera de las otras N 1 cepas. Se tiene entonces para cada
170
sera:
P=
N1
N1
..
.
..
.
..
N1
N1
N1
N1
..
.
de transicion:
P=
1
0
0 0
1 p
0
p 0
0
1 p 0 p
..
.
..
.
..
.
..
.
0
0
0
0
0 0
0 0
..
0 0
0 0
0 0
..
.. ..
.
. .
1 p 0 p
0
0 1
0
0
0
de Eden
de migrar constantemente de una ciudad a otra
segun
las siguientes probabilidades:
permaEn cada periodo migratorio, el 70 % de los habitantes de Adan
y el resto emigraba a Eva.
neca en Adan
Analogamente, el 40 % de los habitantes de Eva se quedaban en Eva
NOTACION,
EJEMPLOS Y UN POCO DE HISTORIA
6.1. DEFINICION,
171
P=
Adan
Eva
Eva
Adan
0, 7 0, 3
0, 6 0, 4
La cadena de Markov es
172
Apendice
A
Leer un libro, escuchar un concierto, ir al cine - todas son actividades que suponen un protocolo adecuado al genero de literatura que estamos leyendo, el tipo
de musica
que escuchamos o el genero
cinematografico
que vemos. No se puede
apreciarla. Hablamos de literatura y aunque sea dficil de creer, textos como este
De hecho, este tipo de textos pertenecen al genero
es mas
de
1
y en la cual uno puede leer pasajes como este
:
ficcion
a continuacion
cesped
sin segar, o dando vueltas con monotona
insistencia en torno
1
173
174
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
a los polvorientos cuernos dorados de las desordenadas madreselvas,
opresiva la quietud, mientras los ruidos confusos
parecan hacer mas
lectora para una obra como la ciHay por lo menos dos niveles de apreciacion
estetica,
estetico
de la lectura. Sin embargo, generalmente aportan poco cuando se trata de
de una
entender la trama de la novela, lo cual nos trae al otro nivel de apreciacion
de la trama.
lectura, que es la apreciacion
Una novela es una historia y toda historia es un cuento de algo. La trama es
la forma en que el escritor va desarrollando ese cuento. Cuando la trama de una
novela nos atrapa, no nos paramos a analizar cada palabra detenidamente. Mas
bien, las palabras son como pinceladas que van pintando una escena que se va
revelando poco a poco; lo revelado es la trama. En el pasaje citado arriba, por
ejemplo, no nos pondramos a analizar porque no se haba cortado el cesped entre
el cual revoloteaban las abejas o en que se basa el autor para afirmar que los
cuernos dorados de las desordenadas madreselvas son polvorientos- esto sera
una necedad, completamente fuera de lugar e innecesario. El lenguaje novelesco
es un
esta lleno de redundancias
e imprecisiones porque a veces la imprecision
efecto que el autor quiere justamente lograr. Y porque un buen escritor de novelas
sabe que un buen lector no analizara cada frase detenidamente para comprender la
de figuras
trama, introduce redundancias, metaforas,
hiperboles
y toda esa legion
que veiamos en Lengua y Literatura en bachillerato para enfatizar
de expresion
elementos de la trama o resaltar aspectos de los personajes que son importantes
para su comprension.
de la estetica
algo de estetica,
pero la apreciacion
y la trama es totalmente distinta
lnea
ble y sin redundancias
ni imprecisiones. Una formula
matematica
de una sola
175
que requerira varios parrafos
expresarla en lenguaje natural. Cuando leemos lenguaje matematico, es importante detenerse a analizar cada smbolo, cada igualdad, cada punto, porque todo lo
nada
que esta escrito en una formula
es importante para su debida comprension es
es redundante. Por eso, la primera recomendacion
Primer consejo
Tomese
el tiempo de leer detenidamente cada smbolo de cada formula
o
as como los razonamientos o explicaciones en lenguaje natural
ecuacion,
sobre ellos.
Ciertamente, cuando una novela nos atrapa podemos leer decenas de paginas
de la trama en
lizar todo lo que se lee. Cuando hablabamos
sobre la apreciacion
texto matematico,
este habito
de cuestionar y analizar todo cuanto se lee no es
una necedad, sino una absoluta necesidad si se quiere comprender el texto. Es
lenta que la lectura
por eso que la lectura de este tipo de textos es mucho mas
de novelas- hay que cuestionar y analizar todo. Para ilustrar en que consiste este
i =
i=0
n(n + 1)
2
El lector debe ante todo asumir una actitud activa, no pasiva. Esto pasa por
asumir constantemente el rol de ser su propio profesor. Si Ud. fuese un profesor y
acaba de
esta interesado en saber si el estudiante ha comprendido lo que recien
leer, cuales
preguntas hara? En este punto, sera oportuno preguntarse primero
?
Qu
e
significan
las
expresiones
arriba
y
abajo
de
ese smbolo? Que significa
176
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
curso (en la proxima clase o por correo electronico, que para eso sirve).
a la izquierda del signo =
Una vez que se ha comprendido que la expresion
denota la suma de todos los numeros
enteros consecutivos desde el 0 hasta n,
177
Segundo consejo
en matematicas,
pero nunca he tenido claro en que punto de la vida academica
de un estudiante comienza este problema de mala base. En algunos casos me
consta que cierto grupo de estudiantes han tenido buenos profesores y sin embargo, persiste el problema de la mala base. Pues he aqu que el problema de la mala
conocimientos matematicos
nunca se fijaron. Pero practicar estos habitos
de estudio es como hacer ejercicios; al cabo de un tiempo, ya uno no se cansa tanto y se
convierte en un habito
natural. Debera intentarlo.
del mito de la mala base, existe otra creencia erronea
Ademas
en torno a las
matematicas,
segun
es una materia practica
porque involucra
la cual la matematica
calculos,
en contraposicion
La matematica
es la materia
teorica
por excelencia y as lo atestiguan los orgenes etimologicos
de la palabra.
(mathematika, lo que se
Matematica
proviene del antiguo griego
ema,
truccion)
y, mas
(manthano,
que signifi2
matematica
es afn a tema o campo de estudio, que no es otra cosa que ciencia y
teora. Hay que entender un poco sobre la mentalidad de los antiguos griegos para
saber que lo que ellos llamaban ciencia no tena nada que ver con experimentacion
del conocimiento por medios experimentales o practicos,
o derivacion
sino todo lo
contrario. La ciencia, segun
los griegos, era concebida como un saber que se alcanzaba por medio del pensamiento y el raciocinio. Naturalmente, esto ya no es
del todo cierto porque el conocimiento cientfico moderno se verifica experimental
mente. Pero aun
sigue siendo un producto del pensamiento
ahora, la matematica
2
Ver GonzalezRecio
(2007), p. 354.
178
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
Esta
es la razon
eran
algo sobre lo cual haba que instruirse para llegar a aprenderlas. Estaban recono
y de iniciacion
no son reducibles al lenguaje ordinario que
se aprende espontaneamente.
Mas
es una his
de los siglos
toria de como
el lenguaje matematico
se ha perfeccionado a traves
del pensamiendeviniendo en un vehculo para alcanzar verdades eternas a traves
de
y debemos de poner especial atencion
la definicion
Sobre la notacion,
matematica
matematicamente,
las definiciones matematicas
son de extrema importancia en un
Una definicion
para ser util,
tiene que redactarse de tal modo de
de Claude Shannon,
matematicamente,
en el marco de la Teora de la Informacion
que se transpermite comparar, en orden de magnitud, la cantidad de informacion
u otro. Desde luego, la informacion
matematica
macion
matematico
correspondiente.
del lenguaje matematico,
179
ro par?. De ah nos damos cuenta que uno de los problemas de base en nuestra
matematica
formacion
es que no hemos entendido debidamente la importancia de
de
las definiciones y es esto justamente el mayor obstaculo
para la comprension
Ademas,
una cadado cuatro ejemplos de numeros
pares, pero no una definicion.
matematica,
parecida a esta:
x Z es un numero
par k Z|x = 2k
de una definicion
como esta
La concision
no radica solamente en la poca can del concepto y
tidad de caracteres requerida para su escritura, sino en la precision
que encierra entre lneas. Pero para leer entre lneas hay que cotodo lo demas
la definicion).
Por otro lado, 112 s es un numero
par porque puede ser expresado
estaba
como producto de un entero por dos (de hecho, 112 = 2 56). Esto tambien
Entonces, para puntualizar, daremos el
planteado en la definicion.
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
180
Tercer consejo
a las definiciones y lealas muy detenidamente.
Preste especial atencion
Cualquier termino
(fuera del que se este definiendo) o smbolo que figu debe ser completamente aclarado. Recuerde que toda
ra en la definicion
matematica
definicion
debe permitir decidir inequvocamente si cualquier
cosa pertenece o no a la clase de objetos que se esta definiendo. De mo debe intentar dar ejemplos de cosas que
do tal que tras leer la definicion
pertenecen a la clase definida y cosas que no.
Cuando se encuentre un problema como aquel en la Unidad 3 que pide demostrar que el valor esperado de un incremento en una martingala es necesa
riamente igual a cero, no desespere ni entre en panico.
Recuerde que avanzara en
del problema en la medida en que aclare los terminos
la solucion
matematicos
que
figuran en el enunciado (y que aqu hemos resaltado de la misma manera que se
han resaltado las definiciones a lo largo del texto para recordarle que debe remitirse
Podemos explorar lo que sucede para algunos valores de n, haciendo una tabla
como esta:
n
0
1
2
..
.
5n + 7n
50 + 70 = 2
51 + 71 = 12
52 + 72 = 74
Es par?
si
si
si
..
.
matematica
de numero
par, que 5 + 7 es un numero
par. Hay por lo menos dos
181
5n + 7n = 5n + (5 + 2)n
n
n i ni
n
=5 +
52
i=0 i
n1
n i ni
n
n
= 5 +5 +
52
i=0 i
n1
n i ni1
n
= 25 +2
52
i=0 i
!
n1
n
5i 2ni1
= 2 5n +
i=0 i
7=5+2
= 2k, donde k Z
matematica
Cuarto consejo
Las demostraciones tienen un alto valor instructivo. Antes de demostrar algo formalmente, reflexione sobre lo que se pretende establecer. Explore
a demostrar e intente entender
algunos casos para verificar la proposicion
intuitivamente el porque de su validez. Luego, para demostrar la proposi matematicamente,
cion
haga uso de las definiciones, axiomas y otros resultados establecidos previamente (propiedades, teoremas, proposiciones,
etc.).
Las matematicas
no son un asunto de sacar cuentas de bodega o meros calculos. En el fondo, es una ciencia en la cual cada nuevo conocimiento se establece
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
182
mathematica: La matematica
es la clase de todas las proposiciones de tipo p im3
estetica
en el estudio de las matematicas
- en la forma en que poco a poco se ha
construido este magna opus del conocimiento humano sobre tan pocos supuestos
se puede encontrar la belleza en la manera en que algunos
(los axiomas). Tambien
de definiciones mamatematicos
han formalizado nociones imprecisas a traves
tematicas
concisas y luego constatar como estas permiten deducir resultados que
n
n
del metodo
completa , en el
que 5 + 7 es un numero
par a traves
de la induccion
cual
que depende de n. Para nosotros esta sera:
par.
Pn 5n + 7n es un numero
numero
par. Seguidamente, suponemos que Pn es cierto (hipotesis
inductiva ). Si
5n + 7n = 2k para algun
kZ
7 5n + 7n+1 = 14k
n+1
+7
n+1
= 2(7k 5 ) = 2k
Hipotesis
inductiva
multiplicando ambos lados de la
por 7
ecuacion
k0 = 7k 5n Z
Se cumple Pn+1
3
En este conjunto de obras, Russell se proponia derivar la mayor parte de los conocimientos ma
de axiomas. Con el Teorema de Incompletitud de Kurt
tematicos
a partir de un conjunto pequeno
Godel,
quedo demostrado que ningun
conjunto de axiomas puede ser completo (en el sentido en
y consistente (en el sentido
que permita establecer la validez o no validez de cualquier proposicion)
en que los axiomas no sean contradictorios) a la vez. Esto significa que se demostro la existencia
183
completa, tambien
existe otro
Ya que se menciono el metodo
de la induccion
metodo de uso muy frecuente en demostraciones matematicas, que es el de reduc al absurdo . La reduccion
al absurdo parte de negar la premisa que se quiere
cion
de una secuencia de implicaciones logicas
demostrar y a traves
validas,
se llega a
Dicha contradiccion
(el absurdo) no puede ser consecuencia de
una contradiccion.
premisas logicamente
validas,
sino que se desprende de negar la premisa que se
quera demostrar, con lo cual se demuestra que dicha premisa es verdadera (por completa
que no puede ser falsa). No es este el lugar para hacer una exposicion
matematica,
sobre metodos
de demostracion
pero si es oportuno sugerir una lista
matematica
encuentran su modo de expresion:
Quinto consejo
Logica
matematica
Teora de Conjuntos
matematica
Metodos
de demostracion
184
APENDICE
A. COMO LEER UN TEXTO MATEMATICO
Indice alfabetico
algebra,
3
sigma algebra,
4
axiomas de Kolmogorov, 5
barreras absorbentes, 97
Brown, R., 112
cadena de Markov, 76, 168
168
probabilidad de transicion,
caminata aleatoria, 75
28
coeficiente de correlacion,
29
convolucion,
covarianza, 28
ecuaciones en diferencias, 99
espacio de estados, 63
espacio de probabilidad, 5
espacio muestral, 3
espacio probabilizado, 5
esperanza
13
definicion,
propiedades, 14
esperanza condicional, 66
puntual, 159
estimacion
estocastico
origen de la palabra, 62
evento
complementario, 3
evento elemental, 3
eventos, 3
independientes, 26
funcion
de primer y segundo orden, 64
finito-dimensional, 64
de distribucion
de probabilidad,
funcion
11
de valor medio, 71
funcion
generatriz, 17
funcion
propiedades, 18
grafos
matriz de adyacencia, 169
de cadenas de Marrepresentacion
kov, 169
hipotesis
inductiva, 182
incrementos
estacionarios, 74
independientes, 72
(en la programacion),
indentacion
48
intensidad de flujo, 134, 145
Kolmogorov, A.N., 4
Laplace, P.S, 7, 77
ley de los grandes numeros,
8
185
INDICE ALFABETICO
186
completa, 182
metodo
de la induccion
martingala, 75
169
matriz de transicion,
momento de orden uno, 13
momento factorial de orden k, 18
movimiento Browniano, 77
nucleo
de covarianza, 71
proceso estocastico
debilmente
estacionario, 74
de parametro
discreto o continuo, 63
63
definicion,
estrictamente estacionario, 74
estrictamente estacionario de orden
n, 74
trayectoria, 63
propiedad de Markov, 76, 168
R
NA, 46
cat, 52
cumsum, 89
c, 45
function, 102
hist, 55
ifelse, 52
length, 45
paste, 43
replicate, 103
return, 103
runif, 55
sample, 52
sapply, 103
seq, 45
setdiff, 52
sqrt, 43
union, 52
which, 93
while, 47
(<-), 44
asignacion
comentarios (#), 47
constantes logicas,
42
de numeros
generacion
aleatorios,
57
identificadores, 44
46
indexacion,
operadores logicos,
44
operadores logicos
de comparacion,
44
vectorizar, 48
al absurdo, 183
reduccion
ruido blanco, 75
series de tiempo, 63
tabla de contingencia, 32
Tchebyschev, cota de, 15
teorema
Central del Lmite, 77
Levy, 17
valor medio, 13
variable aleatoria, 10
continua, 12
discreta, 12
independientes, 27
n-dimensional, 23
INDICE ALFABETICO
varianza, 14
propiedades, 15
vector aleatorio, 23
Wiener, N., 77
187
188
INDICE ALFABETICO
Bibliografa
B ROWN, R. (1828). A brief account of microscopical observations made in the
months of June, July and August, 1827, on the particles contained in the pollen of
plants; and on the general existence of active molecules in organic and inorganic
bodies. Edinburg new Philosophical Journal, pp. 358371. Disponible en: http:
//sciweb.nybg.org/science2/pdfs/dws/Brownian.pdf.
F ERN ANDEZ
, B..
Denis Poisson.
G ONZ ALEZ
R ECIO, J. (2007). Atomos,
almas y estrellas: estudios sobre la ciencia
190
BIBLIOGRAFIA
http://www.dartmouth.edu/chance/teaching_aids/books_articles/
probability_book/book.html
Gauthier-Villars, Paris.
L APLACE, P.S. (1886). Theorie
Analytique des Probabilites.
L UCRETIUS. De rerum natura. Disponible en: http://www.thelatinlibrary.
com/lucretius.html.
N AUMOV, V., B ASHARIN , G. L ANGVILLE , A.. The life and work of A. A. Markov. Disponible en: https://netfiles.uiuc.edu/meyn/www/spm_files/
Markov-Work-and-life.pdf % finalpoint
Disponible
N ELSON, E. (2001). Dynamic Theories of Brownian Motion. 2edicion.
en: http://www.math.princeton.edu/nelson/books/bmotion.pdf.
N ORRIS, J. R. (1998). Markov Chains. Cambridge University Press.
O RELLANA , M., Y OTROS (1995). Ecuaciones Diferenciales - Tomo I. Universidad
http://cran.r-project.org/doc/contrib/rdebuts_es.pdf
PARZEN, E. (1962). Stochastic Processes. Holden-Day, San Francisco.
http://www.R-project.org
R EBOLLEDO, R. (2002). El azar y sus modelos. En: IV Jornadas Rolando Chuaqui
Kettlun, .
www.mat.puc.cl/rrebolle/Azar/azar-foils.pdf
BIBLIOGRAFIA
191
R INC ON
Mexico.
R IOS, S. (1977).
2edicion.
Metodos
Estadsticos.
R OMERO PALMA, J. L. (2009). Modelos de caminata aleatoria con paso unitario y procesos de Wiener generalizados equivalentes a un proceso de
movimiento browniano. Disponible en: https://sites.google.com/site/
unamatematicaseltigre/.