Está en la página 1de 203

I NTRODUCCI ON

A LOS

PROCESOS

ESTOC ASTICOS
Jose Loreto Romero Palma

II


Oda a los Procesos Estocasticos
Pasara el tiempo
tus variables
y creceran
con un paso lento
continuo e integrable,
escuchare tu lamento
de fiel dato amable?
Por que te encajonan

en parametros
mudables?
la cortisona,
Explicaras

las mareas, la polucion,


los estratos, las personas,

toda una poblacion.


de ricas sedas:
Te vestiran
de estacionariedad
que acorte tu penas,
de inversibilidad
que invierta tus ternas.
estimados,
Tus miembros seran
daremos forma a tu ser
ARIMA o ruido blanco,
y seras
espejo del suceder.
seras

Tu eres futuro, eres manana,

eres oraculo
de das, semanas

que con tentaculos


a tu orden atrapas.

III

IV

Si fueras ay! un animal


serpiente voraz seras,

creciendo cada vez mas


y tu propia cola morderas
-autorregresiva fatal!que tendras tu guarida
bajo la loma de una Normal.
tus hijos a visitarte:
Y vendran
todas las series temporales
a ti adaptarse
que querran

con parametros
formales.

Cuanto
avanza el progreso!
Que hicimos de los naturales,
reales, quebrados y enteros?

Que de Pitagoras
y Thales?
Todo era tan sencillo...

sales?
que tu...
cono
de donde

Roas
Julian
Nuestros Besos
del libro Vendran

Indice general

Oda a los Procesos Estocasticos

III

Prefacio

IX

1. Repaso de teora de probabilidades

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.1. Espacios probabilizados . . . . . . . . . . . . . . . . . . . . . . .

1.2. Algebra
de eventos. Otras definiciones de probabilidad . . . . . . .

1.3. Variables aleatorias

. . . . . . . . . . . . . . . . . . . . . . . . .

10

1.4. Valores esperados . . . . . . . . . . . . . . . . . . . . . . . . . .

13

caracterstica y generatriz. Distribuciones


1.5. Funcion

. . . . . . . . .

15

. . . . . . . . . . . . . . . .

22

1.7. Variables aleatorias independientes . . . . . . . . . . . . . . . . .

25

1.8. Ejemplo para las secciones 1.6 y 1.7

. . . . . . . . . . . . . . . .

30

1.9. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .

33

1.6. Variables aleatorias n-dimensionales

a la simulacion
y al R
2. Introduccion

37

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

al R . . . . . . . . . .
2.1. Para que la simulacion?
Breve introduccion

38

INDICE GENERAL

VI

2.2. Como
conseguir el interprete R . . . . . . . . . . . . . . . . . . .

39

al lenguaje R . . . . . . . . . . . . . . . . . . .
2.3. Breve introduccion

41

2.4. Dos problemas de simulacion


. . . . . . . . . . . . . . . . . . . .

50

2.5. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .

57

a los procesos estocasticos

3. Introduccion

61

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

y ejemplos de procesos estocasticos.

3.1. Definicion

. . . . . . . . . .

62

3.2. Probabiliad y esperanza condicional . . . . . . . . . . . . . . . . .

65

3.3. Valor medio y nucleo


de covarianza . . . . . . . . . . . . . . . . .

70

3.4. Incrementos y estacionariedad . . . . . . . . . . . . . . . . . . . .

72

3.5. Algunos tipos de procesos aleatorios . . . . . . . . . . . . . . . .

75

3.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . .

78

3.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .

80

4. Caminatas Aleatorias y Movimiento Browniano

85

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

4.1. El proceso de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . .

86

4.2. La cantidad de exitos


. . . . . . . . . . . . . . . . . . . . . . . . .

87

4.3. Cantidad de ensayos hasta r exitos


. . . . . . . . . . . . . . . . .

90

4.4. Problemas resueltos para las secciones 4.1 - 4.3 . . . . . . . . . .

93

4.5. La ruina del jugador . . . . . . . . . . . . . . . . . . . . . . . . .

96

promedio del juego . . . . . . . . . . . . . . . . . . . . .


4.6. Duracion

104

4.7. Otras caractersticas de las caminatas aleatorias . . . . . . . . . .

109

4.8. Movimiento browniano . . . . . . . . . . . . . . . . . . . . . . . .

112

4.9. Movimiento browniano y la ruina del jugador

118

. . . . . . . . . . . .

INDICE GENERAL

VII

4.10.Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .

5. El procesos de Poisson homogeneo

121
125

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

126

del proceso de Poisson . . . . . . . . . . . . . . . . . .


5.1. Derivacion

127

axiomatica

5.2. Derivacion
del proceso de Poisson. . . . . . . . . . . .

132

5.3. Procesos de Poisson espaciales.

. . . . . . . . . . . . . . . . . .

137

del tiempo inter-eventos . . . . . . . . . . . . . . . . .


5.4. Distribucion

142

uniforme
5.5. El proceso de Poisson y la distribucion

. . . . . . . . . .

150

5.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . .

158

5.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . .

161

6. Cadenas de Markov

167

Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

168

notacion,
ejemplos y un poco de historia . . . . . . . . .
6.1. Definicion,

168

A. Como leer un texto matematico

173

Indice Alfabetico

188

Bibliografa

189

VIII

INDICE GENERAL

Prefacio
El presente material surgio originalmente para ser utilizado como texto princi
pal de consulta para el curso de Procesos Estocasticos
de la carrera de Ingeniera
de Sistemas que dicto en la UNEFA. Aun
cuando existe abundante bibliografa y
material disponible en Internet sobre este tema, considero que existen sobradas
del presente texto. En primer lugar, los libros
razones que justifican la elaboracion
pensados para un publico

que versan sobre el tema estan


matematicamente
mas

que, por ser


maduro, generalmente para estudiantes a nivel de postgrado, ademas
estos libros muy especializados, son demasiado escasos en las libreras venezo del Internet en busqueda
lanas. Por otro lado, navegar a traves
de bibliografa en

lnea puede resultar una tarea herculea


para el estudiante de pregrado cuya pri
al tema es esta.

mera exposicion
En fin, la bibliografa existente es muy dispersa,
escasa y no adecuada a las necesidades del estudiante venezolano, por lo cual
considero que este texto viene a llenar un vaco.

El aporte original en el presente tratamiento del tema es el enfasis


en la si estocastica.

emprica del meto


mulacion
Incorporar el aspecto de la verificacion
de un tema de la matematica,

do cientfico en la exposicion
que es una ciencia

netamente teorica,
puede parecer un disparate. No obstante, se piensa que este enfoque puede rendir muchos dividendos, sobre todo instruccionales. Con los
en codigo

abundantes ejemplos de simulacion


R se pretende familiarizar al estu de libre distribucion
que esta adquiriendo
diante con un lenguaje de programacion
relevancia en el mundo de la investigacion
estocastica.

cada vez mas


Por otro lado,
del alumnado a herramientas de software libre se pretende hacer
con la exposicion

un modesto aporte haca el logro de la soberana tecnologica


nacional.
El texto esta organizado en seis unidades. En la primera unidad se da un repaso
de presentan algunos elementos de la
de la teora de las probabilidades y ademas
teora que posiblemente se obviaron en asignaturas anteriores. La segunda unidad
al lenguaje de programacion
R y a la simulacion
como herraes una introduccion

IX

INDICE GENERAL

mienta de apoyo pedagogico


para esclarecer algunos resultados que se expondran

en el resto del texto. La tercera unidad es quizas la mas abstracta de todo el texto.
de lo que es un proceso estocastico

Comienza con la definicion


y prepara todo el
andamiaje conceptual para caracterizar sus tipos y propiedades. En la cuarta unidad se aborda el estudio de las caminatas aleatorias y el problema de la ruina del
jugador. En la segunda parte de la unidad, se relaciona el movimiento browniano

continuo con los procesos de parametro


discreto vistos en la primera parte de la

unidad. La quinta unidad versa sobre los procesos de Poisson homogeneos,


tan

ubicuos en el modelamiento de fenomenos


reales. Por ultimo,
en el sexto captulo,

se tratan las cadenas de Markov de parametro


discreto.
El nivel de conocimientos previo requerido por parte del alumno equivale al
de un estudiante que haya cursado alguna asignatura de probabilidad elemental y

los respectivos cursos de matematicas


del ciclo basico
de ingeniera, que abarcan

temas de calculo
diferencial e integral, series y ecuaciones diferenciales. Desgra de los pensa matematicos

ciadamente, es frecuente que en la imparticion


se haga

demasiado enfasis
en el aspecto de como
calcular y se soslaye el como
cons
de ellos. En el fondo, se
truir modelos matematicos
y resolver problemas a traves

esta obviando un aspecto importantsimo de las matematicas,


que es el de la ma
tematica
como un lenguaje. Como leer, interpretar y comprender este lenguaje?

Que significa demostrar algo matematicamente?


Para compensar esta omision

en la didactica
de las matematicas,
se ha incluido en el apendice
un breve artcu
lo sobre como leer textos matematicos,
con orientaciones para el estudio de este

curso. Se recomienda primero leer este apendice


antes de abordar el estudio del
curso como tal. Otro elemento de ayuda al estudiante en este libro es el uso de la

utilizada como herramienta didactica.

tecnica
de simulacion
Con ello se pretende
motivar al auto-estudio, inculcar el espritu investigativo y fomentar una actitud crti
ca y positiva hacia el estudio de la estocastica,
lo cual sin duda facilitara el estudio
general al estudiante es estudiar
de estos temas tan abstractos. Mi recomendacion
de las simulaciones en
detenidamente los problemas resueltos y la implementacion
el texto para posteriormente realizar los problemas propuestos.
amplia, el contenido de este texto esta enmarcado
Desde una perspectiva mas
dentro de un componente importante en el pensum de la ingeniera de sistemas
Me refiero al conglomerado de materias tay de las ciencias de la computacion.
de operaciones, matematicas

les como investigacion


discretas, probabilidades y

y modelos matematicos.

estadstica, metodos
numericos
y simulacion
A mi juicio,
integral de un analista de sistedicho componente es medular para la formacion
debe apuntar mas
alla de ser un simple tecnocrata

mas, quien
operario de TICs
y Comunicacion).

bien - y esto es algo que le


(Tecnologas de Informacion
Mas

INDICE GENERAL

XI

cuesta trabajo entender a las personas no iniciadas en el tema - el analista de

sistemas debe estar en capacidad de analizar cualquier sistema, sea este


una em
presa, una red de trafico
vehicular, la economa nacional o la sociedad. Con las
materias de este componente se pretende dotar al estudiante de herramientas pa

ra el analisis
matematico
de los sistemas, cuyo fin ulterior es el de apoyar la toma
del decisor en aras de loracional de decisiones y permitir medir el desempeno
grar progresivamente un mayor bienestar colectivo. En un pas como Venezuela,
es verdaderamente acuciante capacitar profesionales con estas destrezas; nuestro
depende de ello.
desarrollo como nacion
Quiero en estas lneas agradecer a los profesores y autores que de manera di En particular, extiendo mis
recta o indirecta contribuyeron en mi propia formacion.
agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad
a mis colegas y companeros

Nacional Abierta, as como tambien


docentes, Elai
ne J. Perez
Bracho, Jose T. Gomez Barreto y Rafael A. Rofriguez Toledo, quienes
han contribuido con importantes sugerencias en la redaccion
de este maademas
terial. Debo incluir palabras de reconocimiento y de agradecimiento a mis alumnos
con sugerencias y a quienes este
de la UNEFA, quienes han contribuido tambien
por los temas de la investilibro esta dedicado. Aspiro inculcar en ellos una pasion
de operaciones y el modelamiento matematico

gacion
para que sean ellos mismos

los que sigan investigando, formandose


y siempre estando a la vanguardia en esta
Que su nivel de conocimientos rebase muchas veces el mo
Era de la Informacion.

y que esta

propio, que estos


sirvan al bienestar de nuestra nacion
reconozca la
importancia del saber que ellos portan son mis deseos.

El Tigre, 27 de agosto 2011

XII

INDICE GENERAL

Unidad 1

Repaso de teora de
probabilidades

On peut meme
dire, a` parler en rigueur, que
presque toutes nos connaissances ne sont que
probables; et dans le petit nombre des choses
que nous pouvons savoir avec certitude dans les

sc`ences mathematiques
elles-memes,
les prici e,
linduction et
paux moyens de parvenir a` la verit
...
lanalogie, se fondent sur les probabilites

GEOMETRI A Y PROBABILIDAD

Laplace, P.S.
Theorie de Probabilite

Tinta y lapiz
sobre papel
Anatoli Fomenko

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

Objetivos de la Unidad
El objetivo general de esta Unidad es hacer un repaso de la teora de probabilidades a fin de que el estudiante domine los conceptos fundamentales necesarios

para acometer el estudio de los procesos estocasticos.


Para lograr este objetivo, se
requiere a su vez el dominio de los siguientes objetivos especficos:

Determinar el espacio muestral asociado a un experimento aleatorio.

Resolver problemas de calculo


de probabilidades mediante los axiomas de

Kolmogorov y el algebra
de eventos.

Manejar el concepto de independencia estocastica


y resolver problemas que
involucran eventos independientes.
Manejar el concepto de variable aleatoria discreta o continua y calcular sus
valores esperados.
Aplicar las distintas distribuciones de probabilidad discretas o continuas al

modelado de diversos fenomenos


y calcular probabilidades referidos a ellos.
generatrz y la funcion
caracterstica para el calculo

Aplicar la funcion
de

momentos de una variable aleatoria y para determinar la distribucion de una


variable aleatoria.
de probabilidad conjunta,
Manejar los conceptos de vector aleatorio, funcion
de problevariables aleatorias independientes y aplicarlos en la resolucion
mas.

1.1. ESPACIOS PROBABILIZADOS

1.1.

Experimento aleatorio. Espacio muestral. Eventos elementales. Probabilidad

maEl objetivo fundamental de la teora de la probabilidad es la descripcion

tematica
de experimentos aleatorios , que son procesos cuyos resultados no se

pueden predecir con exactitud. Las dificultades en manejar matematicamente


algo
de
que es por naturaleza impredecible se superan si abordamos la identificacion
todos los resultados posibles que puede arrojar un experimento aleatorio. Con esto
habremos definido el espacio muestral . El espacio muestral es un conjunto, en el

sentido matematico
de la palabra, y sus elementos constituyentes son los resul se conocen como eventos
tados posibles del experimento aleatorio, que tambien
elementales. Usualmente se denota el espacio muestral mediante la letra griega
omega mayuscula
() y los eventos elementales mediante la omega minuscula

1
con algun
subndice (i ) para distinguirlos entre s . Para mantener la consisten se aclara que por evento elemental se entiende cada resultado
cia en la notacion,
posible del experimento aleatorio (los elementos constituyentes de ) o los subconjuntos unitarios de formados por los elementos de correspondientes. Es
de eventos elementales, bajo la acepcion
de subconjuntos
de notar que la coleccion
de : su union
es el conjunto y son mutuamente
unitarios, forman una particion
disjuntos 2 dos a dos.
Los eventos elementales se pueden componer mediante uniones para formar
de eventos del
eventos , que son subconjuntos del espacio muestral. La coleccion

espacio muestral es un algebra


de conjuntos, porque es cerrada bajo uniones finitas

sencillos, si A y B son dos eventos cualesquiera,


y complementos. En terminos
mas
A B es el evento que se verifica cuando se verifica
A B y A son eventos tambien.
el evento A o el evento B y A3 es el evento que se verifica cuando no se verifica

de eventos es cerrada bajo las intersecciones


A. Como A B = A B, el algebra
Denotaremos por la clase de todos los eventos, o algebra

finitas tambien.
del
espacio muestral.
alla del alcance teorico

Por razones que van mas


de este recuento, es preciso
adicional sobre : Si {An } es una sucesion
numerable de
exigir una condicion
infinita tambien
es un evento eventos, entonces su union
1

i para designar a los eventos elementales se utiliza cuando el espacio muestral


La notacion
es un conjunto numerable.
2
es vacia:
Dos eventos son mutuamente disjuntos o mutuamente excluyentes si su interseccion
A B = 0/ .
3
A se denomina evento complementario de A.

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES


Figura 1.1: Andrei Nikolaevich Kolmogorov (1903-1987)

en la Universidad de Estatal
Matematico
ruso, estudio bajo Nikolai Luzon
importantes contribude Moscu,
obteniendo su Ph D en 1929.Sus mas

ciones fueron en el area


de las probabilidades y los procesos estocasti
matematica.

cos, a los cuales les confirio una solida


fundacion
Desa de capital importancia en el campo de los procerrollo una ecuacion

de Chapman-Kolmogorov. Fuente: http:


sos estocasticos:
la ecuacion

//en.wikipedia.org/wiki/Andrey_Nikolaevich_Kolmogorov

An

n=1

mas
fuerte se denomina -algebra.

Un algebra
que satisface esta condicion
Por
/ } y () (esta ultima
ejemplo, {0,
se lee partes de omega, que es la clase de

todos los subconjuntos posibles de ) son -algebras.


En resumen, se ha asociado
a un experimento aleatorio un conjunto de resultados posibles y una estructura

matematica
para definir todos los eventos posibles.
A modo de ejemplo, si el experimento aleatorio consiste en escoger al azar una

persona y observar su da de cumpleanos,


para definir el espacio muestral debe de una forma conveniente. Se podra asociar el 1
mos identificar cada da del ano
al primero de enero, el 2 al segundo de enero y as sucesivamente. Descartando
el caso de las personas nacidas el 29 de febrero, el espacio muestral esta definido
por el conjunto de numeros
naturales del 1 al 365 y = {1, 2, , 365}. Podemos

observar que el espacio muestral es un conjunto numerable y finito. Si estamos


interesados en el evento la persona es nacida en el mes de enero, este evento

se podra definir como E = {1, 2, , 31}. Analogamente,


si estamos interesados
en el evento la persona es de signo acuario en el zodiaco (21 de enero al 19 de
febrero), este se definira por E = {21, 22, , 50}.

Las bases matematicas


de la teora de probabilidades moderna se deben a

elaboraciones sobre la teora de la medida, que primordialmente se ocupa de como

asignar cantidades numericas


a cada conjunto de una -algebra.
En nuestro caso
esto es muy oportuno porque nos preocupa asociar probabilidades a eventos, y

las probabilidades son valores numericos


que cuantifican el grado de certidumbre
de un experimento aleatorio.
sobre la ocurrencia de algun
evento en la realizacion

En el lenguaje de la teora de la medida, la probabilidad es una medida, o funcion

que le asigna a cada conjunto de una -algebra


un valor real positivo o nulo:


1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD

(Axiomas de Kolmogorov). Sea (, ) un espacio muestral con su


Definicion

P : [0, 1] es una medida de


respectiva -algebra
de eventos. Una funcion
probabilidad si satisface las condiciones siguientes:
(I) P () = 1
de conjuntos disjuntos dos a dos, entonces
(II) SiAi es una sucesion

S
An = P(An ) Esta es la propiedad de -aditividad
P
n=1

n=1

En este caso se dice que (, , P) es un espacio de probabilidad o espacio


probabilizado .

1.2. Algebra
de eventos. Otras definiciones de probabilidad
A pesar de que los axiomas de Kolmogorov son pocos, permiten, mediante un

uso juicioso del algebra


de eventos (vale decir, la teora de conjuntos, sobre la cual
fundamentados), demostrar toda una serie de resultados refeestos axiomas estan

rentes al calculo
de probabilidades. Por ejemplo, el primer axioma establece que la
probabilidad de que se verifique cualquiera de los resultados posibles de un experimento aleatorio es igual a uno (P() = 1). Este axioma es coherente con nuestra
- siempre que realizamos un experimento aleatorio, se verificara alguno
intuicion
es la probabilidad de que se verifique
de los resultados posibles. Ahora bien, cual
/ ? Intuitivamente, debera ser cero, pues tras la realizacion
de
el evento vaco: P(0)
un experimento aleatorio siempre se verificara alguno de los resultados posibles y

nunca sucedera nada. Sin embargo, podramos demostrarlo matematicamente?

Problema Resuelto 1.1

/ = 0.
Demostrar que P(0)

Solucion
Segun
las leyes algebraicas de conjuntos, se tiene que:
(I) 0/ = .
(II) 0/ = 0/ , lo cual implica que y 0/ son mutuamente excluyentes.

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

segun
El espacio muestral es el conjunto universal y ademas,
el axioma 1, se
/
tiene que P() = 1. Por otro lado, el hecho de que y 0 sean mutuamente excluyentes implica que podemos usar el axioma 2:

segun
(i)

/
= P() + P(0)

y 0/ son mutuamente excluyentes y


aplica el axioma 2

/
= 1 + P(0)

el axioma 1
P() = 1 segun

=1

/
P() = P( 0)

Aplicando nuevamente el axioma 1 a la


primera igualdad

/ = 1, implica necesariamente que


Lo establecido en la ultima
igualdad, 1 + P(0)

/
P(0) = 0, como se quera demostrar.
s

anterior,
Con argumentos completamente analogos
a los de la demostracion
que, dado un evento A, la probabilidad del evento
se puede demostrar tambien

complementario A viene dada por P(A) = 1P(A). Otra formula


bastante conocida
es la de la probabilidad del evento A B: P(A B) = P(A) + P(B) P(A B). Esta

general que la del segundo axioma de Kolmogorov. En particular,


formula
es mas
/ =
si A y B son dos eventos mutuamente excluyentes, entonces P(A B) = P(0)
0 y se estara en el caso del segundo axioma de Kolmogorov. Un diagrama de
puede
Venn en el cual se representan los dos eventos A y B con su interseccion

aclarar como demostrar esta formula.


Todas estas demostraciones se dejan como
ejercicios propuestos al final del captulo.
precedente y las otras similares que
Lo que se pretende con la demostracion
se sugieren como ejercicios para el lector es hacer evidente que, mediante los
axiomas de Kolmogorov y la teora de conjuntos, se puede calcular la probabilidad

de cualquier evento siempre y cuando este


se pueda representar mediante una
algebraica que involucre otros eventos cuyas probabilidades sean conoexpresion
de la teora de la probabilidad segun
cidas. Esto pareciera soslayar una limitacion

las bases axiomaticas


de Kolmogorov, pero se debe tener en cuenta que la ten

dencia historica
del desarrollo de las matematicas
siempre ha apuntado hacia una
progresiva. Para ser historicamente

abstraccion
exactos, la teora de las probabilidades surge mucho antes de los trabajos de Kolmogorov durante la primera mitad
del siglo XX.
indisolublemente ligados
Los orgenes de la teora de las probabilidades estan
de Laplace que datan
al estudio de los juegos de azar y a los trabajos del Marques


1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD

Figura 1.2: Pierre Simon de Laplace (1749-1827)


conocido como el Newton frances
hizo numeLaplace, tambien

rosos e importantes aportes a las matematicas,


la astronoma y
la ciencia en general. En su obra Theorie Analytique des Proba sento las bases cientficas de la teora matematica

bilites
de la
elaboro sobre el papel central que
probabilidad. Laplace tambien
normal en la teora de la probabilidad y a el

juega la distribucion
se le atribuye el haber descubierto y demostrado el Teorema Central del Lmite. Fuente: http://thales.cica.es/rd/Recursos/

rd97/Biografias/52-4-b-laplace.html

del siglo XVIII. Terminos


como el problema de la ruina del jugador y otras frases

que usaremos a lo largo de este libro delatan estos orgenes historicos,


aun
cuando
sus aplicaciones hoy en da trascienden en mucho el contexto de los casinos. Es
natural para nosotros como estudiantes del tema remontarnos a estos orgenes y
considerar otras definiciones del concepto de probabilidad.

que publico en
Laplace, en su obra titulada Theorie
Analytique des Probabilites
4

1795 , define probabilidad en los siguientes terminos:


La teora del azar consiste

en reducir todos los eventos de un mismo genero


a un cierto numero
de casos

igualmente posibles, es decir, tales que estemos igualmente indecisos sobre su


ocurrencia, y a determinar el numero
de casos favorables al evento cuya proba
de ese numero
bilidad se busca. La relacion
con respecto a la cantidad de todos

los casos posibles es la medida de dicha probabilidad, que de este modo es una
cuyo numerador se corresponde al numero
fraccion
de casos favorables al evento

y cuyo denominador es el numero


de casos posibles5 .

Ver Laplace (1886), p. viii.

enements

`
La theorie
des hasards consiste a` reduire
tous les ev
du meme
genre a` un certain

nombre de cas egalement


posibles, cest a-diretels que nous soyons egalement
indecis sur leur

enment

existence, et a` determiner
le nombre de cas favorables a lev
dont on cherche la probabilite.

qui nest
Le rapport de ce nombre a` celui de tous les cas possibles est la mesure
de cette probabilite,

ainsi quune fraction dont le numerateur


est le nombre de cas favorables, et dont le denominateur
est
le nombre de tous les cas possibles.
5

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

(Probabilidad segun
Definicion
total de casos po Laplace). Si n es el numero

sibles y equiprobables de un experimento aleatorio y nA es el numero


de casos

para los cuales se verifica cierto evento A, entonces la probabilidad del evento A
viene dada por

P(A) =

nA
n

clasica

Podemos identificar en esta definicion


de la probabilidad segun
Laplace
algunos de los conceptos que ya hemos visto, tales como espacio muestral y
evento. Sin embargo, Laplace enfatiza que los casos que componen el espacio
un tanto simplificadora,
muestral deben ser igualmente posibles. Esta suposicion
comun

pero sustentada en nuestra intuicion


para la mayora
de las cosas, era valida

de los juegos de azar. Piensese


por ejemplo en el lanzamiento de un dado no
cargado: si las seis caras del dado son igualmente posibles, la probabilidad de que
salga un cinco al lanzar el dado es pues 16 . Sin embargo, al pretender aplicar la

teora de la probabilidad al estudio de algunos sistemas de partculas cuanticas,


por ejemplo, se vio que las leyes probabilsticas de estas no se conformaban a la
natural o a las suposiciones laplacianas de casos igualmente posibles y a
intuicion
su vez hubo que plantear otros de modelos probabilsticos como el de Fermi-Dirac
o el de Bose-Einstein6 . Lo cierto es que esto derivo en la necesidad de replantear el
abstracta, como lo hizo Kolmogorov.
concepto de probabilidad de una manera mas
de la probabilidad de un evento A como la fraccion

Dicho sea de paso, la definicion


nA
n es consona con los axiomas de Kolmogorov, pues como 0 nA n, siempre se
P() = nn = 1.
tendra que 0 P(A) 1 y ademas
Otro enfoque al definir el concepto de probabilidad es el frecuentista. Como
se vio anteriormente, no siempre ocurre que todos los eventos elementales del
espacio muestral sean equiprobables. Ante la ausencia de suposiciones bien sus
tentadas sobre un fenomeno
aleatorio, vale decir, ante la ausencia de un modelo

matematico
que permita precisar dichas probabilidades, la alternativa es hallar estas de manera emprica, repitiendo el experimento aleatorio muchas veces bajo
las mismas condiciones. A medida que se repite el experimento un mayor nume
de veces en los que se verifica un determinado evento
ro de veces, la proporcion
con respecto al numero
total de realizaciones del experimento aleatorio se acer
a su probabilidad. Esto se conoce tambien
como la ley de los
cara cada vez mas

grandes numeros
, y la idea descansa en la repetibilidad, siempre bajo identicas

condiciones, del experimento aleatorio.

Ver Feller (1968), p. 5


1.2. ALGEBRA
DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD

(Probabilidad como frecuencia relativa). Supongase


Definicion
que se repite un

repetiexperimento aleatorio n veces bajo identicas condiciones y de entre estas

ciones, cierto evento A se verifica nA veces. Entonces, el lmite de la proporcion


nA /n conforme n se hace muy grande es la probabilidad del evento A:

nA
n n

P(A) = lm

A lo largo de este libro, haremos uso de este enfoque emprico para calcular,
de manera aproximada, algunas probabilidades. Las repeticiones de los experi en computadora mediante programas de simulacion.

mentos aleatorios se haran


expuestas, considere el siguiente problema resuelto.
Para afianzar las ideas recien

Problema Resuelto 1.2


hay 164 senoras.

En el barrio El Engano
96
de entre ellas son chismosas, 84 son envidiosas y 100 son chismosas o envidiosas. Si en
el mercado municipal me encuentro una mujer
del barrio por casualidad (al azar), cual es la
probabilidad de que sea chismosa pero no envidiosa?
Daum Marries Her Pedantic Automaton George in May 1920, John Heartfield is Very Glad of It,
1920, pintura de George Grosz.

Solucion
Primero identificamos el espacio muestral y los eventos pertinentes:

es el conjunto de todas las mujeres del barrio El Engano.

A es el conjunto de mujeres chismosas.


B es el conjunto de mujeres envidiosas.

Tropezarse con una senora


del barrio por casualidad (o al azar, si se quiere),
equivale a seleccionar aleatoriamente una entre las 164 mujeres del barrio. Esto a
su vez quiere decir que es igualmente probable encontrarse con una u otra- aplica la
de probabilidad de Laplace (numero
definicion
de casos favorables entre el numero

total de casos) para determinar las probabilidades a partir del enunciado:

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

10

96 de entre ellas son chismosas


... 84 son envidiosas ...

P(B) =

P(A) =
84
164

... 100 son chismosas o envidiosas.

96
164

0, 5854.

0, 5122.
P(A B) =

100
164

0, 6098.

La probabilidad que se quiere calcular, expresada en terminos


de los eventos
definidos anteriormente, es P(A B). A partir de los datos arriba podemos hacer

uso del algebra


de eventos para encontrar dicha probabilidad:

P(A) = P(A B) + P(A B)

(porque?)

P(A B) = P(A) P(A B)


Pero por otra parte:

P(A B) = P(A) + P(B) P(A B)


P(A B) = P(A) + P(B) P(A B) 0, 5854 + 0, 5122 0, 6098 = 0, 4878
anterior para P(A B):
Sustituyendo en la ecuacion

P(A B) 0, 5854 0, 4878 = 0,0976


s

1.3.

de probabilidad. TiVariable aleatoria. Distribucion


pos de variables aleatorias. Densidad de probabilidad

El concepto de variable aleatoria es esencial y de mucha utilidad en el estudio

matematico
de los fenomenos
aleatorios porque es un mecanismo para traducir
los objetos del espacio muestral, que no necesariamente se identifican de forma

numerica,
a elementos de algun
Esto facilita enormemente la
conjunto numerico.

1.3. VARIABLES ALEATORIAS

11

en el estudio de la aleatoriedad, y conlleva eventualmente a establecuantificacion

cer caractersticas importantes que resumen numericamente


el comportamiento

del fenomeno
aleatorio, como la esperanza y la varianza.
(Variable Aleatoria). Sea (, , P) un espacio de probabilidad. La
Definicion
X : R que asigna a cada elemento
variable aleatoria X() es una funcion
del espacio muestral un valor real. Adicionalmente, la variable aleatoria es una
medible, porque deber verificar que {|X() < } .
funcion
Aun
cuando esta caracterstica de las variables aleatorias como funciones medibles no se menciona en los textos elementales de probabilidades con los que Ud.
anterior porque es
probablemente estudio esta materia, se incluye en la definicion

justamente esta caracterstica la que posibilita el calculo


de probabilidades asocia de funciones de distribucion
de probabilidad y
das a intervalos reales, la definicion

consecuentemente, la funcion de densidad de probabilidad.


La variable aleatoria traduce eventos en el espacio muestral a intervalos o sub
conjuntos numericos
con la finalidad de calcular la probabilidad asociada a estos

subconjuntos numericos.
Es decir, convierte la medida de probabilidad de eventos

a distribuciones de probabilidad en conjuntos numericos,


definiendo as la llamada
de distribucion
de probabilidad :
funcion
de Distribucion
de Probabilidad). Sea (, , P) un espacio
(Funcion
Definicion
de probabilidad y X() una variable aleatoria definida sobre este espacio. La
de distribucion
F(x) de una variable aleatoria se define como sigue:
funcion

F(x) = P{X x} = P{|X() }


se esclarece el comentario anterior sobre la
Habiendo hecho esta definicion,
medible - si {|X() < }
propiedad de la variable aleatoria como funcion
/,

dicho evento no tendra probabilidad asociada y por lo tanto se indefinira la funcion


de probabilidad, porque solo tienen probabilidad aquellos eventos
de distribucion
de distribucion
de probadefinidos en . Entre algunas propiedades de la funcion
se denomina a veces funcion
acumulada de probabilidad, se
bilidad, que tambien
mencionan:
creciente que toma valores en [0, 1].
1. F es una funcion
2. F() = 0 y F(+) = 1.
Segun
la naturaleza del conjunto de valores que toma X , se tienen dos tipos

12

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

de variables aleatorias. Las variables aleatorias discretas se caracterizan por ser el


conjunto de valores de X finito o por lo menos numerable. Si el conjunto de valores

de X es infinito e innumerable, X es una variable aleatoria continua. Esta distincion


es muy importante porque determina la forma en que definimos las probabilidades
puntuales: para una variable aleatoria discreta, P{X = x} es un valor positivo si x
esta dentro del rango de valores donde el evento {|X() = x} asume probabilidad
positiva. En cambio, si X es una variable continua, P{X = x} es invariablemente
igual a cero para cualquier valor x porque si X toma valores en un conjunto infinito,
ninguna probabilidad puntual puede ser distinta de cero.
de probabilidad
Cuando X es una variable aleatoria, podemos definir su funcion
del modo usual:

p(x) = P{X = x} = P{|X() = x}


de probabilidad de una variable discreta es mayor o igual a cero para
La funcion
del conjunto
todo x y verifica que la suma de las probabilidades puntuales a traves
imagen de X es igual a uno:

x R | p(x) 0

p(x) = 1

x=

A veces, p(x) se denota por px , para enfatizar la naturaleza discreta de la variable aleatoria ( p tiene un subndice porque los valores posibles de X son numerables). Si X es una variable continua, no tiene sentido hablar de probabilidades
de denpuntuales porque todas son iguales a cero. Se define entonces la funcion
sidad de probabilidad f , que se corresponde a la derivada Radon-Nikodym de la
de distribucion.
Una variable aleatoria que tiene asociada una tal funcion
de
funcion
de densidad f (x)
densidad se denomina absolutamente continua, y dicha funcion
verifica lo siguiente:

x R | f (x) 0

Zx
y

F(x) =

f (t) dt

Es de notar que en el caso continuo, f (x) no representa una probabilidad puntual, pues ya hemos establecido que las probabilidades puntuales son necesariamente iguales a cero; en cambio f (x) asume valores mayores o iguales a cero.

1.4. VALORES ESPERADOS

13

Una vez establecidas las definiciones basicas


de variable aleatoria, distribucion

de probabilidad, funcion de probabilidad y funcion de densidad de probabilidad, es


preciso mencionar que en la teora de la probabilidad se estudian diversas distribuciones o leyes de probabilidad que pretenden modelar una amplia gama de

fenomenos
aleatorios. El estudiante que haya cursado cualquier curso elemental
de probabilidades conoce algunas de estas leyes de probabilidad y sus caractersti importantes. En las tablas 1.1 y 1.2 se describen las leyes de probabilidad
cas mas
usuales.
mas
adelante.
Por ultimo,
se establece un teorema que nos sera de utilidad mas

de densidad de probabilidad de una


El teorema establece la forma de la funcion
de otra y se da a continuacion
sin devariable aleatoria expresada como funcion
7
mostrarlo :
de una funcion
de variable aleatoria). Sea X una vaTeorema 1.1 (La distribucion
de densidad de probabilidad fX (x) y defnase
riable aleatoria continua con funcion
Y = g(X). Si y = g(x) y x = g1 (y) son funciones univaluadas, continuas y dife creciente o decreciente de x, la funcion
de
renciables y si y = g(x) es una funcion
densidad de probabilidad de Y esta determinada por:


 1  dx
fY (y) = fX g (y)
dy
en donde la cantidad J = |dx/dy| recibe el nombre de Jacobiano de la transfor
macion.

1.4.

Valores esperados: esperanza y varianza

Dos caractersticas importantes de una variable aleatoria son su tendencia cen media con respecto a la tendencia central. Ambas estan
dadas
tral y su dispersion

por la esperanza y la varianza respectivamente. La esperanza matematica


de una
conocida como momento de orden uno o valor medio,
variable aleatoria, tambien
se define del siguiente modo:

E[X] =

x dF(x)

Para el caso de la variable absolutamente continua se tiene que su esperanza


7

5.8, pp. 168-169.


Ver Teorema 5.2 de Canavos (1988), seccion

14

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

es:

E[X] =

x f (x) dx

se definen convenientemente segun


en donde los lmites de integracion
el es
pacio de valores donde f (x) es positiva. La esperanza matematica
de una variable
de probabilidad p(x) se define como:
aleatoria discreta con funcion

E[X] = x p(x)

los lmites de integracion


se definen de forma conen donde, una vez mas,
veniente. El valor esperado de una variable aleatoria, su media poblacional, fre se
cuentemente se designa mediante la letra del alfabeto griego. A continuacion
algunas propiedades importantes de la esperanza:
enuncian sin demostracion

1. Si X es una variable aleatoria degenerada (que asume un valor constante C


con probabilidad uno), entonces E[X] = C.
2. Sea C una constante y X una variable aleatoria, entonces E[CX] = C E[X].
3. Sea X una variable aleatoria y sea Y = h(X) otra variable aleatoria que es
de X . Entonces, el valor esperado de Y es:
funcion

E[Y ] = E[h(X)] =

h(x)dF(x)

se redefinen de acuerdo a los lmiobservando que los lmites de integracion


para la variable X y en atencion
a la funcion
h. Si la vates de integracion
lo es y su esperanza se define mediante una
riable X es discreta, Y tambien
sumatoria.

de una variable aleatoria resLa varianza , que indica el grado de dispersion


es un valor esperado. De hecho, la varianza de una
pecto a su media, tambien

CARACTERISTICA Y GENERATRIZ. DISTRIBUCIONES


1.5. FUNCION

15

variable aleatoria X es el valor esperado de la diferencia cuadratica


de X respecto

a su media y en su calculo interviene la formula anterior:


2

V [X] = E[(X ) ] =

(X )2 dF(x)

Algunas de sus propiedades notables son:


1. Para toda variable aleatoria X , V [X] 0
2. Si C es una constante, V [CX] = C2 V [X].
3. Si A es una constante, V [X + A] = V [X].
4. V [X] = E[X 2 ] E 2 [X]. Esta ultima
formula es particularmente util

para el

calculo
de la varianza.
Finalmente, como ultima
nota en este aparte, se menciona la cota de Tchebys
chev , que involucra la esperanza y la varianza de una variable y es de utilidad para
acotar de forma muy aproximada ciertas probabilidades cuando no se tiene ningun

conocimiento sobre la ley de probabilidad de una variable aleatoria. Este resultado

se da en sus dos formas sin demostracion:

P [|X | ]

V [X]
2

y, recprocamente,

P [|X | < ] > 1

1.5.

V [X]
2

caracterstica y funcion
generatriz. PropieFuncion
dades y tablas de las principales distribuciones.

en la Estadstica de la funcion
generatriz de una variable discreta y la
El interes
caracterstica de una variable discreta o contnua radica en el calculo

funcion
de los

momentos y en el calculo
de las distribuciones muestrales, siendo estas particular
mente utiles
para el calculo
de la suma de n variables aleatorias independientes e

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

16

identicamente
distribuidas. Otro caso donde son de utilidad es cuando se tiene una

composicion de variables aleatorias de distintas distribuciones. Ah entonces se


del analisis

puede deducir la ley de probabilidad de la variable compuesta a traves


caracterstica o generadora.
de su funcion
caracterstica de una variable aleatoria X tiene una definicion
basLa funcion
tante sencilla: es la esperanza de eiuX , en donde u es una variable real. Se tiene,
pues:

x (u) = E[e

iuX

]=

eiuX dF(x)

es integrable para cada u y conComo eiuX = cos ux + i sin ux, esta funcion

secuentemente, (u) posee una parte real y una parte imaginaria. X (u) tambien
es conocida como la transformada deZFourier de F(x). Si la variable X es absolu

tamente continua, entonces X (u) =

eiux f (x)dx, con los lmites de integracion

definidos donde f (x) sea positiva.


que X (u) =
Si X es una variable aleatoria discreta, se tiene por definicion
eiux p(x) con los lmites de la sumatoria definidos en aquellos puntos donde la
de probabilidad p(x) sea positiva.
funcion
Las funciones caractersticas de algunas variables aleatorias discretas y con comunes se dan en las tablas 1.1 y 1.2. Es importante recalcar que la
tinuas mas
caracterstica depende del parametro

funcion
u, por lo tanto, cuando se hable de su
con respecto
derivada de orden k subsecuentemente, se refiere a la diferenciacion
caracterstica
a u. Por los momentos se indican algunas propiedades de la funcion
que son de utilidad, aclarando que en lo sucesivo omitimos el subndice X en X (u)

para ganar claridad tipografica.


caracterstica (u), entonces:
Sea X una variable aleatoria con funcion

(0) = 1
|(t)| 1
E[X k ] =

(k) (0)
ik

Esta ultima
propiedad es particularmente util,

podemos calcular el momento de


caracterstica, evaluandola

orden k de una variable X derivando k veces su funcion

CARACTERISTICA Y GENERATRIZ. DISTRIBUCIONES


1.5. FUNCION

17

en cero y dividiendo entre ik . Generalmente, en este tipo de calculos


surgen indeterminaciones de tipo 0/0 que se pueden resolver mediante el respectivo lmite y
la regla de LHospital.
caracterstica es que existe una coOtra propiedad interesante de la funcion

rrespondencia unvoca entre esta


y la ley de probabilidad de la variable aleatoria

que sirven a tales efectos, como


subyacente. Existen varias formulas
de inversion
el teorema de Levy. Dichas formulas se establecen en lo que sigue sin demostra 8:
cion
de distribucion
y la funcion
caracterstica de una
Sean F(x) y (u) la funcion
variable aleatoria X respectivamente. Si x1 y x2 son dos puntos de continuidad de
F(x) se tiene:

1
T 2

F(x2 ) F(x1 ) = lm

Z T iux1
e
eiux2
T

iu

(u)du

Como consecuencia de este teorema, se tienen los siguientes resultados:


Si X es discreta, entonces:

1
px (x) = lm
T 2T

Z T

eiux (u)du

de densidad de X es dada por:


En el caso continuo, la funcion

1
fx (x) =
2

Z T

eiux (u)du

de la inPor ultimo
es importante notar, aun
a la exposicion

adelantandose

de variables aleatorias, que la funcion

dependencia estocastica
y la convolucion
de una suma de variables indepencaracterstica sirve para obtener la distribucion
dientes. Esto se desprende del hecho de que el valor esperado de un producto de
variables aleatorias independientes es igual al producto de los valores esperados
de las variables respectivas, pero este punto se tratara en mayor detalle posteriormente.
En el caso en que la variable aleatoria X sea discreta y tome valores positivos,
generatriz del siguiente modo:
se puede definir su funcion
8

RIOS, pp. 96-97

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

18

g(u) = E[ux ] =

p(k)ux
k=0

Siempre y cuando u este dentro del radio de convergencia de dicha serie infini generatriz son las siguientes:
ta. Algunas propiedades notables de la funcion

1. p(k) =

g(k) (0)
k!

para k = 0, 1, 2, ...

E[X(X
2. E[X(X 1)...(X k + 1)] = g(k) (1), para k = 1, 2, .... La expresion
1)...(X k + 1)] se conoce como momento factorial de orden k para la variable X .

caracterstica, la funcion
generatriz determina unvocamente
Como la funcion
sirve a efectos de determila ley de probabilidad de una variable aleatoria y tambien
de la suma de variables aleatorias independientes. Las funciones
nar la distribucion
generatrices de diversas variables aleatorias discretas se dan en la tabla 1.1.

frecuentes y sus caractersticas


Tabla 1.1: Leyes de probabilidad discretas mas

Bernoulli

En un ensayo de Bernoulli se observa un exito


con probabilidad p o un fracaso con
probabilidad q = 1 p. 0 p 1
de probabilidad:
Funcion

px (x) =

1 p x = 0

x=1

x
/ {0, 1}

Valores Esperados:

E[X] = p

V [X] = pq

Generadora:
Funcion

Caracterstica:
Funcion

g(z) = q + pz

x (u) = q + peiu

CARACTERISTICA Y GENERATRIZ. DISTRIBUCIONES


1.5. FUNCION

19

frecuentes y sus caractersticas


Tabla 1.1: Leyes de probabilidad discretas mas

(continuacion)

Binomial

Es la suma de n variables aleatorias de Bernoulli independientes e identicamente

el numero

distribuidas con parametro


p. Representa tambien
de exitos
en n ensa
yos independientes. En lo que sigue 0 p 1, q = 1 p, n N +
de probabilidad:
Funcion

pX (x) =


n
x

px qnx si x {0, . . . , n}
0

E[X] = np

V [X] = npq

si x
/ {0, ..., n}

Generadora:
Funcion

g(z) =

Valores Esperados:

Caracterstica:
Funcion

(q + pz)n

x (u) = (q + peiu )n

Geometrica

La variable aleatoria geometrica


es el numero
de ensayos de tipo Bernoulli que se

requieren hasta observar el primer exito.En


lo que sigue, 0 p 1, q = 1 p.
de probabilidad:
Funcion

Valores Esperados:

pqx1 si x N+
px (x) =
0
si x
/ N+

E[X] =

Generadora:
Funcion

Caracterstica:
Funcion

g(z) =

pz
1qz

x (u) =

1
p

V [X] =

q
p2

peiu
1qeiu

Binomial Negativa
La variable aleatoria binomial negativa representa el numero
de ensayos hasta

observar la r-esima
ocurrencia de un exito
(r es un numero
fijo).

de probabilidad:
Funcion

pX (x) =


x1
r1

pr qxr si x r

Generadora:
Funcion

g(z) =

pz
1qz

r

Valores Esperados:

E(X) =

si x < r

r
p

V (X) =

rq
p2

Caracterstica:
Funcion

x (u) =

peiu
1qeiu

r

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

20

frecuentes y sus caractersticas


Tabla 1.1: Leyes de probabilidad discretas mas

(continuacion)

Poisson
La variable aleatoria Poisson representa el numero
de eventos que ocurren en un

instante de tiempo de amplitud fija cuando la tasa media de eventos en ese intervalo
de tiempo es .
de probabilidad:
Funcion

Valores Esperados:

x
e
x!
pX (x) =

E(X) =

si x N 0

V (X) =

si x < 0

Generadora:
Funcion

Caracterstica:
Funcion

g(z) = e(z1)

x (u) = e(e

iu 1)

frecuentes y sus caractersticas


Tabla 1.2: Leyes de probabilidad continuas mas

Uniforme
Es la variable aleatoria continua uniformemente distribuida sobre un intervalo (a, b).
La probabilidad de que la variable aleatoria uniforme se encuentre dentro de algun

subintervalo de (a, b) es proporcional a la amplitud de dicho subintervalo.


de densidad:
Funcion

fx (x) =

1
ba

si a < x < b
en caso contrario

Valores esperados:

E[X] =

a+b
2

V [X] =

(ba)2
12

caracterstica:
Funcion

x (u) =

eiub eiua
iu(b a)

Normal

El numero
de exitos
en n ensayos independientes de Bernoulli obedece aproxima
damente una ley Normal a medida que n tiende a infinito. Segun
el teorema central

del lmite, toda suma de n variables independientes e identicamente


distribuidas
es normal cuando n tiende a infinito. La ley normal modela adecuadamente una

amplia gama de fenomenos


aleatorios porque generalmente, las desviaciones de
una variable con respecto a un punto central se deben a la suma de una cantidad

indefinidamente grande de perturbaciones aleatorias identicamente


distribuidas e
independientes entre s. En lo que sigue , R > 0.

CARACTERISTICA Y GENERATRIZ. DISTRIBUCIONES


1.5. FUNCION

21

frecuentes y sus caractersticas


Tabla 1.2: Leyes de probabilidad continuas mas

(continuacion)

(Normal - continuacion)
de densidad:
Funcion


fX (x) = 12 exp 12

Valores esperados:


x 2

E[X] =

V [X] = 2

caracterstica:
Funcion

x (u) = exp iu 21 u2 2

Exponencial

La variable aleatoria exponencial juega un papel analogo


en el caso continuo a la

geometrica
y representa el tiempo que transcurre hasta que falla un componente.

Como la geometrica,
la variable aleatoria exponencial tiene la propiedad de no
poseer memoria: el haber esperado una cantidad de tiempo determinado sin que
no condiciona el tiempo adicional de
haya ocurrido la falla o el suceso en cuestion

esta relacionado con


espera en el futuro. El unico
parametro
de esta distribucion

de ser un valor
la tasa media de eventos por unidad de tiempo y tiene la restriccion
real positivo.
de densidad:
Funcion

Valores esperados:

ex si x > 0
fX (x) =
0
en caso contrario

E[X] =

V [X] =

1
2

caracterstica:
Funcion

x (u) = 1 iu

1

Gamma

La variable aleatoria gamma representa el tiempo de espera hasta la r-esima


ocurrencia de un fallo o evento cuando los eventos ocurren independientemente entre
s con una tasa promedio de por unidad de tiempo, con los tiempos inter-eventos

distribuidos exponencialmente con el mismo parametro.


Un caso especifico de la
de Erlang, que representa la suma de r variables aleatogamma es la distribucion
rias independientes distribuidas exponencialmente (en este caso, r es un numero

ji-cuadrado, la Weibull y la exponencial tambien


se
entero positivo). La distribucion
pueden definir como casos particulares de la gamma. Las restricciones sobre los

parametros
son , r > 0.

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

22

frecuentes y sus caractersticas


Tabla 1.2: Leyes de probabilidad continuas mas

(continuacion)

(Normal - continuacion)
de densidad:
Funcion

fx (x) =

r1 ex
(r) (x)

Valores esperados:
si x > 0
en caso contrario

E[X] =

V [X] =

r
2

caracterstica:
Funcion

x (u) = 1 iu

r

(r) es la funcion
gamma, que se define a continuaNota: La funcion

cion:
R
(r) = 0 ur1 eu du, r > 0
tiene las siguientes propiedades:
Esta funcion
1. (n + 1) = n(n), n > 0.
2. (n + 1) = n!, si n es un numero entero positivo.

1.6.

Variables aleatorias bidimensionales y n-dimensionales.


de distribucion
conjunta. Funcion
de densiFuncion
dad conjunta.

Sucede muy comunmente


que estamos interesados en investigar las relacio
caractersticas de los individuos de una poblacion
nes que hay entre dos o mas
de las variables aleatorias bidimensionales y, de forma
esto da pie a la definicion
general, a las n-dimensionales. Este concepto pretende dar respuestas a premas
relacion
existe entre la estatura y el peso corporal de
guntas tales como: Cual

cada persona? Existe algun


y el
vnculo entre el grado de desarrollo tecnologico
que son cientficos en un pas? Es importante recalcar
porcentaje de la poblacion
caractersticas que
que las variables aleatorias conjuntas se refieren a dos o mas

estan,
pues,
se observan simultaneamente
en cada individuo de una poblacion;
asociadas al mismo espacio muestral (ver Fig. 1.3). As por ejemplo, si estamos

interesados en comparar las destrezas matematicas


de estudiantes de uno y otro

liceo a partir de las notas de matematica


de una muestra de veinte alumnos de cada liceo, no se puede instituir en base a esto una variable aleatoria bidimensional

1.6. VARIABLES ALEATORIAS N-DIMENSIONALES

23

(dos liceos) ni tampoco un


porque los alumnos no provienen de la misma poblacion
par de notas se refieren al mismo individuo.
(Variable aleatoria bidimensional y n-dimensional). Sea (, , P) un
Definicion
espacio de probabilidad y X = X() e Y = Y () dos variables aleatorias definidas sobre ese mismo espacio probabilizado. El par (X,Y ) constituye una variable

aleatoria bidimensional, a veces denominada vector aleatorio . Analogamente,


si
X1 = X1 (), . . . , Xn = Xn () son n variables aleatorias definidas sobre el mismo espacio, entonces es una variable aleatoria n-dimensional (vector aleatorio
n-dimensional).
asociadas al mismo espacio
Figura 1.3: Las variables aleatorias conjuntas estan
muestral

X()' $

X()


v







v
*



X 
&%





'$
- v

Y ()
&%

Y ()

Como en el caso unidimesional, las variables aleatorias multidimensionales (n de distribucion


y funcion

dimensionales) son discretas o continuas y poseen funcion


de densidad de probabilidad segun
de probabilidad o funcion
sea el caso. Los vectores aleatorios son discretos si el producto cartesiano es un conjunto finito o nu preambulos,

merable; en caso contrario, el vector aleatorio es continuo. Sin mas


se
especifican seguidamente las particularidades salientes de los vectores aleatorios:

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

24

de probabilidad conjunta en caso discreto Al vector aleatorio discreto


Funcion
de probabilidad f (x1 , . . . , xn ) que repre(X1 , . . . , Xn ) se asocia una funcion
senta la respectiva probabilidad P{|X1 () = x1 , . . . , Xn () = xn } definida
en el espacio probabilizado y que cumple las siguientes condiciones:
1. p (x1 , . . . , xn ) 0
2.

x1 =

xn =

para todo (x1 , . . . , xn )

p (x1 , . . . , xn ) = 1

establece que la masa de probabilidad total sumada a


La segunda condicion
de la region
de valores donde p (x1 , . . . , xn ) 0 es igual a uno. Como
traves
es de hecho la que caracteriza a
en el caso unidimensional, esta condicion

cualquier funcion de probabilidad o de densidad.


de densidad de probabilidad conjunta (caso continuo) Al vector aleaFuncion
de densidad de probabilidad
torio continuo (X1 , . . . , Xn ) se asocia una funcion
R del espaf (x1 , . . . , xn ) que, asumiendo valores positivos en alguna region
cio n-dimensional, cumple las siguientes condiciones:
1. f (x1 , . . . , xn ) 0
2.

inRf ty
x1 =

para todo (x1 , . . . , xn )

f (x1 , . . . , xn ) dx1 . . . dxn = 1

xn =

de distribucion
de probabilidad conjunta Un vector aleatorio (X1 , . . . , Xn )
Funcion
de distribasado en un espacio de probabilidad (, , P) tiene una funcion
conjunta definida del siguiente modo:
bucion

FX1 ,...,Xn (x1 , . . . , xn ) = P{|X1 () x1 , . . . , Xn () xn }


mediante sumatorias o integrales multiples
Se calcula esta expresion
segun

sea el vector aleatorio discreto o continuo respectivamente. Las expresiones

para los momentos de los vectores aleatorios se obtienen de forma analoga


para la funcion

al caso unidimensional. Cabe destacar por ultimo


la expresion

caracterstica de un vector aleatorio:


caracterstica conjunta Sea (X1 , . . . , Xn ) un vector aleatorio basado en
Funcion
caracterstica conjunta esta
un espacio de probabilidad (, , P). Su funcion
dada por:

1.7. VARIABLES ALEATORIAS INDEPENDIENTES

25

h
i
X1 ,...,Xn (u1 , . . . , un ) = E ei(u1 X1 ++un Xn
Z

ei(u1 X1 ++un Xn f (x1 , . . . , xn ) dx1 . . . dxn

Rn

como una sumatoria


Ha de entenderse la ultima
integral de esta expresion

en el caso en que sea un vector aleatorio discreto.


Como ultimo
punto en este aparte, cabe observar que cada una de las varia
bles aleatorias Xi que conforman el vector aleatorio (X1 , . . . , Xn ) esta asociada a
un mismo espacio probabilizado, por lo cual cada una de estas variables tiene su
de probabilidad (de densidad de probabilidad, si es continua). En el
propia funcion
de probabilidad
contexto de las variables aleatorias multidimensionales, la funcion

(o de densidad) de cada variable aleatoria por separado se conoce como funcion


de probade probabilidad (densidad) marginal y se obtiene a partir de la funcion
de las otras variables aleatorias
bilidad conjunta sumando (o integrando) a traves
restantes.
de proAs por ejemplo, si tenemos el vector aleatorio (X,Y ) con su funcion
de densidad f (x, y) si es continua), podemos
babilidad conjunta p(x, y) (o funcion
de probabilidad marginal del siguiente modo:
obtener la funcion

pX (x) =

yRangoY

p(x, y)

fX (x) =

f (x, y)dy si (X,Y ) es continua


R

de dos dimensiones, tendremos suEn el caso de variables aleatorias de mas


de las variables aleatorias
matorias o integrales multiples,
a fin de sumar a traves

restantes.

1.7.

Variables aleatorias independientes y su caracteriza Covarianza. Distribucion


de la suma de dos o
cion.
variables aleatorias independientes. Convolucion.

mas

El analisis
de las relaciones entre las variables aleatorias de un modelo probabilstico tiene mucho que ver con el concepto de la independencia entre variables

26

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

aleatorias. Intuitivamente, decimos que dos variables aleatorias son independientes


si el resultado observado de una variable no afecta la ocurrencia del valor observado en la otra variable. Otra manera intuitiva de abordar la idea es considerando que
de probabilidades de
si dos variables aleatorias son independientes, la distribucion
de todos los posibles valores que asuma
una de ellas permanece igual a traves
directa con la posibilidad de factorizar la
la otra variable, lo cual guarda relacion
de probabilidad conjunta como el producto de las respectivas funciones de
funcion
probabilidad marginales.
se
A modo de ilustrar, se considera el siguiente ejemplo: en una poblacion,

observa la raza o grupo etnico


de cada persona conjuntamente con su nivel de
del coeficiente intelectual. Si el nivel de inteligencia de
inteligencia medida a traves

un individuo es independiente de su grupo racial u origen etnico,


se observara que

las proporciones de individuos inteligentes, normales y subnormales permaneceran

iguales sin importar el grupo racial o etnico


considerado. Valga este ejemplo para

senalar
otro aspecto importante sobre las relaciones de dependencia entre variables aleatorias: la estadstica se limita a discernir si ciertos niveles de una variable

van acompanados
por ciertos niveles de otra variable - las tecnicas
estadsticas

clasicas
no permiten discernir sobre las relaciones de causalidad de unas varia
bles sobre otras. En nuestro ejemplo, si encontrasemos
que el origen racial no es

independiente del nivel de inteligencia de un individuo, no por esto pudiesemos


inteligentes que otras o dicho de otro modo,
concluir que ciertas razas son mas
que el origen racial de un individuo explica su bajo o alto coeficiente intelectual.
bien, en este caso, el investigador debera evaluar si el instrumento de mediMas
de la inteligencia esta o no disenado

cion
de forma sesgada para favorecer a los
individuos de cierta raza por sobre los individuos de otras razas. En todo caso, si

la dependencia estocastica
es equivalente a la causalidad, eso es algo que debe

responderse fuera del ambito


probabilstico.
El concepto de variables aleatorias independientes y todas sus caracterizacio fundamentadas en el concepto de eventos
nes que veremos seguidamente estan

independientes, el cual se da a continuacion:


(Eventos independientes). Dos eventos A y B son independientes si
Definicion
y solo si P(A B) = P(A) P(B).
Un error comun
en cuanto al concepto probabilstico de independencia, por lo

menos en base a la experiencia docente del autor, es aquel de senalar


dos eventos mutuamente excluyentes como aquellos que son independientes entre s. De
hecho, se da justamente lo contrario: si dos eventos son mutuamente exclusivos,
la ocurrencia de uno determina con absoluta certeza la no ocurrencia del otro, por

1.7. VARIABLES ALEATORIAS INDEPENDIENTES

27

pueden considerarse eventos independientes. Es importante aclarar


lo cual jamas
de independencia estocastica

todos estos puntos en torno a la nocion


porque un

aspecto importante en el analisis


de los procesos estocasticos
es determinar si el
estado del proceso en un instante de tiempo es independiente de su estado en otro
la suposicion
de la independencia entre los estados del
instante. Como se vera,

sistema en distintos instantes de tiempo simplifica bastante el analisis


del proceso

estocastico.
Seguidamente se dan algunas caracterizaciones de la independencia de las
variables aleatorias conjuntamente distribuidas:

I.

de la independencia en terminos

Caracterizacion
de sus funciones de
probabilidad
Un conjunto de variables aleatorias conjuntamente distribuidas se dice ser in de probabilidad conjunta se puede factorizar
dependiente si y solo si su funcion
como el producto de las funciones de probabilidad de cada variable:

p(X1 , . . . , Xn ) = pX1 (x1 ) . . . pXn (xn )


de probabilidad por
Si el vector aleatorio es continuo, se intercambia funcion
de densidad en esta caracterizacion.

funcion
II .

de la independencia en terminos

Caracterizacion
de sus funciones de

distribucion
Para toda n-pla de valores (x1 , , xn ), se tiene que

FX1 ,...,Xn (x1 , , xn ) = FX1 (x1 ) . . . FXn (xn )


III .

de la independencia en terminos

Caracterizacion
de la esperanza ma
tematica
Para toda n-pla de funciones (g1 , , gn ) donde existan los respectivos valores

esperados en la siguiente ecuacion:

E[g1 (X1 ) . . . gn (Xn )] = E[g1 (X1 )] . . . E[gn (Xn )]


En palabras: la esperanza del producto de variables aleatorias conjuntamente
distribuidas es igual al producto de los valores esperados de cada variable. De
de independencia se deduce que la varianza de la suma
esta caracterizacion

28

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES


de variables aleatorias conjuntamente distribuidas e independientes es igual a
la suma de las respectivas varianzas:

V [X1 + . . . + Xn ] = V [X1 ] + . . . +V [Xn ]


IV .

de la independencia en terminos

caracCaracterizacion
de su funcion
terstica
caracterstica de un vector aleatorio conjuntamente distribuido es
La funcion
igual al producto de las funciones caractersticas de cada variable aleatoria
se infierespectiva cuando estas son independientes. Dicha caracterizacion
re de la propiedad anterior para el valor esperado del producto de variables
aleatorias independientes.

X1 ,...,Xn (u1 , , un ) = X1 (u1 ) . . . Xn (un )


de independencia es muy util.
Esta caracterizacion
Permite por ejemplo con
cluir que la suma de n variables exponenciales identicamente
distribuidas e
independientes es una variable aleatoria gamma.

Segun
las distintas caracterizaciones de independencia vistas, se tiene que dos
variables aleatorias, o son independientes o no lo son. Pero si hemos de establecer
un grado o la magnitud de la dependencia entre dos variables, una medida sera la
es:
covarianza , cuya definicion

cov[X,Y ] = E[(X E[X])(Y E[Y ])] = E[X Y ] E[X] E[Y ]


Es de notar que si dos variables aleatorias X e Y son independientes, las es del extremo derecho de estas igualdades se cancela peranzas en la expresion
consecuentemente, si dos variables aleatorias son independientes, su covarianza
contraria.
es cero, aunque no podemos establecer de modo general la implicacion
La covarianza puede ser negativa o positiva, sin embargo, a fin de acotar la cova
rianza y establecer comparaciones entre los grados de dependencia de dos o mas
pares de variables aleatorias se define a partir de la covarianza el coeficiente de
:
correlacion

cov[X,Y ]
[X,Y ] = p
V [X] V [Y ]

1.7. VARIABLES ALEATORIAS INDEPENDIENTES

29

el cual se puede demostrar que esta acotado entre -1 y 19 . En realidad, el coe mide el grado de linealidad en la relacion
de dos variables.
ficiente de correlacion
lineal decreciente perfecta:
Si es -1, se tiene que entre X e Y existe una relacion
afn de la otra y si una variable crece,
una variable se puede expresar como funcion
lineal creciente perfecla otra decrece. En cambio = 1 representa una relacion
afn de la otra y ambas decrecen o crecen
ta: una variable aleatoria es funcion

de linealidad entre una


simultaneamente.
Si es cero, no existe ninguna relacion
y otra variable, pero como ya se dijo anteriormente, esto no implica necesariamen sean independientes. Dicho sea de paso, existen
te que las variables en cuestion
un tanto mas
robustas que no toman la linealidad en
otras medidas de correlacion
de rango de Spearman y el
cuenta, como por ejemplo el coeficiente de correlacion
de rango de Kendall entre otros10 .
coeficiente de correlacion
El concepto de independencia entre dos variables y sus caracterizaciones en

terminos
de la esperanza matematica
de su producto tienen como consecuencia

de probabilidad de la suma de dos


un metodo
sencillo para obtener la distribucion
variables aleatorias. Se puede demostrar que si X e Y son dos variables
o mas
de densidad esta dada
aleatorias continuas e independientes entonces su funcion
por:

fX+Y (y) =

fX (x) fY (y x)dx

de probabilidad de X + Y para dos variables


Para el caso continuo, la funcion
independientes es:

pX+Y (y) = pX (x) pY (y x)


x

. En
Integrales como la de arriba se denominan bajo el nombre de convolucion

de dos funciones f y g se escribe


algunos textos de matematicas
la convolucion

f g, de modo que fX+Y (y) = fX fY . El calculo


de tales integrales (o sumatorias
en el caso discreto) puede resultar algo tedioso - es de este punto de donde las
funciones caractersticas derivan su importancia. Ya que la esperanza del producto
de dos variables aleatorias independientes es igual producto de sus respectivas
esperanzas, se tiene que:
9
10

del Teorema 7.11 en MEYER, p. 145


Ver la demostracion
Ver el capitulo 9 de Siegel (1974).

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

30

E[eiu(X+Y ) ] = E[eiuX eiuY ] = E[eiuX ] E[eiuY ]

y en consecuencia X+Y (u) = X (u) Y (u). En base a esta formula,


se pue de la suma de variables aleatorias independientes
de determinar la distribucion
caracterstica de la suma. Con este resultado, se explica
observando la funcion

facilmente
porque la suma de variables exponenciales independientes de identico

gamma, por ejemplo. Esta formula sera de utilidad


parametro
tiene una distribucion

en el analisis
de ciertos procesos estocasticos.

1.8.

Ejemplo para las secciones 1.6 y 1.7

A fin de consolidar su aprendizaje de los conceptos expuestos en las secciones anteriores sobre variables multidimensionales e independencia, considere el

problema a continuacion:

Problema Resuelto 1.3


al resultado, se definen las dos variables aleaSe lanzan dos dados y en atencion
torias siguientes:

X representa la suma de las dos caras resultantes en el lanzamiento de los


dados.

Y es una variable aleatoria dicotomica


que asume el valor de 1 si la cara del
primer dado es divisible entre 2 o 3, y 0 si no lo es.

de probabilidad conjunta de la variable aleatoria bidimenDetermine la funcion


sional (X,Y ) as como la funciones de probabilidad marginales de X y de Y . Adicio son independientes.
nalmente, indique si las dos variables aleatorias en cuestion

Solucion
Primero, debemos identificar el espacio muestral subyacente al experimento aleatorio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede
definir (o modelar, si prefiere) mediante el siguiente conjunto de pares ordenados:

= {(d1 , d2 ) | d1 , d2 N, 1 d1 , d2 6}

1.8. EJEMPLO PARA LAS SECCIONES 1.6 Y 1.7

31

En palabras, es el conjunto de todos los pares ordenados de numeros


tal

que cada numero


representa una de las posibles seis caras del dado respectivo.

Dicho conjunto tiene 36 elementos y asumiendo que los dados son justos y que el
lanzamiento de un dado no condiciona el lanzamiento del otro, cada uno de estos
36 eventos elementales del espacio muestral tiene una probabilidad asociada de
1
al castellano: todos los posibles resultados de lanzar dos dados son
36 . Traduccion
equiprobables.
A partir de este conjunto definimos las dos variables aleatorias como en el
enunciado del problema. Estas variables pueden considerarse como caractersti
asociadas a cada evento elemental o individuo de la
cas numericas
que estaran
En conjunto, se esquematiza todo esto en una tabla:
poblacion.

X(i )

Y (i )

X(i )

Y (i )

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

(1,1)
(1,2)
(1,3)
(1,4)
(1,5)
(1,6)
(2,1)
(2,2)
(2,3)
(2,4)
(2,5)
(2,6)
(3,1)
(3,2)
(3,3)
(3,4)
(3,5)
(3,6)

2
3
4
5
6
7
3
4
5
6
7
8
4
5
6
7
8
9

0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1

19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36

(4,1)
(4,2)
(4,3)
(4,4)
(4,5)
(4,6)
(5,1)
(5,2)
(5,3)
(5,4)
(5,5)
(5,6)
(6,1)
(6,2)
(6,3)
(6,4)
(6,5)
(6,6)

5
6
7
8
9
10
6
7
8
9
10
11
7
8
9
10
11
12

1
1
1
1
1
1
0
0
0
0
0
0
1
1
1
1
1
1

Observamos que la V.A. X asume valores entre 2 y 12 (11 posibles valores),


mientras que Y asume dos posibles valores 0 y 1. Para obtener las probabilidades
conjuntas, construimos una tabla de 11 columnas (cada columna representa un
posible valor de X ) y 2 filas (los dos posibles valores de Y ). En cada celda, se
indica la probabilidad respectiva con que ocurre el valor (x, y). Estas probabilidades
se obtienen a partir de la tabla anterior. Por ejemplo, el par (X,Y ) = (8, 1) ocurre

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

32

4 veces en 36 casos. Por lo tanto su probabilidad es igual a 4/6 y este valor es


el que colocamos en la celda respectiva. Para variables aleatorias bidimensionales
discretas, dicha tabla se conoce como tabla de contingencia :

10

11

12

1
36

1
36
2
36

1
36
3
36

2
36
3
36

2
36
4
36

1
36
4
36

1
36
3
36

1
36
2
36

1
36
1
36

1
36
1
36

1
36

A esta tabla de contingencia podemos agregarle las respectivas funciones de


probabilidad marginales (que son fX (x) y fY (y)) totalizando las probabilidades de
las celdas y de las columnas:

Totales

10

11

12

fY (y)

1
36

0
1
36

1
36
3
36
4
36

2
36
3
36
5
36

2
36
4
36
6
36

1
36
4
36
5
36

1
36
3
36
4
36

1
36
2
36
3
36

1
36
1
36
2
36

12
36
24
36

fX (x)

1
36
2
36
3
36

1
36
1
36
2
36

1
36
1
36

Con las funciones de probabilidad marginales de X e Y podemos verificar si


estas variables son independientes. Recordemos que una de las definiciones o ca de probabilidad conjunta
racterizaciones de independencia requiere que la funcion
sea factorizable por las respectivas funciones de probabilidad marginales, es decir,
que se cumpla p(x, y) = pX (x) pY (y) para todo x,y.
1
Si tomamos, por ejemplo, x = 3 e y = 0, tenemos p(x, y) = p(3, 0) = 36
, pero
12 2
1
pX (x) pY (y) = 36 36 = 54 y claramente se tiene que p(x, y) 6= pX (x) pY (y) y por
lo tanto X e Y no son independientes.

Han podido considerarse otras instancias de x e y, pero basta que no se cumpla


p(x, y) = pX (x) pY (y) para una instancia para que el par X , Y no sea independiente. Este resultado tiene una lectura intuitiva: para que la suma X sea 2, es necesario
que D1 no sea divisible entre 2 o 3. Por otro lado, para que X sea 12, es necesario
que D1 sea divisible entre 2 y 3, porque tanto D1 como D2 son necesariamente
iguales a 6. Por lo tanto, vemos que la divisibilidad de D1 por 2 o 3 condiciona la
suma X ; de hecho, se observa que para distintos valores de X las proporciones de

1.9. PROBLEMAS PROPUESTOS

33

las probabilidades conjuntas para los casos Y = 0 o Y = 1 son distintas. Todo esto
confirma que X e Y son mutuamente dependientes, aunque el grado de dependen notado es la razon
por la cual
cia no es total. Otra cosa que seguramente habras
las funciones de probabilidad individuales de X y de Y se denominan funciones de
probabilidad marginales: siendo totales de columnas y de filas, se especifican en

los margenes
de la tabla de contingencia.

1.9.

Problemas propuestos

1. Defina, en sus propias palabras, los siguientes conceptos:


a) Espacio muestral
b) Evento
c) Variable aleatoria
de distribucion
de probabilidades
d) Funcion
de densidad de probabilidades
e) Funcion
f ) Funcion de probabilidad
2. Defina el espacio muestral asociado al siguiente experimento aleatorio: Un
lote contiene 10 artculos, 3 de los cuales son defectuosos. Se extrae un
artculo a la vez de este lote, sin reemplazo, hasta haber obtenido todos los
artculos defectuosos y se observa la cantidad de artculos que quedan en el
lote.

3. Si A y B son dos eventos asociados a un espacio muestral, como


se interpreta A B? A B? A?
4. Demuestre que para dos eventos A y B cualesquiera, P(A B) = P(A) +
P(B) P(A B).
5. Para un evento cualquiera A asociado a un espacio muestral , demuestre
que P(A) = 1 P(A).
6. Un jugador italiano expreso su sorpresa a Galileo por observar que al jugar
frecuencia que la 9. Segun
con tres dados, la suma 10 aparece con mas
el
jugador los casos favorables al 9 y al 10 seran respectivamente:

34

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES


Casos favorables al 9
126
135
144
225
234
333

Casos favorables al 10
136
145
226
235
244
334

Pero Galileo, en su libro Considerazione sopra il giuoco dei dadi, vio que estas combinaciones no se pueden considerar igualmente probables. Explique
porque y calcule las probabilidades correspondientes.

7. La correspondencia epistolar entre Pascal y Fermat, dos grandes matemati


cos del siglo XVII, que jugo un papel historico
determinante en el desarrollo
de la teora de la probabilidad, fue motivada por algunos problemas relativos
` un aristocrata frances

a los juegos de azar. Se dice que el Chevalier de Mere,


aficcionado a los juegos de dado, solicito la ayuda de ellos para esclarecer
ventajoso apostar a que un seis salga por lo menos una vez en 4
si era mas
lanzamientos de un dado o apostar a que en 24 lanzamientos de dos dados,

salga un doble seis por lo menos una vez. Como


hubiese aconsejado Ud.
`
a de Mere?
8. Defina independencia entre eventos y eventos mutuamente excluyentes.
es la diferencia entre estos dos conceptos?
Cual
Ay
9. Si A y B son dos eventos mutuamente independientes, lo son tambien
B? Demuestrelo o verifique lo contrario mediante un contraejemplo.
10. Sean A y B dos eventos asociados a un espacio muestral. Justifique la siguiente igualdad: P(A) = P(A B) + P(A B).
11. Si A y B son dos eventos independientes, son mutuamente excluyentes

tambien?
Demuestrelo o verifique lo contrario mediante un contraejemplo.
frecuentista de la probabilidad como en la definicion

12. Tanto en la definicion

clasica
(segun
Laplace) de la probabilidad se caracteriza la probabilidad de
un evento A como el cociente nnA . Cual es la diferencia entre ambas definiciones entonces?
del concepto de variable aleatoria, porque es necesaria la
13. En la definicion
de que la variable aleatoria sea una funcion
medible?
condicion

1.9. PROBLEMAS PROPUESTOS

35

de distribucion
de probabilidad.
14. Sea X una variable aleatoria y F su funcion
Demuestre que F(+) = 1.
de densidad de
15. Sea X una variable aleatoria contnua y f (x) su funcion
probabilidad. Explique porque f (x) y la probabilidad puntual P{X = x} no
son lo mismo.

16. Se lanza una moneda repetidas veces hasta obtener tres caras en sucesion
y se observa el numero
total de lanzamientos efectuados (X ).

a) Defina el espacio muestral.


b) Calcule las siguientes probabilidades P(X = 3), P(X = 4) y P(X = 5).
17. San Pedro llega muy borracho a su casa todas las noches. Para poderse
acostar a dormir en su cuarto, tiene que abrir dos puertas cerradas con llave.
de todo), su llavero consta de
Desgraciadamente (es San Pedro despues

100 llaves, y esta tan borracho que debe tantear las llaves en cada cerradura
de manera aleatoria (cada llave tiene igual probabilidad de usarse en cada
tanteo. Todas las noches su esposa lo observa en este trance. Como buena
cuaima, ella decide que San Pedro dormira en el sofa si tiene que tantear
de 7 llaves (pues en ese caso ella considera que estara demasiado
mas
borracho). Esta noche, San Pedro llega a su casa totalmente empapado en

ron- cual es la probabilidad de que le toque dormir en el sofa?


de una fabrica

18. En una lnea de produccion


en China se produce cierto tipo
el 10 % de los artculos salen defectuosos.
de artculo y de esta produccion,
esta probabilidad es consDebido a la naturaleza del proceso de fabricacion,
Un inspector de
tante para cada artculo individual en la lnea de produccion.
es
calidad visita la fabrica y toma una muestra aleatoria de 4 artculos. Cual
artculos defectuosos?
la probabilidad de que encuentre uno o mas
19. En la Republica
Bolivariana de Venezuela se producen en promedio 200 ca
administrativa semanalmente, segun
sos de corrupcion
un proceso de Pois solo el 1 % concluye en carcel

son. De estos casos de corrupcion,


para los

culpables. Cual es la probabilidad de que en la proxima semana se produz delitos de corrupcion


punibles?
can 2 o mas
20. Sea T el tiempo de vida en horas de un componente distribuido exponencialmente con tiempo de vida promedio de 5 horas. Calcule las siguientes
probabilidades:
a) P{T > 3}.

UNIDAD 1. REPASO DE TEORIA DE PROBABILIDADES

36
b) P{T = 5}.

c) P{4 T < 6}.


es la probabilidad de que una variable aleatoria exponencialmente
21. Cual
distribuida tome valores mayores a su media?

22. Un estudiante de procesos estocasticos


desea realizar una encuesta a 10
de la
estudiantes de ingeniera de sistemas, para lo cual se para en el porton
UNEFA a fin de seleccionar los 10 primeros alumnos de sistemas que pasen
por ah. Si N es la variable aleatoria que se define como el numero
total de

(sean de sistemas o no), hasta obtener


estudiantes que pasan por el porton
la muestra de los 10 alumnos de sistemas, y p es la probabilidad de que un
sea un alumno de sistemas,
estudiante cualquiera que pasa por el porton
demuestre que el valor esperado de N es 10/p. (Ayuda: Encuentre primero
caracterstica o generadora de momentos de N ).
la funcion
23. Sea X una variable aleatoria uniformemente distribuida en (0, 1). Demuestre
2 con dos
que la variable aleatoria Y = 2log(X) tiene una distribucion
de densidad de la 2 con k grados de
grados de libertad. Ayuda: la funcion
libertad es:

f (x; k) =

k
2

1


2k/2

x(k/21) e(x/2) x > 0


x0

Unidad 2

a la simulacion

Introduccion

estocastica
mediante R
como el proceso de disenar

Definimos simulacion
un modelo de un sistema real y conducir experimentos con este modelo a fin de entender el comportamiento del sistema y/o evaluar varias estrate del sistema. Por lo tanto es
gias para la operacion

un punto crucial que el modelo sea disenado


de tal
manera que imite las respuestas del sistema real
a eventos que ocurren en el tiempo.

PARALL ELLES
I NT ERFERENTES
1952
Jesus Soto

Robert Shannon
al arte de la simulacion

Introduccion

37

38

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

Objetivos de la Unidad
a la simulacion
esEl objetivo general de esta Unidad es servir de introduccion

tocastica
como una herramienta para afianzar el aprendizaje de los contenidos de

la teora de la probabilidad y los procesos estocasticos


que se cubren en este libro.

Al termino
de la misma, se quiere que el estudiante logre los siguientes objetivos
especficos:
Instalar o acceder al interprete de comandos del lenguaje R, que sera el
las simulaciones en este libro.
lenguaje con el cual se implementaran

Aprender y practicar los aspectos basicos


de la sintaxis, los tipos de datos y
las estructuras de control fundamentales de R.
problemas de
Construir scripts en R para resolver, mediante la simulacion,

calculo
de probabilidades o valores esperados.

2.1.

al R
Para que la simulacion?
Breve introduccion

El uso de la teora de la probabilidad para deducir algunas propiedades de un


cierta dificultad- se presenta casos en donde el analisis

modelo aleatorio entrana

que involucra el
teorico
de un matematico
experimentado sobre alguna situacion
nuestra formacion
teorica

azar es errado. Si ademas


sobre las probabilidades es
comun),
deficiente (lamentablemente este es el caso mas
entonces se dificulta aun

el abordaje de ciertos problemas. Pero teniendo una computadora, contamos


mas

con un instrumento epistemologico


que nos permite obtener conocimiento sobre
el modelo aleatorio de forma experimental- este es el objetivo fundamental de la

denominada simulacion.
como la programacion
misma, es un arte. No existe un procediLa simulacion,

miento mecanico
para hacer simulaciones. Lo que se requiere del analista es determinar detalladamente las reglas y la secuencia de acciones que rigen el comportamiento de los componentes del sistema a simular. Se deben establecer bien las
relaciones de dependencia entre los componentes y deslindar aquellos comporta comportamientos.
mientos de componentes que son independientes de los demas

Esta secuencia de acciones y comportamientos conforma un ciclo, analogo


a una


2.2. COMO
CONSEGUIR EL INTERPRETE R

39

partida de un juego. Como en las simulaciones se pretende determinar las probabilidades o los valores esperados, se deben realizar muchas iteraciones de estos
ciclos para ver cual es su comportamiento a la larga. Es en este punto donde

estriba el poder del computador como instrumento epistemologicoel computador

realiza esta mirada de calculos


rapidamente,
obteniendo la probabilidad o el valor
de la fuerza de computo bruto.
esperado deseado a traves
para la investigacion
numerica

Existen diversos entornos de programacion


o

estocastica.
Entre estos, se escogio el lenguaje R para desarrollar los ejemplos y

trabajos practicos
de este curso. El lenguaje R es un sistema para el analisis
es
y aplicacion
basado en el
tadstico y grafico,
a la vez un entorno de programacion
lenguaje S desarrollado por los Laboratorios AT&T Bell1 . Uno de los atractivos prin
cipales de R es que se distribuye libremente bajo los terminos
de la GNU General

Public License. Aunado a esto, existen muchos programas en S disponibles a traves


del Internet que se pueden ejecutar directamente bajo R2 . El lenguaje R, siendo un
orientado a objetos, incorpora sentencias basicas

lenguaje de programacion
de
bucles y condicionamiento junto con herramientas sofisticadas de alto nivel para el

analisis
estadstico, lo cual le da una enorme flexibilidad. Por todas estas razones,
preponderancia en el mundo academico

el lenguaje R tiene cada vez mas


y en la
estocastica.

investigacion

2.2.

Como
conseguir el interprete R

de R para los sistemas operativos mas


comunes
Los binarios para la instalacion
(Linux, Windows, MacOs o Solaris) se encuentran disponibles para su descarga en

la pagina
principal del proyecto R (CRAN): http://cran.r-project.org/. Si se
Linux, que es lo que el autor recomienda, se
ha de usar el R bajo una instalacion
instalar un IDE3 como el Geany, el cual es bastante facil
de usar.
sugiere tambien
4
Junto con este libro se ha incluido un Live CD de Linux con R, algunas libreras

de utilidad y el Geany instalado. En el apendice


se incluye un breve tutorial sobre

el uso de Geany. La instalacion de R para Windows incluye un editor de scripts y


1

Ver Paradis (2002).


Consultar en http://stat.cmu.edu/S/.
3
compilacion,
ejecucion
y depuraLos IDE son entornos de desarrollo integrados para la edicion,
de programas en varios lenguajes.
cion
4
del sistema
El Live CD es un CD de arranque para el sistema operativo Linux, e incluye, ademas
operativo, otras aplicaciones, como en este caso R y las libreras. Arrancando el computador desde
un Live CD en la unidad lectora, el sistema operativo se monta en memoria RAM y el usuario puede

trabajar sin afectar los contenidos del disco duro de la maquina.


2

40

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

una consola de comandos.

Figura 2.1: Encabezado de un servidor RWeb. El recuadro de comandos se en abajo en la pagina.

cuentra mas
existe la posibilidad de usar el R desde un servidor RWeb (Ver Fig.
Tambien
de un servidor RWeb, el usuario puede ejecutar scripts de R sin ne2.1). A traves

cesidad de instalar el interprete


R como se indica arriba. No obstante, si es nece internet para navegar a alguna de las paginas

sario disponer de una conexion


que

hospedan servidores RWeb. El procedimiento para esto se indica a continuacion:

1. Mediante el navegador web, acceda a alguna pagina


con servidor RWeb.
Algunas de estas son:

http://www.mzandee.net/zandee/statistiek/rweb/
Bioinformatique Lyonhttp://pbil.univ-lyon1.fr/Rweb/ - del Pole
nais, adscrito a la Universidad de Lyon en Francia, corriendo R 2.11.1.
Lille1 cohttp://claree.univ-lille1.fr/Rweb/ - de la Universitee
2.9.0.
rriendo R version

http://data-engine.tama.ac.jp/Rweb/Rweb.general.html - Ta 2.12.1 de R. Este servidor tiene la version


mas

ma University, version
actualizada de R.

http://www.unt.edu/rss/Rinterface.htm - University of North Te 2.5.1. Este servidor contiene muchos paquetes


xas corriendo R version
complementarios.

2. Se escribe el codigo
R del script a ejecutar en el recuadro correspondiente

que se muestra en la pagina


(ver Fig. 2.2).

AL LENGUAJE R
2.3. BREVE INTRODUCCION

41

Figura 2.2: Recuadro de comandos de un tpico servidor RWeb.

3. Para ejecutar el codigo,


presione el boton
Submit debajo del recuadro

para colocar el codigo,


tal como se muestra en la figura.
4. Debe esperar cierto tiempo para que el servidor RWeb ejecute el script su
ministrado. Luego se cargara una pagina
web con los resultados.

2.3.

al lenguaje R
Breve introduccion

con todas las de la ley. A pesar de que su


R es un lenguaje de programacion

fuerte es el computo
numerico
y el procesamiento estadstico de datos, es un len
guaje de proposito
general y es multiparadigma - lo cual quiere decir que soporta la
orientada a objetos (mediante el sistema S4) y la programacion
funprogramacion
cional (gracias a su herencia de Scheme y otros lenguajes basados en Lisp). Desde
procedimental y estructurada, lo cual quiere decir
luego, R soporta la programacion
que el lenguaje posee las estructuras de control usuales en otros lenguajes: for,
daremos una breve introduccion
al lenguaje R, que
while, if, etc. En esta seccion
no pretende ser un curso completo.

42

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

En primer lugar, debemos aclarar que R es un lenguaje interpretado, no compilado. Esto quiere decir que el usuario puede ingresar expresiones o comandos de
5 que inmediatamente seran
evaluados, devolviendo el
R tras el caracter de peticion

interprete
un resultado. El usuario puede, si lo desea, encadenar una secuencia de
instrucciones o expresiones en R para crear lo que se conoce como un programa solo que en R no los llamamos programas, sino scripts, porque R es un lenguaje interpretado. Dichos scripts se crean como un archivo de texto plano en un editor de
para
textos como Notepad, gedit o el editor de scripts que se incluye en la version
como extension

Windows de R6 . Los archivos con los scripts de R siempre tendran


el sufijo .R.

(constantes numericas
En R, los tres tipos basicos
de datos7 son el numerico
reales o enteras, indistintamente), las cadenas de caracteres (que se encierran

entre comillas ) y los logicos


o booleanos8 . A modo de ejemplo, indicaremos se
guidamente algunas expresiones numericas
junto con las salidas correspondientes
del interprete R:
> 2/4
[1] 0.5
> 2/3+1
[1] 1.666667
> 2/(3+1)
[1] 0.5
> sqrt(2)
[1] 1.414214
> 1.4142142
[1] 2.000001
5

o prompt, usualmente es >.


El caracter de peticion,

Para los usuarios de Linux con Geany, vease


el apendice.
7
los factores, que se utilizan para codificar valores de una variable categorica.

Existen tambien
Sin
embargo, en este curso no nos ocuparemos de este tipo de datos.
8

Las dos constantes logicas


para verdadero y falso son, respectivamente TRUE o T y FALSE o F.
La sintaxis de R es sensible a mayusculas y minusculas,
de modo que usar true o True en vez de

TRUE generara un error.


6

AL LENGUAJE R
2.3. BREVE INTRODUCCION

43

En lo anterior se ilustra el uso de parentesis


como operadores de precedencia

aritmetica (notese la diferencia entre 2/3+1 y 2/(3+1)9 ), as como el uso de funcio


nes como sqrt para calcular la raz cuadrada de su argumento y la exponenciacion

mediante el operador . Desde luego, R posee muchas otras funciones matemati (y otras
cas como log, sin, cos disponibles en cualquier lenguaje de programacion
especificas que no estan
incluidas en cualquier lenguaje de programacion).

mas
A
algunos ejemplos de expresiones con cadenas de caracteres:
continuacion
> paste("procesos","estocasticos")
[1] "procesos estocasticos"
> paste("aritmetica",2+2)
[1] "aritmetica 4"
> paste("procesos","estocasticos",sep="")
[1] "procesosestocasticos"

paste() toma sus argumentos, los convierte a cadenas y concatena


La funcion
(mediante
las cadenas en una sola. Cuando no se indica el caracter de separacion
por defecto
el argumento sep como se indica arriba), el caracter de separacion
algunas expresiones con datos
es un espacio en blanco (sep=). A continuacion

logicos:
> 2+2==4
[1] TRUE
> 2+2!=5
[1] TRUE
> 3>5
[1] FALSE
> TRUE & FALSE
[1] FALSE
> TRUE | FALSE
[1] TRUE
9

de los parentesis

se pueden utilizar las llaves {}.


Ademas
(), tambien

44

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

> !TRUE
[1] FALSE

logicos

En lo anterior, observe los operadores de comparacion


(==, !=, >, etc.),
los operadores booleanos propiamente dichos (| es el operador
as como tambien
logica,

logica

de disyuncion
& es el operador de conjuncion
y ! es el operador de

negacion).

Las variables en R se denotan mediante identificadores. Un identificador valido en R comienza por una letra (mayuscula
o minuscula),
seguido de dgitos y/u

se pueden usar (nunca al comienzo del


otras letras. Los caracteres . y tambien
identificador) y son utiles
para indicar separaciones entre palabras o elementos

del identificador. Las variables pueden ser asignadas a constantes (literales) o a


(<-). Observe los ejemplos a
otras variables mediante el operador de asignacion

continuacion:
> raiz2 <- sqrt(2)
> raiz2
[1] 1.414214
> raiz22
[1] 2
> raiz22==2
[1] FALSE

El identificador raiz2 denota una variable a la cual se le ha asignado el valor

sqrt(2). Observe que aun


numerico
de la funcion
cuando raiz22 se visualiza

como 2, no es exactamente igual a 2, debido a errores inherentes en la precision


numerica.

de la representacion
En todo lo anterior, el lector se habra preguntado porque aparece un [1] antes
de esto tiene que ver
de los resultados que arroja el interprete R. La explicacion
con una estructura de datos fundamental en R: el vector. Un vector es una lista

o arreglo que consta de datos de un mismo tipo (numerico,


logico
o cadenas de

caracteres). Los vectores en R pueden crecer o decrecer dinamicamente


- no hay
que alocarlos en memoria de antemano, como ocurre en PASCAL por ejemplo. La
R para construir vectores es c(), que coerciona los argumentos al mismo
funcion
tipo y los concatena:

AL LENGUAJE R
2.3. BREVE INTRODUCCION

45

> vec <- c("a","b","c",1,2,3)


> vec
[1] "a" "b" "c" "1" "2" "3"
> length(vec)
[1] 6
> vec <- c(vec,"c","b","a")
> vec
[1] "a" "b" "c" "1" "2" "3" "c" "b" "a"
> length(vec)
[1] 9

Aqu asignamos a la variable vec un vector cuyos tres primeros elementos


son cadenas de caracteres y cuyos tres ultimos
elementos son numeros.
Como se

intenta concatenar elementos de distintos tipos y los vectores son, por definicion,
secuencias de datos del mismo tipo, se convierten todos los datos a cadenas de
length() devuelve la longitud (cantidad de elementos) del
caracteres. La funcion

vector en su argumento, que en este punto es 6. La segunda llamada a la funcion


c() concatena tres elementos de cadena adicionales al vector vec. Esto ilustra
que los argumentos de c() pueden ser tanto vectores como datos elementales.
length(vec) para constatar que ahora vec
Finalmente, invocamos a la funcion
consta de 9 elementos.
Otra manera de generar vectores es mediante secuencias, con el uso de :
entre dos numeros
enteros, que indican desde donde hasta donde se genera la se
seq(from,to,by). Sobre esta ultima,
cuencia o mediante la funcion
el argumento

from indica el numero


de inicio de la secuencia, el argumento to indica el numero

final de la secuencia y el argumento by indica el paso, o incremento de la sucesion.


Veamos:
> 1:100
[1]
[15]
[29]
[43]
[57]
[71]
[85]
[99]

1
2
15 16
29 30
43 44
57 58
71 72
85 86
99 100

3
17
31
45
59
73
87

4
18
32
46
60
74
88

5
19
33
47
61
75
89

6
20
34
48
62
76
90

7
21
35
49
63
77
91

8
22
36
50
64
78
92

9
23
37
51
65
79
93

10
24
38
52
66
80
94

11
25
39
53
67
81
95

12
26
40
54
68
82
96

13
27
41
55
69
83
97

14
28
42
56
70
84
98

46

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

> seq(0,1,0.1)
[1] 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

Este ultimo
ejemplo ayuda a dilucidar un poco la pregunta que nos hicimos an
teriormente sobre el [1] al comienzo de las expresiones de salida en los primeros
ejemplos. El 1 en [1] representa el primer elemento del vector10 . A lo largo de
todos estos ejemplos, inclusive aquellas expresiones que generaban un solo dato elemental, el interprete R devuelve vectores al evaluar dichas expresiones, aun

cuando en los primeros casos, los vectores eran de longitud 1.


Seguidamente vamos a dar ejemplos sobre como acceder o referirnos a los
La indeelementos individuales de un vector, lo cual se conoce como indexacion.
en R se realiza colocando el o los elementos ndices entre los corchetes []
xacion
que siguen al identificador del vector:
> a <- seq(2,100,2)
> a[1]
[1] 2
> a[50]
[1] 100
> a[80]
[1] NA
> a[5:9]
[1] 10 12 14 16 18
> a[a>22 & a<50]
[1] 24 26 28 30 32 34 36 38 40 42 44 46 48

Observamos que el vector a solo tiene 50 elementos, por lo cual al tratar de


acceder al elemento numero
80 (a[80]), el interprete devuelve un NA como salida,

indicando efectivamente que el elemento en referencia no existe (NA significa not


que sigue, a[5:9], devuelve todos los elementos de a,
available). La expresion
es mas
interesante e ilustra el poder
desde el quinto al noveno. La ultima
expresion

10
A diferencia del lenguaje C, donde el primer elemento de un arreglo es aquel cuyo ndice es 0,
en R el ndice del primer elemento es 1.

AL LENGUAJE R
2.3. BREVE INTRODUCCION

47

en R. La expresion
de indexacion
entre corchetes puede ser una
de la indexacion

condicion logica- entonces el interprete R devuelve todos los elementos del vector
En este caso, como a es la secuencia de los 50
que satisfacen dicha condicion.
primeros numeros
pares positivos, a[a>22 & a<50] sera todos aquellos numeros

pares mayores a 22 y menores a 50.


Vamos a ilustrar ahora el uso de estructuras de control mediante otro ejemplo:

supongase
que queremos calcular los cuadrados de los 10 primeros numeros
en
teros (del 1 al 10). Una primera forma de hacerlo, que no sera muy eficiente por
cierto, sera generar la secuencia de los 10 primeros numeros,
recorrerla con un

while e ir concatenando el cuadrado de cada elemento a otro vector:


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

# ------------------------------------------------------------# 2_1. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------# inicializamos las variables : a es la secuencia de
u nmeros del
#1 al 10 , b es inicialmente un vector vacio e i es el indice ,
# que inicialmente apunta al primer elemento de a
a <- 1:10
b <- NULL
i <- 1
# recorremos el vector a elevando cada elemento al cuadrado
#y concatenandoselo al vector b
while (i<=10) {
b <- c(b,a[i]2)
i <- i + 1
}
# finalmente hacemos que el interprete devuelva el vector b:
b
[1]

16

25

36

49

64

81 100

El de arriba fue nuestro primer script. Observe que los comentarios se indi numeral (#) como primer caracter
- a partir del smbolo
can colocando el caracter
numeral, el resto de la lnea sera considerada como comentario. Es una buena

aun,

practica
colocar comentarios abundantemente. Mas
pa una buena practica

ra programar consiste en elaborar el algoritmo en seudocodigo,


colocandolo
como

comentarios, y luego rellenar el esqueleto del programa con codigo


verdadero en
El while se sigue de una expresion
entre parentesis

el lenguaje de programacion.
logica

que indica la condicion


que ha de cumplirse para seguir en el bucle. Des de la condicion
logica

pues
entre parentesis,
todo el cuerpo del bucle se indica

encerrandolo
entre llaves { ...}, tal como se hace en C. Aun
cuando la indenta-

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

48

11 del codigo

cion
no es necesaria en R, es una buena practica
indentar el cuerpo
interno de las estructuras de control. De esta forma, el programador puede visuali

zar facilmente
el nivel de anidamiento de un codigo
dentro de un programa, lo cual

a su vez facilita enormemente su depuracion.

deYa que estamos pontificando sobre las buenas practicas


en programacion,
bemos observar nuevamente que recorrer un vector de longitud conocida mediante
eficiente - es mejor usar un for. Mas
aun,
un while no es precisamente lo mas

como la variable ndice del for asume justamente los valores numericos
que queremos elevar al cuadrado, no es preciso crear la secuencia a como al principio del
script anterior:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

# ------------------------------------------------------------# 2_2. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------# inicializamos las variables : b es inicialmente un vector
# vacio , i es el indice del bucle for .
b <- NULL
# elevamos cada
u nmero i al cuadrado y lo concatenamos al
# vector b
for (i in 1:10) {
b <- c(b,i2)
}
# finalmente hacemos que el interprete devuelva el vector b:
b
[1]

16

25

36

49

64

81 100

elegante y mas
breve (menos lneas de codigo)
No solo es el script 2 2.R mas
mas
rapido

es tambien
que el script 2 1.R, aunque la diferencia entre un while
largas.
y un for realmente se nota cuando se recorren secuencias mucho mas
El uso del for como estructura de control para iterar en un bucle una cantidad

propredeterminada de veces es algo estandar


en los lenguajes de programacion

cedimentales, pero en R, tampoco es lo mas eficiente (o elegante).


Cuando se esta aprendiendo a programar en R, uno muchas veces lee en fo del codigo.

ros de ayuda o en manuales sobre la vectorizacion


En el argot de los
programadores de R, vectorizar significa recorrer secuencias o vectores sin usar
con expresiones logi
el for. Una forma de vectorizar es mediante la indexacion
11
se refiere a la practica

La indentacion
de colocar espacios en blanco al principio de una lnea de

codigo.

AL LENGUAJE R
2.3. BREVE INTRODUCCION

49

directamente a traves

cas, como vimos arriba. Otra forma es aplicar una funcion


de todos los elementos de un vector, lo cual es posible porque R soporta la pro funcional. De hecho, casi todas las funciones definidas o definibles en
gramacion
R son vectorizables. En nuestro caso, para hallar los cuadrados de los 10 primeros
numeros
naturales, solo tendramos que ejecutar lo siguiente:

1
2
3
4
5
6
7
8

# ------------------------------------------------------------# 2_3. R
# script para generar el cuadrado de los
u nmeros del 1 al 10
# autor :
e Jos L. Romero P.
# fecha : 13/08/2011
# ------------------------------------------------------------b <- (1:10)2
b
[1]

16

25

36

49

64

81 100

Se han expuesto los rudimentos del lenguaje R. Aunque todava hay muchas
funcionalidades del lenguaje por ver, estamos en condiciones de abordar un primer

problema de simulacion.

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

50

2.4.

El juego de Monty Hall


Dos problemas de simulacion:
y el encuentro

se comienza con un ejemplo exA modo de ilustrar lo que es una simulacion,


britanico

trado de un concurso en un programa de television


que consiste en lo
siguiente:

Problema Resuelto 2.1 (El juego de Monty Hall)


El concursante se encuentra ante tres puertas entre las
de una de las puercuales debe escoger una. Detras
de cada una de las
tas se encuentra un carro y detras
otras dos un apestoso animal (una cabra). El trato es
el siguiente, el animador (que sabe donde se encuentra
el carro) abre una puerta obviamente diferente a la que
el jugador escogio y a la que contiene el carro, revelando una flamante cabra. Luego se le pregunta al concur
sante si desea abrir otra puerta o mantiene su eleccion.
ventajoso para el concursante? Cual
es
Que es mas
la probabilidad de ganar si el jugador cambia de puerta?

La Respuesta Inesperada - Oleo


sobre tela, 1933 - Rene Magritte

Solucion

Muchas personas, inclusive matematicos,


concluyen erroneamente
que no es parti ventajoso cambiar de puerta razonando que una vez que el animacularmente mas
dor abre una de las puertas que no contiene el carro, las probabilidades de ganar o

perder son iguales ( 12 ) si se cambia de puerta o no. Sin embargo, un analisis


cuidadoso de las probabilidades demuestra que la probabilidad de ganar cambiando de

puerta es de 32 . Se deja como tarea verificar esto de forma teorica.


En lo que sigue
bien simular la situacion.
Para esto debemos especificar lo mas

nos interesa mas


detalladamente posible la secuencia de pasos en cada juego:

de una de las tres


Paso 1 Primero, se esconde (aleatoriamente) el carro detras
puertas.
Paso 2 El jugador selecciona una de las tres puertas (escoge al azar).


2.4. DOS PROBLEMAS DE SIMULACION

51

Paso 3 El animador (Monty Hall), sabiendo donde esta el carro, escoge una puerta
que no sea la que opto el concursante ni la que contiene el carro y la abre,
de esa puerta. Si queda una sola puerta
revelando que hay una cabra detras
elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos
puertas elegibles, Monty escoge cualquiera de las dos al azar.
queremos determinar la probabilidad de ganar si el
Paso 4 Como en la simulacion
concursante cambia de puerta, hacemos que el jugador opte una segunda
vez por la puerta distinta a la que selecciono la primera vez y a la puerta que
acaba de abrir Monty.
Paso 5 Si la segunda puerta que escogio el concursante al cambiar de puerta
de la cual estaba el carro el
en el paso anterior es igual a la puerta detras
concursante gana.

Este ciclo se repite un numero


N arbitrariamente elevado de veces a fin de

de veces que el concursante gana. Segun


determinar la proporcion
la ley de los
grandes numeros,
si el numero
de iteraciones es lo bastante elevado, esta propor

se acercara a probabilidad verdadera de 23 . A continuacion


se indica el codigo

cion
junto con el resultado arrojado por la misma, que es de
en R para esta simulacion
0.6688, lo cual como se podra apreciar, se acerca bastante a 23 .
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23

# -------------------------------------------------------------# 2_4. R
# simulacion del concurso de Monty Hall
# autor : Jose L. Romero P.
# fecha : 10/8/2007
# -------------------------------------------------------------cnt <-0
puertas <- c(1 ,2 ,3)
N <- 10000
for (i in 1:N) {
puerta.premio <- sample(puertas,size=1 ,replace=TRUE)
puerta1.jugador <- sample(puertas,size=1 ,replace=TRUE)
otras.puertas <setdiff(puertas,union(puerta.premio,puerta1.jugador))
ifelse((length(otras.puertas)==1) ,
monty.abre.puerta <- otras.puertas,
monty.abre.puerta <sample(otras.puertas,size=1 ,replace=TRUE)
)
puerta2.jugador <setdiff(puertas,union(puerta1.jugador,monty.abre.puerta))
if (puerta2.jugador==puerta.premio) cnt <- cnt+1
}

52

24
25

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

cat(" La probabilidad de ganar en N=" ,N," ensayos del juego es " ,


cnt/N," .\ n")
La probabilidad de ganar en N=10000 ensayos del juego es 0.6688.

Vale destacar algunos elementos en el codigo


precedente:
se utiliza para generar muestras aleatorias a partir de
sample - Esta funcion
un espacio muestral (el conjunto se representa como un vector). Mediante los
de la muestra, si el muestreo es
otros argumentos se puede indicar el tamano
con o sin reemplazo y el vector de probabilidades de los eventos elementales
correspondientes del espacio muestral.
evalua
logica

ifelse - Esta funcion


de su primer argumento
la condicion
del segundo argumento si la condicion
es TRUE o la
y devuelve la expresion
del tercer argumento si la condicion
es FALSE. ifelse es vectoriexpresion
puede ser
zable, lo cual quiere decir que el primer argumento (la condicion)

un vector logico.
En tal caso, para cada componente logico
del vector con se devuelve un vector de la misma longitud que el vector condicion

dicion,
el segundo argumento o el tercuyos componentes correspondientes seran

cer argumento segun


el valor del elemento correspondiente de la condicion.
considera a los vectores suministrados en sus arsetdiff - Esta funcion
gumentos como conjuntos, devolviendo la diferencia de conjuntos entre el
primer argumento y el segundo. As por ejemplo, si A y B son dos vectores
que representan conjuntos, setdiff(A,B) devuelve un vector que representa el conjunto A B = A B.
devuelve un vector que representa la union
de todos
union - Esta funcion
los conjuntos suministrados en sus argumentos.
que concatena las cadenas en sus argumentos e imcat - Es una funcion
de E/S basica

prime el resultado al terminal. Es una funcion


del R.

Otro ejemplo de como


determinar probabilidades mediante simulaciones se
desarrolla a partir del siguiente problema:


2.4. DOS PROBLEMAS DE SIMULACION

53

Problema Resuelto 2.2 (El Encuentro)


Dos hombres de negocios deciden
encontrarse en algun
lugar entre las
12 y la 1 pm, cada uno acordando no
de 10 minutos por el otro.
esperar mas
es la probabilidad de que se
Cual
encuentren si cada uno llega independientemente del otro y en cualquier
instante aleatorio en el lapso de esa
hora?

El Encuentro - Litografa 1944 - M.C. Escher

Solucion
Para comenzar, denotemos por X e Y el instante de tiempo dentro de una hora a
la cual llega cada empresario respectivamente. Segun
parte del enuncia la ultima

do que establece que cada uno llega independientemente del otro y en cualquier
instante aleatorio en el lapso de esa hora, se desprende que tanto X como Y son
variables aleatorias continuas independientes y uniformemente distribuidas entre 0
y 60 (se trabajara el problema en base al lapso de 60 minutos). Para que los empresarios se encuentren, la diferencia en valor absoluto de los tiempos de llegada
de uno y otro debe ser menor o igual a 10 minutos. Es decir, se quiere calcular
P{|X Y | 10}. Claramente, esta diferencia en valor absoluto varia entre 0 y 60
de probabilidad de |X Y |.
minutos, pero aun
no se ha determinado la distribucion
haya podido llegar a este punto de la solucion,
aunque quizas
no seQuizas
pa como proceder a partir de ah- es precisamente en ayudar a dilucidar este tipo
Para el problema en cuesde situaciones en que radica la vala de la simulacion.
esta

emprica de un
tion,
va a consistir basicamente
en generar una distribucion
numero
suficientemente grande de valores |X Y | basados en numeros
aleato

rios uniformemente distribuidos segun


anterior. Sin mas
lo expuesto en el analisis

en R a continuacion:

preambulos,
se da el codigo
de la simulacion
1
2
3
4
5
6
7

# --------------------------------------------------------------# 2_5. R ( El encuentro )


# autor : Jose L. Romero P.
# fecha : 18/08/2007
# --------------------------------------------------------------N <- 1000000
# numero de repeticiones
# determina la distribucion de |X -Y| cuando

54

8
9
10
11
12
13
14
15
16
17
18
19
20

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

# X e Y son Unif (0 ,60) e independientes .


x <-abs(runif(n=N,min=0 ,max=60) -runif(n=N,min=0 ,max=60))
png(filename=" encuentro_r. png ")
hist(x,br=60 ,right=FALSE,freq=FALSE,
main=" Histograma de frecuencia " ,
ylab=" denisdad de probabilidad empirica ")
abline(a=(60/1800) ,b= -1/1800 ,col=" red ")
legend(x=25 ,y=0.033 ,legend=" Funcion de densidad teorica " ,
fill=" red ")
# cual es la probabilidad requerida ?
probabilidad <- mean(as.integer(x<=10))
cat(" Probabilidad de que las dos personas se encuentren : " ,
probabilidad,"\n")
Probabilidad de que las dos personas se encuentren:

0.305262

La curva roja
Figura 2.3: Histograma de frecuencias generado por la simulacion.
de densidad de probabilidad teorica.

representa la funcion

y que significa la lnea roja en el histograma


Como
se realizo la simulacion
e la Fig. 2.3? En primer lugar, se genero una muestra de N = 1000000 de valo-


2.4. DOS PROBLEMAS DE SIMULACION

55

res |X Y | aleatorios. Como X e Y son uniformemente distribuidos, las muestras


de numeros
aleatorios uniformemente distribuidos fueron generadas mediante las

funciones runif. Seguidamente, se grafico el histograma de frecuencias con el

metodo
hist de R. Esto genero el histograma de la Fig. 2.3, pero sin la lnea roja

aun.
que los rectangulos
son levemente irregulares, pero sus alturas
Observese

decrecen en forma sorprendentemente regular y lineal. La lnea roja, como funcion

de densidad teorica,
parece ajustarse bien, por lo menos intuitivamente, a lo obser de densidad de la variable
vado. En este punto nos damos cuenta que la funcion
|X Y | debe ser un segmento de recta decreciente entre 0 y 60, como la lnea

profundo revela que la funcion


de densidad de
roja en el grafico.
Un analisis
mas
probabilidad de |X Y | esta dada por

f|XY | (d) = 2

60d
Z

1
60 d
dt =
2
60
1800

,donde d asume valores entre 0 y 60

de dicha formula

La motivacion
viene de notar que el evento correspondiente a
la diferencia |X Y | es exactamente igual a d se verifica para X [0, 60 d], Y =
X + d (suponiendo X mayor o igual a Y ), la integral viene a representar la masa de
probabilidad total para cada uno de estos casos. El factor de 2 a la izquierda de la
evidencia ser una funcion
de
integral se debe a que X Y o Y X . Dicha funcion
de los valores posibles de d es igual a
densidad legtima pues su integral a traves
uno:

Z60

Z60

f|XY | (z)dz =
0

60 z
dz
1800

z2 60
z

=1
30 3600 0

se evidencia que el segmento lineal


Observando el codigo
R de la simulacion,
rojo trazado sobre el histograma de frecuencias empricas se corresponde a la fun lineal f|XY | (d), a partir de la cual se puede calcular facilmente

cion
la probabilidad
deseada:

56

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION

P{|X Y | 10} =

Z10

f|XY | (z)dz =

z
z2 10


30 3600 0

1
1
11

=
= 0, 3055
3 36 36

(0,305262) se corresponde
Como se puede ver, el resultado de la simulacion

con bastante exactitud al resultado teorico.

s
En este curso se hara un uso intensivo de simulaciones como estas para apoyar

resultados sobre los procesos estocasticos


deducidos teoricamente.
La discusion

per se es marginal a los objetivos prindetallada sobre las tecnicas


de simulacion
y Modelos. Sin embargo, en
cipales de curso y se cubre en el curso de Simulacion
vista de los objetivos que se persiguen en este curso, es importante puntualizar las

tal como la emplearemos a lo largo


siguientes ideas sobre la tecnica
de simulacion,
del libro:
sirven para calcular, de modo aproximado, proLos programas de simulacion
babilidades, valores esperados o medidas de variabilidad.

Siempre sera mejor realizar los calculos


de probabilidades, valores espe
rados o medidas de variabilidad por medios analticos (sin simulacion).
Sin
embargo, cuando la complejidad de los mismos rebasa la capacidad de nues
tras herramientas matematicas,
simular es la unica
forma de determinar tales

caractersticas de un fenomeno
aleatorio, aunque solo de forma aproximada.

En este libro se hace uso de las simulaciones para fines didacticos


- la si apoyara o complementara ciertos resultados teoricos

mulacion
deducidos
analticamente.
es esencialmente la repeticion,
siempre bajo identicas

La simulacion
condiciones y un numero
elevado de veces, de un experimento aleatorio. A partir

de los resultados se generan estadsticas con las cuales se estiman las ca


ractersticas poblacionales del fenomeno
aleatorio bajo estudio.
Mientras mayor cantidad de veces se repite el experimento aleatorio en una
mas
exactitud se tendra en los calculos

simulacion,
de las probabilidades o
valores esperados.

2.5. PROBLEMAS PROPUESTOS

57

de un experimento aleatorio en el computador requiere geneLa simulacion


rar numeros
aleatorios. Para ello, R tiene funciones como sample y la familia

(rexp genede funciones r*, donde el asterisco denota alguna distribucion


ra numeros
aleatorios exponencialmente distribuidos, runif numeros
unifor

memente distribuidos, rpois numeros


aleatorios distribuidos segun

Poisson,
rnorm numeros
aleatorios normalmente distribuidos, etc.). Estas funciones

son vectorizables.

de cada uno de los ejemEs importante seguir con detenimiento la exposicion


de simulaciones y tratar de compaginar esto con el desaplos de implementacion

rrollo teorico
de cada problema. As mismo, se invita al lector a dilucidar cualquier

otro aspecto teorico


de la teora de la probabilidad y de los procesos estocasticos
por si mismo implementando simulaciones.

2.5.

Problemas propuestos

en que consiste y para que sirve?


1. Que es simulacion,
2. Porque es mejor calcular probabilidades o valores esperados por medios
analticos, siempre y cuando esto sea posible?
de los calculos

a medida que
3. Porque mejora la precision
en una simulacion
aumenta el numero
de veces que se repite el experimento aleatorio?

4. Que significa vectorizar el codigo


en R?
5. Considere el siguiente script en R que recorre todos los numeros
del vector

vec y suma aquellos numeros


que sean divisibles por 3:

vec <- c(2 ,6 ,15 ,17 ,5 ,9 ,18 ,3 ,1 ,7)


# vector de prueba
suma <- 0
for (i in 1:length(vec)) {
if (vec[i] % %3==0) suma <- suma+vec[i]
}
suma
[1] 51

Como
vectorizara este codigo?
para que se quiere optimizar el tiempo de ejecucion
de
6. En una simulacion,

los bucles o mejor aun,


vectorizar el codigo?

58

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
en
7. Respecto al problema propuesto N 7, calcule mediante una simulacion
R las probabilidades de ganar apostando a que por lo menos un seis salga
en 4 lanzamientos de un dado y de ganar apostando a que por lo menos un
doble seis sale en 24 lanzamientos de dos dados.
8. Cuatro caballos, Pedro poco dientes, Tres pelos, El burro Machey y Mi potro

siniestro han corrido juntos en el Clasico


de Mucura
muchas veces. A conti
se dan las frecuencias relativas con las que cada caballo ha ganado
nuacion
la carrera:
Caballo
Pedro poco dientes
Tres pelos
El burro Machey
Mi potro Siniestro

Frecuencia con la
que ha ganado
0,40
0,10
0,30
0,20

Elabore un script en R que simule el resultado para n carreras de caballos


con estos cuatro ejemplares.

9. Dos bolas identicas


se distribuyen de manera aleatoria en tres urnas numeradas. Este experimento aleatorio tiene 6 resultados posibles, representados
mediante vectores de tres componentes que indican la cantidad de bolas en
cada urna. Los resultados y sus respectivas probabilidades son:
Resultado
(2,0,0)
(0,1,1)
(1,1,0)
(0,2,0)
(1,0,1)
(0,0,2)

Probabilidad
1/9
2/9
2/9
1/9
2/9
1/9

Elabore un programa en R que calcule de forma aproximada la probabilidad


de observar el resultado (2,0,0). Dicho programa debe simular el experimento aleatorio descrito un numero N suficientemente grande de veces y estimar
de veces que se obtiene el resuldicha probabilidad mediante la proporcion
tado (2,0,0) con respecto al numero
total de ensayos N .

10. En una partida de raquetball, un jugador continua


sirviendo mientras vaya
cuando ha ganado el turno que ha
ganando. Un jugador gana un punto solo

2.5. PROBLEMAS PROPUESTOS

59

servido y el primero en alcanzar los 21 puntos gana la partida. Si el jugador


A comienza la partida sirviendo y tiene una probabilidad de 0,6 de ganar
cuando ha servido el turno y de 0,40 cuando no ha servido el turno, calcule,
la probabilidad de que el jugador A gane la partida.
mediante una simulacion,
11. Se efectua
un curioso duelo con pistolas entre tres personas, cada uno con
una determinada probabilidad de acertar el tiro segun
se indica a continua
cion:
Participante
del duelo

Probabilidad de
acertar el tiro

A
B
C

0,3
1
0,5

En este duelo, comienza el participante A, luego le toca el turno a B y por ultimo a C. Comienza la ronda nuevamente en el mismo orden hasta que quede
eliminando sucesivamente a aquellos que reciban un
un solo hombre en pie,
tiro.
El participante A debe escoger entre dos estrategias al comienzo del duelo:

disparar a B o disparar al aire. Si dispara al aire, no elimina a nadie. Tocandole el turno a B, este elimina a C y cuando le toque el turno a A nuevamente,
este tiene una probabilidad de 0,3 de eliminar a B y as ganar el duelo. Si le
dispara primero a B, podra eliminarlo e intercambiar disparos indefinidamen es la probabilidad de que A gane el duelo si
te con C hasta eliminarlo. Cual
emplea esta segunda estrategia? Es menor o mayor que la probabilidad de
ganar disparando al aire la primera vez? Determine esta probabilidad analti en R.
camente y mediante una simulacion

12. Partiendo desde su casa en el vertice


O, una persona decide visitar a sus

amigos, ubicados en los vertices A, B, C y D del siguiente grafo:


A

B
t

t
@
@
@Ot
@

@
@
@t
D

60

A LA SIMULACION
Y AL R
UNIDAD 2. INTRODUCCION
Al salir de su casa, escoge al azar uno de los cuatro caminos que conducen
a la casa de algun
amigo. Desde all, escoge al azar uno de los tres caminos,

que lo llevan a la casa de otro amigo o de vuelta al vertice


O12 . El tour conti
nua hasta que regresa de nuevo a su casa en el vertice
O. Escriba un script
el promedio de la cantidad
en R para calcular, por medio de una simulacion,
de amigos que se visitan antes de regresar a casa.

12

Suponga que sus amigos nunca se cansan de recibir sus visitas.

Unidad 3

a los procesos
Introduccion

estocasticos.
Terminologa y
nociones preeliminares
Pregunta en un foro del Guardian Weekly:
es la probabilidad de que un chimCual

pance con una maquina


de escribir y con disponibilidad de tiempo infinita escriba las obras com
pletas de Shakespeare, convirtiendose
en una es
pecie de Shakespeare estocastico?
Respuesta de un lector:
He tenido problemas anteriormente con esos si
mios estocasticos.
Tan pronto aprenden a escribir
un ensayo de 12 lneas, como Que hice durante las vacaciones de verano, piensan que tienen
un don de Dios para la literatura y antes de que
pueda decir To be or not to be, se marchan para Hollywood a conseguir trabajo como guionistas,
donde sobran personas que les brinden daiquiris
de un tiempo se aburren y
de banana. Despues
buscan trabajo como actores en peliculas de Tarzan. A partir de ah comienza el declive...
T EPUY I
2008
Ini Toledo

61

62

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

Objetivos de la Unidad

El objetivo general de esta Unidad es definir los conceptos basicos


referentes a

los procesos estocasticos,


as como algunas de sus caractersticas. Al termino
de
la misma, se quiere que el estudiante logre los siguientes objetivos especficos:

Definir los procesos estocasticos


y caracterizarlos segun
su espacio de es
tados y espacio de parametros.
Definir las funciones de probabilidad condicional y las esperanzas condicio de
nales, as como manejar sus propiedades y aplicarlas en la resolucion

problemas y demostraciones matematicas.

Definir e identificar los distintos tipos de procesos estocasticos.

3.1.

y ejemplos de procesos estocasticos.

Definicion

Los procesos estocasticos


son basicamente
fenomenos
cuyo comportamiento
se desarrolla en el tiempo y se rige por las leyes de las probabilidades1 . Ejemplos

de tales fenomenos
son: el movimiento browniano de una partcula, el crecimiento
tal como una colonia bacterial, el tamano
de una cola en una
de una poblacion
cliente/servidor, la recepcion
de una senal
en presencia de ruido o perturestacion
baciones, los precios de un bien en un lapso de tiempo, las fluctuaciones de fortuna

en un juego de azar, etc. Existen caracterizaciones de procesos estocasticos


cuya
espacial. Ejemplos de estos procesos
variable no es el tiempo, sino la ubicacion

geografica

estocasticos
espaciales son la distribucion
de especies de plantas o
animales y es estudio de epidemias, donde el contagio de una enfermedad en un
principal de
sitio depende de su proximidad con otros sitios infectados. El interes
bien sobre los procesos estocasticos

este curso es mas


temporales y no sobre los
1

La palabra estocasticos
es de origen griego, proviene de Stokhos, que significa objetivo, o
es habil

blanco en el juego de dardos. Stokhastikos como adjetivo, alude a apuntar bien, a quien

para conjeturar. El adjetivo estocastico


fue incorporado al lexico
matematico
en 1953- no esta del
pertinente a aleatorio usada hoy en da. Rebolledo (2002), p.
todo claro como adquirio la acepcion
5

Y EJEMPLOS DE PROCESOS ESTOCASTICOS.

3.1. DEFINICION

63

espaciales.

Otro concepto relacionado es el de series cronologicas.


Estas se refieren a

las observaciones o realizaciones en el tiempo de un proceso estocastico


implcito
y son objeto de estudio para los economistas principalmente. Habiendo hecho la
que una serie cronologica

suposicion
(correspondiente a los precios de una accion
de un proceso estocastico,

en la bolsa de valores, por ejemplo) es una realizacion


los investigadores tratan de inferir estadsticamente a partir de las observaciones,
las leyes que gobiernan el proceso a fin de predecir ciclos o valores futuros.

de variables
Para efectos matematicos,
un proceso estocastico
es una sucesion
aleatorias, cada una de las cuales describe el estado del sistema en un instante de
es adecuada porque abarca los siguientes aspectos:
tiempo dado. Esta definicion
1) el estado del sistema en un tiempo determinado es variable, y su variabilidad se
debe a mecanismos aleatorios, 2) la variable aleatoria del estado del sistema es
que depende del tiempo y en consecuencia, su distribucion
esta deteruna funcion
minada por el instante de tiempo que se considere, 3) si se consideran los estados
de un sistema en distintos instantes de tiempo conjuntamente, se puede concep
tuar un proceso estocastico
como un vector aleatorio n-dimensional. Resumiendo:

o con (Proceso estocastico).


Definicion
Un proceso estocastico
es una sucesion
junto de variables aleatorias {X(t)|t T } definidas sobre un espacio de probabilidad comun
(, , P).
t es el parametro

toma valores en un
En esta definicion,
de tiempo, el cual
conjunto T denominado conjunto ndice. Segun
sea T un conjunto numerable o

no, el proceso estocastico


sera de parametro
discreto o continuo respectivamente.
los procesos estocasti
Usualmente, el valor nfimo de T es 0, pues se analizaran

cos a partir de un instante de tiempo 0. Los procesos estocasticos


de parametro
discreto se denotan por {Xi |i = 0, 1, 2 . . .}. Las variables aleatorias X(t) toman valores en un espacio medible llamado espacio de estados (state-space en ingles).

t Xt () se
Si se tiene un proceso estocastico
y se fija algun
la funcion

llama trayectoria del proceso estocastico


X . Para aclarar un poco estos conceptos,

considerese
el siguiente ejemplo: se cuenta el numero
de personas que entran a

un banco entre las 9 y 10 am. Definimos el conjunto ndice como el conjunto de

todos los posibles instantes de tiempo entre las 9 y 10am el proceso estocastico

es por lo tanto de parametro


continuo. Considerando que estamos interesados en
la cantidad de personas que han entrado en cierto instante de tiempo, definiramos
el espacio de estados como el conjunto de todos los valores enteros no negativos.
del proceso estocastico

Por ultimo,
si consideramos una realizacion
antes descri
tendramos una
to para un da especfico, digamos el 29 de agosto de este ano,

64

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

trayectoria del proceso.

Dado un conjunto finito de n ndices en T {t1 , . . . ,tn }, X(t1 ), . . . , X(tn ) es un


de distribucion
en Rn dada a
vector aleatorio n-dimensional que genera la funcion

continuacion:


Ft1 ,...,tn x1 , . . . , xn = P{X(t1 ) x1 , . . . , X(tn ) xn }
se conocen como las funciones de distribucion

Tales funciones de distribucion

finito-dimensionales del proceso estocastico


y generalmente, un proceso estocasti finito dimensionaco se determina conociendo todas sus funciones de distribucion
les, aunque esto no es siempre cierto, como se evidencia en el siguiente contraejemplo.
uniforme en [0, 1], de modo que el experimento
Sea = [0, 1] y P la distribucion

basico
consiste en escoger un numero
al azar en [0, 1]. Sobre este espacio de

probabilidades se definen dos procesos:


a. {X(t),t [0, 1]} definido por X(t, ) = 0 para todo t ,.


b. {Y (t),t [0, 1]} definido por X(t, ) =

0 si t 6=
1 si t =

Y (t) se puede considerar como un proceso que da un salto discontinuo en un


instante de tiempo aleatorio marcando la ocurrencia de algun
evento en ese ins Se puede ver intuitivamente que ambos
tante, tal como por ejemplo una explosion.
finito dimensionales y
procesos X e Y tienen las mismas funciones de distribucion
sin embargo, no son el mismo proceso.

En la practica,
es muy difcil, sino imposible, obtener las funciones finito- dimensionales para todo conjunto de ndices (t1 ,. . .,tn ) y todo n, por lo cual se definen las
de primer y segundo orden. La funcion
de distribucion
de
funciones de distribucion
de la variable aleatoria en un tiempo
primer orden se corresponde a la distribucion
determinado:

Ft0 (x) = P{X(t0 ) x}


Si estamos interesados en relacionar el comportamiento de un proceso es
de distribucion
de seguntocastico
en dos instantes de tiempo utilizamos la funcion
do orden:

3.2. PROBABILIAD Y ESPERANZA CONDICIONAL

65

Ft1 ,t2 (x1 , x2 ) = P{X(t1 ) x1 , X(t2 ) x2 }

3.2.

Probabilidad y esperanza condicional. Definiciones y


propiedades.

Las nociones de probabilidad y esperanza condicional juegan un papel impor


tante dentro del estudio de los procesos estocasticos.
Seguramente el lector esta
familiarizado con las nociones de probabilidad condicional relativas a eventos y de
algunos resultados consecuentes como el teorema de la probabilidad total y el teorema de Bayes- estas nociones generalmente se exponen en las primeras partes
de cualquier curso elemental de probabilidades. Repasando, la probabilidad condicional de que ocurra un evento A conociendo la ocurrencia de un evento B es:

P (A B)
P (A | B) =
P (B)
se puede exla cual tiene sentido si la probabilidad de B es no-nula. Esta nocion
tender al condicionamiento de una variable Y por otra variable X si X e Y son
discretas.

P (Y = yn |X = xm ) =

pX,Y (xm , yn )
P{Y = yn X = xm }
=
P{X = xm }
pX (xm )

(3.2.1)

de probabilidad conjunta del par aleatorio (X,Y ). La variadonde pX,Y es la funcion


de probabilidad se denota por Y |X = xm .
ble aleatoria discreta que tiene tal funcion
Se recalca que Y |X = xm es una variable aleatoria que asume valores yn con las
si X e Y son independienprobabilidades condicionales indicadas arriba. Ademas,
Siendo Y |X = xm una variable
tes, Y |X = xm e Y tienen la misma distribucion.

aleatoria, tiene su esperanza matematica


asociada, que es:

E [Y |X = xm ] =

sobre y

y que esta definida para pX (xm ) no nulo.

y P (Y = y|X = xm )

66

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

del espacio de probabilidad inducido por X ,


A medida que xm varia a traves
la esperanza anterior asume los valores correspondientes por lo cual se puede

dependiente de las instancias particulares de X:


considerar esta
como una funcion

f () = E [Y |X = ] =

y P (Y = y|X = )

(3.2.2)

sobre y

(3.2.2) se lee esperanza condicional de Y dado que X vale .


La expresion
Como representa los posibles valores que toma la variable aleatoria X , se tiene
f (X), mejor denotada por E [Y |X] ,
que f (X) es una variable aleatoria tambien.
es de hecho la esperanza condicional de la variable aleatoria Y condicionada por
X . Se enfatiza que E [Y |X] es una variable aleatoria, lo cual le puede parecer a
al lector si esta acostumbrado a considerar el valor esperado
primera vista extrano

No obstante, para que esta


como una caracterstica numerica
fija de la distribucion.
nos sea de utilidad en el estudio de los procesos estocasticos,

definicion
debemos

generalizarla aun
mas:
(Esperanza condicional de Y dadas X1 , . . . , Xn ). Sean X1 , . . . , Xn variaDefinicion
bles aleatorias que toman valores en un conjunto E y sea Y otra variable aleatoria.
X1 , . . . , Xn es:
La esperanza condicional de Y dada la sucesion

E [Y |X1 , . . . , Xn ] = f (X1 , . . . , Xn )
donde f esta definida para cualquier vector (1 , . . . , n ), con i E por

f (1 , . . . , n ) = E[Y |X1 = 1 , . . . , Xn = n ]
=

y P(Y = y|X1 = 1 , . . . , Xn = n )

sobre y

de esperanza condicional se puede extender al caso de condiEsta definicion


de dencionamiento por variables aleatorias continuas si consideramos la funcion
de probabilidad dada en la
sidad de probabilidad condicional en vez de la funcion
(3.2.1). En efecto
ecuacion

fY |X1 ,...,Xn (y|x1 , . . . , xn ) =

fX1 ,...,Xn ,Y (x1 , . . . , xn , y)


fX1 ,...,Xn (x1 ,...,xn )

(3.2.3)

de la esperanza condicional para el caso de las X1 , . . . , Xn


La consecuente redefinicion
continuas es dada a partir de

3.2. PROBABILIAD Y ESPERANZA CONDICIONAL

g(1 , . . . , n ) = E [Y |X1 = 1 , . . . , Xn = n ] =

67

y f (y|1 , . . . , n ) dy (3.2.4)

sobre y

La esperanza condicional comparte muchas de las propiedades de la esperan


za matematica
que se trata en los cursos elementales de probabilidad, tales como:

Propiedad 1 (Linealidad del operador esperanza)

E [c1Y1 + . . . + cnYn | X1 , . . . , Xm ] =c1 E [Y1 |X1 , . . . , Xm ]


+ . . . + cn E [Yn |X1 , . . . , Xm ]
Propiedad 2
de X1 , . . . , Xn , es decir Y = f (X1 , . . . , Xn ),
Si Y puede escribirse como funcion
entonces E [Y |X1 , . . . , Xn ] = Y
Propiedad 3
Como
E [Y |X1 , . . . , Xn ] es una variable aleatoria, esta tiene esperanza y es


E E[Y |X1 , . . . , Xn ] = E[Y ]


Propiedad 4

Para n, m 1 se tiene E [E [Y |X1 , . . . , Xn+m ] |X1 , . . . , Xn ] = E [Y | X1 , . . . , Xn ]


Propiedad 5
Sean X1 , . . . , Xn y Y1 , . . . ,Ym dos conjuntos de variables aleatorias tales que
si se conoce los valores de uno se puede determinar los valores del otro,
entonces, para cualquier Y se tiene E [Y |X1 , . . . , Xn ] = E [Y |Y1 , . . . ,Ym ].
Propiedad 6
Si X e Y son independientes, entonces E[X|Y ] = E[X] y E[Y |X] = E[Y ], casi
siempre.

Los conceptos de probabilidad y esperanza condicional son imprescindibles pa de las probabira caracterizar los diversos tipos de procesos aleatorios- es a traves
lidades y la esperanza condicional que se definen las relaciones de dependencia (o
de independencia) entre los estados de un proceso aleatorio en distintos instantes
la esperanza condicional y las probabilidades condicionales
de tiempo. Ademas,

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

68

permiten abordar problemas como el que se enuncia a continuacion:

de Bagdad)
Problema Resuelto 3.1 (El Ladron
de Bagdad se encuentra en un calaEl Ladron
bozo con tres puertas. Una de las puertas conduce a un tunel
que luego de un da de camino

regresa al mismo punto de partida. Otra de las


puertas conduce a un tunel
similar al anterior

cuya travesa toma tres das. La tercera puerta

conduce a la libertad. Asumiendo que el Ladron


escoge cualquiera de las tres puertas aleatoriamente con igual probabilidad y que cada vez que va a escoger una puerta se le ha
olvidado las escogencias pasadas 2 , encuentre la cantidad de das en promedio
pasara encerrado en el calabozo desde el momento en que primero
que el ladron
escoge entre las tres puertas hasta que haya escogido la puerta que lo lleva a la
libertad.

Solucion
de Bagdad escoge una de las tres puertas constituye un
Cada vez que el Ladron

ensayo de Bernoulli con 1/3 probabilidad de exito,


entendiendo por exito
abrir la
puerta que conduce a la libertad. Un primer abordaje del problema nos motiva
antes de conseguir su
a considerar el numero
de ensayos N que realiza el ladron

libertad, lo cual sera una variable aleatoria geometricamente


distribuida. Pero aclarando que N representa el numero
de ensayos fallidos antes de escoger la puerta

de probabilidad y su valor esperado son los


hacia la libertad, por lo cual su funcion

que se dan a continuacion:

pN (n) = pqn para n = 0, 1, 2, . . .

E[N] =

 1 
1q

npqn = p nqn = pq nqn1 = pq nqn1 = pq q

n=0

n=1

n=1

n=0

1
q
1
2
= pq
= = 2 , ya que p = , q =
2
(1 q)
p
3
3

La variable geometrica
difiere un poco de la indicada en la tabla 1.1 porque
2

desmemoriado y ademas,
tampoco tiene GPS ni mucho menos GoogleMaps.
Es un ladron

3.2. PROBABILIAD Y ESPERANZA CONDICIONAL

69

es el numero
en este contexto, la variable aleatoria de interes
de ensayos fallidos

antes de conseguir el primer exito. En cambio en la tabla 1.1, se plantea la variable

geometrica
como el numero
total de ensayos efectuados hasta conseguir el primer

escoge una puerta que adiciona 1 da


exito.
En aquellos ensayos fallidos, el ladron
de permanencia en el calabozo u otra puerta que adiciona 3 das de permanencia
es
en el calabozo. Por lo tanto la variable de interes

Sn = X1 + . . . + XN

Donde N es la variable aleatoria geometricamente


distribuida que se menciono anteriormente y los Xi son cada uno variables aleatorias independientes semejantes a las de tipo Bernoulli con

P{Xi = 1} = P{Xi = 3} =

1
2


estamos interesados en encontrar
 En terminos
de esperanzas condicionales,

E E[Sn |N] = E E[Xi + . . . + Xn |N] . Habida cuenta que E[Sn |N] es una variable
aleatoria, que los Xi son variables aleatorias independientes con igual esperanza y
que a su vez son independientes de N , se tiene que:







q
1
1
E E[Sn |N] = E E[X1 + . . . + Xn | | N] = E[N] E[Xi ] = 1 + 3
p
2
2
= 22 = 4
de Bagdad permanecera en el
La cantidad esperada de das que el Ladron
confirma el
calabozo antes de salir libre es de cuatro das. Veamos si la simulacion
resultado hallado analticamente:
1
2
3
4
5
6

# --------------------------------------------------------------# 3_1. R : Simulacion del problema del Ladron de Bagdad


# autor : Jose L. Romero P.
# fecha : 23/08/2007
# --------------------------------------------------------------N <- 100000

7
8
9
10
11

# el siguiente codigo genera un vector de longitud N


# con la cantidad de dias que el ladron pasa en la cueva
# por cada ciclo de simulacion
x <- NULL

70

12
13
14
15
16
17
18
19
20

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

for (i in 1:N) {
total.dias <- 0
dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
while (dia.i!=0) {
total.dias <- total.dias+dia.i
dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
}
x<-c(x,total.dias)
}

21
22
23
24
25
26
27
28
29
30
31

# el siguiente codigo es equivalente al anterior , observando que


# la cantidad de ensayos de puertas es una variable aleatoria
# geometrica con probabilidad de exito igual a 1/3. La cantidad
# de dias que se adicionan en cada ensayo no exitoso en 1 o 3,
# con igual probabilidad para ambos valores .
x <- NULL
for (i in 1:N) {
x<-c(x,sum(sample(c(1 ,3) ,rgeom(1 ,p=1/3) ,replace=TRUE)))
}
cat(" Cantidad esperada de dias en el calabozo : " ,mean(x))

Cantidad esperada de dias en el calabozo:

4.012

3.3.

de los procesos aleatorios: valor meCaracterizacion


dio y nucleo

de covarianza.

Para caracterizar completamente un proceso estocastico


se requiere cono finito-dimensionales. Sin embargo, existen caraccer sus funciones de distribucion
tersticas de los procesos aleatorios que resumen, por lo menos parcialmente, su
comportamiento. En el caso de la variable aleatoria que estudiamos en los cursos

de probabilidades, la esperanza y la varianza juegan este papel. De forma analo


de valor medio y el nucleo
ga, para los procesos estocasticos
se tiene la funcion
de

covarianza.


3.3. VALOR MEDIO Y NUCLEO
DE COVARIANZA

71

de valor medio). Sea {X(t),t T } un proceso estocastico.

(Funcion
Definicion
de valor medio se denota por mx (t) y se define por:
Su funcion
Z

mx (t) = E[X(t)] =

x fx(t) (x)dx

de densidad de primer orden del proceso. Es de


donde fx(t) (x) es la funcion
determinista, dependiente a lo sumo del instante
notar que mx (t) es una funcion
de tiempo t.

(Nucleo
Definicion
de covarianza). Sea {X(t),t T } un proceso estocastico

con segundo momento finito. Su nucleo


de covarianza, denotado por K(s,t), se

define como:

K(s,t) = Cov[X(s), X(t)] = E[(X(s) mx (s))(X(t) mx (t))]


de un numero
Muchos procesos surgen como funcion
finito de variables alea

de una partcula
torias. Por ejemplo, supongase
que X(t) representa la posicion
en movimiento rectilneo no acelerado con velocidad constante. X(t) se define en
de una posicion
inicial X0 y una velocidad V de la siguiente forma:
funcion

X(t) = X0 +V t

Si X0 y V son variables aleatorias, X(t) es en efecto un proceso estocastico.


de valor medio y su nucleo

Su funcion
de covarianza se calculan a continuacion:

mx (t) = E[X(t)] = E[X0 +V t] = E[X0 ] + t E[V ]


K(s,t) = Cov[X(s), X(t)] = E[(X(s) mx (s))(X(t) mx (t))]
= E[(X0 + sV E[X0 ] sE[V ])(X0 + tV E[X0 ] tE[V ])]
= E[(X0 E[X0 ])2 + (s + t) (X0 E[X0 ])(V E[V ]) + st(V E[V ])2 ]
= V [X0 ] + (s + t)Cov[X0 ,V ] + st V [V ]
de valor medio y el nucleo
Observamos que para calcular la funcion
de cova
rianza no se requiere conocer la ley de probabilidad conjunta de X0 y V , basta con
conocer los valores esperados, las varianzas y la covarianza de X0 y V . Mediante
las ideas expuestas hasta
este ejemplo tomado de la fsica se aclaran aun
mas

72

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

ahora. La trayectoria del proceso aleatorio sera el desplazamiento de una partcu

la determinada (su grafica


de movimiento). Tanto la trayectoria como la funcion
de valor medio y el nucleo
de covarianza son caractersticas deterministas del pro

ceso estocastico
en el sentido en que solo dependen de los instantes de tiempo
considerados.

3.4.

Incrementos independientes y estacionarios. Procesos estacionarios.

natural describir un proceso estocastico

de
Frecuentemente, es mas
a traves
de como

una caracterizacion
este evoluciona en el tiempo, pues los incrementos,
seno cambios de estado de un proceso generalmente poseen propiedades mas
cillas que las variables mismas de la secuencia aleatoria. Primero debemos definir
que entendemos por incremento:
(Incremento). Dado un proceso aleatorio {X(t),t T }, un incremento
Definicion
o cambio de estado de un proceso en un lapso de tiempo,
representa la evolucion

lo cual se expresa matematicamente


por X(t + t) X(t) para t, T .

Para un proceso de parametro


discreto, incremento se refiere a como cambia
el proceso en un paso de tiempo (t = 1), siendo m-incremento el cambio del
proceso en m pasos de tiempo.

Consideremos un proceso estocastico


{X(t),t T } de tiempo continuo y una
de parametros

coleccion
en T linealmente ordenados, t1 , . . . ,tn , que satisface t1 <
. . . < tn . Se dice que X(t) es un proceso con incrementos independientes si las
variables aleatorias X(t2 ) X(t1 ), . . . , X(tn ) X(tn1 ) son independientes.

Algunos autores definen los incrementos independientes con condiciones mas

debefuertes: Si el conjunto de parametros


temporales tiene un mnimo t0 , tambien
mos suponer la independencia de X(t0 ), X(t1 ) X(t0 ), . . . , X(tn ) X(tn1 ) en un
proceso con incrementos independientes. Usualmente se define t0 = 0 porque el
instante cuando comenzamos a observar el proceso aleatorio es el instante cero.

Incluso por convencion,se


asume que X(t0 ) = 0, ya que en el instante cero no ha
sucedido nada (el estado inicial de un proceso aleatorio en el instante cero es cero
lejos se desva el proceso aleatorio
y los incrementos sucesivos determinan cuan
con respecto a ese cero).
de variables aleatorias indeDefiniendo los incrementos como una sucesion
pendientes Y (t0 ) = X(t0 ), Y (ti ) = X(ti )X(ti1 ) para i 1 se hace evidente (por lo

3.4. INCREMENTOS Y ESTACIONARIEDAD

73

menos intuitivamente) que si conocemos las distribuciones de Y (t0 ),Y (t1 ), . . . ,Y (tn )
conjunta de X(t0 ), X(t1 ), . . . , X(tn ). Esto se
podemos determinar la distribucion
caracterstica conjunta y la propiedad de inpuede verificar mediante la funcion
dependencia de los incrementos. Por una parte, segun
esto ultimo:




Y (t0 ),...,Y (tn ) u0 , , un = Y (t0 ) u0 Y (tn ) un

(3.4.1)

Por otra parte, se tiene:


= E ei



u0 X(t0 )+u1 (X(t1 )X(t0 ))+...+un (X(tn )X(tn1 ))

Y (t0 ),...,Y (tn ) u0 , , un




= E ei (u0 u1 )X(t0 )+(u1 u2 )X(t1 )+...+(un1 un )X(tn1 )+un X(tn1 )
= X(t0 ),...,X(tn ) (u0 u1 , , un1 un , un )

(3.4.2)

de los parametros

caracMediante la siguiente transformacion


de la funcion
terstica:

z0 = u0 u1 ,

...

, zn1 = un1 un ,

zn = un

o equivalentemente:

u0 = z0 + . . . + zn , u1 = z1 + . . . + zn ,

...

, un = zn

podemos combinar las ecuaciones (3.4.1) y (3.4.2) en una sola:

X(t0 ),...,X(tn ) (z0 , . . . , zn )


= X(t0 ) (z0 + z1 + . . . + zn ) X(t1 )X(t0 ) (z1 + . . . + zn ) X(tn )X(tn1 ) (zn )
(3.4.3)
Esto implica que en efecto, la ley de probabilidad conjunta de la secuencia
aleatoria {X(t)|t T } se determina a partir de las leyes de probabilidad de los
incrementos respectivos.
de los procesos estocasti
Otro concepto de importancia para la clasificacion

cos es el de incrementos estacionarios y el de la estacionariedad. Basicamente,

74

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

la estacionariedad de un fenomeno
aleatorio se refiere a que el mecanismo que lo
produce permanece invariante en el tiempo.
(Incrementos estacionarios). Un proceso es de incrementos estacioDefinicion
de probabilidad de los incrementos X(t1 + h) X(t1 ) y
narios si la distribucion
X(t2 + h) X(t2 ) es igual para valores positivos cualesquiera de t1 ,t2 y h.
se puede colegir que la distribucion
de los incrementos estaDe esta definicion
cionarios solo depende de la amplitud del intervalo de tiempo h. La idea de estacionariedad se puede extender a la secuencia de variables aleatorias que conforman

el proceso estocastico
en s.

(Proceso estocastico
Definicion
estrictamente estacionario de orden n). Sea T
un conjunto de ndices de linealmente ordenados tal que la suma de dos miem pertenece a T y consideremos un proceso esbros cualesquiera de T tambien

tocastico
{X(t)|t T } definido sobre ese conjunto de ndices temporales. Se
dice que {X(t)|t T } es un proceso estrictamente estacionario de orden n si la
conjunta de un par de vectores aleatorios de dimensi
n arbitraria
distribucion
 on
X(t1 ), X(t2 ), . . . , X(tn ) y X(t1 + h), X(t2 + h), . . . , X(tn + h) es la misma para
todo t1 , t2 , . . . , tn y h en T .

Un proceso estocastico
es estrictamente estacionario si es estrictamente es plantea que un
tacionario de orden n para todo entero positivo n. Esta condicion

proceso estrictamente estacionario esta en equilibrio probabilstico y que los instantes particulares en los cuales se observan el proceso no tienen relevancia. En
de X(t) es la misma para todo t .
particular, la distribucion

(Proceso estocastico
Definicion
debilmente
estacionario). Un proceso {X(t)|t

T } es debilmente
estacionario o estacionario en el sentido amplio si tiene momentos finitos de segundo orden, si mt (t) = m es constante para todo t y si

Cov[X(t), X(t +h)] = E[X(t)X(t +h)]E[X(t)]E[X(t +h)] = E[X(t)X(t +h)]m2


depende solo de h para todo t .
debilmente

Todo proceso estrictamente estacionario es tambien


estacionario
pero lo contrario no es cierto.

3.5. ALGUNOS TIPOS DE PROCESOS ALEATORIOS

3.5.

75

Algunos tipos de procesos aleatorios: caminata aleatoria, martingalas, procesos de Markov, procesos de
Poisson, procesos de Wiener

Con la terminologa definida anteriormente en este capitulo, se esta en condi


ciones de definir algunos tipos de procesos estocasticos.
El primer tipo de proceso
que vamos a definir es el ruido blanco:

(Ruido Blanco). Un proceso estocastico


Definicion
de parametro
discreto cons
tituido por una secuencia de variables aleatorias independientes e identicamente

distribuidas Z0 , Z1 , . . . , Zn , se conoce como ruido blanco (white noise en ingles).

Si adicionalmente E[Zi ] = 0, el proceso estocastico


se denomina ruido blanco

la distribucion

con media cero. Un proceso de ruido blanco es simetrico


si ademas
simetrica,

de los Zi es una distribucion


como por ejemplo la uniforme, la normal o la

t-Student. En base a un proceso estocastico


de ruido blanco se define el siguiente
proceso:

(Caminata aleatoria). Sea Z0 , Z1 , . . . , Zn un proceso estocastico


Definicion
de
ruido blanco, con el cual se define
n

Sn = S0 + Zi
i=1

inicial S0 = s0 o si S0 tiene alguna distribucion


especifica. El
con alguna condicion
proceso correspondiente {St |t = 0, 1, 2, . . .} es una caminata aleatoria.
precedente, los Zi se denominan los pasos o incrementos de
En la definicion
la caminata aleatoria; para que {St |t = 0, 1, 2, . . .} sea efectivamente una caminata aleatoria, {Zt |t = 1, 2, . . .} debe ser un proceso de ruido blanco. Este tipo de
detalle en el proximo

procesos se discutira con mas


capitulo.

(Martingala). Un proceso de parametro


Definicion
discreto {Xt |t = 0, 1, 2, . . .} es
una martingala si satisface las siguientes dos propiedades:
(I) E[Xn ] <
(II) E[Xn+1 |X0 , X1 , . . . , Xn ] = Xn
bien para facilitar un poco las maLa primera de estas condiciones es mas

tematicas
en el manejo de las martingalas y la segunda si resume en esencia lo

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

76

que es la martingala- establece que el valor esperado del proximo


estado futuro del
proceso dado toda su historia pasada es simplemente el estado actual del proceso.
En el contexto del juego de apuestas, el proceso de martingala se denomina
a veces juego justo, ya que sirve para modelar la riqueza de un jugador en el
tiempo cuando la ganancia o perdida esperada en cada turno es cero. En realidad,

que aluda a una estrategia


el termino
martingala proviene del un nombre frances
de juego consistente en duplicar las apuestas hasta ganar con seguridad3 .
(Proceso de Markov). Un proceso de Markov {X(t)|t T } es aquel
Definicion
cuyos estado futuro solo depende del estado presente y no del pasado. Los procesos de Markov verifican la propiedad de Markov , que establece que

P{X(tn+1 ) A|X(tn ) = an , . . . , X(t0 ) = a0 } = P{X(tn+1 ) A|X(tn ) = an }


En los procesos de Markov, el estado actual del proceso incorpora toda la in que necesitamos para estimar el estado futuro y la probabilidad de un
formacion
sobre el pasado
comportamiento futuro no se altera si incorporamos informacion
del proceso. Un proceso de Markov con espacio de estado finito o numerable se
denomina cadena de Markov , que se estudiara posteriormente en este curso.
Antes de definir el proceso de Poisson, es preciso definir lo que es un proceso

de conteo (o counting process en ingles),


del cual el proceso de Poisson es una
instancia particular. Un proceso de conteo {N(t)|t T } es aquel cuyo espacio
se pretende modelar la
de estados es el conjunto de numeros
naturales y con el

cantidad de eventos discretos que han ocurrido en un tiempo t . Se enuncia, pues,

la siguiente definicion:

(Proceso de Poisson homogeneo).


Definicion
Un proceso de conteo {N(t)|t
0} es un proceso de Poisson con tasa media constante (o intensidad) si cumple

las condiciones a continuacion:


(I) {N(t)|t 0} tiene incrementos estacionarios e independientes.
(II) Para dos instantes de tiempo s y t tales que s < t , la cuenta de eventos
N(t) N(s) acaecidos en el intervalo de tiempo (s,t) es distribuida segun

la ley de Poisson con media (t s). A saber:

P{N(t) N(s) = k} = e

Ver QUIDEL, p. 440

(ts)

k
(t s)
k!

3.5. ALGUNOS TIPOS DE PROCESOS ALEATORIOS

77

Figura 3.1: Norbert Wiener (1894-1964)


Nacido estadounidense e hijo de un inmigrante ruso, Norbert

Wiener obtuvo su Ph.D en Harvard a la edad de 18 anos,


tras

lo cual estudio Filosofa, Logica


y Matematicas
en Cambrid
ge y Gottingen
bajo Bertrand Russel y David Hilbert. Sus trabajos fueron variados y versan sobre el modelamiento ma

tematico
del movimiento browniano, la fsica matematica
(la

mecanica
cuantica
y la teora relativista cuantica)
e investiga de la informacion.
Sin embargo,
ciones sobre la transmision
conocido por ser el padre de la cibernetica.

es mas
Fuente:

http://www.isss.org/lumwiener.htm

Existen conjuntos alternativos de suposiciones que conllevan al proceso de


Poisson. No obstante, las condiciones que dan origen a un proceso de Poisson se
verifican con mucha frecuencia- de ah la enorme importancia de los procesos de

Poisson. Ejemplos de procesos de Poisson son: fallas de componentes electricos,

decaimiento de partculas radioactivas, llamadas recibidas en una central telefonica, etc.


Por ultimo,
mencionamos el proceso de Wiener, nombrado en honor a N. Wie

ner, quien fue entre los primeros en considerar matematicamente


el fenomeno
del movimiento Browniano. El movimiento Browniano consiste en lo siguiente: una
(por definicion
se
partcula que inicialmente se encuentra en determinada posicion
asume X(0) = 0) es sometida a innumerables y continuos impactos en su entorno,
gracias a lo cual esta en constante y perpetuo movimiento. El desplazamiento de
la partcula en un intervalo de tiempo (s,t), el cual es amplio comparado con el
tiempo medio entre impactos, puede ser considerado como la suma de un nume

ro indeterminadamente grande de pequenos


desplazamientos, por lo cual parece
razonable suponer, en virtud del Teorema Central del Lmite, que X(t) X(s) es
aun,
normalmente distribuido. Mas
es razonable suponer que los desplazamientos

en dos intervalos de tiempo de la misma longitud son identicamente


distribuidos,
ya que se supone que el entorno de la partcula esta en equilibrio. El hecho de
que el desplazamiento de la partcula se deba a impactos muy frecuentes e irre
gulares se traduce matematicamente
estableciendo que los desplazamientos en
lapsos de tiempo no coincidentes son independientes entre s, ya que el numero
y

la magnitud de los impactos en cada intervalo de tiempo es independiente del otro


intervalo. En consecuencia, los incrementos del proceso de Movimiento Browniano

son independientes y estacionarios. Resumiendo, tenemos la siguiente definicion


para el proceso de Wiener:

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

78

(Proceso de Wiener). Un proceso estocastico


Definicion
de parametro
continuo
{X(t)|t 0} es un proceso de Wiener si:
(I) {X(t)|t 0} tiene incrementos estacionarios e independientes.
(II) Para cada t > 0, X(t) es normalmente distribuido.
(III) Para cada t > 0, E[X(t)] = 0.
(IV) X(0) = 0.

3.6.

Problemas resueltos

Problema Resuelto 3.1


Demostrar que si X e Y son variables aleatorias discretas e independientes tales
que X Binomial(m, p) e Y Binomial(n, p), entonces

X|X +Y = s Hipergeometrica
n + m, s,

n 
n+m

Solucion
La suma X +Y de dos variables aleatorias binomiales e independientes es una variable aleatoria binomial:

X+Y (u) = X (u)Y (u) = q + p eiu

m

q + p eiu

n

= q + p eiu

m+n

Especficamente, X + Y Binomial(n + m, p). Por lo tanto, la probabilidad condicional P{X = s|X +Y = s} es:

P{X = s, X +Y = s} P{X = s,Y = s x}


=
P{X +Y = s}
P{X +Y = s}

 sx n(sx)
n x nx m
pq
p q
sx
= x
m+n s m+ns
pq
 s
n

P{X = s|X +Y = s} =

m
sx

x m+n
s

3.6. PROBLEMAS RESUELTOS

79

para x = 0, 1, . . . , m y s = 0, 1, . . . , m + n. Se evidencia entonces que

X|X +Y = s Hipergeometrica
n + m, s,

n 
n+m

como se quera demostrar.

Problema Resuelto 3.2

Sea {X(t)|t 0} un proceso aleatorio con incrementos independientes y funcion


de valor medio mX (t) = E[X(t)] finita. Si 0 < t1 < . . . < tn < tn+1 , demuestre que
E[X(tn+1 )|X(t1 ), . . . , X(tn )] = X(tn ) + mX (tn+1 ) mX (tn ).

Solucion
las seis propiedades de la esperanza condicional
Para este problema se utilizaran
3.2) y la independencia de los incrementos.
(ver seccion

E[X(tn+1 )|X(t1 ), . . . , X(tn )]


= E[X(tn ) + X(tn+1 ) X(tn )|X(t1 ), . . . , X(tn )]
= E[X(tn )|X(t1 ), . . . , X(tn )]
+ E[X(tn+1 ) X(tn )|X(t1 ), . . . , X(tn )]

= X(tn ) + E[X(tn+1 ) X(tn )]

Propiedad 1
Propiedad 2
Por
independencia
de los incrementos y
por las propiedades
5y6

= X(tn ) + mX (tn+1 ) mX (tn )


s

Problema Resuelto 3.3


de variables aleatorias independientes con vaSea {Xn |n = 1, 2, . . .} una sucesion
{Sn |n = 1, 2, . . .}
lor medio mX (n) = E[Xn ] = 0 para todo n. Se define la sucesion
como
n

Sn = Xi
i=1

Demuestre que {Sn |n = 1, 2, . . .} es una martingala.

Solucion

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

80

Se pretende demostrar que E[Sn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ] = sn . Teniendo en


{Xn |n = 1, 2, . . .} y que Sn+1 = Sn + Xn+1 ,
cuenta la independencia de la sucesion
se puede escribir:

E[Sn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= E[Sn + Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= E[Sn |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
+E[Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= sn + E[Xn+1 ]
= sn + 0 = sn

de Sn
definicion

Propiedad 1 de la esperanza
condicional
Propiedad 2; Propiedad 6
E[Xn ] = 0 para todo n

3.7.

Problemas propuestos

1. La Bella Durmiente, cuando duerme, se encuentra en una de estas tres posiciones:

a) De cubito
supino y las manos cruzadas sobre su pecho, viendose
bella

y radiante a los ojos del Prncipe.


b) Boca abajo, roncando de manera muy sonora.
fetal y chupandose

para el ortoc) En posicion


el dedo gordo- bella solo
doncista.
de manera aleaA lo largo de la noche, cambia continuamente de posicion

toria. Que clase de proceso estocastico


es este en cuanto a su espacio de

estados y su espacio de parametros?

2. Se coloca un termometro
en medio del desierto de Gobi para registrar la
Que clatemperatura durante las 24 horas del da, todos los das del ano.

se de proceso estocastico
es este en cuanto a su espacio de estados y su

espacio de parametros?
Dira usted que este proceso es de incrementos
estacionarios? Explique.

3. Supongase
que pedidos de cantidades variables (N ) de artculos arriban dia segun
de probabilidades:
riamente a un almacen
la siguiente distribucion
n

P(N = n)

10
0,05

11
0,15

12
0,30

13
0,30

14
0,15

15
0,05

3.7. PROBLEMAS PROPUESTOS

81

La probabilidad de que un artculo en particular sea defectuoso es de 0,10 ,


independientemente de la presencia de defectos en los otros artculos. Calcule el valor esperado de artculos X que se reciben en un da.
4. Demuestre que si X e Y son variables aleatorias discretas e independientes

distribuidas segun
1 y 2 respectivamente,
la ley de Poisson con parametros
entonces

X|X +Y = s Binomial s,

1 
1 + 2

5. Demuestre que si X Poisson() y si Y |X = x Binomial(x, p), entonces


Y Poisson( p).

6. Demuestre que si X Geometrica


(p), entonces P{X = m + n|X > m} =
P{X = n}. Esto confirmara la propiedad de falta de memoria de la distri geometrica:

que no hubo exitos

bucion
la informacion
en m pruebas (X > m)
pruebas (X = m + n).
es olvidada si se realizan mas

7. De manera analoga
al ejercicio anterior, demuestre que si T Exponencial(),
entonces P{T > m + n|T > m} = P{T > n} (propiedad de falta de memoria
de la exponencial).

8. Considerese
el proceso aleatorio X(t) = At + B donde A es una variable
aleatoria que toma los valores 3 y 4 con probabilidades 41 y 34 , respectiva de probabilidad P{B = 1} =
mente y B es una variable aleatoria con funcion
1
P{B = 2} = 2 . A y B son variables aleatorias independientes. Obtenga la
de valor medio y el nucleo
funcion
de covarianza del proceso aleatorio.

9. Sea X (t) = At + B un proceso aleatorio para el cual A y B son variables


aleatorias independientes, de esperanza cero y E[A2 ] = 2A , E[B2 ] = 2B Es
{X(t)} un proceso estacionario?
10. Considere el proceso X(t) = A cos t + B sin t donde [0, 1], A y B
son variables aleatorias no correlacionadas, de esperanza 0 y varianza 1.

Demuestre que este proceso es debilmente


estacionario.
11. Demuestre que los incrementos de una caminata aleatoria son independientes y estacionarios.
12. Sea S0 = 0 y Sn = X1 + + Xn , donde X1 , X2 , . . . son variables aleatorias

independientes con esperanza 0 y varianza 2 (caminata aleatoria simetri de valor medio y el nucleo
ca). Calcule la funcion
de covarianzas del proceso

{Sn }.

82

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

13. Sea {Zn |n N} un proceso de ruido blanco con Zn Normal( = 1, = 2).


Encuentre las siguientes probabilidades:
a) P{Zi > 5}
b) P{3 < Zi < 5}
c) P{Zi = 1}
14. Demuestre que el valor esperado de un incremento en una martingala es
necesariamente igual a cero.

15. (La cadena de Ehrenfest) Motivado por problemas relacionados con la mecanica estadstica T. Ehrenfest describio un experimento con 2 urnas, dentro de
distribuidas N moleculas.

las cuales estan


En cada paso del experimento,

se escoge al azar una molecula,


esta es removida de la urna en la cual se

encuentra y es colocada en la otra urna. As, si se escoge una molecula


de
la urna A, esta es removida de A y colocada en B y viceversa. El estado

del proceso esta determinado por el numero


de moleculas
presentes en la

urna A a cada paso del experimento. Justifique que el proceso estocastico

{Xn |n N} definido por Xn = cantidad de moleculas


presentes en la urna A
al instante n, n N, es una cadena de Markov. De su espacio de estados.

16. Sea {Xn |n N} un proceso estocastico


de parametro
discreto tal que X0 = 1,
X
t
0 < p < 1 y P{Xt+1 = Xt |Xt } = 1 p .
Demuestre que {Xn |n N} es una cadena de Markov pero no una martingala.

17. Demuestre que un proceso de ruido blanco con parametro


discreto tiene
incrementos independientes.
18. Determine las condiciones bajo las cuales un proceso de ruido blanco es una
martingala.
19. Determine las condiciones bajo las cuales una caminata aleatoria es una
martingala.
20. La martingala, como estrategia de apuestas, consiste en doblar la apuesta
si uno pierde y retirarse del juego cuando se gana. El jugador sigue esta
estrategia: apuesta inicialmente 1 unidad, luego 2, luego 4 y as continua

doblando su apuesta hasta que gane. Supongase


que en cada jugada tiene
igual probabilidad de ganar o perder.

3.7. PROBLEMAS PROPUESTOS

83

a) Modele la ganancia de un jugador que emplee esta estrategia plantean


do un proceso estocastico
y definiendo su espacio de estados.
b) Demuestre que el jugador siempre se retira del juego con una ganancia
de 1 unidad a su favor con probabilidad 1 (ie. casi siempre).
c) Explique por que no se permite esta estrategia de apuestas en los casinos modernos (i.e. el croupier se niega a recibir apuestas de aquellos
que aparentemente practican esta estrategia)
21. Escriba un programa en R que simule y represente una trayectoria de un
proceso de movimiento Browniano en dos dimensiones.
22. Considere el proceso determinista: xn = r xn1 (1 xn1 ), x0 = 0, 01. Mediante un programa en R, investigue el comportamiento a la larga de dicho
proceso (para valores de n grandes) utilizando valores para r de 2,7 3 y
3,5 respectivamente. Indique sus hallazgos y analice las implicaciones de

los mismos. (Este ejemplo de sistema caotico


se debe a Robert May en su
estudio de crecimiento poblacional)

84

A LOS PROCESOS ESTOCASTICOS

UNIDAD 3. INTRODUCCION

Unidad 4

Caminatas Aleatorias y
Movimiento Browniano

H OC ETIAM MAGIS HAEC ANIMUM TE ADVERTERE PAR EST


CORPORA QUAE IN SOLIS RADIIS TURBARE VIDENTUR ,
QUOD TALES TURBAE MOTUS QUOQUE MATERIAI
SIGNIFICANT CLANDESTINOS CAECOSQUE SUBESSE .
MULTA VIDEBIS ENIM PLAGIS IBI PERCITA CAECIS
COMMUTARE VIAM RETROQUE REPULSA REVERTI
NUNC HUC NUNC ILLUC IN CUNCTAS UNDIQUE PARTIS .
SCILICET HIC A PRINCIPIIS EST OMNIBUS ERROR .
PRIMA MOVENTUR ENIM PER SE PRIMORDIA RERUM ,
INDE EA QUAE PARVO SUNT CORPORA CONCILIATU
ET QUASI PROXIMA SUNT AD VIRIS PRINCIPIORUM ,
ICTIBUS ILLORUM CAECIS INPULSA CIENTUR ,
IPSAQUE PROPORRO PAULO MAIORA LACESSUNT.
SIC A PRINCIPIIS ASCENDIT MOTUS ET EXIT
PAULATIM NOSTROS AD SENSUS , UT MOVEANTUR
ILLA QUOQUE , IN SOLIS QUAE LUMINE CERNERE QUIMUS
NEC QUIBUS ID FACIANT PLAGIS APPARET APERTE .

U NA FLOR PARA EL DESIERTO


Ensamblaje en aluminio y acero - 1985
Alejandro Otero

Lucretius (c. 94 - c. 49 A.C.)


D E RERVM NATURA , LIBER II, 125-141

85

86

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Objetivos de la Unidad
de una familia de proceEl objetivo general de esta Unidad es hacer una exposicion

sos estocasticos
denominados como caminata aleatoria. As mismo, se hace una
del movimiento browniano y de su relacion
con la caminata aleatoria.
exposicion

Al termino de la misma, se quiere que el estudiante logre los siguientes objetivos


especficos:
Definir los procesos de caminata aleatoria basados en procesos de Bernoulli,
de problemas.
identificar sus caractersticas y aplicar esto a la solucion
Analizar el problema de la ruina del jugador en cuanto a la probabilidad de
promedio del juego.
ruina y la duracion
Definir los procesos de movimiento browniano, identificar sus caractersticas
y relacionarlos con el problema de la ruina del jugador.

4.1.

El proceso de Bernoulli

El proceso de Bernoulli es un proceso estocastico


de parametro
discreto cuya
estructura es muy sencilla: en cada paso, se observa la ocurrencia o no ocurrencia
de un determinado evento cuya probabilidad se mantiene constante y el en cual ca es independiente de todas las observaciones anteriores. El proceso
da observacion

de Bernoulli es en efecto un proceso estocastico


de tipo ruido blanco. Ejemplos de
procesos de Bernoulli son:

(a) Un inspector de calidad verifica si los productos de una lnea de ensamblaje son

defectuosos observando una secuencia de productos. Si el i-esimo


producto
es defectuoso, registra Xi = 1, de lo contrario anota Xi = 0 . Si los defectos
se deben a causas aleatorias de modo que la presencia de defectos en un
producto es independiente de la presencia de defectos en los otros productos,
la proporcion
p de artculos defectuosos se mantiene constante a
y si ademas,
de todas las observaciones, {Xi |i 1} es un proceso de Bernoulli.
traves


4.2. LA CANTIDAD DE EXITOS

87

(b) Se monta una alcabala policial en un determinado punto y se paran a todos los
conductores que por ella transitan para verificar si portan armas, conducen un
vehculo robado o presentan alguna otra irregularidad. Bajo condiciones similares a las del ejemplo anterior, si la probabilidad de que un conductor presente
alguna irregularidad es constante e independiente entre los conductores que
descrita se puede modelar adecuavan transitando por la alcabala, la situacion
damente mediante un proceso de Bernoulli.
En todos estos casos, las variables constituyentes del proceso de Bernoulli re
presentan experimentos aleatorios con dos posibles resultados- exito
o fracaso. En

un proceso de Bernoulli, las variables aleatorias constituyentes son identicamen

te distribuidas e independientes entre s. Este modelo estocastico


basico
da pie a

a continuacion.

otros tipos de procesos estocasticos


que se describiran

4.2.

La cantidad de exitos.
Caminatas aleatorias basadas
en procesos de Bernoulli.

Si en un proceso de Bernoulli {Xi |i 1} , observamos la cantidad de exitos

ocurridos en el n-esimo
ensayo y los n 1 ensayos anteriores, se define un nuevo proceso aleatorio que es una caminata aleatoria, pues lo que sucede en cada
se puede modelar mediante la secuencia aleatoria {Si |i 1} definida
observacion
como:
n

Sn = Xi

(4.2.1)

i=1

En el capitulo anterior se sugirio que la caminata aleatoria es un proceso con


incrementos independientes y estacionarios (ver los problemas propuestos de ese
capitulo). Este hecho tiene algunas implicaciones importantes que sera conveniente resaltar:

A partir de un instante n dado, la cantidad de exitos


que se registren en los

proximos
m ensayos de un proceso de Bernoulli (Sn+m Sn ) es independien
te de la cantidad de exitos
registrados en los n 1 ensayos anteriores.

Por ser los incrementos estacionarios, la probabilidad de que en las proximas

m observaciones se tenga sm exitos


solo depende de m y es igual a la probabilidad de que, observando desde el principio los m ensayos, se tenga sm

88

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

exitos.
Matematicamente:
P{Sn+m Sn = sm |S1 = s1 , S2 = s2 , . . . , Sn = sn } =
P{Sm = sm }.
por ser Sn definida como la suma de n incrementos no negativos
Ademas,
(los Xi son siempre iguales a 0 o a 1), Sn es una secuencia creciente. Por

ejemplo, no podra ser cierto que, habiendo observado 5 exitos


en los prime
ros 8 ensayos, tengamos 3 exitos
en los primeros 10 ensayos.

Podemos calcular el valor esperado y la varianza de Sn sin haber determinado


de probabilidad, pues valiendonos

de Sn como
aun
de la definicion
su distribucion

una suma de n variables aleatorias independientes e identicamente


distribuidas
segun
la Ley de Bernoulli:

E[Sn ] = E
V [Sn ] = V

Xi

Xi

i=1
 n

i=1

= E[Xi ] = p = np

(4.2.2)

= V [Xi ] = pq = npq

(4.2.3)

i=1
n

i=1

i=1
n

i=1

(4.2.2) revela inmediatamente la funcion


de valor medio para este
La ecuacion
tipo de procesos. De hecho, para aclarar todo esto, vamos a simular en R una
trayectoria de esta caminata aleatoria basada en un proceso de Bernoulli:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

# ---------------------------------------------------------------# 4_1. R
# simulacion de una trayectoria de una caminata aleatoria
# basada en el numero de exitos en i ensayos de Bernoulli .
# autor : Jose L. Romero P.
# fecha : 16/8/2011
# ---------------------------------------------------------------pe <- 0.4
# pe es la probabilidad de exito en cada ensayo
b <- sample(size=15 ,c(0 ,1) ,prob=c(1 -pe,pe),replace=TRUE)
s <- c(0 ,cumsum(b))
tiempo <- 0:15
png(" bernoulli1 . png ")
plot(tiempo,s,type="s" ,xlab=" tiempo \n(i)" ,
ylab=expression(S[i]) ,lwd=6 ,axes=FALSE)
ejex <- 0:15
ejey <- 0:max(s)
axis(1 ,at=ejex,labels=ejex,pos=0)
axis(2 ,at=ejey,labels=ejey,pos=0)
# dibuja las lineas del reticulado
abline(v=1:15 ,lty=3 ,col=" black ")


4.2. LA CANTIDAD DE EXITOS

21
22
23

89

abline(h=1:max(s),lty=3 ,col=" black ")


# dibuja la curva de la funcion de valor medio
abline(a=0 ,b=pe,col=" darkgreen " ,lwd=2)

genera una trayectoria del proceso simular a la de la figura 4.1.


Esta simulacion
de valor medio del proceso estocastico

La lnea verde oscura representa la funcion


y se verifica que la trayectoria (representada por las lneas negras tipo escalera)
en promedio, a la curva de la funcion
de valor medio. Observese que
se acercara,
primero se genera la trayectoria (simulada) de {Xi |1 i n} a la cual corresponde
el vector b (lnea 9 del script). Seguidamente, el vector s (trayectoria de {Si |1 i
en R cumsum, la cual acumula progresivamente
n} se genera mediante la funcion
los elementos del vector b (cumsum significa suma acumulada). Por supuesto,
S0 = 0 siempre.

de una caminata aleatoria basada en un proceso


Figura 4.1: Trayectoria generada por simulacion

de Bernoulli: cantidad de exitos


en el i-esimo
ensayo. La probabilidad de exito
es p = 0, 4 y la curva
de valor medio (mS (i) = 0, 4 i)
verde se corresponde a la funcion

El siguiente tema en nuestra ocupada agenda es determinar las respectivas


de probabilidad de los {Si |i
probabilidades P{Sm = s}, es decir, la distribucion
directa para nosotros
1}. Existen diversas maneras de deducir esto, la va mas
es recurrir a nuestro extenso conocimiento sobre las funciones caractersticas. En
efecto, como los {Si |i 1} son esencialmente sumas de variables aleatorias de

tipo Bernoulli con igual parametro


p y mutuamente independientes, se tiene que:

90

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Sn (u) = X1 +X2 +...+Xn (u) = Xi (u)n = q + peiu

n

caracterstica se corresponde a la funcion


caracterstica de una
Esta funcion

Binomial con n ensayos. Con esto demostramos la siguiente proposicion:


4.1. Sea {Si |i 1} una caminata aleatoria basada en experimentos
Proposicion
(4.2.1). La distribucion
de cada
de Bernoulli como aquella definida en la ecuacion
Sn es binomial y se tiene que:

 
n s ns
P{Sn = s} =
p q , para 0 s n
s

4.1, en conjuncion
con las obserEn la practica,
la formula
de la Proposicion
vaciones hechas anteriormente sobre la independencia y estacionariedad de los

incrementos son de mucha utilidad para el calculo


de probabilidades referentes a
los estados de una caminata aleatoria basada en el proceso de Bernoulli, tal como
posteriormente.
se hace en algunos problemas resueltos que se plantearan

4.3.

sobre las
La cantidad de ensayos hasta r exitos:
mas
caminatas aleatorias basadas en procesos de Bernoulli.

{Xi , i 1} de variables aleatorias independientese identica


Si en una sucesion
mente distribuidas segun
la ley de Bernoulli (un proceso de Bernoulli) nos referimos

a la cantidad de ensayos hasta ocurrir r exitos


(r es fijo), tenemos otros proceso
aleatorio basado en un proceso de Bernoulli en el cual la secuencia de variables

aleatorias representa los instantes o ensayos en los cuales ocurre los exitos
sucesi
vos. Intentemos esquematizar esto matematicamente.
Si por ejemplo tenemos una
trayectoria de un proceso de Bernoulli como esta: x1 = 0, x2 = 0, x3 = 1, x4 = 0,
x5 = 1, . . . , la trayectoria del proceso que estamos definiendo sera t1 = 3, t2 = 5,

. . . , porque el primer exito


ocurre en el tercer ensayo y el segundo exito
ocurre al
quinto ensayo. De forma general, si {Ti |i 1} es el proceso que estamos definien de la secuencia aleatoria {Xk |k 1}, Ti () sera igual al
do, entonces, en funcion

exito.
ndice k de aquella secuencia donde ocurre el i-esimo
Que podemos decir sobre el comportamiento de esta secuencia aleatoria?

En primer lugar, debe ser una secuencia estrictamente creciente, porque el i-esi-


4.3. CANTIDAD DE ENSAYOS HASTA R EXITOS

91

mo exito
ocurre en el ensayo Ti , el siguiente exito
necesariamente ocurre despues
y se tiene que Ti+1 > Ti para cualquier i. De modo intuitivo, constatamos que los
incrementos de este proceso son idependientes y estacionarios (esto se puede
demostrar). El razonamiento de ello es a grandes rasgos el siguiente: el mecanismo subyacente que produce la secuencia {T j | j 1} es el proceso de Bernoulli
de variables independientes cuyo parametro

{Xi |i 1}, que es una sucesion


p es
si el incremento Ti+1 Ti = n, con n > 0, es porinvariante en el tiempo. Ademas,
del Ti -esimo

que despues
exito
ocurren n 1 fracasos sucesivos, luego de los cua

les ocurre el Ti+1 -esimo


exito.La
probabilidad de ello es qn1 p. En otras palabras,

los incrementos se distribuyen segun


Tratemos
la ley de probabilidad geometrica.
de esquematizar lo enunciado hasta ahora:

4.2. Si {T j | j 1} representa un proceso estocastico


Proposicion
que caracte

riza el numero
de ensayos de Bernoulli hasta el j-esimo
exito,
entonces

P{Tk+1 Tk = n|T1 , . . . , Tk } = P{Tk+1 Tk = n} = qn1 p


establece que los incrementos son estacionarios, ya que la
Esta proposicion
lo dicho sobre la independencia
anterior probabilidad no depende de k. Ademas,
que se da sin
de los incrementos se vuelve a expresar en la siguiente proposicion,

demostracion:

4.3. Sea {T j | j 1} un proceso estocastico


Proposicion
como en la Proposicion
+
4.2, entonces, para k N y n k, se tiene que:


P{Tk+1 = n|T1 , T2 , . . . , Tk } = P{Tk+1 = n|Tk } =

0
si Tk n
qn1Tk p si Tk < n

demuestra que el proceso estocastico

Esto ademas
{T j | j 1} goza de la propiedad de Markov. Antes de proceder aclararemos de una vez que T0 = 0 porque

con el 0-esimo
exito
ocurre el 0-esimo
ensayo con probabilidad uno. Ahora surge

la pregunta: Como
se distribuyen los {T j , j 1}?. Si ha ledo atentamente esta
, muy probablemente ya lo haya adivinado:
exposicion

4.4. Sea {T j | j 1} un proceso estocastico


Proposicion
como en la Proposicion
4.2, entonces, se tiene que



n 1 k nk
P{Tk = n} =
pq
paran = k, k + 1, . . .
k1
En lo anterior se establece que cada Tk en la secuencia aleatoria {T j | j 1} se
distribuye segun
la ley binomial negativa. Existen varias formas de demostrar esto,

92

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

expedita para nosotros es tomar en cuenta que este proceso es, despues
de
la mas
todo, una caminata aleatoria; cada variable Tk es una sumatoria de k incrementos

independientes e identicamente
distribuidos, es decir:

Tk = (Tk Tk1 ) + (Tk1 Tk2 ) + ... + T1 T0


Como damos por hecho que los incrementos se distribuyen segun
la misma ley

caracterstica de Tk es:
geometrica,
entonces la funcion


Tk (u) =

peiu
1 qeiu

k

caracterstica de la binomial negativa y por lo tanto


la cual corresponde a la funcion
(vease la Tabla 1.1 en la Unidad 1):


pTk (n) =

n1
k1

pk qnk si n k
0
si n < k

precedente, vamos a simular trayectorias del proceso {Ti }


Como en la seccion
para afianzar el aprendizaje:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22

# ---------------------------------------------------------------# 4_2. R
# simulacion de una trayectoria de una caminata aleatoria
# basada en el numero de ensayos de Bernoulli hasta alcanzar el
# i - esimo exito .
# autor : Jose L. Romero P.
# fecha : 16/8/2011
# ---------------------------------------------------------------pe <- 0.4
# pe es la probabilidad de exito en cada ensayo
b <- sample(size=20 ,c(0 ,1) ,prob=c(1 -pe,pe),replace=TRUE)
Ti <- c(0 ,which(b==1))
ensayo <- 0:(length(Ti) -1)
png(" bernoulli2 . png ")
plot(ensayo,Ti,type="S" ,xlab=" exito \n(i)" ,
ylab=expression(T[i] - ensayos),lwd=6 ,axes=FALSE)
ejex <- ensayo
ejey <- 0:max(Ti)
axis(1 ,at=ejex,labels=ejex,pos=0)
axis(2 ,at=ejey,labels=ejey,pos=0)
# dibuja las lineas del reticulado
abline(v=1:(length(Ti) -1) ,lty=3 ,col=" black ")
abline(h=1:max(Ti),lty=3 ,col=" black ")

4.4. PROBLEMAS RESUELTOS PARA LAS SECCIONES 4.1 - 4.3

23
24

93

# dibuja la curva de la funcion de valor medio


abline(a=0 ,b=1/pe,col=" darkgreen " ,lwd=2)

de R
Como elemento novedoso en el script precedente, observamos la funcion

which, la cual devuelve un vector con los ndices de los elementos que satisfacen
logica

la expresion
en su argumento. En este caso, which devuelve los ndices de

aquellos elementos de b donde observamos exitos


- se trata efectivamente de un

vector con los numeros


de ensayos en los cuales se alcanzan los exitos
sucesivos.

anterior, la lnea verde representa la curva de la funcion


de
Como en la simulacion

valor medio. La grafica


resultante se tiene en la figura 4.2.

de una caminata aleatoria basada en un proceso


Figura 4.2: Trayectoria generada por simulacion

de Bernoulli: cantidad de ensayos hasta el i-esimo


exito.
La probabilidad de exito
es p = 0, 4 y la
i
de valor medio (mS (i) = 0,4
curva verde se corresponde a la funcion
)

4.4.

Problemas resueltos para las secciones 4.1 - 4.3

Para reforzar el aprendizaje del contenido de las secciones 4.1 - 4.3 se plantean
En lo que sigue, se asume que {Si |i 1} se refiere
los ejercicios a continuacion.
a una caminata aleatoria basada en un proceso de Bernoulli con probabilidad de

exito
en cada ensayo igual a p y cuyas variables aleatorias Si se corresponden a la

cantidad de exitos
en i ensayos.

94

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Problema Resuelto 4.1


Calcule lo siguiente:

(a) P{S7 S3 = 2}.


(b) P{S3 = 2, S5 = 4, S1 1 = 7}.
(c) P{S3 = 2, S5 = 4, S6 = 3}.
(d) E[S3 S5 ].

Solucion

4.1, se
(a) En virtud de las observaciones en la pagina
87 y segun
la Proposicion
tiene:

 
4 2 2
P{S7 S3 = 2} = P{S4 = 2} =
p q = 6p2 q2
2
(b)

P{S3 = 2, S5 = 4, S1 1 = 7} = P{S3 = 2, S5 S3 = 2, S1 1 S5 = 3}
Los incrementos en la probabilidad anterior son todos independientes entre s,
anterior es igual a:
de modo que la expresion

P{S3 = 2} P{S5 S3 = 2} P{S1 1 S5 = 3}


= P{S3 = 2} P{S2 = 2} P{S6 = 3}
 
 
 
3 2 1 2 2 0 6 3 3
=
p q
p q
p q
2
2
3
= 45p7 q4
Se entiende que las probabilidades en P{S3 = 2} P{S2 = 2} P{S6 = 3} se
refieren a variables Si consideradas por separado e independientes unas de
otras, es decir, S3 , S2 y S5 no se refieren a la misma trayectoria de la caminata
aleatoria.

4.4. PROBLEMAS RESUELTOS PARA LAS SECCIONES 4.1 - 4.3

95

(c) De igual forma que en el problema anterior:

P{S3 = 2, S5 = 4, S6 = 3} = P{S3 = 2} P{S2 = 2} P{S1 = 1}


anterior es igual a cero, porPero la probabilidad P{S1 = 1} en la expresion
que los incrementos en una caminata aleatoria basada en un proceso de Bernoulli siempre son positivos. Por lo tanto, la probabilidad P{S3 = 2, S5 = 4, S6 =
3} es igual a cero.
(d) E[S3 S5 ] = E[S3 (S3 + S5 S3 )] = E[S3 S3 ] + E[S3 (S5 S3 )]. Pero por la inde anterior es equivalente a:
pendencia de los incrementos, la expresion

E[S3 S3 ] + E[S3 (S5 S3 )] = V [S3 ] + E 2 [S3 ] + E[S3 ] E[S5 S3]


= 3pq + (3p)2 + 3p 2p = 3pq + 15p2
s

4.3, se asume
Para los siguientes problemas resueltos, referentes a la seccion
que {T j | j 1} caracteriza a los tiempos (numero
de ensayos) hasta los respec

tivos j-esimos
exitos,
donde cada ensayo se basa en un proceso de Bernoulli con

probabilidad de exito
igual a p.

Problema Resuelto 4.2


Calcular lo siguiente:
(a) P{T2 = 3, T3 = 6}.
(b) E[T6 |T1 , T2 , T3 ].

Solucion

(a)

P{T2 = 3, T3 = 6} = P{T2 = 3, T3 T2 = 3} = P{T2 = 3} P{T3 T2 = 3}




3 1 2 32 31
=
p q q p = 2p3 q3
21

Tengamos en cuenta que T2 es binomial negativa y T3 T2 es geometricamente


distribuida.

96

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

(b) En lo sucesivo tengase


en cuenta las propiedades 1 a 6 de la esperanza con 3.2:
dicional que aparecen en la seccion

propiedad de Markov de {T j | j 1}

= E[T6 T3 |T3 ] + E[T3 |T3 ]

propiedad 1 de la esperanza condicional


(linealidad)

= E[T6 T3 ] + T3
3
= + T3
p

4.2 y propiedad 2
Proposicion

E[T6 |T1 , T2 , T3 ] = E[T6 |T3 ]


= E[T6 T3 + T3 |T3 ]

T6 T3 es binom. negativa con r = 3


s

4.5.

La ruina del jugador

Consideremos un juego donde en cada apuesta, un jugador gana un BF con


probabilidad p y pierde un BF con probabilidad 1 p. Claramente, la fortuna del
jugador luego de n apuestas se puede modelar mediante una caminata aleatoria
{Fn |n N}, donde
n

Fn = Xi
i=0

es la suma de n + 1 variables aleatorias independientes e identicamente


distribui
das, teniendose
que X0 = x es la fortuna inicial del jugador (antes de apostar) y
los Xi sucesivos son los incrementos en BF luego de la respectiva apuesta, cuya
de probabilidad viene dada por:
distribucion

P{Xi = 1} = p

P{Xi = 1} = 1 p = q

que el jugador, partiendo de un capital inicial x, juega conSupongase


ademas
tra un adversario que dispone de un capital y (el adversario puede ser la casa u
otro jugador), de modo que en cada partida, si el jugador gana 1 BF, el adversario
en perspectiva,
pierde la misma cantidad y vice-versa. Para colocar las cosas mas
entre el jugador y la casa, siempre hay un capital total de T = x + y BF, por ser

la sumatoria de la ganancia de los participantes igual a cero (en terminos


de la

4.5. LA RUINA DEL JUGADOR

97

Teora de Juegos, se trata de un juego de suma cero1 . Asumamos que este juego
de suma cero termina cuando alguno de los participantes se arruina, lo cual ocurre
cuando la fortuna del jugador alcanza los T BF, en cuyo caso se arruino la casa, o
Los estados 0 y T
la fortuna del jugador llega a 0 BF, en cuyo caso se arruino el.
de la fortuna del jugador se denominan barreras absorbentes , porque una vez que
sale de ellos.
la trayectoria toca alguno de esos estados, jamas
Una pregunta interesante en torno a este juego es la siguiente: partiendo de
un capital inicial de x BF, cual es la probabilidad de que el jugador se arruine?
Esta pregunta constituye el problema de la ruina del jugador . Para abordar este

problema, comencemos por la siguiente definicion:


(Probabilidad de ruina del jugador Rx ). Sea Rx la probabilidad de ruina
Definicion
se
del jugador partiendo de un capital inicial x siendo 1 x T 1. Ademas,
define R0 = 1 y RT = 0.

Rx es lo que se quiere hallar y establecemos la siguiente relacion:

Rx = pRx+1 + qRx1

(4.5.1)

se motiva en el siguiente razonamiento: si la fortuna del jugador


Dicha relacion
es x, luego de un turno, habra ganado 1 BF con probabilidad p (en cuyo caso
su fortuna sera de x + 1) o habra perdido 1 BF con probabilidad q (en cuyo caso
continua el juego con x 1 BF). Si lo anterior no es lo suficientemente claro aun,

definamos Rx como una probabilidad condicional y procedamos simbolicamente:

Rx = P (ruina|{Fn = x})

para algun
n

(4.5.2)

{Xn+1 = 1}, {Xn+1 = 1} son eventos mutuamente dis de .


juntos y complementarios: forman una particion

Luego:
1

Los juegos en los que los intereses de los jugadores son diametralmente opuestos se llaman de

tales como el poker en el que la


suma cero. El termino
suma cero se deriva de los juegos de salon
riqueza ni se crea ni se destruye. As pues, un jugador gana dinero siempre a expensas de los otros
sobre la teora de juegos, ver Davis (1971), p. 28.
jugadores. Para ampliar mas

98

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO



P ruina {Fn = x}


= P ruina {Fn = x} {Xn+1 = 1} {Xn+1 = 1}


= P ruina {Fn = x} {Xn+1 = 1}


+ P ruina {Fn = x} {Xn+1 = 1}
precedente la definicion
de la probabilidad
Por otro lado, utilizando en la ecuacion
condicional, que establece que P{A B} = P{A|B}P{B}, se tiene




P ruina {Fn = x} P{Fn = x}
(4.5.3)





= P ruina {Fn = x} {Xn+1 = 1} P {Fn = x} {Xn+1 = 1}




+ P ruina {Fn = x} {Xn+1 = 1} P {Fn = x} {Xn+1 = 1}



= P ruina {Fn = x} {Xn+1 = 1} P{Fn = x}P{Xn+1 = 1}



+ P ruina {Fn = X} {Xn+1 = 1} P{Fn = x}P{Xn+1 = 1}
La ultima
igualdad en (4.5.3) se debe a la independencia entre Xn+1 y Fn . Aunado

a eso:

{Fn = x} {Xn+1 = 1} = {Fn+1 = x + 1}


{Fn = x} {Xn+1 = 1} = {Fn+1 = x 1}
simbolica

Las ecuaciones precedentes se conjugan con la expresion


para la pro (4.5.2)), obteniendo:
babilidad de ruina (ecuacion




{Fn = x} {Xn+1 = 1}
P ruina



= P ruina {Fn+1 = x + 1} = Rx+1



{Fn = x} {Xn+1 = 1}
P ruina



= P ruina {Fn+1 = x 1} = Rx1

(4.5.4)

Por lo tanto, eliminando el factor comun


P{Fn = x} de ambos lados de la ecuacion
(4.5.3), sustituyendo las expresiones de las ecuaciones (4.5.4) en (4.5.3) y las definiciones respectivas de p y q, se concluye que Rx = pRx+1 + qRx1 , demostrando

as la validez de la formula
recursiva dada en (4.5.1).

4.5. LA RUINA DEL JUGADOR

99

Ecuaciones como la (4.5.1) se denominan ecuaciones en diferencias , sobre


Las ecuaciones en diferencias
las cuales es oportuno hacer una breve digresion.
se refieren a ecuaciones que involucran secuencias, o funciones definidas para
de su
valores enteros. Si una secuencia an esta definida explcitamente en funcion
argumento entero n, determinar su valor en n es un asunto trivial. Sin embargo, a

veces las secuencias se definen de forma recursiva, relacionando an con terminos


Por ejemplo, la siguiente ecuacion

anteriores como an1 en la misma ecuacion.

an = an1 +

(4.5.5)

en diferencias lineal de primer orden y generaliza las denominaes una ecuacion

das progresiones aritmeticas/geom


etricas
que el estudiante seguramente vio en

el parecido de esta terminologa con la terminobachillerato. Observese


ademas
se clasifican segun
loga de las ecuaciones diferenciales, que tambien
su orden y
sobre este tema puedes consegun
la linealidad. Si le interesa profundizar mas
se recomienda resolver los problemas
sultar la bibliografa anexa2 . Por lo demas,
propuestos correspondientes (problemas propuestos N 6 y 8) al final de este ca de la ecuacion
(4.5.5), que es el resultado que se
pitulo referentes a la solucion
utilizara seguidamente.

Retomando el problema de la ruina del jugador, se puede expresar la ecuacion


en diferencias lineal de
(4.5.1) de la probabilidad de ruina, que es una ecuacion
en diferencias lineal de primer orden. Teniendo
segundo orden, como una ecuacion
en cuenta que p + q = 1, tenemos

Rx+1 Rx =

q
(Rx Rx1 )
p

(4.5.6)

de arriba y mediante la formula de sucesion


an = r an1
A partir de la ecuacion
comprobar que
hallada en el problema propuesto N 5, es facil

 x1
q
Rx Rx1 =
(R1 R0 )
p
Con respecto a este resultado, se observan dos inconvenientes: 1) todava se
en diferencias resultante, pero el
desconoce R1 y 2) Podramos resolver la ecuacion

anterior depende de x (no es una constante


termino
al lado derecho de la ecuacion
utilizamos la propiedad telescopica

). Para solventar esta situacion


de las series:
2

Ver NEUMAN.

100

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

 x1
q
RT R0 = Rx Rx1 =
(R1 R0 )
x=1
x=1 p
T

El panorama tiende a aclararse porque R0 y RT son conocidos: R0 = 1 y RT = 0.


Por lo tanto

T 1 

1 = RT R0 = (R1 R0 )

x=0

q
p

x

precedente, y segun
A partir de la ecuacion
el valor de p, se tiene:

1
T
1 qp
(R1 R0 ) =  T
q
1
p

Si p = q = 21

(R1 R0 ) =

Si p 6= q

(4.5.7a)
(4.5.7b)

((4.5.7b)) se deduce de la serie ni=0 xi (ver problema propuesto


La ultima
equacion

N 7). Para calcular en definitiva el valor de la probabilidad de ruina, volvemos a

emplear la propiedad telescopica


de las sumas, pero esta vez con miras a hallar Rx
:

 i1
q
(R1 R0 )

Rx R0 = Ri Ri1 =
i=1
i=1 p
x  i1
x1  i
q
q
Rx = R0 +
(R1 R0 ) = 1 + (R1 R0 )
p
i=1
i=0 p
x

R1 R0 depende de la igualdad de p y q, segun


Nuevamente, ya que la expresion

se tiene en las ecuaciones (4.5.7), se tiene:

4.5. LA RUINA DEL JUGADOR

Si p = q =

1
,
2

Si p 6= q,

Rx = 1

101

x
T x
=
T
T

 x
 T  x
q
1 qp
qp
p
Rx = 1 +  T
=  T
q
q
1
1
p
p

(4.5.8a)

(4.5.8b)

de las ecuaciones (4.5.8a) y (4.5.8b) quizas


parezca un tanto
La deduccion
no sea un sucedaneo

tortuosa. Nuevamente, aunque la simulacion


del todo equivalente a deducir este tipo de resultados analticamente, nos ayuda a confirmar la
validez del los resultados anteriores. Planteamos en lenguaje R un programa para
simular la probabilidad de ruina de un jugador con un capital inicial entre 0 y 10,
para distintas probabilidades p de ganar en cada turno:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

# ---------------------------------------------------------------# 4_3. R
# probabilidad de la ruina de un jugador
# autor : Jose L. Romero P.
# fecha :29/7/2007
# ---------------------------------------------------------------# Ruina : funcion que arroja 1 si el resultado de una caminata
# aleatoria es la ruina , 0 en caso contrario .
# argumentos :
# x= capital inicial del jugador ,
# T= capital total
# p= probabilidad de ganar 1 en cada turno
Ruina <- function (x,T,p) {
j <- x # asigna capital inicial
while (j %in % 1:(T-1))
j <- j + sample(c( -1 ,1) ,1 ,replace=TRUE,c(1 -p,p))
if (j==0) return(1) else return(0)
}

19
20
21
22
23
24
25
26
27
28
29

# Probabilidad_ruina : funcion que arroja la probabilidad de


# ruina para :
# x= capital inicial del jugador
# T= capital total
# p= probabilidad de ganar 1 en cada turno
Probabilidad_ruina <- function (x,T,p) {
cnt <- replicate(1000 ,Ruina(x,T,p))
return(mean(cnt))
}
# Vector_empirico : funcion que arroja un vector correspondiente

102

30
31
32
33
34
35

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

# a las probabilidades de ruina para cada capital inicial entre


# 0 y T
Vector_empirico <- function (T,p) {
X <- sapply(0:T,function(x) Probabilidad_ruina(x,T=T,p=p))
return(X)
}

36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65

# Vector_teorico : funcion que arroja un vector correspondiente


# a las probabilidades ( teoricas ) de ruina para cada capital
# entre 0 y T
Vector_teorico <- function (T,p) {
ro <- (1 -p)/p
X <- sapply(0:T,
function(x)
if (p==0.5) (T-x)/T
else (rox-roT)/(1 -roT)
)
return(X)
}
# Graficar
# genera la grafica de comparacion
Graficar <- function(T,p) {
plot(x=c(0:T,0:T),
y=c(Vector_teorico(T,p),Vector_empirico(T,p)) ,
xlab=" capital inicial " ,ylab=" probabilidad de ruina " ,
main=paste("T=" ,T," p=" ,p),
type="p" ,
pch=19 ,
col=c(rep(" red " ,times=T+1) ,rep(" blue " ,times=T+1))
)
if (p<=0.5) {xleyenda=2; yleyenda=0.3}
else {xleyenda=6; yleyenda=0.5}
legend(x=xleyenda,y=yleyenda,
fill=c(" red " ," blue "),
legend=c(" teorica " ," empirica " ))
}

66
67
68
69
70
71

# A continuacion se generan dos graficos para distintos valores


# de p , exportandolos a archivos . png
png(file=" ruina %02d. png ")
Graficar(10 ,0.5)
Graficar(10 ,0.6)

En el script 4 3.R hay algunos elementos interesantes que vale la pena ex detalle. Primeramente, se dan ejemplos de como

plicar en mas
definir funciones
(<-) y la palabra reservada function seguida
mediante el operador de asignacion

de los argumentos formales entre parentesis


y un conjunto de expresiones ence-

4.5. LA RUINA DEL JUGADOR

103

sera equivalente a
rradas entre corchetes ({}). El valor que retornara la funcion

que se indila ultima


expresion del grupo de expresiones entre corchetes o aquel

que mediante el return. Las funciones replicate (lnea 26) y sapply (lnea 33
funcional y junto con otras
y lneas 42-46) son caractersticas de la programacion
funciones como lapply, tapply, mapply, Vectorize y otras afines, aplican la
dada en su argumento a traves
de todos los elementos de una estructura
funcion
de datos compuesta (vector, lista, etc.) proporcionada como argumento. La prime
ra, replicate, se invoca con dos argumentos: replicate(n,expr). La funcion
indicada por expr n veces y devuelve un vector de
entonces evalua
la expresion
reiterada de expr.
longitud n cuyos componentes son el resultado de la evaluacion
eficiente que emplear un for e ir concatenanEl uso de replicate es mucho mas
do progresivamente las expresiones a un vector mediante llamadas a c en cada
sapply(X,FUN) aplica la funcion
proporcionada como arciclo del for. La funcion
gumento FUN a cada elemento del vector X, devolviendo un vector de igual longitud

FUN se puede definir ad hoc, como se muestra en las


que X. Notese
que la funcion
lneas 33 y 43-45.

Figura 4.3: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,5

104

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Figura 4.4: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,6

Se muestran mediante las figuras 4.3 y 4.4 graficas


en donde se comparan
y mediante las formulas
las probabilidades de ruina halladas mediante simulacion

(4.5.8a) y (4.5.8b), respectivamente. La primera grafica


(Fig, 4.3 corresponde a las
probabilidades de ruina para distintos niveles de capital inicial (entre 0 y 10) con

una probabilidad p = 0, 5 de ganar en cada turno. En este caso, la formula


de la

probabilidad de ruina que aplica es la (4.5.8a). La segunda grafica


es similar pero

con un valor p = 0, 6. La formula


que aplica es en este caso la (4.5.8b).

4.6.

promedio del juego y otras consideracioDuracion


nes sobre el problema de la ruina del jugador

antePueden hacerse otras preguntas en torno al juego descrito en la seccion

rior. Una de ellas es: Cuantos


turnos dura, en promedio, el juego? Recordemos
que el juego termina cuando alguno de los jugadores se arruina (el jugador o la
casa). Si el capital total es finito, supondremos que el juego siempre terminara en

PROMEDIO DEL JUEGO


4.6. DURACION

105

una cantidad finita de partidas, aun


cuando es posible concebir, por ejemplo, una
trayectoria del juego donde las partidas resulten +1,-1,+1,-1, ad infinitum. La finitud
del juego no es algo que se pretende demostrar formalmente aqude la duracion

el autor solo se limita a senalar


la evidencia emprica: el programa de la simula en R anterior, en donde se simulan series de 1000 partidas para cada nivel
cion
a modo de apologa,
de capital inicial del jugador, eventualmente termina. Quizas

que uno de los objetivos basicos

tengase
en cuenta ademas
que nos trazamos en
formal con la verificacion
emprica
este curso es el de complementar la verificacion

emprica para inferir hechos que no se


(la simulacion),
o valerse de la investigacion
esta en capacidad de demostrar formalmente.
Cual
es la duracion

Volviendo a la pregunta que planteamos en esta seccion:

promedio del juego?, debemos especificar aun


mas: Cual es la duracion promedio
anterior, el
del juego, partiendo de un capital inicial X ? Si, como en la seccion
jugador tiene un capital inicial de X y su oponente un capital inicial de Y , y entre
los dos un capital total T = X +Y que no se altera, sabemos que el juego termina
cuando el capital del jugador sea 0 o T . Podemos ahora responder parcialmente
del juego partiendo de un capital inicial de 0 o de T es
la pregunta: la duracion
igual a cero. Partiendo de cualquier suma de dinero distinta entre 0 y T , el juego
puede durar una cantidad aleatoria e indeterminada de partidas. Denotemos por TX
del juego partiendo de un capital X y aclaremos desde ya que TX no es un
duracion

proceso estocastico
- es una variable aleatoria que resume un aspecto del juego,

visto este
como una trayectoria de un proceso estocastico.
Estamos interesados en
del juego, es decir, nos interesa hallar:
determinar el promedio de la duracion

Dx = E[Tx ]
anterior, partiendo de
A tal fin, vamos a proceder como lo hicimos en la seccion
en diferencias:
la siguiente ecuacion

Dx = pDx+1 + qDx1 + 1

para 0 < x < T,

con D0 = DT = 0

(4.6.1)

(4.6.1) son simplemente la formuLas condiciones de extremos en la expresion


matematica

lacion
de lo dicho anteriormente sobre un juego en donde el jugador
bien entender en que se bacomienza con un capital de 0 o T . Nos interesa mas
(4.6.1) en s. La clave de este asunto es escindir el juego en dos
sa la ecuacion
etapas:

106

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

1. La variable X1 que pudiendo valer +1 o -1 representa el resultado para el


jugador del primer turno y
2. El resto del juego.

Partiendo de un capital inicial x, si en el primer turno el jugador gana 1, el


resto del juego continua como si se partiera de un capital inicial de x + 1. Si por el
contrario el jugador pierde 1 en el primer turno, debe continuar con un capital de
x 1. En ambos casos, como ha transcurrido un turno se adiciona en uno la cuenta
de turnos y por lo tanto las esperanzas condicionales de Tx dado el resultado X1
del primer turno son:

E[Tx |X1 = +1] = Dx+1 + 1


E[Tx |X1 = 1] = Dx1 + 1

(4.6.2)

Las ecuaciones en (4.6.2) se utilizan ahora en el desarrollo de la ecuacion


(4.6.1):

Dx = E[Tx ] = bP{Tx = b} =
b

b(P{Tx = b X1 = +1} + P{Tx = b X1 = +1}) =


b

b(pP{Tx = b|X1 = +1} + qP{Tx = b|X1 = 1}) =


b

= p bP{Tx = b|X1 = +1} + q bP{Tx = b|X1 = 1} =


b

= pE[Tx |X1 = +1] + qE[Tx |X1 = 1] =


= p(Dx+1 + 1) + q(Dx1 + 1) =
= pDx+1 + qDx1 + 1

(4.6.3)

anterior ((4.6.3)) representa la jusificacion de la Ecuacion


La demostracion
(4.6.1), procederemos a resolverla de
(4.6.1). Habiendo fundamentado la ecuacion
anterior
la misma forma que lo hicimos con la probabilidad de ruina en la seccion

amena:
(ver paginas
97-101), transformandola
primero a una forma mas

Dx+1 Dx =

q
1
(Dx Dx1 )
p
p

(4.6.4)

PROMEDIO DEL JUEGO


4.6. DURACION

107

(4.5.6), salvo por el sumando de c,


Esta forma se parece mucho a la ecuacion
en diferencias finitas como la
lo cual conlleva a abordarla mediante una ecuacion

(4.5.5) (ver problema propuesto Nro 6). Desde el principio senalamos


que deben
considerarse dos casos: p = q y p 6= q . Entonces se tiene:
para p 6= q:

Dx+1 Dx =

 x
q
p

 x
q
p

 x
1 qp

(D1 D0 ) 
p 1 qp
1
(D1 D0 )

 x
q
p

(4.6.5a)

pq

y para p = q:

Dx+1 Dx = (D1 D0 )

x
= (D1 D0 ) 2x
p

(4.6.5b)

sencillo
Vamos a abordar primero el caso en que p 6= q , que parece ser el mas

(modo ironico
on). Como en el problema de la ruina del jugador, no conocemos
para Dx+1 Dx hallada en el desarrollo
D1 D0 , pero sustituyendo la expresion

anterior nos permitira a su vez hallar D1 D0 :

T 1

0 = DT D0 =

Dk+1 Dk
k=0

T 1 

q
p

k

1
(D1 D0 )

k=0

 k
q
p

pq


 T 1  
k
T
1
q
= D1 D0 +

p
pq
p q k=0
 

 1 q T
p
1
= D1 D0 +
pq
1 qp
D1 D0 =

T
1

 T  p q
p 1 qp

108

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Teniendo D1 D0 , se desarrolla Dx por series telescopicas


segun
la formula
(4.6.5a):

x1

Dx = Dx D0 =

x1 

Dk+1 Dk =
k=0

q
p

k=0
 x1 

k

1
(D1 D0 )

 k
q
p

pq


k
x
1
q
=
+ D1 D0 +
p
pq
p q k=0

 x
q
1

p
T
x
=

q
 T 


q
p
p 1 qp

 x 
T 1 qp
x

=
 T  p q
(p q) 1 qp

(4.6.6a)

promedio del juego partienLa ecuacion(4.6.6a)


permite calcular la duracion
do de un capital x y en el caso p 6= q . A riesgo de parecer repetitivos, vamos a
promedio del juego en el caso p = q . Primero
calcular seguidamente la duracion

obtenemos la formula
para D1 D0 :

T 1

0 = DT D0 =

Dk+1 Dk
k=0
T 1

(D1 D0 ) 2k = T (D1 D0 ) T (T 1) =
k=0

D1 D0 = T 1

en la formula

y sustituyendo esta expresion


(4.6.5b) desarrollada en series te
lescopicas:

4.7. OTRAS CARACTERISTICAS DE LAS CAMINATAS ALEATORIAS

x1

Dx = Dx D0 =

109

x1

Dk+1 Dk = (D1 D0 2k)


k=0

k=0

x1

(T 1 2k)
k=0

= x(T 1) x(x 1) = x(T x)

(4.6.6b)

Si le interesa ver una forma alternativa de deducir las formulas para la duracion
promedio del juego o la probabilidad de ruina del jugador, puede consultar el libro
es posible deducir estas formulas

de la UNA3 . Tambien
mediante los metodos
de
de ecuaciones en diferencias de segundo orden. En lo tangente a las
resolucion

emprica
formulas
(4.6.6a) y (4.6.6b), se deja al lector como ejercicio la verificacion
en lenguaje R (ver problema propuesto N 16).
mediante una simulacion

4.7.

Otras caractersticas de las caminatas aleatorias

promeLos calculos
de la probabilidad de ruina del jugador y de la duracion
dio del juego realizados en la secciones anteriores parecieran no ser de mucho
practico

interes
si se consideran estrictamente en el contexto literal y especfico de
del capital de un jugador apostando una unidad monetaria en cada
la fluctuacion
de todo caractersticas de un grupo de fenomenos

turno. Sin embargo, son despues

dinamicos
denominados como caminatas aleatorias, las cuales como se ha dicho

son procesos estocasticos


en donde el estado de una partcula (capital, precio de
posicion
o distancia al origen, etc.) sufre incrementos o decrementos
una accion,
amplio, hablar de la probabiliunitarios de forma aleatoria. En este contexto mas
dad de ruina es referirse a la probabilidad con la que una partcula efectuando una
caminata aleatoria alcanza una barrera absorbente en vez de la otra y termina el
promedio del juego es referirse a la cantidad promejuego. Hablar de la duracion
dio de desplazamientos de una caminata aleatoria hasta que la partcula alcance
alguna de las dos barreras absorbentes.

Es oportuno senalar
que algunos autores definen caminata aleatoria (o random
estricto que la caracterizacion
que se ha dado aqu del
walk ) de un modo mas
concepto. Segun
estos autores, una caminata aleatoria es una trayectoria en el
espacio para la cual:
3

Ver Ortega, J. (1995), secciones 14 y 15.

110

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO


Hay un punto de partida, que es el origen.
Los pasos son de longitud constante.
en que se toma cada paso es aleatoria: ninguna direccion
es
La direccion
probable que las otras.
mas

es mas
estricta porque se asume que la
Decimos que esta caracterizacion
de cada paso de la caminata aleatoria es equiprobable. En el problema
direccion
promedio del juego, los cuales
de la probabilidad de ruina del jugador o la duracion
se dan en el contexto de una caminata aleatoria unidimensional, hemos asumido el
caso general bajo el cual las dos direcciones de cada paso no son necesariamente
alternativa, hemos asumido que
equiprobables. Sin embargo, como en la definicion
los pasos son de longitud constante (y unitaria). Para modelar la caminata aleatoria

de algunos de los fenomenos


dados como ejemplos en el parrafo
inicial de esta
debemos de relajar un poco la condicion
de pasos de longitud constante
seccion,
y unitaria y generalizarla para incluir la posibilidad de que la longitud de los pasos
Esto lo haremos seguidamente en este
no sea constante, sino aleatoria tambien.
capitulo al referirnos a los procesos de Wiener o de movimiento browniano.

(a)

(b)

de caminatas aleatorias bidimensionales


Figura 4.5: Dos ejemplos de simulacion
realizadas en R.
vamos
Antes de referirnos al movimiento browniano en la siguiente seccion,
de una
a considerar someramente las caminatas aleatorias en espacios con mas

4.7. OTRAS CARACTERISTICAS DE LAS CAMINATAS ALEATORIAS

111

A fin de motivar algunas preguntas en torno a caminatas aleatorias de


dimension.

dimensionalidad mayor que uno incluimos unos ejemplos graficos


de simulacion
de caminatas aleatorias bidimensionales en la figura 4.5. En estas simulaciones,
la cantidad de pasos es n = 100000. El punto de partida en el origen y el punto

final, al cabo de n pasos se senalan


en la figura 4.5 mediante un punto verde y
un punto rojo respectivamente. Los pasos son de longitud unitaria y de direcciones
equiprobables en cada eje (X y Y).

El lector con un poco de curiosidad cientfica puede, al observar estas graficas, plantearse algunas preguntas como las siguientes:

2 y con direcciones de paso


Para tales caminatas aleatorias de dimension
de probabilidad de la distancia maxi
equiprobables, cual es la distribucion
ma desde el origen alcanzada en n pasos?

Cual es el la distancia maxima


al origen promedio en caminatas aleatorias
de n pasos?
Cual es la probabilidad de un eventual retorno al origen en n pasos?

El abordaje analtico de las preguntas antecedentes requiere de un mayor nivel

matematico
que el utilizado en este libro. El lector interesado en ampliar sobre esto
puede consultar el Captulo 12 sobre caminatas aleatorias en el libro Introduction to Probability de Grinstead y Snell o el libro de An Introduction to Probability
Theory and Its Applications - Volume I de Feller. Por cierto, en el primero de estos libros se expone un resultado interesante que vamos a dar seguidamente sin

demostracion:

Si no hay barreras absorbentes en una caminata aleatoria, la probabilidad de retornar al punto de origen en una caminata aleatoria de una
o dos dimensiones es uno. En cambio, en tres dimensiones, la probabilidad de un retorno eventual al punto de partida es estrictamente
menor que uno - es de hecho aproximadamente igual a 0,654 .

El resultado anterior responde una de las preguntas planteadas anteriormente. Se invita al lector a investigar las respuestas a las otras preguntas mediante

simulaciones estocasticas.
4

Grinstead, C. (1997), pp. 475-478.

112

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO


Figura 4.6: Robert Brown (1773-1858)

conocido por reRobert Brown fue un cientfico botanico


escoces,
colectar la flora australiana y autor de nombramiento de unas 1200
especies de Australia occidental. En 1827, examinando granos de
polen y esporas de musgos, observa diminutas partculas ejecutando un movimiento aleatorio. Posteriores experimentos confirmaron
que este movimiento no se deba al animismo o a corrientes externas de aire o fluidos, aunque Brown pudo determinar la causa del

fenomeno
que lleva su nombre. Fuente: http://es.wikipedia.

org/wiki/Robert_Brown

4.8.

Movimiento browniano

El termino
movimiento browniano se debe a Robert Brown (ver figura 4.6),

un cientfico botanico
escoces. Si bien Robert Brown no fue quien descubrio el

el primero en observarlo detalladamente por


fenomeno
que lleva su nombre, fue el

medio del metodo


cientfico. En un manuscrito que relata estas investigaciones5 ,
Robert Brown (1828), luego de efectuar minuciosamente varios experimentos que
bajo microscopio de partculas de polen provenieninvolucraban la observacion
tes de material vegetal vivo o muerto, y posteriormente, de varios tipos de mate
ria inorganica,
concluye que: 1) este movimiento es exhibido por partculas solidas
inmersas en un fluido acuoso, independientemente de su naturaleza
muy pequenas

organica
o inorganica
, 2) por su irregularidad y aparente autonoma, el movimiento de estas partculas se asemeja al de los microorganismos, 3) este movimiento
del fluido, capilaridad, desprendimienno se produce por corrientes o evaporacion

to de burbujas de aire u otras causas exogenas.


Las investigaciones de Brown no
fueron conclusivas en cuanto a lo que realmente origina el movimiento browniano,

pero su importancia radica en defenestrar la hipotesis


vitalista como la causa del
6

fenomeno
.

Robert Brown no fue el primero en constatar el fenomeno


del movimiento brow la
niano, aunque si fue el primero en estudiarlo detallada y cientficamente. Quizas
antigua mencion
que se tiene del movimiento browniano se atribuye a Lucremas

a quien se cita en el epgrafe


cio, poeta y filosofo
romano del siglo I a.C. Es a el
al principio del captulo, con un pasaje en latn extrado de un poema titulado De
5
6

Ver Brown (1828).


Ver Nelson (2001), p. 8

4.8. MOVIMIENTO BROWNIANO

113

rerum natura7 (Sobre la naturaleza de las cosas), que se traduce en los siguientes

terminos:

Volved vuestra mirada sobre estos corpusculos

Que aqu se ven dando volteretas en la luz.


Porque tales volteretas atestiguan
Que movimientos primordiales,
secretos e invisibles, subyacen todo.

De los atomos
primordiales procede este movimiento,

estos empujando a corpusculos


mayores, proximos
a ellos,

y estos a su vez, incitando al movimiento

a cuerpos de mayor tamano,

y as, el movimiento asciende desde los atomos


primordiales,
de etapa en etapa, hasta que emergen al nivel de los sentidos,
cuando apreciamos aquellos corpusculos

moviendose
en la luz solar,
aunque no vemos los golpes que los incitan a ello.

Con impresionante perspicacia, Lucrecio se adelantaba a las ideas expuestas en un trabajo de Albert Einstein sobre el movimiento browniano publicado en
en que tambien
publico su artculo sobre la teora de la relatividad y
19058 , ano

otro artculo sobre el efecto fotoelectrico,


que le valdra el Premio Nobel en 1923
9

. Basandose
en la hipotesis
atomica,
y ampliando los resultados derivados por
Maxwell, segun
los cuales las partculas del fluido no tenan todas la misma ve de velocidades, Einstein explica matematicamente

locidad, sino una distribucion


el
grande como un efecto apreciable promovimiento browniano de una partcula mas

ducto de innumerables colisiones con partculas atomicas.


Las colisiones en si son
impredecibles, dada la gran magnitud con que ocurren, pero debido a que ocurren
se altera de
constante y continuamente, la velocidad de la partcula en suspension
10 .
forma continua, tanto en magnitud como direccion
La importancia del trabajo de Einstein sobre el movimiento browniano no se

puede soslayar: aunque sus argumentos no dan pie a una teora de la dinamica
de las partculas en movimiento browniano, determinan la naturaleza estadstica
7

Texto en latin disponible en http://www.thelatinlibrary.com/lucretius.html.

ver Einstein, A. (1905). Uber


die von der molekularkinetischen Theorie der Warme
geforderte
Bewegung von in ruhenden Flussigkeiten
suspendierten Teilchen. Ann. Phys. 17, 549.

9
Pernas, D. y otros (2004).
Ver Cazas
10
Pernas, D. y otros (2004).
Consultar Cazas
8

114

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

11 . Eventualmente, a partir de
del fenomeno
y el valor del coeficiente de difusion
estos resultados, Perrin hallara el numero
de Avogrado experimentalmente, por lo

cual le fue otorgado el Premio Nobel en 192612 . No menos importante es haber


13

demostrado, de una manera visible y concreta, la existencia real de los atomos


.
conocido como proceso de Wiener-Levy, proEl proceso de Wiener14 , tambien
se origina
ceso de movimiento browniano o alternativamente, proceso de difusion,

como un proceso estocastico


para modelar matematicamente
el movimiento brow relativa de una partcula con respecto a su
niano. El desplazamiento, o posicion
inicial15 , en un determinado instante de tiempo t se modela mediante una
posicion

secuencia de variables aleatorias {X(t)|t 0}- un proceso estocastico


pues. Pa se asume en lo sucesivo que estos desplazamientos se
ra simplificar la discusion,
refieren a trayectorias a lo largo de una recta (son unidimensionales), aunque se
superior representandolas

podra considerar trayectorias en espacios de dimension


mediante variables aleatorias n-dimensionales.

(Proceso de Wiener). Sea {X(t)|t 0} un proceso estocastico


Definicion
de

parametro
continuo. {X(t)|t 0} es un proceso de Wiener si:
(I) X(0) = 0.
(II) X(t) es casi seguro continuo.
(III) X(t) es de incrementos independientes, estacionarios
y normalmente distri
buidos: X(t) X(s) Normal 0, 2 (t s) .
casi seguro continuo es un termino

En el apartado (ii) de la definicion,


que
ha de interpretarse en el contexto de la teora de la medida y se refiere a que el
conjunto de valores donde X(t) no es continuo es de medida cero. A fin de contribuir a esclarecer este modelo de movimiento browniano, se empleara un enfoque16

similar a aquel seguido por Feller17 . Considerese


pues, una partcula suspendida
11

Ver Nelson (2001), p. 16.


Ver Parzen (1962), p. 29.
13
Ver Nelson (2001), p. 17.
14

Este proceso es homonimo


de Norbert Wiener (1894,1964), matematico
estadounidense, quien
lo definio en 1923.
15
inicial es el origen, o cero (ver apartado (i) en la definicion.

La posicion
16
fue seguida por L. Bachelier y posteriormente motivo a A.
Feller acota que esta aproximacion
Kolmogorov a desarrollar los fundamentos formales de los procesos de Markov. Bachelier fue el

primer investigador en modelar matematicamente


la dinamica
del movimiento browniano, aplicandolo
de precios en los mercados de valores. Aqu se expone una version
mas
simplificada
a la evaluacion
de dicho enfoque.
17
Ver Feller (1968), XIV.6.
12

4.8. MOVIMIENTO BROWNIANO

115

en un fluido y sometida a constante bombardeo por partculas atomicas.


En cada

unidad de tiempo, supongase que ocurre cierta cantidad n muy grande de colisio la partcula grande se desplaza hacia la derecha o
nes, y que en cada colision,
hacia la izquierda cierta distancia infinitesimalmente corta. Estas suposiciones
demasiado simplificadoras, pero, recordando que se trata de un modelo
son quizas

si bien incluso a nivel atomico

matematico,
tienen su justificacion:
las colisiones no
generan desplazamientos constantes en cualquiera de las dos direcciones, estos
se pueden promediar. Por otra parte, es concebible subdividir el tiempo, que es
una magnitud continua, en lapsos infinitesimalmente cortos de modo que en cada
Esto supone ademas
que existe un numero
uno se registre a lo sumo una colision.

enorme de atomos
en el fluido que colisionan constantemente con la partcula.
es una caminata aleatoria basada en ensayos de BerEl modelo en cuestion

noulli: en cada instante infinitesimalmente corto de tiempo se tiene una colision


que, segun
de donde provenga, ocasiona un desplazamiento Zi de + con probabilidad p o de con probabilidad q = 1 p. El desplazamiento de magnitud
estocasticamente

resultante en cada ensayo de Bernoulli se supone ademas


independiente del resultado de otros ensayos. El desplazamiento total de la partcula
al cabo de una unidad de tiempo- X(t + 1) X(t) es el resultado acumulado de n
ensayos de Bernoulli discretizados mutuamente independientes entre s- una caminata aleatoria.
n

X(t + 1) X(t) = Zi
i=1

Estrictamente hablando, las variables aleatorias Zi no siguen una distribucion


estas ultimas
de Bernoulli, pues por definicion
toman solo dos valores: 0 o 1. Pero

de una sucesion
variables aleatorias Bi del
se pueden definir los Zi en funcion
siguiente modo:

Zi = (2Bi 1)
P{Zi = } = q = 1 p
P{Zi = +} = p

(4.8.1)

Interesa determinar la esperanza y la varianza del incremento X(t + 1) X(t),


para lo cual es conveniente tener en cuenta que este se puede expresar como una
lineal de una suma de n variables aleatorias independientes de Bernoulli
funcion
(una v.a. binomial, denotada abajo por Sn ):

116

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

X(t + 1) X(t) = Zi
i=1
n

= (2Bi 1) = (2Sn n)
i=1

Se tiene entonces la esperanza y la varianza de dicho incremento:

E [X(t + 1) X(t)] = n (2p 1)


V [X(t + 1 X(t)] = 4n2 pq

(4.8.2)

se puede suponer que el sistema esta en


En el fenomeno
bajo consideracion,
equilibrio y que, a la larga, la cantidad de colisiones por la derecha y por la izquierda son iguales, de donde p = q = 1/2. Por otra parte, tomando en cuenta que el
numero
de colisiones es muy grande (n ), que el desplazamiento producido

individual es infinitesimal ( 0) y que, por razones de homopor cada colision


geneidad, n2 permanece constante y se define igual a 2 , se tiene, en virtud del
Teorema Central del Lmite, que el incremento X(t + 1) X(t) es normalmente
distribuido con media cero y varianza 2 :

X(t + 1) X(t) Normal 0, 2

generales, como por ejemplo X(t) X(s), para 0 s t ,


Los incrementos mas
se expresan como sumas de n (t s)18 variables aleatorias de tipo Zi . Efectuando

los calculos
correspondientes y basandose
en razonamientos similares a los utilizados anteriormente, se determina que:


X(t) X(s) Normal 0, 2 (t s)

Como los ensayos de tipo binomial representados por los Zi son estocasticamente independientes y equidistribuidos, y en virtud de que dos incrementos no
superpuestos de tipo X(t) X(s) se componen de series de ensayos Zi no superpuestos y por lo tanto independientes, se sigue que el {X(t)|t 0} as caracterizado, es un proceso de incrementos independientes y estacionarios. Adicionalmente
18
Se requiere que n (t s) sea entero, pero t s es real. Esto no presenta mayores problemas
porque n es un numero
muy grande.

4.8. MOVIMIENTO BROWNIANO

117

de la definicion
de proceso de Wiener, concluyendo que
vale la tercera condicion
este proceso, caracterizado por una serie muy grande de ensayos de tipo binomial,
es un proceso de Wiener.
Es oportuno dilucidar algunos aspectos, el primero siendo el significado de la
constante 2 . Esta constante representa la variabilidad de los incrementos de tiem2 19 . El segundo es que,
po unitario y se podra estimar empricamente mediante Sn1
segun
la forma en que se construye el proceso de Wiener, se puede constatar que
el desplazamiento futuro de una partcula que efectua
un movimiento browniano no
depende de su trayectoria pasada, y que el mecanismo aleatorio que genera estos
desplazamientos permanece inalterable a lo largo del tiempo. En presencia de un

aleatoria en cada unidad de tiempo es producto del efecfenomeno


cuya variacion
to aditivo que tiene una cantidad muy grande de shocks sobre el objeto en movimiento, tiene sentido basarse en el Teorema Central del Lmite para modelar estas
de probabilidad normal. Aparte
variaciones aleatorias mediante una distribucion

con un corpusculo,
del fenomeno
de partculas atomicas
en colision
existe una

sobre el efecto aditivo es razonaamplia gama de contextos donde esta suposicion


ble. Por ultimo,
si se supone que las probabilidades p y q son distintas, se rompe

fluctuaciones
el equilibrio y la partcula efectua
lentamente, aunque con pequenas
determinada.
hacia arriba o hacia abajo, un desplazamiento en una direccion
del proceso de Wiener dada
Para este ultimo
caso, se generaliza la definicion

anteriormente definiendo un nuevo proceso estocastico,


denominado proceso de

del proceso de
Wiener generalizado u homogeneo con desplazamiento, en funcion
Wiener con media nula:

(Proceso de Wiener homogeneo


Definicion
con desplazamiento). Sea {W (t)|t

0} un proceso estocastico
de parametro
continuo.{W (t)|t 0} es un proceso de

Wiener homogeneo
con desplazamiento si:

W (t) = t + X(t) para cada t 0


en donde X(t) es un proceso de Wiener.

19

2
Por Sn1
se denota la varianza muestral insesgada, definida como

(Xi X)2
i=1

n1

118

4.9.

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

El problema de la ruina del jugador en el contexto del


Movimiento browniano

informal de un proceso de Wiener mediante el paso al lmite de


La deduccion
anterior, insinua
una caminata aleatoria, tal como se hizo en la seccion
la posibilidad de aplicar al modelo de Wiener ciertos resultados establecidos con respecto a
las caminatas aleatorias, a fin de calcular lo siguiente:

1. Una partcula que efectua


un movimiento browniano unidimensional parte de
inicial x0 , acotada por dos extremos a y b (a x0 b). Cual

cierta posicion
es la probabilidad de que dicha partcula alcance el extremo a antes que el
extremo b? O conversamente, Con que probabilidad alcanza a b antes que
a a?20
promedio necesaria para que una partcula en movi2. Cual es la duracion
miento browniano alcance alguna de las barreras absorbentes?

Estas cuestiones nos remiten de nuevo al problema de la ruina del jugador, que

ya hemos visto en secciones precedentes. Recordemos que las formulas


(4.5.8) y
promedio del juego, respecti(4.6.6) para la probabilidades de ruina y la duracion
vamente, fueron deducidas a partir de los siguientes supuestos:

1. Los montos de los capitales (x, y y T ) son siempre cantidades enteras mayores o iguales a cero. En el contexto del movimiento browniano, esto sera
de la partcula a puntos enteros durante toda
equivalente a limitar la posicion
su trayectoria a lo largo de la recta real.
de
2. En cada instante discretizado de tiempo, el capital del jugador (la posicion
la partcula, respectivamente) aumenta o disminuye en una unidad. Nuevamente, esto presenta ciertas dificultades para la aplicabilidad al estudio del
movimiento browniano. Por una parte, los incrementos de 1 implican un
movimiento discontinuo, cuando el proceso de Wiener que modela al movi casi siempre continuo. Por otra parte,
miento browniano es, por definicion,
los incrementos unitarios fijos no capturan adecuadamente la variabilidad de
los incrementos en un movimiento browniano, cuyas desviaciones de cero

son mayores en magnitud a medida que el parametro


2 se hace mayor.
20

Los extremos a y b se conocen como barreras absorbentes.

4.9. MOVIMIENTO BROWNIANO Y LA RUINA DEL JUGADOR

119

Por las razones expuestas anteriormente, el modelo de ruina del jugador, en su


forma original, es de escasa aplicabilidad para calcular la probabilidad de que una
partcula que efectua
un movimiento browniano llegue a una barrera absorbente
del
o el tiempo promedio hasta llegar a alguna barrera absorbente. La deduccion
proceso de Wiener a partir del paso al lmite del modelo discretizado de caminata aleatoria plantea una posibilidad de aplicar las formulas (4.5.8) y (4.6.6) al

calculo
de la probabilidad de alcanzar una u otra barrera absorbente en un mo de tiempo promedio de
vimiento browniano unidimensional, as como la duracion

dicha trayectoria. A tal fin, se definen los parametros


y p de la variable aleatoria de Bernoulli transformada, caracterizada en las expresiones ((4.8.1)), de modo
que coincidan los primeros y segundos momentos no centrales de las variables
de unidad de tiempo,
Zi , que se supone representan los incrementos por fraccion
1
y los correspondientes incrementos X(t + n ) X(t) del proceso de Wiener. Para
ello, se vale de la propiedad de homogeneidad del proceso de Wiener, mediante la
cual se tiene que la esperanza (respectivamente, la varianza) de un incremento de
lineal de la esperanza (respectivamente, la varianza) del inamplitud 1n es funcion

cremento de amplitud unitaria X(t + 1) X(t). La idea es reminiscente del metodo


21
de los momentos de Pearson .

E[Zi ] = (1 p) + p = (2p 1) =
E[Zi2 ]

2  2
+
= =
n
n
2

A partir de estas ecuaciones se determinan las ecuaciones para y p:

p
n2 + 2

+ n2 +2

p =
2
2
=

1
n

(4.9.1)

n +

En el contexto general de un movimiento browniano, interesa calcular las pro promedio de la


babilidades de alcanzar alguna barrera absorbente y la duracion
inicial x0 que esta acotada
trayectoria cuando la partcula parte de una posicion
entre las barreras absorbentes a y b (a < x0 < b), siendo a, b y x0 valores reales
cualesquiera. Sin embargo, en el contexto del problema de la ruina del jugador,
la barrera absorbente inferior siempre es 0 y tanto la barrera superior T , como
21

Ver Rios (1977), p. 327.

120

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

el capital inicial x son cantidades enteras positivas. Por otra parte, no


tambien

sera necesariamente igual a 1. Para sortear estos inconveniente, se transforman


las coordenadas a, b y x0 a las correspondientes coordenadas (numeros
naturales)

que son los parametros


del problema de la ruina del jugador. En lo que sigue, []
de redondeo de un real al entero mas
cercano:
denota la funcion

"

ba

=n p
2
2
" n + #
x0 a
x =n p
n2 + 2

(4.9.2)

((4.9.2)), la division
por es un cambio de
En las ecuaciones de traslacion

escala de los parametros


para traducir el movimiento browniano a una caminata
aleatoria con desplazamientos unitarios a la derecha o a la izquierda. Se expresa
ahora las ecuaciones para la probabilidad de ruina ((4.5.8)), que en el contexto del
proceso de Wiener representa la probabilidad de que la partcula alcance el punto
inicial x0 , utilizando las expresiones para
a antes que b partiendo de una posicion
p, T y x deducidas anteriormente (ver ecuaciones (4.9.1) y (4.9.2)):

Rx0 =

!n
p
n2 + 2
p
n2 + 2 +

ba

n2 +2

!n
p
n2 + 2
p
n2 + 2 +


!n
p
n2 + 2
p
n2 + 2 +

ba

x0 a

n2 +2

(4.9.3)

n2 +2

Tomando lmites cuando n , se obtiene la probabilidad de ruina para el proceso

de Wiener generalizado de parametro


continuo:
2

e2(bx0 )/ 1
Rx0 = 2(ba)/2
e
1

(4.9.4)

Es interesante notar lo que sucede que cuando 0, que sera el analogo


continuo de p = q:

lm Rx0 =

b x0
ba

(4.9.5)

4.10. PROBLEMAS PROPUESTOS

121

es completamente similar a la que figura en la ecuacion

Esta ultima
expresion

((4.5.8a)), para el caso en que p = q. De forma analoga, se plantean las formulas para Dx0 . Es preciso aclarar que cuando se subdivide la unidad de tiempo en
((4.6.6a)) indica la duracion
promedio en
n subintervalos, y dado que la ecuacion

terminos
de subintervalos discretos infinitesimales de tiempo, se debe dividir la
de Dx entre n para obtener la duracion
promedio exprecorrespondiente expresion
sada en unidades de tiempo:



2(ax0 )/2
(b

a)
1

e
1
x0 a

Dx0 = lm Dx =

2
2(ab)/
n n

1e

(4.9.6)

para Dx0 completamente equivaNuevamente, si 0, se obtiene una expresion

lente a la formula
(4.6.6b)) para el caso en que p = q:

lm Dx0 =

4.10.

(x0 a)(b x0 )
2

(4.9.7)

Problemas propuestos

1. Una fabrica
produce recipientes cuya capacidad se verifica al finalizar el pro y se consideran defectuosos aquellos cuya capacidad
ceso de produccion,
esta por debajo de los 0,975 lt. o por encima de 1,025 lt. Pruebas estadsti
cas sugieren que la capacidad de un recipiente producido tiene distribucion
estandar

normal con media 1 lt. y desviacion


0,01. Define el proceso alea Cuales

torio de Bernoulli que modele esta situacion.


suposiciones deben
para que el modelo de Bernoulli sea
hacerse sobre el proceso de fabricacion
adecuado?
2. Para el problema anterior, calcule la probabilidad de que al tomar una mues
tra aleatoria de 10 recipientes producidos en la fabrica,
a lo sumo 4 sean
defectuosos.

3. Sea {Si |i 1} el numero


de exitos
en un proceso de Bernoulli con probabi

lidad de exito
p.
a) Calcule E[Sn+m |Sn ].
b) Calcule P{S7 = 4, S8 = 7}.

122

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

4. Sea {Ti |i 1} la caminata aleatoria asociada al numero


de ensayos de Ber

noulli hasta observar un i-esimo exito (con probabilidad de exito


p).
a) Calcule P{T2 = 4, T3 = 5, T6 = 8}.
b) Calcule P{T3 = 5, T5 = 3}.
c) Calcule P{T7 = 3, T8 = 12}.
5. En el contexto de las preguntas 1 y 2, cuantos recipientes se deberan de
muestrear, en promedio, para observar 4 recipientes defectuosos?
para la siguiente ecuacion
general en diferencias de
6. Encuentre la solucion
primer orden: an = r an1 . Asuma que se conoce el valor inicial de la se en terminos

cuencia (a0 ) y exprese la solucion


de a0 .

7. Utilice la propiedad telescopica


de las series para demostrar que
n

xi =

i=0

1 xn+1
1x

si x 6= 1

para la siguiente ecuacion


general en diferencias
8. Demuestre que la solucion
de primer orden dada en (4.5.5) (an = an1 + ), es:

an = a0 + n
n
an = n a0 + 1
a

si = 1
si 6= 1

9. Una partcula efectua


una caminata aleatoria partiendo desde un punto 0.
En cada instante de tiempo, se desplaza hacia la izquierda un paso con
probabilidad q = 0, 5 o hacia la derecha un paso con probabilidad p = 0, 5.
de la partcula en el instante t ,
Si X(t) representa la posicion
a) Defina el espacio de estados para t = 0, 1, 2, 3, 4.
de probabilidades de X(1), X(2), X(3) y X(4).
b) Encuentre la distribucion
c) Es {X(t)|t 0} un proceso estacionario?
10. Desde donde esta situado, un borracho esta a solo un paso de caer a un
precipicio. El borracho camina de forma aleatoria: toma un paso hacia el

precipicio con probabilidad de 13 y un paso alejandose


del precipicio con pro2
babilidad de 3 . Con que probabilidad se escapa el borracho de caer al
precipicio?

4.10. PROBLEMAS PROPUESTOS

123

11. Un ludopata varado en Margarita tiene solo 20 BF y necesita conseguir 20


BF adicionales para tomar el ferry de regreso a casa, pero siente pena de
dinero. Decide jugar a la ruleta (de
llamar a su esposa para que le enve mas
la cual no es muy aficionado) y considera dos estrategias: apostar los 20 BF
a numeros
negros todos de una vez o apostar 1 BF a un numero
negro cada

vez hasta que haya completado o perdido los 20 BF que tena. Compare

los meritos
de ambas estrategias. (Nota: una ruleta tiene 38 numeros
de los

cuales 18 son negros, en cada turno de ruleta se gana lo que se apuesta con
20
probabilidad p = 18
38 o se pierde con probabilidad q = 38 ).

12. En el contexto del problema anterior, supongase


adicionalmente que el jugador decide apostar 1 BF a la vez, y cada turno en la ruleta toma aproxi
madamente 3 minutos. Cuanto
tiempo durara en promedio el jugador hasta
terminar el juego? Cree Ud. que el jugador pueda emprender el viaje en
ferry a su casa ese mismo da si comienza a jugar al medioda? (Nota: el
ultimo
ferry a tierra firme sale a las 8pm)

en R para de13. En el contexto de la pregunta anterior, realice una simulacion


terminar la probabilidad de que el ludopata varado en Margarita pueda tomar
un ferry a su casa ese mismo da si aplica la estrategia de apostar 1 BF por
turno.
14. Justifique detalladamente y haciendo referencia a las definiciones y propiedades sobre las probabilidades y esperanzas condicionales, cada uno de los
de la ecuacion
(4.6.1) dados en el desarrollo de las
pasos en la justificacion
ecuaciones en (4.6.3) del texto.
es el nivel de capital
15. En el problema de la ruina del jugador, si p = q , cual
promedio del juego?
inicial x que maximiza la duracion
en R las formulas (4.6.6a) y (4.6.6b) refe16. Verifique mediante una simulacion
promedio del juego. Para el caso en que p 6= q, asuma
rentes a la duracion
que p = 13 . En ambos casos asuma un capital total T = 10.
17. Un beduino sale de un oasis en el desierto y se pierde. Para encontrar el
camino de vuelta al oasis, decide efectuar una caminata aleatoria bidimen es
sional. Sin considerar el tiempo que le tome esta caminata aleatoria, cual
la probabilidad de eventualmente regresar al oasis? Si un loro que lo acom en el desierto emprende el viaje de vuelta al oasis efectuando una
pana
caminata aleatoria en tres dimensiones, tiene mejores probabilidades de
eventualmente regresar?

124

UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO

Unidad 5

El procesos de Poisson

homogeneo

para dos cosas: descuLa vida sirve solo

matematicas.

brir matematicas
y ensenar

Simeon Denis Poisson (1781 - 1840)

Si tuviera que irme a una isla desierta,


pudiera llevar conmigo a una
y s solo

de
distribucion,
elegira la Distribucion
Poisson.

T RES M UNDOS
Litografa - 1955
M.C. Escher

Prof. Howard Taylor

(autor de varios libros sobre procesos estocasticos)

125

126

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

Objetivos de la Unidad
de los procesos de
El objetivo general de esta Unidad es hacer una exposicion

con otros proPoisson homogeneos,


sus caractersticas, propiedades y relacion

cesos o distribuciones a fin de poder aplicarlos al estudio de fenomenos


reales y
realizar simulaciones que involucren estos procesos. Para lograr este objetivo, se
requiere a su vez el dominio de los siguientes objetivos especficos:

Identificar las condiciones que definen al proceso de Poisson homogeneo.

Deducir el proceso de Poisson homogeneo


mediante el paso al lmite de

la cantidad de exitos
en n ensayos cuando n y p 0 pero np = es

constante y aplicar este resultado en el calculo


aproximado de probabilidades
binomiales.
de Poisson al estudio de fenomenos

Aplicar la distribucion
en los cuales los
objetos de cierta clase se distribuyen aleatoriamente en el espacio segun
un

proceso de Poisson homogeneo.


del tiempo transcurrido entre dos eventos en un proDeducir la distribucion

ceso de Poisson homogeneo


y aplicar este resultado para simular procesos
de Poisson que ocurren en el tiempo.
Relacionar las distribuciones de probabilidad asociadas al proceso de Pois
son homogeneo
como casos lmites de las distribuciones de probabilidad que

surgen en el estudio de la cantidad de exitos


basados en n ensayos de tipo
Bernoulli.
entre el proceso de Poisson homogeneo

Estudiar la relacion
y la distribucion
de procesos de Poisson espaciales.
uniforme y aplicar esto en la simulacion

DEL PROCESO DE POISSON


5.1. DERIVACION

5.1.

127

El proceso de Poisson como caso lmite de la caminata aleatoria binomial

aleatoria de procesos cuyos


En el capitulo anterior estudiamos la evolucion
cambios de estado ocurren en instantes de tiempo discretos, que se suponen re temporal no esta del todo determinagularmente espaciados pero cuya ubicacion

da, o no es relevante. Hablabamos


entonces de ensayos (procesos de Bernoulli) o

pasos (en las caminatas aleatorias), aunque no especificabamos


los instantes de
tiempo precisos en los cuales ocurra cada ensayo o paso porque sencillamente no

era relevante. Sin embargo, en muchos fenomenos


reales no podemos considerar
que los eventos de un proceso ocurren o no en instantes discretizados de tiempo.
En estos casos, los procesos de Bernoulli no son modelos adecuados.

Consideremos por ejemplo una central telefonica


en la cual se han recibido
270 llamadas en un periodo de tres horas (180 minutos). Consecuentemente, se

reciben en promedio 1,5 llamadas por minuto y basandonos


en esta evidencia,
llamadas en los proxi
deseamos calcular la probabilidad de recibir 0, 1, 2 o mas
mos 3 minutos. Podramos dividir el lapso de 3 minutos en 9 subintervalos de 20
segundos cada uno y si suponemos que las probabilidades de que ocurran llamadas en cada subintervalo permanecen constantes, esto nos conduce a aproximar
binomial. Nuestra aproximalas probabilidades buscadas mediante la distribucion
consiste en considerar cada uno de los nueve subintervalos como ensayos de
cion

Bernoulli en los cuales observamos una llamada telefonica


(exito)
o ninguna (fra20

caso), con probabilidad de exito


p = (1, 5) 60 = 0, 5. Pero un poco de reflexion
bastante
nos hace concluir que cuando mucho, este modelo es una aproximacion
porque estamos ignorando la posibilidad de que ocurran
inexacta de la situacion,
llamadas en cada subintervalo de 20 segundos y el uso del modelo de
dos o mas
Bernoulli supone una dicotoma en cada ensayo: o ocurre una llamada o no ocurre
ninguna.
llamadas
No obstante, para minimizar la probabilidad de que ocurra dos o mas
en cada subintervalo de tiempo, podramos subdividir el lapso de 3 minutos en una
cortos. Podemos tambien
observar si las promayor cantidad de subintervalos mas
babilidades calculadas tienden hacia algun
valor a medida que tenemos una mayor
cantidad de intervalos: hicimos el ejercicio de calcular las probabilidades de recibir
k llamadas en un lapso de 3 minutos manteniendo el numero
promedio de llamadas

(E[X] = np = 1, 5) constante. En la tabla 5.1, se muestra en las celdas respectivas


de Bernoulli.
dichas probabilidades aproximadas mediante la distribucion
En la tabla 5.1, los valores de n y de p se multiplican y se dividen respectiva-


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

128

Tabla 5.1: Calculo de las probabilidades de recibir K llamadas en 3 minutos mediante aproximaciones sucesivas por medio del modelo binomial.
Variable aleatoria: X = numero
de llamadas recibidas en un lapso de 3 minutos.

 
n k
Ley de probabilidad binomial: P(X = k) =
p (1 p)nk
k
k
0
1
2
3
4
5
6
7
8
9
10
11

12

n=9
p = 0, 5

n = 72
p = 0, 0625

n = 576
p = 0, 0078125

n = 4608
p = 0, 0009766

n = 368649
p = 0, 0001224

0,001953125
0,017578125
0,070312500
0,164062500
0,246093750
0,246093750
0,164062500
0,070312500
0,017578125
0,001953125
0,000000000
0,000000000
0,000000000

0,009592502
0,046044010
0,108970823
0,169510170
0,194936695
0,176742603
0,131575049
0,082704317
0,044798171
0,021237652
0,008919814
0,003351688
0,001616506

0,010914422
0,049501632
0,112060781
0,168826478
0,190428291
0,171535406
0,128538998
0,082415331
0,046155830
0,022936580
0,010240190
0,004148853
0,002297208

0,011084598
0,049929451
0,112426676
0,168731600
0,189884897
0,170914969
0,128172304
0,082369633
0,046307757
0,023136275
0,010401146
0,004249931
0,002390768

0,011105946
0,049982856
0,112472106
0,168719601
0,189817275
0,170837865
0,128126661
0,082363787
0,046326488
0,023161045
0,010421198
0,004262581
0,002402592

mente por un factor de 8 en forma sucesiva, de modo que n tiende a infinito y p


tiende a cero, pero np permanece constante. Observamos que las probabilidades
a
respectivas se estabilizan alrededor de ciertos valores no varan mucho mas
medida que seguimos aumentando el numero
n de ensayos. Esto nos motiva a

es la ley de probabilidad hacia la cual tiende


formular la siguiente pregunta: Cual
la binomial a medida que n y p 0 de modo que np permanece constante,
digamos np = ?

En los calculos
siguientes se determina la respuesta exacta a esta pregunta.
de probabilidad binomial:
Considerando pues la funcion

 
n k
n!
P{X = K} =
p (1 p)nk =
pk (1 p)nk
k
k!(n k)!
k f actores

z
}|
{
n(n 1)(n 2) (n k + 1) k
=
p (1 p)nk
k!
Primero de define = np, de modo que p = n y 1 p = 1 n . Sustituyendo
anterior todos los terminos

en la ecuacion
que involucren p por sus expresiones
equivalentes en obtenemos:

DEL PROCESO DE POISSON


5.1. DERIVACION

129

  

n(n 1)(n 2) (n k + 1) k
nk
P{X = K} =
1
k!
n
n
nk
k

n(n 1)(n 2) . . . (n k + 1)

=
1
k!
n
n| n{z n}
k f actores

  
 
 

nk
1
2
k1

1
1 1
1
1
=
k!
n
n
n
n
n 
k  
 
 

k

1
2
k1
=
1
1
1 1
1
1
k!
n
n
n
n
n
k

de arriba cuando n y p 0 de modo


Ahora tomando el limite de la expresion
que np = permanece constante, obtenemos lo siguiente:

lm

P{X = k}
n 
k 



k
1 n
1 n
1 1 n1 1 2n 1 k1
n
n k!
k

=
e
k!
= lm

(5.1.1)

Ya que, segun
lo recordado en nuestra clase de sexto grado de primaria cuando

estudiabamos
limites:



n
lm 1
= e ,
n
n



k
lm 1
=1 y
n
n


c
lm 1
=1
n
n

De esta forma demostramos el siguiente teorema:

Teorema 5.1 (Ley de las Probabilidades Pequenas).


Sea X una variable aleatoria

discreta distribuida segun


n y p respectivos. Si
la ley binomial con parametros
n y p 0 de forma que np permanece constante e igual a , entonces, bajo
estas condiciones:

lm P{X = k} = e

k
k!

130

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

es que nos
Este resultado es muy importante por varias razones. Una razon

permite calcular aproximadamente las probabilidades asociadas a la distribucion

binomial para un numero


n muy grande de ensayos y una probabilidad p de exi
to casi nula. El estudiante que haya intentado calcular probabilidades binomiales
que involucran numeros
combinatorios elevadsimos que multiplican potencias de

Es por esto que


p que tienden a cero sabra apreciar la vala de esta aproximacion.

el resultado anterior se conoce como la Ley de las Probabilidades Pequenas.


De la
misma forma que el Teorema de DeMoivre-Laplace (una variante de la Ley de los
normal las probabilidades biGrandes Numeros)
aproxima mediante la distribucion

nomiales cuando n y p no tiende a cero o a uno, la Ley de las Probabilidades


aproxima las probabilidades binomiales bajo las condiciones ya citadas
Pequenas
de probabilidad que el estudiante seguramente ha identimediante una distribucion
de Poisson. Como regla practica,

ficado ya- la distribucion


se puede confiar en esta
si n 100, p 0, 01 y np 201 .
aproximacion
Como se indica en la Tabla 1.1, la variable aleatoria Poisson representa el
numero
de eventos que ocurren en un instante de tiempo de amplitud fija cuan
de
do la tasa promedio de eventos en ese intervalo de tiempo es . Su funcion
probabilidad es:

x
e si x N+
PX (x) =
x!

0
si x
/ N+
de
Se le sugiere al estudiante que demostrar que en efecto, la distribucion
de probabilidad valida

Poisson es una distribucion


(Problema propuesto N 1). De
hecho, esto se realiza expresando e como una serie de Taylor.

Historicamente,
la ley de probabilidad de Poisson esta asociada al estudio de la
muy numerosa
cantidad de eventos de cierto tipo que ocurren entre una poblacion

cuando la frecuencia del fenomeno


es muy rara, como por ejemplo, la cantidad de
personas en una ciudad de 10 millones de habitantes que padecen de una enfer de individuos en
medad muy rara que afecta en promedio a uno entre cada millon
Simeon-Denis

una poblacion.
Poisson (1781-1840) formulo en 1837 la distribucion

con largas series de observaciones de eventos que ocurren


homonima
en conexion
de frecuencias
raramente. Por ejemplo, una de tales series dadas era la distribucion
del numero
de bajas anuales en cada cuerpo de la caballera del ejercito Prusiano

de frecuencias de el numero
debidas a patadas de caballos2 . La distribucion
de

bajas anuales de esta serie fue la siguiente:


1
2

Ver Devore (2001), p. 131.


Ver Rietz (1927), p. 39

DEL PROCESO DE POISSON


5.1. DERIVACION

131

Figura 5.1: Simeon


Denis Poisson (1781-1840)
Poisson es conocido por sus trabajos sobre electricidad y magnetismo, geometra diferencial, integrales, astronoma y probabilidades,
sur la probabilite des
sobre lo cual versa su escrito Rerecherches
jugements, publicado en 1837. En este trabajo desarrolla su famosa
Ley de los Eventos Raros. Fuente: http://es.wikipedia.org/

wiki/Sim%C3%A9on_Denis_Poisson

Bajas Anuales
Frecuencias

0
109

1
65

2
22

3
3

4 o mas
1

Si suponemos que las probabilidades de k muertes accidentales por patadas


de todos los cuerpos de
de caballo se mantienen constantes en el tiempo y a traves
la caballera del ejercito Prusiano, estos datos nos permitiran calcular las frecuencias relativas (que se asemejan a dichas probabilidades), dividiendo las frecuencias
absolutas respectivas entre el numero
total de observaciones, o sea n = 200. Si en

base a estas probabilidades calculamos el numero


promedio de muertes anuales

del parametro

en cada cuerpo de caballera, obtenemos una estimacion


, que

resulta ser igual a 0,61. Con el parametro


, calculamos las probabilidades respec de Poisson y con estas probabilidades, calculamos
tivas segun
la ley de distribucion

las frecuencias absolutas que cabra esperarse segun


resu este modelo teorico,
miendo los calculos en la siguiente tabla:

Bajas anuales
0
1
2
3
4 o mas
Observaciones de frecuencias absolutas (evidencia emprica)
Frecuencias
109
65
22
3
1
absolutas
Frecuencias
0,545 0,325 0,110 0,015
0,005
relativas
Observaciones esperadas segun
el modelo de Poisson
Probabilidades 0,543 0,331 0,101 0,021
0,004
esperadas
Frecuencias
absolutas
esperadas

108,6

66,2

20,2

4,2

0,6

Como se puede observar, la ley de probabilidad de Poisson modela de forma

bastante fiel el fenomeno


estudiado.


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

132

5.2.

axiomatica

Derivacion
del proceso de Poisson.

de Poisson
Llegados a este punto, podemos entender que la ley de distribucion

se adecua a una amplia gama de fenomenos


aleatorios de la vida real porque es
se asoma en muchas situaciones.
un caso lmite del modelo Binomial, que tambien
de Poisson, junto con la normal y la binomial, son las tres
De hecho, la distribucion
distribuciones principales de la teora de las probabilidades, debido a su universa3

lidad y grandes ramificaciones por todo el corpus teorico


. Sin duda, la distribucion

de Poisson merece un analisis


profundo por sus propios meritos. Surgen dos pre
guntas: Como
sabemos si se reunen
las condiciones para aplicar el modelo de

de
Poisson a un determinado fenomeno
real? Como relacionamos la distribucion

Poisson y los procesos estocasticos?


Intentamos dar una respuesta a la primera pregunta haciendo algunas conside binomial, a partir de la cual la distribucion
de Poisson
raciones sobre la distribucion
surge como caso lmite. En efecto, para que la binomial sirva de modelo adecuado

de un determinado fenomeno,
debemos verificar que las probabilidad p de exito
se
de todos los ensayos y que los ensayos se realizan
mantenga constante a traves
de Poisson es
de forma independiente entre s. Si consideramos que la distribucion
un caso lmite de la binomial, entonces se vislumbra una respuesta a la segunda
pregunta.

En efecto, supongase
que estamos interesados en contar la cantidad de even
tos de cierto tipo que han sucedido hasta un instante de tiempo t . Para tal fenomeno,
hacemos las siguientes suposiciones:

1. La ocurrencia adicional de eventos a partir de ese instante es independiente


de la cantidad de eventos acaecidos hasta entonces (los ensayos de Bernou precisamente, para intervalos de tiempo
lli son independientes entre s). Mas
disjuntos (no superpuestos), las cantidades de eventos que ocurren en cada
intervalo son independientes entre s. Esto es una manera de decir que el
proceso de Poisson es un proceso con incrementos independientes.
2. Se verifica que la tasa promedio de eventos, expresada como un cociente
de la cantidad de eventos en promedio que suceden en un lapso de tiempo

fijo, es constante (la probabilidad de exito


p en cada ensayo de Bernoulli es

constante). Por lo tanto, dos intervalos de tiempo de igual amplitud tendran


de probabilidades, en cuanto a la cantidad de eventos
la misma distribucion
3

Ver Feller (1968), p. 156

AXIOMATICA

5.2. DERIVACION
DEL PROCESO DE POISSON.

133

que sucede en cada intervalo, sin importar cuan distantes en el tiempo sean
esos intervalos uno del otro. Segun
la terminologa de la Unidad 3, el proceso
de Poisson es un proceso con incrementos estacionarios.

3. Segun
5.1.1, vemos que subdi las deducciones que culminan en la formula
vidiendo el numero
de ensayos del modelo binomial en lapsos temporales de

de modo que la probabilidad de ocuamplitud infinitesimalmente pequena,


eventos en cada lapso temporal sea casi nula y manrrencia de dos o mas
teniendo constante el promedio de eventos quesuceden a lo largo del lapso
de probabilidad de eventos que suceden en un
temporal total, la distribucion
de Poisson.
intervalo de tiempo es la distribucion
es una posible va para definir el proLa Ley de las Probabilidades Pequenas
vamos a tomar otra va mas
rigurosa, planteamos
ceso de Poisson. A continuacion
un conjunto de axiomas o condiciones que debe cumplir el proceso y verificamos
de Poisson. Antes definimos la
que necesariamente, esto conduce a la distribucion
terminologa mediante la cual denotaremos formalmente el proceso de Poisson:
de variables aleatorias inEl proceso aleatorio de Poisson es una coleccion

dexadas por un parametro


temporal continuo: {Z(t)|t 0}. Para cada instante t ,
Z(t) denota la cantidad de eventos de cierto tipo que se producen en el lapso de
tiempo [0,t), por lo cual Z(t) es un proceso de conteo y representa una cantidad
la secuencia {Z(t)|t 0} debe satisfacer los axiomas dados a
entera. Ademas

continuacion.
Axioma 1 Para intervalos de tiempo disjuntos (no superpuestos), las cantidades
de eventos que ocurren en cada intervalo son independientes entre s. El
proceso de Poisson es un proceso con incrementos independientes.
Axioma 2 Defnase Z(x + t) Z(x) como la cantidad de eventos que ocurren en
un intervalo de tiempo [x, x + t) y Z(y + t) Z(y) como la cantidad de
eventos que ocurren en otro intervalo de tiempo [y, y + t), siendo ambos
intervalos de tiempo de la misma amplitud. Entonces, Z(x + t) Z(x) y
la misma distribucion
de probabilidades. El proceso
Z(y + t) Z(y) tendran
de Poisson es un proceso con incrementos estacionarios.

de un intervalo de tiempo de longitud uniAxioma 3 Considerese


una subdivision
taria en N subintervalos, cada uno de longitud t = 1/N . Para N suficientemente grande, las probabilidades de que se produzcan cero o un evento en
cualquiera de esos subintervalos son respectivamente4 :
4

En lo sucesivo, los terminos


Pi (t) se definen como Pi (t) = P{Z(t) = i}.

134

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

PZ(t + t) Z(t) = 0 = P0 (t) = 1 t + o(t)

(5.2.1a)

PZ(t + t) Z(t) = 1 = P1 (t) = t + o(t)

(5.2.1b)

pequena

donde o(t) es una cantidad de un orden de magnitud mucho mas


0(t)
t0 t

que t de modo que lm

= 0. Observese
que las probabilidades P0 (t)

y P1 (t) son complementarias, de modo que la probabilidad que se produz eventos en un lapso de tiempo infinitesimalmente corto es
can dos o mas

despreciable. En lo anterior, es un parametro


constante que representa la
cantidad promedio de eventos que se producen en un intervalo de tiempo de
longitud unitaria:

E[Z(1)] = E[N Z(t)] = N E[Z(t)] = N (t + o(t))


1
= (t + o(t)) =
t

se conoce como intensidad de flujo .


El parametro
tambien
inicial: P{Z(0) = 0} = P0 (0) = 1. Esto
Axioma 4 Se impone la siguiente condicion
equivale a decir que P1 (0) = P2 (0) = = 0.
de probabiA partir de estos cuatro axiomas, pretendemos deducir la funcion
lidad de las variables aleatorias {Z(t)|t 0}, a saber:P{Z(t) = n} = Pn (t). Comencemos considerando P0 (t + t), la probabilidad de que ocurran cero eventos
en el lapso de tiempo [0,t + t).Para que suceda tal cosa, debe acontecer que se
produzcan cero eventos en [0,t) y cero eventos en [t,t + t). En virtud del Axioma
1, estos sucesos son independientes, pues [0,t) y [t,t + t) no son intervalos de
tiempo superpuestos. Por otro lado, en virtud del Axioma 2, la probabilidad de que
se produzcan cero eventos en el intervalo de tiempo [t,t + t) es igual a la probabilidad de que se produzcan cero eventos en el intervalo de tiempo [0, t), pues el
proceso es de incrementos estacionarios. En suma, tenemos lo siguiente:

P0 (t + t)

= P0 (t) P0 (t) = P0 (t)(1 t + o(t))

P0 (t + t) P0 (t) = P0 (t) (t + o(t))

AXIOMATICA

5.2. DERIVACION
DEL PROCESO DE POISSON.

135

y que por lo tanto, tomando la derivada de P0 (t):

P0 (t + t) P0 (t)
t + 0(t)
= lm P0 (t)
= P0 (t)
t0
t0
t
t

P00 (t) = lm

P00 (t)
=
P0 (t)
diferencial sencilla y tomando en cuenta el Axioma 4 que
Integrando esta ecuacion
inicial P{Z(0) = 0} = P0 (0) = 1, deducimos finalmente
establece una condicion
que:

P0 (t) = et

(5.2.2)

Ahora procederemos a calcular Pn (t) para n 1. De manera analoga


al razo expuesto, calculamos primero Pn (t + t), tomando en cuenta que
namiento recien
para producirse n eventos en el intervalo de tiempo [0,t + t), debe ocurrir alguno
de estos dos sucesos, que son mutuamente excluyentes:
1. Que se produzcan n1 eventos en el intervalo [0,t) y 1 evento en el intervalo
[t,t + t), o
2. Se producen n eventos en [0,t) y ningun
evento en [t,t + t).
De modo que:

Pn (t + t) = Pn1 (t) P1 (t) + Pn (t) P0 (t)


= Pn1 (t) (t + o(t)) + Pn (t) (1 t + o(t))

y de modo similar a como hicimos los calculos


precedentes, podemos encontrar la
derivada de Pn (t):

Pn0 (t) = (Pn1 (t) Pn (t))

Pn0 (t) + Pn (t) = Pn1 (t)

(5.2.3)

5.2.3 es una ecuacion


diferencial lineal de orden uno no-homogenea.

La ecuacion
5

Una formula
para resolver tales ecuaciones diferenciales es la siguiente :
5

Orellana, M. (1995), pp. 84-86


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

136

a la ecuacion
diferencial no homogenea

La solucion

y0 + p(x)y = q(x) viene dada por




Z
R
R
p(x)dx
p(x)dx
y=e
C + q(x) e
dx
Donde C es una constante que depende del valor de
inicial).
y en un punto dado (condicion

Sustituyendo los terminos


correspondientes en la formula anterior, recordando
que en este caso la variable independiente es t (no x) y teniendo en cuenta el Axioma 4 que establece las condiciones iniciales P1 (0) = P2 (0) = . . . = 0, procedemos
5.2.3:
a resolver la ecuacion

Pn (t) = e

Zt

Pn1 (x) x dx

(5.2.4)

Conociendo P0 (t) podemos hallar algunos de los Pn (t) para n 1:

P1 (t) = et

et et dt = (t)et

(t)2 t
e
2
Z
(t)3 t
(t)2 t t
e e dt =
e
P3 (t) = et
2
6
P2 (t) = e

tet et dt =

..
.
(t)n

No cuesta mucho trabajo deducir que, en general, Pn (t) = et n! .


esto se puede demostrar por el metodo

lo cual se
Claro esta,
de induccion,
deja como ejercicio propuesto para el estudiante (problema propuesto N 15). Re
cuerde que si se quiere demostrar cierta premisa An para todo n 0, el metodo
de
consiste en demostrar que A0 es cierto y que An An+1 .
induccion
En resumen, hemos visto en esta primera parte del presente capitulo las con
diciones o premisas bajo las cuales se produce un proceso estocastico
de Poisson

5.3. PROCESOS DE POISSON ESPACIALES.

137

homogeneo.
La palabra homogeneo
se refiere a que la intensidad de flujo es
una constante en el tiempo, esto queda establecido por el Axioma 2 referente a los
incrementos estacionarios.
de un proceso
Ahora estamos en condiciones de volver a plantear la definicion

de Poisson homogeneo:

(Proceso de Poisson homogeneo).


Definicion
Un proceso de conteo {N(t),t

0} es un proceso de Poisson homogeneo


con tasa media constante (o intensidad)

si cumple las condiciones a continuacion:


(I) {N(t),t 0} tiene incrementos estacionarios e independientes.
(II) Para dos instantes de tiempo s y t tales que s < t , la cuenta de eventos
N(t) N(s) acaecidos en el intervalo de tiempo (s,t) es distribuida segun

la ley de Poisson con media (t s). A saber:

P{N(t) N(s) = k} = e(ts)

((t s))k
k!

de cuales son las condiciones que


Se espera haber facilitado la comprension
dan origen a tales procesos, porque el numero
de eventos que se producen en un

intervalo de tiempo es distribuido segun


Poisson y las razones por las cuales este

proceso surge con mucha frecuencia en el estudio de ciertos fenomenos


aleatorios.

5.3.

Procesos de Poisson espaciales.

Las condiciones o postulados axiomaticos


que dan origen al proceso de Pois de otro tipo de proceso de Poisson si se
son se pueden extrapolar a la definicion
temporal por la dimension
espacial. De este modo, cuando
cambia la dimension
hablamos de lapsos de tiempo en los axiomas 1 a 4, ahora hablaremos de distan
cias, areas
o volumenes
en el caso en que el proceso se desarrolla en una, dos o

tres dimensiones espaciales respectivamente. Los eventos de tipo Poisson, en vez


de estar distribuidos sobre la recta temporal (porque se suceden en el tiempo), se
bien como puntos distribuidos sobre una superficie o un volumen.
conceptuan
mas
A modo de ejemplo, imagnese que estamos viendo una colonia de bacterias en un
del microscopio (ver Fig. 5.2).
plato de Petri a traves
Respecto a la figura 5.2, los puntos oscuros (de color verde oliva) representan

138

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

de un microscopio.
Figura 5.2: Esporas en un plato de petri vistas a traves

las bacterias. Se ha incluido un reticulado sobre la grafica,


que divide el area
en
cuadrantes de igual tamano,
para fines referenciales. Se han contado las
pequenos
bacterias en cada uno de los cuadrantes sombreados de amarillo, dentro del plato
de Petri, cuya cantidad de bacterias se indican en numeros
en la figura. En base a lo

observado, podemos contar cuantos cuadrantes contienen un determinado numero

de bacterias, lo cual nos da las frecuencias absolutas empricas (hay n = 32 observaciones). Acto seguido calculamos el promedio (estimado) de bacterias por cada

cuadrante, lo cual nos permite calcular las frecuencias relativas teoricas


(ajustadas

al modelo de Poisson) y de ah, multiplicando dichas frecuencias relativas teoricas por el numero
total de observaciones, determinamos las frecuencias absolutas

fuese realmente
teoricas,
las cuales cabria esperarse si el fenomeno
en cuestion
un proceso de Poisson. Todo lo dicho se resume en la siguiente tabla:

El parametro
, con el cual se calculan las probabilidades de Poisson respecti-

5.3. PROCESOS DE POISSON ESPACIALES.

139

Tabla 5.2: Ajuste de las observaciones de la Fig. 5.2 a un proceso de Poisson


espacial.

k
0
1
2
3
4
5
6
7

Frecuencia
absoluta
(emprica)
1
7
13
6
4
0
0
1

Frec. relativa teorica


(obtenida mediante
ajuste)
0.099013408
0.228968507
0.264744836
0.204074144
0.117980365
0.054565919
0.021030614
0.006947614

Frec. absoluta
esperada
3.1684291
7.3269922
8.4718348
6.5303726
3.7753717
1.7461094
0.6729797
0.2223236

vas (las de la columna de frecuencias relativas teoricas),


fue estimado del siguiente
modo:

i xi
=

i=0
7

xi

0 1 + 1 7 + 2 13 + 3 6 + 4 4 + 5 0 + 6 0 + 7 1
= 2, 3125
32

i=0

Segun
lo que hemos desarrollado para este ejemplo hasta ahora, surgen algu 6:
nas preguntas, que se dejan como problemas propuestos al final de esta seccion

Que representa el parametro


?

es el area

Si el circulo de la figura 5.2 es de 1 cm de diametro,


cual
de

del parametro

cada cuadrante y como


se interpretara la estimacion
(en
= 2, 3125)?
este caso,
Porque se han considerado solamente los 32 cuadrantes sombreados en
amarillo (ver figura 5.2) para elaborar las estadsticas de la tabla 5.2?
Una variable aleatoria de tipo Poisson, por ser discreta, siempre asume va
lores enteros. Como
explica Ud. que en la columna Frecuencias absolutas
esperadas de la tabla 5.2, los valores no sean enteros?
6
Antes de intentar responder estas preguntas, se le sugiere al lector terminar de estudiar esta

seccion.

140

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

Si asumimos que las frecuencias absolutas empricas son lo bastante aproxi


madas a las frecuencias absolutas teoricas,
entonces el modelo de Poisson parece

ser adecuado para describir el fenomeno


de las colonias de bacterias observadas
de la bondad de ajuste se realiza matemati
en el plato de Petri. La verificacion

camente mediante tecnicas


de inferencia estadstica que se ven en otros cursos.
de bondad de ajuste a un lado y abordemos las
Por ahora, dejemos la verificacion

implicaciones que se desprenden de ser este fenomeno


un proceso de Poisson.

Por ejemplo, el axioma 4 establecera que en un area


o volumen nulo hay cero bacterias con certeza total. Esto tiene bastante sentido- las bacterias necesitan

cierta cantidad mnima de espacio para desarrollarse y en un espacio de area


nula

no puede haber bacterias. Los axiomas 1 y 2 estableceran que en areas


no super las cantidades de bacterias en cada area

puestas de igual tamano,


son variables

independientes e identicamente
distribuidas. Esto quiere decir que la cantidad de
bacterias observadas en una esquina del plato Petri es independiente de la canti aun,

dad de bacterias observadas en otra esquina. Mas


tienen la misma distribucion
probabilstica, lo cual quiere decir que las condiciones requeridas para el desarrollo

de las actividades bacteriales son iguales en toda el area


del plato Petri. Por ejem nutritivo para las bacterias en alguna esquina del plato
plo, colocar un sustrato mas
Petri hara que las bacterias se concentrasen en ese sector- se estara violando la
de estacionariedad de las superficies no superpuestas de igual tamano

condicion

y el fenomeno
ya no sera un proceso de Poisson homogeneo.
Dicho de otro modo,
los axiomas 1 y 2 parecen indicar que los eventos en un proceso de Poisson se
distribuyen uniformemente en el tiempo (o el espacio en este caso), pero esto es
que abordaremos posteriormente. Por ultimo,
una cuestion
el axioma 3 plantea la

existencia de un parametro
que representa la cantidad promedio de eventos que
se producen en un intervalo de tiempo de longitud unitaria y que permanece cons
tante en el tiempo. En el caso de un proceso de Poisson espacial homogeneo
como
el que estamos tratando, viene a representar la cantidad promedio de bacterias

por cuadrante (de area


unitaria) observados en el plato de Petri.
importante en el estudio de los procesos de Poisson espaUna consideracion
cercano. Se da a continuacion

ciales es la distancia entre un punto y su vecino mas


de la distancia7 :
un teorema que especifica la distribucion

Ver Parzen (1962), pp. 32-33

5.3. PROCESOS DE POISSON ESPACIALES.

141

de la distancia al vecino mas


cercano en la distribucion

Teorema 5.2 (Distribucion


de partculas segun
un
proceso
de
Poisson
espacial).
Sea
D
la
distancia
entre

cercano en una distribucion


de partculas en el
una partcula y su vecino mas
plano segun
un proceso de Poisson espacial con tasa promedio de partculas

de densidad de D es:
por unidad de area,
entonces la funcion

fD (y) = 2.ey

(5.3.1)

En el caso en que las partculas se distribuyen en el espacio tridimensional con


de
una tasa promedio de partculas por unidad de volumen, entonces la funcion
densidad de D es:
4

fD (y) = 4y2 .e 3 y

(5.3.2)

Demostracion
(caso bidimensional)

Primero, observese
que P{D > y} denota la probabilidad de que un circulo de

radio y con area


y2 contenga cero partculas por lo tanto

P{D > y} = P{N(y2 )} = 0} = ey

Ahora bien, el evento P{D > y} es complementario al evento P{D y} de donde


para la funcion
de distribucion
de probabilidad de D:
podemos obtener la expresion

FD (y) = P{D y} = 1 P{D > y} = 1 ey

de densidad:
Y si derivamos con respecto a y obtenemos la funcion

fD (y) = FD0 (y) = 2y ey

de densidad de D para el proceso de Poisson tridimension al se


La funcion
obtiene mediante un procedimiento similar. Observando la forma funcional 4.8a (el

caso tridimensional es parecido) nos damos cuenta que D sigue una distribucion
de densidad se caracteriza por dos parametros

de Weibull 8 , cuya funcion


y :
8

Ver Devore (2001), p. 176

142

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

 
x

f (x; , ) = x1 e

para x 0 , cuya esperanza y varianza son:



E[D] = 1 + 1
V [D] =

y


2 
1 + 2 1 + 1

gamma cuya definicion


y propieda es, como sabemos, la archiconocida funcion
si = 2 y = 1 .
des se dan en la Tabla 1.2. Todo encaja a la perfeccion
.

5.4.

del tiempo inter-eventos en un proceso


Distribucion
de Poisson

Una forma alternativa de estudiar un proceso de Poisson es mediante la obser de los tiempos que transcurren entre eventos sucesivos, en contraposicion
a
vacion
observar la cantidad de eventos que se producen en un lapso de
tiempo de longitud fija, como hemos venido ha
ciendo hasta ahora. Para ilustrar esto, supongase que estamos interesados en estudiar el proceso asociado a la llegada de clientes a un banco. Es este contexto, consideraremos que se
produce un evento cuando un cliente entra por
la puerta principal del banco. Es razonable suponer que estos eventos se producen conforme
a un proceso de Poisson? Vamos a analizar la
(de la llegada de clientes a un banco)
situacion
a la luz de los axiomas que definen al proceso de Poisson y verificar, a grosso modo y de
Petroleum & Cactus bank

Vineta
en Tintin en America
manera intuitiva, si se cumplen las condiciones
Herge
mencionadas.

DEL TIEMPO INTER-EVENTOS


5.4. DISTRIBUCION

143

Una de las condiciones para que el fenomeno


bajo estudio califique como un
proceso de Poisson es que los incrementos sean independientes (Axioma 1). Habiendo definido evento como la llegada de un cliente al banco, un incremento sera
la cantidad de clientes que llegan al banco entre dos instantes de tiempo determinados. En circunstancias normales, las personas acuden al banco para realizar
acuden a realizar
diligencias independientemente de otras personas que tambien
tramites al banco. En otras palabras, normalmente las llegadas de clientes al banco se producen por causas externas al funcionamiento del banco. Esto es algo

caracterstico de otros fenomenos,


como por ejemplo las fallas que se producen

en componentes electricos,
que se deben generalmente en picos de voltaje (altos
o bajos) y no al tiempo que lleva funcionando el componente (cuando el funcio las
namiento del componente no supone desgaste del mismo). En contraposicion,

fallas debido a desgaste mecanico


(por ejemplo, un motor a gasolina) no tienen
esta caracterstica. En general, cuando los eventos se producen debido a causas
de increajenas al funcionamiento del sistema bajo estudio, se cumple la condicion
mentos independientes exigida por el Axioma 1. Podemos, no obstante, hacer un
ejercicio de imaginacion
para enumerar algunas situaciones en las cuales
pequeno

las llegadas de clientes a un banco en intervalos de tiempo no superpuestos


no
fuesen independientes:

Entre las 9:00 y 9:15 am llegaron muchos clientes al banco. Un cliente que
digamos a las 9:23am, observa que el banco esta lleno y
llega despues,
decide no entrar al banco para volver luego cuando no haya tanta cola. Aun

as, a las 9:23am se produjo efectivamente una llegada de cliente al banco


y los motivos por los cuales ese cliente fue al banco eran independientes de
temprano.
las razones que tenian los clientes que llegaron mas
Algunos de los clientes que llegaron al banco en ese lapso de tiempo (en
tre 9:00 y 9:15am), al ver que el banco estaba llenandose,
le avisaron a
sus allegados para informarles que haba mucha gente en el banco. Con
secuentemente, la tasa de llegadas al banco durante el resto de la manana
Uno pudiese
preguntarse: cual
es la proporcion
de clientes que
disminuyo.
llegan a un banco y conocen otros que tengan que hacer diligencias en ese
mismo banco ese mismo da?

Algunos de los clientes que llegaron al banco esa manana


no eran clientes
normales, sino hampones que vinieron a atracar el banco. En consecuencia,
durante el atraco y el posterior despliegue de fuerzas de seguridad alrededor
clientes al banco esa manana.

del banco, no llegaron mas


Sin embargo, con
que frecuencia ocurren atracos a una misma agencia de un banco?

144

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO


Algunos clientes no llegan solos, sino en grupo. En este caso, los motivos por
los cuales esos clientes fueron al banco no son independientes. En efecto,
las
si llegan varios clientes al mismo tiempo, se estara violando ademas
condiciones pleanteadas en el Axioma 3, segun
el cual la probabilidad de que
eventos ocurran en un mismo lapso de tiempo infinitesimalmente
dos o mas
corto es virtualmente nula.

se refiere a la estacionariedad de los incrementos. TraLa segunda condicion


ducido al contexto de la llegada de clientes a un banco, esto quiere decir que la tasa
llamada intensidad de flujo, dada por el parametro

de llegada (tambien
) debe ser
esto no quiere decir
constante durante el periodo de tiempo considerado. Atencion,
que siempre llegara la misma cantidad de clientes por hora al banco. Si fuese as,

no se tratara de un proceso estocastico.


Evidentemente, la llegada de clientes al
banco es variable y aleatoria, pero si la tasa de llegada es constante, el promedio
de clientes por hora que llegan al banco s es constante. En un da de banco normal, esto ocurre. Sin embargo, no cuesta mucho imaginarse escenarios donde la
tasa de llegada de clientes a un banco vara de un momento a otro:

Durante los das de quincena o los viernes (pago semanal de obreros), llegan
clientes al banco para cobrar su salario.
mas
En un da normal, la tasa de llegada de clientes puede variar segun
la ho
llegadas en horas pico, cuando la gente sale de su
ra, produciendose
mas
trabajo, por ejemplo.

eventos ocurran en un
Segun
el Axioma 3, la probabilidad de que dos o mas
mismo lapso de tiempo infinitesimalmente corto es virtualmente nula. Sin embargo,
no es difcil imaginarse momentos en los cuales entran varios clientes al banco al
que mencionamos arriba de varios clientes
mismo tiempo, como por ejemplo aquel
que llegan en grupo. No obstante, por razones de seguridad la mayora de los bancos restringen la entrada a una persona a la vez y en efecto los clientes terminan
no entrando todos al mismo tiempo.
Los ejemplos que citamos arriba de condiciones bajo las cuales se violan los

supuestos teoricos
de los procesos de Poisson son de hecho desviaciones del

proceso de Poisson homogeneo


que venimos estudiando ahora y conducen a otros

tipos de Procesos de Poisson (compuestos, no homogeneos,


etc.) que se veran

luego. Por ahora supongamos


que la llegada de clientes al banco se da segun

un proceso de Poisson simple, u homogeneo.


Cuales otras caractersticas tiene

DEL TIEMPO INTER-EVENTOS


5.4. DISTRIBUCION

145

este proceso? Claramente, el tiempo que transcurre entre dos llegadas de clientes

sucesivas vara de manera aleatoria, pero, como


se distribuye en tiempo entre

llegadas sucesivas? Vamos a considerar pues el proceso estocastico


asociado a
los tiempos inter-eventos (el tiempo que transcurre entre dos llegadas sucesivas de
clientes):

{Tn |n N+ }

La secuencia aleatoria {Tn |n N+ } es de parametro


dicreto, porque Tn denota

el tiempo transcurrido entre la llegada del n 1-esimo


cliente y el n esimo
cliente.
continua.
Sin embargo, cada una de estas variables debe tener una distribucion
Supongamos pues que {Tn |n N + } es una secuencia de variables mutuamen
exponencial
te independientes e identicamente
distribuidas segun
una distribucion

de densidad de procon parametro


(ver problema propuesto N 18). La funcion
babilidad para cada Tn es entonces:

fTn (t) = et , ,t > 0


Si estamos interesados en conocer la probabilidad de esperar t segundos o menos
hasta que entre el siguiente cliente por la puerta del banco, dicha probabilidad
de distribucion
de probabilidad acumulada de
podra calcularse mediante la funcion
la exponencial:

P(Tn t) = 1 et , ,t > 0
que si los Tn son exponencialmente distribuidos, cabra
Recordemos ademas
esperar en promedio 1 minutos (o cualquier otra unidad de tiempo conveniente)

entre llegadas sucesivas de clientes porque E[Tn ] = 1 . Observese


que mientras
mayor es menor es, en promedio, el lapso de tiempo transcurrido entre dos lle es conocida como la intensidad de
gadas sucesivas de clientes. Por esta razon,

flujo o frecuencia del traficointensidad


de flujo 9 . En base a {Tn |n N+ } podemos
definir una caminata aleatoria {Sn |n N+ } del siguiente modo:
n

Sn = Ti
i=1

5.2 en la descripcion
del axioma 3.
Ver seccion


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

146

Cada Sn representa el tiempo total que transcurre desde un instante 0 hasta la

de
llegada del n-esimo
cliente. Se puede deducir de algun
modo la distribucion
probabilidad de los Sn ? Teniendo en cuenta que Sn es una suma de n variables

independientes e identicamente
distribuidas, se puede deducir mediante el uso de
caracterstica o el desarrollo de las convulsiones que Sn es una variable
la funcion
Gamma). Por lo tanto,
distribuida segun
la ley de Erlang (ver tabla 1.2 , distribucion
de densidad es:
su funcion

fSn (t) =

(t)n1 et , ,t > 0
(n 1)!

La pregunta crucial es: Si N(t) es un proceso de conteo que representa la


cuenta total de clientes que han entrado al banco hasta el instante de tiempo t ,

Como
se distribuye N(t) si los tiempos inter-arribos son independientes e identicamente distribuidos segun
la ley exponencial? Veamos: N(t) = n representa el
suceso que se produce cuando han entrado exactamente n clientes al banco en
el transcurso de [0,t] minutos. Este suceso es equivalente al siguiente: El tiempo

hasta que llega el n-esimo


cliente es menor que t y el siguiente cliente (el n + 1 esi de t . Entonces, tenemos una equivalencia entre los siguientes
mo) llega despues
dos sucesos (que se debe demostrar en el problema propuesto N 19):

{N(t) = n} = {Sn t} {Sn+1 t}


Por ser ambos sucesos equivalentes, sus probabilidades son iguales y se tiene que

P{N(t) = n} = P{Sn t} P{Sn+1 t}


Zt

=
0

(x)n1 ex dx
(n 1)!

Zt

(x)n ex dx
n!

en el extremo derecho tenemos:


Integrando por partes la expresion

Zt

P{N(t) = n} =

(t)n

(x)n1 ex dx + et

(n 1)!
n!

= et

Zt
0

(t)n
n!

(x)n1 ex dx
(n 1)!

DEL TIEMPO INTER-EVENTOS


5.4. DISTRIBUCION

147

Acabamos de establecer que cuando los tiempos de espera inter-eventos son

exponencialmente distribuidos con el mismo parametro


(la misma intensidad de

trafico),
el proceso resultante es un proceso de Poisson. Se puede demostrar tam aunque no se hara en esta exposicion,
que los tiempos inter-eventos de un
bien,

proceso de Poisson homogeneo


son exponencialmente distribuidos con el mismo

parametro
. En resumen, establecemos el siguiente teorema:
de los tiempos inter-eventos en un proceso
Teorema 5.3 (Sobre la distribucion

de Poisson homogeneo).
Sea {N(t)|t > 0} un proceso de Poisson homogeneo
con tasa de intensidad de flujo igual a . Entonces, el tiempo entre dos eventos
sucesivos se distribuye segun
una ley de probabilidad exponencial con densidad
fTn (t) dada por:
fTn (t) = et , ,t > 0

Recprocamente, un proceso estocastico


en el cual los tiempos entre eventos se
distribuyen segun
una ley de probabilidad exponencial es un proceso de Poisson

homogeneo.
del proceso de Poisson tiene una consecuencia de capital
Esta caracterizacion

importancia practica
para nosotros: para simular un proceso de Poisson en el
tiempo, debemos generar una secuencia de numeros

aleatorios exponencialmente distribuidos. La suma acumulada de dicha secuencia representara entonces los tiempos exactos en que suceden los eventos de tipo Poisson.
que existe entre
Ya desde el comienzo de esta unidad planteamos la relacion

el proceso estocastico
asociado a la cantidad de exitos
en n ensayos de bernoulli
4.2) y el proceso de Poisson homogeneo,

(ver la seccion
sintetizada en el Teorema
en la unidad sobre caminatas aleatorias de este
5.1. Pero en la siguiente seccion

libro10 , se establecio que la cantidad de ensayos entre dos exitos


sucesivos se
11

acabamos
distribuye segun
. En esta seccion,
una ley de probabilidad geometrica
de plantear que en un proceso de Poisson, los tiempos inter-eventos se distribuyen

exponencialmente. Todo esto nos induce a preguntarnos, de que manera estan


geometrica

exponencial?
relacionadas la distribucion
y la distribucion
entre ambas distribuciones es que ambas gozan de la propieUna relacion

dad de falta de memoria12 : un exito


(respectivamente, un evento) puede ocurrir
en cualquier momento independientemente de cuantos ensayos (respectivamen
te, tiempo) ha transcurrido sin que haya transcurrido desde el exito
(resp. evento)
10

4.3.
Ver seccion
4.2.
Ver la Proposicion
12
Ver problemas propuestos N 6 y N 7 de la unidad 3.
11

148

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

pasado. Tanto para la caminata aleatoria basada en el numero


de exitos
en ensa

yos de Bernoulli o el proceso de Poisson homogeneo, esto es coherente con las


propiedades definitorias de estos procesos, una de las cuales es que los tiempos
de espera (o la cantidad de ensayos que transcurren) entre eventos sucesivos son
independientes entre s.
es que la distribucion
exponencial se deduce como caso lmite
La otra relacion
geometrica,

de la distribucion
completamente analogo
con lo que plantea el Teorema 5.1:
exponencial como caso lmite de la distribucion

5.4 (La distribucion


Proposicion

geometrica). En una caminata aleatoria basada en ensayos de Bernoulli, sea X

la cantidad de ensayos entre dos exitos


sucesivos una variable aleatoria distribui

que la unidad de tiempo se subdivide


da geometricamente.
Supongase
ademas
de tal forma que la cantidad n de ensayos realizados de manera constante en
de exitos

una unidad de tiempo tiende al infinito, pero la proporcion


por unidad de
tiempo permanece constante ( = np). Entonces, si cada ensayo se realiza en n1

unidades de tiempo, el tiempo T que transcurre entre dos exitos


es exponencial
mente distribuido con parametro
.

Demostracion
entre el numero
Consideramos la relacion
de ensayos x que se realizan y el tiempo

t en que se realizan los ensayos dada por

x
n
1
x = h (t) = tn
t = h(x) =

teniendo en cuenta que mientras n , la tasa de intensidad de flujo


Ademas,
= np permanece constante, esto implica que p 0, pues p = n . Se aplicara en de densidad de probabilidad del
tonces el Teorema 1.1 para determinar la funcion
tiempo T que transcurre entre dos eventos sucesivos a partir del paso al lmite de
de probabilidad geometrica

la funcion
correspondiente al numero
de ensayos entre

dos exitos, la cual, recordando el repaso de la unidad 1 es

gX (x) = (1 p)x1 p

DEL TIEMPO INTER-EVENTOS


5.4. DISTRIBUCION

fT (t) = n
lm gX
=np

149


 dx
h (t)
dt
1



tn1
= lm 1
n
n
n
n
= et

de T es la exponencial, como se quera demostrar.


En consecuencia, la distribucion

entre el proceso de Poisson homogeneo

Podemos resumir la relacion


y las
caminatas aleatorias basadas en ensayos de Bernoulli mediante la siguiente tabla:

Tabla 5.3: El proceso de Poisson homogeneo


como paso al lmite de las caminatas
aleatorias basadas en ensayos de Bernoulli
Tiempo
Caracterstica

Tiempo discreto
(numero de ensayos)

Tiempo continuo
(segundos, minutos,
etc.)

Cantidad de exitos
(resp.
eventos) en n ensayos (resp.
en un lapso de tiempo t )

Distribucion
binomial

Distribucion
de Poisson

Cantidad de ensayos entre

exitos
(resp. tiempo entre
eventos)

Distribucion

geometrica

Distribucion
exponencial

Cantidad de ensayos hasta

el r-esimo
exito
(resp. tiempo entre r eventos)

Distribucion
binomial
negativa

Distribucion
de Erlang
(Gamma)

150

5.5.

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

uniforme de los tiempos de ocurrenLa distribucion


cia de sucesos en un proceso de Poisson

En las caracterizaciones del proceso de Poisson homogeneo


que hemos planteado, se ha insinuado que los axiomas 1 y 2 referentes a la independencia y esta uniforme y completamente
cionariedad de los incrementos causan una distribucion
temporal (o espacial, si se quiere). De
aleatoria de los sucesos en la dimension

hecho, el proceso de Poisson homogeneo


se conoce como el proceso completamente aleatorio ya que distribuye los sucesos sobre el intervalo temporal infinito
[0, ) de la misma forma en que se distribuyen puntos sobre un intervalo finito bajo
uniforme. Vamos a ilustrar mediante un ejemplo lo que se pretende
la distribucion

establecer. Supongase
que en un horizonte de 0 a 20 unidades de tiempo observa en esa ventana de tiempo ocurrieron
mos un proceso de Poisson y que ademas,

exactamente k sucesos de cierto tipo, tal como se muestra en la grafica


a continua (Fig. 5.3). Adicionalmente, el suceso N k + 1 ocurrio despues
del instante de
cion
tiempo t = 20.

de un proceso de Poisson donde se observan k eventos


Figura 5.3: Una realizacion
que ocurrieron en el horizonte de tiempo de 0 a 20.
El resultado que se pretende establecer es el siguiente: si distribuimos la misma
uniforme sobre el
cantidad k de puntos de forma aleatoria y segun
la distribucion
intervalo temporal de 0 a 20, el resultado que vamos a observar es muy similar al
de la Fig. 5.3:

de k puntos sobre el intervalo[0,20], segun

Figura 5.4: Distribucion


la distribucion
uniforme.

UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION

151

Es instructivo ojear el codigo


de R que genera estas graficas:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36

# ---------------------------------------------------------------# 5_1. R
# Distribucion de aleatoria de puntos sobre una recta , segun
# a) la distribucion uniforme
# b) la distancia entre puntos es exponencial ( Poisson )
# autor : Jose L. Romero P.
# fecha : 24/08/2011
# ---------------------------------------------------------------png(" poisson -y - uniforme %02d. png ")
# primero se simula el proceso de poisson desde 0 a tmax unidades
# de tiempo
alfa <- 1
tmax <- 20/alfa
tiempos.de.llegada <- NULL
tiempo <- 0
while (tiempo < tmax) {
tiempo <- tiempo + rexp(alfa)
tiempos.de.llegada <- c(tiempos.de.llegada,tiempo)
}
l <- length(tiempos.de.llegada)
tiempos.de.llegada <- tiempos.de.llegada[1:(l-1)]
plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
ylab="")
points(x=tiempos.de.llegada,y=rep(0 ,l-1) ,col=" steelblue2 " ,
cex=1.5 ,bg=" steelblue4 " ,pch=21)
axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
labels=seq(from=0 ,to=tmax,by=5))
# se distribuye la misma cantidad de eventos sobre la recta
# mediante la distribucion uniforme
uniforme <- runif(n=l-1 ,min=0 ,max=tmax)
plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
ylab="")
points(x=uniforme,y=rep(0 ,l-1) ,col=" tomato " ,
cex=1.5 ,bg=" tomato4 " ,pch=21)
axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
labels=seq(from=0 ,to=tmax,by=5))

mas
importante aprendida
En este programa estamos incorporando la leccion
en el aparte anterior: para obtener los tiempos de ocurrencia de los eventos en
de un proceso de Poisson, deben obtenerse muestras de numeros
la simulacion

aleatorios exponencialmente distribuidos. En efecto, esto es lo que se realiza en

la primera parte del codigo,


donde se generan los tiempos de llegada dentro de

una ventana temporal entre 0 y tmax . Viendo las dos graficas,


se podra notar lo
siguiente:

152

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

de los puntos en una grafica

1. La distribucion
y en otra no son identicas,
pero son muy similares. Esto se debe a que el mecanismo aleatorio que las

genera es identico
en una y en otra, resultado que pretendemos demostrar

matematicamente
en lo que sigue.
2. Hay cierta tendencia en ambas figuras a que los puntos se aglomeren unos
muy cercanos a otros. De hecho, hay algunos puntos que casi coinciden (son
del proceaquellos crculos muy pegados unos de otros). En la realizacion
muy sencilla: la distancia (tiempo)
so de Poisson esto tiene una explicacion
que media entre dos sucesos consecutivos es distribuida exponencialmen anterior. La distribucion
exponencial es
te, como se demostro en la seccion
frecuente tener distanmuy sesgada hacia la izquierda, de modo que es mas
uniforme,
cias entre puntos muy cortas. Lo mismo ocurrira con la distribucion

pues como se va a demostrar, se trata del mismo fenomeno


aleatorio.
vamos a introducir una idea que quizas
no le sea faPrevio a la demostracion,
miliar: el concepto de lo que es un estadstico de orden. Supongamos que tenemos

una secuencia de k variables aleatorias identicamente


distribuidas e independien
tes entre s. En el ambito
de la inferencia estadstica, tal secuencia se conoce como
muestra aleatoria, porque se supone que las variables se corresponden a obser Para hacer inferencias a partir de una muesvaciones hechas a una poblacion.
tra, componemos los valores de la misma para calcular lo que se conoce como
que una funcion
(multivariada) de la muestra, compoestadstico, que no es mas
nemos los valores de la misma para calcular lo que se conoce como estadstico,
que una funcion
(multivariada) de la muestra.Los estadsticos de
que no es mas
orden son simplemente un ordenamiento de menor a mayor de los elementos de la
muestra. As, para una secuencia de k variables aleatorias U1 ,U2 , . . . ,Uk , los estadsticos de orden U(1) ,U(2) , . . . ,U(k) se obtienen ordenando la secuencia original
segun
su magnitud, de modo que siempre se cumple que: U(1) U(2) . . . U(k) .
de densidad
En particular, estaremos interesados en conocer cual es la funcion
conjunta de los estadsticos de orden basados en una muestra aleatoria tomada de
uniformemente distribuida en el intervalo [0, T ]:
una poblacion

fU(1) ,U(2) ,...,U(k) (t1 ,t2 , . . . ,tk ) =

k!
Tk

cuando 0 t1 t2 . . . tk T

(5.5.1)

proviene del hecho de ser los


El termino
al lado derecho de la ecuacion
Tk
U(1) ,U(2) , . . . ,U(k) uniformemente distribuidos en el intervalo [0, T ] y de ser mutua de densidad conjunta es la productoria de las
mente independientes (la funcion

UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION

153

respectivas funciones de densidad). El termino k! proviene de observar que hay


k! posibles ordenamientos (o permutaciones, si se quiere) de los elementos de la
secuencia U1 ,U2 , . . . ,Uk y todos generan la misma secuencia U( 1),U( 2), . . . ,U( k).
Por otro lado, supongamos que N(T ) = k, lo que equivale a decir que hasta el instante de tiempo T , han ocurrido exactamente k sucesos de tipo Poisson.
precisamente, dado que N(T ) = k, la probabilidad (condicional) de que en caMas
da uno de los subintervalos [t1 ,t1 + t1 ], . . . , [tk ,tk + tk ] del intervalo [0, T ] ocurra
exactamente un suceso y fuera de estos subintervalos no ocurra ningun
suceso es:

t1 eT1 tk etk e(T t 1...tk )


k
eT (Tk!)

t1 tk k!
Tk

de los instantes S1 < S2 < ... <


Esta probabilidad se puede expresar en funcion
Sk < T en que se producen los k sucesos, de modo que:



P t1 S1 t1 + t1 , . . . ,tk Sk tk + tk |N(T ) = K
=

t1 tk

k!
Tk

delta-t en los subintervalos [t1 ,t1 + t1 ], . . . , [tk ,tk + t] se utiLa notacion

a la izquierda de 4.11 es
lizo con el proposito
expreso de sugerir que la expresion
de densidad conjunta (condicional) si hacemos tender los ti a cero
una funcion
de densidad es la derivada de la funcion
de distribucion

(recordemos que la funcion


de probabilidad). Con todo esto, tenemos en definitiva que:


 K!
fS1 ,S2 , ..., Sk t1 ,t2 , ...,tk |N(T ) = K = k
T

cuando

0 t1 t2 .... tk T
(5.5.2)

en 5.5.1. Hemos demostrado el


Y esto es exactamente igual a la expresion
siguiente teorema:
entre el proceso de Poisson y la distribucion
uniforme).
Teorema 5.5 (Relacion

Sea {N(t)|t 0} un proceso de Poisson homogeneo


con parametro
. Bajo
la condicion N(T ) = K , los tiempos en que ocurren los k sucesos de poisson
que los
S1 < S2 < . . . < Sk son variables aleatorias con la misma distribucion
estadsticos de orden correspondientes a k variables aleatorias independientes
U1 ,U2 , . . . ,Uk distribuidas uniformemente en el intervalo [0, T ]

154

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

vamos a echar un segundo vistazo al problema del enCon esta informacion,


2.4. Recordemos que el problema era determinar con
cuentro visto en la seccion
cual probabilidad se encuentran dos personas si el tiempo de llegada de cada uno
es uniformemente distribuido en el lapso de una hora e independiente del otro y
el que llega primero no espera mas de 10 minutos (1/6 de hora) por el
ademas
otro. No es que hayamos abordado el problema mal en aquella oportunidad, pe e interpretando el Teorema 5.5, lo haremos de
ro ahora, mediante una simulacion
nuevo.
Simulando los tiempos de ocurrencia de eventos en un proceso de Poisson
realizamos corridas con distintos
con una tasa lambda arbitraria (en la simulacion
valores de lambda), consideramos solo los casos en los cuales el segundo suceso
de la hora. Esto redunda en
haya sucedido antes de la hora y el tercero despues

que se cumple la hipotesis


del teorema, a saber, que han sucedido dos eventos de
tipo Poisson en el lapso de una hora, o N(1) = 2 . El Teorema 5.5 nos asegura que
los tiempos de ocurrencia de los dos sucesos 0 < S1 < S2 < 1
bajo esta condicion,
se distribuyen igual que los estadsticos de orden correspondientes a dos variables
aleatorias independientes y uniformemente distribuidas entre 0 y 1. La tesis del
teorema es la que nos permite calcular la probabilidad requerida: tan solo tenemos
de casos de la simulacion
(que cumplen la hipotesis)

que calcular la proporcion


donde el tiempo de ocurrencia del segundo evento dista en menos de 10 minutos
(1/6 de hora) del tiempo del primer evento.

Cabe preguntarse si el valor del parametro


del proceso de Poisson no afecta

el resultado. El siguiente codigo


simulo N=10000 corridas en las cuales ocurran
exactamente dos sucesos de Poisson en una hora para cada {2, 4, 6, 8, 10}.
Sorprendentemente, las probabilidades no varan segun
el valor de lambda y en

2.4 (que era


conjunto, no difieren mucho del valor teorico
calculado en la seccion
de 0, 3055).
> N <- 10000
> for (lambda in seq(from=2,to=10,by=2)) {
+
cnt <- 0
+
muestra <- NULL
+
while (cnt<N) {
+
x <- cumsum(rexp(lambda,n=3))
+
if ((x[2]<1)&(x[3]>1)) {
+
muestra <- c(muestra,x[2]-x[1])
+
cnt <- cnt+1
+
}
+
}
+
cat("lambda=",lambda,"probabilidad=",
+
mean((muestra<1/6)),"\n")
+ }

UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION
lambda=
lambda=
lambda=
lambda=
lambda=
>

155

2 probabilidad= 0.3078
4 probabilidad= 0.306
6 probabilidad= 0.3082
8 probabilidad= 0.2967
10 probabilidad= 0.3069

sustento emprico al Teorema 5.5, se obtuvo un histograma


Para darle mas
de densidad
de frecuencias contrastando las densidades empricas con la funcion

teorica
(la lnea roja) mediante el script 5 2.R de abajo. Dicho grafico
se incluye en
la similitud entre este y el de la seccion
2.4. Por sula Fig. 5.5: llama la atencion
2.4 es mas
natural
puesto, el abordaje que se le hizo a este problema en la seccion
directo que el que hicimos ahora. Ademas,
el script 5 2.R es muchsimo mas

y mas
ineficiente
lento que el script 2 5.R, debido al uso del while, que es mucho mas
vectorizada de la muestra en el script 2 5.R. Con todo, la idea es
que la generacion
afianzar el conocimiento intuitivo sobre lo que establece el Teorema 5.5 y sobre las
condiciones necesarias para su validez. Se vuelve a recalcar que el valor particular

del parametro
no esta entre estas condiciones necesarias.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

# ---------------------------------------------------------------# 5_2. R
# El problema del encuentro revisitado .
# autor : Jose L. Romero P.
# fecha : 24/08/2011
# ---------------------------------------------------------------png(" encuentro2_r. png ")
N <- 1000000
lambda <- 2
dif <- NULL
cnt <- 0
while (cnt < N) {
x <- cumsum(rexp(lambda,n=3))
if (x[2] <1 & x[3] >1) {
dif <- c(dif,x[2] -x[1])
cnt <- cnt + 1
}
}
hist(dif,br=60 ,right=FALSE,freq=FALSE,
main=" Histograma de frecuencia " ,
ylab=" denisdad de probabilidad empirica ")
abline(a=2 ,b= -2 ,col=" red ")
legend(x=0.4 ,y=1.5 ,legend=" Funcion de densidad teorica " ,
fill=" red ")

Las implicaciones del Teorema 5.5 se pueden enlazar con todo lo que hemos

visto hasta ahora del proceso de Poisson homogeneo,


en particular,las considera-

156

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

Figura 5.5: Densidades emprica y teorica


para el problema del encuentro en la
2.4. calculadas haciendo uso de la relacion
entre la distribucion
uniforme y
seccion

el proceso de Poisson homogeneo.

ciones que hicimos para los procesos de Poisson espaciales. De hecho, las condiciones de estacionariedad e independencia de los incrementos, que caracterizan

al proceso de Poisson homogeneo


implican que en cualquier punto de una deter
minada area
existe igual probabilidad de ocurrir un suceso que en otro lugar.En la
terminologa del Teorema 5.5, diramos que el proceso de Poisson espacial distri
buye puntos sobre un area
o volumen uniformemente.
Hemos visto como obtener los momentos de ocurrencia (en el tiempo) de su
cesos de un proceso de Poisson para hacer simulaciones. Pero, como
podramos
obtener los lugares de ocurrencia para hacer simulaciones de procesos de Poisson
5.3, en la cual se
espaciales? Esto nos trae de vuelta a la figura 5.2 de la seccion
de un microscopio.
representaba una supuesta colonia de bacterias vistas a traves

En realidad, la imagen fue generada por un script en R que simula la distribucion

UNIFORME
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCION

157

se da conforme a un proceso de
de puntos en el espacio cuando esa distribucion
Poisson espacial. Se le sugiere al lector revisar dicho script detenidamente:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43

# --------------------------------------------------------------# 5_3. R Simulacion de una colonia de bacterias en un plato


# de Petri .
# autor : Jose L. Romero P.
# fecha : 22/08/2011
# --------------------------------------------------------------# revisa " colors ()" para una lista de colores
png(" platopetri . png ")
plot(x=c( -2 ,2) ,y=c( -2 ,2) ,
type="n" ,xlab="" ,ylab="" ,asp=1 ,axes=FALSE)
# dibuja el plato de petri
curve(sqrt(4 -x2) ,from= -2 ,to=2 ,col=" darkgray " ,lwd=4 ,add=TRUE)
curve(-sqrt(4 -x2) ,from= -2 ,to=2 ,col=" darkgray " ,lwd=4 ,add=TRUE)
# resalta los cuadros internos
rect(xleft= -1 ,ytop=1.5 ,xright=1 ,ybottom= -1.5 ,border=NA,
col=" khaki ")
rect(xleft= -1.5 ,ytop=1 ,xright=1.5 ,ybottom= -1 ,border=NA,
col=" khaki ")
# dibuja el reticulado
abline(v=seq(from= -2 ,to=2 ,by=0.5) ,lty=3 ,lwd=1.5 ,col=" steelblue ")
abline(h=seq(from= -2 ,to=2 ,by=0.5) ,lty=3 ,lwd=1.5 ,col=" steelblue ")
# dibuja las bacterias
N <- 80
x <- runif(n=N* 2,min= -2 ,max=2)
y <- runif(n=N* 2,min= -2 ,max=2)
xd <- x[which(x2 + y2 <= 3.8)]
yd <- y[which(x2 + y2 <= 3.8)]
points(xd,yd,pch=19 ,col=" darkolivegreen " ,
cex=rnorm(n=length(xd),mean=0.6 ,sd=0.1))
# cuentalas
cuenta <- function(x0,x1,y0,y1) {
cnt <- sum(as.numeric((xd>=x0 & xd<x1 & yd>=y0 & yd <y1)))
text(x=mean(c(x0,x1)) ,y=mean(c(y0,y1)) ,
as.character(cnt),col=" black " ,cex=1.2 ,
family=" mono " ,font=2)
}
for (x in c( -1 , -0.5 ,0 ,0.5))
for (y in c(1 ,0.5 ,0 , -0.5 , -1 , -1.5))
cuenta(x,x+0.5 ,y,y+0.5)
for (y in c(0.5 ,0 , -0.5 , -1)) {
cuenta( -1.5 , -1 ,y,y+0.5)
cuenta(1 ,1.5 ,y,y+0.5)
}

entre la uniforme y la exponencial que se da en el


Por otro lado, vista la relacion
proceso de Poisson, cuando se distribuyen puntos en el espacio de forma comple-


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

158

tamente aleatoria y uniforme, ocurre cierto aglutinamiento, como el que se observa

en las colonias de bacterias de la figura 5.2 o en las figuras 5.3 y 5.4. Quizas
por eso es que las estrellas y otros cuerpos celestes forman conglomerados como
galaxias y constelaciones?

5.6.

Problemas resueltos

Problema Resuelto 5.1


Cierta enfermedad no contagiosa afecta en promedio a una persona de cada mil en
Cual
es la probabilidad de que ocurran al menos dos casos, ningun
la poblacion.

caso y exactamente un caso en un pueblo de 3000 habitantes?

Solucion
Como la enfermedad es no contagiosa, su presencia en cualquier habitante del
pueblo es independiente del resto de las personas. Por lo tanto un modelo razo es suponer que se trata de 3000 ensayos de Bernoulli con
nable de la situacion

de Poisson
probabilidad de exito
de 0,001. Usamos en este caso la aproximacion

con parametro
= np = 3, de donde obtenemos:

P{X = 0} = e = e3 = 0, 0498
P{X = 1} = e = 3e3 = 0, 1494
P{X 2} = 1 (P{X = 0} + P{X = 1}) = 0, 8008
s

Problema Resuelto 5.2

Sea {N(t)|t 0} un proceso de Poisson homogeneo


con parametro
= 8. Calcule
P{N(2, 5) = 15, N(3, 2) = 19, N(4, 5) = 32}.

Solucion
El evento cuya probabilidad deseamos calcular se puede escribir como P{N(2, 5) =
15, N(3, 2) N(2, 5) = 4, N(4, 5) N(3, 2) = 13} y sabemos que una de las caractersticas del proceso de Poisson es la de poseer incrementos estacionarios e

5.6. PROBLEMAS RESUELTOS

159

independientes, de donde la probabilidad que deseamos calcular es:

P{N(2, 5) = 15} P{N(0, 7) = 4} P{N(1, 3) = 13}


= e8(2,5+0,7+1,3

2015 (5, 6)4 (10, 4)13


= (2, 34) 106
17!4!13!
s

Problema Resuelto 5.3


Los clientes llegan a la sucursal de un banco de acuerdo con un proceso de Pois
son homogeneo
de intensidad . Se sabe que en el intervalo [0, T ] ha llegado
es la distribucion
de la variable aleatoria X
exactamente un cliente. Determine cual

que representa el instante en el que llega el cliente, condicionada a la informacion


de la que disponemos.

Solucion
de la variable aleatoria X , basta con
Para determinar completamente la distribucion

determinar el valor del parametro


, pues se sabe que {X(t)|t 0} es un proceso

de Poisson homogeneo.
Una forma de abordar el problema sera as:

representa la cantidad de eventos, en promedio, que ocurren en una unidad de


tiempo. En base a la evidencia, ocurrio un evento en T unidades de tiempo. Por lo
podramos utilizar una regla de
tanto, para estimar en base a esta informacion
tres:
1 es a T como es a 1, de donde = T1 .
hablareEste planteamiento podra no parecer lo bastante cientfico, por lo cual
mos brevemente de un procedimiento de la inferencia estadstica llamado estima puntual por el metodo

cion
de la maxima
verosimilitud. Basicamente,
dicho metodo

consiste en determinar el estimador (valor) del parametro


como aquel que maximiza la verosimilitud, o probabilidad, de observar determinado valor de la muestra. En
nuestro caso, la probabilidad de observar 1 suceso en todo el intervalo [0, T ] es:

P{X(T ) = 1} = eT

T
1

Encontrar el valor de que maximiza esta probabilidad es equivalente a encontrar


el valor de que maximiza el logaritmo neperiano de dicha probabilidad, porque el
monotona

logaritmo es una funcion


creciente. Por lo tanto, tenemos que:

160

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

log P{X(T ) = 1} =
log




1
T T
e
= (T +log +log T ) = T +
1

e igualando dicha derivada a cero (para hallar el punto crtico), se tiene que = T1 ,
como habamos concluido antes.

Problema Resuelto 5.4


de Galletas La Abuela, en la que el numero
Considere la confeccion
de pasas en

cada galleta de avena es una variable aleatoria de tipo Poisson con un promedio
de 1,5 pasas por galleta.
es la probabilidad de tener una o mas
pasas en una galleta de avena
(a) Cual
seleccionada al azar?
(b) En vista de que los clientes han protestado, la Abuela ha dado instrucciones
a sus empleados que desechen las galletas de avena sin pasas. Cual es la

esperanza matematica
y la varianza del numero
de pasas por galleta en las

galletas restantes?

Solucion
Sea X el numero
de pasas de una galleta escogida al azar, donde

P{X = k} = e1,5

(1, 5)k
k!

Por lo tanto P{X = 0} = e1,5 = 0, 2231 y en consecuencia P{X 1} = 1P{X =


0} = 0, 7769, lo cual responde la primera parte de la pregunta.
Esta probabilidad de 0,7769 sera considerada como la probabilidad total en la
de pasas en las galletas remanentes, que contendran
como mnimo
distribucion
de probabilidad (truncada) de la cantidad de
una pasa. Por lo tanto, la distribucion

pasas en las galletas cono por lo menos una pasa sera:

P{X 0 = k} =

(
(1,5)k
e1,5 0,7769k!
0

para k 1
caso contrario

5.7. PROBLEMAS PROPUESTOS

161

De ah, la esperanza de X 0 es

(1, 5)k

E[X 0 ] =

1, 5

(1, 5)k
= 1, 9308
k!
k=0

1, 5k

e1,5 0, 7769 k! k = 0, 7769 e1,5

k=1

Y la varianza es

E[X 02 X 0 ] = E[X 0 (X 0 1)] =

e1,5 0, 7769 k! k(k 1)

k=1

(1, 5)k

e1,5 0, 7769 k! k(k 1)

k=2

= e1,5

(1, 5)2
0, 7769

(1, 5)k2

k=2 (k 2)!

= e1,5

(1, 5)2
0, 7769

(1, 5)2
(1, 5)k
=
k!
0, 7769
k=0

(1,5)2

de donde E[X 02 ] = 0,7769 + 1, 9308 = 4, 8269 y finalmente:

V [X 0 ] = E[X 02 ] E 2 [X 0 ] = 4, 8269 1, 93082 = 1,0989


s

5.7.

Problemas propuestos

es una funcion
de probabilidad y deduzca
1. Demuestre que la siguiente funcion

la esperanza matematica
y la varianza de la variable aleatoria correspondiente:
(

pX (x) =

x
x! e

xN0
x<0

de probabilidad de Poisson con parametro

2. Sea p(x; ) la funcion


. Demues

tre la siguiente formula


de recursion:

p(x + 1; ) =

p(x; )
x+1

162

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

3. El numero
de partculas emitidas de una fuente radioactiva durante un pe
de Poisson y la
riodo de tiempo es una variable aleatoria con distribucion
1
probabilidad de que no haya emisiones es de 3 . Calcule la probabilidad de
emisiones en ese lapso de tiempo.
tener 2 o mas

4. Considerese
el torneo de futbol
americano que se efectua

entre los 28 equipos que constituyen la Liga Nacional de Futbol


(NFL) donde nos interesa el

numero
de anotaciones (touchdowns) de cada equipo por juego. En base a

la siguiente tabla, que muestra la estadstica de frecuencias del numero


de

anotaciones por equipo por juego, ajuste el numero


de anotaciones a una va
riable aleatoria distribuida segun
Poisson. En base a este ajuste, se puede
de Poisson es un modelo matematico

considerar que la distribucion


adecua
do para este fenomeno?
Numero
de

anotaciones por
equipo y juego
0
1
2
3
4
5
6

7 o mas
Totales

Numero
de veces

observada
(frecuencia
absoluta)
35
99
104
110
62
25
10
3
448

5. Supongase
que en un recipiente que contiene 10.000 partculas, la probabilidad de que se escape una es de 0,0004 y cada escape ocurre de forma
es la probabilidad de que en ese recipiente ocurran 5
independiente. Cual
escapes?
o mas

6. Supongase
que una operadora de tele-mercadeo recibe una llamada con
probabilidad 0,01 y ninguna llamada con probabilidad 0,99 en un segundo.
de Poisson para calcular la probabilidad de que la
Utilice la aproximacion
operadora no reciba llamadas si se ausenta durante 5 minutos para tomarse

un cafe y comparela
con la probabilidad binomial correspondiente.

7. En un artculo publicado en una revista medica


especializada se reporta

que para un paciente diabetico,


insulina-dependiente de edad entre 30 y 40

anos,
la probabilidad anual de contraer retinopata diabetica
(ceguera) es de
es la
0,0067. En un grupo de 1000 pacientes con estas condiciones, cual

5.7. PROBLEMAS PROPUESTOS

163

casos de ceguera causada por diabetes


probabilidad de que se den 4 o mas

el proximo ano?
nacidos de los cuales 30
8. En un hospital, se le hicieron pruebas a 3741 recien
resultaron HIV-positivos. En una muestra aleatoria de 500 pacientes tomados
cual
es la probabilidad de que exactamente 10 de ellos
de esta poblacion,
hipergeometrica

resulten HIV-positivos? Justifique el uso de la distribucion


para encontrar dicha probabilidad y aproxime esta probabilidad mediante la
de Poisson.
funcion

9. Supongase
que el 1,5 % de las familias en Caracas tienen un ingreso anual
por encima de los 30.000,00 Bs. F. Calcule la probabilidad de que al selec
cionar una muestra aleatoria de 60 familias caraquenas,
a lo sumo 2 tienen
ingresos superiores a los 30.000,00 BF.

10. Al transmitir numeros


binarios de n dgitos mediante un componente electroni
de cada bit de forma independienco, se introducen errores en la transmision
te y aleatoria con una probabilidad constante p = 0,0002. Si se transmiten
1000 numeros
binarios de 64 bits cada uno por microsegundo, determine:

es la probabilidad de transmitir un numero


a) Cual
de 64 bits con cero,

errores?
uno o mas
es la probabilidad de que se transmitan exactamente diez numeb) Cual

ros incorrectamente en el transcurso de un microsegundo?


11. En una manufactura de botellas de vidrio pueden encontrarse partculas ex en el vidrio fundido. Si una de tales partculas se encuentra en el vidrio
tranas
de una botella, dicha botella es defectuosa y debe ser descartada. Suponemos que estas partculas se encuentran distribuidas en el vidrio fundido de
forma uniforme y aleatoria, y que en promedio, se tienen 30 partculas por
cada 100 kg. de vidrio fundido y que se requiere 1 kg. de vidrio fundido para
fabricar cada una de las botellas. Determine que porcentaje de las botellas
deben ser descartadas. (Ayuda: la respuesta no es 30 %)

12. En un consultorio medico


llegan en promedio 15 pacientes diarios segun
un

proceso de Poisson. Cuantos


pacientes deben ser admitidos diariamente a
consulta si la gerencia desea estar segura con un 85 % de confianza de no
dejar de atender pacientes en un da?

13. Considere un proceso de Poisson homogeneo


{N(t)|t > 0}. Demuestre que
para s < t , N(s)|N(t) = n es una variable aleatoria Binomial con n ensayos

y probabilidad de exito
s/t .


UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

164

14. Considerese
un proceso de Poisson homogeneo
{N(t)|t > 0} con tasa .
Calcule su nucleo
de covarianza K(s, s + t) con s,t > 0.

(t)n

completa que Pn (t) = et n! , par15. Demuestre por el metodo


de induccion
5.2.4 dada en este capitulo.
tiendo de la ecuacion
aleatoria de puntos en el espacio, se da
16. Como ejemplo de una distribucion
una tabla basada en estadsticas referentes a la cantidad de
a continuacion
impactos de bombas volantes alemanas tipo V-2 sobre Londres durante la

segunda guerra mundial. El area


total expuesta a bombardeo se subdivi

dio en 576 areas


pequenas
de 14 km2 cada una, registrando el numero
de

areas
Nk en que hay exactamente k impactos.
k

Nk

0
229

1
211

2
93

3
35

4
7

5 o mas
1

Total
576

a) Cuantos
impactos de bombas volantes se registraron en total, segun

la estadstica anterior?

b) Determine el promedio de impactos por area


de 14 km2 .
de

c) Determine el ajuste de impactos por area


de 14 km2 a una distribucion
Poisson y verifique que el modelo de Poisson se ajusta adecuadamente

a este fenomeno.
d) Segun
las condiciones que dan origen al proceso de Poisson, inter
prete y deduzca las implicaciones de que el fenomeno
descrito sea un

proceso de Poisson homogeneo.


los arboles

17. En el bosque de Nunca Jamas,


se distribuyen segun
un proceso

de 50 arboles

Poisson espacial homogeneo


en dos dimensiones a razon

es la distancia promedio entre un arbol

por hectarea.
Cual
y el arbol
mas
cercano?
18. Sea {Tn |n N+ } una secuencia de variables mutuamente independientes e

exponencial con parametro

identicamente
distribuidas segun
una distribucion
+

. Que tipo de proceso estocastico


es {Tn |n N }? Es estrictamente

estacionario? Es debilmente
estacionario? Razone su respuesta.

19. Supongase
que los tiempos entre eventos de un proceso (que llamaremos

incrementos) son mutuamente independientes e identicamente


distribuidos
y defnase una caminata aleatoria {Sn |n N+ } del modo usual como la suma de n incrementos positivos independientes. Sea {N(t) = n} el suceso
siguiente: Hasta el momento t , han ocurrido exactamente n eventos. Utilice

5.7. PROBLEMAS PROPUESTOS

165

el algebra
de conjuntos y los axiomas basicos
de la probabilidad para demostrar la siguiente equivalencia: P{N(t) = n} = P{Sn t} P{Sn+1 t}.

20. Considerese
un proceso de Poisson homogeneo
{N(t)|t > 0} con tasa y la
+
secuencia aleatoria {Sn |n N } son los tiempos de ocurrencia de eventos
asociados a este proceso de Poisson. Calcule P{S3 x|N(t) = 10} con 0
x t.
por computadora de un proceso de Poisson con in21. Realice una simulacion
tensidad promedio de 2 sucesos por unidad de tiempo. Utilizando dicha si estime:
mulacion
a) P{N[2,4] = 2}, donde N[2,4] representa la cantidad de sucesos ocurridos
en el intervalo [2, 4].
b) P{3 S3 5}, donde S3 es el instante en que ocurre el tercer suceso.
22. Un vendedor de perrocalientes observa que aun
cuando sus clientes asiduos no llegan en intervalos de tiempo regulares, no obstante arriban segun

un proceso de Poisson con una tasa de llegada promedio de un cliente por


minuto. Un da le dice a un amigo que le haga guardia en su carrito de perro
calientes mientras el se ausenta por 5 minutos. A su regreso, el amigo le dice que en los cinco minutos llegaron 4 clientes. Descrbemelos por alguna
caracterstica unica
a cada uno y te dire el momento en el cual llegaron, le

respondio el perrero. Calcule la probabilidad de que el perrero pueda identificar correctamente los tiempos de llegada de cada cliente, si para cada
cliente se indica un intervalo de dos minutos dentro del cual se asegura que

ese cliente llego.

166

UNIDAD 5. EL PROCESOS DE POISSON HOMOGENEO

Unidad 6

Cadenas de Markov

Las cadenas de Markov son los modelos ma


sencillos para representar fenome
tematicos
mas
nos aleatorios que evolucionan en el tiempo.
. . . Ciertamente, la teora de los procesos es

tocasticos
puede verse como una generalizacion,
de una forma u otra, de las cadenas de Markov.

F UEGO EN EL ATARDECER
Oleo - 1929
Paul Klee

Norris, J. R.
prefacio del libro Markov Chains

167

168

UNIDAD 6. CADENAS DE MARKOV

Objetivos de la Unidad
de las cadenas de
El objetivo general de esta Unidad es hacer una exposicion

Markov como un modelo matematico


adecuado a una amplia gama de fenomenos

aleatorios. Al termino de la misma, se quiere que el estudiante logre los siguientes


objetivos especficos:

6.1.

notacion,
ejemplos y un poco de historia
Definicion,

Muchos procesos aleatorios evolucionan en el tiempo de modo que solamente


mas
reciente es determinante para el estado futuro del proceso. Lo
la informacion

anterior se resume matematicamente


mediante la propiedad de Markov, que ya
mencionamos en la Unidad 3 y que recordamos seguidamente:

(Propiedad de Markov). Un proceso estocastico


Definicion
{X(t)|t T } verifica
la propiedad de Markov cuando se cumple que:

P{X(tn+1 ) A|X(tn ) = an , . . . , X(t0 ) = a0 } = P{X(tn+1 ) A|X(tn ) = an }


En esta unidad nos ocuparemos principalmente de las denominadas cadenas

de Markov de parametro
discreto, que son procesos estocasticos
de parametro
discreto y de espacio de estados discreto que verifican la propiedad de Markov.

(Cadena de Markov de parametro


Definicion
discreto homogenea).
Un proce

so estocastico
{Xi |i T } de parametro
discreto es una cadena de Markov ho
mogenea
si para todo i0 , i1 , . . . , in , j E (E es el espacio de estados) se verifica
la propiedad de Markov:

P(Xn+1 = j|X0 = i0 , X1 = i1 , . . . , Xn = in ) = P(Xn+1 = j|Xn = in )

(6.1.1)

Las probabilidades P(Xn+1 = j|Xn = i) se denominan probabilidades de tran porque mediante ellas se determina la transicion
de un estado a otro entre
sicion
dos instantes de tiempo sucesivos en una cadena de Markov. Es de observar que
son probabilidades condicionales, pero no estan

las probabilidades de transicion

condicionadas por parametro


temporal alguno y son estacionarias (permanecen in del proceso en el tiempo), razon
por la cual
variantes a lo largo de toda la evolucion

la cadena de Markov que acabamos de definir tiene el calificativo de homogenea.


que la propiedad Markov (ecuacion
6.1.1) en la definicion
de
Vale aclarar tambien

NOTACION,
EJEMPLOS Y UN POCO DE HISTORIA
6.1. DEFINICION,

169

arriba no implica que el siguiente estado (futuro) en una secuencia de variables


aleatorias solo depende del estado presente y es independiente de la historia pasada del proceso. De hecho, Xn+k y Xn no son independientes y la propiedad de
ha de interpretarse bajo los siguientes terminos:

Markov en la definicion
la propiedad de Markov implica que, en una cadena de Markov, el estado presente del
necesaria para determinar los estados
proceso incorpora en s toda la informacion
sobre el estado presente, se hace innecefuturos, por lo cual, al haber informacion
sobre el pasado para determinar las probabilidades
sario disponer de informacion
del siguiente estado.
de transicion
de un estado a otro entre insDebido a que las probabilidades de transicion
tantes discretos de tiempo sucesivos no dependen del ndice temporal (homogeneidad) ni del estado del proceso en instantes pasados (propiedad de Markov),
podemos abreviar escribiendo pi, j = P(Xn+1 = j|Xn = i). La abreviatura hace po en forma matricial, mediante lo
sible representar las probabilidades de transicion
:
que se denomina una matriz de transicion

p1,1
p2,1

P= .
..
pn,1

p1,2
p2,2
..
.

..

pn,2

p1,n
p2,n

..
.
pn,n

el elemento de la i-esima

En la matriz de transicion,
fila y la i-esima columna
representa la probabilidad de que el sistema cambie del estado i al estado j en
La representacion
matricial de las cadenas de Markov facilita en
una transicion.
algo el estudio de estas ultimas
permitiendo el uso de algunas herramientas del

es evocativo de las matrices


algebra
lineal, como veremos seguidamente. Tambien
de adyacencia de los grafos. De hecho, una forma alternativa de representar las

cadenas de Markov sera mediante un grafo dirigido: los vertices


se corresponden

a los estados y los arcos dirigidos (ponderados) a las probabilidades de transicion.


pero primero vamos a dar algunos
Volveremos sobre esto seguidamente tambien,
ejemplos de cadenas de Markov.

Algunos ejemplos

1. Un virus con N cepas muta constantemente, siendo 1 la probabilidad

y N1
de que el virus no haga mutacion
la probabilidad con la que el virus
muta a cualquiera de las otras N 1 cepas. Se tiene entonces para cada

170

UNIDAD 6. CADENAS DE MARKOV

i {1, . . . , N} que pi,i = 1 y pi, j = N1


para i 6= j. La matriz de transicion

sera:

P=

N1

N1

..
.

..
.

..

N1

N1

N1

N1

..
.

2. El problema de la ruina del jugador visto en la Unidad 4 se puede representar


mediante una cadena de Markov, en la cual los estados se corresponden al
capital del jugador en un momento dado. Si entre el jugador y el adversario se
tiene un capital total de T y las probabilidades de ganar o perder un Bolivar
en cada turno son p y 1 p respectivamente, se tendra la siguiente matriz

de transicion:

P=

1
0
0 0
1 p
0
p 0
0
1 p 0 p
..
.

..
.

..
.

..
.

0
0

0
0

0 0
0 0

..

0 0
0 0

0 0

..
.. ..
.
. .

1 p 0 p
0
0 1
0
0
0

Para un capital total T , la fortuna del jugador fluctua


entre 0 y T , lo cual
implica que la cadena de Markov correspondiente sera representada por
una matriz de orden T + 1 T + 1. Los estados 0 y T son absorbentes, de
p1,1 y pT,T son iguales a
donde las respectivas probabilidades de transicion
1.
y Eva. De estas
3. En un planeta llamado Eden haba dos ciudades, Adan
era la ciudad mas
antigua y en un pasado remoto, algunos de sus
dos, Adan
de lo cual los habitantes
habitantes fueron exilados y fundaron Eva, despues
estaban en el habito

de Eden
de migrar constantemente de una ciudad a otra
segun
las siguientes probabilidades:
permaEn cada periodo migratorio, el 70 % de los habitantes de Adan
y el resto emigraba a Eva.
neca en Adan
Analogamente, el 40 % de los habitantes de Eva se quedaban en Eva

y el restante 60 % sala a Adan.

NOTACION,
EJEMPLOS Y UN POCO DE HISTORIA
6.1. DEFINICION,

171

y Eva fueron mezclandose

De esta forma, los habitantes de Adan


segun
una

cadena de Markov cuya matriz de transicion era la siguiente:

P=

Adan
Eva

Eva
Adan

0, 7 0, 3
0, 6 0, 4

En lo precedente se han identificado las filas y las columnas de la matriz


mediante los nombres de las ciudades correspondientes, pade transicion
se refieren a la migracion

ra resaltar que las probabilidades de transicion


entre una ciudad y otra. En todo esto, se ha considerado el estado de un
como la ciudad en la cual se encuentra en un momento
habitante de Eden
descrita sera
determinado. Una pregunta interesante en torno a la situacion
inicial de individuos en Adan
y
la siguiente - partiendo de una distribucion

los habitantes del planeta a la larga?


Eva, como
se distribuiran

La cadena de Markov es

172

UNIDAD 6. CADENAS DE MARKOV


Apendice
A

Como leer un texto matematico

Leer un libro, escuchar un concierto, ir al cine - todas son actividades que suponen un protocolo adecuado al genero de literatura que estamos leyendo, el tipo

de musica
que escuchamos o el genero
cinematografico
que vemos. No se puede

escuchar un concierto de Mahler de la misma forma que un concierto de Dj Tiesto,


o ver una pelicula de Tarkovsky como si estuviesemos viendo Duro de Matar. De
la misma forma, este libro no se puede leer como se leeran las historietas de Con
dorito (aunque seguramente hara plop! varias veces mientras estudia con el).
genero

Sin caer en juicios de valor sobre cual


de literatura, musica
o cine es me
jor, el punto que se intenta establecer, aunque parezca una perogrullada, es que
cualquier lectura, musica
o pelicula puede ser mejor apreciada si sabemos como

apreciarla. Hablamos de literatura y aunque sea dficil de creer, textos como este
De hecho, este tipo de textos pertenecen al genero

son literatura tambien.


de no
literaria, que significa apreciar
ficcion.
Pero volviendo a la idea de apreciacion

una lectura? Como


podriamos apreciar una lectura tan arida
como esta?
Antes de abordar la ultima
pregunta, vamos a abordar la pregunta anterior, que

general. Piensese por ejemplo en una novela, que pertenece al genero

es mas
de
1
y en la cual uno puede leer pasajes como este

:
ficcion
a continuacion

El zumbido obstinado de las abejas, abriendose


camino entre el alto

cesped
sin segar, o dando vueltas con monotona
insistencia en torno
1

La cita es de la novela Retrato de Dorian Gray de Oscar Wilde.

173

174

APENDICE
A. COMO LEER UN TEXTO MATEMATICO
a los polvorientos cuernos dorados de las desordenadas madreselvas,
opresiva la quietud, mientras los ruidos confusos
parecan hacer mas

de Londres eran como las notas graves de un organo


lejano.

lectora para una obra como la ciHay por lo menos dos niveles de apreciacion
estetica,

tada arriba. Una es la apreciacion


que tiene que ver con el buen uso de las

en este nivel es, podra decirse,


palabras para construir imagenes.
La apreciacion
o menos como saborear un buen Cabernet Sauvignon
un asunto sensorial, mas
un roast beef. Por ejemplo, en el pasaje citado arriba podriamos
para acompanar
apreciar como el escritor describe de una manera exacta y muy elegante el zumbido monotono que uno puede escuchar en cualquier gran ciudad. Frases como
estas convierten a un texto en una obra de arte literaria y nos proveen el disfrute

estetico
de la lectura. Sin embargo, generalmente aportan poco cuando se trata de
de una
entender la trama de la novela, lo cual nos trae al otro nivel de apreciacion
de la trama.
lectura, que es la apreciacion
Una novela es una historia y toda historia es un cuento de algo. La trama es
la forma en que el escritor va desarrollando ese cuento. Cuando la trama de una

novela nos atrapa, no nos paramos a analizar cada palabra detenidamente. Mas
bien, las palabras son como pinceladas que van pintando una escena que se va
revelando poco a poco; lo revelado es la trama. En el pasaje citado arriba, por
ejemplo, no nos pondramos a analizar porque no se haba cortado el cesped entre
el cual revoloteaban las abejas o en que se basa el autor para afirmar que los
cuernos dorados de las desordenadas madreselvas son polvorientos- esto sera
una necedad, completamente fuera de lugar e innecesario. El lenguaje novelesco

es un
esta lleno de redundancias
e imprecisiones porque a veces la imprecision
efecto que el autor quiere justamente lograr. Y porque un buen escritor de novelas
sabe que un buen lector no analizara cada frase detenidamente para comprender la

de figuras
trama, introduce redundancias, metaforas,
hiperboles
y toda esa legion
que veiamos en Lengua y Literatura en bachillerato para enfatizar
de expresion
elementos de la trama o resaltar aspectos de los personajes que son importantes

para su comprension.

hay una trama y se podra encontrar


En un texto sobre matematicas
tambien

de la estetica

algo de estetica,
pero la apreciacion
y la trama es totalmente distinta

a la de una novela, porque el lenguaje matematico


funciona de una forma total
y los smbolos
mente distinta. El lenguaje matematico
es muy sucinto. La notacion

que usamos hoy en da para escribir en lenguaje matematico


son el producto de
para lograr expresar las ideas de la manera mas
breve posisiglos de depuracion

lnea
ble y sin redundancias
ni imprecisiones. Una formula
matematica
de una sola

175
que requerira varios parrafos

puede condensar tal cantidad de informacion


para

expresarla en lenguaje natural. Cuando leemos lenguaje matematico, es importante detenerse a analizar cada smbolo, cada igualdad, cada punto, porque todo lo

nada
que esta escrito en una formula
es importante para su debida comprension es
es redundante. Por eso, la primera recomendacion

Primer consejo

Tomese
el tiempo de leer detenidamente cada smbolo de cada formula
o
as como los razonamientos o explicaciones en lenguaje natural
ecuacion,
sobre ellos.

Ciertamente, cuando una novela nos atrapa podemos leer decenas de paginas

en una sola lectura, pero si leemos un texto de matematica,


a veces avanzamos

unas diez paginas


por lectura, cuando mucho. Pero leer detenidamente el texto no
si no nos hacemos con el habito de cuestionar y anagarantiza su comprension

de la trama en
lizar todo lo que se lee. Cuando hablabamos
sobre la apreciacion

la literatura de ficcion y citabamos aquel pasaje de Retrato de Dorian Gray como


ejemplo, decamos que era una necedad analizar frases descriptivas o cuestionar
los basamentos del autor para calificar las cosas de cierto modo, pues nada agre de la trama. Sin embargo, cuando leemos un
gaba esto a nuestra comprension

texto matematico,
este habito
de cuestionar y analizar todo cuanto se lee no es
una necedad, sino una absoluta necesidad si se quiere comprender el texto. Es
lenta que la lectura
por eso que la lectura de este tipo de textos es mucho mas
de novelas- hay que cuestionar y analizar todo. Para ilustrar en que consiste este

cuestionamiento constante, pongamos un ejemplo. Supongase


que leyendo este

libro, se encuentra con la siguiente formula:


n

i =

i=0

n(n + 1)
2

El lector debe ante todo asumir una actitud activa, no pasiva. Esto pasa por
asumir constantemente el rol de ser su propio profesor. Si Ud. fuese un profesor y
acaba de
esta interesado en saber si el estudiante ha comprendido lo que recien

leer, cuales
preguntas hara? En este punto, sera oportuno preguntarse primero

si comprende cada uno de los smbolos en la formula.


Por ejemplo, que significa el

?
Qu
e
significan
las
expresiones
arriba
y
abajo
de
ese smbolo? Que significa

la i al lado de esto? Si no sabemos las respuestas a estas preguntas debemos

buscar apoyo de otros libros o consultar rapidamente


con la Profesora Wikipedia

176

APENDICE
A. COMO LEER UN TEXTO MATEMATICO

o el Profesor Google, o mejor aun


al profesor del
anotar la pregunta y hacersela

curso (en la proxima clase o por correo electronico, que para eso sirve).
a la izquierda del signo =
Una vez que se ha comprendido que la expresion
denota la suma de todos los numeros
enteros consecutivos desde el 0 hasta n,

estamos en capacidad de proceder con el auto-cuestionario. Las ecuaciones como


o una explicacion.

esta, que contienen un signo =, claman por una demostracion


Cuando yo escribo que A = B, el lector debe preguntarse: es siempre A igual a B?
en que se basa el autor para decir que A siempre es igual a B? etc. En el ejemplo
anterior, este tipo de auto-cuestionamiento podra llevarnos a realizar la siguiente
secuencia de razonamientos mentales, no necesariamente en el orden en que los
exponemos:

1. Tomamos un papel y lapiz,


comenzamos a darle valores a n y evaluamos las
expresiones a ambos lados de la igualdad para ver si se verifica la igualdad
matematica

en algunos casos. Esto no es una demostracion


de este hecho,
pero ayuda a entender lo que esta sucediendo.

2. En un ejercicio de sano escepticismo, observamos que como


la sumatoria
a la izquierda de la igualdad
involucra suma de numeros
enteros, la expresion

siempre sera un numero


entero. Sin embargo, a la derecha tenemos una

donde el denominador es dos. Podramos preguntarnos entonces


fraccion
de la derecha no sera un numero
si en algunos casos la expresion
entero.

Reflexionando un poco al respecto, nos damos cuenta que n es siempre o


par o impar, por lo tanto, alguno de los dos factores del denominador (n o
a la derecha de
n + 1) siempre sera divisible entre dos y de ah, la expresion

la igualdad siempre sera un numero


entero tambien.

3. Las dos actividades anteriores nos convencen de manera intuitiva que la


igualdad podra ser cierta para todo n. Sin embargo, aun
no la hemos demostrado. Es el momento de hacerlo.

Todas estas preguntas, razonamientos y verificaciones con papel y lapiz


ocu
como esta. Es
rren cuando un buen lector matematico
se topa con una ecuacion
muy probable que las preguntas que uno debe hacerse cuando se estudia un texto

justamente las preguntas que saldran


en el examen. Estas
de matematicas
seran

ideas se resumen en nuestra segunda recomendacion:

177

Segundo consejo

Cuestione y analice todo cuanto lea. Hagase


preguntas a modo de auto constantemente para que, cuando le hagan esas mismas preevaluacion
guntas en el examen, salga airoso del evento.

Otra manera de expresar esto es que el estudio o lectura de textos de estas


bien hay que involucrarse activamaterias no es un deporte de espectador, mas

mente, con otros libros, papel y lapiz


a la mano. Naturalmente, esto es extenuante.
En mis cursos siempre he escuchado de
Permtame el lector una breve digresion.
los estudiantes que el problema con estas materias es un problema de mala base

en matematicas,
pero nunca he tenido claro en que punto de la vida academica
de un estudiante comienza este problema de mala base. En algunos casos me
consta que cierto grupo de estudiantes han tenido buenos profesores y sin embargo, persiste el problema de la mala base. Pues he aqu que el problema de la mala

base no es otro que un problema de malos habitos


de estudio. El estudiante nunca
aprendio a estudiar de esta forma, cuestionando todo cuanto lee y por lo tanto, los

conocimientos matematicos
nunca se fijaron. Pero practicar estos habitos
de estudio es como hacer ejercicios; al cabo de un tiempo, ya uno no se cansa tanto y se

convierte en un habito
natural. Debera intentarlo.
del mito de la mala base, existe otra creencia erronea

Ademas
en torno a las

matematicas,
segun
es una materia practica
porque involucra
la cual la matematica

a otras materias teoricas.

calculos,
en contraposicion
La matematica
es la materia

teorica
por excelencia y as lo atestiguan los orgenes etimologicos
de la palabra.
(mathematika, lo que se

Matematica
proviene del antiguo griego
ema,

aprende), el cual a su vez deriva de (math


campo de estudio o ins

remotamente, del verbo griego

truccion)
y, mas
(manthano,
que signifi2

ca instruirse, aprender, llegar a conocer) . Etimologicamente y morfologicamente,

matematica
es afn a tema o campo de estudio, que no es otra cosa que ciencia y
teora. Hay que entender un poco sobre la mentalidad de los antiguos griegos para

saber que lo que ellos llamaban ciencia no tena nada que ver con experimentacion
del conocimiento por medios experimentales o practicos,

o derivacion
sino todo lo
contrario. La ciencia, segun
los griegos, era concebida como un saber que se alcanzaba por medio del pensamiento y el raciocinio. Naturalmente, esto ya no es
del todo cierto porque el conocimiento cientfico moderno se verifica experimental
mente. Pero aun
sigue siendo un producto del pensamiento
ahora, la matematica
2

Ver GonzalezRecio
(2007), p. 354.

178

APENDICE
A. COMO LEER UN TEXTO MATEMATICO

puro; es, pues, netamente teorica.

por la cual los griegos consideraban que las matematicas

Esta
es la razon
eran
algo sobre lo cual haba que instruirse para llegar a aprenderlas. Estaban recono

ciendo con ello que la matematica


era algo difcil, que no se aprenda espontanea
mente como aprender a caminar o a hablar y que por ello requera de instruccion
previa. Las matematicas

y de iniciacion
no son reducibles al lenguaje ordinario que

bien, la historia de las matematicas

se aprende espontaneamente.
Mas
es una his

de los siglos
toria de como
el lenguaje matematico
se ha perfeccionado a traves
del pensamiendeviniendo en un vehculo para alcanzar verdades eternas a traves

to puro. Por eso es que un texto de matematicas


no se puede leer rapidamente
a la notacion
matematica,

de
y debemos de poner especial atencion
la definicion

terminos y los enunciados de los teoremas.


ya hemos comentado que por ser el lenguaje matematico

Sobre la notacion,
matematica

tan preciso y conciso, cada smbolo, cada signo en una expresion


es
Tambien
los conceptos
imprescindible y le confiere un sentido exacto a la expresion.

mucho mayor que en el lenguaje


y terminos
en matematica
tienen una precision

natural. Puesto que la actividad matematica


consiste en su mayor parte en tratar
de establecer o deducir verdades absolutas respecto a ciertos objetos definidos

matematicamente,
las definiciones matematicas
son de extrema importancia en un

importante que las descripciones de personas o


texto matematico.
Son mucho mas
lugares en una novela y no en vano se han resaltado a lo largo del texto mediante

cajas sombreadas como esta


.
matematica,

Una definicion
para ser util,
tiene que redactarse de tal modo de

poder establecer resultados matematicos


respecto a lo que se define y en definitiva, permitir decidir si cualquier objeto en el universo pertenece a la clase definida o
no. En el uso cotidiano del lenguaje natural, nosotros no estamos acostumbrados
Por ejemplo, la palabra informacion,

a manejarnos en este nivel de precision.


tal
como la utilizamos en nuestro lenguaje cotidiano, es muy imprecisa. Pero definida

de Claude Shannon,
matematicamente,
en el marco de la Teora de la Informacion
que se transpermite comparar, en orden de magnitud, la cantidad de informacion
u otro. Desde luego, la informacion
matematica

mite en un canal de comunicacion

no se corresponde enteramente con el termino informacion del lenguaje natural.


ambivalente e incluye por ejemplo la acepcion
de inforEste ultimo
es mucho mas

como conocimiento que no abarca el termino

macion
matematico
correspondiente.
del lenguaje matematico,

Sin embargo, gracias a la precision


se han podido esta que han
blecer una serie de resultados en torno a los sistemas de comunicacion
como
permitido crear, por citar un ejemplo, los famosos algoritmos de compresion
el mp3 que usamos hoy en da.

179

Pongamos las cosas en perspectiva mediante un ejemplo. Supongase


que esn

tamos interesados en demostrar que para todo n N, la expresion 5 + 7n es un


numero
par. Lo primero que deberamos hacer es preguntarnos que es un nume

ro par?. De ah nos damos cuenta que uno de los problemas de base en nuestra
matematica

formacion
es que no hemos entendido debidamente la importancia de

de
las definiciones y es esto justamente el mayor obstaculo
para la comprension

el lector este pensando ahora: pero yo se lo que es un


textos matematicos.
Quizas
numero
par- 2,4,6,8 y as sucesivamente son numeros
pares. En tal caso, habra

Ademas,
una cadado cuatro ejemplos de numeros
pares, pero no una definicion.

como esa de los numeros


racterizacion
pares no lo ayudara mucho a demostrar lo

matematica,

requerido. En un nivel mayor de sofisticacion


otro lector pensara que
un numero
par es aquel que es divisible entre dos. Aun

cuando esto fuese una


satisfactoria en lenguaje ordinario, tampoco ayudara a demostrar lo que
definicion

se tiene en manos. Un profesor empleando la mayeutica socratica,


que es como
jugar a abogado del diablo, le preguntara a este lector: bien, pero que significa
ser divisible entre dos?.
matematica

Procediendo as llegaramos a una definicion


de numero
par muy

parecida a esta:

x Z es un numero
par k Z|x = 2k

de una definicion
como esta

La concision
no radica solamente en la poca can del concepto y
tidad de caracteres requerida para su escritura, sino en la precision
que encierra entre lneas. Pero para leer entre lneas hay que cotodo lo demas

nocer muy bien los smbolos matematicos


y tomarse el tiempo de leer la definicion

muy detenidamente, haciendose


preguntas conforme a la segunda recomendacion
debe permitir decidir inequvocamente
y recordando siempre que toda definicion
si cualquier objeto pertenece a la clase de objetos que estamos definiendo. Por
ejemplo, es 32 un numero
par? La respuesta sera no, porque 32
/ Z y estaba es
los numeros
crito entre lneas que solo
enteros pueden ser pares (fjese bien en

la definicion).
Por otro lado, 112 s es un numero
par porque puede ser expresado

estaba
como producto de un entero por dos (de hecho, 112 = 2 56). Esto tambien
Entonces, para puntualizar, daremos el
planteado en la definicion.

APENDICE
A. COMO LEER UN TEXTO MATEMATICO

180

Tercer consejo
a las definiciones y lealas muy detenidamente.
Preste especial atencion

Cualquier termino
(fuera del que se este definiendo) o smbolo que figu debe ser completamente aclarado. Recuerde que toda
ra en la definicion
matematica

definicion
debe permitir decidir inequvocamente si cualquier
cosa pertenece o no a la clase de objetos que se esta definiendo. De mo debe intentar dar ejemplos de cosas que
do tal que tras leer la definicion
pertenecen a la clase definida y cosas que no.
Cuando se encuentre un problema como aquel en la Unidad 3 que pide demostrar que el valor esperado de un incremento en una martingala es necesa
riamente igual a cero, no desespere ni entre en panico.
Recuerde que avanzara en
del problema en la medida en que aclare los terminos

la solucion
matematicos
que
figuran en el enunciado (y que aqu hemos resaltado de la misma manera que se
han resaltado las definiciones a lo largo del texto para recordarle que debe remitirse

a ellas). En este caso tendra que suponer un proceso estocastico


{Xi |i T } que

fuese a la vez martingala. En virtud de la definicion de martingala, puede suponer


que se cumple E(Xn ) < para todo n y que E(Xn+1 |X0 , X1 , . . . , Xn ) = Xn , a
tambien
partir de lo cual procedera a demostrar lo requerido recordando que como entre las
propiedades de la martingala figuran expresiones que involucran esperanzas condicionales, debe tomar en cuenta las propiedades de las esperanzas condicionales
Ahora volvamos al problema que habamos propuesto como ejemplo.
tambien.
Como podemos demostrar que para todo n N, 5n + 7n es un numero
par?

Podemos explorar lo que sucede para algunos valores de n, haciendo una tabla
como esta:

n
0
1
2
..
.

5n + 7n
50 + 70 = 2
51 + 71 = 12
52 + 72 = 74

Es par?
si
si
si

..
.

Pero no habramos demostrado nada. Tan solo hemos verificado que 5n + 7n


es par para n = 0, 1 y 2 pero el conjunto N es infinitamente grande. En cambio, si
podemos demostrar que para todo n N, 5n +7n se puede expresar como producto

de 2 por un entero cualquiera, habremos demostrado, segun


nuestra definicion
n
n

matematica
de numero
par, que 5 + 7 es un numero
par. Hay por lo menos dos

vas para hacerlo. Esta es una:

181

5n + 7n = 5n + (5 + 2)n
n  
n i ni
n
=5 +
52
i=0 i
n1  
n i ni
n
n
= 5 +5 +
52
i=0 i
n1  
n i ni1
n
= 25 +2
52
i=0 i
!
n1  
n
5i 2ni1
= 2 5n +
i=0 i

7=5+2

del binomio (5 + 2)n (ver Teoexpansion


rema binomial de Newton)

factorizacion de los sumandos en la sumatoria

= 2k, donde k Z
matematica

El precedente es un ejemplo de como utilizar una definicion


para

que todo paso en una demostracion


se justifica por
demostrar algo. Notese
tambien
En la demostracion
precedente
medio de alguna propiedad, axioma o definicion.
y en algunas otras de este libro hemos justificado algunas igualdades al margen

derecho. Estas justificaciones se han incluido aqu por razones de didactica,


pero

normalmente los libros de matematica


suponen que el lector tiene suficiente nivel

mismo cada paso de una demostracion.


Desde luego,
matematico
para explicar el
este no es su caso porque si lo fuese, no estara leyendo esto!

Cuarto consejo
Las demostraciones tienen un alto valor instructivo. Antes de demostrar algo formalmente, reflexione sobre lo que se pretende establecer. Explore
a demostrar e intente entender
algunos casos para verificar la proposicion
intuitivamente el porque de su validez. Luego, para demostrar la proposi matematicamente,

cion
haga uso de las definiciones, axiomas y otros resultados establecidos previamente (propiedades, teoremas, proposiciones,
etc.).

Las matematicas
no son un asunto de sacar cuentas de bodega o meros calculos. En el fondo, es una ciencia en la cual cada nuevo conocimiento se establece

como una consecuencia logica


de otros conocimientos establecidos o demostrados
previamente. Como admirablemente lo expresaba Bertrand Russell en su Principia

APENDICE
A. COMO LEER UN TEXTO MATEMATICO

182

mathematica: La matematica
es la clase de todas las proposiciones de tipo p im3

plica q. . No deja de haber cierta belleza- y he aqu el elemento de apreciacion

estetica
en el estudio de las matematicas
- en la forma en que poco a poco se ha
construido este magna opus del conocimiento humano sobre tan pocos supuestos
se puede encontrar la belleza en la manera en que algunos
(los axiomas). Tambien

de definiciones mamatematicos
han formalizado nociones imprecisas a traves

tematicas
concisas y luego constatar como estas permiten deducir resultados que

se corresponden muy de cerca con los fenomenos


reales.
Para terminar con el ejemplo sobre los numeros
pares, se intentara demostrar

n
n
del metodo

completa , en el
que 5 + 7 es un numero
par a traves
de la induccion

se define una proposicion


logica

cual
que depende de n. Para nosotros esta sera:

par.
Pn 5n + 7n es un numero

Entonces, primero demostraramos que Pn es valida


para un n inicial, digamos n = 0, lo cual ya hicimos cuando verificamos arriba que 50 + 70 = 2 es un

numero
par. Seguidamente, suponemos que Pn es cierto (hipotesis
inductiva ). Si

demostramos que como consecuencia logica


de la hipotesis
inductiva, Pn+1 es cier habremos demostrado que Pn es verdad para cualquier n N. Esto lo
to tambien,
haremos seguidamente:

5n + 7n = 2k para algun
kZ
7 5n + 7n+1 = 14k

n+1

+7

n+1

5n+1 + 7n+1 = 14k 2 5n

= 2(7k 5 ) = 2k

Hipotesis
inductiva
multiplicando ambos lados de la
por 7
ecuacion

7=5+2 y se reagrupan los terminos.

k0 = 7k 5n Z

Se cumple Pn+1
3
En este conjunto de obras, Russell se proponia derivar la mayor parte de los conocimientos ma
de axiomas. Con el Teorema de Incompletitud de Kurt
tematicos
a partir de un conjunto pequeno

Godel,
quedo demostrado que ningun
conjunto de axiomas puede ser completo (en el sentido en
y consistente (en el sentido
que permita establecer la validez o no validez de cualquier proposicion)
en que los axiomas no sean contradictorios) a la vez. Esto significa que se demostro la existencia

de proposiciones no demostrables. Sin embargo, los matematicos


aun
siguen demostrando proposi ambiciosos siguen en su lucha prometeica por conquistar lo imposible. Esta es
ciones y otros mas
apasionantes de la matematica,

una de las historias mas


sobre la cual existe una novela titulada El
Tio Petros y la conjetura de Goldbach escrita por el griego Apostolos Doxiadis, la cual recomiendo
ampliamente.

183

completa, tambien
existe otro
Ya que se menciono el metodo
de la induccion

metodo de uso muy frecuente en demostraciones matematicas, que es el de reduc al absurdo . La reduccion
al absurdo parte de negar la premisa que se quiere
cion
de una secuencia de implicaciones logicas

demostrar y a traves
validas,
se llega a
Dicha contradiccion
(el absurdo) no puede ser consecuencia de
una contradiccion.

premisas logicamente
validas,
sino que se desprende de negar la premisa que se
quera demostrar, con lo cual se demuestra que dicha premisa es verdadera (por completa
que no puede ser falsa). No es este el lugar para hacer una exposicion

matematica,

sobre metodos
de demostracion
pero si es oportuno sugerir una lista

de temas que deberan conformar la base matematica


del estudiante para poder

entender el lenguaje matematico


y en la cuyos elementos todas las ramas de la

matematica
encuentran su modo de expresion:

Quinto consejo

Con la finalidad de adquirir unas bases solidas


del lenguaje matematico,
haga un repaso de los siguientes temas:

Logica
matematica
Teora de Conjuntos

matematica

Metodos
de demostracion

184

APENDICE
A. COMO LEER UN TEXTO MATEMATICO

Indice alfabetico

algebra,
3

sigma algebra,
4
axiomas de Kolmogorov, 5
barreras absorbentes, 97
Brown, R., 112
cadena de Markov, 76, 168
168
probabilidad de transicion,
caminata aleatoria, 75
28
coeficiente de correlacion,
29
convolucion,
covarianza, 28
ecuaciones en diferencias, 99
espacio de estados, 63
espacio de probabilidad, 5
espacio muestral, 3
espacio probabilizado, 5
esperanza
13
definicion,
propiedades, 14
esperanza condicional, 66
puntual, 159
estimacion

estocastico
origen de la palabra, 62
evento
complementario, 3
evento elemental, 3
eventos, 3
independientes, 26

independientes vs. mutuamente excluyentes, 26


mutuamente excluyentes, 3
experimentos aleatorios, 3
caracterstica, 16
funcion
propiedades, 16
de distribucion

funcion
de primer y segundo orden, 64
finito-dimensional, 64
de distribucion
de probabilidad,
funcion
11
de valor medio, 71
funcion
generatriz, 17
funcion
propiedades, 18
grafos
matriz de adyacencia, 169
de cadenas de Marrepresentacion
kov, 169

hipotesis
inductiva, 182
incrementos
estacionarios, 74
independientes, 72
(en la programacion),

indentacion
48
intensidad de flujo, 134, 145
Kolmogorov, A.N., 4
Laplace, P.S, 7, 77
ley de los grandes numeros,
8

185


INDICE ALFABETICO

186

completa, 182
metodo
de la induccion
martingala, 75
169
matriz de transicion,
momento de orden uno, 13
momento factorial de orden k, 18
movimiento Browniano, 77
nucleo
de covarianza, 71

Poisson, S. D., 131


probabilidad, 4, 7
frecuentista, 9
definicion
segun
definicion
Laplace, 8
probabilidad condicional, 65
problema de la ruina del jugador, 97
proceso de conteo, 76
proceso de Markov, 76
proceso de Poisson
intensidad de flujo, 145
147
simulacion,
tiempo inter-eventos, 145

proceso de Poisson homogeneo,


76
proceso de Wiener, 78

proceso estocastico

debilmente
estacionario, 74

de parametro
discreto o continuo, 63
63
definicion,
estrictamente estacionario, 74
estrictamente estacionario de orden
n, 74
trayectoria, 63
propiedad de Markov, 76, 168
R

NA, 46
cat, 52
cumsum, 89
c, 45
function, 102
hist, 55
ifelse, 52

length, 45
paste, 43
replicate, 103
return, 103
runif, 55
sample, 52
sapply, 103
seq, 45
setdiff, 52
sqrt, 43
union, 52
which, 93
while, 47
(<-), 44
asignacion
comentarios (#), 47

constantes logicas,
42
de numeros
generacion
aleatorios,

57
identificadores, 44
46
indexacion,

operadores logicos,
44

operadores logicos
de comparacion,
44
vectorizar, 48
al absurdo, 183
reduccion
ruido blanco, 75
series de tiempo, 63
tabla de contingencia, 32
Tchebyschev, cota de, 15
teorema
Central del Lmite, 77
Levy, 17
valor medio, 13
variable aleatoria, 10
continua, 12
discreta, 12
independientes, 27
n-dimensional, 23


INDICE ALFABETICO
varianza, 14
propiedades, 15
vector aleatorio, 23
Wiener, N., 77

187

188

INDICE ALFABETICO

Bibliografa
B ROWN, R. (1828). A brief account of microscopical observations made in the
months of June, July and August, 1827, on the particles contained in the pollen of
plants; and on the general existence of active molecules in organic and inorganic
bodies. Edinburg new Philosophical Journal, pp. 358371. Disponible en: http:
//sciweb.nybg.org/science2/pdfs/dws/Brownian.pdf.

C ANAVOS, G. (1988). Probabilidad y Estadstica - Aplicaciones y metodos.

McGraw-Hill/Interamericana de Mexico, Mexico.


, P.; T EIJEIRO B ARJAS , C. y V I C AZ A S P ERNAS , D.; S OUTO AGUI ON
LAR C ASTRO, C. (2004).
Fractales - Movimiento Browniano.
Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/
trabajos/Imagenyvideo/fractales/movimiento_browniano.htm.
C HING , W., N G , M. (2006). Markov Chains: Models, Algorithms and Applications.
Springer Science+Business Media, Inc..
a la teora de juegos. Alianza Editorial.
DAVIS, M. (1971). Introduccion
D EVORE, J. (2001). Probabilidad y estadstica para ingeniera y ciencias. Interna
cional Thomson Editores, S.A. de C.V., Mexico, 5edicion.
F ELLER, W. (1968). An Introduction to Probability Theory and Its Applications
Volume I. John Wiley & Sons, 3edicion.

F ERN ANDEZ
, B..
Denis Poisson.

La Ley de los Eventos Raros, legado de Simeon


Disponible en: www.cimat.mx/Eventos/vpec10/img/
ArticuloBegonaFernandez.pdf.

G ONZ ALEZ
R ECIO, J. (2007). Atomos,
almas y estrellas: estudios sobre la ciencia

griega. Plaza y Valdes, S.A. de C.V., Mexico.


189

190

BIBLIOGRAFIA

G RINSTEAD, C., S NELL , J. (1997). Introduction to Probability. American Mathema


tical Society, 2edicion.

http://www.dartmouth.edu/chance/teaching_aids/books_articles/
probability_book/book.html

Gauthier-Villars, Paris.
L APLACE, P.S. (1886). Theorie
Analytique des Probabilites.
L UCRETIUS. De rerum natura. Disponible en: http://www.thelatinlibrary.
com/lucretius.html.
N AUMOV, V., B ASHARIN , G. L ANGVILLE , A.. The life and work of A. A. Markov. Disponible en: https://netfiles.uiuc.edu/meyn/www/spm_files/
Markov-Work-and-life.pdf % finalpoint
Disponible
N ELSON, E. (2001). Dynamic Theories of Brownian Motion. 2edicion.
en: http://www.math.princeton.edu/nelson/books/bmotion.pdf.
N ORRIS, J. R. (1998). Markov Chains. Cambridge University Press.
O RELLANA , M., Y OTROS (1995). Ecuaciones Diferenciales - Tomo I. Universidad

Nacional Abierta, Caracas, 3edicion.

O RTEGA , J., Q UIDEL , P. (1995). Procesos Estocasticos


- Tomo I. Universidad

Nacional Abierta, Caracas, 4edicion.


PARADIS, E. (2002). R para principiantes. Traducido por: J. Ahumada.

http://cran.r-project.org/doc/contrib/rdebuts_es.pdf
PARZEN, E. (1962). Stochastic Processes. Holden-Day, San Francisco.

a la teora de la probabilidad. UniQ UIDEL , P., G ONZ ALEZ


, J. (1984). Introduccion
versidad Nacional Abierta, Caracas.
R D EVELOPMENT C ORE T EAM (2008). R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN
3-900051-07-0.

http://www.R-project.org
R EBOLLEDO, R. (2002). El azar y sus modelos. En: IV Jornadas Rolando Chuaqui
Kettlun, .

www.mat.puc.cl/rrebolle/Azar/azar-foils.pdf

R ESNICK, S. (2005). Adventures in stochastic processes. Birkhauser


Boston, New
York.

BIBLIOGRAFIA

191

R IETZ, H. L (1927). Mathematical Statistics. Carus Mathematical Monographs.


Open Court Publishing Co..
, L. (2011). Introduccion
a los procesos estocasticos.

R INC ON
Mexico.
R IOS, S. (1977).

2edicion.

Metodos
Estadsticos.

Ediciones del Castillo, S.A., Madrid,

R OMERO PALMA, J. L. (2009). Modelos de caminata aleatoria con paso unitario y procesos de Wiener generalizados equivalentes a un proceso de
movimiento browniano. Disponible en: https://sites.google.com/site/
unamatematicaseltigre/.

S IEGEL, S. (1974). Estadstica no parametrica


aplicada a las ciencias de la con

ducta. Editorial Trillas, Mexico,


2edicion.
S IMONSON , S. y G OUVEA , F. (2003). How to Read Mathematics. Disponible en:
www.ed.sc.edu/raisse/pdf/MathArticles/HowtoReadMathematics.pdf.

También podría gustarte