Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROCESOS
ESTOC ÁSTICOS
José Loreto Romero Palma
II
Oda a los Procesos Estocásticos
Pasará el tiempo
y crecerán tus variables
con un paso lento
continuo e integrable,
¿escucharé tu lamento
de fiel dato amable?
¿Por qué te encajonan
en parámetros mudables?
Explicarás la cortisona,
las mareas, la polución,
los estratos, las personas,
toda una población.
Te vestirán de ricas sedas:
de estacionariedad
que acorte tu penas,
de inversibilidad
que invierta tus ternas.
III
IV
Julián Roas
del libro “Vendrán Nuestros Besos”
Índice general
Prefacio IX
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2. Introducción a la simulación y al R 37
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
V
VI ÍNDICE GENERAL
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Objetivos de la Unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Bibliografı́a 189
VIII ÍNDICE GENERAL
Prefacio
El presente material surgió originalmente para ser utilizado como texto princi-
pal de consulta para el curso de Procesos Estocásticos de la carrera de Ingenierı́a
de Sistemas que dicto en la UNEFA. Aún cuando existe abundante bibliografı́a y
material disponible en Internet sobre este tema, considero que existen sobradas
razones que justifican la elaboración del presente texto. En primer lugar, los libros
que versan sobre el tema están pensados para un público matemáticamente más
maduro, generalmente para estudiantes a nivel de postgrado, además que, por ser
estos libros muy especializados, son demasiado escasos en las librerı́as venezo-
lanas. Por otro lado, navegar a través del Internet en búsqueda de bibliografı́a en
lı́nea puede resultar una tarea hercúlea para el estudiante de pregrado cuya pri-
mera exposición al tema es ésta. En fin, la bibliografı́a existente es muy dispersa,
escasa y no adecuada a las necesidades del estudiante venezolano, por lo cual
considero que este texto viene a llenar un vacı́o.
IX
X ÍNDICE GENERAL
Desde una perspectiva más amplia, el contenido de este texto esta enmarcado
dentro de un componente importante en el pensum de la ingenierı́a de sistemas
y de las ciencias de la computación. Me refiero al conglomerado de materias ta-
les como investigación de operaciones, matemáticas discretas, probabilidades y
estadı́stica, métodos numéricos y simulación y modelos matemáticos. A mi juicio,
dicho componente es medular para la formación integral de un analista de siste-
mas, quién debe apuntar más allá de ser un simple tecnócrata operario de TICs
(Tecnologı́as de Información y Comunicación). Más bien - y esto es algo que le
ÍNDICE GENERAL XI
Quiero en estas lı́neas agradecer a los profesores y autores que de manera di-
recta o indirecta contribuyeron en mi propia formación. En particular, extiendo mis
agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad
Nacional Abierta, ası́ como también a mis colegas y compañeros docentes, Elai-
ne J. Pérez Bracho, José T. Gomez Barreto y Rafael A. Rofriguez Toledo, quienes
además han contribuido con importantes sugerencias en la redacción de este ma-
terial. Debo incluir palabras de reconocimiento y de agradecimiento a mis alumnos
de la UNEFA, quienes han contribuido también con sugerencias y a quienes este
libro está dedicado. Aspiro inculcar en ellos una pasión por los temas de la investi-
gación de operaciones y el modelamiento matemático para que sean ellos mismos
los que sigan investigando, formándose y siempre estando a la vanguardia en esta
Era de la Información. Que su nivel de conocimientos rebase muchas veces el mı́o
propio, que éstos sirvan al bienestar de nuestra nación y que ésta reconozca la
importancia del saber que ellos portan son mis deseos.
Repaso de teorı́a de
probabilidades
1
2 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
Objetivos de la Unidad
Por razones que van más allá del alcance teórico de este recuento, es preciso
exigir una condición adicional sobre ℑ: Si {An } es una sucesión numerable de
eventos, entonces su unión infinita también es un evento -
1
La notación ωi para designar a los eventos elementales se utiliza cuando el espacio muestral Ω
es un conjunto numerable.
2
Dos eventos son mutuamente disjuntos o mutuamente excluyentes si su intersección es vacia:
A ∩ B = 0/ .
3
A se denomina evento complementario de A.
4 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
[
∞
An ∈ ℑ
n=1
Un álgebra que satisface esta condición más fuerte se denomina σ-álgebra. Por
/ Ω} y ℘(Ω) (esta última se lee “partes de omega”, que es la clase de
ejemplo, {0,
todos los subconjuntos posibles de Ω) son σ-álgebras. En resumen, se ha asociado
a un experimento aleatorio un conjunto de resultados posibles y una estructura
matemática para definir todos los eventos posibles.
(I) P (Ω) = 1
Solución
Según las leyes algebraicas de conjuntos, se tiene que:
(I) Ω ∪ 0/ = Ω.
/
P(Ω) = P(Ω ∪ 0) ➒ según (i)
Ω y 0/ son mutuamente excluyentes y
/
= P(Ω) + P(0) ➒ aplica el axioma 2
/
= 1 + P(0) ➒ P(Ω) = 1 según el axioma 1
Aplicando nuevamente el axioma 1 a la
=1 ➒ primera igualdad
del siglo XVIII. Términos como “el problema de la ruina del jugador” y otras frases
que usaremos a lo largo de este libro delatan estos orı́genes históricos, aún cuando
sus aplicaciones hoy en dı́a trascienden en mucho el contexto de los casinos. Es
natural para nosotros como estudiantes del tema remontarnos a estos orı́genes y
considerar otras definiciones del concepto de probabilidad.
4
Ver Laplace (1886), p. viii.
5
La théorie des hasards consiste à réduire tous les événements du mème genre à un certain
nombre de cas également posibles, c’est à-dire- tels que nous soyons également indecis sur leur
existence, et à déterminer le nombre de cas favorables a l’événment dont on cherche la probabilité.
Le rapport de ce nombre à celui de tous les cas possibles est la mésure de cette probabilité, qui n’est
ainsi qu’une fraction dont le numérateur est le nombre de cas favorables, et dont le dénominateur est
le nombre de tous les cas possibles.
8 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
nA
P(A) =
n
Podemos identificar en esta definición clásica de la probabilidad según Laplace
algunos de los conceptos que ya hemos visto, tales como “espacio muestral” y
“evento”. Sin embargo, Laplace enfatiza que los casos que componen el espacio
muestral deben ser “igualmente posibles”. Esta suposición un tanto simplificadora,
pero sustentada en nuestra intuición común de las cosas, era válida para la mayorı́a
de los juegos de azar. Piénsese por ejemplo en el lanzamiento de un dado no
cargado: si las seis caras del dado son igualmente posibles, la probabilidad de que
salga un cinco al lanzar el dado es pues 61 . Sin embargo, al pretender aplicar la
teorı́a de la probabilidad al estudio de algunos sistemas de partı́culas cuánticas,
por ejemplo, se vio que las leyes probabilı́sticas de estas no se conformaban a la
intuición “natural” o a las suposiciones laplacianas de casos igualmente posibles y a
su vez hubo que plantear otros de modelos probabilı́sticos como el de Fermi-Dirac
o el de Bose-Einstein6 . Lo cierto es que esto derivó en la necesidad de replantear el
concepto de probabilidad de una manera más abstracta, como lo hizo Kolmogorov.
Dicho sea de paso, la definición de la probabilidad de un evento A como la fracción
nA
n es consona con los axiomas de Kolmogorov, pues como 0 ≤ nA ≤ n, siempre se
tendrá que 0 ≤ P(A) ≤ 1 y además P(Ω) = nn = 1.
6
Ver Feller (1968), p. 5
1.2. ÁLGEBRA DE EVENTOS. OTRAS DEFINICIONES DE PROBABILIDAD 9
A lo largo de este libro, haremos uso de este enfoque empı́rico para calcular,
de manera aproximada, algunas probabilidades. Las repeticiones de los experi-
mentos aleatorios se harán en computadora mediante programas de simulación.
Para afianzar las ideas recién expuestas, considere el siguiente problema resuelto.
“Daum Marries Her Pedantic Automaton George in May 1920, John Heartfield is Very Glad of It”,
1920, pintura de George Grosz.
Solución
Primero identificamos el espacio muestral y los eventos pertinentes:
Tropezarse con una señora del barrio por casualidad (o al azar, si se quiere),
equivale a seleccionar aleatoriamente una entre las 164 mujeres del barrio. Esto a
su vez quiere decir que es igualmente probable encontrarse con una u otra- aplica la
definición de probabilidad de Laplace (número de casos favorables entre el número
total de casos) para determinar las probabilidades a partir del enunciado:
10 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
96
“96 de entre ellas son chismosas” → P(A) = 164 ≈ 0, 5854.
84
“... 84 son envidiosas ...” → P(B) = 164 ≈ 0, 5122.
100
“... 100 son chismosas o envidiosas.” → P(A ∪ B) = 164 ≈ 0, 6098.
Aún cuando esta caracterı́stica de las variables aleatorias como funciones me-
dibles no se menciona en los textos elementales de probabilidades con los que Ud.
probablemente estudió esta materia, se incluye en la definición anterior porque es
justamente esta caracterı́stica la que posibilita el cálculo de probabilidades asocia-
das a intervalos reales, la definición de funciones de distribución de probabilidad y
consecuentemente, la función de densidad de probabilidad.
2. F(−∞) = 0 y F(+∞) = 1.
Según la naturaleza del conjunto de valores que toma X , se tienen dos tipos
12 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
∞
∀x ∈ R | p(x) ≥ 0 y ∑ p(x) = 1
x=−∞
Zx
∀x ∈ R | f (x) ≥ 0 y F(x) = f (t) dt
−∞
Por último, se establece un teorema que nos será de utilidad más adelante.
El teorema establece la forma de la función de densidad de probabilidad de una
variable aleatoria expresada como función de otra y se da a continuación sin de-
mostrarlo7 :
Teorema 1.1 (La distribución de una función de variable aleatoria). Sea X una va-
riable aleatoria continua con función de densidad de probabilidad fX (x) y defı́nase
Y = g(X). Si y = g(x) y x = g−1 (y) son funciones univaluadas, continuas y dife-
renciables y si y = g(x) es una función creciente o decreciente de x, la función de
densidad de probabilidad de Y está determinada por:
−1 dx
fY (y) = fX g (y)
dy
en donde la cantidad J = |dx/dy| recibe el nombre de Jacobiano de la transfor-
mación.
Z∞
E[X] = x dF(x)
−∞
es:
Z∞
E[X] = x f (x) dx
−∞
∞
E[X] = ∑ x p(x)
−∞
en donde, una vez más, los lı́mites de integración se definen de forma con-
veniente. El valor esperado de una variable aleatoria, su media poblacional, fre-
cuentemente se designa mediante la letra µ del alfabeto griego. A continuación se
enuncian sin demostración algunas propiedades importantes de la esperanza:
3. Sea X una variable aleatoria y sea Y = h(X) otra variable aleatoria que es
función de X . Entonces, el valor esperado de Y es:
Z∞
E[Y ] = E[h(X)] = h(x)dF(x)
−∞
V [X]
P [|X − µ| ≥ ε] ≤
ε2
y, recı́procamente,
V [X]
P [|X − µ| < ε] > 1 −
ε2
idénticamente distribuidas. Otro caso donde son de utilidad es cuando se tiene una
composición de variables aleatorias de distintas distribuciones. Ahı́ entonces se
puede deducir la ley de probabilidad de la variable compuesta a través del análisis
de su función caracterı́stica o generadora.
Z∞
iuX
ϕx (u) = E[e ]= eiuX dF(x)
−∞
Como eiuX = cos ux + i · sin ux, esta función es integrable para cada u y con-
secuentemente, ϕ(u) posee una parte real y una parte imaginaria. ϕX (u) también
es conocida como la transformada deZFourier de F(x). Si la variable X es absolu-
∞
tamente continua, entonces ϕX (u) = eiux f (x)dx, con los lı́mites de integración
−∞
definidos donde f (x) sea positiva.
ϕ(0) = 1
|ϕ(t)| ≤ 1
ϕ(k) (0)
E[X k ] = ik
Z T −iux1
1 e − e−iux2
F(x2 ) − F(x1 ) = lı́m ϕ(u)du
T →∞ 2π −T iu
Si X es discreta, entonces:
Z T
1
px (x) = lı́m e−iux ϕ(u)du
T →∞ 2T −T
Z T
1
fx (x) = e−iux ϕ(u)du
2π −T
∞
g(u) = E[ux ] = ∑ p(k)ux
k=0
Siempre y cuando u este dentro del radio de convergencia de dicha serie infini-
ta. Algunas propiedades notables de la función generatriz son las siguientes:
g(k) (0)
1. p(k) = k! para k = 0, 1, 2, ...
Bernoulli
En un ensayo de Bernoulli se observa un éxito con probabilidad p o un fracaso con
probabilidad q = 1 − p. 0 ≤ p ≤ 1
Binomial
Es la suma de n variables aleatorias de Bernoulli independientes e idénticamente
distribuidas con parámetro p. Representa también el número de éxitos en n ensa-
yos independientes. En lo que sigue 0 ≤ p ≤ 1, q = 1 − p, n ∈ N +
Función de probabilidad: Valores Esperados:
n
x px qn−x si x ∈ {0, . . . , n}
pX (x) = E[X] = np V [X] = npq
0 si x ∈
/ {0, ..., n}
Función Generadora: Función Caracterı́stica:
g(z) = (q + pz)n ϕx (u) = (q + peiu )n
Geométrica
La variable aleatoria geométrica es el número de ensayos de tipo Bernoulli que se
requieren hasta observar el primer éxito.En lo que sigue, 0 ≤ p ≤ 1, q = 1 − p.
Poisson
La variable aleatoria Poisson representa el número de eventos que ocurren en un
instante de tiempo de amplitud fija cuando la tasa media de eventos en ese intervalo
de tiempo es λ.
Función de probabilidad: Valores Esperados:
x
e−λ λ si x ∈ N ≥ 0
pX (x) = x! E(X) = λ V (X) = λ
0 si x < 0
Función Generadora: Función Caracterı́stica:
iu −1)
g(z) = eλ(z−1) ϕx (u) = eλ(e
Uniforme
Es la variable aleatoria continua uniformemente distribuida sobre un intervalo (a, b).
La probabilidad de que la variable aleatoria uniforme se encuentre dentro de algún
subintervalo de (a, b) es proporcional a la amplitud de dicho subintervalo.
Función de densidad: Valores esperados:
1
b−a si a < x < b a+b (b−a)2
fx (x) = E[X] = 2 V [X] = 12
0 en caso contrario
Función caracterı́stica:
eiub − eiua
ϕx (u) =
iu(b − a)
Normal
El número de éxitos en n ensayos independientes de Bernoulli obedece aproxima-
damente una ley Normal a medida que n tiende a infinito. Según el teorema central
del lı́mite, toda suma de n variables independientes e idénticamente distribuidas
es normal cuando n tiende a infinito. La ley normal modela adecuadamente una
amplia gama de fenómenos aleatorios porque generalmente, las desviaciones de
una variable con respecto a un punto central se deben a la suma de una cantidad
indefinidamente grande de perturbaciones aleatorias idénticamente distribuidas e
independientes entre sı́. En lo que sigue σ, µ ∈ R σ > 0.
1.5. FUNCIÓN CARACTERÍSTICA Y GENERATRIZ. DISTRIBUCIONES 21
(Normal - continuación)
Función caracterı́stica:
−1
ϕx (u) = 1 − iuλ
Gamma
La variable aleatoria gamma representa el tiempo de espera hasta la r-ésima ocu-
rrencia de un fallo o evento cuando los eventos ocurren independientemente entre
sı́ con una tasa promedio de λ por unidad de tiempo, con los tiempos inter-eventos
distribuidos exponencialmente con el mismo parámetro. Un caso especifico de la
gamma es la distribución de Erlang, que representa la suma de r variables aleato-
rias independientes distribuidas exponencialmente (en este caso, r es un número
entero positivo). La distribución ji-cuadrado, la Weibull y la exponencial también se
pueden definir como casos particulares de la gamma. Las restricciones sobre los
parámetros son λ, r > 0.
22 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
(Normal - continuación)
Figura 1.3: Las variables aleatorias conjuntas están asociadas al mismo espacio
muestral
Ω X(Ω)✬ ✩
✈
X(ω)
✯
✟
✟✟
✫✪
X ✟✟
✟
✟ ✟
✟
✟
✟✟
✬✩
✟
✟✟
✈ ✲ ✈
ω ✟✟
Y
Y (ω)
✫✪
Y (Ω)
h i
ϕX1 ,...,Xn (u1 , . . . , un ) = E ei(u1 X1 +···+un Xn
Z Z
= ··· ei(u1 X1 +···+un Xn f (x1 , . . . , xn ) dx1 . . . dxn
Rn
Como último punto en este aparte, cabe observar que cada una de las varia-
bles aleatorias Xi que conforman el vector aleatorio (X1 , . . . , Xn ) está asociada a
un mismo espacio probabilizado, por lo cual cada una de estas variables tiene su
propia función de probabilidad (de densidad de probabilidad, si es continua). En el
contexto de las variables aleatorias multidimensionales, la función de probabilidad
(o de densidad) de cada variable aleatoria por separado se conoce como función
de probabilidad (densidad) marginal y se obtiene a partir de la función de proba-
bilidad conjunta sumando (o integrando) a través de las otras variables aleatorias
restantes.
Ası́ por ejemplo, si tenemos el vector aleatorio (X,Y ) con su función de pro-
babilidad conjunta p(x, y) (o función de densidad f (x, y) si es continua), podemos
obtener la función de probabilidad marginal del siguiente modo:
Z
pX (x) = ∑ p(x, y) o fX (x) = f (x, y)dy si (X,Y ) es continua
y∈RangoY
R
cov[X,Y ]
ρ[X,Y ] = p
V [X] ·V [Y ]
1.7. VARIABLES ALEATORIAS INDEPENDIENTES 29
Z ∞
fX+Y (y) = fX (x) · fY (y − x)dx
−∞
9
Ver la demostración del Teorema 7.11 en MEYER, p. 145
10
Ver el capitulo 9 de Siegel (1974).
30 UNIDAD 1. REPASO DE TEORÍA DE PROBABILIDADES
Solución
Primero, debemos identificar el espacio muestral subyacente al experimento alea-
torio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede
definir (o modelar, si prefiere) mediante el siguiente conjunto de pares ordenados:
Ω = {(d1 , d2 ) | d1 , d2 ∈ N, 1 ≤ d1 , d2 ≤ 6}
1.8. EJEMPLO PARA LAS SECCIONES 1.6 Y 1.7 31
X
2 3 4 5 6 7 8 9 10 11 12
1 1 1 1 2 2 1 1 1 1
0 36 36 36 36 36 36 36 36 36 36 0
Y 1 2 3 3 4 4 3 2 1 1
1 0 36 36 36 36 36 36 36 36 36 36
X Totales
2 3 4 5 6 7 8 9 10 11 12 fY (y)
1 1 1 1 2 2 1 1 1 1 12
0 36 36 36 36 36 36 36 36 36 36 0 36
Y
1 2 3 3 4 4 3 2 1 1 24
1 0 36 36 36 36 36 36 36 36 36 36 36
1 2 3 4 5 6 5 4 3 2 1
fX (x) 36 36 36 36 36 36 36 36 36 36 36 1
las probabilidades conjuntas para los casos Y = 0 o Y = 1 son distintas. Todo esto
confirma que X e Y son mutuamente dependientes, aunque el grado de dependen-
cia no es total. Otra cosa que seguramente habrás notado es la razón por la cual
las funciones de probabilidad individuales de X y de Y se denominan funciones de
probabilidad marginales: siendo totales de columnas y de filas, se especifican en
los márgenes de la tabla de contingencia.
a) Espacio muestral
b) Evento
c) Variable aleatoria
d) Función de distribución de probabilidades
e) Función de densidad de probabilidades
f ) Funcion de probabilidad
Pero Galileo, en su libro Considerazione sopra il giuoco dei dadi, vio que es-
tas combinaciones no se pueden considerar igualmente probables. Explique
porqué y calcule las probabilidades correspondientes.
16. Se lanza una moneda repetidas veces hasta obtener tres caras en sucesión
y se observa el número total de lanzamientos efectuados (X ).
17. San Pedro llega muy borracho a su casa todas las noches. Para poderse
acostar a dormir en su cuarto, tiene que abrir dos puertas cerradas con llave.
Desgraciadamente (es San Pedro después de todo), su llavero consta de
100 llaves, y está tan borracho que debe tantear las llaves en cada cerradura
de manera aleatoria (cada llave tiene igual probabilidad de usarse en cada
tanteo. Todas las noches su esposa lo observa en este trance. Como buena
cuaima, ella decide que San Pedro dormirá en el sofá si tiene que tantear
más de 7 llaves (pues en ese caso ella considera que estarı́a demasiado
borracho). Esta noche, San Pedro llega a su casa totalmente empapado en
ron- ¿cual es la probabilidad de que le toque dormir en el sofá?
18. En una lı́nea de producción de una fábrica en China se produce cierto tipo
de artı́culo y de esta producción, el 10 % de los artı́culos salen defectuosos.
Debido a la naturaleza del proceso de fabricación, esta probabilidad es cons-
tante para cada artı́culo individual en la lı́nea de producción. Un inspector de
calidad visita la fabrica y toma una muestra aleatoria de 4 artı́culos. ¿Cuál es
la probabilidad de que encuentre uno o más artı́culos defectuosos?
b) P{T = 5}.
c) P{4 ≤ T < 6}.
23. Sea X una variable aleatoria uniformemente distribuida en (0, 1). Demuestre
que la variable aleatoria Y = −2log(X) tiene una distribución χ2 con dos
grados de libertad. Ayuda: la función de densidad de la χ2 con k grados de
libertad es:
1
k
x(k/2−1) e(−x/2) x > 0
f (x; k) = Γ 2 2k/2
0 x≤0
Unidad 2
Introducción a la simulación
estocástica mediante R
37
38 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
Objetivos de la Unidad
Los binarios para la instalación de R para los sistemas operativos más comunes
(Linux, Windows, MacOs o Solaris) se encuentran disponibles para su descarga en
la página principal del proyecto R (CRAN): http://cran.r-project.org/. Si se
ha de usar el R bajo una instalación Linux, que es lo que el autor recomienda, se
sugiere también instalar un IDE3 como el Geany, el cual es bastante fácil de usar.
Junto con este libro se ha incluido un Live CD4 de Linux con R, algunas librerı́as
de utilidad y el Geany instalado. En el apéndice se incluye un breve tutorial sobre
el uso de Geany. La instalación de R para Windows incluye un editor de scripts y
1
Ver Paradis (2002).
2
Consultar en http://stat.cmu.edu/S/.
3
Los IDE son entornos de desarrollo integrados para la edición, compilación, ejecución y depura-
ción de programas en varios lenguajes.
4
El Live CD es un CD de arranque para el sistema operativo Linux, e incluye, además del sistema
operativo, otras aplicaciones, como en este caso R y las librerı́as. Arrancando el computador desde
un Live CD en la unidad lectora, el sistema operativo se monta en memoria RAM y el usuario puede
trabajar sin afectar los contenidos del disco duro de la máquina.
40 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
http://www.mzandee.net/˜zandee/statistiek/rweb/
http://pbil.univ-lyon1.fr/Rweb/ - del Pôle Bioinformatique Lyon-
nais, adscrito a la Universidad de Lyon en Francia, corriendo R 2.11.1.
http://claree.univ-lille1.fr/Rweb/ - de la Universitée Lille1 co-
rriendo R versión 2.9.0.
http://data-engine.tama.ac.jp/Rweb/Rweb.general.html - Ta-
ma University, versión 2.12.1 de R. Este servidor tiene la versión más
actualizada de R.
http://www.unt.edu/rss/Rinterface.htm - University of North Te-
xas corriendo R versión 2.5.1. Este servidor contiene muchos paquetes
complementarios.
4. Debe esperar cierto tiempo para que el servidor RWeb ejecute el script su-
ministrado. Luego se cargará una página web con los resultados.
[1] 0.5
> 2/3+1
[1] 1.666667
> 2/(3+1)
[1] 0.5
> sqrt(2)
[1] 1.414214
> 1.414214ˆ2
[1] 2.000001
5
El caracter de petición, o prompt, usualmente es >.
6
Para los usuarios de Linux con Geany, véase el apéndice.
7
Existen también los factores, que se utilizan para codificar valores de una variable categórica. Sin
embargo, en este curso no nos ocuparemos de este tipo de datos.
8
Las dos constantes lógicas para verdadero y falso son, respectivamente TRUE o T y FALSE o F.
La sintaxis de R es sensible a mayusculas y minúsculas, de modo que usar true o True en vez de
TRUE generarı́a un error.
2.3. BREVE INTRODUCCIÓN AL LENGUAJE R 43
> paste("aritmetica",2+2)
> paste("procesos","estocasticos",sep="")
[1] "procesosestocasticos"
[1] TRUE
> 2+2!=5
[1] TRUE
> 3>5
[1] FALSE
[1] FALSE
[1] TRUE
9
Además de los paréntesis (), también se pueden utilizar las llaves {}.
44 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
> !TRUE
[1] FALSE
En lo anterior, observe los operadores de comparación lógicos (==, !=, >, etc.),
ası́ como también los operadores booleanos propiamente dichos (| es el operador
de disyunción lógica, & es el operador de conjunción lógica y ! es el operador de
negación).
> raiz2
[1] 1.414214
> raiz2ˆ2
[1] 2
> raiz2ˆ2==2
[1] FALSE
> length(vec)
[1] 6
[1] "a" "b" "c" "1" "2" "3" "c" "b" "a"
> length(vec)
[1] 9
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14
[15] 15 16 17 18 19 20 21 22 23 24 25 26 27 28
[29] 29 30 31 32 33 34 35 36 37 38 39 40 41 42
[43] 43 44 45 46 47 48 49 50 51 52 53 54 55 56
[57] 57 58 59 60 61 62 63 64 65 66 67 68 69 70
[71] 71 72 73 74 75 76 77 78 79 80 81 82 83 84
[85] 85 86 87 88 89 90 91 92 93 94 95 96 97 98
[99] 99 100
46 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
> seq(0,1,0.1)
[1] 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Este último ejemplo ayuda a dilucidar un poco la pregunta que nos hicimos an-
teriormente sobre el [1] al comienzo de las expresiones de salida en los primeros
ejemplos. El 1 en [1] representa el primer elemento del vector10 . A lo largo de
todos estos ejemplos, inclusive aquellas expresiones que generaban un solo da-
to elemental, el interprete R devuelve vectores al evaluar dichas expresiones, aún
cuando en los primeros casos, los vectores eran de longitud 1.
[1] 2
> a[50]
[1] 100
> a[80]
[1] NA
> a[5:9]
[1] 10 12 14 16 18
[1] 24 26 28 30 32 34 36 38 40 42 44 46 48
[1] 1 4 9 16 25 36 49 64 81 100
El de arriba fue nuestro primer script. Observe que los comentarios se indi-
can colocando el caractér numeral (#) como primer caractér - a partir del sı́mbolo
numeral, el resto de la lı́nea será considerada como comentario. Es una buena
práctica colocar comentarios abundantemente. Más aún, una buena práctica pa-
ra programar consiste en elaborar el algoritmo en seudocódigo, colocándolo como
comentarios, y luego rellenar el esqueleto del programa con código verdadero en
el lenguaje de programación. El while se sigue de una expresión entre paréntesis
que indica la condición lógica que ha de cumplirse para seguir en el bucle. Des-
pués de la condición lógica entre paréntesis, todo el cuerpo del bucle se indica
encerrándolo entre llaves { ...}, tal como se hace en C. Aún cuando la indenta-
48 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
[1] 1 4 9 16 25 36 49 64 81 100
No solo es el script 2 2.R más elegante y más breve (menos lı́neas de código)-
es también más rápido que el script 2 1.R, aunque la diferencia entre un while
y un for realmente se nota cuando se recorren secuencias mucho más largas.
El uso del for como estructura de control para iterar en un bucle una cantidad
predeterminada de veces es algo estándar en los lenguajes de programación pro-
cedimentales, pero en R, tampoco es lo más eficiente (o elegante).
cas, como vimos arriba. Otra forma es aplicar una función directamente a través
de todos los elementos de un vector, lo cual es posible porque R soporta la pro-
gramación funcional. De hecho, casi todas las funciones definidas o definibles en
R son vectorizables. En nuestro caso, para hallar los cuadrados de los 10 primeros
números naturales, solo tendrı́amos que ejecutar lo siguiente:
1 # -------------------------------------------------------------
2 # 2_3. R
3 # script para generar el cuadrado de los únmeros del 1 al 10
4 # autor : éJos L. Romero P.
5 # fecha : 13/08/2011
6 # -------------------------------------------------------------
7 b <- (1:10)ˆ2
8 b
[1] 1 4 9 16 25 36 49 64 81 100
Se han expuesto los rudimentos del lenguaje R. Aunque todavı́a hay muchas
funcionalidades del lenguaje por ver, estamos en condiciones de abordar un primer
problema de simulación.
50 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
Solución
Muchas personas, inclusive matemáticos, concluyen erróneamente que no es parti-
cularmente más ventajoso cambiar de puerta razonando que una vez que el anima-
dor abre una de las puertas que no contiene el carro, las probabilidades de ganar o
perder son iguales ( 21 ) si se cambia de puerta o no. Sin embargo, un análisis cuida-
doso de las probabilidades demuestra que la probabilidad de ganar cambiando de
puerta es de 23 . Se deja como tarea verificar esto de forma teórica. En lo que sigue
nos interesa más bien simular la situación. Para esto debemos especificar lo más
detalladamente posible la secuencia de pasos en cada juego:
Paso 3 El animador (Monty Hall), sabiendo donde está el carro, escoge una puerta
que no sea la que optó el concursante ni la que contiene el carro y la abre,
revelando que hay una cabra detrás de esa puerta. Si queda una sola puerta
elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos
puertas elegibles, Monty escoge cualquiera de las dos al azar.
cat - Es una función que concatena las cadenas en sus argumentos e im-
prime el resultado al terminal. Es una función de E/S básica del R.
Solución
Para comenzar, denotemos por X e Y el instante de tiempo dentro de una hora a
la cual llega cada empresario respectivamente. Según la última parte del enuncia-
do que establece que “cada uno llega independientemente del otro y en cualquier
instante aleatorio en el lapso de esa hora”, se desprende que tanto X como Y son
variables aleatorias continuas independientes y uniformemente distribuidas entre 0
y 60 (se trabajará el problema en base al lapso de 60 minutos). Para que los em-
presarios se encuentren, la diferencia en valor absoluto de los tiempos de llegada
de uno y otro debe ser menor o igual a 10 minutos. Es decir, se quiere calcular
P{|X −Y | ≤ 10}. Claramente, esta diferencia en valor absoluto varia entre 0 y 60
minutos, pero aún no se ha determinado la distribución de probabilidad de |X −Y |.
Quizás haya podido llegar a este punto de la solución, aunque quizás no se-
pa como proceder a partir de ahı́- es precisamente en ayudar a dilucidar este tipo
de situaciones en que radica la valı́a de la simulación. Para el problema en cues-
tión, ésta va a consistir básicamente en generar una distribución empı́rica de un
número suficientemente grande de valores |X − Y | basados en números aleato-
rios uniformemente distribuidos según lo expuesto en el análisis anterior. Sin más
preámbulos, se da el código de la simulación en R a continuación:
1 # ---------------------------------------------------------------
2 # 2_5. R ( El encuentro )
3 # autor : Jose L. Romero P.
4 # fecha : 18/08/2007
5 # ---------------------------------------------------------------
6 N <- 1000000 # numero de repeticiones
7 # determina la distribucion de |X -Y| cuando
54 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
Z
60−d
1 60 − d
f|X−Y | (d) = 2 · 2
dt = ,donde d asume valores entre 0 y 60
60 1800
0
Z60 Z60
60 − z
f|X−Y | (z)dz = dz
1800
0 0
z z2 60
= − =1
30 3600 0
Z10
z z2 10
P{|X −Y | ≤ 10} = f|X−Y | (z)dz = −
30 3600 0
0
1 1 11
= − = = 0, 3055
3 36 36
En este curso se hará un uso intensivo de simulaciones como estas para apoyar
resultados sobre los procesos estocásticos deducidos teóricamente. La discusión
detallada sobre las técnicas de simulación per se es marginal a los objetivos prin-
cipales de curso y se cubre en el curso de Simulación y Modelos. Sin embargo, en
vista de los objetivos que se persiguen en este curso, es importante puntualizar las
siguientes ideas sobre la técnica de simulación, tal como la emplearemos a lo largo
del libro:
5. Considere el siguiente script en R que recorre todos los números del vector
vec y suma aquellos números que sean divisibles por 3:
vec <- c(2 ,6 ,15 ,17 ,5 ,9 ,18 ,3 ,1 ,7) # vector de prueba
suma <- 0
for (i in 1:length(vec)) {
if (vec[i] % %3==0) suma <- suma+vec[i]
}
suma
[1] 51
8. Cuatro caballos, Pedro poco dientes, Tres pelos, El burro Machey y Mi potro
siniestro han corrido juntos en el Clásico de Múcura muchas veces. A conti-
nuación se dan las frecuencias relativas con las que cada caballo ha ganado
la carrera:
Frecuencia con la
Caballo
que ha ganado
Pedro poco dientes 0,40
Tres pelos 0,10
El burro Machey 0,30
Mi potro Siniestro 0,20
Resultado Probabilidad
(2,0,0) 1/9
(0,1,1) 2/9
(1,1,0) 2/9
(0,2,0) 1/9
(1,0,1) 2/9
(0,0,2) 1/9
11. Se efectúa un curioso duelo con pistolas entre tres personas, cada uno con
una determinada probabilidad de acertar el tiro según se indica a continua-
ción:
Participante Probabilidad de
del duelo acertar el tiro
A 0,3
B 1
C 0,5
12. Partiendo desde su casa en el vértice O, una persona decide visitar a sus
amigos, ubicados en los vértices A, B, C y D del siguiente grafo:
t t
A B
❅
❅
❅Ot
❅
❅
t ❅t
❅
C D
60 UNIDAD 2. INTRODUCCIÓN A LA SIMULACIÓN Y AL R
Al salir de su casa, escoge al azar uno de los cuatro caminos que conducen
a la casa de algún amigo. Desde allı́, escoge al azar uno de los tres caminos,
que lo llevan a la casa de otro amigo o de vuelta al vértice O12 . El tour conti-
nua hasta que regresa de nuevo a su casa en el vértice O. Escriba un script
en R para calcular, por medio de una simulación, el promedio de la cantidad
de amigos que se visitan antes de regresar a casa.
12
Suponga que sus amigos nunca se cansan de recibir sus visitas.
Unidad 3
Respuesta de un lector:
“He tenido problemas anteriormente con esos si-
mios estocásticos. Tan pronto aprenden a escribir
un ensayo de 12 lı́neas, como ’Qué hice duran-
te las vacaciones de verano’, piensan que tienen
un don de Dios para la literatura y antes de que
pueda decir ’To be or not to be’, se marchan pa-
ra Hollywood a conseguir trabajo como guionistas,
donde sobran personas que les brinden daiquiris
de banana. Después de un tiempo se aburren y
buscan trabajo como actores en peliculas de Tar-
zan. A partir de ahı́ comienza el declive...”
T EPUY I
2008
Ini Toledo
61
62 UNIDAD 3. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS
Objetivos de la Unidad
espaciales.
Ft1 ,...,tn x1 , . . . , xn = P{X(t1 ) ≤ x1 , . . . , X(tn ) ≤ xn }
En la práctica, es muy difı́cil, sino imposible, obtener las funciones finito- dimen-
sionales para todo conjunto de ı́ndices (t1 ,. . .,tn ) y todo n, por lo cual se definen las
funciones de distribución de primer y segundo orden. La función de distribución de
primer orden se corresponde a la distribución de la variable aleatoria en un tiempo
determinado:
T
P (A B)
P (A | B) =
P (B)
donde pX,Y es la función de probabilidad conjunta del par aleatorio (X,Y ). La varia-
ble aleatoria discreta que tiene tal función de probabilidad se denota por Y |X = xm .
Se recalca que Y |X = xm es una variable aleatoria que asume valores yn con las
probabilidades condicionales indicadas arriba. Además, si X e Y son independien-
tes, Y |X = xm e Y tienen la misma distribución. Siendo Y |X = xm una variable
aleatoria, tiene su esperanza matemática asociada, que es:
E [Y |X = xm ] = ∑ y · P (Y = y|X = xm )
sobre y
E [Y |X1 , . . . , Xn ] = f (X1 , . . . , Xn )
donde f esta definida para cualquier vector (α1 , . . . , αn ), con αi ∈ E por
Z
g(α1 , . . . , αn ) = E [Y |X1 = α1 , . . . , Xn = αn ] = y · f (y|α1 , . . . , αn ) dy (3.2.4)
sobre y
Propiedad 2
Si Y puede escribirse como función de X1 , . . . , Xn , es decir Y = f (X1 , . . . , Xn ),
entonces E [Y |X1 , . . . , Xn ] = Y
Propiedad 3
Como
E [Y |X1 , . . . , Xn ] es una variable aleatoria, esta tiene esperanza y es
E E[Y |X1 , . . . , Xn ] = E[Y ]
Propiedad 4
Para n, m ≥ 1 se tiene E [E [Y |X1 , . . . , Xn+m ] |X1 , . . . , Xn ] = E [Y | X1 , . . . , Xn ]
Propiedad 5
Sean X1 , . . . , Xn y Y1 , . . . ,Ym dos conjuntos de variables aleatorias tales que
si se conoce los valores de uno se puede determinar los valores del otro,
entonces, para cualquier Y se tiene E [Y |X1 , . . . , Xn ] = E [Y |Y1 , . . . ,Ym ].
Propiedad 6
Si X e Y son independientes, entonces E[X|Y ] = E[X] y E[Y |X] = E[Y ], casi
siempre.
Solución
Cada vez que el Ladrón de Bagdad escoge una de las tres puertas constituye un
ensayo de Bernoulli con 1/3 probabilidad de éxito, entendiendo por éxito abrir la
puerta que conduce a la libertad. Un primer abordaje del problema nos motiva
a considerar el número de ensayos N que realiza el ladrón antes de conseguir su
libertad, lo cual serı́a una variable aleatoria geométricamente distribuida. Pero acla-
rando que N representa el número de ensayos fallidos antes de escoger la puerta
hacia la libertad, por lo cual su función de probabilidad y su valor esperado son los
que se dan a continuación:
Sn = X1 + . . . + XN
1
P{Xi = 1} = P{Xi = 3} =
2
En términos
de esperanzas condicionales,
estamos interesados en encontrar
E E[Sn |N] = E E[Xi + . . . + Xn |N] . Habida cuenta que E[Sn |N] es una variable
aleatoria, que los Xi son variables aleatorias independientes con igual esperanza y
que a su vez son independientes de N , se tiene que:
q 1 1
E E[Sn |N] = E E[X1 + . . . + Xn | | N] = E[N] · E[Xi ] = · 1 · + 3 ·
p 2 2
= 2·2 = 4
12 for (i in 1:N) {
13 total.dias <- 0
14 dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
15 while (dia.i!=0) {
16 total.dias <- total.dias+dia.i
17 dia.i <- sample(c(0 ,1 ,3) ,1 ,replace=TRUE)
18 }
19 x<-c(x,total.dias)
20 }
21
X(t) = X0 +V · t
menos intuitivamente) que si conocemos las distribuciones de Y (t0 ),Y (t1 ), . . . ,Y (tn )
podemos determinar la distribución conjunta de X(t0 ), X(t1 ), . . . , X(tn ). Esto se
puede verificar mediante la función caracterı́stica conjunta y la propiedad de in-
dependencia de los incrementos. Por una parte, según esto último:
ϕY (t0 ),...,Y (tn ) u0 , · · · , un = ϕY (t0 ) u0 · · · ϕY (tn ) un (3.4.1)
u0 X(t0 )+u1 (X(t1 )−X(t0 ))+...+un (X(tn )−X(tn−1 ))
ϕY (t0 ),...,Y (tn ) u0 , · · · , un = E ei
= E ei (u0 −u1 )X(t0 )+(u1 −u2 )X(t1 )+...+(un−1 −un )X(tn−1 )+un X(tn−1 )
= ϕX(t0 ),...,X(tn ) (u0 − u1 , · · · , un−1 − un , un ) (3.4.2)
o equivalentemente:
u0 = z0 + . . . + zn , u1 = z1 + . . . + zn , ... , un = zn
La primera de estas condiciones es más bien para facilitar un poco las ma-
temáticas en el manejo de las martingalas y la segunda si resume en esencia lo
76 UNIDAD 3. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS
que es la martingala- establece que el valor esperado del próximo estado futuro del
proceso dado toda su historia pasada es simplemente el estado actual del proceso.
En los procesos de Markov, el estado actual del proceso incorpora toda la in-
formación que necesitamos para estimar el estado futuro y la probabilidad de un
comportamiento futuro no se altera si incorporamos información sobre el pasado
del proceso. Un proceso de Markov con espacio de estado finito o numerable se
denomina cadena de Markov , que se estudiará posteriormente en este curso.
(II) Para dos instantes de tiempo s y t tales que s < t , la cuenta de eventos
N(t) − N(s) acaecidos en el intervalo de tiempo (s,t) es distribuida según
la ley de Poisson con media λ(t − s). A saber:
k
−λ(t−s) λ(t − s)
P{N(t) − N(s) = k} = e
k!
3
Ver QUIDEL, p. 440
3.5. ALGUNOS TIPOS DE PROCESOS ALEATORIOS 77
(IV) X(0) = 0.
n
X|X +Y = s ∼ Hipergeométrica n + m, s,
n+m
Solución
La suma X +Y de dos variables aleatorias binomiales e independientes es una va-
riable aleatoria binomial:
m n m+n
ϕX+Y (u) = ϕX (u)ϕY (u) = q + p eiu · q + p eiu = q + p eiu
n
X|X +Y = s ∼ Hipergeométrica n + m, s,
n+m
Solución
Para este problema se utilizarán las seis propiedades de la esperanza condicional
(ver sección 3.2) y la independencia de los incrementos.
Solución
80 UNIDAD 3. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS
E[Sn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
= E[Sn + Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ] ➒ definición de Sn
= E[Sn |S1 = s1 , S2 = s2 , . . . , Sn = sn ]
+E[Xn+1 |S1 = s1 , S2 = s2 , . . . , Sn = sn ] ➒ Propiedad 1 de la esperanza
condicional
= sn + E[Xn+1 ] ➒ Propiedad 2; Propiedad 6
= sn + 0 = sn ➒ E[Xn ] = 0 para todo n
λ1
X|X +Y = s ∼ Binomial s,
λ1 + λ2
5. Demuestre que si X ∼ Poisson(λ) y si Y |X = x ∼ Binomial(x, p), entonces
Y ∼ Poisson(λ p).
6. Demuestre que si X ∼ Geométrica(p), entonces P{X = m + n|X > m} =
P{X = n}. Esto confirmarı́a la propiedad de “falta de memoria” de la distri-
bución geométrica: la información que no hubo éxitos en m pruebas (X > m)
es olvidada si se realizan más pruebas (X = m + n).
11. Demuestre que los incrementos de una caminata aleatoria son independien-
tes y estacionarios.
a) P{Zi > 5}
b) P{−3 < Zi < 5}
c) P{Zi = 1}
15. (La cadena de Ehrenfest) Motivado por problemas relacionados con la mecáni-
ca estadı́stica T. Ehrenfest describió un experimento con 2 urnas, dentro de
las cuales están distribuidas N moléculas. En cada paso del experimento,
se escoge al azar una molécula, esta es removida de la urna en la cual se
encuentra y es colocada en la otra urna. Ası́, si se escoge una molécula de
la urna A, esta es removida de A y colocada en B y viceversa. El estado
del proceso está determinado por el número de moléculas presentes en la
urna A a cada paso del experimento. Justifique que el proceso estocástico
{Xn |n ∈ N} definido por Xn = cantidad de moléculas presentes en la urna A
al instante n, n ∈ N, es una cadena de Markov. Dé su espacio de estados.
17. Demuestre que un proceso de ruido blanco con parámetro discreto tiene
incrementos independientes.
18. Determine las condiciones bajo las cuales un proceso de ruido blanco es una
martingala.
19. Determine las condiciones bajo las cuales una caminata aleatoria es una
martingala.
Caminatas Aleatorias y
Movimiento Browniano
85
86 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
Objetivos de la Unidad
El objetivo general de esta Unidad es hacer una exposición de una familia de proce-
sos estocásticos denominados como caminata aleatoria. Ası́ mismo, se hace una
exposición del movimiento browniano y de su relación con la caminata aleatoria.
Al término de la misma, se quiere que el estudiante logre los siguientes objetivos
especı́ficos:
(a) Un inspector de calidad verifica si los productos de una lı́nea de ensamblaje son
defectuosos observando una secuencia de productos. Si el i-ésimo producto
es defectuoso, registra Xi = 1, de lo contrario anota Xi = 0 . Si los defectos
se deben a causas aleatorias de modo que la presencia de defectos en un
producto es independiente de la presencia de defectos en los otros productos,
y si además, la proporción p de artı́culos defectuosos se mantiene constante a
través de todas las observaciones, {Xi |i ≥ 1} es un proceso de Bernoulli.
4.2. LA CANTIDAD DE ÉXITOS 87
(b) Se monta una alcabala policial en un determinado punto y se paran a todos los
conductores que por ella transitan para verificar si portan armas, conducen un
vehı́culo robado o presentan alguna otra irregularidad. Bajo condiciones simila-
res a las del ejemplo anterior, si la probabilidad de que un conductor presente
alguna irregularidad es constante e independiente entre los conductores que
van transitando por la alcabala, la situación descrita se puede modelar adecua-
damente mediante un proceso de Bernoulli.
En todos estos casos, las variables constituyentes del proceso de Bernoulli re-
presentan experimentos aleatorios con dos posibles resultados- éxito o fracaso. En
un proceso de Bernoulli, las variables aleatorias constituyentes son idénticamen-
te distribuidas e independientes entre sı́. Este modelo estocástico básico da pié a
otros tipos de procesos estocásticos que se describirán a continuación.
n
Sn = ∑ Xi (4.2.1)
i=1
n n n
E[Sn ] = E ∑ Xi = ∑ E[Xi ] = ∑ p = np (4.2.2)
i=1 i=1 i=1
n n n
V [Sn ] = V ∑ Xi = ∑ V [Xi ] = ∑ pq = npq (4.2.3)
i=1 i=1 i=1
Esta simulación genera una trayectoria del proceso simular a la de la figura 4.1.
La lı́nea verde oscura representa la función de valor medio del proceso estocástico
y se verifica que la trayectoria (representada por las lı́neas negras tipo “escalera”)
se acercará, en promedio, a la curva de la función de valor medio. Observese que
primero se genera la trayectoria (simulada) de {Xi |1 ≤ i ≤ n} a la cual corresponde
el vector b (lı́nea 9 del script). Seguidamente, el vector s (trayectoria de {Si |1 ≤ i ≤
n} se genera mediante la función en R cumsum, la cual acumula progresivamente
los elementos del vector b (cumsum significa “suma acumulada”). Por supuesto,
S0 = 0 siempre.
Figura 4.1: Trayectoria generada por simulación de una caminata aleatoria basada en un proceso
de Bernoulli: cantidad de éxitos en el i-ésimo ensayo. La probabilidad de éxito es p = 0, 4 y la curva
verde se corresponde a la función de valor medio (mS (i) = 0, 4 · i)
n
ϕSn (u) = ϕX1 +X2 +...+Xn (u) = ϕXi (u)n = q + peiu
la más expedita para nosotros es tomar en cuenta que este proceso es, después de
todo, una caminata aleatoria; cada variable Tk es una sumatoria de k incrementos
independientes e idénticamente distribuidos, es decir:
Como damos por hecho que los incrementos se distribuyen según la misma ley
geométrica, entonces la función caracterı́stica de Tk es:
k
peiu
ϕTk (u) =
1 − qeiu
n−1
k−1 pk qn−k si n ≥ k
pTk (n) =
0 si n < k
Figura 4.2: Trayectoria generada por simulación de una caminata aleatoria basada en un proceso
de Bernoulli: cantidad de ensayos hasta el i-ésimo éxito. La probabilidad de éxito es p = 0, 4 y la
i
curva verde se corresponde a la función de valor medio (mS (i) = 0,4 )
Para reforzar el aprendizaje del contenido de las secciones 4.1 - 4.3 se plantean
los ejercicios a continuación. En lo que sigue, se asume que {Si |i ≥ 1} se refiere
a una caminata aleatoria basada en un proceso de Bernoulli con probabilidad de
éxito en cada ensayo igual a p y cuyas variables aleatorias Si se corresponden a la
cantidad de éxitos en i ensayos.
94 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
(d) E[S3 S5 ].
Solución
4 2 2
P{S7 − S3 = 2} = P{S4 = 2} = p q = 6p2 q2
2
(b)
P{S3 = 2, S5 = 4, S1 1 = 7} = P{S3 = 2, S5 − S3 = 2, S1 1 − S5 = 3}
Solución
(a)
= E[T6 − T3 + T3 |T3 ]
propiedad 1 de la esperanza condicional
= E[T6 − T3 |T3 ] + E[T3 |T3 ] ➒ (linealidad)
= E[T6 − T3 ] + T3 ➒ Proposición 4.2 y propiedad 2
3
= + T3 ➒ T6 − T3 es binom. negativa con r = 3
p
n
Fn = ∑ Xi
i=0
Teorı́a de Juegos, se trata de un juego de suma cero1 . Asumamos que este juego
de suma cero termina cuando alguno de los participantes se arruina, lo cual ocurre
cuando la fortuna del jugador alcanza los T BF, en cuyo caso se arruinó la casa, o
la fortuna del jugador llega a 0 BF, en cuyo caso se arruinó él. Los estados 0 y T
de la fortuna del jugador se denominan barreras absorbentes , porque una vez que
la trayectoria toca alguno de esos estados, jamás sale de ellos.
Luego:
1
Los juegos en los que los intereses de los jugadores son diametralmente opuestos se llaman de
suma cero. El término “suma cero” se deriva de los juegos de salón tales como el poker en el que la
riqueza ni se crea ni se destruye. Ası́ pues, un jugador gana dinero siempre a expensas de los otros
jugadores. Para ampliar más sobre la teorı́a de juegos, ver Davis (1971), p. 28.
98 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
P ruina ∩ {Fn = x}
= P ruina ∩ {Fn = x} ∩ {Xn+1 = 1} ∪ {Xn+1 = −1}
= P ruina ∩ {Fn = x} ∩ {Xn+1 = 1}
+ P ruina ∩ {Fn = x} ∩ {Xn+1 = −1}
P ruina{Fn = x} · P{Fn = x} (4.5.3)
= P ruina {Fn = x} ∩ {Xn+1 = 1} · P {Fn = x} ∩ {Xn+1 = 1}
+ P ruina{Fn = x} ∩ {Xn+1 = −1} · P {Fn = x} ∩ {Xn+1 = −1}
= P ruina{Fn = x} ∩ {Xn+1 = 1} P{Fn = x}P{Xn+1 = 1}
+ P ruina{Fn = X} ∩ {Xn+1 = −1} P{Fn = x}P{Xn+1 = −1}
• P ruina
{Fn = x} ∩ {Xn+1 = 1}
= P ruina{Fn+1 = x + 1} = Rx+1
(4.5.4)
• P ruina
{Fn = x} ∩ {Xn+1 = −1}
= P ruina{Fn+1 = x − 1} = Rx−1
an = α · an−1 + β (4.5.5)
q
Rx+1 − Rx = (Rx − Rx−1 ) (4.5.6)
p
x−1
q
Rx − Rx−1 = (R1 − R0 )
p
T x−1
T
q
RT − R0 = ∑ Rx − Rx−1 = ∑ (R1 − R0 )
x=1 x=1 p
T −1 x
q
−1 = RT − R0 = (R1 − R0 ) ∑ p
x=0
1
Si p = q = 12 (R1 − R0 ) = − (4.5.7a)
T
1 − qp
Si p 6= q (R1 − R0 ) = T (4.5.7b)
q
p −1
x i−1
x
q
Rx − R0 = ∑ Ri − Ri−1 = ∑ (R1 − R0 ) →
i=1 i=1 p
x i−1 x−1 i
q q
Rx = R0 + ∑ (R1 − R0 ) = 1 + (R1 − R0 ) ∑
i=1 p i=0 p
1 x T −x
Si p = q = , Rx = 1 − = (4.5.8a)
2 T T
x T x
1 − qp q
p − qp
Si p 6= q, R x = 1 + T = T (4.5.8b)
q q
p −1 p −1
En el script 4 3.R hay algunos elementos interesantes que vale la pena ex-
plicar en más detalle. Primeramente, se dan ejemplos de cómo definir funciones
mediante el operador de asignación (<-) y la palabra reservada function seguida
de los argumentos formales entre paréntesis y un conjunto de expresiones ence-
4.5. LA RUINA DEL JUGADOR 103
rradas entre corchetes ({}). El valor que retornará la función será equivalente a
la última expresión del grupo de expresiones entre corchetes o aquél que se indi-
que mediante el return. Las funciones replicate (lı́nea 26) y sapply (lı́nea 33
y lı́neas 42-46) son caracterı́sticas de la programación funcional y junto con otras
funciones como lapply, tapply, mapply, Vectorize y otras afines, aplican la
función dada en su argumento a través de todos los elementos de una estructura
de datos compuesta (vector, lista, etc.) proporcionada como argumento. La prime-
ra, replicate, se invoca con dos argumentos: replicate(n,expr). La función
entonces evalúa la expresión indicada por expr n veces y devuelve un vector de
longitud n cuyos componentes son el resultado de la evaluación reiterada de expr.
El uso de replicate es mucho más eficiente que emplear un for e ir concatenan-
do progresivamente las expresiones a un vector mediante llamadas a c en cada
ciclo del for. La función sapply(X,FUN) aplica la función proporcionada como ar-
gumento FUN a cada elemento del vector X, devolviendo un vector de igual longitud
que X. Nótese que la función FUN se puede definir ad hoc, como se muestra en las
lı́neas 33 y 43-45.
Figura 4.3: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,5
104 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
Figura 4.4: Probabilidades de ruina para distintos capitales iniciales. El capital total
es T = 10 y la probabilidad de ganar 1 BF en cada turno es p = 0,6
una cantidad finita de partidas, aún cuando es posible concebir, por ejemplo, una
trayectoria del juego donde las partidas resulten +1,-1,+1,-1, ad infinitum. La finitud
de la duración del juego no es algo que se pretende demostrar formalmente aquı́-
el autor solo se limita a señalar la evidencia empı́rica: el programa de la simula-
ción en R anterior, en donde se simulan series de 1000 partidas para cada nivel
de capital inicial del jugador, eventualmente termina. Quizás a modo de apologı́a,
téngase en cuenta además que uno de los objetivos básicos que nos trazamos en
este curso es el de complementar la verificación formal con la verificación empı́rica
(la simulación), o valerse de la investigación empı́rica para inferir hechos que no se
está en capacidad de demostrar formalmente.
Dx = E[Tx ]
Dx = E[Tx ] = ∑ bP{Tx = b} =
b
= ∑ b(P{Tx = b ∩ X1 = +1} + P{Tx = b ∩ X1 = +1}) =
b
= ∑ b(pP{Tx = b|X1 = +1} + qP{Tx = b|X1 = −1}) =
b
= p ∑ bP{Tx = b|X1 = +1} + q · ∑ bP{Tx = b|X1 = −1} =
b b
= pE[Tx |X1 = +1] + qE[Tx |X1 = −1] =
= p(Dx+1 + 1) + q(Dx−1 + 1) =
= pDx+1 + qDx−1 + 1 (4.6.3)
q 1
Dx+1 − Dx = (Dx − Dx−1 ) − (4.6.4)
p p
4.6. DURACIÓN PROMEDIO DEL JUEGO 107
para p 6= q:
x
x 1 − qp
q
Dx+1 − Dx = p (D1 − D0 ) −
p 1 − qp
x
q
x 1− p
q
= p (D1 − D0 ) − (4.6.5a)
p−q
y para p = q:
x
Dx+1 − Dx = (D1 − D0 ) − = (D1 − D0 ) − 2x (4.6.5b)
p
Vamos a abordar primero el caso en que p 6= q , que parece ser el más sencillo
(modo irónico on). Como en el problema de la ruina del jugador, no conocemos
D1 − D0 , pero sustituyendo la expresión para Dx+1 − Dx hallada en el desarrollo
anterior nos permitirá a su vez hallar D1 − D0 :
T −1
0 = DT − D0 = ∑ Dk+1 − Dk
k=0
k
q
T −1 k 1− p
q
= ∑ p (D1 − D0 ) −
p−q
=⇒
k=0
T −1
T 1 k
q
p−q
= D1 − D0 + ∑
p − q k=0 p
1− q T
1 p
= D1 − D0 + =⇒
p−q 1 − qp
T 1
D1 − D0 = T − p − q
p 1 − qp
108 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
k
q
x−1 x−1 k 1− p
q
Dx = Dx − D0 = ∑ Dk+1 − Dk = ∑ p (D1 − D0 ) −
p−q
k=0 k=0
x−1
k
−x 1 q
=
p−q
+ D1 − D0 + ∑ p
p − q k=0
x
q
T 1 − p x
= T q −
1 − p − q
p 1 − qp p
x
T 1 − qp x
= T − p − q (4.6.6a)
(p − q) 1 − qp
T −1
0 = DT − D0 = ∑ Dk+1 − Dk
k=0
T −1
= ∑ (D1 − D0 ) − 2k = T (D1 − D0 ) − T (T − 1) =⇒
k=0
D1 − D0 = T − 1
x−1 x−1
Dx = Dx − D0 = ∑ Dk+1 − Dk = ∑ (D1 − D0 − 2k)
k=0 k=0
x−1
= ∑ (T − 1 − 2k)
k=0
Si le interesa ver una forma alternativa de deducir las formulas para la duración
promedio del juego o la probabilidad de ruina del jugador, puede consultar el libro
de la UNA3 . También es posible deducir estas fórmulas mediante los métodos de
resolución de ecuaciones en diferencias de segundo orden. En lo tangente a las
fórmulas (4.6.6a) y (4.6.6b), se deja al lector como ejercicio la verificación empı́rica
mediante una simulación en lenguaje R (ver problema propuesto N° 16).
(a) (b)
5
Ver Brown (1828).
6
Ver Nelson (2001), p. 8
4.8. MOVIMIENTO BROWNIANO 113
rerum natura7 (Sobre la naturaleza de las cosas), que se traduce en los siguientes
términos:
(I) X(0) = 0.
11
Ver Nelson (2001), p. 16.
12
Ver Parzen (1962), p. 29.
13
Ver Nelson (2001), p. 17.
14
Este proceso es homónimo de Norbert Wiener (1894,1964), matemático estadounidense, quien
lo definió en 1923.
15
La posición inicial es el origen, o cero (ver apartado (i) en la definición.
16
Feller acota que esta aproximación fue seguida por L. Bachelier y posteriormente motivo a A.
Kolmogorov a desarrollar los fundamentos formales de los procesos de Markov. Bachelier fue el
primer investigador en modelar matemáticamente la dinámica del movimiento browniano, aplicándolo
a la evaluación de precios en los mercados de valores. Aquı́ se expone una versión más simplificada
de dicho enfoque.
17
Ver Feller (1968), XIV.6.
4.8. MOVIMIENTO BROWNIANO 115
n
X(t + 1) − X(t) = ∑ Zi
i=1
Zi = δ (2Bi − 1)
P{Zi = −δ} = q = 1 − p (4.8.1)
P{Zi = +δ} = p
n
X(t + 1) − X(t) = ∑ Zi
i=1
n
= ∑ δ (2Bi − 1) = δ (2Sn − n)
i=1
X(t + 1) − X(t) ∼ Normal 0, σ2
Los incrementos más generales, como por ejemplo X(t) − X(s), para 0 ≤ s ≤ t ,
se expresan como sumas de n (t − s)18 variables aleatorias de tipo Zi . Efectuando
los cálculos correspondientes y basándose en razonamientos similares a los utili-
zados anteriormente, se determina que:
X(t) − X(s) ∼ Normal 0, σ2 (t − s)
Como los ensayos de tipo binomial representados por los Zi son estocástica-
mente independientes y equidistribuidos, y en virtud de que dos incrementos no
superpuestos de tipo X(t) − X(s) se componen de series de ensayos Zi no super-
puestos y por lo tanto independientes, se sigue que el {X(t)|t ≥ 0} ası́ caracteriza-
do, es un proceso de incrementos independientes y estacionarios. Adicionalmente
18
Se requiere que n (t − s) sea entero, pero t − s es real. Esto no presenta mayores problemas
porque n es un número muy grande.
4.8. MOVIMIENTO BROWNIANO 117
Para este último caso, se generaliza la definición del proceso de Wiener dada
anteriormente definiendo un nuevo proceso estocástico, denominado proceso de
Wiener generalizado u homogéneo con desplazamiento, en función del proceso de
Wiener con media nula:
n
∑ (Xi −X)2
19 2
Por Sn−1 se denota la varianza muestral insesgada, definida como i=1
.
n−1
118 UNIDAD 4. CAMINATAS ALEATORIAS Y MOVIMIENTO BROWNIANO
Estas cuestiones nos remiten de nuevo al problema de la ruina del jugador, que
ya hemos visto en secciones precedentes. Recordemos que las fórmulas (4.5.8) y
(4.6.6) para la probabilidades de ruina y la duración promedio del juego, respecti-
vamente, fueron deducidas a partir de los siguientes supuestos:
1. Los montos de los capitales (x, y y T ) son siempre cantidades enteras ma-
yores o iguales a cero. En el contexto del movimiento browniano, esto serı́a
equivalente a limitar la posición de la partı́cula a puntos enteros durante toda
su trayectoria a lo largo de la recta real.
µ
E[Zi ] = −δ(1 − p) + δp = δ(2p − 1) =
n
σ2 µ 2
E[Zi2 ] 2
=δ = +
n n
1
p
δ = nnσ2 + µ2
√ (4.9.1)
µ+ nσ2 +µ2
p = √ 2 2
2 nσ +µ
también el capital inicial x son cantidades enteras positivas. Por otra parte, δ no
será necesariamente igual a 1. Para sortear estos inconveniente, se transforman
las coordenadas a, b y x0 a las correspondientes coordenadas (números naturales)
que son los parámetros del problema de la ruina del jugador. En lo que sigue, [·]
denota la función de redondeo de un real al entero más cercano:
" #
b−a
T =n p
2 2
" nσ + µ # (4.9.2)
x0 − a
x =n p
nσ2 + µ2
p !n √ b−a p !n √ x0 −a
nσ2 +µ2 nσ2 +µ2
nσ2 + µ2 − µ nσ2 + µ2 − µ
p − p
nσ2 + µ2 + µ nσ2 + µ2 + µ
Rx0 = (4.9.3)
p !n √ b−a
nσ2 +µ2
nσ2 + µ2 − µ
p −1
nσ2 + µ2 + µ
2
e2(b−x0 )µ/σ − 1
Rx0 = 2(b−a)µ/σ2 (4.9.4)
e −1
Es interesante notar lo que sucede que cuando µ → 0, que serı́a el análogo conti-
nuo de p = q:
b − x0
lı́m Rx0 = (4.9.5)
µ→0 b−a
4.10. PROBLEMAS PROPUESTOS 121
(b − a) 1 − e 2(a−x0 )µ/σ2
1 x0 − a
Dx0 = lı́m Dx = 2(a−b)µ/σ 2
− (4.9.6)
n→∞ n µ 1−e µ
(x0 − a)(b − x0 )
lı́m Dx0 = (4.9.7)
µ→0 σ2
n
1 − xn+1
∑ xi = 1−x
si x 6= 1
i=0
an = a0 + nβ si α = 1
n
an = αn a0 + β 1−α
a−α si α 6= 1
10. Desde donde está situado, un borracho está a solo un paso de caer a un
precipicio. El borracho camina de forma aleatoria: toma un paso hacia el
precipicio con probabilidad de 13 y un paso alejándose del precipicio con pro-
babilidad de 23 . ¿Con qué probabilidad se escapa el borracho de caer al
precipicio?
4.10. PROBLEMAS PROPUESTOS 123
16. Verifique mediante una simulación en R las formulas (4.6.6a) y (4.6.6b) refe-
rentes a la duración promedio del juego. Para el caso en que p 6= q, asuma
que p = 13 . En ambos casos asuma un capital total T = 10.
El procesos de Poisson
homogéneo
T RES M UNDOS
Litografı́a - 1955 Prof. Howard Taylor
M.C. Escher (autor de varios libros sobre procesos estocásticos)
125
126 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Objetivos de la Unidad
n(n − 1)(n − 2) · · · (n − k + 1) λ k λ n−k
P{X = K} = 1−
k! n n
k n−k
λ λ n(n − 1)(n − 2) . . . (n − k + 1)
= 1−
k! n n| · n{z· · · n}
k f actores
k n−k
λ λ 1 2 k−1
= 1− 1· 1− · 1− ··· 1−
k! n n n n
k n −k
λ λ λ 1 2 k−1
= 1− 1− 1· 1− · 1− ··· 1−
k! n n n n n
lı́m P{X = k}
n→∞
λ k n −k
= lı́m 1 − λn 1 − λn 1 · 1 − n1 · 1 − n2 · · · 1 − k−1
n
n→∞ k!
k
λ −λ
= e
k!
(5.1.1)
λ n λ −k c
lı́m 1 − = e−λ , lı́m 1 − =1 y lı́m 1 − =1
n→∞ n n→∞ n n→∞ n
Teorema 5.1 (Ley de las Probabilidades Pequeñas). Sea X una variable aleatoria
discreta distribuida según la ley binomial con parámetros n y p respectivos. Si
n → ∞ y p → 0 de forma que np permanece constante e igual a λ, entonces, bajo
estas condiciones:
λk
lı́m P{X = k} = e−λ
n→∞ k!
130 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Este resultado es muy importante por varias razones. Una razón es que nos
permite calcular aproximadamente las probabilidades asociadas a la distribución
binomial para un número n muy grande de ensayos y una probabilidad p de éxi-
to casi nula. El estudiante que haya intentado calcular probabilidades binomiales
que involucran números combinatorios elevadı́simos que multiplican potencias de
p que tienden a cero sabrá apreciar la valı́a de esta aproximación. Es por esto que
el resultado anterior se conoce como la Ley de las Probabilidades Pequeñas. De la
misma forma que el Teorema de DeMoivre-Laplace (una variante de la Ley de los
Grandes Números) aproxima mediante la distribución normal las probabilidades bi-
nomiales cuando n → ∞ y p no tiende a cero o a uno, la Ley de las Probabilidades
Pequeñas aproxima las probabilidades binomiales bajo las condiciones ya citadas
mediante una distribución de probabilidad que el estudiante seguramente ha identi-
ficado ya- la distribución de Poisson. Como regla práctica, se puede confiar en esta
aproximación si n ≥ 100, p ≤ 0, 01 y np ≤ 201 .
que sucede en cada intervalo, sin importar cuan distantes en el tiempo sean
esos intervalos uno del otro. Según la terminologı́a de la Unidad 3, el proceso
de Poisson es un proceso con incrementos estacionarios.
3. Según las deducciones que culminan en la fórmula 5.1.1, vemos que subdi-
vidiendo el número de ensayos del modelo binomial en lapsos temporales de
amplitud infinitesimalmente pequeña, de modo que la probabilidad de ocu-
rrencia de dos o más eventos en cada lapso temporal sea casi nula y man-
teniendo constante el promedio de eventos quesuceden a lo largo del lapso
temporal total, la distribución de probabilidad de eventos que suceden en un
intervalo de tiempo es la distribución de Poisson.
La Ley de las Probabilidades Pequeñas es una posible vı́a para definir el pro-
ceso de Poisson. A continuación vamos a tomar otra vı́a más rigurosa, planteamos
un conjunto de axiomas o condiciones que debe cumplir el proceso y verificamos
que necesariamente, esto conduce a la distribución de Poisson. Antes definimos la
terminologı́a mediante la cual denotaremos formalmente el proceso de Poisson:
Axioma 2 Defı́nase Z(x + ∆t) − Z(x) como la cantidad de eventos que ocurren en
un intervalo de tiempo [x, x + ∆t) y Z(y + ∆t) − Z(y) como la cantidad de
eventos que ocurren en otro intervalo de tiempo [y, y + ∆t), siendo ambos
intervalos de tiempo de la misma amplitud. Entonces, Z(x + ∆t) − Z(x) y
Z(y + ∆t) − Z(y) tendrán la misma distribución de probabilidades. El proceso
de Poisson es un proceso con incrementos estacionarios.
De modo que:
Pn′ (t) = λ(Pn−1 (t) − Pn (t)) =⇒ Pn′ (t) + λPn (t) = λPn−1 (t) (5.2.3)
Zt
Pn (t) = e −λt
· λ · Pn−1 (x) ·λx dx (5.2.4)
0
Z
P1 (t) = e−λt · λ · e−λt eλt dt = (λt)e−λt
Z
(λt)2 −λt
P2 (t) = e −λt
· λ · λte−λt eλt dt =
e
2
Z
(λt)2 −λt λt (λt)3 −λt
P3 (t) = e−λt · λ · e e dt = e
2 6
..
.
(λt)n
No cuesta mucho trabajo deducir que, en general, Pn (t) = e−λt · n! .
En resumen, hemos visto en esta primera parte del presente capitulo las con-
diciones o premisas bajo las cuales se produce un proceso estocástico de Poisson
5.3. PROCESOS DE POISSON ESPACIALES. 137
(II) Para dos instantes de tiempo s y t tales que s < t , la cuenta de eventos
N(t) − N(s) acaecidos en el intervalo de tiempo (s,t) es distribuida según
la ley de Poisson con media λ(t − s). A saber:
(λ(t − s))k
P{N(t) − N(s) = k} = e−λ(t−s)
k!
Se espera haber facilitado la comprensión de cuales son las condiciones que
dan origen a tales procesos, porqué el número de eventos que se producen en un
intervalo de tiempo es distribuido según Poisson y las razones por las cuales este
proceso surge con mucha frecuencia en el estudio de ciertos fenómenos aleatorios.
Respecto a la figura 5.2, los puntos oscuros (de color verde oliva) representan
138 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
vas (las de la columna de frecuencias relativas teóricas), fue estimado del siguiente
modo:
7
∑ i · xi
i=0 0 · 1 + 1 · 7 + 2 · 13 + 3 · 6 + 4 · 4 + 5 · 0 + 6 · 0 + 7 · 1
λ̂ = 7
= = 2, 3125
32
∑ xi
i=0
Según lo que hemos desarrollado para este ejemplo hasta ahora, surgen algu-
nas preguntas, que se dejan como problemas propuestos al final de esta sección6 :
Una variable aleatoria de tipo Poisson, por ser discreta, siempre asume va-
lores enteros. ¿Cómo explica Ud. que en la columna “Frecuencias absolutas
esperadas” de la tabla 5.2, los valores no sean enteros?
6
Antes de intentar responder estas preguntas, se le sugiere al lector terminar de estudiar esta
sección.
140 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Por ejemplo, el axioma 4 establecerı́a que en un área o volumen nulo hay ce-
ro bacterias con certeza total. Esto tiene bastante sentido- las bacterias necesitan
cierta cantidad mı́nima de espacio para desarrollarse y en un espacio de área nula
no puede haber bacterias. Los axiomas 1 y 2 establecerı́an que en áreas no super-
puestas de igual tamaño, las cantidades de bacterias en cada área son variables
independientes e idénticamente distribuidas. Esto quiere decir que la cantidad de
bacterias observadas en una esquina del plato Petri es independiente de la canti-
dad de bacterias observadas en otra esquina. Más aún, tienen la misma distribución
probabilı́stica, lo cual quiere decir que las condiciones requeridas para el desarrollo
de las actividades bacteriales son iguales en toda el área del plato Petri. Por ejem-
plo, colocar un sustrato más nutritivo para las bacterias en alguna esquina del plato
Petri harı́a que las bacterias se concentrasen en ese sector- se estarı́a violando la
condición de estacionariedad de las superficies no superpuestas de igual tamaño
y el fenómeno ya no serı́a un proceso de Poisson homogéneo. Dicho de otro modo,
los axiomas 1 y 2 parecen indicar que los eventos en un proceso de Poisson se
distribuyen uniformemente en el tiempo (o el espacio en este caso), pero esto es
una cuestión que abordaremos posteriormente. Por último, el axioma 3 plantea la
existencia de un parámetro λ que representa la cantidad promedio de eventos que
se producen en un intervalo de tiempo de longitud unitaria y que permanece cons-
tante en el tiempo. En el caso de un proceso de Poisson espacial homogéneo como
el que estamos tratando, λ viene a representar la cantidad promedio de bacterias
por cuadrante (de área unitaria) observados en el plato de Petri.
7
Ver Parzen (1962), pp. 32-33
5.3. PROCESOS DE POISSON ESPACIALES. 141
2
fD (y) = 2λπ.e−λπy (5.3.1)
Demostración
(caso bidimensional)
2
P{D > y} = P{N(πy2 )} = 0} = e−πλy
2
FD (y) = P{D ≤ y} = 1 − P{D > y} = 1 − e−πλy
2
fD (y) = FD′ (y) = 2λπy · e−πλy
8
Ver Devore (2001), p. 176
142 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
α
α x
−
f (x; α, β) = α xα−1 · e β
β
E[D] = β · Γ 1 + α1
y
2
V [D] = β2 · Γ 1 + α2 − Γ 1 + α1
Una de las condiciones para que el fenómeno bajo estudio califique como un
proceso de Poisson es que los incrementos sean independientes (Axioma 1). Ha-
biendo definido “evento” como la llegada de un cliente al banco, un incremento serı́a
la cantidad de clientes que llegan al banco entre dos instantes de tiempo determi-
nados. En circunstancias normales, las personas acuden al banco para realizar
diligencias independientemente de otras personas que también acuden a realizar
tramites al banco. En otras palabras, normalmente las llegadas de clientes al ban-
co se producen por causas externas al funcionamiento del banco. Esto es algo
caracterı́stico de otros fenómenos, como por ejemplo las fallas que se producen
en componentes eléctricos, que se deben generalmente en picos de voltaje (altos
o bajos) y no al tiempo que lleva funcionando el componente (cuando el funcio-
namiento del componente no supone desgaste del mismo). En contraposición, las
fallas debido a desgaste mecánico (por ejemplo, un motor a gasolina) no tienen
esta caracterı́stica. En general, cuando los eventos se producen debido a causas
ajenas al funcionamiento del sistema bajo estudio, se cumple la condición de incre-
mentos independientes exigida por el Axioma 1. Podemos, no obstante, hacer un
pequeño ejercicio de imaginación para enumerar algunas situaciones en las cuales
las llegadas de clientes a un banco en intervalos de tiempo no supérpuestos no
fuesen independientes:
Entre las 9:00 y 9:15 am llegaron muchos clientes al banco. Un cliente que
llega después, digamos a las 9:23am, observa que el banco está lleno y
decide no entrar al banco para volver luego cuando no haya tanta cola. Aún
ası́, a las 9:23am se produjo efectivamente una llegada de cliente al banco
y los motivos por los cuales ese cliente fue al banco eran independientes de
las razones que tenian los clientes que llegaron más temprano.
Algunos de los clientes que llegaron al banco en ese lapso de tiempo (en-
tre 9:00 y 9:15am), al ver que el banco estaba llenándose, le avisaron a
sus allegados para informarles que habı́a mucha gente en el banco. Con-
secuentemente, la tasa de llegadas al banco durante el resto de la mañana
disminuyó. Uno pudiése preguntarse: ¿cuál es la proporción de clientes que
llegan a un banco y conocen otros que tengan que hacer diligencias en ese
mismo banco ese mismo dı́a?
Algunos de los clientes que llegaron al banco esa mañana no eran clientes
normales, sinó hampones que vinieron a atracar el banco. En consecuencia,
durante el atraco y el posterior despliegue de fuerzas de seguridad alrededor
del banco, no llegaron más clientes al banco esa mañana. Sin embargo, ¿con
qué frecuencia ocurren atracos a una misma agencia de un banco?
144 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Algunos clientes no llegan solos, sino en grupo. En este caso, los motivos por
los cuales esos clientes fueron al banco no son independientes. En efecto,
si llegan varios clientes al mismo tiempo, se estarı́a violando además las
condiciones pleanteadas en el Axioma 3, según el cual la probabilidad de que
dos o más eventos ocurran en un mismo lapso de tiempo infinitesimalmente
corto es virtualmente nula.
Durante los dı́as de quincena o los viernes (pago semanal de obreros), llegan
más clientes al banco para cobrar su salario.
Los ejemplos que citamos arriba de condiciones bajo las cuales se violan los
supuestos teóricos de los procesos de Poisson son de hecho desviaciones del
proceso de Poisson homogéneo que venimos estudiando ahora y conducen a otros
tipos de Procesos de Poisson (compuestos, no homogéneos, etc.) que se verán
luego. Por ahora supongámos que la llegada de clientes al banco se da según
un proceso de Poisson simple, u homogéneo. ¿Cuales otras caracterı́sticas tiene
5.4. DISTRIBUCIÓN DEL TIEMPO INTER-EVENTOS 145
este proceso? Claramente, el tiempo que transcurre entre dos llegadas de clientes
sucesivas varı́a de manera aleatoria, pero, ¿cómo se distribuye en tiempo entre
llegadas sucesivas? Vamos a considerar pues el proceso estocástico asociado a
los tiempos inter-eventos (el tiempo que transcurre entre dos llegadas sucesivas de
clientes):
{Tn |n ∈ N+ }
n
Sn = ∑ Ti
i=1
9
Ver sección 5.2 en la descripción del axioma 3.
146 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
λ
fSn (t) = (λt)n−1 e−λt , λ,t > 0
(n − 1)!
Por ser ambos sucesos equivalentes, sus probabilidades son iguales y se tiene que
Zt Zt
λ (λt)n λ
P{N(t) = n} = (λx)n−1 e−λx dx + e−λt − (λx)n−1 e−λx dx
(n − 1)! n! (n − 1)!
0 0
(λt)n
= e−λt
n!
5.4. DISTRIBUCIÓN DEL TIEMPO INTER-EVENTOS 147
10
Ver sección 4.3.
11
Ver la Proposición 4.2.
12
Ver problemas propuestos N° 6 y N° 7 de la unidad 3.
148 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Demostración
Consideramos la relación entre el número de ensayos x que se realizan y el tiempo
t en que se realizan los ensayos dada por
x
t = h(x) =
n
−1
x = h (t) = tn
gX (x) = (1 − p)x−1 p
5.4. DISTRIBUCIÓN DEL TIEMPO INTER-EVENTOS 149
−1
dx
fT (t) = n→∞
lı́m gX h (t)
λ=np
dt
λ tn−1 λ
= lı́m 1 − n
n→∞ n n
= λ · e−λt
Tabla 5.3: El proceso de Poisson homogéneo como paso al lı́mite de las caminatas
aleatorias basadas en ensayos de Bernoulli
Tiempo
Tiempo continuo
Tiempo discreto
Caracterı́stica (segundos, minutos,
(numero de ensayos)
etc.)
Cantidad de éxitos (resp.
Distribución Distribución
eventos) en n ensayos (resp.
binomial de Poisson
en un lapso de tiempo t )
Cantidad de ensayos entre
Distribución Distribución
éxitos (resp. tiempo entre
geométrica exponencial
eventos)
Cantidad de ensayos hasta Distribución Distribución
el r-ésimo éxito (resp. tiem- binomial de Erlang
po entre r eventos) negativa (Gamma)
150 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
1 # ----------------------------------------------------------------
2 # 5_1. R
3 # Distribucion de aleatoria de puntos sobre una recta , segun
4 # a) la distribucion uniforme
5 # b) la distancia entre puntos es exponencial ( Poisson )
6 # autor : Jose L. Romero P.
7 # fecha : 24/08/2011
8 # ----------------------------------------------------------------
9 png(" poisson -y - uniforme %02d. png ")
10 # primero se simula el proceso de poisson desde 0 a tmax unidades
11 # de tiempo
12 alfa <- 1
13 tmax <- 20/alfa
14 tiempos.de.llegada <- NULL
15 tiempo <- 0
16 while (tiempo < tmax) {
17 tiempo <- tiempo + rexp(alfa)
18 tiempos.de.llegada <- c(tiempos.de.llegada,tiempo)
19 }
20 l <- length(tiempos.de.llegada)
21 tiempos.de.llegada <- tiempos.de.llegada[1:(l-1)]
22 plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
23 ylab="")
24 points(x=tiempos.de.llegada,y=rep(0 ,l-1) ,col=" steelblue2 " ,
25 cex=1.5 ,bg=" steelblue4 " ,pch=21)
26 axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
27 labels=seq(from=0 ,to=tmax,by=5))
28 # se distribuye la misma cantidad de eventos sobre la recta
29 # mediante la distribucion uniforme
30 uniforme <- runif(n=l-1 ,min=0 ,max=tmax)
31 plot(x=c( -2 ,tmax+2) ,y=c(0 ,0) ,type="n" ,axes=FALSE,xlab="" ,
32 ylab="")
33 points(x=uniforme,y=rep(0 ,l-1) ,col=" tomato " ,
34 cex=1.5 ,bg=" tomato4 " ,pch=21)
35 axis(1 ,pos=0 ,at=seq(from=0 ,to=tmax,by=5) ,
36 labels=seq(from=0 ,to=tmax,by=5))
2. Hay cierta tendencia en ambas figuras a que los puntos se aglomeren unos
muy cercanos a otros. De hecho, hay algunos puntos que casi coinciden (son
aquellos cı́rculos muy pegados unos de otros). En la realización del proce-
so de Poisson esto tiene una explicación muy sencilla: la distancia (tiempo)
que media entre dos sucesos consecutivos es distribuida exponencialmen-
te, como se demostró en la sección anterior. La distribución exponencial es
muy sesgada hacia la izquierda, de modo que es más frecuente tener distan-
cias entre puntos muy cortas. Lo mismo ocurrirá con la distribución uniforme,
pues como se va a demostrar, se trata del mismo fenómeno aleatorio.
Previo a la demostración, vamos a introducir una idea que quizás no le sea fa-
miliar: el concepto de lo que es un estadı́stico de orden. Supongamos que tenemos
una secuencia de k variables aleatorias idénticamente distribuidas e independien-
tes entre sı́. En el ámbito de la inferencia estadı́stica, tal secuencia se conoce como
muestra aleatoria, porque se supone que las variables se corresponden a obser-
vaciones hechas a una población. Para hacer inferencias a partir de una mues-
tra, componemos los valores de la misma para calcular lo que se conoce como
estadı́stico, que no es más que una función (multivariada) de la muestra, compo-
nemos los valores de la misma para calcular lo que se conoce como estadı́stico,
que no es más que una función (multivariada) de la muestra.Los estadı́sticos de
orden son simplemente un ordenamiento de menor a mayor de los elementos de la
muestra. Ası́, para una secuencia de k variables aleatorias U1 ,U2 , . . . ,Uk , los es-
tadı́sticos de orden U(1) ,U(2) , . . . ,U(k) se obtienen ordenando la secuencia original
según su magnitud, de modo que siempre se cumple que: U(1) ≤ U(2) ≤ . . . ≤ U(k) .
En particular, estaremos interesados en conocer cual es la función de densidad
conjunta de los estadı́sticos de orden basados en una muestra aleatoria tomada de
una población uniformemente distribuida en el intervalo [0, T ]:
k!
fU(1) ,U(2) ,...,U(k) (t1 ,t2 , . . . ,tk ) = cuando 0 ≤ t1 ≤ t2 ≤ . . . ≤ tk ≤ T (5.5.1)
Tk
El término T1k al lado derecho de la ecuación proviene del hecho de ser los
U(1) ,U(2) , . . . ,U(k) uniformemente distribuidos en el intervalo [0, T ] y de ser mutua-
mente independientes (la función de densidad conjunta es la productoria de las
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCIÓN UNIFORME 153
Por otro lado, supongamos que N(T ) = k, lo que equivale a decir que has-
ta el instante de tiempo T , han ocurrido exactamente k sucesos de tipo Poisson.
Más precisamente, dado que N(T ) = k, la probabilidad (condicional) de que en ca-
da uno de los subintervalos [t1 ,t1 + ∆t1 ], . . . , [tk ,tk + ∆tk ] del intervalo [0, T ] ocurra
exactamente un suceso y fuera de estos subintervalos no ocurra ningún suceso es:
Esta probabilidad se puede expresar en función de los instantes S1 < S2 < ... <
Sk < T en que se producen los k sucesos, de modo que:
P t1 ≤ S1 ≤ t1 + ∆t1 , . . . ,tk ≤ Sk ≤ tk + ∆tk |N(T ) = K k!
=
∆t1 · · · ∆tk Tk
La notación “delta-t” en los subintervalos [t1 ,t1 + ∆t1 ], . . . , [tk ,tk + ∆t] se uti-
lizó con el propósito expreso de sugerir que la expresión a la izquierda de 4.11 es
una función de densidad conjunta (condicional) si hacemos tender los ∆ti a cero
(recordemos que la función de densidad es la derivada de la función de distribución
de probabilidad). Con todo esto, tenemos en definitiva que:
K!
fS1 ,S2 , ..., Sk t1 ,t2 , ...,tk |N(T ) = K = k cuando 0 ≤ t1 ≤ t2 ≤ .... ≤ tk ≤ T
T
(5.5.2)
Con esta información, vamos a echar un segundo vistazo al problema del en-
cuentro visto en la sección 2.4. Recordemos que el problema era determinar con
cual probabilidad se encuentran dos personas si el tiempo de llegada de cada uno
es uniformemente distribuido en el lapso de una hora e independiente del otro y
además el que llega primero no espera mas de 10 minutos (1/6 de hora) por el
otro. No es que hayamos abordado el problema mal en aquella oportunidad, pe-
ro ahora, mediante una simulación e interpretando el Teorema 5.5, lo haremos de
nuevo.
Las implicaciones del Teorema 5.5 se pueden enlazar con todo lo que hemos
visto hasta ahora del proceso de Poisson homogéneo, en particular,las considera-
156 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
ciones que hicimos para los procesos de Poisson espaciales. De hecho, las con-
diciones de estacionariedad e independencia de los incrementos, que caracterizan
al proceso de Poisson homogéneo implican que en cualquier punto de una deter-
minada área existe igual probabilidad de ocurrir un suceso que en otro lugar.En la
terminologı́a del Teorema 5.5, dirı́amos que el proceso de Poisson espacial distri-
buye puntos sobre un área o volumen uniformemente.
Hemos visto como obtener los momentos de ocurrencia (en el tiempo) de su-
cesos de un proceso de Poisson para hacer simulaciones. Pero, ¿cómo podrı́amos
obtener los lugares de ocurrencia para hacer simulaciones de procesos de Poisson
espaciales? Esto nos trae de vuelta a la figura 5.2 de la sección 5.3, en la cual se
representaba una supuesta colonia de bacterias vistas a través de un microscopio.
En realidad, la imagen fue generada por un script en R que simula la distribución
5.5. EL PROCESO DE POISSON Y LA DISTRIBUCIÓN UNIFORME 157
Solución
Como la enfermedad es no contagiosa, su presencia en cualquier habitante del
pueblo es independiente del resto de las personas. Por lo tanto un modelo razo-
nable de la situación es suponer que se trata de 3000 ensayos de Bernoulli con
probabilidad de éxito de 0,001. Usamos en este caso la aproximación de Poisson
con parámetro λ = np = 3, de donde obtenemos:
Solución
El evento cuya probabilidad deseamos calcular se puede escribir como P{N(2, 5) =
15, N(3, 2) − N(2, 5) = 4, N(4, 5) − N(3, 2) = 13} y sabemos que una de las ca-
racterı́sticas del proceso de Poisson es la de poseer incrementos estacionarios e
5.6. PROBLEMAS RESUELTOS 159
Solución
Para determinar completamente la distribución de la variable aleatoria X , basta con
determinar el valor del parámetro λ, pues se sabe que {X(t)|t ≥ 0} es un proceso
de Poisson homogéneo. Una forma de abordar el problema serı́a ası́:
1 es a T como λ es a 1, de donde λ = T1 .
λT
P{X(T ) = 1} = e−λT
1
∂ ∂ −λT λT ∂ 1
log P{X(T ) = 1} = log e = (−λT +log λ+log T ) = −T +
∂λ ∂λ 1 ∂λ λ
e igualando dicha derivada a cero (para hallar el punto crı́tico), se tiene que λ = T1 ,
como habı́amos concluido antes.
(a) ¿Cuál es la probabilidad de tener una o más pasas en una galleta de avena
seleccionada al azar?
(b) En vista de que los clientes han protestado, la Abuela ha dado instrucciones
a sus empleados que desechen las galletas de avena sin pasas. ¿Cual es la
esperanza matemática y la varianza del número de pasas por galleta en las
galletas restantes?
Solución
Sea X el número de pasas de una galleta escogida al azar, donde
(1, 5)k
P{X = k} = e−1,5
k!
Por lo tanto P{X = 0} = e−1,5 = 0, 2231 y en consecuencia P{X ≥ 1} = 1−P{X =
0} = 0, 7769, lo cual responde la primera parte de la pregunta.
( k
(1,5)
′ e−1,5 0,7769·k! para k ≥ 1
P{X = k} =
0 caso contrario
5.7. PROBLEMAS PROPUESTOS 161
De ahı́, la esperanza de X ′ es
∞ ∞
(1, 5)k 1, 5 (1, 5)k
E[X ′ ] = ∑ e−1,5 0, 7769 · k! · k = 0, 7769 e−1,5 ∑ = 1, 9308
k=1 k=0 k!
Y la varianza es
∞
1, 5k
E[X ′2 − X ′ ] = E[X ′ (X ′ − 1)] = ∑ e−1,5 0, 7769 k! · k(k − 1)
k=1
∞
(1, 5)k
= ∑ e−1,5 0, 7769 k! · k(k − 1)
k=2
∞
(1, 5)2 (1, 5)k−2
= e−1,5 ∑
0, 7769 k=2 (k − 2)!
∞
(1, 5)2 (1, 5)k (1, 5)2
= e−1,5 ∑ =
0, 7769 k=0 k! 0, 7769
(1,5)2
de donde E[X ′2 ] = 0,7769 + 1, 9308 = 4, 8269 y finalmente:
13. Considere un proceso de Poisson homogéneo {N(t)|t > 0}. Demuestre que
para s < t , N(s)|N(t) = n es una variable aleatoria Binomial con n ensayos
y probabilidad de éxito s/t .
164 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
k 0 1 2 3 4 5 o más Total
Nk 229 211 93 35 7 1 576
19. Supóngase que los tiempos entre eventos de un proceso (que llamaremos
incrementos) son mutuamente independientes e idénticamente distribuidos
y defı́nase una caminata aleatoria {Sn |n ∈ N+ } del modo usual como la su-
ma de n incrementos positivos independientes. Sea {N(t) = n} el suceso
siguiente: “Hasta el momento t , han ocurrido exactamente n eventos”. Utilice
5.7. PROBLEMAS PROPUESTOS 165
21. Realice una simulación por computadora de un proceso de Poisson con in-
tensidad promedio de 2 sucesos por unidad de tiempo. Utilizando dicha si-
mulación estime:
22. Un vendedor de perrocalientes observa que aún cuando sus clientes asi-
duos no llegan en intervalos de tiempo regulares, no obstante arriban según
un proceso de Poisson con una tasa de llegada promedio de un cliente por
minuto. Un dı́a le dice a un amigo que le haga guardia en su carrito de perro
calientes mientras el se ausenta por 5 minutos. A su regreso, el amigo le di-
ce que en los cinco minutos llegaron 4 clientes. “Descrı́bemelos por alguna
caracterı́stica única a cada uno y te diré el momento en el cual llegaron”, le
respondió el perrero. Calcule la probabilidad de que el perrero pueda iden-
tificar correctamente los tiempos de llegada de cada cliente, si para cada
cliente se indica un intervalo de dos minutos dentro del cual se asegura que
ese cliente llegó.
166 UNIDAD 5. EL PROCESOS DE POISSON HOMOGÉNEO
Unidad 6
Cadenas de Markov
F UEGO EN EL ATARDECER
Oleo - 1929 Norris, J. R.
Paul Klee prefacio del libro “Markov Chains”
167
168 UNIDAD 6. CADENAS DE MARKOV
Objetivos de la Unidad
p1,1 p1,2 · · · p1,n
p2,1
p2,2 · · · p2,n
P= . .. .. ..
.. . . .
pn,1 pn,2 · · · pn,n
Algunos ejemplos
α
i ∈ {1, . . . , N} que pi,i = 1−α y pi, j = N−1 para i 6= j. La matriz de transición
serı́a:
α α
1−α N−1 ··· N−1
α α
N−1 1−α ··· N−1
P= .. .. .. ..
. . . .
α α
N−1 N−1 ··· 1−α
1 0 0 0 ··· 0 0 0
1− p 0 p 0 ··· 0 0 0
0 1− p 0 p ··· 0 0 0
P= .. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 ··· 1− p 0 p
0 0 0 0 ··· 0 0 1
De esta forma, los habitantes de Adán y Eva fueron mezclándose según una
cadena de Markov cuya matriz de transición era la siguiente:
Adán Eva
P= Adán 0, 7 0, 3
Eva 0, 6 0, 4
En lo precedente se han identificado las filas y las columnas de la matriz
de transición mediante los nombres de las ciudades correspondientes, pa-
ra resaltar que las probabilidades de transición se refieren a la migración
entre una ciudad y otra. En todo esto, se ha considerado el estado de un
habitante de Edén como la ciudad en la cual se encuentra en un momento
determinado. Una pregunta interesante en torno a la situación descrita serı́a
la siguiente - partiendo de una distribución inicial de individuos en Adán y
Eva, ¿cómo se distribuirán los habitantes del planeta a la larga?
La cadena de Markov es
172 UNIDAD 6. CADENAS DE MARKOV
Apéndice A
Leer un libro, escuchar un concierto, ir al cine - todas son actividades que supo-
nen un protocolo adecuado al genero de literatura que estamos leyendo, el tipo
de música que escuchamos o el género cinematográfico que vemos. No se puede
escuchar un concierto de Mahler de la misma forma que un concierto de Dj Tiestö,
o ver una pelicula de Tarkovsky como si estuviesemos viendo “Duro de Matar”. De
la misma forma, este libro no se puede leer como se leerı́an las historietas de Con-
dorito (aunque seguramente hará “¡plop!” varias veces mientras estudia con él).
Sin caer en juicios de valor sobre cuál género de literatura, música o cine es me-
jor, el punto que se intenta establecer, aunque parezca una perogrullada, es que
cualquier lectura, música o pelicula puede ser mejor apreciada si sabemos como
apreciarla. Hablamos de literatura y aunque sea dı́ficil de creer, textos como éste
son literatura también. De hecho, este tipo de textos pertenecen al género de “no-
ficción”. Pero volviendo a la idea de apreciación literaria, ¿qué significa apreciar
una lectura? ¿Cómo podriamos apreciar una lectura tan árida como ésta?
173
174 APÉNDICE A. COMO LEER UN TEXTO MATEMÁTICO
Hay por lo menos dos niveles de apreciación lectora para una obra como la ci-
tada arriba. Una es la apreciación estética, que tiene que ver con el buen uso de las
palabras para construir imágenes. La apreciación en este nivel es, podrı́a decirse,
un asunto sensorial, más o menos como saborear un buen Cabernet Sauvignon
para acompañar un roast beef. Por ejemplo, en el pasaje citado arriba podriamos
apreciar como el escritor describe de una manera exacta y muy elegante el zum-
bido monotono que uno puede escuchar en cualquier gran ciudad. Frases como
estas convierten a un texto en una obra de arte literaria y nos proveen el disfrute
estético de la lectura. Sin embargo, generalmente aportan poco cuando se trata de
entender la trama de la novela, lo cual nos trae al otro nivel de apreciación de una
lectura, que es la apreciación de la trama.
puede condensar tal cantidad de información que requerirı́a varios párrafos para
expresarla en lenguaje natural. Cuando leemos lenguaje matemático, es importan-
te detenerse a analizar cada sı́mbolo, cada igualdad, cada punto, porqué todo lo
que está escrito en una fórmula es importante para su debida comprensión- nada
es redundante. Por eso, la primera recomendación es
Primer consejo
Ciertamente, cuando una novela nos atrapa podemos leer decenas de páginas
en una sola lectura, pero si leemos un texto de matemática, a veces avanzamos
unas diez páginas por lectura, cuando mucho. Pero leer detenidamente el texto no
garantiza su comprensión si no nos hacemos con el habito de cuestionar y ana-
lizar todo lo que se lee. Cuando hablábamos sobre la apreciación de la trama en
la literatura de ficción y citábamos aquel pasaje de “Retrato de Dorian Gray” como
ejemplo, decı́amos que era una necedad analizar frases descriptivas o cuestionar
los basamentos del autor para calificar las cosas de cierto modo, pues nada agre-
gaba esto a nuestra comprensión de la trama. Sin embargo, cuando leemos un
texto matemático, este hábito de cuestionar y analizar todo cuanto se lee no es
una necedad, sino una absoluta necesidad si se quiere comprender el texto. Es
por eso que la lectura de este tipo de textos es mucho más lenta que la lectura
de novelas- hay que cuestionar y analizar todo. Para ilustrar en que consiste este
cuestionamiento constante, pongamos un ejemplo. Supóngase que leyendo este
libro, se encuentra con la siguiente fórmula:
n
n(n + 1)
∑i = 2
i=0
El lector debe ante todo asumir una actitud activa, no pasiva. Esto pasa por
asumir constantemente el rol de ser su propio profesor. Si Ud. fuese un profesor y
está interesado en saber si el estudiante ha comprendido lo que recién acaba de
leer, ¿cuáles preguntas harı́a? En este punto, serı́a oportuno preguntarse primero
si comprende cada uno de los sı́mbolos en la fórmula. Por ejemplo, ¿qué significa el
∑? ¿Qué significan las expresiones arriba y abajo de ese sı́mbolo? ¿Qué significa
la i al lado de esto? Si no sabemos las respuestas a estas preguntas debemos
buscar apoyo de otros libros o consultar rápidamente con la Profesora Wikipedia
176 APÉNDICE A. COMO LEER UN TEXTO MATEMÁTICO
Segundo consejo
Además del mito de la “mala base”, existe otra creencia errónea en torno a las
matemáticas, según la cual la matemática es una materia práctica porque involucra
cálculos, en contraposición a otras materias “teóricas”. La matemática es la materia
teórica por excelencia y ası́ lo atestiguan los orı́genes etimológicos de la palabra.
“Matemática” proviene del antiguo griego µαθηµατικά (mathematika, “lo que se
aprende”), el cual a su vez deriva de µαθηµα (máthēma, “campo de estudio o ins-
trucción’) y, más remotamente, del verbo griego µανθάνω (mantháno, que signifi-
ca “instruirse, aprender, llegar a conocer”)2 . Etimológicamente y morfológicamente,
matemática es afı́n a tema o campo de estudio, que no es otra cosa que ciencia y
teorı́a. Hay que entender un poco sobre la mentalidad de los antiguos griegos para
saber que lo que ellos llamaban ciencia no tenı́a nada que ver con experimentación
o derivación del conocimiento por medios experimentales o prácticos, sino todo lo
contrario. La ciencia, según los griegos, era concebida como un saber que se al-
canzaba por medio del pensamiento y el raciocinio. Naturalmente, esto ya no es
del todo cierto porque el conocimiento cientı́fico moderno se verifica experimental-
mente. Pero aún ahora, la matemática sigue siendo un producto del pensamiento
2
Ver González˜Recio (2007), p. 354.
178 APÉNDICE A. COMO LEER UN TEXTO MATEMÁTICO
Ésta es la razón por la cual los griegos consideraban que las matemáticas eran
algo sobre lo cual habı́a que instruirse para llegar a aprenderlas. Estaban recono-
ciendo con ello que la matemática era algo difı́cil, que no se aprendı́a espontánea-
mente como aprender a caminar o a hablar y que por ello requerı́a de instrucción
y de iniciación previa. Las matemáticas no son reducibles al lenguaje ordinario que
se aprende espontáneamente. Más bien, la historia de las matemáticas es una his-
toria de cómo el lenguaje matemático se ha perfeccionado a través de los siglos
deviniendo en un vehı́culo para alcanzar verdades eternas a través del pensamien-
to puro. Por eso es que un texto de matemáticas no se puede leer rápidamente
y debemos de poner especial atención a la notación matemática, la definición de
términos y los enunciados de los teoremas.
Una definición matemática, para ser útil, tiene que redactarse de tal modo de
poder establecer resultados matemáticos respecto a lo que se define y en definiti-
va, permitir decidir si cualquier objeto en el universo pertenece a la clase definida o
no. En el uso cotidiano del lenguaje natural, nosotros no estamos acostumbrados
a manejarnos en este nivel de precisión. Por ejemplo, la palabra “información”, tal
como la utilizamos en nuestro lenguaje cotidiano, es muy imprecisa. Pero definida
matemáticamente, en el marco de la Teorı́a de la Información de Claude Shannon,
permite comparar, en orden de magnitud, la cantidad de información que se trans-
mite en un canal de comunicación u otro. Desde luego, la información matemática
no se corresponde enteramente con el término información del lenguaje natural.
Este último es mucho más ambivalente e incluye por ejemplo la acepción de infor-
mación como conocimiento que no abarca el término matemático correspondiente.
Sin embargo, gracias a la precisión del lenguaje matemático, se han podido esta-
blecer una serie de resultados en torno a los sistemas de comunicación que han
permitido crear, por citar un ejemplo, los famosos algoritmos de compresión como
el mp3 que usamos hoy en dı́a.
179
Tercer consejo
n 5n + 7n ¿Es par?
0 50 + 70 = 2 si
1 51 + 71 = 12 si
2 52 + 72 = 74 si
.. ..
. . ?
5n + 7n = 5n + (5 + 2)n ➒ 7=5+2
n
n i n−i expansión del binomio (5 + 2)n (ver Teo-
n
=5 +∑ 52 ➒ rema binomial de Newton)
i=0 i
n−1
n n n i n−i
= 5 +5 + ∑ 52
i=0 i
n−1
n i n−i−1 factorizacion de los sumandos en la su-
n
= 2·5 +2 ∑ 52 ➒
matoria
i=0 i
!
n−1
n
= 2 5n + ∑ 5i 2n−i−1
i=0 i
= 2k, donde k ∈ Z
Cuarto consejo
Para terminar con el ejemplo sobre los números pares, se intentará demostrar
que 5n + 7n es un número par a través del método de la inducción completa , en el
cuál se define una proposición lógica que depende de n. Para nosotros esta serı́a:
Pn ≡ 5n + 7n es un número par.
3
En este conjunto de obras, Russell se proponia derivar la mayor parte de los conocimientos ma-
temáticos a partir de un conjunto pequeño de axiomas. Con el Teorema de Incompletitud de Kurt
Gödel, quedo demostrado que ningún conjunto de axiomas puede ser completo (en el sentido en
que permita establecer la validez o no validez de cualquier proposición) y consistente (en el sentido
en que los axiomas no sean contradictorios) a la vez. Esto significa que se demostró la existencia
de proposiciones no demostrables. Sin embargo, los matemáticos aún siguen demostrando proposi-
ciones y otros más ambiciosos siguen en su lucha prometeica por conquistar lo imposible. Esta es
una de las historias más apasionantes de la matemática, sobre la cual existe una novela titulada “El
Tio Petros y la conjetura de Goldbach” escrita por el griego Apostolos Doxiadis, la cual recomiendo
ampliamente.
183
Quinto consejo
Lógica matemática
Teorı́a de Conjuntos
185
186 ÍNDICE ALFABÉTICO
varianza, 14
propiedades, 15
vector aleatorio, 23
Wiener, N., 77
188 ÍNDICE ALFABÉTICO
Bibliografı́a
F ERN ÁNDEZ, B.. ‘La Ley de los Eventos Raros, legado de Simeon
Denis Poisson’. Disponible en: www.cimat.mx/Eventos/vpec10/img/
ArticuloBegonaFernandez.pdf.
G ONZ ÁLEZ R ECIO, J. (2007). Átomos, almas y estrellas: estudios sobre la ciencia
griega. Plaza y Valdes, S.A. de C.V., México.
189
190 BIBLIOGRAFÍA
N AUMOV, V., B ASHARIN , G. L ANGVILLE , A.. ‘The life and work of A. A. Mar-
kov’. Disponible en: https://netfiles.uiuc.edu/meyn/www/spm_files/
Markov-Work-and-life.pdf % finalpoint
R EBOLLEDO, R. (2002). ‘El azar y sus modelos’. En: IV Jornadas Rolando Chuaqui
Kettlun, .
www.mat.puc.cl/˜rrebolle/Azar/azar-foils.pdf