Está en la página 1de 10

CAMINATAS ALEATORIAS

GERÓNIMO URIBE BRAVO

Contents
1. La caminata aleatoria simple y simétrica 1
1.1. Cálculos distribucionales básicos 1
1.1.1. Coeficientes binomiales 2
1.1.2. La fórmula de Stirling y el teorema de de Moivre y Laplace 2
1.1.3. Prueba de la aproximación de Stirling 4
1.1.4. El teorema lı́mite central 5
1.2. La caminata aleatoria Bernoulli y la variable aleatoria geométrica 6
1.3. El problema de la ruina 7
1.4. La persistencia de la (mala) suerte 8
References 10

1. La caminata aleatoria simple y simétrica


Una caminata aleatoria es uns sucesión de variables aleatorias reales (Sn )∞ n=0 tal que
S0 = 0 y las variables aleatorias (Si − Si−1 )∞ i=1 son independientes e idénticamente dis-
tribuidas. Si Xi = Si − Si−1 , entonces a la distribución de Xi , que es independiente de i,
y a la que daremos el nombre de distribución del salto, gobierna a la caminata aleatoria
y las caracterı́sticas de esta última se obtienen a través del estudio de dicha distribución.
Si Xi tiene una distribución Bernoulli simétrica de parámetro 1/2, es decir
1
P(Xi = 1) = P(Xi = −1) = ,
2
a la caminata aleatoria se le conoce como caminata aleatoria simple y ciertas distribu-
ciones relacionadas con esta sucesión se encuentran mediante métodos combinatorios; sin
embargo, para el caso general, los métodos a utilizar generalmente son más complicados
y el objetivo de su estudio es expresar la solución al problema planteado en términos de
las caminatas aleatorias a través de la función de distribución. A veces tal solución es
muy complicada y no es de utilidad práctica, por lo que además de la solución exacta,
generalmente buscamos expresiones aproximadas más sencillas. Este enfoque se puede
utilizar aún cuando la solución exacta a nuestro problema nos sea desconocida.

1.1. Cálculos distribucionales básicos. Notemos que la evolución de la caminata


aleatoria hasta el tiempo n queda determinada por el camino que sigue. Definimos a un
camino como un conjunto de puntos

{(i, ji ) : i = 0 . . . n} ⊂ N × Z,

para el cual
ji = ji−1 ± 1,
1
CAMINATAS ALEATORIAS 2

con i = 2 . . . n. 1 Notemos que, puesto que los incrementos de la caminata aleatoria son
independientes, entonces
1
P(S1 = j1 , . . . , Sn = jn ) = P(X1 = j1 , X2 = j2 − j1 , . . . , Xn = jn − jn−1 ) = n .
2
Esto nos dice que la caminata aleatoria sigue cualquier camino con la misma proba-
bilidad, por lo que el recorrido de la caminata aleatoria en n pasos es uniforme en los
caminos de longitud n. Notemos que en particular nos dice que hay 2n caminos, pues la
suma sobre todos los caminos debe ser 1. Esto también lo podemos ver al notar que un
camino está determinado por sus incrementos, que son cualquier sucesión de longitud
n de −1, 1. Claramente hay 2n de estas sucesiones. Ası́, para encontrar la probabili-
dad de que la evolución de la caminata aleatoria simple hasta el tiempo n tenga cierta
propiedad, una posibilidad es encontrar la cantidad de caminos para los cuales se cumple
dicha propiedad y multiplicar por 1/2n . Éste es un método combinatorio.
1.1.1. Coeficientes binomiales. Por ejemplo, podemos calcular la probabilidad de que Sn
tome el valor k. A este evento lo escribimos como {Sn = k}. Efectivamente, un camino
que comience en cero y termine en k debe subir una cantidad de veces x y bajar x − k
veces. Si éste camino tiene longitud n entonces 2x + k = n, por lo que x = (n − k)/2.
Ası́, sólo tenemos
  que contar cuántos caminos tienen x incrementos hacia arriba. Hay
n
caminos con estas condiciones y por lo tanto
(n − k)/2
 
n
(n − k)/2
P(Sn = k) = .
2n
La anterior expresión es cero si n y k no tienen la misma paridad.
1.1.2. La fórmula de Stirling y el teorema de de Moivre y Laplace. Alpgraficar a la función
2
P(S2n = k), vemos que se parece a la gráfica de la función e−k /2n / πn/2. Por ejemplo,
podemos utilizar el siguiente código en Octave para hacerlo:
Listing 1. dML.notm
1;
# La f u n c i o n binom c a l c u l a Proba ( S n=k )
# para una caminata a l e a t o r i a s i m p l e y s i m e t r i c a .
function p=binom ( n , k )
p=f a c t o r i a l ( n ) . / f a c t o r i a l ( ( n−k ) / 2 ) . / f a c t o r i a l ( ( n+k ) / 2 ) . / 2 ˆ n ;
endfunction
n=150;
k=(−n ) : 2 : ( n ) ;
# Se c a l c u l a n l a s p r o b a b i l i d a d e s de t e r m i n a r en l a s e n t r a d a s de k
p=binom ( n , k ) ;
# Se g r a f i c a j u n t o con l a a p r o x i m a c i o n .
plot ( k , p , ’ ∗ ’ , k , exp(−k . ∗ k/n / 2 ) / sqrt ( pi ∗n / 2 ) , ’ k ’ )
El resultado se puede ver en la Figura 1.1.2.
La aproximación anterior se puede explicar mediante el llamado teorema de de Moivre
y Laplace que a su vez admite una prueba basada en la aproximación de Stirling para
el factorial. La aproximación de Stirling afirma que

n! ∼ nn e−n 2πn,
1En la pareja ordenada (i, j ) perteneciente a un camino, i es el número de pasos y j es la posición
i i
de la caminata aleatoria.
CAMINATAS ALEATORIAS 3

0.08

0.07

0.06

0.05

0.04

0.03

0.02

0.01

0
-150 -100 -50 0 50 100 150

donde el sı́mbolo ∼ significa equivalencia asintótica y significa que el cociente de ambas


−x 2 /2 √
cantidades converge a 1 conforme n → ∞. A la función fG (x) = e / 2π se le conoce
con el nombre de densidad gaussiana y aparece en el teorema de de Moivre y Laplace
en la siguiente forma:
Teorema 1 (de de Moivre  y Laplace para la caminata aleatoria simple). Conforme
n, k → ∞, con k = o n 2/3 de la misma paridad que n, se tiene la equivalencia asintótica

−k2 /2n 2
P(Sn = k) ∼ e √ .
πn

En particular, si k/ n → x entonces

−x2 /2n 2
P(Sn = k) ∼ e √ .
πn
Demostración: Al utilizar la aproximación de Stirling, vemos que si n, k → ∞ entonces

nn e−n 2πn
 
n −n
2 ∼
(n + k)/2 ( n+k
2 )
 n−k
n+k n−k ( 2 ) n−k
n+k
q q
2n n+k
2 e 2 2π 2 2 e 2 2π n−k2

2 1
=√ n+k n−k p .
πn
1 + nk 2 1 − nk 2
 
(1 + k/n) (1 − k/n)
Si k/n → 0 conforme n → ∞ y definimos p = k/n, obtenemos por lo tanto
  √
n 2 n
2 ∼ √ e− 2 f(p)
−n
(n + k)/2 πn
donde f (p) = (1 + p) log(1 + p) + (1 − p) log(1 − p). Puesto que f (0) = f 0 (0) = 0 y
f 00 (0) = 2, se tiene que f (p) = p2 + o p3 conforme p → 0. Se sigue entonces que
  √
n 2 n 2
∼ √ e− 2 p 1 + o np3 .

(n + k)/2 πn
Recordemos que np2 /2 = k 2 /2n. Además, si k = o n2/3 entonces np3 → 0, por lo que:

  √
n 2 2
∼ √ e−k /2n . 
(n + k)/2 πn
CAMINATAS ALEATORIAS 4

Al hacer un análisis más preciso (pero no mucho más complicado) con los residuos,
podemos ver que de hecho

P(Sn = k)
sup
2 /2n
√ √ − 1 → 0
2/3 e −k 2/ πn
k:|k|≤n

conforme n → ∞.
1.1.3. Prueba de la aproximación de Stirling. Ahora utilizaremos un argumento clásico,
conocido como método de Laplace, para obtener la aproximación de Stirling. Dicho
método se puede consultar en [dB58]. Comenzamos por recordar el valor de la integral
Z ∞
2 2
I= ex /2σ dx.
−∞
Puesto que Z ∞ Z ∞
2 +y 2
I2 = e−(x )/2σ2 dx dy,
−∞ −∞
un cambio a coordenadas polares (x = r cos θ y y = r sin θ con r > 0 y 0 ≤ θ < 2π) nos
da: Z 2π Z ∞ Z ∞
−r2 /2σ 2
2
I = e r drdθ = 2π e−y σ 2 dy = 2πσ 2 .
0 0 0

Se concluye que I = 2πσ 2 .
Ahora, recordemos la representación integral para la función factorial:
Z ∞ Z ∞
n −x
n! = x e dx = e−h̃(x) dx.
0 0
Ejercicio 1. Pruebe la representación integral del factorial mediante el siguiente argu-
mento:
R∞
(1) Defina f (n) = 0 xn e−x dx y pruebe que f (0) = 1.
(2) Integre por partes para deducir que f (n + 1) = (n + 1) f (n) y concluya.
Para verificar la fórmula de aproximación de Stirling, primero hacemos el cambio de
variable x = n (1 + y) para obtener:
Z ∞ Z ∞
n+1 −n −ny n n+1 −n
n! = n e e (1 + y) dy = n e e−nh(y) .
0 −1
La idea de este cambio de variable es que el mı́nimo de la función h se alcance en cero y
sea igual a cero. El segundo paso es analizar a la función exp −nh(y) para n grande. Esta
función es 1 cuando y = 0 y si y 6= 0, tiende a cero. Por lo tanto, su integral deberı́a
estar cada vez más localizada alrededor de y = 0. Para formalizar esta heurı́stica,
notemos que h(y) = y 2 + o y 3 y que h es convexa pues h00 > 0. Puesto que h(1) > 0
y h0 (1) = 1/2 > 0, se sigue que h(y) ≥ h(1) + y/2. Sea δ = n−α donde α ∈ (1/3, 1/2).
Veremos que la integral se localiza en [−δ, δ]. Notemos que nh(δ) ∼ n1−2α .
Podemos entonces dividir la integral en lo que pasa en [−δ, δ] y en el complemento.
En el complemento, notemos que
Z −δ  
1−2α
e−nh(y) dy ≤ e−nh(−δ) (1 − δ) = O e−n ,
−1
Z 1  
1−2α
e−nh(y) dy ≤ e−nh(δ) (1 − δ) = O e−n
δ
y
Z ∞ Z ∞
2
e−nh(y) dy ≤ e−nh(1) e−ny/2 dy = e−nh(1) e−n/2 .
1 1 n
CAMINATAS ALEATORIAS 5

Por otra parte, en [−δ, δ] podemos escribir


Z δ Z δ
2 /2
e−h(y) dy = 1 + o nδ 3 e−ny

dy
−δ −δ

 √
Z δ n
2 /2
= 1 + o nδ 3
n √
e−z dz
−δ n
p
∼ 2π/n.
Se deduce que
Z ∞ Z δ
−nh(y)
e dy ∼ e−nh(y) dy.
−1 −δ
y por lo tanto √
n! ∼ nn e−n 2πn.

1.1.4. El teorema lı́mite central. Ahora veremos una consecuencia del Teorema de de
Moivre y Laplace conocida como teorema lı́mite central. Es un caso particular de un
teorema fundamental en la teorı́a de la probabilidad.
Teorema 2 (Teorema lı́mite central para la caminata aleatoria simple y simétrica).
Conforme n → ∞,   Z x
Sn 2 1
P √ ≤x → e−y /2 √ dy.
n −∞ 2π

Otra manera de expresarlo es que Sn / n tiene una distribución lı́mite conforme n →
∞ y que esta distribución es gaussiana. (Se dice que una variable aleatoria X es gaussiana
Rx 2
si P(X ≤ x) = −∞ e−y /2 dy).
Demostración: Comenzaremos por probar que
  Z b
Sn 2
P √ ∈ (a, b) → e−y /2 dy
n a
para cualesquiera a < b. En el intervalo (a, b), al aproximar a la integral en términos de
sumas de Riemann, obtenemos
Z b
X
−k2 /2n 2 2 1
lim e √ = e−x /2 √ dx
n→∞ 2πn a 2π
k+n
2 √
∈N
a≤k/ n≤b

Por otra parte gracias al teorema de de Moivre y Laplace observamos que



P(Sn = k)

sup √
2 /2n
√ √ − 1 → 0,
e −k 2/ πn
k: na≤k≤ nb

por lo cual
√  X
lim P Sn / n ∈ (a, b) = lim P(Sn = k)
n→∞ n→∞
k+n
2 √
∈N
a≤k/ n≤b
X 2 /2n 2
= lim e−k √
n→∞ 2πn
k+n
2 √
∈N
a≤k/ n≤b
Z b
2 /2
= e−x dx.
a
CAMINATAS ALEATORIAS 6
R∞ 2 √
Recordemos que 1 = −∞ e−x /2 / 2π dx. Por lo tanto, para x > 0:
Z −x √ √ √
Z −x Z ∞ 
−y 2 /2 1 −y 2 /2 −y 2 /2
e / 2π dy = e / 2π dy + e / 2π dy
−∞ 2 −∞ x
Z x √
 
1 −y 2 /2
= 1− e / 2π dy
2 −x
Notemos también que Sn tiene una distribución simétrica, por lo cual, si x > 0:
√  1 √ 
P Sn / n ≤ −x = 1 − P Sn / n ∈ (−x, x) .
2
Se sigue entonces que para x > 0:

Z x
2 √
e−y /2 / 2π dy.

P Sn / n ≤ −x =
−∞

√ restante se resuelve notando que si x > 0 entonces P(Sn / n ≤ x) ∼ 1/2 +
El caso
P(Sn / x ∈ (0, x)). 

1.2. La caminata aleatoria Bernoulli y la variable aleatoria geométrica. Ahora


consideraremos un problema en el que aparece una variable aleatoria importante en la
probabilidad: la variable aleatoria geométrica. El problema, dividido en dos partes, es
sencillo de enunciar: dada una sucesión de volados (con una moneda cargada en la que
sale águila con probabilidad p ∈ (0, 1)), ¿Podemos asegurar que eventualmente saldrá
un águila? ¿Con qué probabilidad obtenemos exáctamente k soles antes de la primera
águila? Probabilı́sticamente, el modelo que consideramos consta de una sucesión de
variables aleatorias X1 , X2 , . . . que son independientes y tales que P(Xi = 1) = p =
1 − P(Xi = 0). Al evento {Xi = 1} lo interpretamos como que sale águila en el i-ésimo
volado. Definamos entonces a la cantidad de soles hasta la primera águila como sigue:
sean (
∞ si A = ∅
A = {n ≥ 1 : Xn = 1} y T = .
min A si A 6= ∅
Entonces, para cada k = 0, 1, 2, . . .:
P(T = k) = {X1 , . . . , Xk = 0, Xk+1 = 1} = (1 − p)k p.
P
Como 1 = P(T = k) = P(T < ∞), vemos que P(T = ∞) = 0. Esto responde al
primer cuestionamiento: efectivamente, siempre observamos al menos un águila. De
hecho, se verifica en cursos de probabilidad que hay una cantidad infinita de águilas con
probabilidad uno. Por otra parte, T es lo que se conoce como una variable aleatoria
geométrica, caracterizada por tener la propiedad de pérdida de memoria siguiente:
P( T ≥ n + m | T ≥ m) = P(T ≥ n) .
Ejercicio 2. Pruebe la afirmación anterior sobre T y pruebe que cualquier variable
aleatoria con valores naturales que satisfaga la propiedad de pérdida de memoria es una
variable aleatoria geométrica.
Si Sn = X1 + · · · + Xn , a la cantidad Sn se le interpreta como la cantidad de águilas
en n volados. La interpretación frecuentista de la probabilidad nos dice que Sn /n se
deberı́a parecer a p para n grande. Esto puede justificarse a través de la fórmula de
Stirling.
Ejercicio 3. Pruebe que
 
n
P(Sn = k) = pk (1 − p)n−k .
k
CAMINATAS ALEATORIAS 7

Utilice la aproximación de Stirling, como en el caso de la caminata aleatoria simple y


simétrica, para probar que
1 2
P(Sn = k) ∼ p e−k /2np(1−p)
2πnp (1 − p)
√ 
si k − np = O npq . Sugerencia: ahora será útil definir la función f (x) = x log x/p +
(1 − x) log(1 − x)/(1 − p).
Ejercicio 4. Al escribir
 
n n(n − 1) · · · (n − k + 1)
= ,
k k!
pruebe que si p/n → λ conforme n → ∞ entonces P(Sn = k) → e−λ λk /k!.
1.3. El problema de la ruina. Pasaremos ahora a un problema clásico sobre la cam-
inata aleatoria simple, el llamado problema de la ruina. Un jugador tiene un capital
inicial de m pesos y se enrola en un juego de volados en el que gana un peso con prob-
abilidad p (y los juegos son independientes). No deja de jugar hasta que pasan dos
cosas: acumula un capital objetivo de n pesos o pierde toda su fortuna. Lo que se quiere
determinar es la probabilidad de que termine de jugar con n pesos.
Acerca de este juego plantearemos 3 preguntas: ¿Es cierto que eventualmente occuren
algunas de las dos posibilidades? En caso afirmativo, ¿Cuál es la probabilidad de que el
jugador acumule su capital objetivo? ¿En promedio, cuánto dura el juego? La primera
pregunta es la más sencilla y se responde a través de la caminata aleatoria Bernoulli. Con-
sideremos X1 , X2 , . . . las variables independientes que nos dicen las ganancias sucesivas
del jugador (si jugara indefinidamente) Se asume que P(Xi = 1) = p = 1 − P(Xi = −1)
con p ∈ (0, 1) y que las Xi son independientes. Ahora dividimos los volados en blo-
ques de longitud n y notamos que si Xkn+1 = · · · = Xkn+n = 1 entonces el jugador
alcanza su capital objetivo. Formalmente, podrı́amos definir a la ganancia acumulada
Sk = X1 + · · · + Xk y al instante de ruina
(
∞ R=∅
R = {k ≥ 1 : m + Sk ∈ {0, n}} y R = .
min R R 6= ∅
Entonces notamos que
{Xkn+1 = · · · = Xkn+n = 1 para alguna k ≥ 0} ⊂ {R < ∞} .
Por otra parte, los bloques de n volados son independientes entre si, en cada bloque
hay puros unos con probabilidad pn > 0 y, por el resultado sobre la caminata aleatoria
simple, eventualmente existirá un bloque de n volados con puros unos. Se deduce que
eventualmente o el jugador se arruina o alcanza su capital objetivo.
Para la segunda pregunta, notemos que m + SR es la fortuna del jugador al instante
R, que toma los valores 0 ó n. Por lo tanto m + ST = n si y sólo si el jugador alcanza su
capital objetivo. Ahora nos fijaremos en lo que pasa en el primer paso: ya sea X1 = 1
ó X1 = −1. En el primer caso, el jugador alcanza el capital m + 1 y el problema
recomienza con este nuevo capital. Algo similar ocurre cuando X1 = −1, por lo que
obtenemos Escribamos
qm = P(el jugador alcanza su capital objetivo comenzando con capital m) .
determinemos ahora el valor de qm . Hay dos casos sencillos:
q0 = 0 y qn = 1.
Por otro lado, el análisis de primer paso nos dice que
qm = pqm+1 + (1 − p) qm−1 .
CAMINATAS ALEATORIAS 8

Ası́, la probabilidad de interés queda determinada por una relación de recurrencia con
valores de frontera. Afortunadamente, la solución se conoce. En efecto, escribamos la
relación de recurrencia en la forma

pqm + qqm = pqm+1 + qqm−1 ó pqm + qqm = pqm+1 + qqm−1

ó inclusive

(qm − qm+1 ) = (q/p) (qm−1 − qm ) .

Se sigue entonces que


qm − qm+1 = −q1 (q/p)m
y por lo tanto
( m
q1 1−(q/p)
1−(q/p) si q 6= p
qm = .
q1 m si q = p = 1/2
Al utilizar la igualdad qn = 1 obtenemos finalmente
1−(q/p)m
(
n si q 6= p
qm = 1−(q/p) .
m/n si q = p

Ejercicio 5. Determine la duración


P esperada del juego cuando p = 1/2. Dicha duración
esperada se define como vm = k kP(R = k con capital inicial m). Pruebe que v0 =
0 = vm y que 2vm = 2 + vm+1 + vm−1 . Defina dm = vm − vm−1 y deduzca la igualdad
matricial:
    
dm+1 1 1 dm
= ,
−2 0 1 −2
por lo que
   m  
dm+1 1 1 d1
= .
−2 0 1 −2

1.4. La persistencia de la (mala) suerte. Terminaremos nuestro análisis de las cam-


inatas aleatorias simples al estudiar un resultado denominado por Feller de persistencia
de la mala suerte. Sea Sn , n ≥ 0 una caminata aleatoria simple y simétrica. Esto es,
Sn = X1 + · · · + Xn donde X1 , X2 , . . . son variables aleatorias independientes que toma
los valres −1 y 1 ambos con probabilidad 1/2. Para n ≥ 1 fijo, consideremos a la can-
tidad de tiempo que pasa la caminata aleatoria por encima de cero. (Diremos que la
caminata aleatoria pasa una unidad de tiempo por encima de cero en [i, i + 1] si Si > 0
ó Si−1 > 0. ) Esta vez, nos conformaremos con comprobar inductivamente el resultado
siguiente: Si An es la cantidad de tiempo que pasa la caminata por encima de cero en n
pasos, veremos que

(1) P(A2n = 2k) = P(S2k = 0) P S2(n−k) = 0 .

Recordemos las definiciones de fn y un : fn es la probabilidad de que el primer regreso


a cero de la CAS ocurra en el instante n y un es la probabilidad de que Sn sea cero.
Notemos que {Sn = 0} ⊂ T ≤ n y de hecho: {S2n = 0} es la unión ajena de los eventos
{S2n = 0, T = 2k} para k = 1, 2, . . . , n. Ası́:
n
X
P(S2n = 0) = P(S2n = 0, T = 2k) .
k=1
CAMINATAS ALEATORIAS 9

Por otra parte: P(S2n = 0, T = 2k) = P(T = 2k) P S2(n−k) = 0 = f2k u2(n−k) . En efecto
P(S2n = 0, T = 2k)

= P X1 + X2 6= 0, . . . , X1 + · · · + X2(k−1) 6= 0, X1 + · · · + X2k = 0, X2k+1 + · · · , X2k+2(n−k) = 0
 
= P X1 + X2 6= 0, . . . , X1 + · · · + X2(k−1) 6= 0, X1 + · · · + X2k = 0 P X2k+1 + · · · , X2k+2(n−k) = 0

= P(T = 2k) P X1 + · · · , X2(n−k) = 0

= P(T = 2k) P S2(n−k) = 0 .
Lo anterior se puede escribir en forma compacta como:
n
X
(2) u2n = f2k u2n .
k=1
Ahora sı́ comprobemos la ecuación (1). Dicha ecuación es claramente cierta si k = 0
ó k = n. En efecto, cuando k = 0 obtenemos
1
P(A2n = 0) = P(S1 ≤ 0, . . . , S2n ≤ 0) = P(S1 6= 0, . . . , S1 ) .
2
Por simetrı́a obtenemos el caso k = n.
Supongamos entonces que la ecuación (1) es válida hasta n − 1 y mostrémosla para n
y 1 ≤ k ≤ n. Puesto que k 6= 0, n, entonces {A2n = 2k} ⊂ {T ≤ 2n}. Descomponemos
entonces al evento de interés respecto del valor de T :
n−1
X
P(A2n = 2k) = P(T = 2j, A2n = 2k) .
j=1

Luego, notamos que en el evento T = 2j, la caminata acumula ya sea 2j instantes de


positividad o ninguno. Ası́:
P(T = 2j, A2n = 2k) = P(T = 2j, S1 > 0, A2n − A2j = 2(k − j))
y
P(T = 2j, A2n = 2k) = P(T = 2j, S1 < 0, A2n − A2j = 2k) .
Por otra parte,
1 
P(T = 2j, S1 > 0, A2n − A2j = 2(k − j)) = P(T = 2j) P A2(n−j) = 2(k − j) ,
2
como queda claro al notar que todo camino de longitud 2n tal que T = 2j, S1 > 0 y
A2n −A2j está en corresponcia con dos caminos de longitudes 2j y 2(n−j). El primero es
siempre no negativo y regresa por primera vez a cero en 2j y en el segundo la caminata
es positiva 2(k − j) instantes de tiempo. Análogamente, tenemos la fórmula
1 
P(T = 2j, S1 < 0, A2n − A2j = 2(k − j)) = P(T = 2j) P A2(n−j) = 2k .
2
Por otra parte, notemos que si A2n = 2k y S1 > 0 entonces T ≤ 2k, mientras que si
A2n = 2k y S1 < 0 entonces T ≤ 2(n − k).
Al aplicar la hipótesis de inducción y (2), obtenemos:
k n−k
X 1 X 1
P(A2n = 2k) = f2j u2(n−j),2(k−j) + f2j u2(n−j),2k
2 2
j=1 j=1
k n−k
X 1 X 1
= f2j u2(n−k) u2(k−j) + f2j u2(n−j) u2k
2 2
j=1 j=1
1 1
= u2(n−k) u2k + u2k u
2 2
CAMINATAS ALEATORIAS 10

1
Ejercicio 6. Aplique la fórmula de Stirling para deducir que P(A2n = 2k) ∼ √
π x(1−x)
si x ∈ (0, 1) y k/n → x conforme n → ∞.

References
[dB58] N. G. de Bruijn, Asymptotic methods in analysis, Bibliotheca Mathematica. Vol. 4, North-Holland
Publishing Co., Amsterdam; P. Noordhoff Ltd., Groningen; Interscience Publishers Inc., New
York, 1958. MR 0099564 (20 #6003)

Instituto de Matemáticas, Universidad Nacional Autónoma de México

También podría gustarte