Documentos de Académico
Documentos de Profesional
Documentos de Cultura
APUNTES DE CLASE
Leandro Pardo Llorente
transcritos por
David Peñas
Manuel Morán
Departamento de Estadística e Investigación Operativa
Facultad de Ciencias Matemáticas
Universidad Complutense de Madrid
Febrero 2013
Documento maquetado con TEXiS v.1.0+.
Versión 1.0+
Febrero 2013
A Iñigo,
compañero y amigo.
Agradecimientos
Manuel
Gracias a todos los que lográisteis hacer que estas notas que hoy están
aquí puedan existir. A Jaime, Mayra y Miguel por esos ratos que estuvieron
escribiendo y a Jesús, Quique e Íñigo por la correción de erratas, que han
sido numerosas a lo largo del proyecto. A Iker doblemente agradecido, no
sólo por escribir, si no por las erratas y sugerencias que todos los días tenía
para mí.
Sentido agradecimiento a Manuel Blanco, por haber sido guía maquetan-
do el documuento y por estar ahí siempre que esto no compilaba. Su calidad
como editor de LATEX es incuestionable. Además, gran parte del Capítulo 5
es de su mano, debido a la imposibilidad por mi parte por tener los apuntes
a tiempo.
David
vii
Resumen
ix
Índice
Agradecimientos VII
Resumen IX
1. Introducción 1
1.1. Experimentos aleatorios . . . . . . . . . . . . . . . . . . . . . 1
1.2. Límites de sucesiones de conjuntos . . . . . . . . . . . . . . . 2
1.3. Álgebras y σ-álgebras . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Generación de álgebras y σ-álgebras . . . . . . . . . . 6
1.3.2. σ-álgebras particulares . . . . . . . . . . . . . . . . . . 7
2. Probabilidad 9
2.1. Frecuencia absoluta y frecuencia relativa . . . . . . . . . . . . 9
2.2. Definición axiomática de probabilidad . . . . . . . . . . . . . 9
2.3. Espacio de probabilidad discreto. Análisis combinatorio. . . . 17
2.3.1. Breve repaso de combinatoria . . . . . . . . . . . . . . 18
2.4. Probabilidad condicionada e independencia de sucesos . . . . 20
2.4.1. Teorema de la probabilidad total . . . . . . . . . . . . 22
2.4.2. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . 23
2.4.3. Independencia de sucesos . . . . . . . . . . . . . . . . 24
2.5. Función de distribución en R . . . . . . . . . . . . . . . . . . 27
xi
xii Índice
Introducción
1
2 Capítulo 1. Introducción
Definición 1.5 (Límite superior e inferior). Sea tAn unPN una sucesión de
subconjuntos de un conjunto Ω, se denomina límite superior y límite inferior
de la sucesión a las expresiones:
˜ ¸
8
č 8
ď
lı́mAn “ lı́m sup An “ Am “ A˚
n n
n“1 m“n
˜ ¸
8
ď 8
č
lı́mAn “ lı́m inf An “ Am “ A˚
n n
n“1 m“n
Observación 1.2. ˆ ˙
lı́m sup xn “ ı́nf sup xk
nÑ8 ně1 kěn
ˆ ˙
lı́m inf xn “ sup ı́nf xk
nÑ8 ně1 kěn
Ejemplo 1.3. Sea tAn unPN una sucesión tal que A2n´1 “ p´ n1 , 1s, A2n “
p´1, n1 s
8
č 8
ď
Am “ t0u, Am “ p´1, 1s
m“n m“n
˜ ¸
8
č 8
ď 8
č
Am “ p´1, 1s “ p´1, 1s
n“1 m“n n“1
˜ ¸
8
ď 8
č 8
ď
Am “ t0u “ t0u
n“1 m“n n“1
Observemos que el apartado b) quiere decir que existe un término m tal que
ω pertenece a An para todo n mayor que m.
Demostración.
a) ω P lı́mn An ô ω P 8
Ş `Ť8 ˘ Ť8
m“n Am ô @n N; ω m“n Am ô @n
P P P
n“1
N D r ě m | ω P Ar ô ω pertenece a infinitos An .
b) ω P lı́mn An ô ω P 8
Ť ` Ş8 ˘ Ş8
m“n Am ô D n
P N | ω P
n“1 m“n Am ô
D n N | ω Am @m ě n ô ω pertenece a todos los An salvo a un
P P
número finito de ellos.
Definición 1.6. Sea tAn unPN una sucesión de subconjuntos de Ω tal que
lı́mn An “ lı́mn An , entonces se dice que tAn unPN tiene límite y su expresión
es:
a) tAn u Ò ñ lı́mn An “
Ť8
n“1 An
b) tAn u Ó ñ lı́mn An “
Ş8
n“1 An
i) @A P A ñ Ac P A
Ťn
ii) @A1 , ..., An P Añ i“1 Ai
P A
i) @A P A ñ Ac P A
A (Unión numerable)
Ť8
ii) @A1 , . . . , An , . . . P A ñ i“1 Ai
P
1. H y Ω pertenecen a A
Şn
2. Si A1 , . . . , An P Añ i“1 Ai
P A
4. Si A es un σ-álgebra y A1 , . . . , An , . . . P A, entonces
Ş8
n“1 An
P A
Demostración.
Ş8
“p 8 c c
Ť
i“1 Ai i“1 Ai q
P A
a) A P A ñ A P Ai @i P I ñ Ac P Ai @i P I ñ Ac P A
b) Sean A1 , . . . ,Ť
Ť8
An , . . . . P A ñ A1 , ..., An , ... P Ai @i P I ñ n“1 An
P
Ai @i P I ñ 8 n“1 An A
P
1
familia
1.3. Álgebras y σ-álgebras 7
f ´1 pCq “ tA Ă Ω1 | A “ f ´1 pBq, B P Cu
es álgebra (resp. σ-álgebra).
pa, bq P BpRq
pa, bs “ 8 1 P
Ş
n“1 pa, b ` n q BpRq
ra, bq “ 8 1
Ş
n“1 pa ´ n , bq BpRq
P
Ş8 1
ra, bs “ n“1 pa ´ n , b ` n1 q P BpRq
a “ ra, as P BpRq
Cualquier unión numerable pertenece a BpRq. En particular, los
racionales pertenecen a BpRq (Q es unión numerable de puntos).
Y por supuesto, también su complementario, los irracionales, per-
tenecen a BpRq.
Probabilidad
a) fA P r0, 1s
c) fH “ 0 (H es el suceso imposible)
nAYB nA nB
nAYB “ nA ` nB ñ fAYB “ “ ` “ fA ` fB
n n n
a) P pΩq “ 1
9
10 Capítulo 2. Probabilidad
c) P pAq ě 0 @A P A
a) P pHq “ 0
˜ ¸
ď8 ÿ8 ÿ
P pAq “ P Ai “ P pAi q “ P pAq ` P pAi q ñ P pHq “ 0
i“2
˜ ¸ «˜ ¸ ˜ ¸ff ˜ ¸
n
ď n
ď 8
ď 8
ď
P Ai “P Ai Y H “P Bi
i“1 i“1 i“n`1 i“1
8
ÿ n
ÿ
“ P pBi q “ P pAi q
i“1 i“1
2.2. Definición axiomática de probabilidad 11
d) A P A ñ P pAc q “ 1 ´ P pAq
Demostración.
˜ ¸ ˜˜ ¸ ¸
n`1
ď n
ď
P Ai “ P Ai Y An`1 (por e))
i“1 i“1
˜ ¸ ˜˜ ¸ ¸
n
ď n
ď
“ P Ai ` P pAn`1 q ´ P Ai X An`1 (hip. induc.)
i“1 i“1
n
ÿ
ď P pAi q ` P pAn`1 q
i“1
n`1
ÿ
“ P pAi q
i“1
12 Capítulo 2. Probabilidad
g) Sean A1 , . . . , An P A, entonces:
˜ ¸
n
ď n
ÿ ÿ ÿ
P Ai “ P pAi q´ P pAi XAj q` P pAi XAj XAk q`. . .
i“1 i“1 iăj iăjăk
˜ ¸
n
č
n`1
. . . ` p´1q P Ai
i“1
˜ ¸ ˜ ¸
ďn n´1
ď
P Ai “ P Ai Y An
˜ ¸ ˜ ¸
n´1
ď n´1
ď
“ P Ai ` P pAn q ´ P pAi X An q
n´1
ÿ n´1
ÿ n´1
ÿ
“ P pAi q ´ pAi X Aj q ` P pAi X Aj X Ak q ´ . . .
i“1 iăj iăjăk
˜ ¸
n´1
č n´1
ÿ
. . . ` p´1qn P Ai ` P pAn q ´ P pAi X An q
i“1
˜ ¸
n´1
ÿ n´1
č
n
´ P pAi X Aj X An q ` . . . ` p´1q P pAi X Aj q
iăj i“1
ÿn n
ÿ n
ÿ
“ P pAi q ´ P pAi X Aj q ` P pAi X Aj X Ak q
iăj iăjăk
˜ ¸
n
č
´ p1qn`1 P Ai
i“1
Demostración.
a) Construimos tBn unPN de la siguiente manera:
B1 “ A1 y Bn “ An ´ An´1 @n ě 2
tBn unPN cumple:
Bi P A @i “ 1, 2, . . . , n
An “ ni“1 Bi
Ť
An Òñ A “ lı́mn An “ 8
Ť Ť8
n“1 An “ n“1 Bn
P pAq “ P plı́m An q
˜n ¸ ˜ ¸
8
ď 8
ď
“P An “ P Bn
n“1 n“1
y como los Bi son disjuntos dos a dos
ÿ8
“ P pBn q
n“1
˜ ¸
n
ÿ n
ď
“ lı́m P pBi q “ lı́m P Bi
nÑ8 nÑ8
i“1 i“1
“ lı́m P pAn q (2.1)
nÑ8
Consecuencias:
a) tAn unPN Ó H con An P A ñ lı́mn P pAn q “ 0
˜ ¸ ˜ ¸
8
ď 8
ď
P An “ P Bn “ P plı́m Bn q
n
n“1 n“1
˜ ¸
n
ď
“ lı́m P pBn q “ lı́m P Ai
n n
i“1
n
ÿ 8
ÿ
ď lı́m P pAi q “ P pAn q
n
i“1 n“1
c) P p ě1´
Ş8 ř8 c
n“1 An q n“1 P pAn q
Demostración.
˜ ¸ ˜˜ ¸c ¸
8
č 8
č
P An “ P pAq “ 1 ´ P pAc q “ 1 ´ P An “
n“1 n“1
˜ ¸
8
ď 8
ÿ
“1´P Acn ě1´ P pAcn q
n“1 n“1
2.2. Definición axiomática de probabilidad 15
P plı́mAn q “ 0
n
y así
˜ ˜ ¸¸ ˜ ¸
8
č 8
ď 8
č
P plı́mAn q “ P Am “P Bn “
n
n“1 m“n n“1
y puesto que tBn u es monótona decreciente
˜ ¸
8
ď 8
ÿ
“ P plı́m Bn q “ lı́m P pBn q “ lı́mP Am ď lı́m Am ď ε
n n n n
m“n m“n
luego
˜ ˙¸
8 ˆ ď
č 8
P plı́mAn q ă ε @ε ą 0 ñP Am “0
n
n“1 m“n
Primera desigualdad:
˜ ˜ ¸¸
8
ď 8
č
P plı́mAn q “ P Am
n
n“1 m“n
por ser Bn “ Xm“n Am creciente, Y8
8 Bn es su límite, y así
˜ n“1˜ ¸¸
8
č
“P lı́m Am
nÑ8
m“n
˜ ¸
8
č
“ lı́m P Am (2.4)
nÑ8
m“n
16 Capítulo 2. Probabilidad
˜ ¸
8
č 8
č
Am Ă Am @m ě n ñ P Am
m“n m“n
ď P pAm q @m ě n
˜ ¸
č8
ñ P Am ď ı́nf P pAm q (2.5)
měn
m“n
Segunda desigualdad: Es claro que lı́m inf ď lı́m sup, conocido resultado de
un curso de análisis de variable real.
˜ ˜ ¸¸
8
č 8
ď
P plı́mAn q “ P Am (2.6)
n
n“1 m“n
(por ser Bn “ Ym“n Am decreciente X8
8
n“1 Bn es su límite)
˜ ˜ ¸¸
8
ď
“P lı́m Am
nÑ8
m“n
˜ ¸
8
ď
“ lı́m P Am
nÑ8
m“n
(2.7)
˜ ¸
8
ď 8
ď
Am Ą Am @m ě n ñ P Am
m“n m“n
˜ ¸
8
ď
ě P pAm q @m ě n ñ P Am
m“n
ě sup P pAm q (2.8)
měn
˜ ¸
8
ď
P plı́mAn q “ lı́m P Am ě lı́m sup P pAm q
n nÑ8 nÑ8 měn
m“n
Demostración.
1
P pta1 uq “ P pta2 uq “ ... “ P ptan uq ą 0 ñ pi “ @i “ 1, ..., n
n
k |A|
P pAq “ P ptai1 uq ` ... ` P ptaik uq “ “
n n
también expresada como número de casos favorables entre casos posi-
bles, conocida como regla de Laplace.
18 Capítulo 2. Probabilidad
2.3.1.2. Variaciones
Vn,k “ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq
RVn,k “ nk
2.3.1.3. Permutaciones
Si en el caso de las variaciones sin repetición se toma k “ n se obtienen
las distintas ordenaciones de los n elementos y se conocen con el nombre de
permutaciones.
Pn “ Vn,n “ n ¨ pn ´ 1q ¨ ¨ ¨ 2 ¨ 1 “ n!
2.3.1.4. Combinaciones
Las combinaciones de n elementos tomadas de k en k son todos los grupos
de k elementos sacados de entre los n, de modo que dos grupos son distintos
si tienen algún elemento distinto. El orden es irrelevante.
ˆ ˙
Vn,k n
Cn,k “ “
k! k
El número de variaciones de n elementos tomados de k en k es Vn,k .
Estas Vn,k variaciones se pueden formar de la forma siguiente: se selecciona
una combinación particular de k elementos. Cada permutación distinta de
esos k elementos producirá una variación. Puesto que hay k! permutaciones
de esos k elementos, esta combinación particular producirá k! variaciones:
Vn,k “ Cn,k ¨ k!
Ejemplo 2.7. Sea Ω “ ta, b, c, du
4 4!
ˆ ˙
C4,3 “ “ “4
3 p4 ´ 3q! 3!
Estas combinaciones son:
P pA X Bq
P pB|Aq “ @B P A
P pAq
2.4. Probabilidad condicionada e independencia de sucesos 21
P pAXAq
PA pAq “ P pA|Aq “ P pAq “1
˜ ¸
8
Pp 8
Ť
n“1 pBn X Aqq
ď
PA Bn “
n“1
P pAq
ř8
P pBn X Aq
“ n“1 “
P pAq
8 8
ÿ P pBn X Aq ÿ
“ “ PA pBn q
n“1
P pAq n“1
Observación 2.1.
Ejemplo 2.8. En una población con 50000 habitantes hay 10000 que tra-
bajan por cuenta propia y 20000 que trabajan por cuenta ajena. A una hora
determinada se abre una ventanilla en una de las secciones del ayuntamien-
to. Calcular la probabilidad de que las dos primeras personas trabajen por
cuenta propia y la tercera lo haga por cuenta ajena.
Solución
A1 :“ primera persona trabaja por cuenta propia
A2 :“ segunda persona trabaja por cuenta propia
A3 :“ tercera persona trabaja por cuenta ajena
ÿ
P pBq “ P pAi q ¨ P pB|Ai q
iPI
P pAi qą0
Observación 2.2. Los sucesos Ai cuya probabilidad sea 0, esto es, P pAi q “
0 se desprecian debido a que P pB|Ai q ¨ P pAi q “ 0 y no aportan nada a la
suma.
2.4. Probabilidad condicionada e independencia de sucesos 23
Demostración.
˜ ¸
ď ď
B “ BXΩ“BX Ai “ pB X Ai q
i PI i PI
˜ ¸
ď
ñ P pBq “ P pB X Ai q
i PI
ÿ ÿ
“ P pB X Ai q “ P pAi q ¨ P pB|Ai q
i PI i PI
P pAi qą0
P pB|Aj q ¨ P pAj q
P pAj |Bq “ ř
i PI P pB|Ai q ¨ P pAi q
P pAi qą0
Demostración.
P pAj X Bq P pB|Aj q ¨ P pAj q P pB|Aj q ¨ P pAj q
P pAj |Bq “ “ “ř
P pBq P pBq i PI P pB|Ai q ¨ P pAi q
P pAi qą0
24 Capítulo 2. Probabilidad
Definición 2.7. Bajo las condiciones del teorema anterior P pAj |Bq se de-
nomina probabilidad “a posteriori”, P pB|Aj q “verosimilitudes” y P pAj q pro-
babilidad “a priori”.
6 1
P pA X Bq “ “
36 6
P pA X Bq 1 3 1
P pA|Bq “ “ ¨ “
P pBq 6 1 2
Podemos observar que P pA|Bq “ P pAq, luego la ocurrencia de B no
aporta información acerca del suceso A. A es independiente de B.
P pA X Bq
“ P pAq ñ P pA X Bq “ P pAq ¨ P pBq
P pBq
Definición 2.8. Sea pΩ, A, P q un espacio de probabilidad y sean A, B P A.
Se dice que A y B son dos sucesos independientes si se cumple
P pA X Bq “ P pAq ¨ P pBq
Observación 2.3. Este concepto sigue siendo válido cuando P pAq ó P pBq
son cero.
P pAq “ 0 ñ A es independiente de B @B P A
P pAq ą 0 ñ A es independiente de H y Ω
• Ac , B son independientes:
P pAc X Bq “ P pB ´ pA X Bqq
“ P pBq ´ P pA X Bq
“ P pBq ´ P pAq ¨ P pBq
“ P pBq ¨ p1 ´ P pAqq
“ P pBq ¨ P pAc q
• A, B c son independientes:
P pB c X Aq “ P pA ´ Bq
“ P pA ´ pA X Bqq
“ P pAq ´ P pA X Bq
“ P pAq ´ P pAq ¨ P pBq
“ P pAqp1 ´ P pBqq
“ P pAq ¨ P pB c q
• Ac , B c son independientes:
P pAc X B c q “ P pA Y Bqc
“ 1 ´ P pA Y Bq
“ 1 ´ rP pAq ` P pBq ´ P pA X Bqs
“ 1 ´ P pBq ´ P pAq ` P pAq ¨ P pBq
“ P pB c q ´ P pAq r1 ´ P pBqs
“ P pB c q ´ P pAq ¨ P pB c q
“ P pB c q ¨ r1 ´ P pAqs
“ P pAc q ¨ P pB c q
O también: ˜ ¸
č ź
P Ai “ P pAi q
i PF
1 1 1
P pR X Aq “ “ ¨ “ P pRq ¨ P pAq
4 2 2
FP : R Ñ r0, 1s
x ÞÑ FP pxq “ P pp´8, xsq
a) FP es monótona no decreciente
Demostración.
FP p´8q “ 0
Demostración.
lı́m FP px ` hq “ FP pxq @x P R
hÑ0`
28 Capítulo 2. Probabilidad
lı́m Fp px ` hq “ lı́m Fp px ` an q
hÑ0` nÑ8
“ lı́m P pp´8, x ` an sq (la sucesión tp´8, x ` an sunPN es decreciente)
nÑ8
“ P p lı́m p´8, x ` an sq
nÑ8
˜ ¸
č8
“ P p´8, x ` an s
n“1
“ P pp´8, xsq “ FP pxq
1. F es monótona no decreciente
Teorema 2.4. Dada F : p´8, `8q Ñ r0, 1s que cumple las condicio-
nes de la definición 2.12 existe una única medida de probabilidad P sobre
pR, BpRq, P q de tal forma que la función de distribución FP asociada a P
coincide con la F original.
Demostración.
Observación 2.6.
D ñ P ptxuq ą 0 ñ D m P N, n`1 1 1 Ť8
xPŤ ă P ptxuq ď n ñxP n“1 Dn
x P n“1 Dn ñ P ptxuq ą 0 ñ x P D.
8
Variables aleatorias
unidimensionales
Demostración.
31
32 Capítulo 3. Variables aleatorias unidimensionales
Ejemplo 3.2. Consideramos Ω “ ta, b, c, du, A “ tH, Ω, ta, bu, tcu, tc, du,
ta, b, cu, ta, b, du, tduu.
$
Ω Ñ R & 0 si ω “ a ó b
’
X: , con Xpωq “ 1 si ω “ c
ω Ñ Xpωq ’
2 si ω “ d
%
Nota 1. Para ser variable aleatoria, la aplicación dada depende del álgebra
en consideración. Así, si en el último ejemplo tomamos A˚ “ tH, Ω, ta, bu, tc, duu
podemos observar que X ya no es variable aleatoria ya que las imágenes in-
versas, que antes calculamos, no están en A˚ .
Teorema 3.3. Sean X : pΩ, Aq Ñ pR, BpRqq e Y : pR, BpRqq Ñ pR, BpRqq
dos variables aleatorias, entonces Y ˝ X es una variable aleatoria.
pΩ, Aq
X / pR, BpRqq Y / pR, BpRqq
7
Y ˝X
3.1. Variables aleatorias 33
Demostración.
a) máx pX1 , X2 q
Demostración.
b) mı́n pX1 , X2 q
Demostración.
pmı́n pX1 , X2 qqpωq “ mı́ntX1 pωq, X2 pωqu “ ´ máxt´X1 pωq, ´X2 pωqu
ñ mı́n pX1 , X2 q “ ´ máx p´X1 , ´X2 q
c) suppXn q
nPN
34 Capítulo 3. Variables aleatorias unidimensionales
ˆ ˙
Demostración. sup Xn pωq “ suppXn pωqq
nPN nPN
ˆ ˙´1
sup Xn pp´8, bsq “ tω P Ω | psup Xn qpωq ď bu
nPN
“ tω P Ω | Xn pωq ď b @n P Nu
č8
“ tω P Ω | Xn pωq ď bu
n“1
č8
“ Xn´1 pp´8, bsq P A @b
looooooomooooooon
n“1
PA
d) ı́nf pXn q
nPN
´ ¯
Demostración. ı́nf Xn pωq “ ı́nf pXn pωqq ñ ı́nf Xn “ ´supp´Xn q
nPN nPN nPN nPN
e) lı́mXn
n
ˆ ˙
Demostración. plı́mXn qpωq “ ı́nf suppXr pωqq P A (por c) y d))
n n rěn
f) lı́mXn
n
ˆ ˙
Demostración. plı́mXn qpωq “ sup ı́nf pXr pωqq P A (por c) y d))
n n rěn
Demostración. por e) y f)
es variable aleatoria.
Demostración.
bien definida.
A1 , . . . , An , . . . P BpRq Ai X Aj “ H i‰j
36 Capítulo 3. Variables aleatorias unidimensionales
˜ ¸ ˜ ˜ ¸¸
8
ď 8
ď
´1
PX Ai “ P X Ai
i“1 i“1
˜ ¸
8 `
ď ˘
´1
“ P X pAi q
i“1
8
ÿ
“ P pX ´1 pAi qq
i“1
ÿ8
“ PX pAi q
i“1
X 0 1 2 3
PX pX “ kq ˚ ˚ ˚ ˚
4 3
` ˘` ˘
3´k k
P pX “ kq “ `7˘
3
x1 x2 ... xn
P pX “ xi q P ptx1 uq P ptx2 uq . . . P ptxn uq
3.1. Variables aleatorias 37
1
P pX “ 0q “ FX p0q ´ FX p0´ q “
4
1,5 1 1 1
1 P pX “ 1q “ FX p1q ´ FX p1´ q “ ´ “
2 4 4
muestra en la figura. 0,5 1
P pX “ 2q “ FX p2q ´ FX p2 q “
´
2
´1 1 2 3
X 0 1 2
PX pX “ Kq 1{4 1{4 1{2
#ř
xPBXD P pxq @B BpRq y B X D ‰ H
P
PX pBq “
0 BXD “H
Demostración. Sea ε ą 0
żx ż x´ε
FX pxq ´ FX px ´ εq “ fX ptq dt ´ fX ptq dt “
´8 ´8
żx
“ fX ptq dt “ tT ma valor mediou ε ¨ fX pξq ξ P px ´ ε, εq
x´ε
PY
X Ñ gpXq “ y ¿FY , fY ?
fY
3.1. Variables aleatorias 39
X 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P pX “ xq 36 36 36 36 36 36 36 36 36 36 36
$
& 5 si
’ X “ 7 o X “ 11
Y “ gpXq “ ´3 si X “ 3 o X “ 12
’
0 resto
%
P pY “ 5q “ PY pt5uq “ P pω Ω | Y pωq “ 5q
P
8
“ P pω P Ω | Xpωq “ 7 o 11q “
36
P pY “ ´3q “ PY pt´3uq “ P pω P Ω | Y pωq “ ´3q
3
“ P pω P Ω | Xpωq “ 3 o 12q “
36
25
P pY “ 0q “ PY pt0uq “ . . . “
36
Y ´3 0 5
3 25 8
P pY “ yq 36 36 36
En general:
g
pΩ, Aq
X / pR, BpRqq / pR, BpRqq
7
Y “gpXq
Siendo RY el soporte de Y .
40 Capítulo 3. Variables aleatorias unidimensionales
Demostración.
Demostración.
ża ż0
P pY “ 1q “ P pX ą 0q “ fX pxq dx P pY “ ´1q “ P pX ă 0q “ fX pxq dx
0 a
FY pyq “ FX pg ´1 pyqq @y P RY
1
$
& fX pg ´1 pyqq y P rgpaq, gpbqs
fY pyq “ g1 ¨ pg ´1 pyqq
0 y R rgpaq, gpbqs
%
y P RY ñ FY pyq “ P pY ď yq “ P pgpXq ď yq “
“ P pX ď g ´1 pyqq “ FX pg ´1 pyqq
B B 1
fY pyq “ FY pyq “ FX pg ´1 pyqq “ fX pg ´1 pyqq ¨ 1 ´1
By By g pg pyqq
Observación 3.5.
FY pyq “ 1 ´ FX pg ´1 pyqq @y P RY
Y además
$
´1
& fX pg ´1 pyqq y P rgpaq, gpbqs
fY pyq “ g1 ¨ pg ´1 pyqq
0 y R rgpaq, gpbqs
%
Y “ eX , y P rea , eb s
1 1 1
fY “ fX pln yq ¨ “ ¨
y b´a y
Ejemplo 3.10 (Ejercicio 10, hoja 3). Consideramos X variable aleatoria
de Cauchy (i.e. fX pxq “ πp1`x1
2 q ). Ahora sea Y “ 3X ` 1. Se pide calcular
FY , fY
FY pyq “ P pY ď yq “ P p3X ` 1 ď yq “ P pX ď y´1 y´1
3 q “ FX p 3 q
fY pyq “ FY1 pyq “ FX1 p y´1 1
3 q“ π ¨
1 1
y´1 2 ¨ 3 , yPR
1`p 3
q
Teorema 3.10. Sea X una variable aleatoria continua con función de den-
sidad fX pxq y sea g : R Ñ R continua y g 1 pxq ‰ 0 salvo en un número finito
de puntos. Supongamos que para cada número real y se tiene
Observación 3.6.
Y ahora,
6 6 ÿ 1
8
ÿ 8
n´1
ErXs “ p´1q n 2 2 “ 2 p´1qn´1
n“1
π n π n“1 n
converge
Estudiemos ahora la convergencia absoluta.
ˇp´1qn´1 1 ˇ “ 1
8 ˇˇ
ÿ
ˇ
ÿ8
no es abs. convergente ñ no existe ErXs
ˇ
n“1
ˇ n ˇ
n“1
n
Observación 3.7.
żb
a) Si RX “ ra, bs ñ ErXs “ x ¨ fX pxq dx
a
ż8 żb
b) Si RX “ R ñ ErXs “ x ¨ fX pxq dx “ lı́m x ¨ fX pxq dx
´8 aÑ´8 a
bÑ8
Definición 3.7 (E.M de v.a mixta). Sea X una variable aleatoria mixta.
Sea λ P R tal que FX pxq “ λFd pxq ` p1 ´ λqFc pxq, donde Fc , Fd son las
funciones de distribución de Xd , Xc , una variable aleatoria discreta y otra
continua respectivamente. Entonces, la esperanza de X viene dada por
8
ÿ
S 1 pxq “ nxn´1 “
n“1
1´x`x 1
“ 2
“ ñ
p1 ´ xq p1 ´ xq2
1 5
ˆ ˙
ñ ErXs “ S 1 “
6 6
1 1
“ “6
6 p1 ´ 5{6q2
& 1 xě1
$
fX pxq “ x2
%0 resto
Calcular ErXs.
Solución. Calculamos la esperanza mediante la definición,
ż ż1 ż8
ErXs “ xfX pxq dx “ xfX pxq dx ` xfX pxq dx “
RX ´8 1
1
ż8 `8
“0` x ¨ 2 dx “ ln x “ `8 ñ E ErXs
1 x 1
si X es discreta o ż
ErY s “ gpxq ¨ fX pxq dx
RX
si Y es continua.
b)
ż
ErY s “ y ¨ fY pyq dy
RY
1
ż
` ˘
“ y ¨ fX g ´1 pyq dy
RY g 1 pg ´1 pyqq
#
y “ gpxq x “ g ´1 pyq
“ 1
dx “ g1 pg´1 pyqq
dy
ż
“ gpxqfX pxq dx
RX
Observación 3.9.
b) a ď X ď b, entonces a ď ErXs ď b
@i a ď xi ď b ñ a ¨ P pX “ xi q ď xi ¨ P pX “ xi q ď b ¨ P pX “ xi q
ÿ8 8
ÿ ÿ8
ñ a P pX “ xi q ď xi P pX “ xi q “ ErXs ď b P pX “ xi q
(& P pX “ xi q “ 1)
ř
Si a “ 0 ñ X ě 0 ñ ErXs ě 0
3.3. Otras medidas de centralización 47
3.3.2. Mediana
Definición 3.9 (Mediana). Dada una variable aleatoria X, la mediana es
el valor Md que verifica
1
FX pMd q “ P pX ď Md q “
2
La mediana es el valor que deja a su izquierda y a su derecha la misma
cantidad de masa de probabilidad, ya que:
1 1
P pX ą Md q “ 1 ´ P pX ď Md q “ 1 ´ “
2 2
Observación 3.10.
1
Si X es continua siempre se puede encontrar un
valor Md que sea la mediana de X
Md
1,5
Si X es discreta no se puede asegurar que exista
1
o que sea único. En el ejemplo de la izquierda,
0,5
cualquier valor del intervalo p1, 2q nos vale como
´1 1 2 3 mediana.
P pX “ 0q “ 1
4 P pX “ 1q “ 1
2 P pX “ 2q “ 1
4
$
’
’
’ 0 si xă0
si 0 ď x ă 1
’
& 1{4
FX pxq “ P pX ď xq “
’
’
’
3{4 si 1 ď x ă 2
% 1
’
si xě2
ErXs “ 0 ¨ 1
4 `1¨ 1
2 `2¨ 1
4 “1 Md “ 1
4
ż2
x
ErXs “ x¨ dx “
0 2 3
Proposición 3.4. Si X es una variable aleatoria con distribución simétrica
respecto de un valor c, entonces la mediana es c.
Demostración.
ż8 żc ż8
1“ fX pxq dx “ fX pxq dx ` fX pxq dx “
´8 ´8 c
żc
“2 fX pxq dx
´8
y así
1
żc
“ fX pxq dx “ FX pcq
2 ´inf ty
luego c es la mediana de X.
3.3.3. Moda
Definición 3.10 (Moda). Se denomina moda de la variable aleatoria X al
valor que hace máxima la función de probabilidad en caso de ser discreta,
o como el valor que hace máxima la función de densidad en caso de ser
continua.
Observación 3.11. Por tratarse del máximo de una función en un conjunto
cerrado, puede que en ocasiones la moda no exista o no sea única.
pσ 2 ě 0; ErpX ´ lo
ErXs 2
omoonq sq
ě0
varpXq “ 0 ô D c P R | P pX “ cq “ 1
varpXq “ α2 ´ α12
Demostración.
ðq D c P R | PX pX “ cq “ 1 ñ ErXs “ c ¨ PX pX “ cq “ c y
también que ErX 2 s “ c2 ¨ PX pX “ cq “ c2 ñ varpXq “ 0, ya que
varpXq “ ErpX ´ ErXsq2 s
ñq Suponemos X discreta.
ÿ
0 “ varpXq “ ErpX´ErXsq2 s “ px´ErXsq2 ¨P pX “ xq ñ
x PR X
ñ x “ ErXs @x P RX
“ E a2 pX ´ ErXsq2
“ ‰
” ı
“ a2 E pX ´ ErXsq2
“ a2 varpXq
3.4. Medidas de dispersión de una variable aleatoria 51
“ E X 2 ` E ErXs2 ´ 2E rErXs ¨ Xs
“ ‰ “ ‰
“ E X 2 ` ErXs2 ´ 2ErXsErXs
“ ‰
“ E X 2 ´ ErXs2
“ ‰
“ α2 ´ α12
ÿ ż
k
pz ´ ErXsq PX pX “ xq & pz ´ ErXsqk fX pxq dx
xPRX RX
En particular, si k “ 2 ñ µ2 “ σ 2 “ α2 ´ α12
Proposición 3.6. Los momentos de orden k respecto de la media, µk , y
respecto del origen, αk , verifican las siguientes relaciones:
ErXs “ µ “ α1
looooooooomooooooooon řn
a) µn n
` ˘
ErpX ´ µqn s “
“ k“0 k p´1qn´k µn´k αk
b) αn “ ErX n s “ nk“0 nk µn´k µk
ř ` ˘
Demostración.
a)
µn “ ErpX ´ µqn s
« ff
n ˆ ˙
ÿ n
“ E p´1qn´k µn´k X k
k“0
k
n ˆ ˙
ÿ n
“ p´1qn´k µn´k ErX k s
k“0
k
n ˆ ˙
ÿ n
“ p´1qn´k µn´k αk
k“0
k
52 Capítulo 3. Variables aleatorias unidimensionales
b)
αn “ ErX n s “ ErppX ´ µq ` µqn s
« ff
n ˆ ˙
ÿ n
“ E pX ´ µqk µn´k
k“0
k
n ˆ ˙
ÿ n n´k
“ µ ¨ ErpX ´ µqk s
k“0
k
n ˆ ˙
ÿ n n´k
“ µ µk
k“0
k
Sean Y los panecillos que deberá comprar el dueño, denotados por 300`k
por comodidad.
P pX ě 300`kq ď?14 ñ P pX´300 ě kq “ P X ´ 300 ě 20 k ď P |X ´ 300| ą 20 20
` 20
˘ ` k
˘
ď
1
k 2
“ 14 ñ k ě 1600 “ 40 Con lo cual, deberá comprar 324 panecillos.
p 20 q
MX psq “ E esX
“ ‰
@s P R
54 Capítulo 3. Variables aleatorias unidimensionales
6 ÿ esn
8
ÿ 8
MX psq “ esn ¨ P pX “ nq “
n“1
π 2 n“1 n2
esn
a) Si s ą 0 ñ lı́mnÑ8 n2
“ 8 ñ por ser MX psq no convergente no
existe para s ą 0
sn
b) Si s ă 0 ñ esn ă e @n ñ en2 ď ne2 y 8 n“1 n2 es convergente ñ
e
ř
ř8 esn
n“1 n2 es convergente ñ D MX psq para s p´8, 0s
P
Bk
ˆ ˙ ” ı
kq
@k, MX p0q “ M X psq “ E X k “ αk
Bsk s“0
ÿ
1
MX p0q “ x ¨ P pX “ xq “ ErXs
x PR x
kq
Es claro que MX p0q “ E X k @k. Por el desarrollo de McLaurin de
“ ‰
MX psq @s P p´s0 , s0 q
1 2 1 kq
MX psq “ M X p0q ` M
1
X p0q s ` MX p0q s2 ` ¨ ¨ ¨ ` MX p0q sk ` . . .
loomoon loomoon 2! k!
1 ErXs
8 kq 8
ÿ MX p0q k ÿ αk k
“ s “1` s
k“0
k! k“1
k!
ż ż ż
e itx
fX pxq dx “ cos tx fX pxqdx ` i ¨ sen tx fX pxqdx
RX RX RX
” ı
kq
ϕX p0q “ ik ¨ E X k
56 Capítulo 3. Variables aleatorias unidimensionales
” ı ” ı
ϕaX`b ptq “ E eitpaX`bq “ E eitaX ¨ eitb “ eitb ¨ ϕX patq
P pX “ 1q “ P pX ´1 p1qq “ P pEq “ p
P pX “ 0q “ P pX ´1 p0qq “ P pF q “ 1 ´ p En lo sucesivo, usaremos indistin-
tamente q y 1 ´ p. Calculamos ahora todas las medidas de la variable que
conocemos.
Esperanza µ “ ErXs “ 0 ¨ p1 ´ pq ` 1 ¨ p “ p
Tendremos en cuenta Ωn .
ω P Ωn ñ ω “ pR1 , . . . , Rn q donde cada Ri “ E ó Ri “ F . P pωq “ pk ¨ q n´k
(k éxitos y n ´ k fracasos).
Consideremos la aplicación y la tabla de representación de la variable
aleatoria X:
X 0 1 2 ... n
X”
P pX “ xq . . . . . . . . . ...
“ itX ‰ ÿn
ϕX ptq “ E e “ eitk ¨ P pX “ kq
k“0
n ˆ ˙
itk n
ÿ
“ e pk ¨ p1 ´ pqn´k
k“0
k
n ˆ ˙
ÿ n itk k n´k
“ e p ¨q
k“0
k
“ peit p ` qqn
ϕ1 p0q ˘n´1
Esperanza: ErXs “ Xi ; Calculemos ahora ϕ1X ptq “ n ¨ eit p ` q
`
¨
p ¨ i ¨ eit ñ ϕ1 p0q “ n ¨ p ¨ i. Luego entonces ErXs “ np
“ ‰ ϕ2 p0q
Momento de orden 2: α2 “ E X 2 “ Xi2 “ n2 p2 ´ np2 ` np
“ ‰
Varianza: E X 2 ´ ErXs2 “ npp1 ´ pq
58 Capítulo 3. Variables aleatorias unidimensionales
P pX “ 3q “ 10 3 0,1 ¨ 0,9
10´3 « 0,0574
` ˘ 3
P pX ě 2q “ 1 ´ P pX ă 2q “ 1 ´ rP pX “ 0q ` P pX “ 1qs “ 1 ´
r0,3487 ` 0,3874s
k 0,6 0,4
P pX “ kq “ 10 “ 10´k 0, 4 ¨ 0,6k “ P pY “ n ´ kq
` ˘ k 10´k ` 10 ˘ 10´k
B(10, 0.6) B(10,0.4)
P pX “ kq “ P pY “ n ´ kq
B(n,p) B(n, 1-p)
P pX ě 2q “ 1 ´ P pX ă 2q “ 1 ´ tP pX “ 0q ` P pX “ 1qu “
“ 1 ´ tP pY “ 10q ` P pY “ 9qu
ˆ ˙
n n!
P pX “ kq “ ¨ pk ¨ p1 ´ pqn´k “ pk ¨ p1 ´ pqn´k
k pn ´ kq!k!
nk ¨ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ k ` 1q k
“ p ¨ p1 ´ pqn´k
nk ¨ k!
pnpqk ¨ n ¨ pn ´ 1q ¨ ¨ ¨ pn ´ pk ´ 1qq p1 ´ pqn
“ ¨
nk ¨ k! p1 ´ pqk
pnpqk 1 2 k´1 p1 ´ pqn
ˆ ˙ ˆ ˙ ˆ ˙
“ ¨1¨ 1´ ¨ 1´ ¨¨¨ 1 ´ ¨
k! n n n p1 ´ pqk
n
pnpqk λk
¨1¨ 1 ´ n1 ¨ 1 ´ n2 ¨ ¨ ¨ 1 ´ ¨ p1´pqk ÝÝÝÝÑ lı́mnÑ`8 p1´pqn
` ˘ ` ˘ ` k´1
˘
k! n p1´pq npÑλ k!
pÑ0
nÑ8
pÑ0
λk
lı́m p1 ´ pqn “
k! pÑ0
nÑ`8
»˜ ¸´ 1 fi´pn
λk 1 p
“ lı́m – 1 ` 1 fl “
k! pÑ0 ´p
nÑ`8
λk
“ e´λ ¨
k!
n ą 50 p ă 0,1 np ă 5
ÿ ÿ λk
FX pxq “ P pX “ kq “ e´λ ¨
kďx kďx
k!
60 Capítulo 3. Variables aleatorias unidimensionales
α2 “ E X 2
“ ‰
α1 “ µ “ ErXs
8 8
ÿ ÿ λk
“ k ¨ P pX “ kq “ k 2 ¨ e´λ ¨
k“0 k“0
k!
8
ÿ λk ÿ8 ` ˘ λk
“ k ¨ e´λ ¨ “ e´λ k2 ´ k ` k ¨
k“0
k! k!
k“1
8 ˜ ¸
ÿ λk´1 8
λk
8
λk
“ e´λ ¨ λ
ÿ ÿ
pk ´ 1q! “ ´λ
e ¨ k ¨ pk ´ 1q ¨ ` k¨
k“1 k“0
k! k“0 k!
“ e´λ ¨ λ ¨ eλ “ λ
˜ ¸
8 8
ÿ λk ÿ λk
“ ´λ
e ¨ k ¨ pk ´ 1q ¨ ` k¨
k“2
k! k“1 k!
˜ ¸
8 k´2 8 k´1
ÿ λ ÿ λ
“ e´λ ¨ λ2 ¨ `λ¨
k“2
pk ´ 2q! k“1
pk ´ 1q!
´ ¯
“ e´λ ¨ λ2 ¨ eλ ` λ ¨ eλ “ λ2 ` λ
‰ ÿ8
ϕX ptq “ E eitX “ eitk ¨ P pX “ kq “
“
k“0
8 8 ` it ˘k
ÿ
itk ´λ λk ´λ
ÿ λe
“ e ¨e ¨ “e “
k“0
k! k“0
k!
it it ´1q
“ eλe ¨ e´λ “ eλpe
s ´1q
varpXq “ µ2 “ σ 2 “ α2 ´ α12 “ λ2 ` λ ´ λ2 “ λ & MX psq “ eλpe
1
8 8
ÿ ÿ p
q k´1 p “ p ¨ q k´1 “ p ¨ “ “1
k“1 k“1
1´q p
Función característica:
8 8
‰ ÿ p ÿ ` it ˘k p eit ¨ q
ϕX ptq “ E eitX “ eitk p1´pqk´1 ¨p “ ¨
“
e ¨q “ ¨
k“1
q k“1 q 1 ´ eit q
Momentos de orden 1, 2:
E X2
“ ‰
α1 “ µ “ ErXs α2 “
ÿ8 8
ÿ
“ k P pX “ kq “ k 2 ¨ P pX “ kq
k“0 k“0
ÿ8 ÿ8
“ kp1 ´ pqk´1 ¨ p “ k 2 ¨ q k´1 ¨ p
k“0 k“1
1 1
8 8
ÿ p ÿ 2 k
“ p kp1 ´ pqk´1 “p˚q p ¨ “ “ ¨ k ¨q
k“1
p2 p q k“1
p qpq ` 1q
“ ¨
x“q q p3
1´x“p
q`1
“
p2
Varianza:
q`1 1 q
varpXq “ E X 2 ´ pErXsq2 “
“ ‰
´ 2 “ 2
p2 p p
(*)
1 1
8
ÿ
Sp “ p1 ´ pqk “ “
k“0
1´q p
p˚q 1
8 8
ÿ ´1 ÿ
Sp1 “ k ¨ p1 ´ pqk´1 ¨ p´1q “ ùñ k ¨ p1 ´ pqk´1 “ 2
k“0
p2 k“0
p
62 Capítulo 3. Variables aleatorias unidimensionales
P pX ą kq “ P pX “ k ` 1q ` P pX “ k ` 2q ` ¨ ¨ ¨ “
“ pq k ` p ¨ q k`1 ` p ¨ q k`2 ` ¨ ¨ ¨ “
1
“ p ¨ q k 1 ` q ` q 2 ` ¨ ¨ ¨ “ pq k ¨ “ qk
` ˘
1´q
luego,
P ppX ą m ` nq X pX ą mqq
P pX ą m ` n | X ą mq “ “
P pX ą mq
P pX ą m ` nq q m`n
“ “ m “ q n “ P pX ą nq
P pX ą mq q
n`k´1 n k
ˆ ˙
P pX “ kq “ P ptω P Ω | Xpωq “ kuq “ p ¨q
k
Observación 3.16.
αpα ´ 1q ¨ ¨ ¨ pα ´ k ` 1q
ˆ ˙
α
“ α P R, k P Z`
k k!
` α˘
@k ą α k “0 si α P Z`
3.7. Distribuciones discretas 63
Ejemplo 3.19.
8 ˆ ˙
ÿ α k
@x P Rp1 ` xqα “ x , x, α P R |x| ă 1
k“0
k
c) @α P R, @k P Z`
n`k´1 n
8
ÿ ÿ8 ˆ ˙
P pX “ kq “ p ¨ p1 ´ pqk
k“0 k“0
k
8 ˆ ˙
ÿ
k ´n n k
“ p´1q ¨ p q
k“0
k
8 ˆ ˙
ÿ ´n
“ pn ¨ p´qqk “ pn ¨ p1 ´ qq´n
k“0
k
“ pn ¨ p´n “ 1
Función característica:
n`k´1 n k
8
ÿ 8
ÿ ˆ ˙
itX itk itk
“ ‰
ϕX ptq “ E e “ e P pX “ kq “ e p ¨q “
k“0 k“0
p
itk n ` k ´ 1
8 ˆ ˙ 8 ˆ ˙
n
ÿ
k n
ÿ
itk k k ´n
“p e q “p e ¨ q ¨ p´1q ¨ “
k“0
k k“0
k
8 ˆ ˙ ˆ ˙n
n
ÿ ´n it k n it ´n p
“p p´q ¨ e q “ p ¨ p1 ´ q ¨ e q “
k“0
k 1 ´ q ¨ eit
nq
Esperanza: ErXs “ p
nq
Varianza: varpXq “ p2
64 Capítulo 3. Variables aleatorias unidimensionales
Definimos
1 ÿ D
ˆ ˙ ˆ ˙
ÿ N ´D
P pX “ kq “ `N ˘ ¨ ¨ “1
k n k
k n ´ k
D
Esperanza: α1 “ µ “ ErXs “ N ¨n
n¨pn´1q
Momento de orden dos: α2 “ E X 2 “ D ¨ pD ´ 1q ¨
“ ‰ D¨n
N ¨pN ´1q ` N
Varianza: σ 2 “ varpXq “ µ2 “ n ¨ D
N ¨ N ´D
N ¨ N ´n
N ´1
Función de densidad:
#
1 fX pxq 1
b´a x P pa, bq b´a
fX pxq “
0 x R pa, bq
a b
Función de distribución:
$
&0
’ xăa FX pxq
x´a
FX pxq “ b´a a ď x ă b 1
’
1 xěb
%
a 0
b
ż ż
2
x2 fx pxq dx
“ ‰
ErXs “ α1 “ x ¨ fx pxq dx E X “ α2 “
RX RX
1 1
żb żb
“ x¨ dx “ x2 dx
a b´a a b´a
„ 2 b
1 1 x3 b
x
“ ¨ “
b´a 2 a b´a 3 a
1 1 1 b3 ´ a3
“ ¨ ¨ pb2 ´ a2 q “
b´a 2 3 b´a
pb´aqpb
` aq 1 2
pb ` a2 ` abq
“ ¨ 2 “
pb
´ aq 3
b`a
“
2
Varianza:
1` 2
varpXq “ α2 ´ α12 “ b ` a2 ` ab ´
˘
3
pb ` aq2 b2 ` a2 ´ 2ab pb ´ aq2
´ “ “
4 12 12
66 Capítulo 3. Variables aleatorias unidimensionales
Función característica:
ż
ϕX ptq “ E eitX “ eitx fx pxq dx “
“ ‰
RX
b
1 1 eitx
żb
eitb ´ eita
“ eitx dx “ “
a b´a b ´ a it a itpb ´ aq
etb ´eta
Función generatriz: MX ptq “ t¨pb´aq
Demostración.
y t´1 ´y 1
ż8 " ż8
t´1 ´ax y “ ax
x e dx “ dy “ dx “ e dy “
0 a 0 a a
1 8 t´1 ´y 1
ż
“ t y e dy “ t Γptq
a 0 a
b) Γpt ` 1q “ tΓptq
Demostración.
ż8 "
u “ xt dv “ e´x dx
Γpt ` 1q “ t ´x
x e dx “ du “ txt´1 v “ ´e´x “
0
8 ż 8 ż8
t ´x
“ ´x e ` e´x txt´1 dx “ t e´x xt´1 dx “ tΓptq
0 0 0
c) Γpnq “ pn ´ 1q! n P N
` ˘ ?
d) Γ 21 “ π
Definición 3.15. Se dice que una variable X sigue una distribución normal,
N pµ, σq, µ P R, σ ą 0, si su función de densidad es de la forma
1 1 x´µ 2
fX pxq “ ? e´ 2 p σ q xPR
σ 2π
3.8. Distribuciones continuas 67
Demostración.
1
ż ż "
2 x´µ
´ 21 p x´µ q “z
fX pxq dx “ ? e σ dx “ 1 σdx “ dz “
R R σ 2π σ
1 1
ż ż8 "z
1 2 1 2 ? “y
“σ ? e 2 dz “ 2
´ z ´ z
? e 2 dz “ ?dz2 “
R σ 2π 2π “ dy
0 2
1 ´y2 ? 2 8 ´y2
ż8 ż
“2 ? e 2 dy “ ? e dy “
0 2π π 0
2 1 ?
" ż 8
y2 “ t
“ dy “ dt “ ? e´t t´1{2 dt “ ? π“1
?
2 t 2 π loooooooomoooooooon
0 π
Γp1{2q
Esperanza:
1
ż ż "
1 x´µ 2 x´µ
“z
ErXs “ xfX pxq dx “ x ? e´ 2 p σ q dx “ dxσ “ σdz “
σ 2π
„R ż R
1
ż ż8 "z
´ 1 2
z 2 ´ 1 2
z µ ´ 1 2
z ? “u
“ ? µσ e 2 dz ` σ ze 2 dz “ ? e 2 dz “ 2 ? “
σ 2π R R 2π 0 dz “ 2du
?
2µ ? 8 ´u2
ż "
u2 “ t dt “ 2 tdu
“? 2 e du “ 2udu “ dt du “ dt “
2π 0
?
2 t
? ż
2µ 2 8 1 ´ 1 ´t 1
ˆ ˙
µ
“ ? t 2 e dt “ ? Γ “µ
2 2π 0 2 π 2
1
ż ż "
1 x´µ 2 x´µ
“r
α2 “ E X 2 “ x2 fX pxq dx “ x2 ? e´ 2 p σ q dx “ dxσ “ σdr
“ ‰
“
σ 2π
ż R R
1 1
„ż
1 2 1 2
r
2 ´
“ ? “ pσr ` µq e 2 σ dr “ ? r2 σ 2 e´ 2 r dr`
σ 2π R 2π R
ż ż
1 2 1 2
` µ2 e´ 2 r dr ` 2µσ re´ 2 r dr “
R R
looooooomooooooon
función impar
1
„ ż
1 2 ?
“? σ 2
r e 2 dr ` µ 2π ` 0 “p˚q σ 2 ` µ2
2 ´ r 2
2π R
68 Capítulo 3. Variables aleatorias unidimensionales
ż "
r2 dh
2 ´ 12 r2 “h dr “
p˚q r e dr “ 2
rdr “ dh dr “ ?
r
dh “
R 2h
1 4 8 1 ´h ?
ż ż
“ 2he´h ¨ ? dh “ ? h 2 e dh “ 2π
R 2h 2 loooooomoooooon
0
Γp3{2q“1{2Γp1{2q
Función característica:
ż
“ itX ‰
ϕX ptq “ E e “ eitx fX pxq dx “
R
1 1
ż " ż
itx ? ´ 12 p x´µ q2 z “ x´µ 1 2
“ e e σ dx “ dx “ σdz σ
“ eitpzσ`µq ¨ ? ¨e´ 2 z ¨σ dz “
R σ 2π R σ 2π
eitµ itµ ż
ż
z2 e 1 2 1 2 2
“? epitzσ´ 2 q “ ? e´ 2 pz´itσq e´ 2 t σ dz “
2π R 2π R
1 2 2 ż 1 2 2
eitµ´ 2 t σ 1 2 eitµ´ 2 t σ ? 1 2 2
“ ? e´ 2 pz´itσq dz “p˚q ? 2π “ eitµ´ 2 t σ
2π R 2π
ż "
1 2 z ´ itσ “ v
p˚q e´ 2 pz´itσq dz “ dz “ dv
“
R
ż
1 2 ?
“ e´ 2 v dv “ 2π
R
Observación 3.18.
1 2
a) X ” N p0, 1q ñ ϕX ptq “ e´ 2 t
Demostración.
” X´µ ı ” itX ´itµ ı
ϕZ ptq “ E eit σ “ E e σ ¨ e σ
µ 1 t2
´itµ
” itX ı µ t µ 2
“ e σ ¨E e σ “ e´it σ ϕX p σ q “ e´it σ eit σ ´ 2 σ2 σ “
1 2
“e´ 2 t ñ Z ” N p0, 1q
3.8. Distribuciones continuas 69
ap ´ax p´1
ż ż8 "
ax “ y
fX pxq dx “ e x dx “ adx “ dy “
R 0 Γppq
ap y p´1 1 Γppq
ż8
“ e´y p´1 dy “ “1
Γppq 0 a a Γppq
ap
ż8 ż8
“ itX ‰ itx
ϕX ptq “ E e “ e ¨ f pxq dx “ eitx ¨ ¨ e´ax ¨ xp´1 ¨ dx
0 0 Γppq
ap
ż8
“ ¨ xp´1 ¨ e´xpa´itq dx
Γppq 0
˙p´1
ap
ż8ˆ
y dy
pa´itqx“y “ ¨ ¨ e´y ¨
Γppq 0 a ´ it a ´ it
˙p ˆ
p 1 it ´p
ż8 ˆ ˙
a a
“ ¨ ¨ p´1 ´y
y ¨ e dy “ “ 1´
Γppq
pa ´ itqp 0 a ´ it a
la esperanza
ap ap
ż ż8 ż8
ErXs “ x ¨ f pxq dx “ x¨ ¨ e´ax ¨ xp´1 dx “ xp ¨ e´ax dx
R 0 Γppq Γppq 0
ap y p 1 ´y 1 1
ż8´ ¯ ż8
ax“y “ ¨ ¨ e dy “ ¨ y p ¨ e´y dy
Γppq 0 a a a Γppq 0
1 1 “ p
“ ¨ ¨ p ¨ Γppq
a Γppq
a
70 Capítulo 3. Variables aleatorias unidimensionales
ap ap
ż ż8 ż8
2 2
¨ e´ax ¨ xp`1 dx “ xp`1 ¨ e´ax dx
“ ‰
E X “ x ¨ f pxq dx “
R 0 Γppq Γppq 0
ap ż8´ ¯
y p`1 dy
ax“y “ ¨ e´y ¨ “
Γppq 0 a a
1 1 p ¨ pp ` 1q
“ 2¨ ¨ Γpp ` 2q “
a Γppq a2
p2 ` p p2 p
varpXq “ σ 2 “ µ2 “ α2 ´ α12 “ 2
´ 2 “ 2
a a a
Observación 3.19. #
λe´λx x ą 0
Si tenemos a “ λ, p “ 1 ñ fX pxq “ ” γpλ, 1q
0 resto
Esta distribución se llama exponencial de parámetro λ.
ż1
βpp, qq “ xp´1 p1 ´ xqq´1 dx
0
ΓppqΓpqq
a) βpp, qq “
Γpp ` qq
3.8. Distribuciones continuas 71
Demostración.
ż8 ż8 ż8 ˆż 8 ˙
Γppq ¨ Γpqq “ ´t
e ¨t p´1
dt ¨ ´y
e ¨y q´1
dy “ ´t p´1
e t ¨ ´y q´1
e y dy dt
0 0 0 0
ż8 ˆż 8 ˙
´t p´1 ´tx q´1 q´1
y“tx “ e ¨t ¨ e ¨t ¨x ¨ t dx dt
dy“t dx 0 0
ż8ż8
“ e´tpx`1q ¨ tp`q´1 ¨ xq´1 dx dt
ż08 0 ˆż 8 ˙
q´1 ´tpx`1q p`q´1
“ x ¨ e ¨t dt dx
0 0
ż8 ˜ż8 ˆ ˙p`q´1 ¸
y dy
tp1`xq“y “ xq´1 ¨ e´y ¨ ¨ dx
p1`xq dt“ dy 0 0 1`x 1`x
: Γpp ` qq
xq´1
ż8 ˆż 8 ˙
´y p`q´1
“ p`q
¨ e ¨y dy dx
0 p1 ` xq
0
xq´1
ż8
“ p`q
¨ Γpp ` qq dx
0 p1 ` xq
1 1
ż1
x
“y “ Γpp ` qq ¨ yq ¨ ´ ¯p ¨ dy
1`x
0 y 1 p1 ´ yq2
1´y
1´y
ż1
“ Γpp ` qq ¨ y q´1 ¨ p1 ´ yqp´1 dy “ Γpp ` qq ¨ βpp, qq
0
Γppq ¨ Γpqq
βpp, qq “
Γpp ` qq
Γp 12 qΓp 12 q
b
b) β ñ Γp 21 q “
`1 1
˘
2, 2 “ Γp1q βp 12 , 12 q
1 1 1
ˆ ˙ ż1 ż1
´ 12 ´ 21
β , “ x p1 ´ xq
? ? dx “
dx “ x“y2
2 2 0 0 x 1´x dx“2y dy
ż1 1
y ´ π ¯
“2 dy “ 2 arc senpyq “ 2 ´0 “π
2
a
0 y 1´y
2
0
Esperanza:
1
ż ż1
ErXs “ xfX pxq dx “ xxp´1 p1 ´ xqq´1 dx “
R βpp, qq 0
Γpp`1qΓpqq
βpp ` 1, qq Γpp`q`1q
“ “ ΓppqΓpqq
“
βpp, qq
Γpp`qq
pΓppqΓpp ` qq p
“ “
pp ` qqΓpp ` qqΓppq p`q
Momento de orden 2:
1
ż ż1
2 2
x2 xp´1 p1 ´ xqq´1 dx “
“ ‰
E X “ x f pxq dx “
R 0 βpp, qq
Γpp`2qΓpqq
1 βpp ` 2, qq
ż1
p`2´1 q´1 Γpp`q`2q
“ x p1 ´ xq dx “ “ ΓppqΓpqq
“
βpp, qq 0 βpp, qq
Γpp`qq
ppp`1qΓppqΓpqq
pp`qqpp`q`1qΓpp`qq ppp ` 1q
“ “
ΓppqΓpqq pp ` qqpp ` q ` 1q
Γpp`qq
Varianza:
ppp ` 1q p2
σ 2 “ varpXq “ E X 2 ´ ErXs2 “
“ ‰
´ “
pp ` qqpp ` q ` 1q pp ` qq2
pq
“
pp ` qq2 pp ` q ` 1q
Capítulo 4
Variables aleatorias
multidimensionales
73
74 Capítulo 4. Variables aleatorias multidimensionales
FP : R2 Ñ r0, 1s
Propiedades
a) FP es monótona no decreciente en cada una de sus variables
ˆ ˙
FP pa1 ` h, a2 q “ P tpx1 , x2 q PR2 | x1 ď a1 ` h, x2 ď a2 u “
ˆ ˙
2
“ P tpx1 , x2 q PR | x1 ď a1 , x2 ď a2 u `
ˆ ˙
` P tpx1 , x2 q P R2 | a1 ă x1 ď a1 ` h, x2 ď a2 u ě
looooooooooooooooooooooooooooooomooooooooooooooooooooooooooooooon
ě0
ě FP pa1 , a2 q
Demostración.
∆b,a FP px1 , x2 q ě 0
Demostración.
ˆ ˙
∆b,a FP px1 , x2 q “ ∆b1 ,a1 ∆b2 ,a2 FP px1 , x2 q “ ∆b1 ,a1 FP px1 , b2 q ´ FP px1 , a2 q “
F p`8, `8q “ 1
∆b,a F px1 , x2 q ě 0
La pregunta que nos podemos formular es: dada una función F , verifi-
cando las propiedades anteriores, ¿existe una única medida de probabilidad
P sobre pR2 , BpR2 qq de tal forma que su función de distribución asociada
FP coincida con F ?
X : Ω Ñ R2
Demostración.
PA
78 Capítulo 4. Variables aleatorias multidimensionales
R2 , BpR2 q, PX
` ˘
Observación 4.2.
b) ř
Unařcolección de números no negativos, tpj,k uj,k“1,2,... que verifican
j k pj,k “ 1 es la función de masa de alguna variable aleatoria
bidimensional discreta.
Ejemplo 4.1. Dada la función de masa P pt0, 0uq “ P pt0, 1uq “ P pt1, 0uq “
4.1. Variables aleatorias bidimensionales 79
0 xă0óyă0
$
’
’
R4
’
’
’
R3
’
0ďxă1&yě1
’
R1 1
’
2
&
“ 1{4 ó 1{2 R2 R5
’
’ x ě 1 & 0ďyă1 1{4
’
’
’ ´1
1
’
2
’
’
1 xě1&yě1 3
%
Observación 4.4.
Ω | X1 pωq ď x1 u
` ˘
FX1 px1 q “ FX px1 , `8q “ P tω P @x2 P R
Ω | X2 pωq ď x2 u
` ˘
FX2 px2 q “ FX p`8, x2 q “ P tω P @x1 P R
respectivamente.
Demostración.
`
´ ´
1 q´FX1 px1 q “ FX px1 , `8q´FX px1 , `8q “
PX1 pX1 “ x1 q “ F˘X1 pxř
2
P tpa1 , a2 q P R | a1 “ x1 , a2 P Ru “ x2 PC2 PX ptx1 , x2 uq
x1
x2 0 1 2 3 P pX2 “ x2 q
1 0 3{8 3{8 0 6{8
PX1 px1 “ 0q “ 0 ` 81 “ 1
8 PX2 px2 “ 1q “ 0 ` 38 ` 38 ` 0 “ 6
8
PX1 px1 “ 1q “ 83 ` 0 “ 3
8 PX2 px2 “ 3q “ 18 ` 0 ` 0 ` 18 “ 2
8
PX1 px1 “ 2q “ 83 ` 0 “ 3
8
PX1 px1 “ 3q “ 0 ` 81 “ 1
8
Demostración.
ż x1 ż `8
FX1 px1 q “ FX px1 , 8q “ f px1 , x2 q dx1 dx2
´8 ´8
ż x1 ˆż `8 ˙
“ f px1 , x2 q dx2 dx1
ż´8
x1
´8
Demostración.
FX px1 , x2 q ´ FX px1 ´ h, x2 q
F px2 |x1 q “ lı́m
hÑ0 FX1 px1 q ´ FX1 px1 ´ hq
ż x2 ż x1 ż x2 ż x1 ´h
fX pu, vq du dv ´ fX pu, vq du dv
“ lı́m ´8 ´8
ż x1
´8 ´8
ż x1 ´h
hÑ0
fX1 px1 q dx1 ´ fX1 px1 q dx1
´8 ´8
ż x2 ˆ ż x1 ˙
fX pu, vq du dv
“ lı́m ´8 ż xx11´h
hÑ0
fX1 puq du
x1 ´h
ż x2
h ¨ fX pa, vq dv
“ lı́m ´8
a, b P rx1 ´ h, x1 s
hÑ0 h ¨ fX1 pbq
ż x2
fX pa, vq dv
“ lı́m ´8
hÑ0 fX1 pbq
ż x2
fX px1 , vq
“ dv
´8 fX1 px1 q
4.1. Variables aleatorias bidimensionales 83
y por tanto
fX px1 , x2 q
fX1 px1 q
es la función de densidad asociada a la función de distribución F px2 | x1 q y
es la que se denomina función de X2 condicionada por el valor x1 de X1 .
Demostración.
y recíprocamente
ÿ ÿ
pð FX px1 , x2 q “ P pX1 “ x11 , X2 “ x12 q
x11 ďx1 x12 ďx2
ÿ ÿ
“ PX1 pX1 “ x11 q ¨ PX2 pX2 “ x12 q
x11 ďx1 x12 ďx2
Demostración.
pð
ż x2 ż x1
FX px1 , x2 q “ fX pu, vq du dv
´8 ´8
ż x1 ˆż x2 ˙
“ fX1 puq ¨ fX2 pvq dv du
´8 ´8
ż x1 ˆż x2 ˙
“ fX1 puq ¨ fX2 pvq dv du
´8 ´8
ż x1
“ FX2 px2 q ¨ fX1 puq du “ FX2 px2 q ¨ FX1 px1 q
´8
Observación 4.5.
Demostración.
4.1. Variables aleatorias bidimensionales 85
x1
x2 ´1 0 1
´2 1{6 1{12 1{6 Y “ p|X1 |, X22 q
1 1{6 1{12 1{6
2 1{12 0 1{12
P pX1 “ kq ùñ 5{12 2{12 5{12 qpX1 , X2 q “ pq1 pX1 , X2 q, q2 pX1 , X2 qq “ p|X1 |, X22 q
P pX2 “ rq ùñ 5{12 5{12 2{12 CX “ tpx1 , x2 q | x1 P t´1, 0, 1u, x2 P t´2, 1, 2uu
CY “ tpx1 , x2 q | y1 P t0, 1u, y2 P t1, 4uu
py1 , y2 q Valores de pX1 , X2 q que dan lugar a los valores py1 , y2 q P pY1 “ y1 , Y2 “ y2 q
p0, 1q p0, 1q 1{12
p1, 4q p´1, ´2q p´1, 2q p1, ´2q p1, 2q 1{6 ` 1{12 ` 1{6 ` 1{12
86 Capítulo 4. Variables aleatorias multidimensionales
entonces # ` ˘
fX h1 py1 , y2 q, h2 py1 , y2 q |J | py1 , y2 q P gpCx q
fY py1 , y2 q “
0 resto.
Ejemplo 4.4. Sea X “˘ pX1 , X2 q una variable aleatoria uniforme en el
cuadrado U p0, 1q ˆ p0, 1q
`
Observación 4.7.
Si k “ 1, ` “ 0 ñ α1,0 “ ErX1 s “ µ1
Si k “ 0, ` “ 1 ñ α0,1 “ ErX2 s “ µ2
Observación 4.8.
a) Si k “ 2, ` “ 0 ñ µ2,0 “ E pX1 ´ µ1 q2 “ σX
“ ‰ 2
1
Si k “ 0, ` “ 2 ñ µ0,2 “ E pX2 ´ µ2 q2 “ σX
“ ‰ 2
2
(covarianza entre X1 y X2 )
˜ ¸
ÿ 2
σX 1
cov pX1 , X2 q
“
x cov pX1 , X2 q 2
σX 2
Demostración.
Demostración.
ż ż
ErX1 ¨ X2 s “ x1 x2 ¨ f px1 , x2 q dx1 dx2 “ x1 x2 ¨ fX1 px1 q ¨ fX2 px2 q dx1 dx2
2 R2
żR ˆż ˙
“ x1 fX1 px1 q x2 fX2 px2 q dx2 dx1
R R
“ ErX2 sErX1 s ñ covpX1 , X2 q “ 0
f) Se tiene que
« ff
n
ÿ n
ÿ ÿÿ
var Xi “ var rXi s ` 2 ¨ covpXi , Xj q
i“1 i“1 i‰j
Demostración. Si denotamos ξ :“
ř
Xi
»˜ « ff¸2 fi
n
„ÿ n
ÿ n
ÿ
var “ varrξs “ E pξ ´ Erξsq2 “ E –
“ ‰
Xi Xi ´ E Xi fl
i“1 i“1 i“1
Demostración.
ϕX pt, uq “ E eitX1 `iuX2
“ ‰
ij
“ eitx1 `iux2 fX px1 , x2 q dx1 dx2
R 2
ij
“ eitx1 ¨ eiux2 fX1 px1 q ¨ fX2 px2 q dx1 dx2
R2
ż ˆż ˙
itx1 iux2
“ e fX1 px1 q e fX2 dx2 dx1
R R
looooooooooomooooooooooon
ϕX2 puq
ż
“ ϕX2 puq ¨ eitx1 fX1 px1 q dx1
R
looooooooooomooooooooooon
ϕX1 ptq
Demostración.
” ı
itpX1 `X2 q
ϕX1 `X2 ptq “ E e
ij
“ eitpx1 `x2 q ¨ fX px1 , x2 q dx1 dx2
R 2
ij
“ eitx1 ¨ eitx2 ¨ fX1 px1 qfX2 px2 q dx1 dx2
R2
ż ˆż ˙
itx2 itx1
“ e ¨ fX2 px2 q e ¨ fX1 px1 q dx1 dx2
R R
looooooooooooooomooooooooooooooon
ϕX1 ptq
Luego, ϕX1 `X2 ptq “ ϕX1 ptq ¨ ϕX2 ptq “ ppeit ` qqn1 `n2 ñ X1 ` X2 ”
Bpn1 ` n2 , pq ñ X1 ` X2 P L. La binomial es reproductiva respecto del
parámetro n, pero no del parámetro p.
b) L ” Ppλq
it ´1q
X1 P L ñ X1 ” Ppλ1 q ñ ϕX1 ptq “ eλ1 pe
it ´1q
X2 P L ñ X2 ” Ppλ2 q ñ ϕX2 ptq “ eλ2 pe
it ´1q
Luego, ϕX1 `X2 ptq “ epλ1 `λ2 qpe ñ X1 ` X2 ” Ppλ1 ` λ2 q ñ X1 `
X2 P L
92 Capítulo 4. Variables aleatorias multidimensionales
˘´pp1 `p2 q
Luego, ϕX1 `X2 ptq “ 1 ´ ita
`
ñ X1 ` X2 “ γpa, p1 ` p2 q ñ
X1 ` X2 ” γpa, p1 ` p2 q ñ X1 ` X2 P L
d) L “ N pµ, σq
t2 2
X1 P L ñ X1 ” N pµ1 , σ2 q ñ ϕX1 “ eitµ1 ´ 2 σ1
t2 2
X2 P L ñ X2 ” N pµ2 , σ2 q ñ ϕX2 “ eitµ2 ´ 2 σ2
t2 2 2
´ a ¯
Luego, ϕX1 `X2 ptq “ eitpµ1 `µ2 q´ 2 pσ1 `σ2 q ñ X1 `X2 ” N µ1 ` µ2 , σ12 ` σ22
&x ă 0 0
$
’
“ 1
%x ą 0 x x p 12 q 2 1 ´1 1
1 ?1
e´ 2 ` 2?1 x ?12π e´ 2 “ ¨ e´ 2 x
’
?
2 x 2π Γp 12 q
x2
que coincide con la densidad de una variable aleatoria γp1{2, n{2q. Y, debido
a la reproductividad de la distribución γ respecto de p
n
1
ˆ ˙
ÿ n
Xi2 ” γ a “ ,p “
i“1
2 2
Veamos ahora sus características:
4.3. Esperanza y varianza condicionadas. Regresión y correlación 93
Su función de densidad
&0 xă0
$
f pxq “ 1 1 1 n
% n ¨ n ¨ e´ 2 x ¨ x 2 ´1 xą0
2 Γp 2 q
la media
1
„ ˆ ˙
n
Erχ2n s “ E γ a “ ,p “ “n
2 2
la varianza
1
„ ˆ ˙
n p
varrχ2n s “ var γ a “ , p “ “ 2 “ 2n.
2 2 a
0,4
n n“2
0,3 ÿ
n“3
χ2n ” Xi2
0,2 i“1 n“4
0,1 n“5
0
0 2 4 6 8 10
y en el caso continuo
„ż
ErErY | Xss “ E y ¨ f py | xq dy
CY
ż ˆż ˙
“ y ¨ f py | xq dy fX pxq dx
CX CY
ż ż
“ y ¨ f px, yq dy dx
CX CY
ż ˆż ˙
“ y f px, yq dx dy
CY CX
ż
“ y ¨ fY pyq dy “ ErY s
CY
Ejemplo 4.7. Sea pX, Y q una variable aleatoria bidimensional cuya función
de masa viene dada por la siguiente tabla. Hallar ErY |X “ xs, ErX|Y “ ys.
4.3. Esperanza y varianza condicionadas. Regresión y correlación 95
Y
X 0 1 4 PX pX “ xq
´2 0 0 1{5 1{5
´1 0 1{5 0 1{5
0 0 1{5 0 1{5
1 1{5 0 0 1{5
2 0 0 1{5 1{5
P pX“x,Y “yq
Ahora, puesto que P pX “ x|Y “ yq “ P pY “yq , tenemos
´2 0 0 1{2
´1 0 1{2 0
0 1 0 0
1 0 1{2 0
2 0 0 1{2
0 0 0 1 0 0
1 0 1 0 1 0
4 1 0 0 0 1
x ´2 ´1 0 1 2
y así
ErY |X “ xs 4 1 0 1 4
#
1{8px ` yq 0 ă x, y ă 2
Ejemplo 4.8. Sea pX, Y q variable aleatoria bidimensional y fX,Y “
0 resto
ErY |X “ xs, ErX|Y “ ys
#
0 y R p0, 2q
ż
fY pyq “ fX,Y px, yq dx “ ş2
R 0
1{8px ` yq dx “ 1{4py ` 1q y P p0, 2q
#
fX,Y px, yq 0 x R p0, 2q
f px|yq “ “ 1{8px`1q x`y
y Pp0,2q fY pyq 1{4py`1q “ 2py`1q x P p0, 2q
96 Capítulo 4. Variables aleatorias multidimensionales
1 4 ` 3y
ż ż2
x`y
ErX|Y “ ys “ x ¨ f px|yq dx “ x¨ dx “ ¨
R 0 2py ` 1 3 y`1
y por simetría
1 4 ` 3x
ErY |X “ xs “ ¨
3 x`1
Definición 4.18 (Varianza condicionada). Sean X e Y dos variables alea-
torias. Se denomina varianza condicionada de Y para un valor x P CX
de la variable aleatoria X a la expresión
$ÿ
’
’ py ´ ErY |X “ xsq2 P pY “ y|X “ xq
&yPC
varpY |X “ xq “ ż
Y
Proposición 4.8.
Demostración.
” “ ı ” ı
E rvar rY | Xsss “ E E Y 2 | X ´ E rY | Xs2 “ E E Y 2 | X ´ E E rY | Xs2
‰ “ “ ‰‰
” ı
“ E Y 2 ´ E E rY | Xs2
“ ‰
4.3.2. Regresión
4.3.2.1. Rectas de regresión. Error residual
Sea pX, Y q una variable aleatoria bidimensional y supongamos que la
variable aleatoria Y resulta dificil de medir. Entonces podemos preguntarnos
si sería posible considerar que el valor de la variable Y se puede aproximar
4.3. Esperanza y varianza condicionadas. Regresión y correlación 97
BErpY ´ aX ´ bq2 s
“ 2a ¨ ErX 2 s ´ 2 ¨ ErX ¨ Y s ` 2b ¨ ErXs “ 0
Ba
BErpY ´ aX ´ bq2 s
“ 2b ´ 2 ¨ ErY s ` 2a ¨ ErXs “ 0.
Bb
Con todo esto, nos ponemos a obtener a y b
b “ ErY s ´ a ¨ ErXs
ùñ a ¨ ErX 2 s ` ErY s ¨ ErXs ´ a ¨ ErX 2 s “ ErX ¨ Y s
ùñ a ¨ ErX 2 s ´ ErXs2 “ ErX ¨ Y s ´ ErXs ¨ ErY s
` ˘
y por lo tanto
covpX, Y q
a“
varpXq
covpX, Y q
b “ ErY s ´ ¨ ErXs
varpXq
covpX, Y q covpX, Y q
ˆ ˙
y“ x ` ErY s ´ ¨ ErXs
varpXq varpXq
y definimos la recta de regresión de Y sobre X como
covpX, Y q
y ´ ErY s “ ¨ px ´ ErXsq
varpXq
y, análogamente, la recta de regresión de X sobre Y como
covpX, Y q
x ´ ErXs “ ¨ py ´ ErY rq
varpY q
Las denotaremos como Y Ñ X y X Ñ Y , respectivamente.
98 Capítulo 4. Variables aleatorias multidimensionales
1 7
ż2
ErXs “ x px ` 1q dx “
0 4 6
1 5
ż2
ErX 2 s “ x2 px ` 1q dx “
0 4 3
` 7 ˘2
Además, ErY s “ 76 , ErY 2 s “ 3,
5
por lo tanto varpXq “ 5
3 ´ 6 “ 36 .
11
Y
también varpY q “ 36
11
4
ij ż 2 ˆż 2 ˙
ErXY s “ xy ¨ fX,Y px, yq dx dy “ xy ¨ {8px ` yq dy dx “
1
0 0 3
R2
covpX, Y q “ 34 ´ 76 ¨ 67 “ ´ 36
1
covpX, Y q covpX, Y q
ˆ ˙
βY,X “ & resp. βX,Y “
varpXq varpY q
covpX, Y q
ˆ ˙
eX|Y “ X ´ ErXs ` pY ´ ErY sq
varpY q
Ambos tienen esperanza cero.
Teorema 4.4. Las varianzas de las variables aletorias eY |X y eX|Y vienen
dadas por
covpX, Y q2
ˆ ˙
varpeY |X q “ varpY q 1 ´
varpXq varpY q
covpX, Y q2
ˆ ˙
varpeX|Y q “ varpXq 1 ´
varpXq varpY q
Demostración.
covpX, Y q
„ ˆ ˙
varpeY |X q “ var Y ´ ErY s ` ¨ pX ´ ErXsq
varrXs
»» fi2 fi
covpX, Y q
ˆ ˙
“ E ––pY ´ ErY sq ´ ¨ pX ´ ErXsq fl fl
—— ffi ffi
a varpXq
b
˙2
covpX, Y q
ˆ
“ E pX ´ ErY sq2 ` ¨ E pX ´ ErXsq2 ´
“ ‰ “ ‰
varpXq
covpX, Y q
´2¨ ¨ E rpX ´ ErXsq ¨ pY ´ ErY sqs
varpXq
covpX, Y q covpX, Y q
ˆ ˙
“ varpY q ` 2 ¨ varpXq ´ 2 ¨
varpXq varpXq
˙2
covpX, Y q
ˆ
“ varpY q ´
varpXq
covpX, Y q
“ varpY q ´ varpY q ¨
varpXq ¨ varpY q
covpX, Y q2
ˆ ˙
“ varpY q ¨ 1 ´
varpXq ¨ varpY q
4.3.3. Correlación
Definición 4.21 (Coeficiente de correlación lineal). Sea X e Y dos variables
aleatorias para las que existen sus varianzas pvarpXq ą 0, varpY q ą 0q. Se
define el coeficiente de correlación lineal entre las variables aleatorias
X e Y mediante:
covpX, Y q
ρ“ a
varpXq varpY q
Proposición 4.9 (Propiedades de la correlación). Veamos algunos resulta-
dos relacionados con la correlación.
100 Capítulo 4. Variables aleatorias multidimensionales
b) Se verifica ´1 ď ρ ď 1
covpX, Y q2
ˆ ˙
varpeY |X q “ varpY q 1 ´
varpXq varpY q
“ varpY qp1 ´ ρ2 q ě 0 ñ 1 ´ ρ2 ě 0 ñ ´1 ď ρ ď 1
covpX, Y q
varpeY |X q “ 0 ñ Y “ ErY s ` pX ´ ErXsq
varpXq
varpY q
a
covpX, Y q covpX, Y q
y ´ ErY s “ ¨ px ´ E rXsq “ a ¨a px ´ E rXsq
varpXq varpXq varpY q ¨ varpXq
varpY q
a
“ρ¨ a ¨ px ´ E rXsq
varpXq
covpX, Y q px ´ E rXsq
x ´ E rXs “ ¨ pY ´ E rY sq ñ y ´ E rY s “ ¨ varpY q “
varpY q covpX, Y q
?
varpXq
varpY q
a
varpY q 1
“ px ´ E rXsq ¨ “ ¨a ¨ px ´ E rXsq
? covpX,Y q ρ varpXq
varpY q¨varpY q
?
varpY q
Si ρ ? ă0ñρă0 ñ 1
ă ´1 ă ρ, luego la recta de regresión
varpXq ρą´1 ρ
de Y sobre X tiene mayor pendiente, pero en valor absoluto es la
de X sobre Y la que tiene mayor inclinación.
e) El ángulo θ determinado por las dos rectas de regresión viene dado por
varpXq varpY q
a a
1 ´ ρ2
tanpθq “ ¨
ρ varpXq ` varpY q
Demostración. ? ,
varpY q
Y Ñ X tanpβq “ ρ ? /
.
? varpXq
ñ
1 ? varpY q
X Ñ Y tanpαq “ ρ /
-
varpXq
tanpαq ´ tanpβq
tanpθq “ tanpα ´ βq “
1 ` tanpαq tanpβq
ˆ? ˙ ? ?
1 varpY q varpY q varpY q
? ´ ρ ? ?
ρ varpXq varpXq 1 ´ ρ2 varpXq
“ ? “ ¨ varpY q
1` ?
varpY q ρ 1 ` varpXq
varpXq
varpY q varpXq
a a
1´ρ 2
“ ¨
ρ varpXq ` varpY q
varpY q 1 varpY q
a a
ρa px ´ ErXsq “ px ´ ErXsq
varpXq ρ varpXq
a
1
ñ ρ ´ ¨ px ´ ErXsq “ 0
ρ
ñ x “ ErXs ñ y “ ErY s
3x ` 2y ´ 26 “ 0
6x ` y ´ 31 “ 0
Se pide:
a) ¿Cuál es la recta de X Ñ Y y la de Y Ñ X?
´ 32 x ` 13 “ y, la recta regresión de Y Ñ X
´6x ` 31 “ y, la recta de regresión de X Ñ Y
b) Las rectas se cortan en el punto pErXs, ErY sq, así que resolvamos el
sistema para obtener el+punto de corte y así las esperanzas de X e Y .
3x ` 2y ´ 26 “ 0
ñ x “ 4, y “ 7 ñ ErXs “ 4, ErY s “ 7
6x ` y ´ 31 “ 0
varpY q 1q 3 1 varpY q 2q
a a
Y Ñ X : ρa “´ “ ´6
varpXq 2 ρ varpXq
a
4.3. Esperanza y varianza condicionadas. Regresión y correlación 103
dividiendo ambos (1 y 2)
1 1
ρ2 “ ñρ“´
4 2
(al aplicar la raíz es necesario comprobar cual de las dos soluciones es
la correcta)
E pY ´ gpXqq2
“ ‰
R 2
ij
“ py ´ gpxqq2 f py|xqfX pxq dy dx
R2
¨ 1q
˛
ż ż hkkkkkkkkkkkkikkkkkkkkkkkkj
2
˝ py ´ gpxqq f py|xq dy ‚fX pxq dx
˚ ‹
“
R R
ż
1
g paq “ ´2 pz ´ aqfZ pzq dz “ 0
żR
ñ 0 “ pz ´ aqfZ pzq dz
ż R ż
“ zfZ pzq dz ´ a fZ pzq dz
R R
“ ErZs ´ a “ 0
ñ a “ ErZs
104 Capítulo 4. Variables aleatorias multidimensionales
Análogamente tenemos:
gpyq “ ErX|Y “ ys
ErvarpX|Y qs
2
ηX|Y “1´
varpY q
ˆ ˙
ErvarpY |Xqs
varpY ´ ErY |Xsq “ varpY q 1 ´
varpY q
ˆ ˙
ErvarpX|Y qs
varpX ´ ErX|Y s “ varpXq 1 ´
varpY q
Demostración.
„ 2
“0
varpY ´ ErY |Xsq “ ErpY ´ ErY |Xsq s ´ E Y ´ ErY Xs
2
loooooooooomoooooooooon
ErY s´pErErY |Xssq2
looooooomooooooon
pErY s´ErXsq2
Y ahora hacemos:
ż ż
E rpY ´ ErY sqpErY s ´ ErY |Xsqs “ py ´ ErXsqpErY s ´ ErY |X “ xsqf px, yq dx dy
R R
ż ˆ ż ˙
“ ´ pErY |X “ xsq´ErY sq py ´ ErY sq f pY |Xq dy f pxq dx
R R
loooooooooooooooooomoooooooooooooooooon
ż ż
yf py|xq ´ ErY sf py|xq dy
R R
loooooooooooooooooooomoooooooooooooooooooon
“ErY |X“xs´ErY s
ż
“´ pErY |X “ xs ´ ErY sq2 f pxq dx
R
“ ´E pErY |Xs ´ ErY sq2
“ ‰
Continuando:
Observación 4.12.
X “ px1 , . . . , xk q :“ M pn; p1 , . . . , pk q
ÿ ÿ n! xk`1
P ppX1 “ x1 , . . . , Xk “ xk q “ px1 1 . . . pk`1 “
xPCX x1 ,...,xk x1 ! ¨ x2 ! ¨ . . . ¨ xk`1 !
˜ ¸n
k`1
ÿ
“ pi “ 1n “ 1
i“1
Función característica
ÿ n! xk`1
ϕX pt1 , . . . , tk q “ eipt1 x1 `...`tk xk q px1 . . . pk`1
x1 ,...,xk PCk
x1 ! ¨ x2 ! ¨ . . . ¨ xk`1 ! 1
ÿ n! xk`1
“ pp1 ¨ eit1 qx1 . . . ppk ¨ eit1 qxk ¨ pk`1
x ! ¨ x2 ! ¨ . . . ¨ xk`1 !
x1 ,...,xk PCx 1
˘n
“ p1 e 1 ` p2 eit2 ` . . . ` pk eitk ` pk`1
` it
“ pqj ` pj eitj qn
ErXs “ pn p1 , . . . , n pk q “ µ
1
ˆ 2 ˙
B ϕx pt1 , . . . , t1 q
ErXi Xj s “ ¨ p0q
i2 Bti Btj
„ ¯
B ´ ` it1 itj itk
˘n´1 itj
“ ´ n p1 e ` . . . ` pj e ` . . . ` pk e ` pk`1 ipj e p0q
Bti
´ ˘n´2 2 ¯
´npn ´ 1q p1 eit1 ` . . . ` pj eitj ` . . . ` pk`1 i pj eitj pi eiti p0q
`
“
“ npn ´ 1qpj pi
ñ covpXi , Xj q “ npn ´ 1qpj ps ´ npj nps
“ n2 pj ps ´ n2 pj ps
“ ´npj ps
˘n1 `n2
ϕX`Y pt1 , . . . , tk q “ p1 eit1 ` . . . ` pk eitk ` pk`1
`
ñ X ` Y “ M pn1 ` n2 , p1 , . . . , pk q
Marginales
ˆ ´ ¯2 ˙
1
y´µY
´ 12
ż
σY
fY pyq “ fX,Y px, yq dx “ ? e
R 2πσY
lo que muestra que la marginal Y es una normal Y :“ N pµY , σY q. Análoga-
mente se llega a que la marginal X es una normal X :“ N pµX , σX q
Condicionales
´ ´ ¯¯2
σ
fX,Y px, yq 1 ´ 12 x´ µX ´ρpy´µY q σX
fX|Y “y px|yq “ “? a e 2σX Y
fY pyq 2πσX 1 ´ ρ2
´ a ¯
Luego X|Y :“ N µX ` ρpy ´ µY q σσXY
, σX 1 ´ ρ2
Curvas de regresión:
σX
gpyq “ ErX|Y “ ys “ µX ` ρpy ´ µY q
σY
Función característca
” ı 1 2 2 2
ϕX,Y pt1 , t2 q “ E eipt1 X`t2 Y q “ eit1 µX `t2 uµY ´ 2 pt1 σX `2ρt1 `σX σY `t2 σY q
Coeficiente de correlación
covpX, Y q ρσX σY
ρX,Y “ a “ “ρ
varpXq varpY q σX σY
Matriz de varianzas-covarianzas
˜ ¸
ÿ 2
σX ρσX σY
“ µ “ pµX , µY q
ρσX σY σY2
Convergencias estocásticas
o equivalentemente
´! )¯
P ω P Ω | lı́m Xn pωq ‰ Xpωq “ 0
nÑ8
c.s.
y lo denotamos por Xn ÝÝÑ X.
Observación 5.1.
Demostración.
1
ω P A ðñ @k P N D m P N, @n ě m |Xn pωq ´ Xpωq| ă
k
1
č8 ď 8 č 8 " *
ðñ ω P ω P Ω | |Xn pωq ´ Xpωq| ă PA
k
k“1 m“1 n“1 loooooooooooooooooooomoooooooooooooooooooon
p|Xn ´X|q´1 p´8, k1 qPA
111
112 Capítulo 5. Convergencias estocásticas
c.s. c.s.
b) Unicidad del límite: Si Xn ÝÝÑ X y Xn ÝÝÑ Y entonces X “ Y , leído
c.s.
X es “igual casi seguro” a Y , esto es, el conjunto de puntos donde X
e Y son distintos tiene probabilidad cero.
luego, como
tω P Ω | Xpωq ‰ Y pωqu
está estrictamente contenido en la unión
´! )¯
P ptω P Ω | Xpωq ‰ Y pωquq ď P ω P Ω | lı́m Xn pωq ‰ Y pωq `
n
´! )¯
`P ω P Ω | lı́m Xn pωq ‰ Xpωq “ 0 ` 0 “ 0
n
recíprocamente,
! ) ! )
ω P Ω | lı́m Xn pωq ‰ Y pωq “ ω P Ω | lı́m Xn pωq “ Xpωq y lı́m Xn pωq ‰ Y pωq Y
n n n
Ytω P Ω | lı́m Xn pωq ‰ Xpωq y lı́m Xn pωq ‰ Y pωqu
n n
luego, como
tω P Ω | lı́m Xn pωq ‰ Y pωqu
n
c.s.
c) Xn ÝÝÑ X si y sólo si
˜ ¸
8
ď
@ε ą 0 lı́m P tω P Ω | |Xm pωq ´ Xpωq| ě εu “0
nÑ8
m“n
de forma equivalente1
˜ ¸
č8
@ε ą 0 lı́m P tω P Ω | |Xn pωq ´ Xpωq| ă εu “1
nÑ8
n
1
Ésta se trata de una caracterización muy importante que se usa en la práctica.
5.1. Convergencia de variables aleatorias 113
c.s. c.s.
d) Si Xn ÝÝÑ X y g : R Ñ R continua, entonces gpXn q ÝÝÑ gpXq.
Además,
c.s. c.s.
+
Xn ÝÝÑ X Xn ` Yn ÝÝÑ X ` Y
c.s. ùñ c.s.
Yn ÝÝÑ Y Xn ¨ Yn ÝÝÑ X ¨ Y
Definición 5.2 (Convergencia en probabilidad). Sea tXn unPN una sucesión
de variables aleatorias y X : pΩ, A, P q Ñ pR, BpRqq. Se dice que la sucesión
tAn unPN X converge en probabilidad a la variable aleatoria X si y sólo si:
@ε ą 0 lı́m P ptω P Ω | |Xn pωq ´ Xpωq| ě εuq “ 0
nÑ8
o lo que es lo mismo
@ε ą 0 lı́m P ptω P Ω | |Xn pωq ´ Xpωq| ă εuq “ 1
nÑ8
P.
Lo denotamos por Xn ÝÑ X.
Observación 5.2.
P. P.
a) Si Xn ÝÑ X, entonces Xn ÝÑ Y ðñ X “ Y .
c.s.
Recíprocamente,
c.s. P.
b) Si Xn ÝÝÑ X ñ Xn ÝÑ X
Demostración.
8
ď
tω P Ω | |Xn pωq ´ Xpωq| ě εu Ă tω P Ω | |Xm pωq ´ Xpωq| ě εu
m“n
8
ˆď
lı́m P ptω P Ω | |Xn pωq ´ Xpωqu ě ε|q ď lı́m P tω P Ω tal que
nÑ8 nÑ8
m“n
˙
|Xn pωq ´ Xpωq| ě εu
P. c.s.
d) Si Xn ÝÑ X ùñ
Xn ÝÝÑ X.
5.1. Convergencia de variables aleatorias 115
1 1 1
ˆ ˙ ˆ ˙ ˆ ˙
ErXn s “ 0 1 ´ `1 ´1 “ 0,
n 2n 2n
1 1 1 1
ˆ ˙ ˆ ˙ ˆ ˙
varpXn q “ ErXn s ´ ErXn s “ 0
2 2 2
1´ `1 2
` p´1q 2
“ ,
n 2n 2n n
y, llegando al límite,
P.
varpXn q ÝÝÝÑ 0 y si aplicamos (c) Xn ÝÑ X X | P pX “ 0q “ 1
nÑ8
Definición 5.3 (Convergencia en media “ cuadrática). Sea tXn unPN una su-
cesión de variables aleatorias con E Xn2 ă 8 @n y X : pΩ, A, P q Ñ
‰
pR, BpR2 qq una variables aleatoria con ErX 2 s ă 8. Se dice que tXn unPN
converge en media cuadrática a X si se verifica que
” ı
lı́m E pXn ´ Xq2 “ 0
n
Observación 5.3.
m.c. m.c.
a) Xn ÝÝÝÑ X ñ pXn ÝÝÝÑ Y ô X “ Y q.
c.s.
116 Capítulo 5. Convergencias estocásticas
m.c. P.
b) Xn ÝÝÝÑ X ñ Xn ÝÑ X.
ErpXn ´ Xq2 s
@ε ą 0 P ptω P Ω | |Xn pωq ´ Xpωq| ě εuq ď ÝÝÝÑ 0
ε2 nÑ8
P.
y de esta manera Xn ÝÑ X.
c.s. m.c.
c) Xn ÝÝÑ X ùñ
Xn ÝÝÝÑ X.
entonces
´ ¯
c.s.
P tωΩ | lı́m Xn pωq “ 0u “ P pp0, 1qq “ 1 ùñ Xn ÝÝÑ X
P
nÑ8
ErpXn ´ Xq s “ 0 P tω P Ω | ω P 0, 1 ´ n1 u
2 2
` ` ˘ ˘
` n2 P tω P Ω | ω P 1 ´ n1 , 1 u
` ` ˘ ˘
1
“ n2 ¨ “ n ÝÝÝÑ 8 ùñ no converge en media cuadrática.
n nÑ8
Definición 5.4 (Convergencia en ley). Sea tXn unPN una sucesión de va-
riables aleatorias. Se dice que tXn unPN converge en ley o distribución
hacia la variable aleatoria X definida en pΩ, A, P q si y sólo si
L.
Lo denotaremos por Xn ÝÑ X
Observación 5.4.
5.1. Convergencia de variables aleatorias 117
y por lo tanto
Teorema 5.2. Sea tXn unPN una sucesión de variables aleatorias tal que
L.
Xn ÝÑ X con X|P pX “ cq “ 1 (X es degenrada en el punto c), entonces
P.
Xn ÝÑ X
Demostración.
$
&FX pxq “ 0 xăc
#
0
’
xăc
FX pxq “ lı́m FXn pxq “ FX pxq “ 1 xąc
1 xěc n ’
FX tiene un salto x “ c
%
1
P pX “ 0, Xn “ 1q “ P pX “ 1, Xn “ 0q “ .
2
L. P.
comprobar si Xn ÝÑ X y Xn ÝÑ P .
$
&x ă 0 0
’
’
L.
X FXn pxq “ 0 ď x ă 1 1{2 ÝÝÝÑ FX pxq ùñ Xn ÝÑ X
’ nÑ8
Xn 0 1 P pXn “ kq %X ě 1
’
1
0 0 1{2 1{2
$
&0
’ xă0
1 1{2 0 1{2
FX pxq “ 1{2 0 ď x ă 1
’
1 xě1
%
Sn ´ ErSn s P.
ÝÑ 0
n
Demostración.
´ ¯
@ε ą 0 P Sn ´En rSn s ě ε “ P p|Sn ´ ErSn s| ě n εq
´ nε ¯ σ2
“ P |Sn ´ ErSn s| ě σ ď 2 2
σ n ε
varpSn q varpX
ř
i q n M M
“ “ i 2 2 ď 2 2 “
n 2 ε2 n ε n ε nε
y, haciendo el límite,
´ˇ ˇ ¯ M
@ε ą 0 lı́m P ˇ Sn ´En rSn s ˇ ě ε ď lı́m “0
ˇ ˇ
n n nε
Sn ´ ErSn s P.
ùñ ÝÑ 0.
n
120 Capítulo 5. Convergencias estocásticas
řn
Corolario 5.1. Sea X n “ 1
n i“1 Xi .
Si junto a las hipótesis anteriores
tenemos además ErXn s “ µ @n, entonces:
n
1ÿ P. P. P.
Xn ´ ErXi s ÝÑ 0 ñ X n ´ µ ÝÑ 0 ñ X n ÝÑ µ
n i“1
Sn ´ E rSn s P.
ÝÑ 0.
n
Demostración.
´ˇ ˇ ¯ varpS q 1 s
ˇ Sn ´ErSn s ˇ n
@ε ą 0 P ˇ n ˇěε ď 2 ε2
“ 2 ¨ X,
n ε
dado que n12 varpSn q “ var n1 Xi . Por otro lado
ř
´ˇ ˇ ¯ 1
@ε ą 0 lı́m P ˇ Sn ´varpS ns ˇ
ε ď 2 lı́m Xs “0
ˇ
n ˇ ě
n ε n
Sn ´ ErSn s P.
ùñ “X
sÝ Ñ0
n
Demostración.
`t˘ n
ź `t˘ ` ` ˘˘n
ϕ Sn ptq “ ϕSn n “ ϕXi n “ ϕXi nt
n
i“1
#
n
1 Xi “ 1 1 1ÿ
Ti “ ErTi s “ p, varpTi q “ p p1 ´ pq ď fn “ Ti
0 Xi “ 0 4 n i“1
varpTk q 1 ÿ 1
ÿ8 8
ď ă8
k“1
k 2 4 k“1
k 2
Demostración.
n
ź n
ź ´ ¯
φř´ Xi?´µ ¯ ptq “ φ Xi?´µ ptq “ φXi ´µ t
?
σ n
(5.1)
σ n σ n
i“1 i“1
1 2
φXi ´µ ptq “ φXi ´µ p0q ` φ1Xi ´µ p0q ¨ t ` φXi ´µ p0qs¨ t2 ` Opt2 q
2!
loooooooooooooon
i2 ErpXi ´µq2
1 22 2 t2
“1`0` ¨ t i σ ` Opt2 q “ 1 ´ ¨ σ 2 ` Opt2 q
2 2
lo que implica que, volviendo a la ecuación (5.1),
´ ´ ¯¯n ˆ t2
ˆ´ ¯2 ˙˙n
φř Xi?´µ ptq “ φXi ´µ σ?n
´ ¯ t
“ 1´ 2 ¨σ `O 2 t
?
σ n 2σ n σ n
˜ ˜ˆ ˙2 ¸¸n
t2 t
“ 1´ `O ?
2n σ n
t2 t2
´ ´ ¯ ¯
»¨ 1˙ fi O ´ 2n n
σ2 n
˛ ˆ
O t2 t2
´ 2n
1 σ2 n
lı́m φřn ´ Xi?´µ ¯ ptq “ lı́m — ˝1 `
—˚ ‹ ffi
ffi
n n – 1¯ ‚ fl
n“1 σ n ´
t2 t2
O ´ 2n
σ2 n
t2 2
´ ´ ¯ ¯
lı́mn O t
´ 2n t2
“e σ2 n “ e´ 2 “ φX ptq
X ´ E r ni“1 Xi s L.
ř
X ´ np L.
ÝÑ N p0, 1q & ÝÑ N p0, 1q.
var p Xi q
a ř a
n p p1 ´ pq
124 Capítulo 5. Convergencias estocásticas
a) ż8 ,
PX pX ě aq « gpxq dx/
/
.
ża8 PX pX ě aq ‰ PX pX ą aq
/
PX pX ą aq « gpxq dx/
-
a