Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Probabilidades PDF
Probabilidades PDF
Probabilidades PDF
Vicente Acuña
Primavera 2015
Ejemplos cotidianos
Definición/objetivos
.2
.1
0
2.05 2.25 2.45 2.65 2.85 3.05
Eje
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 7 / 250
Clase 1: ¿Qué es estadı́sitica?
Histograma en R project
Histograma en R project
Una versión más sofisticada que especifica los lı́mites de las barras y los
ejes.
datos <- c(2.1, 2.4, 2.2, 2.3, 2.7, 2.5, 2.4, 2.6, 2.6, 2.9)
resol <- 0.1 # Ultima cifra significativa
bar <- 0.2 # Ancho de barra. Probar distintos valores!
limites <- seq(min(datos)-0.5*resol,max(datos)+bar,bar)
h=hist(datos, breaks=limites,axes=FALSE,col=7)
axis(1,at=limites)
axis(2)
Histograma en R project
.2
.1
0
2.05 2.25 2.45 2.65 2.85 3.05
Eje
de medición
0
2.05 2.25 2.45 2.65 2.85 3.05
→ es la fracción del área bajo la curva entre los valores sobre el area
total.
F I G U R A 1.4
Curva normal
68%
Cuando los datos tienen forma de campana o normal (lo que sucede muy a
menudo) Como se mencionó
tenemos en la Sección
la siguiente regla 1.2, una vez que se conozca la d
empı́rica:
de un conjunto de mediciones, se pueden hacer enunciados de prob
µ ± σ contienemediciones.
aproximadamente 68 % de las mediciones.
Estas probabilidades se mostraron como áreas bajo un h
En aproximadamente
µ ± 2σ contiene forma análoga, las probabilidades
95 % de lasespecificadas en la regla empíric
mediciones.
normal
µ ± 3σ contiene casi mostrada
todas lasenmediciones..
la Figura 1.4.
El uso de la regla empírica se ilustra mediante el siguiente ejemp
que las calificaciones en un examen vocacional aplicado a todos los e
de preparatoria en un estado tienen, aproximadamente, una distribu
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 17 / 250
Clase 1: ¿Qué es estadı́sitica?
G U R A 2.1 Frecuencia
stribución de relativa
encia para la
ión generada
por un dado 1 6
balanceado
1 2 3 4 5 6
Número de
la cara superior
del dado
Modelos teóricos
Experimento y eventos
Empezaremos con algunas definiciones
Definition
Un experimento ε es el proceso por medio del cual se hace una
observación.
Definition
Dado un experimento, un punto muestral es un resultado individual del
experimento.
Definition
El espacio muestral asociado a un experimento es el conjunto formado por
todos los posibles puntos muestrales. Se denota por S (o también Ω).
Definition
El espacio muestral discreto es aquel que está formado ya sea por un
número finito o numerable de puntos muestrales distintos.
Eventos simples
Definition
Un evento simple es un conjunto que contiene un y sólo un punto muestral
(i.e. es un singleton).
Eventos
Definition
Un evento en un espacio muestral discreto S es un conjunto de puntos
muestrales, es decir, cualquier subconjunto de S.
F I G U R A 2.8 S
Diagrama de Venn
para el experimento
E1 E6
de lanzar un dado
E3 A E5
B
E2 E4
B = {E 1 , E 2 , E 3 , E 4 } o B = E1 ∪ E2 ∪ E3 ∪ E4.
La regla para determinar cuáles eventos simples incluir en un evento compuesto es muy p
sa. Un evento simple Ei se incluye en el evento A si y sólo si A ocurre siempre que ocurra
Eventos
∞
[
B= Ei
i=201
F I G U R A 2.8 S
Diagrama de Venn
para el experimento
E1 E6
de lanzar un dado
E3 A E5
B
E2 E4
A : Se obtiene impar.
si y sóloB : Seuno
si ocurre obtiene un simples
de los eventos número
E1, E3 menor
o E5. Así, que 5.
A = E 1 ∪ E3 ∪ E5 B = E1 ∪ E2 ∪AE=3{E∪1 , EE43 , E5} o A = E1 ∪ E3 ∪ E5.
El evento “se obtienen impar
Del mismo modo, y menorunque
B (observar 5”menor
número es que ∩seBpuede
A 5) =E 1∪E
escribir 3.
como
El evento “se obtiene impar o menor que 5” es
B = {E 1 , E 2 , E 3 , E 4 } o B = E1 ∪ E2 ∪ E3 ∪ E4.
A ∪ B = E1 ∪ E2 ∪ E3 ∪ E4 ∪ E 5 .
La regla para determinar cuáles eventos simples incluir en un evento compuesto es muy p
sa. Un evento
El evento “no se obtiene unsimple Ei se incluye
impar” es A en el E2 ∪
=evento 4 ∪ siEA6ocurre
A siEy sólo . siempre que ocurra
D E FI NIC IÓN 2.5 Un evento en un espacio muestral discreto S es un conjunto de puntos muestrales, e
decir, cualquier subconjunto de S.
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 30 / 250
Clase 2: Probabilidades caso discreto
Recuerdo álgebra
Leyes distributivas
A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C )
A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C )
Leyes de DeMorgan
(A ∩ B) = A ∪ B
(A ∪ B) = A ∩ B
Modelo probabilı́stico
Definition
Sea S un espacio muestral asociado a un experimento. A todo evento A en
S le asignamos un número, P(A), llamado probabilidad de A, de modo que
se cumplen los siguientes axiomas:
A1: P(A) ≥ 0
A2: P(S) = 1
A3: Si A1 , A2 , A3 , . . . forman una secuencia de eventos disjuntos dos a dos
(es decir, Ai ∩ Aj = ∅ si i 6= j), entonces
∞
X
P(A1 ∪ A2 ∪ A3 ∪ . . .) = P(Ai ).
i=1
Modelo probabilı́stico
Para definir un modelo probabilı́stico para un experimento con un
espacio muestral discreto basta con asignar una probabilidad
numérica a cada evento simple Ei del espacio muestral S.
Este valor debe ser coherente con lo que creemos serı́a la frecuencia
relativa al repetir el evento muchas veces. Ej: si creemos que el dado
no está cargado entonces P(Ei ) = 61 .
Los axiomas permiten otras asignaciones. Podrı́amos asignar :
2 1 1
P(E1 ) = , P(E2 ) = , P(E3 ) = ,
3 15 15
1 1 1
P(E4 ) = , P(E5 ) = , P(E6 ) =
15 15 15
si suponemos que el dado está cargado al uno.
El modelo probabilı́stico elegido va a depender de las suposiciones
(razonables!) que hagamos.
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 33 / 250
Clase 2: Probabilidades caso discreto
Ejercicios
(Wackerly 2.17)
Los trenes de aterrizaje hidráulicos que salen de una planta de reparación
de aviones se inspeccionan para ver si tienen defectos. Registros históricos
indican que 8 % tienen defectos sólo en ejes, 6 % tienen defectos sólo en
bujes y 2 % tienen defectos en ejes y bujes. Uno de los trenes hidráulicos
se selecciona al azar. ¿Cuál es la probabilidad de que el conjunto tenga
(a) un buje defectuoso?
(b) un eje o buje defectuoso?
(c) exactamente uno de los dos tipos de defecto?
(d) ningún tipo de defecto?
Sol: Pizarra
Ejercicios
(Wackerly 2.18)
Suponga que dos monedas balanceadas se tiran al aire y que se observan
las caras superiores.
(a) Indique los puntos muestrales para este experimento.
(b) Asigne una probabilidad razonable a cada punto muestral. (¿Los
puntos muestrales son igualmente probables?)
(c) Denote con A el evento de que exactamente se vea una cara y con B
el evento de que se vea al menos una cara. Indique los puntos
muestrales en A y B.
(d) De su respuesta al inciso (c), encuentre
P(A), P(B), P(A ∩ B), P(A ∪ B) y P(A ∪ B).
Espacios equiprobables
Definition
Un espacio muestral finito se denomina equiprobable si todos los eventos
simples (puntos muestrales) tienen la misma probabilidad de ocurrir.
Etapa 1 Etapa 2
(1,1)
(1,2)
(1,3)
(1,•) (1,4)
(2,1)
(2,2)
(2,•) (2,3)
(2,4)
(3,•)
(4,•)
→ 4×4
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 42 / 250
Clase 3: Espacio muestral equiprobable
Etapa 1 Etapa 2
(1,2)
(1,3)
(1,•) (1,4)
(2,1)
(2,•) (2,3)
(2,4)
(3,•)
(4,•)
→ 4×3
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 43 / 250
Clase 3: Espacio muestral equiprobable
Distinguible vs indistinguible
Ordenando r objetos de n
Theorem
El número de maneras de ocupar r posiciones diferentes utilizando n
objetos distinguibles (con r ≤ n) es
n!
n(n − 1)(n − 2) . . . (n − r + 1) =
(n − r )!
Ordenando r objetos de n
Ejemplo: cumpleaños
(Wackerly 2.7)
Considere un experimento que consiste en registrar el cumpleaños para
cada una de 20 personas seleccionadas al azar. Si no se presta atención a
los años bisiestos y se supone que hay sólo 365 cumpleaños distintos
posibles, encuentre el número de puntos del espacio muestral S para este
experimento. Si suponemos que cada uno de los posibles conjuntos de
cumpleaños es igualmente probable, ¿cuál es la probabilidad de que cada
persona de las 20 tenga un cumpleaños diferente?
Sol:Pizarra
Permutaciones
n(n − 1)(n − 2) . . . 2 · 1 = n!
Permutaciones
Theorem
El número de maneras de ordenar n objetos donde n1 son Pkindistinguibles,
n2 son indistinguibles, . . . y nk son indistinguibles (con i=1 ni = n) es
n!
n1 !n2 ! . . . nk !
.
Dem: Primero distinguir y luego analizar repetidas.
Ejemplo:
Cuantas arreglos de letras se pueden hacer con las letras de
ABRACADABRA
11!
5!2!2!1!1!
Ejemplo
Del ejemplo visto concluı́mos que la fórmula anterior también aplica a este
caso:
Corollary
El número de maneras de repartir n objetos distinguibles en k grupos
distinguibles
Pk de tamaños fijos n1 , n2 , . . . , nk respectivamente (donde
n
i=1 i = n) es
n!
n1 !n2 ! . . . nk !
Combinaciones
Theorem
Dado un conjunto A de tamaño n, el número de subconjuntos de A de
tamaño r es
n n!
:=
r r !(n − r )!
.
Dem: Considerar dos grupos de tamaño fijo: los que quedan dentro del
subconjunto y los que quedan fuera. Aplicar resultado anterior.
Ejemplo:
Elegir un comité (sin cargos) de 5 personas de entre 20.
→ 20
5
Ejemplo
Probabilidad condicional
Probabilidad condicional
Definition
La probabilidad condicional de un evento A, dado que un evento B ha
ocurrido, es igual a
P(A ∩ B)
P(A|B) = ,
P(B)
siempre que P(B) > 0. El sı́mbolo P(A|B) se lee “probabilidad de A dado
B”.
Probabilidad condicional
Ejemplo:
Considere el ejemplo de lanzar un dado balanceado. Consideremos los
eventos A : “se obtiene un 1” y B: “se obtiene un número impar”.
La probabilidad de obtener un 1 dado que se obtiene impar es la
probabilidad de A dado B:
P(A ∩ B) 1/6 1
P(A|B) = = =
P(B) 1/2 3
Independencia de eventos
Definition
Se dice que dos eventos son independientes si cumple cualquiera de los
siguientes casos (todos son equivalentes):
P(A|B) = P(A),
P(B|A) = P(B),
P(A ∩ B) = P(A)P(B)
Si esto no sucede decimos que los sucesos son dependientes
Independencia de eventos
Probabilidad de la intersección
Theorem
La probabilidad de la intersección de dos eventos A y B es
P(A ∩ B) = P(A)P(B|A)
= P(B)P(A|B)
P(A ∩ B) = P(A)P(B)
Probabilidad de la intersección
P(A ∩ B ∩ C ) = P(A)P(B|A)P(C |A ∩ B)
En general:
Probabilidad de la unión
Theorem
La probabilidad de la unión de dos eventos A y B es
Probabilidad de la unión
P(A ∪ B ∪ C ) =
= P(A)+P(B)+P(C )−P(A∩B)−P(A∩C )−P(B ∩C )+P(A∩B ∩C )
y ası́ sucesivamente...
Theorem
Si A es un evento, entonces
P(A) = 1 − P(A).
Dem: S = A ∪ A
Muchas veces es más fácil calcular la probabilidad del complemento
de nuestro evento de interés. Ej: Probabilidad que entre 20 personas
al menos dos tengan cumpleaños el mismo dı́a.
A = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bk )
Theorem
Suponga que {B1 , B2 , . . . , Bk } es una partición de S tal que P(Bi ) > 0,
para i = 1, 2, . . . , k. Entonces para cualquier evento A
k
X
P(A) = P(A|Bi )P(Bi )
i=1
Regla de Bayes
Theorem
Suponga que {B1 , B2 , . . . , Bk } es una partición de S tal que P(Bi ) > 0,
para i = 1, 2, . . . , k. Entonces
P(A|Bj )P(Bj )
P(Bj |A) = Pk
i=1 P(A|Bi )P(Bi )
Ejemplo (Wackerly)
Ejemplo (Wackerly)
Solución
Desarrollo: Pizarra
Sol: 0.73 y 0.63
Variables aleatorias
Ojo: una variable aleatoria es una función, no es una variable (a pesar del
nombre).
Y : S → RY ⊆ R
Definition
Una variable aleatoria Y es discreta si puede tomar sólo un número finito
o infinito numerable de valores distintos. Es decir, su recorrido RY es finito
o infinito numerable.
¿Cuándo no es discreta?
Ejemplo ε: lanzar un dardo en un disco de tiro al blanco y mirar su
posición.
la variable aleatoria Y =“distancia entre la posición y el centro del
blanco” ¿es discreta o no?
Si asumimos una medición perfecta, el número de posibles valores de
Y es cualquier número real entre 0 y el radio del disco → Y no es
discreta. Más adelante estudiaremos este caso.
En cambio si observamos la zona en que cayó, la v.a. X =“puntaje
obtenido” es claramente discreta. Ası́, para un mismo experimento
podemos definir distintas v.a. de distinta naturaleza.
Proposition
La probabilidad de que Y tome el valor y , P(Y = y ), es la suma de las
probabilidades de todos los puntos muestrales en S a los que se asigna el
valor y . A veces denotamos P(Y = y ) como pY (y ) o simplemente como
p(y ).
Distribución de probabilidad
Definition
La distribución de probabilidad para una variable discreta Y es la
descripción de la probabilidad de cada uno de los valores que puede tomar
Y . Puede ser representada por una fórmula, una tabla o una gráfica que
produzca p(y ) = P(Y = y ) para todo y .
p(x)
1
–
2
1
–
4
x
0 1 2
Figura de “A First...”, Ross
FIGURE 4.1
Distribución de probabilidad
p(x)
6
—
36
5
—
36
4
—
36
3
—
36
2
—
36
1
—
36
x
0 1 2 3 4 5 6 7 8 9 10 11 12
Distribución de probabilidad
Algunas propiedades:
La probabilidad para Y = y debe estar entre 0 y 1 para todo y :
0 ≤ pY (y ) ≤ 1
Ejemplo
Ejemplo (continuación)
En general no escribimos todos los valores. En cambio calculamos una
fórmula para la función de probabilidad:
3
k
pY (k) = k = 0, . . . , 3
23
Efectivamente las probabilidades los posibles valores de Y suman 1:
3
X 1 3 3 1
pY (k) = + + + =1
8 8 8 8
k=0
También podemos corroborarlo a partir de la fórmula:
3 3 3
X 1 X 3 1 X 3 k 3−k 1
pY (k) = 3 = 3 1 1 = 3 (1 + 1)3 = 1
2 k 2 k 2
k=0 k=0 k=0
Problema
Problema: Tres bolas son elegidas al azar sin reemplazo desde una
urna conteniendo 20 bolas numeradas del 1 al 20. Si apostamos que
al menos una bola elegida tiene un número mayor o igual a 17, cuál
es la probabilidad de que ganemos la apuesta?
3 4! 16!
k (4−k)! (13+k)!
P(Y = k) = 20!
17!
(k4)(3−k
16
)
Comprueben que es lo mismo que antes (es decir 20 ) pero
(3)
escrito más feo.
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 95 / 250
Clase 7: Esperanza y varianza
Esperanza
Definition
Sea Y una v.a. discreta con función de probabilidad p(y ). Entonces el
valor esperado de Y , E (Y ), se define como
X
E (Y ) = yp(Y )
y ∈RY
Theorem
Sea Y una v.a. discreta con función de probabilidad p(y ) y sea g (Y ) una
función de valor real de Y . Entonces el valor esperado de g (Y ) es
X
E [g (Y )] = g (y )p(Y )
y ∈RY
Varianza
Theorem
Si Y es una v.a. con media E (Y ) = µ, la varianza de la v.a. Y se define
como el valor esperado de (Y − µ)2 . Esto es,
V (Y ) = E ((Y − µ)2 ).
Propiedades de la esperanza
Theorem
Sea Y una v.a. discreta con función de probabilidad p(y ) y sea c una
constante. Entonces E (c) = c.
Propiedades de la esperanza
Theorem
Sea Y una v.a. discreta con función de probabilidad p(y ), g (Y ) una
función de Y y c una constante. Entonces
E (cg (Y )) = cE (g (Y ))
Propiedades de la esperanza
Theorem
Sea Y una v.a. discreta con función de probabilidad p(y ) y sean
g1 (Y ), g2 (Y ) . . . gk (Y ) k funciones de Y . Entonces
Fórmula de la varianza
Theorem
Sea Y una v.a. discreta con función de probabilidad p(y ) y media
E (Y ) = µ; entonces
V (Y ) = σ 2 = E ((Y − µ)2 ) = E (Y 2 ) − µ2
Dem: Pizarra
Esta fórmula es muy usada para calcula la esperanza
Propiedad de la varianza
Theorem
Si X es una variable aleatoria y a, b son constantes, entonces
V (aX + b) = a2 V (X )
Demostración: Pizarra
Definition
Decimos que una v.a. discreta X sigue una distribución de Bernoulli de
parámetro p, si la distribución de X está dada por
pX (0) = 1 − p
pX (1) = p
Ejemplos:
lanzar una moneda balanceada. Si X v.a. que sale 1 si cara y 0 si
sello, entonces X ∼ Bernoulli( 12 ).
lanzar un dado balanceado. Si Y v.a. que vale 0 si sale un seis y 1 si
no. Entonces X ∼ Bernoulli( 56 ).
Pizarra: Mostrar que esperanza es p y varianza p(1 − p).
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 107 / 250
Clase 8: Variables aleatorias discretas usuales
Ejemplos:
Ejemplo: lanzar 10 veces una moneda balanceada y definir X el
número de caras. Entonces X ∼ bin(10, 21 ).
Pizarra: Mostrar que esperanza de binomial es np y varianza
np(1 − p).
F I G U R A 3.4 p ( y)
Histogramas
.40
de probabilidad
binomial .30
n = 10, p = .1
.20
.10
0
y
0 1 2 3 4 5 6 7 8 9 10
(a)
p ( y)
.25
n = 10, p = .5
.20
.15
.10
.05
0
y
0 1 2 3 4 5 6 7 8 9 10
(b)
p ( y)
.18
.16
.14
n = 20, p = .5
.12
.10
.08
.06
.04
.02
0
0 2 4 6 8 10 12 14 16 18 20 y
Definition
Decimos que una v.a. discreta X sigue una distribución geométrica de
parámetro p ∈ [0, 1], si la distribución de X está dada por
Ejemplos:
Ejemplo: lanzar sucesivamente un dado hasta obtener tres. X definido
como cuantas veces se lanza el dado. X ∼ geom( 61 )
1 1−p
Propuesto: Mostrar que la esperanza es p y varianza p2
.
FIGURA 3.5 p ( y)
La distribución .5
de probabilidad
geométrica, p = .5
.4
.3
.2
.1
0
1 2 3 4 5 6 7 8 y
W-cap-03.indd 115
Definition
Decimos que una v.a. discreta X sigue una distribución binomial negativa
de parámetros r ∈ N∗ y p ∈ [0, 1], si la distribución de X está dada por
k −1
pX (k) = (1 − p)k−r p r para todo k ∈ {r , r + 1, . . .}
r −1
Ejemplos:
Ejemplo: lanzar sucesivamente un dado hasta obtener 10 veces tres.
X definido como cuantas veces se lanza el dado. X ∼ BN(10, 61 )
r r (1−p)
Propuesto: Mostrar que la esperanza es p y varianza p2
.
λk
N λ k λ
lı́m ( ) (1 − )N−k = e −λ
n→∞ k N N k!
Definition
Decimos que una v.a. discreta X sigue una distribución de Poisson de
parámetro λ > 0, si la distribución de X está dada por
λk
pX (k) = e −λ para todo k ∈ {0, 1, 2, . . .}
k!
En este caso denotamos X ∼ Poisson(λ).
Propuesto
Demostrar que la distribución de Poisson
P satisface la condición
(requerida para ser distribución): y ∈RY pY (y ) = 1 (Hint: use la
expansión en serie de e λ )
Demostrar que la esperanza de una v.a. de Poisson con parámetro λ
es λ (Hint: Busque formar la condición anterior)
Demostrar que la varianza también es λ (Hint: Encuentre
E (Y (Y − 1)) para calcular E (Y 2 ) )
Definition
Sea Y una variable aleatoria cualquiera. La función de distribución
(acumulada) de Y , denotada por F (y ) es tal que F (y ) = P(Y ≤ y ) para
−∞ < y < ∞
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 123 / 250
Clase 9: Variables aleatorias continuas
F I G U R A 4.1 F(y)
Función de distribu-
ción binomial, 1
n = 2, p = 1/2
3/4
1/2
1/4
0 1 2 y
Theorem
Si F (y ) es una función de distribución de la variable aleatoria Y entonces
1 lı́my →−∞ F (y ) = 0
2 lı́my →∞ F (y ) = 1
3 F (y ) es no decreciente en y .
4 F (y ) es continua por la derecha.
Definition
Una variable aleatoria Y con función de distribución F (y ) se dice continua
si F (y ) es continua (y derivable en “casi todos los puntos”), para
−∞ < y < ∞
D E F I N I C I Ó N 4.2 Una variable aleatoria Y con función de distribución F(y) se dice que es continua si F(y)
Función distribución para v.a. continuas es continua, para –q < y < q.2
F I G U R A 4.2 F(y)
Función de distribución
para una variable
aleatoria continua 1
F(y2)
F(y1)
0 y1 y2 y
Definition
Sea F (y ) la función de distribución para una v.a. continua Y . Entonces
f (y ), dada por
dF (y )
f (y ) = = F 0 (y )
dy
siempre que exista la derivada, se denomina función de densidad de
probabilidad para la variable aleatoria Y .
F I G U R A 4.3 f ( y)
La función
de distribución
F ( y0 )
y0 y
Theorem
Si f (y ) es una función de densidad para una variable aleatoria continua,
entonces
1. f (y ) ≥ 0 para todo y tal que −∞ < y < ∞.
R∞
2. −∞ f (y )dy = 1.
b
Variables aleatorias continuas
P(a < Y ≤ b) = P(Y ≤ b) − P(Y ≤ a) = F(b) − F(a) =
a
F I G U R A 4.8 f (y)
P (a ≤ Y ≤ b)
0 a b y
Definition
El valor esperado de una variable aleatoria continua Y es
Z ∞
E (Y ) = yf (y )dy
−∞
Theorem
Sea g (Y ) una función de Y ; entonces el valor esperado de g (Y ) esta dado
por Z ∞
E (Y ) = g (y )f (y )dy
−∞
siempre que exista la integral.
Propiedades de la esperanza
Theorem
Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), ..., gk (Y ) funciones de
una variable aleatoria continua Y . Entonces se cumplen los siguientes
resultados:
1. E (c) = c.
2. E (cg (Y )) = cE (g (Y )).
3. E [g1 (Y )+g2 (Y )+. . .+gk (Y )] = E [g1 (Y )]+E [g2 (Y )]+. . .+E [gk (Y )].
Distribución uniforme
Definition
Si θ1 < θ2 , se dice que una variable aleatoria Y tiene distribución de
probabilidad uniforme en el intervalo (θ1 , θ2 ) si y sólo si la función de
densidad de Y es
(
1
θ 1 ≤ y ≤ θ2
f (y ) = θ2 −θ1
0 en cualquier otro punto.
F I G U R A 4.9 f(y)
Función de
densidad para Y
A1 A2
0 1 2 3 4 5 6 7 8 9 10 y
04.indd 174
Theorem
Si θ1 < θ2 e Y es una variable alatoriauniforme distribuida en el intervalo
(θ1 , θ2 ), entonces
θ1 + θ2 2 (θ2 − θ1 )2
176 Capítulo 4 µ = E (Y ) = y σ = V (Y
Variables continuas y sus distribuciones de probabilidad ) = .
2 12
u1 + u2 (u2 − u1 ) 2
m = E (Y ) = y s2 = V (Y ) = .
2 12
Prueba Por la Definición 4.5,
q
E(Y ) = y f ( y) dy
−q
4.5aleatorias
Variables La distribución de probabilidad normal
continuas
La distribución de probabilidad continua que más se utiliza es la distribución normal, con la
conocida forma de campana que estudiamos en relación con la regla empírica. Los ejemplos
y ejercicios de esta sección ilustran algunas de las numerosas variables aleatorias que tienen
distribuciones que se calculan en forma muy cercana por medio de una distribución de proba-
bilidad normal. En el Capítulo 7 presentaremos un argumento que explica, al menos parcial-
mente, el suceso común de distribuciones normales de datos en la naturaleza. La función de
densidad normal es como sigue:
DE F INI C IÓN 4.8 Se dice que una variable Y tiene una distribución normal de probabilidad si y sólo si,
para s > 0 y –q < m < q, la función de densidad de Y es
1 2
%(2s2 )
f ( y) = e−( y−m) , −q < y < q .
s√2p
T E O REM A 4.7 Si Y es una variable aleatoria normalmente distribuida con parámetros m y s, entonces
4.5 La d
F I G U R A 4.10 f (y)
La función
de densidad de
probabilidad normal
! y
b
1 −( y−m) 2$( 2s2 )
e dy.
a s√2p
EJEMPLO 4.8 Denote con Z una variable aleatoria normal con media 0 y desviación estándar 1.
179
F I G U R A 4.11 f (y)
Área tabulada para la
función de densidad
normal
! ! + z" y
z"
Variables
F I G U R A 4.12
aleatorias continuas
Área deseada para el
Ejemplo 4.8(b)
A2 A1
–2 0 2 y
EJEMPLO 4.9 Las calificaciones para un examen de admisión a una universidad están normalmente dis-
tribuidas con media de 75 y desviación estándar 10. ¿Qué fracción de las calificaciones se
encuentra entre 80 y 90?
Solución Recuerde que z es la distancia desde la media de una distribución normal expresada en unida-
des de desviación estándar. Entonces,
y −m
z= .
s
F I G U R A 4.13
Área requerida para
el Ejemplo 4.9
A
0 .5 1.5 z
DE F IN IC IÓN 4.9 Se dice que una variable aleatoria Y tiene una distribución gamma con parámetros
a > 0 y b > 0 si y sólo si la función de densidad de Y es
y a−1 e−y/b
, 0 ≤ y < q,
f ( y) = ba
0, en cualquier otro punto,
donde
q
= y a−1 e−y dy.
0
La cantidad Γ(a) se conoce como función gamma. La integración directa verificará que
Γ(1) = 1. La integración por partes verifica que = (a − 1 − 1) para cualquier a > 1
y que Γ(n) = (n – 1)!, siempre que n sea un entero.
En la Figura 4.16 se dan gráficas de funciones de densidad gamma para a = 1, 2 y 4 y
b = 1. Observe en la Figura 4.16 que la forma de la densidad gamma difiere para los diferen-
tes valores de a. Por esta razón, a recibe a veces el nombre de parámetro de forma asociado
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 148 / 250
Clase 11: Variables aleatorias continuas usuales II
alpha=1
alpha=1.3
alpha=2
alpha=3
alpha=4
0.4
Density
0.3
0.2
0.1
0.0
0 2 4 6 8 10
x value
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 151 / 250
Clase 11: Variables aleatorias continuas usuales II
beta=1
beta=2
beta=3
beta=4
beta=8
0.4
Density
0.3
0.2
0.1
0.0
0 2 4 6 8 10
x value
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 153 / 250
Clase 11: Variables aleatorias continuas usuales II
Probability densities
alpha=0.5 beta=8
alpha=1 beta=4
alpha=1.33 beta=3
alpha=2 beta=2
0.5
alpha=4 beta=1
alpha=20 beta=0.2
0.4
Density
0.3
0.2
0.1
0.0
0 2 4 6 8 10
x value
d
y a−1 e−y"b
dy.
c ba
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 156 / 250
S–Plus) genera P(Y ≤ y ), mientras que qgamma(q,a,1"b) da el p–ésimo cu
0 II
Clase 11: Variables aleatorias continuas usuales
de fp tal que P(Y ≤ fp) = p. Además, una de las aplicaciones breves, Gamma
and Quantiles, accesible en www.thomsonedu.com/statistics/wackerly, se pu
Variables aleatorias continuas
determinar probabilidades y cuantiles asociados con variables aleatorias de di
mma. Otra aplicación breve en la página web de Thomson, Comparison of Ga
Functions, permitirá visualizar y comparar funciones de densidad gamma con d
res para a y/o b. Estas aplicaciones breves se usarán para contestar algunos de
del final de esta sección.
Como se indica en el siguiente teorema, la media y la varianza de variables
distribución gamma son fáciles de calcular.
m = E(Y ) = ab y s2 = V (Y ) = ab2 .
04.indd 186
Dos casos especiales de variables aleatorias con distribución gamma ameritan considera-
ción particular.
DE F INI CIÓ N 4.10 Sea ν un entero positivo. Se dice que una variable aleatoria Y tiene distribución
ji cuadrada con ν grados de libertad si y sólo si Y es una variable aleatoria con distribu-
ción gamma y parámetros a = ν/2 y b = 2.
En casi todos los textos de estadística se pueden ver tablas que dan probabilidades as
con distribuciones χ2. La Tabla 6, Apéndice 3, da puntos porcentuales asociados con d
ciones χ2 para numerosas opciones de ν. No se dispone fácilmente de tablas de la distr
gamma general, pero demostraremos en el Ejercicio 6.46 que si Y tiene una distribución
con a = n/2 para algún entero n, entonces 2Y/b tiene una distribución χ2 con n gra
libertad. De ahí que, por ejemplo, si Y tiene una distribución gamma con a = 1.5 =
b = 4, entonces 2Y/b = 2Y/4 = Y/2 tiene una distribución χ2 con 3 grados de libertad. En
Vicente Acuña P(Y <de3.5)
(CMM, Universidad = P([Y/2] < 1.75)
Chile) Prob. se
y Est. 159χ2/ de
puede hallar usando tablas de la distribución 250las
Clase 11: Variables aleatorias continuas usuales II
En casi todos los textos de estadística se pueden ver tablas que dan probabilidades asociadas
con distribuciones χ2. La Tabla 6, Apéndice 3, da puntos porcentuales asociados con distribu-
Variables aleatorias continuas
ciones χ2 para numerosas opciones de ν. No se dispone fácilmente de tablas de la distribución
gamma general, pero demostraremos en el Ejercicio 6.46 que si Y tiene una distribución gamma
con a = n/2 para algún entero n, entonces 2Y/b tiene una distribución χ2 con n grados de
libertad. De ahí que, por ejemplo, si Y tiene una distribución gamma con a = 1.5 = 3/2 y
b = 4, entonces 2Y/b = 2Y/4 = Y/2 tiene una distribución χ2 con 3 grados de libertad. Entonces,
P(Y < 3.5) = P([Y/2] < 1.75) se puede hallar usando tablas de la distribución χ2 de las que se
puede disponer fácilmente.
La función de densidad gamma en la que a = 1, se llama función de densidad exponen-
cial.
DE F IN IC IÓ N 4.11 Se dice que una variable aleatoria Y tiene una distribución exponencial con parámetro
b > 0 si y sólo si la función de densidad de Y es
1 −y#b
e , 0 ≤ y < ∞,
f ( y) = b
0, en cualquier otro punto.
E J E MPL O 4.10 Suponga que Y tiene una función de densidad de probabilidad exponencial. Demuestre que, si
a > 0 y b > 0,
P(Y > a + b)Y > a) = P(Y > b).
La función de densidad beta es una función de densidad de dos parámetros definida sobre
Variables aleatorias continuas
el intervalo cerrado 0 ≤ y ≤ 1. Frecuentemente se usa como modelo para proporciones, por
ejemplo como la proporción de impurezas en un producto químico o la proporción de tiempo
que una máquina está en reparación.
Se dice que una variable aleatoria Y tiene una distribución de probabilidad beta con
parámetros a > 0 y b > 0 si y sólo si la función de densidad de Y es
y a−1 (1 − y) b−1
, 0 ≤ y ≤ 1,
f ( y) = B(α , b)
0, en cualquier otro punto,
donde
1
a b
B (α, b) = y a−1 (1 − y) b−1 dy = .
0 a + b)
Las gráficas de funciones de densidad beta toman formas muy diferentes para diversos
valores de los dos parámetros a y b. Algunos de éstos se muestran en la Figura 4.17. Ciertos
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 163 / 250
Clase 11: Variables aleatorias continuas usuales II
F I G U R A 4.17 f ( y)
Funciones de
densidad beta ! =5
" =3
! =3
" =3
! =2
" =2
0 1 y
T E O R E M A 4.11 Si Y es una variable aleatoria con distribución beta a > 0 y b > 0, entonces
a ab
m = E(Y ) y s 2 = V (Y ) = .
a +b (a +b ) 2 (a + b + 1)
Definition
El k-ésimo momento de una variable aleatoria Y se define como E (Y k ) y
se denota por µ0k .
Definition
La función generadora de momento m(t) para una variable aleatoria Y se
define como m(t) = E (e tY ). Decimos que una función generadora de
momento para Y existe si existe una constante positiva b tal que m(t) es
finita para |t| ≤ b.
t2 0 t3
E (e tY ) = 1 + tµ01 + µ2 + µ03 + . . .
2! 3!
Es decir que efectivamente contiene todos los momentos de Y
Theorem
Si m(t) existe, entonces para cualquier entero positivo k,
#
d k m(t)
= m(k) (0) = µ0k ,
dt k
t=0
Función
generadora
Distribución Función de probabilidad Media Varianza de momento
Binomial p( y) = n
y
p y (1 − p) n−y ; np np(1 − p) [ pet + (1 − p)]n
y = 0, 1, . . . , n
1 1−p pet
Geométrica p( y) = p(1 − p) y−1 ;
p p2 1 − (1 − p)et
y = 1, 2, . . .
r N −r
y n−y nr r N −r N −n No existe en
Hipergeométrica p( y) = ; n
N
N N N N −1 forma cerrada
n
y = 0, 1, . . . , n si n ≤ r ,
y = 0, 1, . . . , r si n > r
l y e−l
Poisson p( y) = ; l l exp[l(et − 1)]
y!
y = 0, 1, 2, . . .
r
r r (1 − p) pet
Binomial negativa p( y) = y−1
pr (1 − p) y−r ;
r −1
p p2 1 − (1 − p)et
y = r, r + 1, . . .
837
1 1 t 2 s2
Normal f ( y) = exp − ( y − m) 2 m s2 exp mt +
s√2p 2s2 2
−q < y < + q
1 −y/b
Exponencial f ( y) = e ∶ b>0 b b2 (1 − bt) −1
b
0<y< q
1
Gamma f ( y) = a
y a−1 e−y/b ; ab ab 2 (1 − bt) −a
0 < y <q
( y) (y/2)−1 e−y/2
Ji-cuadrada f ( y) = ; v 2v (1 − 2t) −y/2
2v/2 v/2)
y >0
+ b) a ab no existe en
Beta f ( y) = y a−1 (1 − y) b−1 ;
a +b (a + b) 2 (a + b + 1) forma cerrada
0<y <1
Teorema de Tchebysheff
Teorema de Tchebysheff
Theorem
Sea Y una variable aleatoria con media finita µ y varianza σ 2 . Entonces,
para cualquier k > 0
1
P(|Y − µ| < kσ) ≥ 1 −
k2
o equivalentemente
1
P(|Y − µ| ≥ kσ) ≤ 1 −
k2
Teorema de Tchebysheff
Teorema de Tchebysheff
Teorema de Tchebysheff
Distribución Multivariantes
Distribución Multivariantes
5.2 Distribuciones de probabilidad bivariantes y mu
F I G U R A 5.1 p ( y1, y2 )
Función de probabili-
dad bivariante;
y1 = número de
puntos en el dado 1,
y2 = número de 1!36
puntos en el dado 2
0 1 2 3 4 5 6
1 y1
2
3
4
5
6
y2
Distribución Multivariantes
Definition
Sean Y1 y Y2 variables aleatorias discretas. La función de probabilidad
conjunta (o bivariante) para Y1 y Y2 está dada por
Theorem
Si Y1 y Y2 son variables aleatorias discretas con función de probabilidad
conjunta p(y1 , y2 ), entonces
1. p(y1 , y2 ) ≥ 0 para todo y1 , y2 .
P
2. y1 ,y2 p(y1 , y2 ) = 1 donde la suma es para todos los valores (y1 , y2 ) a
los que se asignan probabilidades diferentes de cero.
Definition
Sean Y1 y Y2 variables aleatorias discretas. La función de distribución
(acumulada) conjunta F (y1 , y2 ) está dada por
Definition
Sean Y1 y Y2 variables aleatorias continuas con función de distribución
conjunta F (y1 , y2 ). Si existe una función no negativa f (y1 , y2 ), tal que
Z y1 Z y2
F (y1 , y2 ) = f (t1 , t2 )dt2 dt1 ,
−∞ −∞
Theorem
Si Y1 y Y2 son variables aleatorias con función de distribución conjunta
F (y1 , y2 ), entonces
1. lı́m F (y1 , y2 ) = lı́m F (y1 , y2 ) = lı́m F (y1 , y2 ) = 0
y1 →−∞ y1 →−∞ y2 →−∞
y2 →−∞
2. y lı́m
→∞
F (y1 , y2 ) = 1
1
y2 →∞
3. Si y1∗ > y1 y y2∗ > y2 entonces
Theorem
Si Y1 y Y2 son variables aleatorias continuas conjuntas con una función de
densidad conjunta dada por f (y1 , y2 ), entonces
1. f (y1 , y2 ) ≥ 0 para toda y1 , y2 .
R∞ R∞
2. −∞ −∞ f (y1 , y2 )dy1 dy2 = 1
R A 5.2 f ( y1, y2 )
ensidad
f (y1, y2)
a1 a2 y1
0
b1
b2
y2
Z b2 Z a2
P(a1 < Y1 ≤ a2 , b1 < Y2 ≤ b2 ) = f (y1 , y2 )dy1 dy2
b1 a1
Ejemplo
G U R A 5.3 f ( y1, y2 )
resentación
geométrica
de f (y1, y2), 1
F(.2, .4)
Ejemplo 5.3
.2
0
1 y1
.4
y2
Ejemplo
Se ha de almacenar gasolina en un enorme tanque una vez al principio de
cada semana y luego se vende a clientes individuales. Denote con Y1 el
nivel de gasolina (proporción) que alcanza el tanque después de surtirlo.
Debido a suministros limitados, Y1 varı́a de una semana a otra. Denote
con Y2 la proporción de la capacidad del tanque que se vende durante la
semana. Como Y1 y Y2 son proporciones, estas dos variables toman
valores entre 0 y 1. Además, la cantidad de gasolina vendida, y2 , no puede
ser mayor que la cantidad disponible, y1 . Suponga que la función de
densidad conjunta para Y1 y Y2 está dada por
(
3y1 0 ≤ y2 ≤ y1 ≤ 1
f (y1 , y2 ) =
0 en cualquier otro punto.
Encuentre la probabilidad de que menos de la mitad del tanque tenga
gasolina y más de un cuarto del tanque se venda (Grafico en siguiente
slide).
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 195 / 250
dad de observar un valor en una región es el volumen bajo
Clase 13: Distrib. multivariantes marginal, condicional, independ.
de la región de interés. La función de densidad f(y1, y2) es p
Figura ejemplo
R A 5.4 f ( y1, y2 )
ensidad
para el
mplo 5.4 3
1
0
y1
1
y2
Definition
Sean Y1 y Y2 variables aleatorias discretas conjuntas con función de
probabilidad conjunta p(y1 , y2 ). Entonces las funciones de probabilidad
marginal de Y1 y Y2 , respectivamente, están dadas por
X X
p1 (y1 ) = p(y1 , y2 ) y p2 (y2 ) = p(y1 , y2 ).
todos y2 todos y1
Definition
Sean Y1 y Y2 variables aleatorias continuas conjuntas con función de
densidad conjunta f (y1 , y2 ). Entonces las funciones de densidad marginal
de Y1 y Y2 , respectivamente, están dadas por
Z ∞ Z ∞
f1 (y1 ) = f (y1 , y2 )dy2 y f2 (y2 ) = f (y1 , y2 )dy1 .
−∞ −∞
Ejemplo
y1
y2 Total
Total
Ejemplo
Sea
(
2y1 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1
f (y1 , y2 ) =
0 en cualquier otro punto.
Grafique f (y1 , y2 ) y encuentre las funciones de densidad marginal para Y1
y Y2 .
Ejemplo
F I G U R A 5.6 f ( y1, y2 )
Representación
geométrica
2
de f(y1, y2),
Ejemplo 5.6
1
1
0 y1
y2
densidad de probabilidad triangular que se vería como el lado de la cuña de la Figura 5.6. Si
la probabilidad estuviera acumulada a lo largo del eje y2 (acumulándose a lo largo de líneas
paralelas al eje y1), la densidad resultante sería uniforme. Confirmaremos estas soluciones
visuales mediante la aplicación de la Definición 5.4. Entonces, si 0 ≤ y1 ≤ 1,
q 1 1
f 1 ( y1 ) = f ( y1 , y2 ) dy2 = 2y1 dy2 = 2y1 y2
Vicente Acuña (CMM, Universidad de Chile) Prob.
−q y Est. 0 0 202 / 250
Clase 13: Distrib. multivariantes marginal, condicional, independ.
Definition
Si Y1 y Y2 son variables aleatorias discretas conjuntas con función de
probabilidad conjunta p(y1 , y2 ) y funciones de probabilidad marginal
p1 (y1 ) y p2 (y2 ), respectivamente, entonces la función de probabilidad
discreta condicional de Y1 dada Y2 es
P(Y1 = y1 , Y2 = y2 ) p(y1 , y2 )
p(y1 |y2 ) = P(Y1 = y1 |Y2 = y2 ) = =
P(Y2 = y2 ) p2 (y2 )
Ejemplo
Definition
Si Y1 y Y2 son variables aleatorias, entonces la función de distribución
condicional de Y1 dado que Y2 = y2 es
Densidad condicional
Definition
Sean Y1 y Y2 variables aleatorias continuas conjuntas con densidad
conjunta f (y1 , y2 ) y densidades marginales f1 (y1 ) y f2 (y2 ),
respectivamente. Para cualquier y2 tal que f2 (y2 ) > 0, la densidad
condicional de Y1 dada Y2 = y2 está dada por
f (y1 , y2 )
f (y1 |y2 ) =
f2 (y2 )
Ejemplo
Independencia
Definition
Sea Y1 que tiene una función de distribución F1 (y1 ) y sea Y2 que tiene
una función de distribución F2 (y2 ), y F (y1 , y2 ) es la función de
distribución conjunta de Y1 y Y2 . Entonces se dice que Y1 y Y2 son
independientes si y sólo si
Independencia
Theorem
Si Y1 y Y2 son variables aleatorias discretas con función de probabilidad
conjunta p(y1 , y2 ) y funciones de probabilidad marginal p1 (y1 ) y p2 (y2 ),
respectivamente, entonces Y1 y Y2 son independientes si y sólo si
Independencia
Theorem
Si Y1 y Y2 son variables aleatorias continuas con función de densidad
conjunta f (y1 , y2 ) y funciones de densidad marginal f1 (y1 ) y f2 (y2 ),
respectivamente, entonces Y1 y Y2 son independientes si y sólo si
Ejemplo
Recordemos el ejemplo de tirar dos dados y tal que Y1 indica el valor del
primer dado e Y2 indica el valor del segundo dado. Demuestre que Y1 e Y2
son independientes.
Ejemplo
Ejemplo
Sea (
6y1 y22 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1
f (y1 , y2 ) =
0 en cualquier otro punto.
Demuestre que Y1 e Y2 son independientes.
Ejemplo
Sea (
2 0 ≤ y2 ≤ y1 ≤ 1
f (y1 , y2 ) =
0 en cualquier otro punto.
Demuestre que Y1 e Y2 son independientes.
Descomposición de conjunta
Theorem
Sean Y1 y Y2 que tienen una densidad conjunta f (y1 , y2 ) que es positiva si
y sólo si a ≤ y1 ≤ b y c ≤ y2 ≤ d, para constantes a, b, c y d; y
f (y1 , y2 ) = 0 en otro caso. Entonces Y1 y Y2 son variables aleatorias
independientes si y sólo si
Teoremas especiales
Definition
Sea g (Y1 , Y2 , . . . , Yk ) una función de las variables aleatorias discretas,
Y1 , Y2 , . . . , Yk , que tienen función de probabilidad p(y1 , y2 , . . . , yk ).
Entonces el valor esperado de g (Y1 , Y2 , . . . , Yk ) es
E (g (Y1 , Y2 , . . . , Yk )) =
X X X
... g (y1 , y2 , . . . , yk )p(y1 , y2 , . . . , yk ).
todo yk todo y2 todo y1
Teoremas especiales
Definition
Sea g (Y1 , Y2 , . . . , Yk ) una función de las variables aleatorias continuas
Y1 , Y2 , . . . , Yk con función de densidad conjunta f (y1 , y2 , . . . , yk )
Entonces el valor esperado de g (Y1 , Y2 , . . . , Yk ) es
E (g (Y1 , Y2 , . . . , Yk )) =
Z ∞ Z ∞ Z ∞
... g (y1 , y2 , . . . , yk ) f (y1 , y2 , . . . , yk )dy1 dy2 . . . dyk
−∞ −∞ −∞
Teoremas especiales
Theorem
Sea c una constante. Entonces
E (c) = c.
Teoremas especiales
Theorem
Sea g (Y1 , Y2 ) una función de las variables aleatorias Y1 y Y2 y sea c una
constante. Entonces
Teoremas especiales
Theorem
Sean Y1 y Y2 variables aleatorias y g1 (Y1 , Y2 ), g2 (Y1 , Y2 ), . . . , gk (Y1 , Y2 )
funciones de Y1 y Y2 . Entonces
Teoremas especiales
Theorem
Sean Y1 y Y2 variables aleatorias independientes y sean g (Y1 ) y h(Y2 )
funciones sólo de Y1 y Y2 , respectivamente. Entonces
Definition
Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 , respectivamente, la
covarianza de Y1 y Y2 es
5.7 Covarianza de
Teorema:
F I G U R A 5.8 y2 y2
Observaciones
dependientes e
independientes
para (y1, y2) !2 !2
!1 y1 !1 y1
(a) (b)
Coeficiente de correlación
Definition
Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 , respectivamente, el
coeficiente correlación de Y1 y Y2 es
Cov (Y1 , Y2 )
ρ=
σ1 σ2
donde σ1 y σ2 son las desviaciones estándar de Y1 y Y2 respectivamente.
Theorem
Si Y1 y Y2 son variables aleatorias con medias µ1 y µ2 , respectivamente,
entonces es
Ejemplo
Theorem
Si Y1 y Y2 son variables aleatorias independientes, entonces
Cov (Y1 , Y2 ) = 0.
Dem: Pizarra
Ojo: La recı́proca no es cierta. Ver ejemplo.
y1
y2 −1 0 +1
−1 1$16 3$16 1$16
0 3$16 0 3$16
+1 1$16 3$16 1$16
Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias
P tales que E (Yi ) = µi , y sean
a1 , a2 , . . . , an constantes. Sea U = ni=1 ai Yi . Entonces se tiene que:
n
X
E (U) = ai µi
i=1
Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias
Pn tales que E (Yi ) = µi , y sean
a1 , a2 , . . . , an constantes. Sea U = i=1 ai Yi . Entonces se tiene que:
X n X X
V (U) = ai2 V (Yi ) + 2 ai aj Cov (Yi , Yj ).
i=1 1≤i<j≤n
o equivalentemente:
Xn Xn
V (U) = ai aj Cov (Yi , Yj ).
i=1 j=1
Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias tales que E (Yi ) = µi ,
y sean X1 , X2 , . . . , Xm variables aleatorias tales que E (Xi ) = ξi . Sean
a1 , a2 , . . . , an y b 1 , b 2 , . . . P
, bm constantes. Entonces la covarianza entre las
n Pm
variables aleatorias U1 = i=1 ai Yi y U2 = i=1 bi Xi es
n X
X m
Cov (U1 , U2 ) = ai bj Cov (Yi , Xj ).
i=1 j=1
Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias independientes con f.g.m.
mY1 (t), mY2 (t), . . . , mYn (t), respectivamente. Si U = Y1 + Y2 + . . . + Yn ,
entonces
mU (t) = mY1 (t) × mY2 (t) × . . . × mYn (t)
n
X
V (U) = ai2 σi2 = a12 σ12 + a22 σ22 + . . . + an2 σn2 .
i=1
Vicente Acuña (CMM, Universidad de Chile) Prob. y Est. 248 / 250
Clase 17: Distribuciones de funciones de variables aleatorias
Yi − µi
Zi = , i = 1, 2, . . . , n.
σi
Pn 2
Entonces i=1 Zi tiene una distribución χ2 con n grados de libertad.
F I G U R A 7.2 f(u)
Una distribución x2
que muestra el área a
de cola superior
0 u
x2!