Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los análisis estadı́sticos comúnmente envuelven varias variables aleatorias. Por ejem-
plo, en el contexto financiero, podemos estar interesados en los precios de diferentes acciones al cierre
del dı́a, no sólo en el precio de una acción. En el contexto de estudios por encuestas, analizamos
las respuestas a las distintas preguntas que se le hacen a un individuo, no sólo a una de ellas. Estas
variables son observadas a partir del mismo experimento aleatorio (los precios del mercado en un
determinado momento, las preferencias de un individuo escogido al azar), lo que significa que están
definidas sobre un mismo espacio muestral. Estamos interesados en el comportamiento conjunto
de varias variables aleatorias definidas sobre un mismo espacio de probabilidad, esto es, distintos
valores observados a partir de un mismo experimento aleatorio. Los métodos estadı́sticos
que estudian este comportamiento conjunto se conocen como métodos multivariados. En este
curso estudiaremos teorı́a estadı́stica elemental que es base para su posterior estudio.
Respetivamente, denotemos por Y (Ω) al rango de Y . Si X y Y son discretas, sus rangos son
numerables. En ese caso, el vector aleatorio (X, Y ) toma valores en un subconjunto nu-
merable de R2 , este es X(Ω) × Y (Ω). Estamos interesados en la probabilidad de que el vector
1
aleatorio (X, Y ) caiga en determinadas regiones (numerables) de R2 . Es decir, si D es un subcon-
junto numerable de R2 , estamos interesados en probabilidades del tipo
P ((X, Y ) ∈ D) = P ({ω : (X(ω), Y (ω) ∈ D}).
La función de probabilidad conjunta de las variables X e Y es la función pX,Y : R2 → [0, 1]
definida por:
pX,Y (x, y) = P (X = x, Y = y)
= P ({ω ∈ Ω : X(ω) = x} ∩ {ω ∈ Ω : Y (ω) = y}).
Si A y B son subconjuntos numerables de R, usando la aditividad de la medida de probabilidad,
P (X ∈ A, Y ∈ B) = P ({ω ∈ Ω : X(ω) ∈ A} ∩ {ω ∈ Ω : Y (ω) ∈ B})
X X
= P (X = x, Y = y)).
x∈A) y∈B
Ejemplo 1.1. Sea X una variable que toma valores 1, 2, 3, Y una que toma valores 1, 2, 3, 4.
Suponga que la probabilidad de que el par (X, Y ) tome el valor (x, y) viene dada por la entrada
x, y de la siguiente tabla.
1 2 3 4
1 0,10 0,05 0,05 0,00
2 0,15 0,10 0,05 0,00
3 0,20 0,15 0,10 0,05
2
Entonces la marginal de X se obtiene sumando las columnas y la de Y las filas.
P (X = x, Y = y)
P (X = x|Y = y) = .
P (Y = y)
De esta forma, las probabilidades condicionales del tipo P (X ∈ A|Y = y) se calculan usando la
siguiente identidad: X
P (X ∈ A|Y = y) = P (X = x|Y = y)
x∈A
P (A ∩ B) = P (A)P (B).
Hablaremos de independencia de dos variables cuando cualquier par de eventos asociados a ellas
sean independientes. En otras palabras, dos variables discretas X e Y son independientes si, para
cualquier par C y D de subconjuntos numerables de R, se cumple
P (X ∈ C, Y ∈ D) = P (X ∈ C)P (Y ∈ D).
Teorema 2.1. Sean X e Y variables aletorias discretas. Son independientes si la función de masa
de probabilidad conjunta es el producto de las marginales. Esto es, si para todo x, y ∈ R, se cumple
3
Ejemplo 2.1. Sean X, Y variables aleatorias con función de masa conjunta definida por
1 x y −(λ+µ)
P (X = x, Y = y) = λ µ e x, y = 0, 1, . . .
x!y!
Factorizando tenemos que
λx
y
µ −(λ+µ)
P (X = x, Y = y) = e
x! y!
= f (x)g(y),
con f (x) = λx /x! y g(y) = µy e−(λ+µ) /y!, de manera que X e Y son independientes. Sin embargo,
las funciones f y g no son funciones de masa de probabilidad. De hecho, las marginales de X, Y son
1 k −λ 1
P (X = k) = λ e y P (Y = k) = µk e−µ para k = 0, 1, . . .
k! k!
Es conveniente extender el concepto bivariado al caso multivariado con tres o más variables,
pero primero introduciremos una notación extremadamente práctica y usada a partir de
ahora. Escribimos
Observación: La definición anterior es válida no sólo para variables aleatorias discretas, que por
ahora son nuestro único caso de estudio. La definición es fácil de interpretar pero tiene un punto
técnico, el hecho de que los conjuntos A1 , . . . , An sean intervalos de R. Explicar el detalle de este
requisito requiere de conceptos de teorı́a de la medida, que se escapan del nivel de estas notas.
4
podrı́a tomar los valores 0, 1/4, 1/2, 3/4 o 1. La pregunta que nos interesa es: ¿con qué probabilidad?
U = g(X1 , X2 , . . . , Xn ).
P (Un > k) = P (X1 > k)P (X2 > k) . . . P (Xn > k). (1)
Si adicionalmente, X1 , X2 , . . . , Xn son iid, esto es, si forman una muestra aleatoria simple,
entonces (1) tiene la forma
P (Un > k) = [P (X1 > k)]n
Cuando las variables sólo toman enteros, la fórmula anterior nos permite obtener la función de
masa de probabilidad del mı́nimo de una muestra aleatoria de tamaño n:
Es decir, el mı́nimo de variables iid con distribución geométrica de parámetro p es también una
variable geométrica, pero de parámetro 1 − q n = 1 − (1 − p)n .
5
Distribución del máximo. Consideremos ahora el máximo
Vn = máx{X1 , X2 , . . . , Xn }
{Vn ≤ k} = {X1 ≤ k, X2 ≤ k, . . . , Xn . ≤ k}
y si son iid
FVn (k) = [P (X1 ≤ k)]n .
Ejemplo 3.2. Continuando con el ejemplo en el que X1 , X2 , . . . , Xn son iid, geométricas de paráme-
tro p, la función de distribución del máximo Vn = máx{X1 , X2 , . . . , Xn } es
P (máx{X1 , X2 , . . . , Xn } = k) = (1 − q k )n − (1 − q k−1 )n .
P (Z = z) = P (∪x {X = x, Y = z − x})
X
= P (X = x, Y = z − x)
x
En el caso particular en que tanto X como Y toman valores enteros no negativos se tiene
z
X
P (X + Y = z) = P (X = x)P (Y = z − x)
x=0
Ejemplo 3.3. Sean X, Y variables aleatorias independientes con distribución de Poisson de paráme-
tros λ y µ respectivamente. Usando la fórmula de convolución
z
X 1 x −λ 1 z−x −µ
P (X + Y = z) = λ e µ e
x! (z − x)!
x=0
1
= (λ + µ)z e−(λ+µ)
z!
6
Es decir, si X ∼ Poisson(λ) e Y ∼ Poisson(µ) son independientes entonces la suma X + Y ∼
Poisson(λ + µ).
De manera que
X
E[g(X, Y )] = zP (g(X, Y ) = z)
z
X X
= z P (X = x, Y = y)
z (x,y):g(x,y)=z
X X
= zP (X = x, Y = y)
z (x,y):g(x,y)=z
X X
= g(x, y)P (X = x, Y = y)
z (x,y):g(x,y)=z
XX
= g(x, y)P (X = x, Y = y)
x y
(4)
Usando (3) podemos introducir un importante indicador del grado de dependencia lineal entre
dos variables aleatorias: La covarianza entre las variables X, Y es
Cov(X, Y ) = E[(X − µX )(Y − µY )] siendo µX = E(X) y µY = E(Y ).
7
1. Linealidad del valor esperado: Si Z = g(X, Y ) = aX + bY , con a, b ∈ R, entonces
Los resultados discutidos en esta sección son herramientas poderosas de cómputo. Como ejem-
plo, recalculamos el valor esperado y la varianza de la distribución binomial, que sin estas herra-
mientas involocrarı́a tediosos cálculos con números combinatorios:
Sea X ∼ Bin(n, p). Esto es, el número de éxitos de n ensayos Bernoullie independientes con
probabilidad p de éxito. Sea Xi la variable Bernoullie asociada el i-ésimo experimiento. Esto es,
Xi = 1 si el experimento i es un éxito y Xi = 0 en caso contrario. Note que X1 , . . . , Xn son
independientes. Además, es fácil comprobar que E[Xi ] = p y V ar(Xi ) = p(1 − p). Por último,
X = X1 + · · · + Xn , por lo que
1. E(X) = E(X1 + · · · + Xn ) = E(X1 ) + · · · + E(Xn ) = np
2. V ar(X) = V ar(X1 + · · · + Xn ) = V ar(X1 ) + · · · + V ar(Xn ) = np(1 − p)
En la práctica, las funciones de variables aleatorias que solemos considerarse son estadı́sticos
muestrales. Estos son funciones de una muestra con el objetivo de estimar o inferir caracterı́sticas
de la distribución conjunta de las variables aleatorias que conforman la muestra. Si la muestra es
aleatoria simple, es decir, si las variables que la conforman son iid, pues los estadı́sticos tienen el
objetivo de estimar o inferir caracterı́sticas de la distribución común de las variables aleatorias que
conforman la muestra. Los ejemplos muy usados son la media y la varianza muestral definidas
por
n n
1X 1 X
X̄ = Xi y S 2 = (Xi − X̄)2 .
n n−1
i=1 i=1
8
1. E(X̄) = µ
2. V ar(X̄) = σ 2 /n
3. E(S 2 ) = σ 2