Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Curso 2019/20
10 DISTRIBUCIONES BIDIMENSIONALES.
En los temas anteriores hemos estudiado variables aleatorias de forma individual. Sin embargo, en
muchos casos es importante (e incluso necesario) estudiar dos (o más) variables aleatorias a la vez
y tener en cuenta la relación que puede haber entre ellas. De estos aspectos nos ocuparemos en el
presente tema.
Dicho de otro modo, una variable aleatoria bidimensional resulta de cuanticar dos aspectos, X
e Y, de un experimento aleatorio. Podríamos decir que (X, Y ) : Ω → R2 es una variable aleatoria
(a) Si consideremos el experimento aleatorio de tirar dos dados, podemos tomar X como la suma de
los puntos obtenidos e Y la diferencia en valor absoluto entre los puntos obtenidos. Así (X, Y )
es una variable aleatoria bidimensional, en la que las dos componentes son discretas.
(b) Sobre un grupo de individuos podemos medir X su altura e Y su peso. Así, (X, Y ) es una variable
aleatoria bidimensional siendo, en este caso, las dos componentes continuas.
(c) De nuevo sobre un grupo de individuos podemos estudiar X su sexo (por ejemplo, X = 0 hombre,
X = 1 mujer) e Y el tiempo que llevan trabajando (entendiendo tiempo negativo como tiempo en
paro). De esta forma (X, Y ) es una variable aleatoria bidimensional, y en este caso la componente
X es discreta y la componente Y es continua.
Una variable aleatoria bidimensional discreta queda completamente caracterizada una vez que cono-
cemos el conjunto de todos los posibles pares de valores que puede tomar y la probabilidad de que este
Denición 10.2.2. La función de probabilidad conjunta de una variable aleatoria bidimensional (X, Y )
es P(X = xi , Y = yj ) = pij , entendiendo que si la variable no puede tomar un par concreto, su
probabilidad es 0.
Denición 10.2.4. Sea (X, Y ) una variable aleatoria bidimensional discreta con función de probabili-
dad conjunta {P(X = xi , Y = yj ) = pij }ij . Se denomina función de distribución conjunta a la función
F : R2 → [0, 1] dada por
X X
F (x, y) = P(X ≤ x, Y ≤ y) = pij .
xi ≤x yj ≤y
Denición 10.2.5. Sea (X, Y ) una variable aleatoria bidimensional discreta con función de probabil-
X X
pX (xi ) = P(X = xi ) = P(X = xi , Y = yj ) = pij = pi∗ .
j j
X X
pY (yj ) = P(Y = yj ) = P(X = xi , Y = yj ) = pij = p∗j .
i i
También podemos denir la función de distribución marginal de cada una de las variables aleatorias
como sigue.
Denición 10.2.6. Sea (X, Y ) una variable aleatoria bidimensional discreta, con función de proba-
FX (x) = F (x, +∞) = lim F (x, y) y FY (y) = F (+∞, x) = lim F (x, y).
y→+∞ x→+∞
Denición 10.2.7. Sea (X, Y ) una variable aleatoria bidimensional discreta, con función de proba-
bilidad conjunta {P(X = xi , Y = yj ) = pij }ij . Si P(Y = yj0 ) > 0, se dene la función de probabilidad
de X condicionada a Y = yj0 como
P(X = xi0 , Y = yj ) pi j pi j
pY |X (yj |xi0 ) = P(Y = yj |X = xi0 ) = = 0 =P 0 .
P(X = xi0 ) p i0 ∗ j p i0 j
valores y su función de densidad conjunta, es decir, cómo se distribuye la probabilidad en ese posible
conjunto de valores.
Denición 10.3.1. Una variable aleatoria bidimensional (X, Y ) se dice continua cuando sus dos
De otro modo, se dice que la variable aleatoria bidimensional (X, Y ) tiene una distribución de
probabilidad conjunta continua si existe una función integrable f: R2 → [0, +∞), tal que para cualquier
subconjunto A del plano se tiene que
ZZ
P((X, Y ) ∈ A) = f (x, y)dxdy.
A
La probabilidad de que el vector (X, Y ) pertenezca a una región se calcula por integración. Como
consecuencia de ello, cualquier punto del plano o cualquier curva en el plano tiene probabilidad cero.
Denición 10.3.2. Sea (X, Y ) una variable aleatoria bidimensional continua con función de densidad
conjunta f (x, y). Se llama función de distribución conjunta a la función F : R2 → [0, 1] dada por
Z x Z y
F (x, y) = P(X ≤ x, Y ≤ y) = f (s, t) dsdt.
−∞ −∞
Proposición 10.3.3. En las condiciones de la denición anterior, para cualesquiera a < b y c < d se
cumple que P(a < X ≤ b, c < Y ≤ d) = F (b, d) − F (a, d) − F (b, c) + F (a, c).
Si X e Y tienen una distribución conjunta continua con función de densidad conjunta f (x, y)
Z x Z y
entonces ya sabemos que F (x, y) = f (s, t)dsdt. La función de densidad conjunta, en este
−∞ −∞
∂ 2 F (x, y)
caso, se recupera a partir de la función de distribución conjunta por derivación f (x, y) =
∂x∂y
(siempre que se puedan realizar).
ciones individuales de X y de Y.
Denición 10.3.4. Sea (X, Y ) una variable aleatoria bidimensional continua con función de densidad
conjunta f (x, y).
Z
(a) La función de densidad marginal de X es la función fX : R → [0, 1] dada por fX (x) = f (x, y) dy .
R
Z
(b) La función de densidad marginal de Y es la función fY : R → [0, 1] dada por fY (y) = f (x, y) dx.
R
Denición 10.3.5. Sea (X, Y ) una variable aleatoria bidimensional continua con función de distribu-
Al igual que en el caso discreto, si F (x, y) es la función de distribución conjunta, se cumple que
FX (x) = F (x, +∞) = lim F (x, y) y FY (y) = F (+∞, x) = lim F (x, y).
y→+∞ x→+∞
f (x, y0 )
fX|Y =y0 (x) = .
fY (y0 )
f (x0 , y)
fY |X=x0 (x) = .
fX (x0 )
Se puede comprobar que las funciones de densidad condicionadas son verdaderas funciones de
Denición 10.3.7. Sea (X, Y ) una variable aleatoria bidimensional continua con función de densidad
conjunta f (x, y) y marginales fX (x) y fY (y).
Denición 10.4.1. Diremos que dos variable (continuas o discretas) X e Y son independientes si para
Esta denición, en general, puede ser poco práctica, por lo que se hace necesaria una caracterización.
(b) Si X e Y son discretas , entonces son independientes si y solo si pij = pi∗ · p∗,j .
(c) Si X e Y son continuas , entonces son independientes si y solo si f (x, y) = fX (x) · fY (y).
aleatoria X +Y.
ZZ Z +∞ Z a−y
FX+Y (a) = P(X + Y ≤ a) = fX (x)fY (y) dx dy = fX (x)fY (y) dx dy
x+y≤a −∞ −∞
Z +∞ Z a−y Z +∞
= fX (x) dx fY (y) dy = FX (a − y)fY (y) dy.
−∞ −∞ −∞
siones anteriores
Z +∞ Z +∞ Z +∞
d d
fX+Y (a) = FX (a − y)fY (y) dy = FX (a − y)fY (y) dy = fX (a − y)fY (y) dy.
da −∞ −∞ da −∞
Z +∞ Z +∞ Z +∞
d d
= FY (a − x)fX (x) dy = FY (a − x)fX (x) dy = fY (a − x)fX (x) dy.
da −∞ −∞ da −∞
Observemos que ambas expresiones coinciden. En efecto, si hacemos el cambio de variables a−y = t
en la primera expresión, resulta que
Z +∞ Z −∞ Z +∞
fX (a − y)fY (y) dy = fX (t)fY (a − t) (−dt) = fX (t)fY (a − t) dt
−∞ +∞ −∞
a veces conocer la distribución de las variables aleatorias (U, V ), siendo U = g1 (X, Y ) y V = g2 (X, Y ).
Suponemos que las funciones g1 y g2 verican las siguientes condiciones:
1. Las ecuaciones u = g1 (x, y), v = g2 (x, y) pueden resolverse de modo único para (x, y) en términos
de (u, v), y sus soluciones las escribimos x = h1 (u, v), y = h2 (u, v).
2. Las funciones h1 y h2 tienen derivadas parciales continuas en todo punto (u, v) de sus dominios
y el determinante jacobiano
∂h1 ∂h1
∂v = ∂h1 · ∂h2 − ∂h1 · ∂h2 =
J(u, v) = ∂u 6 0, ∀(u, v).
∂h2 ∂h2 ∂u ∂v ∂v ∂u
∂u ∂v
fU,V (u, v) = fX,Y h1 (u, v), h2 (u, v) |J(u, v)| .
10.6 Covarianza.
Supongamos que tenemos una variable aleatoria bidimensional (X, Y ) y que con ella, tenemos otra
variable aleatoria Z que es función de las dos anteriores, es decir, Z = h(X, Y ). De igual forma que a
lo visto en temas anteriores, podemos calcular la esperanza de esta nueva variable aleatoria como
XX
h(xi , yj )pij
en el caso discreto
E(Z) = E(h(X, Y )) = Zi Z j
h(x, y)f (x, y)dxdy en el caso continuo.
R R
Denición 10.6.1. Sea (X, Y ) una variable aleatoria bidimensional y pongamos µX = E(X) y µY =
E(Y ). Se dene la covarianza entre X e Y como
En el caso discreto, con función de probabilidad {P(X = xi , Y = yj ) = pij }ij , se tiene que
XX
Cov(X, Y ) = (xi − µX )(yj − µY )pij .
i j
En el caso continuo, con una función de densidad conjunta f (x, y), se tiene que
Z Z
Cov(X, Y ) = (x − µx )(y − µY )f (x, y) dxdy.
R R
La covarianza entre dos variables aleatorias es una medida de la asociación entre ambas. Si a
o negativos a la vez, por lo que su producto será positivo, haciendo que la covarianza sea positiva. Por
Podríamos decir que la covarianza mide la relación lineal que hay entre X e Y.
n m n X
m
Cov(X, Y ) = E(X · Y ) − E(X) · E(Y ). Cov(Xi , Yj ).
X X X
(c) (d) Cov Xi , Yj =
i=1 j=1 i=1 j=1
siguiente ejemplo.
H
HH X
H
HH 0 1 2 3 4
Y HH
0 0,2 0 0 0 0,2 0,4
4 0 0 0,2 0 0 0,2
Es claro que, por ejemplo, P(X = 2, Y = 3) = 0 6= 0, 2 × 0, 4 = P(X = 2) · P(y = 3), por lo que las
E(X · Y ) = 0 · 0 · 0, 2 + 1 · 3 · 0, 2 + 2 · 4 · 0, 2 + 3 · 3 · 0, 2 + 4 · 0 · 0, 2 = 4,
E(X) = 0 · 0, 2 + 1 · 0, 2 + 2 · 0, 2 + 3 · 0, 2 + 4 · 0, 2 = 2,
E(Y ) = 0 · 0, 4 + 3 · 0, 4 + 4 · 0, 2 = 2.
Veamos qué relación hay entre la varianza de la suma y resta de dos variables aleatorias y la
covarianza.
Proposición 10.6.4. Si X e Y son dos variables aleatorias de varianza nita y a, b dos números
cualesquiera. entonces
Por tanto, si las variables no están correlacionadas entre sí, se cumple que
n n
!
X X
Var Xi = Var(Xi ).
i=1 i=1
10.7 Correlación.
Aunque la covarianza entre dos variables aleatorias nos proporciona información sobre cómo se rela-
cionan ambas variables, la magnitud de Cov(X, Y ) no indica nada respecto a cómo de fuerte es dicha
Denición 10.7.1. Seam X e Y dos variables aleatorias con varianza nita. Se denomina coeciente
de correlación a
Cov(X, Y )
ρ(X, Y ) = .
σX σY
Como consecuencia inmediata de esta denición y teniendo en cuenta el signicado de la covarianza,
Proposición 10.7.4. Sean X e Y dos variables aleatorias con varianza nita. Entonces para cua-
lesquiera a, b, c, d ∈ R se tiene que
ρ(X, Y ) si a · c > 0,
ρ(aX + b, cY + d) =
−ρ(X, Y ) si a · c < 0.
Como consecuencia nal, el coeciente de correlación mide cómo de relacionadas (en el sentido del
corolario anterior) están dos variables aleatorias. Cuanto más próximo a 1 (en valor absoluto) esté
ρ(X, Y ), más fuerte será la relación entre ambas variables. El signo únicamente indica si la relación es
directa o inversa.