Está en la página 1de 232

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Tema 2: Vectores aleatorios
Cópulas

Variables
aleatorias
independientes Teoría de la Probabilidad
Funciones de
varias variables
Grado en Matemáticas
Correlación,
varianzas y
momentos

Esperanza y Curso 2019/2020. Facultad de Ciencias. Universidad de Cádiz


varianza
condicionadas
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Introducción
Introducción

Distribuciones
marginales y
condicionadas Hay ocasiones en las que el resultado de un experimento
Distribuciones
marginales aleatorio se expresa mediante un conjunto de números.
Distribuciones
condicionadas
Si lanzamos dos dados, observaremos como resultado una
Cópulas
pareja (x, y) de números, donde x representa el valor que
Variables
aleatorias toma el primer dado e y el valor que toma el segundo.
independientes

Funciones de
Otro ejemplo podría ser la observación conjunta de la altura
varias variables de una conjunto de padres (X) con la altura de uno de sus
Correlación,
varianzas y
hijos (Y), obtenemos el vector aleatorio (X, Y), nos interesará
momentos estudiar si existe algún tipo de relación de dependencia entre
Esperanza y
varianza
ellos.
condicionadas
Para describir matemáticamente este tipo de experimentos,
estudiamos las variables aleatorias multidimensionales, (nos
centramos en el caso bivariante o bidimensional).
Definición formal de vector aleatorio bivariante
Introducción

Distribuciones
marginales y
condicionadas Definición
Distribuciones
marginales
Distribuciones
Sea (Ω, S) un espacio medible. Una función X : Ω → R2 definida
condicionadas
por
Cópulas
X (ω) = (X1 (ω) , X2 (ω)) , ω ∈ Ω,
Variables
aleatorias
independientes es una variable aleatoria bidimensional (o un vector aleatorio de
Funciones de dimensión 2) si la imagen inversa de cualquier intervalo
varias variables

Correlación,
bidimensional de la forma
varianzas y
momentos
I = {(x1 , x2 ) : −∞ < xi ≤ ai , ai ∈ R, i = 1, 2}
Esperanza y
varianza
condicionadas
es un suceso, es decir, si

X−1 (I) = {ω : X1 (ω) ≤ a1 , X2 (ω) ≤ a2 } ∈ S, para todo a1 , a2 ∈ IR .


Más generalmente: Vectores aleatorios
Introducción n-dimensionales
Distribuciones
marginales y
condicionadas
Distribuciones
Definición de Vector aleatorio
marginales
Distribuciones
condicionadas
Sea (Ω, S) un espacio probabilístico. Una función X : Ω → IR n
Cópulas
definida por
Variables
aleatorias
independientes
X (ω) = (X1 (ω) , ..., Xn (ω)) , ω ∈ Ω,
Funciones de
varias variables es una variable aleatoria n-dimensional (o un vector aleatorio
Correlación, n-dimensional) si la imagen inversa de cualquier intervalo
varianzas y
momentos n-dimensional de la forma
Esperanza y
varianza
condicionadas I = {(x1 , x2 , ..., xn ) : −∞ < x1 ≤ ai , ai ∈ IR , i = 1, ..., n}

es un suceso, es decir, si

X−1 (I) = {ω : X1 (ω) ≤ a1 , ..., Xn (ω) ≤ an } ∈ S, para todo ai ∈ IR .


Vector aleatorio
Introducción

Distribuciones
marginales y Se puede demostrar que si X1 y X2 son variables aleatorias
condicionadas
Distribuciones definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
marginales
Distribuciones
condicionadas

Cópulas
Más generalmente:
Variables
aleatorias
Teorema
independientes
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Funciones de
varias variables Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación, sobre (Ω, S) .
varianzas y
momentos

Esperanza y
varianza
condicionadas
Vector aleatorio
Introducción

Distribuciones
marginales y Se puede demostrar que si X1 y X2 son variables aleatorias
condicionadas
Distribuciones definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
marginales
Distribuciones
condicionadas

Cópulas
Más generalmente:
Variables
aleatorias
Teorema
independientes
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Funciones de
varias variables Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación, sobre (Ω, S) .
varianzas y
momentos

Esperanza y La demostración de este resultado se propone como ejercicio a


varianza
condicionadas
resolver durante la sesión de mañana lunes, 16 de marzo.
Intentadlo para el caso de n = 2, análogamente se realiza el caso
general
Igualmente se propone demostrar el recíproco.
Vector aleatorio bivariante
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
En adelante, nos restringimos al caso n = 2 (variables aleatorias
Distribuciones
condicionadas bidimensionales), que denotaremos (X, Y).
Cópulas

Variables
Función de distribución asociada a (X, Y)
aleatorias
independientes Sea (X, Y) un vector aleatorio bidimensional definido sobre un
Funciones de espacio de probabilidad (Ω, S, P) . La función F : IR 2 −→ [0, 1]
varias variables

Correlación,
definida por
varianzas y
momentos
F(x, y) = P [X ≤ x, Y ≤ y] , (x, y) ∈ IR 2 , (1)
Esperanza y
varianza
condicionadas
se llama función de distribución asociada al vector (X, Y) .
Función de distribución
Introducción

Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas

Cópulas P (x1 < X ≤ x2 , y1 < Y ≤ y2 )


Variables
aleatorias
independientes = P (X ≤ x2 , Y ≤ y2 ) − P (X ≤ x1 , Y ≤ y2 )
Funciones de
varias variables −P (X ≤ x2 , Y ≤ y1 ) + P (X ≤ x1 , Y ≤ y1 )
Correlación,
varianzas y
momentos
= F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 )
Esperanza y
varianza
con x1 < x2 e y1 < y2 .
condicionadas
Función de distribución
Introducción

Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas

Cópulas P (x1 < X ≤ x2 , y1 < Y ≤ y2 )


Variables
aleatorias
independientes = P (X ≤ x2 , Y ≤ y2 ) − P (X ≤ x1 , Y ≤ y2 )
Funciones de
varias variables −P (X ≤ x2 , Y ≤ y1 ) + P (X ≤ x1 , Y ≤ y1 )
Correlación,
varianzas y
momentos
= F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 )
Esperanza y
varianza
con x1 < x2 e y1 < y2 .
condicionadas Intentad hacer el gráfico del rectángulo formado por los vértices
(x1 , y1 ), (x1 , y2 ), (x2 , y1 ), (x2 , y2 ) para poder interpretar la
probabilidad de que el vector (X, Y) se encuentre en dicho
rectángulo
Función de distribución
Introducción

Distribuciones
marginales y
condicionadas Se puede demostrar que
Distribuciones
marginales
Distribuciones
(a) F(x, y) es no decreciente y continua por la derecha con
condicionadas
respecto a cada coordenada.
Cópulas

Variables
aleatorias
independientes
(b) lim F(x, y) = F (+∞, +∞) = 1
x→∞,y→∞
Funciones de
varias variables
lim F(x, y) = F (x, −∞) = 0 para todo x
y→−∞
Correlación,
varianzas y
momentos
lim F(x, y) = F (−∞, y) = 0 para todo y
x→−∞
Esperanza y
varianza
condicionadas Sin embargo, las condiciones (a), (b). anteriores no garantizan que
una función F (x, y) sea una función de distribución, como
muestra el siguiente ejemplo.
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 1
Cópulas
Sea F una función bivariante definida por
Variables
aleatorias 
independientes 0, x < 0 ó y < 0 ó x + y < 1
F (x, y) =
Funciones de
varias variables
1 en otro caso
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas Ejemplo 1 (cont.)
Distribuciones
marginales La función F satisface las propiedades (a),(b) anteriores. Sin
Distribuciones
condicionadas embargo, no es una función de distribución ya que:
Cópulas
 
Variables 1 1
aleatorias P < X ≤ 1, < Y ≤ 1
independientes 3 3
Funciones de
varias variables
     
1 1 1 1
Correlación, = F (1, 1) + F , −F , 1 − F 1,
varianzas y 3 3 3 3
momentos

Esperanza y = 1 + 0 − 1 − 1 = −1  0.
varianza
condicionadas
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 es la función de distribución
Variables
aleatorias asociada a cierto vector aleatoria X si y sólo satisface las
independientes

Funciones de
propiedades (a) y (b) anteriores y para todo (x1 , x2 ) , (y1 , y2 ) con
varias variables x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 es la función de distribución
Variables
aleatorias asociada a cierto vector aleatoria X si y sólo satisface las
independientes

Funciones de
propiedades (a) y (b) anteriores y para todo (x1 , x2 ) , (y1 , y2 ) con
varias variables x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
No se dará la demostración de este resultado
Casos discreto y continuo
Introducción
A continuación se definirán algunos tipos de vectores aleatorios.
Distribuciones
marginales y
condicionadas Vector aleatorio discreto
Distribuciones
marginales Un vector (X, Y) es de tipo discreto si toma pares de valores que
Distribuciones
condicionadas
pertenecen a un conjunto E numerable con probabilidad 1.
Cópulas
Llamamos función de masa de probabilidad (conjunta) del vector
Variables
aleatorias (X, Y) a
independientes

Funciones de
varias variables
pi,j = P [X = xi , Y = yj ] , i = 1, 2, ..., j = 1, 2, .....
Correlación,
varianzas y
momentos Teorema
Esperanza y Cualquier conjunto de números
varianza n
condicionadas
P
{pi,j ≥ 0 : i = 1, 2, ...; j = 1, 2, ...} tal que pi,j = 1 es la
i,j=1
función de masa de probabilidad de algún vector (X, Y) .

Cuestión propuesta: Demostrad este resultado utilizando que la


función de distribución caracteriza al vector aleatorio.
Introducción

Distribuciones Ejemplo 2
marginales y
condicionadas
Distribuciones
Se considera el experimento aleatorio consistente en lanzar un
marginales
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
número obtenido e Y la variable aleatoria que describe el número
Cópulas
de resultados pares obtenidos. Calcular la función de masa de
Variables
aleatorias probabilidad conjunta.
independientes

Funciones de
varias variables

Correlación, Y \X 1 2 3 4 5 6
varianzas y
momentos 0
Esperanza y 1
varianza
condicionadas 2
Ejemplo 2
Introducción
Se considera el experimento aleatorio consistente en lanzar un
Distribuciones
marginales y dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
Distribuciones número obtenido e Y la variable aleatoria que describe el número
marginales
Distribuciones de resultados pares obtenidos. Calcular la función de masa de
condicionadas

Cópulas
probabilidad conjunta.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0
varianzas y
momentos 2 0 5/36 0 3/36 0 1/36
Esperanza y
varianza
condicionadas Se puede comprobar que efectivamente,
X
P(X = xi , Y = yj ) = 1.
i,j
En el caso continuo...
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Definición
Cópulas Un vector (X, Y) es de tipo continuo si existe una función no
Variables
aleatorias
negativa f : IR 2 → IR tal que para cada (x, y) ∈ IR 2 se tiene
independientes
Z x Z y 
Funciones de
varias variables F (x, y) = f (u, v) dv du
Correlación, −∞ −∞
varianzas y
momentos
donde F es la función de distribución de (X, Y). La función f es la
Esperanza y
varianza función de densidad (conjunta) del vector (X, Y) .
condicionadas
Propiedades:
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Se verifica que
condicionadas
RbRd
1 P (a < X < b, c < Y < d) = a c f (x, y)dydx,
Cópulas
2
Variables
aleatorias
Z +∞ Z +∞ 
independientes F (+∞, +∞) = f (u, v) dv du = 1.
Funciones de −∞ −∞
varias variables

Correlación,
3 Además, si f es continua en (x, y) :
varianzas y
momentos
∂ 2 F (x, y)
Esperanza y = f (x, y) .
varianza ∂x∂y
condicionadas
Caracterización de función de densidad
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema - Caso continuo
condicionadas

Cópulas Si f es una función no negativa tal que


Variables Z ∞Z ∞
aleatorias
independientes f (x, y) dxdy = 1,
Funciones de −∞ −∞
varias variables

Correlación, entonces f es la función de densidad conjunta de algún vector


varianzas y
momentos aleatorio.
Esperanza y
varianza
condicionadas
Caracterización de función de densidad
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema - Caso continuo
condicionadas

Cópulas Si f es una función no negativa tal que


Variables Z ∞Z ∞
aleatorias
independientes f (x, y) dxdy = 1,
Funciones de −∞ −∞
varias variables

Correlación, entonces f es la función de densidad conjunta de algún vector


varianzas y
momentos aleatorio.
Esperanza y
varianza Cuestión propuesta: Demostrad el resultado anterior utilizando
condicionadas
que la función de distribución caracteriza al vector aleatorio
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3
Cópulas
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Variables
aleatorias  −(x+y)
independientes e , 0 < x < ∞, 0 < y < ∞
Funciones de
f (x, y) =
varias variables
0, en otro caso
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3 (cont.)
Cópulas Entonces,
Variables
aleatorias
F (x, y) = (1 − e−x ) (1 − e−y ) , 0 < x < ∞, 0 < y < ∞

independientes

Funciones de
varias variables
Ejercicio: Calcular F(x, y) para el resto de valores de (x, y) ∈ IR 2
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas Ejemplo 4
Distribuciones
marginales
Distribuciones
Sean X e Y dos v.a.’s con función de densidad conjunta dada por:
condicionadas

Cópulas

x + y, 0 ≤ x, y ≤ 1.
Variables f (x, y) =
aleatorias 0, en otro caso
independientes

Funciones de
varias variables Ejercicio
Correlación,
varianzas y Demostrar que f (x, y) satisface las propiedades de una función de
momentos
densidad, calcular F(x, y) y P(X ≤ 0,5, Y ≤ 0,75).
Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Tema 2: Vectores aleatorios
Cópulas

Variables
aleatorias
independientes Teoría de la Probabilidad
Funciones de
varias variables
Grado en Matemáticas
Correlación,
varianzas y
momentos

Esperanza y Curso 2019/2020. Facultad de Ciencias. Universidad de Cádiz


varianza
condicionadas
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Introducción
Introducción

Distribuciones
marginales y
condicionadas Hay ocasiones en las que el resultado de un experimento
Distribuciones
marginales aleatorio se expresa mediante un conjunto de números.
Distribuciones
condicionadas
Si lanzamos dos dados, observaremos como resultado una
Cópulas
pareja (x, y) de números, donde x representa el valor que
Variables
aleatorias toma el primer dado e y el valor que toma el segundo.
independientes

Funciones de
Otro ejemplo podría ser la observación conjunta de la altura
varias variables de una conjunto de padres (X) con la altura de uno de sus
Correlación,
varianzas y
hijos (Y), obtenemos el vector aleatorio (X, Y), nos interesará
momentos estudiar si existe algún tipo de relación de dependencia entre
Esperanza y
varianza
ellos.
condicionadas
Para describir matemáticamente este tipo de experimentos,
estudiamos las variables aleatorias multidimensionales, (nos
centramos en el caso bivariante o bidimensional).
Definición formal de vector aleatorio bivariante
Introducción

Distribuciones Definición de vector aleatorio bidimensional


marginales y
condicionadas Sea (Ω, S) un espacio medible. Una función X : Ω → R2 definida
Distribuciones
marginales por
Distribuciones
condicionadas
X (ω) = (X1 (ω) , X2 (ω)) , ω ∈ Ω,
Cópulas

Variables es una variable aleatoria bidimensional (o un vector aleatorio de


aleatorias
independientes dimensión 2) si la imagen inversa de cualquier intervalo
Funciones de bidimensional de la forma
varias variables

Correlación,
varianzas y
I = {(x1 , x2 ) : −∞ < xi ≤ ai , ai ∈ R, i = 1, 2}
momentos

Esperanza y
varianza
es un suceso, es decir, si
condicionadas

X−1 (I) = {ω : X1 (ω) ≤ a1 , X2 (ω) ≤ a2 } ∈ S, para todo a1 , a2 ∈ IR .

Recordar esta otra forma de expresar la antiimagen X−1 (I) =


{X1 ≤ a1 , X2 ≤ a2 } = X1−1 ((−∞, a1 ]) ∩ X2−1 ((−∞, a2 ])
Más generalmente: Vectores aleatorios
Introducción n-dimensionales
Distribuciones
marginales y
condicionadas
Distribuciones
Definición de Vector aleatorio n-dimensional
marginales
Distribuciones
condicionadas
Sea (Ω, S) un espacio probabilístico. Una función X : Ω → IR n
Cópulas
definida por
Variables
aleatorias
independientes
X (ω) = (X1 (ω) , ..., Xn (ω)) , ω ∈ Ω,
Funciones de
varias variables es una variable aleatoria n-dimensional (o un vector aleatorio
Correlación, n-dimensional) si la imagen inversa de cualquier intervalo
varianzas y
momentos n-dimensional de la forma
Esperanza y
varianza
condicionadas I = {(x1 , x2 , ..., xn ) : −∞ < x1 ≤ ai , ai ∈ IR , i = 1, ..., n}

es un suceso, es decir, si

X−1 (I) = {ω : X1 (ω) ≤ a1 , ..., Xn (ω) ≤ an } ∈ S, para todo ai ∈ IR .


Vector aleatorio
Introducción

Distribuciones
marginales y
condicionadas Se puede demostrar que si X1 y X2 son variables aleatorias
Distribuciones
marginales definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
Distribuciones
condicionadas

Cópulas Más generalmente:


Variables
aleatorias
independientes
Teorema 1
Funciones de Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
varias variables
Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación,
varianzas y sobre (Ω, S) .
momentos

Esperanza y
varianza
condicionadas
Vector aleatorio
Introducción

Distribuciones
marginales y
condicionadas Se puede demostrar que si X1 y X2 son variables aleatorias
Distribuciones
marginales definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
Distribuciones
condicionadas

Cópulas Más generalmente:


Variables
aleatorias
independientes
Teorema 1
Funciones de Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
varias variables
Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación,
varianzas y sobre (Ω, S) .
momentos

Esperanza y
varianza
La demostración de este resultado se propone como ejercicio a
condicionadas resolver durante la sesión del lunes, 16 de marzo. Intentadlo para
el caso de n = 2, análogamente se realiza el caso general
Igualmente se propone demostrar el recíproco.
Demostración del Teorema 1 para el caso n=2
Introducción
Teorema 1
Distribuciones
marginales y
condicionadas
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Distribuciones
marginales
Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Distribuciones
condicionadas sobre (Ω, S) .
Cópulas

Variables Demostración para n = 2


aleatorias
independientes
Si X1 y X2 son variables aleatorias, entonces sabemos que
Funciones de
varias variables {Xi ≤ ai } ∈ S para i = 1, 2.
Correlación, Basta observar que
varianzas y
momentos
2
Esperanza y {ω : X1 (ω) ≤ a1 , X2 (ω) ≤ a2 } = ∩ {ω : Xi (ω) ≤ ai } ∈ S
varianza i=1
condicionadas

por tener S estructura de σ-algebra.

¿Y el recíproco? ¿Alguna idea para demostrar que si (X1 , X2 ) es


un vector aleatorio, entonces cada una de las componentes es
variable aleatoria?
Vector aleatorio bivariante
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
En adelante, nos restringimos al caso n = 2 (variables aleatorias
Distribuciones
condicionadas bidimensionales), que denotaremos (X, Y).
Cópulas

Variables
Función de distribución asociada a (X, Y)
aleatorias
independientes Sea (X, Y) un vector aleatorio bidimensional definido sobre un
Funciones de espacio de probabilidad (Ω, S, P) . La función F : IR 2 −→ [0, 1]
varias variables

Correlación,
definida por
varianzas y
momentos
F(x, y) = P [X ≤ x, Y ≤ y] , para todo (x, y) ∈ IR 2 , (1)
Esperanza y
varianza
condicionadas
se llama función de distribución asociada al vector (X, Y) .
Propiedad de la Función de distribución
Introducción

Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas

Cópulas P (x1 < X ≤ x2 , y1 < Y ≤ y2 )


Variables
aleatorias
independientes = P (X ≤ x2 , Y ≤ y2 ) − P (X ≤ x1 , Y ≤ y2 )
Funciones de
varias variables −P (X ≤ x2 , Y ≤ y1 ) + P (X ≤ x1 , Y ≤ y1 )
Correlación,
varianzas y
momentos
= F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 )
Esperanza y
varianza
con x1 < x2 e y1 < y2 .
condicionadas
Propiedad de la Función de distribución
Introducción

Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas

Cópulas P (x1 < X ≤ x2 , y1 < Y ≤ y2 )


Variables
aleatorias
independientes = P (X ≤ x2 , Y ≤ y2 ) − P (X ≤ x1 , Y ≤ y2 )
Funciones de
varias variables −P (X ≤ x2 , Y ≤ y1 ) + P (X ≤ x1 , Y ≤ y1 )
Correlación,
varianzas y
momentos
= F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 )
Esperanza y
varianza
con x1 < x2 e y1 < y2 .
condicionadas Intentad hacer el gráfico del rectángulo formado por los vértices
(x1 , y1 ), (x1 , y2 ), (x2 , y1 ), (x2 , y2 ) para poder interpretar la
probabilidad de que el vector (X, Y) se encuentre en dicho
rectángulo
Propiedad de la función de distribución
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Función de distribución
Introducción

Distribuciones
marginales y
condicionadas Se puede demostrar que
Distribuciones
marginales
Distribuciones
(a) F(x, y) es no decreciente y continua por la derecha con
condicionadas
respecto a cada coordenada.
Cópulas

Variables
aleatorias
independientes
(b) lim F(x, y) = F (+∞, +∞) = 1
x→∞,y→∞
Funciones de
varias variables
lim F(x, y) = F (x, −∞) = 0 para todo x
y→−∞
Correlación,
varianzas y
momentos
lim F(x, y) = F (−∞, y) = 0 para todo y
x→−∞
Esperanza y
varianza
condicionadas Sin embargo, las condiciones (a), (b). anteriores no garantizan que
una función F (x, y) sea una función de distribución, como
muestra el siguiente ejemplo.
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 1
Cópulas
Sea F una función bivariante definida por
Variables
aleatorias 
independientes 0, x < 0 ó y < 0 ó x + y < 1
F (x, y) =
Funciones de
varias variables
1 en otro caso
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas Ejemplo 1 (cont.)
Distribuciones
marginales La función F satisface las propiedades (a),(b) anteriores. Sin
Distribuciones
condicionadas embargo, no es una función de distribución ya que:
Cópulas
 
Variables 1 1
aleatorias P < X ≤ 1, < Y ≤ 1
independientes 3 3
Funciones de
varias variables
     
1 1 1 1
Correlación, = F (1, 1) + F , −F , 1 − F 1,
varianzas y 3 3 3 3
momentos

Esperanza y = 1 + 0 − 1 − 1 = −1  0.
varianza
condicionadas
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema 2: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 que toma valores en [0, 1] es
Variables
aleatorias la función de distribución asociada a cierto vector aleatoria X si y
independientes

Funciones de
sólo si satisface las propiedades (a) y (b) anteriores y para todo
varias variables (x1 , x2 ) , (y1 , y2 ) con x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema 2: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 que toma valores en [0, 1] es
Variables
aleatorias la función de distribución asociada a cierto vector aleatoria X si y
independientes

Funciones de
sólo si satisface las propiedades (a) y (b) anteriores y para todo
varias variables (x1 , x2 ) , (y1 , y2 ) con x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
No se dará la demostración de este resultado
Casos discreto y continuo
Introducción
Vector aleatorio discreto
Distribuciones
marginales y
condicionadas
Un vector (X, Y) es de tipo discreto si toma pares de valores que
Distribuciones
marginales
pertenecen a un conjunto E = {(xi , yj ), i ≥ 1, j ≥ 1} ⊂ IR 2
Distribuciones
condicionadas
numerable con probabilidad 1. Llamamos función de masa de
Cópulas probabilidad (conjunta) del vector (X, Y) a
Variables
aleatorias
independientes pi,j = P [X = xi , Y = yj ] , i = 1, 2, ..., j = 1, 2, .....
Funciones de P
varias variables Observemos que se verifica que pi,j ≥ 0 y i,j≥1 pi,j = 1
Correlación,
varianzas y
momentos
Teorema 4- Caso discreto
Esperanza y
varianza Cualquier conjunto de números
condicionadas P
{pi,j ≥ 0 : i = 1, 2, ...; j = 1, 2, ...} tal que pi,j = 1 es la
i,j≥1
función de masa de probabilidad de algún vector (X, Y) .

Cuestión propuesta: Demostrad este resultado utilizando que la


función de distribución caracteriza al vector aleatorio.
Introducción Ejemplo 2
Distribuciones
marginales y Se considera el experimento aleatorio consistente en lanzar un
condicionadas
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
marginales
Distribuciones
número obtenido e Y la variable aleatoria que describe el número
condicionadas
de resultados pares obtenidos. Calcular la función de masa de
Cópulas

Variables
probabilidad conjunta.
aleatorias
independientes

Funciones de
varias variables Y \X 1 2 3 4 5 6
Correlación, 0
varianzas y
momentos 1
Esperanza y 2
varianza
condicionadas
Introducción Ejemplo 2
Distribuciones
marginales y Se considera el experimento aleatorio consistente en lanzar un
condicionadas
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
marginales
Distribuciones
número obtenido e Y la variable aleatoria que describe el número
condicionadas
de resultados pares obtenidos. Calcular la función de masa de
Cópulas

Variables
probabilidad conjunta.
aleatorias
independientes

Funciones de
varias variables Y \X 1 2 3 4 5 6
Correlación, 0
varianzas y
momentos 1
Esperanza y 2
varianza
condicionadas

Observar que P(X = 1, Y = 0) =


5
P ({(1, 1), (1, 3), (3, 1), (1, 5), (5, 1)}) = 36
Ejemplo 2
Introducción
Se considera el experimento aleatorio consistente en lanzar un
Distribuciones
marginales y dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
Distribuciones número obtenido e Y la variable aleatoria que describe el número
marginales
Distribuciones de resultados pares obtenidos. Calcular la función de masa de
condicionadas

Cópulas
probabilidad conjunta.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0
varianzas y
momentos 2 0 5/36 0 3/36 0 1/36
Esperanza y
varianza
condicionadas Se puede comprobar que efectivamente,
X
P(X = xi , Y = yj ) = 1.
i,j
En el caso continuo...
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Definición
Cópulas Un vector (X, Y) es de tipo continuo si existe una función no
Variables
aleatorias
negativa f : IR 2 → IR tal que para cada (x, y) ∈ IR 2 se tiene
independientes
Z x Z y 
Funciones de
varias variables F (x, y) = f (u, v) dv du
Correlación, −∞ −∞
varianzas y
momentos
donde F es la función de distribución de (X, Y). La función f es la
Esperanza y
varianza función de densidad (conjunta) del vector (X, Y) .
condicionadas
Propiedades:
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Se verifica que
condicionadas
RbRd
1 P (a < X < b, c < Y < d) = a c f (x, y)dydx,
Cópulas
2
Variables
aleatorias
Z +∞ Z +∞ 
independientes F (+∞, +∞) = f (u, v) dv du = 1.
Funciones de −∞ −∞
varias variables

Correlación,
3 Además, si f es continua en (x, y) :
varianzas y
momentos
∂ 2 F (x, y)
Esperanza y = f (x, y) .
varianza ∂x∂y
condicionadas
Caracterización de función de densidad
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema 5 - Caso continuo
condicionadas

Cópulas Si f es una función no negativa tal que


Variables Z ∞Z ∞
aleatorias
independientes f (x, y) dxdy = 1,
Funciones de −∞ −∞
varias variables

Correlación, entonces f es la función de densidad conjunta de algún vector


varianzas y
momentos aleatorio.
Esperanza y
varianza
condicionadas
Caracterización de función de densidad
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema 5 - Caso continuo
condicionadas

Cópulas Si f es una función no negativa tal que


Variables Z ∞Z ∞
aleatorias
independientes f (x, y) dxdy = 1,
Funciones de −∞ −∞
varias variables

Correlación, entonces f es la función de densidad conjunta de algún vector


varianzas y
momentos aleatorio.
Esperanza y
varianza Cuestión propuesta: Demostrad el resultado anterior utilizando
condicionadas
que la función de distribución caracteriza al vector aleatorio
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3
Cópulas
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Variables
aleatorias  −(x+y)
independientes e , 0 < x < ∞, 0 < y < ∞
Funciones de
f (x, y) =
varias variables
0, en otro caso
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3 (cont.)
Cópulas Entonces,
Variables
aleatorias
F (x, y) = (1 − e−x ) (1 − e−y ) , 0 < x < ∞, 0 < y < ∞

independientes

Funciones de
varias variables
Ejercicio: Calcular F(x, y) para el resto de valores de (x, y) ∈ IR 2
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Introducción

Distribuciones
marginales y
condicionadas Ejemplo 4
Distribuciones
marginales
Distribuciones
Sean X e Y dos v.a.’s con función de densidad conjunta dada por:
condicionadas

Cópulas

x + y, 0 ≤ x, y ≤ 1.
Variables f (x, y) =
aleatorias 0, en otro caso
independientes

Funciones de
varias variables Ejercicio
Correlación,
varianzas y Demostrar que f (x, y) satisface las propiedades de una función de
momentos
densidad, calcular F(x, y) y P(X ≤ 0,5, Y ≤ 0,75).
Esperanza y
varianza
condicionadas
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Distribuciones marginales: Caso discreto
Introducción
Se definirán las distribuciones marginales asociadas a un vector
Distribuciones
marginales y aleatorio bidimensional, distinguiendo entre los casos discreto y
condicionadas
Distribuciones
continuo.
marginales
Distribuciones
condicionadas
Sea (X, Y) un vector aleatorio de tipo discreto con función de
Cópulas masa de probabilidad
Variables
aleatorias
independientes
pij = P [X = xi , Y = yj ] .
Funciones de
varias variables Entonces, ¿cómo obtener la P[Y = yj ] a partir de pi,j ?
Correlación, ∞ ∞
varianzas y X X
momentos P [Y = yj ] = P [X = xi , Y = yj ] = pij = p·j
Esperanza y
varianza
i=1 i=1
condicionadas
y ¿cómo obtener P[X = xi ]?

X ∞
X
P [X = xi ] = P [X = xi , Y = yj ] = pij = pi· .
j=1 j=1
Definiciones de las distribuciones marginales en el
Introducción caso discreto
Distribuciones
marginales y
condicionadas
Distribuciones
marginales ∞
P ∞
P
Distribuciones
condicionadas Claramente, pi . ≥ 0 y pi . = 1, p.j ≥ 0 y p.j = 1. Por tanto,
Cópulas
i=1 j=1

Variables
las secuencias {pi .}i y {p.j }j representan distribuciones de masa
aleatorias
independientes
de probabilidad.
Funciones de
varias variables
Distribuciones marginales en el caso discreto
Correlación, La distribución de probabilidades {pi .} se llama función de masa
varianzas y
momentos de probabilidad MARGINAL de X (ó distribución MARGINAL
Esperanza y
varianza
de X) y la distribució {p.j } se llama función de masa de
condicionadas probabilidad MARGINAL de Y (ó distribución MARGINAL de
Y).
Introducción

Distribuciones
marginales y
Ejemplo 2 (cont.)
condicionadas
Distribuciones
Se considera el experimento aleatorio consistente en lanzar un
marginales
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
número obtenido e Y la variable aleatoria que describe el número
Cópulas de resultados pares obtenidos. Calcular las funciones de masa de
Variables
aleatorias
probabilidad conjunta y marginales.
independientes

Funciones de
varias variables Y \X 1 2 3 4 5 6 P(Y = y)
Correlación,
varianzas y
0 5/36 0 3/36 0 1/36 0
momentos 1 6/36 4/36 4/36 2/36 2/36 0
Esperanza y 2 0 5/36 0 3/36 0 1/36
varianza
condicionadas P(X = x) 1
Introducción
Ejemplo 2 (cont.)
Distribuciones Se considera el experimento aleatorio consistente en lanzar un
marginales y
condicionadas dado dos veces. Sea X la variable aleatoria que describe el menor
Distribuciones
marginales
número obtenido e Y la variable aleatoria que describe el número
Distribuciones
condicionadas
de resultados pares obtenidos. Calcular las funciones de masa de
Cópulas probabilidad conjunta y marginales.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6 P(Y = y)
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0 9/36
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0 18/36
varianzas y
momentos
2 0 5/36 0 3/36 0 1/36 9/36
Esperanza y
P(X = x) 11/36 9/36 7/36 5/36 3/36 1/36 1
varianza
condicionadas
Es decir
P[X = 1] = 11/36, P[X = 2] = 9/36, P[X = 3] = 7/36 . . .
P[Y = 0] = 9/36, P[Y = 1] = 18/36, P[Y = 2] = 9/36
Distribuciones marginales: Caso continuo
Introducción

Distribuciones
marginales y
condicionadas
Sea (X, Y) un vector aleatorio de tipo continuo con función de
Distribuciones
marginales
densidad conjunta f (x, y) , entonces
Distribuciones
condicionadas Z ∞
Cópulas fX (x) = f (x, y)dy ≥ 0
Variables −∞
aleatorias
independientes Z ∞
Funciones de fY (y) = f (x, y)dx ≥ 0
varias variables
−∞
Correlación, R∞ R∞
y −∞ fX (x)dx = 1, −∞ fY (y)dy = 1.
varianzas y
momentos

Esperanza y
varianza Se deduce que fX (x) y fY (y) son funciones de densidad. Se les
condicionadas
llama función de densidad marginal de X, y función de densidad
marginal de Y, respectivamente. A partir de ellas se obtienen de
forma natural las funciones de distribución marginales de X e Y.
Observemos...
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Para obtener la función de densidad marginal de X en el
condicionadas
punto x, es decir fX (x), a partir de la función de densidad
Cópulas
conjunta f (x, y) debemos integrar en todos los posibles
Variables
aleatorias valores de y, para cada valor de x fijado. Es lo que se hace en
independientes

Funciones de
el ejemplo siguiente.
varias variables
Para obtener la función de densidad marginal de Y en el
Correlación,
varianzas y punto y, es decir fY (y), a partir de la función de densidad
momentos
conjunta f (x, y) debemos integrar en todos los posibles
Esperanza y
varianza valores de x, para cada valor de y fijado. Es lo que se hace en
condicionadas
el ejemplo siguiente.
Ejemplo 5
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Introducción
dada por
Distribuciones 
marginales y 2, 0 < x < y < 1
condicionadas f (x, y) = .
Distribuciones 0, en otro caso
marginales
Distribuciones
condicionadas Las funciones de densidad marginales son:
Cópulas
Z 1 
Variables 2 − 2x, 0 < x < 1
aleatorias fX (x) = 2dy =
independientes x 0, en otro caso
Funciones de
varias variables y Z y 
Correlación, 2y, 0 < y < 1
varianzas y fY (y) = 2dx =
momentos
0 0, en otro caso
Esperanza y
varianza
condicionadas Se recomienda pintar el soporte de (X,Y), es decir el recinto
donde f (x, y) > 0, en este caso se trata del triángulo
{(x, y) : 0 < x < y < 1}. Para obtener fX (x), se debe integrar
f (x, y) en todos los posibles valores de y, para cada x fijado. En
este caso casi que no es necesario pintar el recinto, ya que
claramente para cada x fijado la variable y varía entre x y 1
Funciones de distribución marginales
Introducción
La función de distribución marginal de X
Distribuciones
marginales y
condicionadas
Sea (X, Y), con F (x, y) su f. distribución conjunta. La función de
Distribuciones
marginales
distribución marginal de X es
Distribuciones
condicionadas

Cópulas FX (x) = F (x, +∞) = lim F (x, y) .


y→∞
Variables
aleatorias
independientes Cuestión propuesta: Demostrar la propiedad anterior.
Funciones de
varias variables
Si (X, Y) es de tipo discreto
Correlación, X
varianzas y
momentos
FX (x) = pi.
Esperanza y
xi ≤x
varianza
condicionadas
Si (X, Y) es de tipo continuo
Z x
FX (x) = fX (t)dt.
−∞

La f. de distribución marginal de Y, FY (y), se define análogamente.


Funciones de distribución marginales
Introducción

Distribuciones La función de distribución marginal de Y


marginales y
condicionadas
Distribuciones
Sea (X, Y), con F (x, y) su f. distribución conjunta. La función de
marginales
Distribuciones
distribución marginal de Y es
condicionadas

Cópulas
FY (y) = F (+∞, y) = lim F (x, y) .
Variables x→∞
aleatorias
independientes

Funciones de
varias variables Si (X, Y) es de tipo discreto
Correlación, X
varianzas y
momentos FY (y) = p.j
Esperanza y yj ≤y
varianza
condicionadas
Si (X, Y) es de tipo continuo
Z y
FY (y) = fY (t)dt.
−∞
Distribuciones condicionadas: Recordemos...
Introducción

Distribuciones
Recordemos que, dados dos sucesos A y B con P (B) > 0, la
marginales y
condicionadas
probabilidad de A condicionada a B se define como
Distribuciones
marginales
Distribuciones P (A ∩ B)
condicionadas P (A | B) = .
Cópulas
P (B)
Variables
aleatorias Si consideramos los conjuntos
independientes

Funciones de
varias variables
A = {X = xi } = {(xi , y) : −∞ < y < ∞}
Correlación,
varianzas y
momentos
y
Esperanza y
B = {Y = yj } = {(x, yj ) : −∞ < x < ∞}
varianza
condicionadas donde P(B) = p.j > 0, se tiene que
A ∩ B = {X = xi , Y = yj } y
pij
P [X = xi |Y = yj ] = .
p.j
Distribuciones condicionadas: Caso discreto
Introducción
Fijado j se tiene que
Distribuciones
marginales y
condicionadas n
pij X
Distribuciones
marginales P (X = xi |Y = yj ) = ≥ 0, P (X = xi |Y = yj ) = 1.
Distribuciones p.j
condicionadas i=1
Cópulas

Variables
aleatorias
independientes Función de masa de probabilidad de X |Y = yj
Funciones de
varias variables Sea (X, Y) un vector aleatorio de tipo discreto. Si P (Y = yj ) > 0,
Correlación, la función
varianzas y
momentos
P (X = xi , Y = yj )
Esperanza y P (X = xi |Y = yj ) = , 1≤i≤n
varianza
condicionadas
P (Y = yj )

definida para cada j, se llama función de masa de probabilidad de


X condicionada a que Y tome el valor yj .

De forma análoga se calcula la P (Y = yj |X = xi ).


Ejemplo 2 (cont.)
Introducción
Obtener la distribución condicionada X |Y = 1 .
Distribuciones
marginales y
condicionadas P (X = x, Y = 1)
Distribuciones P (X = x |Y = 1 ) =
marginales
Distribuciones
P (Y = 1)
condicionadas

Cópulas
X 1 2 3 4 5 6
Variables
aleatorias P(X = x |Y = 1 )
independientes

Funciones de
varias variables

Correlación, Obtener la distribución condicionada Y |X = 2 .


varianzas y
momentos

Esperanza y P (X = 2, Y = y)
varianza P (Y = y |X = 2 ) =
condicionadas P (X = 2)

Y 0 1 2
P(Y = y |X = 2 )
Ejemplo 2 (cont.)
Introducción
Obtener la distribución condicionada X |Y = 1 .
Distribuciones
marginales y
condicionadas P (X = x, Y = 1)
Distribuciones P (X = x |Y = 1 ) =
marginales
Distribuciones
P (Y = 1)
condicionadas

Cópulas
X 1 2 3 4 5 6
Variables
aleatorias P(X = x |Y = 1 ) 1/3 2/9 2/9 1/9 1/9 0
independientes

Funciones de
varias variables

Correlación, Obtener la distribución condicionada Y |X = 2 .


varianzas y
momentos

Esperanza y P (X = 2, Y = y)
varianza P (Y = y |X = 2 ) =
condicionadas P (X = 2)

Y 0 1 2
P(Y = y |X = 2 ) 0 4/9 5/9
Distribuciones condicionadas: Caso continuo
Introducción

Distribuciones
marginales y
condicionadas
Supongamos que (X, Y) es una vector aleatorio continuo con
Distribuciones
marginales
función de densidad conjunta f (x, y).
Distribuciones
condicionadas Nuestro objetivo es definir la función de distribución de la
Cópulas
variable aleatoria X condicionada a que Y = y, i.e. X | Y = y,
Variables
aleatorias para un valor y fijado.
independientes
Sabemos que P(Y = y) = 0, para cualquier valor y. Ya que la
Funciones de
varias variables v.a. Y es continua.
Correlación,
varianzas y Por tanto no estaría definida la siguiente probabilidad
momentos
condicionada P (X ≤ x | Y = y). Recordad que para definir
Esperanza y
varianza P(A | B) debe cumplirse que P(B) > 0.
condicionadas
Consideremos ε > 0 y supongamos que
P(y − ε < Y < y + ε) > 0. Para cada x, sí que está definida
la probabilidad condicionada P (X ≤ x | Y ∈ (y − ε, y + ε)).
Distribuciones condicionadas: Caso continuo
Introducción

Distribuciones
marginales y
condicionadas Así, podemos aplicar la definición de probabilidad
Distribuciones
marginales condicionada
Distribuciones
condicionadas

Cópulas P (X ≤ x | Y ∈ (y − ε, y + ε)) =
Variables
aleatorias
independientes
P (X ≤ x, y − ε < Y < y + ε)
Funciones de P (Y ∈ (y − ε, y + ε))
varias variables
.
Correlación,
varianzas y Estamos interesados en los casos donde el siguiente límite
momentos

Esperanza y
existe
varianza lim P (X ≤ x |Y ∈ (y − ε, y + ε) )
condicionadas ε→0+

Ya estamos en condiciones de definir la función de


distribución condicionada de X | Y = y.
Distribuciones condicionadas: Caso continuo
Introducción

Distribuciones
Función de distribución de X | Y = y con y un valor fijado
marginales y
condicionadas Se define la función de distribución de la v.a. X condicionada a
Distribuciones
marginales que Y = y, siempre que el siguiente límite exista,
Distribuciones
condicionadas

Cópulas FX|Y (x | y) = lim P (X ≤ x |Y ∈ (y − ε, y + ε) )


ε→0+
Variables
aleatorias
independientes
Función de densidad de X | Y = y con y un valor fijado
Funciones de
varias variables La función de densidad de la v.a. X condicionada a que Y = y,
Correlación,
varianzas y
denotada por fX|Y (x | y) es una función no negativa, que verifica
momentos

Esperanza y
Z x
varianza
condicionadas
FX|Y (x | y) = fX|Y (t | y)dt, para todo x ∈ R.
−∞

Análogamente se definen la función de distribución y de densidad de Y


condicionada a X = x, denotadas por FY|X (y | x) y fY|X (y | x) ,
respectivamente.
Distribuciones condicionadas: Caso continuo
Introducción

Distribuciones
marginales y
condicionadas Teorema 6
Distribuciones
marginales Sea (X, Y) un vector aleatorio con función de densidad conjunta f ,
Distribuciones
condicionadas
y sea fY la función de densidad marginal de Y. Si f es continua en
Cópulas
(x, y) , fY (y) > 0 y fY es continua en y, la función de densidad de
Variables
aleatorias X condicionada a Y = y existe y se verifica que
independientes

Funciones de f (x, y)
varias variables fX|Y (x | y) = .
Correlación,
fY (y)
varianzas y
momentos
Si fX (x) > 0 y es continua en x, la función de densidad de Y
Esperanza y
varianza condicionada a X = x existe y se verifica que
condicionadas

f (x, y)
fY|X (y | x) = .
fX (y)
Demostración del Teorema 6
Introducción

Distribuciones Demostración.
marginales y
condicionadas Sea (x, y) ∈ R2 tal que P [Y ∈ (y − ε, y + ε)] > 0. Entonces,
Distribuciones
marginales
Distribuciones
condicionadas FX|Y (x | y) = lı́m P [X ≤ x |Y ∈ (y − ε, y + ε) ]
Cópulas
ε→0+
Variables Rx hR i
y+ε
y−ε f (u, v) dv du
aleatorias
independientes −∞
Funciones de
= lı́m R y+ε
ε→0+
varias variables y−ε fY (v) dv
Correlación,
varianzas y Dividiendo numerado y denominado entre 2ε, y tomando el límite
momentos
cuando ε → 0+ ,
Esperanza y
varianza Rx Z x
−∞ f (u, y) du f (u, y)
condicionadas
FX|Y (x | y) = = du
fY (y) −∞ fY (y)

y por definición de la función de densidad condicionada, se tiene


el resultado.
Introducción
Ejemplo 5 (cont.)
Distribuciones
marginales y
condicionadas
Además,
Distribuciones
marginales
f (x, y) 1
Distribuciones
condicionadas fY|X (y | x) = = , x < y < 1,
fX (x) 1−x
Cópulas

Variables
aleatorias es decir, la distribución de Y | X (se lee “Y condicionada a X”) es
independientes
uniformea sobre (x, 1) . De forma similar,
Funciones de
varias variables
f (x, y) 1
Correlación, fX|Y (x | y) = = , 0 < x < y,
varianzas y
momentos
fY (y) y
Esperanza y
varianza es decir, la distribución de X | Y es uniforme sobre (0, y) .
condicionadas
a 1
U ∼ Unif (a, b) si fU (u) = b−a
, para u ∈ (a, b).
Ejemplo 5 (cont.)
A partir de las distribuciones condicionadas podemos calcular
Introducción

Distribuciones
probabilidades, por ejemplo:
marginales y

1 00
condicionadas   Z 1
1 1
Distribuciones
marginales P Y ≥ | “X = = dy = 1,
Distribuciones 2 2 1 1 − 1
condicionadas 2 2
Cópulas
 Z 2
2 00

Variables 1 3 1 1
aleatorias P X ≥ | “Y = = 2
dy = .
independientes 3 3 1
3
2
3
Funciones de
varias variables 00
Observad que el uso de las comillas, por ejemplo en “X = 12 es para
Correlación,
varianzas y hacer notar que al ser un vector aleatorio continuo no se puede aplicar la
momentos

Esperanza y
definición de probabilidad condicionada habitual, en su lugar habría que
varianza interpretarlo a través del límite que se ha visto en la definición de la
condicionadas
función de distribución condicionada. Aunque eso ya no es necesario,
basta darse cuenta que si no hubiese ningún suceso condicionando se
resolvería integrando la función de densidad de Y, ahora bien como se
está trabajando con la distribución condicionada de Y a que X = 1/2,
entonces hay que integrar la densidad condicionada correspondiente.
Para practicar
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas Ejercicio 3
Variables
aleatorias Hallar la función de distribución conjunta del vector aleatorio
independientes
(X, Y) que tiene como función de densidad a
Funciones de
varias variables
6
Correlación,
varianzas y
f (x, y) = (x + y2 ), x, y ∈ [0, 1].
momentos
5
Esperanza y
varianza
condicionadas
Para practicar
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones Ejercicio 4
marginales
Distribuciones
condicionadas Sea vector aleatorio (X, Y) con función de densidad a
Cópulas

Variables f (x, y) = 1, |y| < x, x ∈ (0, 1).


aleatorias
independientes

Funciones de
Se pide:
varias variables
a) Comprobar que f (x, y) es función de densidad.
Correlación,
varianzas y
momentos
b) Calcular E(X) y E(Y).
Esperanza y c) Calcular las distribuciones condicionadas.
varianza
condicionadas d) Hallar P(X < 0,5, Y < 0), P(X > 0,5, −0,5 < Y < 0,5),
E(Y|X = 0,5).
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Cópulas
Introducción

Distribuciones
marginales y
condicionadas
La distribución conjunta F(x, y) de un vector aleatorio (X, Y)
Distribuciones
marginales
determina de forma unívoca las distribuciones marginales de sus
Distribuciones
condicionadas
componentes, FX (x), FY (y).
Cópulas FX (x) = lı́my→∞ F(x, y); FY (y) = lı́mx→∞ F(x, y).
Variables Nota: Cuando se dice distribución conjunta, nos podemos referir
aleatorias
independientes al conocimiento de la función de distribución conjunta (en
Funciones de general), o bien si (X, Y) es discreto al conocimiento de la función
varias variables
de masa de probabilidad conjunta, o si (X, Y) es continuo al
Correlación,
varianzas y conocimiento de la función de densidad conjunta. Análogamente
momentos

Esperanza y
cuando decimos distribuciones marginales.
varianza En general, sin embargo, el conocimiento de las distribuciones
condicionadas
marginales no es suficiente para determinar la distribución
conjunta.
Así dadas FX y FY , por ejemplo se pueden construir infinitas
Introducción funciones de distribución bidimensionales F(x, y) con las
Distribuciones
marginales y
distribuciones marginales dadas.
condicionadas
Distribuciones
marginales
Familia de funciones de distribución con marginales dadas
Distribuciones
condicionadas Sean FX (x), FY (y) distribuciones marginales dadas, entonces la
Cópulas
familia de funciones de distribuciones
Variables
aleatorias
independientes F(x, y) = FX (x)FY (y)(1 − θ(1 − FX (x))(1 − FY (y)))
Funciones de
varias variables
o de funciones de densidad
Correlación,
varianzas y
momentos
f (x, y) = fX (x)fY (y)(1 + θ(1 − 2FX (x))(1 − 2FY (y)))
Esperanza y
varianza
condicionadas con |θ| ≤ 1, tienen como marginales las dadas inicialmente.

Esta familia es conocida como Familia de


Farlie-Gumbel-Morgenstern.
Motivación
Introducción

Distribuciones
marginales y Para determinar F(x, y) a partir de las distribuciones
condicionadas
Distribuciones marginales FX , FY , es necesario introducir un elemento
marginales
Distribuciones
condicionadas
adicional que nos describirá cómo se relacionan ambas
Cópulas variables, nos describirá el vínculo entre ambas, su estructura
Variables de dependencia, es lo que se va llamar Cópula.
aleatorias
independientes El objetivo será expresar la función de distribución conjunta
Funciones de
varias variables
como una función de las funciones de distribución
Correlación,
marginales, así
varianzas y
momentos
F(x, y) = C( FX (x), FY (y) ) (x, y) ∈ R2
Esperanza y | {z } | {z }
varianza
condicionadas
La función C(u, v) ha de estar definida en [0, 1] × [0, 1] y
tomar valores en [0, 1].
¿Qué propiedades deberá verificar?
Motivación
Introducción

Distribuciones
marginales y F(x, y) = C( FX (x), FY (y) ) (x, y) ∈ R2
condicionadas | {z } | {z }
Distribuciones
marginales
Distribuciones
La función C(u, v) ha de estar definida en [0, 1] × [0, 1] y
condicionadas
tomar valores en [0, 1].
Cópulas
¿Qué propiedades deberá verificar?
Variables
aleatorias Se le deberá exigir que C(u, v) tenga las propiedades de
independientes
función de distribución bidimensional (con soporte en
Funciones de
varias variables [0, 1] × [0, 1]) .Ya que F(x, y) debe verificar dichas
Correlación, propiedades.
varianzas y
momentos
Se le deberá exigir que C(u, 1) = u y que C(1, v) = v con
objeto de exigirle que las marginales sean las dadas
Esperanza y
varianza inicialmente, es decir que F(x, +∞) = FX (x) y que
condicionadas
F(+∞, y) = FY (y).
Si C(u, v) verifica las propiedades anteriores, se trata de una
función de distribución bidimensional con marginales
Uniformes (0, 1).
Definición de Cópula
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables Definición de Cópula


aleatorias
independientes Una cópula es la función de distribución conjunta de un vector
Funciones de bidimensional cuyas marginales son uniformes en el intervalo
varias variables

Correlación,
(0, 1).
varianzas y
momentos

Esperanza y
varianza
condicionadas
Formalizando la definición de Cópula
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Definición formal de Cópula
Distribuciones
condicionadas
Una cópula es una función C : [0, 1] × [0, 1] → [0, 1] que satisface
Cópulas
las siguientes propiedades:
Variables
aleatorias
independientes
1 C(u, v) es no decreciente y continua por la derecha con
Funciones de
varias variables respecto a cada coordenada.
Correlación,
varianzas y
2 C (1, 1) = 1, C(u, 0) = C (0, v) = 0
momentos
3 C (u, 1) = u, C (1, v) = v, para todo u ∈ (0, 1) , v ∈ (0, 1) .
Esperanza y
varianza
condicionadas
4 C (u0 , v0 ) + C (u, v) − C (u0 , v) − C (u, v0 ) ≥ 0 para todo
u, u0 , v, v0 ∈ (0, 1) , u < u0 , v < v0 .
Ejemplos de cópulas
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Algunos ejemplos de cópulas son los siguientes:
Distribuciones
condicionadas 1 C (u, v) = uv, (Conocida como cópula de independencia)
Cópulas 2 C (u, v) = min {u, v} (Conocida como cópula maximal)
Variables
aleatorias
independientes
3 C (u, v) = max {0, u + v − 1} (Conocida como cópula
Funciones de
minimal)
varias variables
4 C (u, v) = uv (1 − θ (1 − u) (1 − v)), donde |θ| ≤ 1.
Correlación,
varianzas y (Familia de Farlie-Gumbel-Morgenstern)
momentos −1/θ
Esperanza y
5 C (u, v) = u−θ + v−θ − 1 , donde θ > 0. (Familia de
varianza
condicionadas Clayton)
Estas familias se estudiarán en la práctica 3 con R
Teorema 7 (Sklar, 1959)
Introducción

Distribuciones
Sea (X, Y) un vector aleatorio de tipo continuo, con función de
marginales y
condicionadas
distribución conjunta F (x, y) y sean FX (x) y FY (y) las
Distribuciones
marginales
distribuciones marginales de X e Y, respectivamente. Entonces,
Distribuciones
condicionadas
existe una única cópula C(·, ·) tal que
Cópulas

Variables F (x, y) = C(FX (x) , FY (y) ) (2)


aleatorias
independientes

Funciones de
Recíprocamente, si C(·, ·) es una cópula y FX (x) y FY (y) son dos
varias variables funciones de distribución univariantes, la función F (x, y) definida
Correlación,
varianzas y
por (2) es una función de distribución bivariante cuyas
momentos marginales son precisamente FX (x) y FY (y) .
Esperanza y
varianza
condicionadas La idea que subyace en el Teorema de Sklar es la de distinguir, en
una distribución conjunta, la parte que describe la estructura de
dependencia entre las variables X e Y (la cópula) y la parte que
describe el comportamiento marginal de las mismas.
Demostración del Teorema de Sklar
Introducción

Distribuciones Demostración.
marginales y
condicionadas Dadas F(x, y) y las marginales FX , FY . Supongamos que FX y FY
Distribuciones
marginales son estrictamente crecientes.
Distribuciones
condicionadas
Para demostrar que existe una única función C(u, v), tal que se
Cópulas
verifique (2), F (x, y) = C(FX (x) , FY (y) ) basta considerar
Variables
aleatorias
independientes C(u, v) = F(FX−1 (u), FY−1 (v))
Funciones de
varias variables
Comprobar que efectivamente C(u, v) es una cópula es inmediato
Correlación,
varianzas y por construcción.
momentos

Esperanza y
El recíproco es inmediato por definición de cópula.
varianza
condicionadas
Nota 1: En el caso de que FX y FY no sean estrictamente creciente
el resultado también es cierto, y FX−1 y FY−1 denotarán la funciones
cuantiles correspondientes.
Nota 2: Si el vector aleatorio (X, Y) es discreto se puede
demostrar la existencia, pero no la unicidad.
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Variables aleatorias independientes
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales Definición
Distribuciones
condicionadas
Sean F (x, y) y FX (x), FY (y), respectivamente, las funciones de
Cópulas
distribución conjunta y marginales, del vector aleatorio (X, Y) . Se
Variables
aleatorias dice que X e Y son independientes si y sólo si
independientes

Funciones de
varias variables
F (x, y) = FX (x) · FY (y) para todo (x, y) ∈ R2 .
Correlación,
varianzas y
momentos

Esperanza y
varianza
Nótese que la anterior definición implica que distribuciones
condicionadas marginales de X e Y están ligadas conjuntamente mediante la
cópula C(u, v) = uv,
En caso de independencia...
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas Lema 1
Variables
aleatorias Si X e Y son independientes se tiene que
independientes

Funciones de
varias variables
P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) = P (x1 < X ≤ x2 )·P (y1 < Y ≤ y2 )
Correlación,
varianzas y para todo x1 , x2 , y1 , y2 ∈ IR tales que x1 < x2 y y1 < y2 .
momentos

Esperanza y
varianza
condicionadas
Demostración del Lema 1
Introducción
Demostración.
Distribuciones
marginales y
condicionadas
Sea (X, Y) un vector aleatorio con función de distribución F(x, y).
Distribuciones
marginales
Consideramos FX la función de distribución marginal de X y FY la
Distribuciones
condicionadas
función de distribución marginal de Y. Como X e Y son v.a.’s
Cópulas independientes, por definición F(x, y) = FX (x) · FY (y).
Variables Veamos
aleatorias
independientes
P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) =
Funciones de F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) =
varias variables

Correlación, Aplicando que X e Y son independientes


varianzas y
momentos

Esperanza y
FX (x2 )FY (y2 ) + FX (x1 ) FY (y1 ) − FX (x1 )FY (y2 ) − FX (x2 )FY (y1 ) =
varianza
condicionadas
Sacando factor común

(FX (x2 ) − FX (x1 )) · (FY (y2 ) − FY (y1 )) =

Por tanto
P (x1 < X ≤ x2 ) · P (y1 < Y ≤ y2 )
Introducción

Distribuciones Teorema 8
marginales y
condicionadas Las variables discretas X e Y son independientes si y sólo si
Distribuciones
marginales
Distribuciones
condicionadas P (X = xi , Y = yj ) = P (X = xi ) · P (Y = yj ) (3)
Cópulas

Variables para todo (xi , yj ) ∈ R2 .


aleatorias
independientes

Funciones de Las variables continuas X e Y son independientes si y sólo si


varias variables

Correlación,
varianzas y f (x, y) = fX (x) · fY (y)
momentos

Esperanza y
varianza
para todo (x, y) ∈ R2 , donde f , fX y fY son las densidades
condicionadas conjuntas y marginales, con f continua en casi todo.
Demostración del Teorema 8
Introducción
Demostración.
Distribuciones
marginales y Se demostrará para el caso continuo:
condicionadas
Distribuciones
marginales Si X e Y son independientes, se verifica que F(x, y) = FX (x)FY (y),
Distribuciones
condicionadas por tanto si derivamos parcialmente con respecto a x e y, se tendrá
Cópulas

Variables
f (x, y) = fX (x)fY (y)
aleatorias
independientes
Si se verifica que f (x, y) = fX (x)fY (y), veamos que
Funciones de
varias variables F(x, y) = FX (x)FY (y).
Correlación, Esto es inmediato expresando F(x, y) como,
varianzas y
momentos Z x Z y
Esperanza y F(x, y) = f (u, v)dvdu
varianza
condicionadas −∞ −∞
Z x Z y
= fX (u)fY (v)dvdu
−∞ −∞
Z x Z y
= fX (u)du fY (v)dv
−∞ −∞
= FX (x)FY (y)
Demostración del Teorema 8. Indicaciones para el
Introducción caso discreto
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Queda como cuestión propuesta la demostración en el caso
condicionadas
discreto. Para ello
Cópulas

Variables
Para ver que si X e Y son independientes demostrar que
aleatorias
independientes
P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ), es necesario
Funciones de
demostrar previamente que
varias variables

Correlación, P(X = xi , Y = yj ) = F(xi , yj )+F(xi− , y− − −


j )−F(xi , yj )−F(xi , yj ).
varianzas y
momentos

Esperanza y Y tener en cuenta que como sabemos


varianza
condicionadas P(X = xi ) = F(xi ) − F(xi− ) y análogamente para P(Y = yj ).
El recíproco es análogo al caso continuo, considerando en
lugar de integrales, los correspondientes sumatorios.
Corolario 1
Introducción Sean X e Y variables independientes. Entonces, FY|X (y | x) = FY (y)
Distribuciones para todo y, y FX|Y (x | y) = FX (x) para todo x.
marginales y
condicionadas
Distribuciones
marginales La demostración del Corolario 1 es inmediata.
Distribuciones
condicionadas
Corolario 2
Cópulas
Las variables aleatorias X e Y son independientes si y sólo si
Variables
aleatorias
independientes P {X ∈ A, Y ∈ B} = P {X ∈ A} P {Y ∈ B} (4)
Funciones de
varias variables
para cualquier par de conjuntos de Borel A y B.
Correlación,
varianzas y
momentos Demostración: Observar que es inmediato que si se tiene (4) para
Esperanza y cualesquiera A y B Borelianos, basta tomar A = (−∞, x] y B = (−∞, y]
varianza
condicionadas para demostrar que X e Y son independientes.
La del recíproco no se realizará, únicamente decir que se puede justificar
intuitivamente, ya que si X e Y son independientes, (4) se verifica para
los intervalos de IR que generan la σ-álgebra de Borel, y de ahí se podrá
probar que se tiene para cualquier Boreliano.
Resultado muy interesante
Introducción

Distribuciones
marginales y
Corolario 3
condicionadas
Distribuciones
Sean X e Y dos variables aleatorias independientes y sean g y h
marginales
Distribuciones
dos funciones medibles. Entonces g(X) y h(Y) también son
condicionadas
independientes.
Cópulas

Variables
aleatorias
independientes
Demostración.
Funciones de Aplicaremos el Corolario 2:
varias variables

Correlación,
varianzas y
P (g (X) ≤ x, h (Y) ≤ y) =
momentos

P X ∈ g−1 (−∞, x] , Y ∈ h−1 (−∞, y] =



Esperanza y
varianza
condicionadas
P X ∈ g−1 (−∞, x] P Y ∈ h−1 (−∞, y] =
 

= P (g(X) ≤ x) P (h (Y) ≤ y) .
Ejemplo 6
Introducción

Distribuciones
marginales y Consideremos un vector aleatorio (X, Y) con función de densidad
condicionadas
Distribuciones conjunta
marginales
Distribuciones
condicionadas
( 1 + xy
Cópulas , |x| < 1, |y| < 1
f (x, y) = 4
Variables
aleatorias
0, en otro caso.
independientes

Funciones de X e Y no son independientes. Las densidades marginales son:


varias variables

Correlación, 1 y=1
xy2
Z 
varianzas y 1 + xy 1 1
momentos fX (x) = dy = y+ = , para − 1 < x <
−1 4 4 2 y=−1 2
Esperanza y
varianza Z 1
condicionadas 1 + xy 1
fY (y) = dx = , para − 1 < y < 1.
−1 4 2

Como f (x, y) 6= fX (x) · fY (y) , X e Y no son independientes.


Ejemplo 6 (cont.)
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables Sin embargo, X 2 e Y 2 sí lo son, ya que se verifica que


aleatorias
independientes
P X 2 ≤ x, Y 2 ≤ y = P X 2 ≤ x P Y 2 ≤ y .
  
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejemplo 6 (cont.)
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas √ "Z √ #
Z x y √ √
1
P X 2 ≤ x, Y 2 ≤ y =
Cópulas

√ √
(1 + uv) du dv = x y
Variables 4 − x − y
aleatorias
independientes

= P X2 ≤ x P Y 2 ≤ y .
 
Funciones de
varias variables

Correlación,
varianzas y
momentos

ComoX 2 e Y 2 son independientes, también lo serán ϕ X 2 y



Esperanza y
varianza
condicionadas ψ Y 2 , donde ϕ y ψ son funciones medibles. Pero X no es una
función medible de X 2 .
Definición
Introducción Las variables aleatorias X1 , ..., Xn son independientes (o
Distribuciones
marginales y
mutuamente independientes) si y sólo si
condicionadas

F (x1 , ..., xn ) = F1 (x1 ) · · · ·Fn (xn ) para todo (x1 , ..., xn ) ∈ Rn


Distribuciones
marginales
Distribuciones
condicionadas

Cópulas donde F es la función de distribución conjunta del vector


Variables
aleatorias
(X1 , ..., Xn ) y Fi es la función de distribución marginal de Xi ,
independientes i = 1, ..., n. Las variables X1 , ..., Xn se dice que son
Funciones de
varias variables
independientes dos a dos si cada pareja de variables son
Correlación,
independientes.
varianzas y
momentos
Observaciones:
Esperanza y
varianza
condicionadas Las variables X1 , ..., Xn pueden ser independientes dos a dos
y no ser mutuamente independientes.
Si las variables X1 , ..., Xn son independientes, las variables de
cualquier subconjunto suyo también lo son.
Contenido
Introducción

Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos

7 Esperanza y varianza condicionadas


Funciones de varias variables aleatorias
Introducción

Distribuciones
marginales y Sean X e Y dos variables aleatorias definidas sobre un espacio de
condicionadas
Distribuciones
probabilidad (Ω, S, P) . Nos preguntamos bajo qué condiciones
marginales
Distribuciones funciones del tipo X + Y, X − Y o XY son variables aleatorias y
condicionadas

Cópulas
cómo calcular sus distribuciones de probabilidad.
Variables
aleatorias
Teorema 9
independientes
Sea g : Rn → Rm una función medible Borel (es decir, si B es un
Funciones de
varias variables conjunto de Borel en Rm , entonces g−1 (B) es un conjunto de
Correlación, Borel en Rn ). Si X = (X1 , ..., Xn ) es un vector aleatorio, entonces
varianzas y
momentos Y = g (X) también lo es.
Esperanza y
varianza
condicionadas Observación
Si g : Rn → Rm es continua y X = (X1 , ..., Xn ) es un vector
aleatorio, entonces g (X) también es un vector aleatorio.
Demostración del Teorema 9
Introducción

Distribuciones Demostración.
marginales y
condicionadas
Distribuciones g : Rn → R m
marginales

Denotemos por B(Rn ) y B(Rm ) los σ algebras de Borel definidos en Rn


Distribuciones
condicionadas

Cópulas y Rm , respectivamente.
Variables Como g es medible se verifica que g−1 (B) ∈ B(Rn ), para todo
aleatorias
independientes B ∈ B(Rm ).
Funciones de
Sea (Ω, S) el espacio sobre el que el vector aleatorio X = (X1 , ..., Xn )
varias variables está definido.
Correlación, Dado B ∈ B(Rm ), hay que probar que {ω : Y(ω) ∈ B} ∈ S
varianzas y
momentos

Esperanza y
{ω : Y(ω) ∈ B} = {ω : g (X (ω)) ∈ B}
varianza
ω : X (ω) ∈ g−1 (B)

condicionadas =

y teniendo en cuenta que g es medible, se tiene que g−1 (B) ∈ B(Rn ) y


que X es un vector aleatorio, se deduce que ω : X ∈ g−1 (B) ∈ S, es


un suceso.
Introducción Consideramos g : R2 → R, medible. Sea la variable aleatoria
Distribuciones U = g (X, Y).
marginales y
condicionadas
Distribuciones
Caso discreto:
marginales
Distribuciones X
condicionadas
P [U ≤ u] = P [X = x, Y = y] para todo u ∈ R
Cópulas
A
Variables
aleatorias
independientes donde A = {(x, y) : g (x, y) ≤ u} .
Funciones de
varias variables Caso continuo, sea f (x, y) la función de densidad conjunta de
Correlación, (X, Y)
varianzas y
momentos Z
Esperanza y P [U ≤ u] = f (x, y) dxdy para todo u ∈ R
varianza
condicionadas A

donde A = {(x, y) : g (x, y) ≤ u}.


Ejemplo 7
Introducción Sea (X, Y) vector a aleatorio discreto con f. de masa de probabilidad
Distribuciones conjunta:
marginales y
condicionadas
(x + y)! x y
Distribuciones P (X = x, Y = y) = p q (1 − p − q) ,
marginales
Distribuciones
x!y!
condicionadas

Cópulas
donde x, y = 0, 1, 2... y p, q ∈ (0, 1) con p + q < 1. Observar que
Sop(U)={0,1,2,. . . }. Para calcular P(U = u) sea
Variables
aleatorias A = {(x, y) : x + y = u, x, y = 0, 1, 2, . . .}
independientes

Funciones de P(U = u) = P(X + Y = u)


varias variables X
Correlación,
= P(X = x, Y = y)
varianzas y A
momentos u
X
Esperanza y = P(X = x, Y = u − x)
varianza
condicionadas x=0
u
X u!
= (1 − p − q) px qu−x
x!(u − x)!
x=0
= (1 − p − q)(p + q)u , u = 0, 1, 2, . . .
Ejemplo 8
Introducción

Distribuciones Sea (X, Y) un vector aleatorio continuo con función de densidad


marginales y
condicionadas conjunta 
Distribuciones
2, 0 < x < y < 1
marginales
f (x, y) =
Distribuciones
condicionadas 0, en otro caso.
Cópulas
Hallar la función de densidad de la variable aleatoria U = X + Y.
Variables
aleatorias
independientes

Funciones de
1 Sop (U) = (0, 2).
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejemplo 8
Introducción

Distribuciones Sea (X, Y) un vector aleatorio continuo con función de densidad


marginales y
condicionadas conjunta 
Distribuciones
2, 0 < x < y < 1
marginales
f (x, y) =
Distribuciones
condicionadas 0, en otro caso.
Cópulas
Hallar la función de densidad de la variable aleatoria U = X + Y.
Variables
aleatorias
independientes

Funciones de
1 Sop (U) = (0, 2).
varias variables

Correlación,
2 Para t ∈ (0, 2), calcular FU (t) = P(U ≤ t).
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejemplo 8
Introducción

Distribuciones Sea (X, Y) un vector aleatorio continuo con función de densidad


marginales y
condicionadas conjunta 
Distribuciones
2, 0 < x < y < 1
marginales
f (x, y) =
Distribuciones
condicionadas 0, en otro caso.
Cópulas
Hallar la función de densidad de la variable aleatoria U = X + Y.
Variables
aleatorias
independientes

Funciones de
1 Sop (U) = (0, 2).
varias variables

Correlación,
2 Para t ∈ (0, 2), calcular FU (t) = P(U ≤ t).
varianzas y
momentos
3 Obtener fU (t) derivando la anterior.
Z Z
Esperanza y
varianza
condicionadas
P [U ≤ t] = P [X + Y ≤ t] = f (x, y)dydx
A

¿Quién es A?

A = {(x, y) : 0 < x < y < 1, x + y ≤ t}


Ejemplo 8 (cont.)
Introducción

Distribuciones
marginales y
condicionadas A = {(x, y) : 0 < x < y < 1, x + y ≤ t}
Distribuciones
marginales
Distribuciones
condicionadas 2 2

Cópulas 1.8 1.8

Variables 1.6 1.6


aleatorias
1.4 1.4
independientes
1.2 1.2
Funciones de (x=t−1, y=1)
varias variables 1 1
y

y
y=x
Correlación, 0.8 0.8 (x=t/2, y=t/2)
varianzas y
0.6 0.6
momentos
0.4 (x=t/2, y=t/2) 0.4 y=x
Esperanza y
varianza 0.2 0.2
y=t−x y=t−x
condicionadas
0 0
0 0.5 1 1.5 2 0 0.5 1 1.5
x x
Ejemplo 8 (cont.)
Introducción

Distribuciones Representando gráficamente el recinto, distinguimos dos casos


marginales y
condicionadas Caso 1 Si 0 ≤ t < 1,
Distribuciones
marginales
Distribuciones 2
condicionadas
1.8
Cópulas
1.6
Variables
aleatorias 1.4
independientes 1.2

Funciones de 1
y

varias variables
y=x
0.8
Correlación,
varianzas y 0.6
momentos (x=t/2, y=t/2)
0.4
Esperanza y 0.2
varianza y=t−x
condicionadas 0
0 0.5 1 1.5 2
x

t
t−x
t2
Z Z 
2
P [U ≤ t] = 2dy dx =
0 x 2
Ejemplo 8 (cont.)
Introducción

Distribuciones
marginales y Caso 2 Si 1 ≤ t ≤ 2
condicionadas
Distribuciones
marginales 2
Distribuciones
condicionadas 1.8

Cópulas 1.6

1.4
Variables
aleatorias 1.2
(x=t−1, y=1)
independientes
1
y
Funciones de
varias variables 0.8 (x=t/2, y=t/2)
0.6
Correlación,
varianzas y 0.4 y=x
momentos
0.2
y=t−x
Esperanza y
varianza 0
0 0.5 1 1.5 2
condicionadas x

t
t−1 Z 1 t−x
4t − t2 − 2
Z  Z Z 
2
P [U ≤ t] = 2dy dx+ 2dy dx = .
0 x t−1 x 2
Ejemplo 8 (cont.)
Introducción

Distribuciones
marginales y
condicionadas Por tanto la función de distribución de U sería
Distribuciones
marginales 
Distribuciones
 02
 si t < 0
condicionadas

 t


Cópulas
si 0 ≤ t < 1

Variables FU (t) = 2
aleatorias 4t − t2 − 2
si 1 ≤ t < 2

independientes 

Funciones de

 2
si t ≥ 2

varias variables 1
Correlación,
varianzas y
momentos
Y la función de densidad resultante:
Esperanza y

varianza  t, 0≤t<1
condicionadas
fU (t) = 2 − t, 1 ≤ t < 2
0, otro caso

El siguiente teorema proporciona un método diferente para calcular la
función de densidad del vector Y = g(X) para el caso bidimensional
Introducción (X = (X1 , X2 ), Y = (Y1 , Y2 ), Yi = gi (X1 , X2 ), gi : R2 → R i = 1, 2).
Distribuciones
marginales y Teorema 9 (método alternativo para calcular f(Y) )
condicionadas
Distribuciones
marginales Sea (X1 , X2 ) un vector aleatorio de tipo continuo con función de
Distribuciones
condicionadas densidad conjunta fX (x1 , x2 ).
Cópulas
Sea g : R2 → R2 una función biyectiva, y h : R2 → R2 su
Variables
aleatorias correspondiente transformación inversa:
independientes

Funciones de
varias variables
y1 = g1 (x1 , x2 ), x1 = h1 (y1 , y2 )
Correlación, y2 = g2 (x1 , x2 ), x2 = h2 (y1 , y2 ).
varianzas y
momentos

Esperanza y Supongamos que ambas funciones son continuas y que las


varianza
condicionadas derivadas parciales ∂x
∂yj , i, j = 1, 2, existen y son continuas.
i

Supongamos que el jacobiano de la transformación inversa


J = ∂(x 1 ,x2 )
∂(y1 ,y2 ) 6= 0. Entonces,

fY (y1 , y2 ) = |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 ))


Demostración del Teorema 10
Introducción
Demostración.
Distribuciones
marginales y
condicionadas
Sea (y?1 , y?2 ) ∈ R2 , fijado. El objetivo es dar una expresión para
Distribuciones
marginales
FY (y?1 , y?2 ). Se considera
Distribuciones
condicionadas

B = (y1 , y2 ) ∈ R2 : −∞ < yi ≤ y?i , i = 1, 2 .



Cópulas

Variables
aleatorias
independientes
Además
Funciones de
g−1 (B) = (x1 , x2 ) ∈ R2 : gi (x1 , x2 ) ≤ y?i , i = 1, 2 .

varias variables

Correlación,
varianzas y
momentos Entonces
FY (y?1 , y?2 ) = P X ∈g−1 (B) =

Esperanza y
varianza
condicionadas
Z Z
fX (x1 , x2 ) dx1 dx2 =
g−1 (B)
Z y?1 Z y?2
= |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 )) dy1 , dy2 .
−∞ −∞
Ejemplo 9
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas

Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sean Y1 = X1 + X2 , Y2 = X1 − X2 . Calcular la función de densidad
Esperanza y
varianza conjunta fY (y1 , y2 ) y comprobar que efectivamente es una función
condicionadas
de densidad. Calcular las densidades marginales de Y1 e Y2 .
Resolvemos....
Introducción

Distribuciones Observamos en primer lugar que la función de densidad


marginales y
condicionadas
conjunta del vector X = (X1 , X2 ) viene dado por
Distribuciones
marginales
Distribuciones
condicionadas
fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ) = 1, 0 < xi < 1, i = 1, 2
Cópulas

Variables
¿Por qué?
aleatorias
independientes Dada la transformación
Funciones de
varias variables
Y1 = X1 + X2 ,
Correlación,
varianzas y
momentos Y2 = X1 − X2
Esperanza y
varianza
condicionadas
nos piden en primer lugar calcular la función de densidad
conjunta del vector aleatorio Y = (Y1 , Y2 ).
Aplicaremos el Teorema 10.
Para ello comprobamos en primer lugar que se verifican las
hipótesis de dicho resultado.
Resolvemos....
Introducción
Comprobamos hipótesis del Teorema 10
Distribuciones
marginales y g : R2 → R2 , dada por
condicionadas
Distribuciones
marginales
y1 = g1 (x1 , x2 ) = x1 + x2 ,
Distribuciones
condicionadas
y2 = g2 (x1 , x2 ) = x1 − x2
Cópulas

Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : R2 → R2 , viene dada por
Funciones de y1 + y2
varias variables x1 = h1 (y1 , y2 ) =
2
Correlación,
varianzas y y1 − y2
momentos x2 = h2 (y1 , y2 ) =
Esperanza y
2
varianza
condicionadas
Tanto g como h son continuas, y las derivadas parciales ∂x i
∂yj ,
i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
1 1 1
2 2 =− =6 0
1
2 − 21 2
Resolvemos....
Introducción

Distribuciones Entonces aplicando el Teorema 10, la función de densidad


marginales y
condicionadas conjunta de (Y1 , Y2 ) viene dada por
Distribuciones
marginales
Distribuciones
condicionadas
fY (y1 , y2 ) = |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 ))
Cópulas

Variables Y sustituyendo por los valores correspondientes


aleatorias
independientes    
1 y1 + y2 y1 − y2 1
Funciones de fY1 ,Y2 (y1 , y2 ) = f f =
varias variables 2 2 2 2
Correlación,
varianzas y
momentos
y1 + y2 y1 − y2
si 0 < < 1, 0 < < 1.
Esperanza y 2 2
varianza
condicionadas Observad que el soporte de (Y1 , Y2 ) viene dado por

{(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}

Representemos gráficamente dicho recinto.


El recinto de la función de densidad de (Y1 , Y2 )
Introducción

Distribuciones
marginales y {(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Resolvemos....
Introducción
A partir de la expresión obtenida para la función de densidad
Distribuciones
marginales y conjunta del vector aleatorio (Y1 , Y2 ) nos piden obtener las
condicionadas
Distribuciones
marginales de Y1 e Y2 .
marginales
Distribuciones
condicionadas
La expresión obtenida para la función de densidad conjunta
Cópulas
es
Variables fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
aleatorias
independientes Para obtener la función de densidad marginal de Y1 debemos
Funciones de calcular: Z +∞
varias variables

Correlación,
fY1 (y1 ) = fY (y1 , y2 )dy2
varianzas y −∞
momentos
Por ello hemos representado el soporte del vector aleatorio
Esperanza y
varianza Y = (Y1 , Y2 ) en unos ejes cartesianos y1 , y2 . Observar que el
condicionadas
soporte de Y1 es el intervalo (0, 2), (es la proyección del
soporte del vector en la primera componente).
Así para cada y1 ∈ (0, 2) debemos integrar la función de
densidad conjunta anterior en todos los posibles valores de
y2 .
La densidad marginal de Y1
Introducción
R +∞
Distribuciones fY1 (y1 ) = −∞ fY (y1 , y2 )dy2 Observar en el gráfico del recinto que la
marginales y
condicionadas variable y2 no varía de la misma forma para todos los valores de y1
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas

Si 0 < y1 < 1 la variable y2 varía entre −y1 < y2 < y1 y cuando


1 ≤ y1 < 2, la variable y2 varía entre y1 − 2 < y2 < 2 − y1 .
Resolvemos....
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Por tanto la función de densidad marginal de Y1 vendrá dada por
condicionadas

Cópulas
Z y1
1

Variables

 dy2 = y1 , 0 < y1 ≤ 1
 Z −y1 2
aleatorias


independientes 2−y1
fY1 (y1 ) = 1
Funciones de  dy2 = 2 − y1 , 1 < y1 < 2
varias variables  2
 y1 −2


Correlación,
varianzas y
0, en otro caso
momentos

Esperanza y ¿Cómo proceder para obtener la función de densidad marginal de


varianza
condicionadas Y2 ?
El siguiente teorema proporciona un método diferente para calcular la
función de densidad del vector Y = g(X) para el caso bidimensional
Introducción (X = (X1 , X2 ), Y = (Y1 , Y2 ), Yi = gi (X1 , X2 ), gi : R2 → R i = 1, 2).
Distribuciones
marginales y Teorema 9 (método alternativo para calcular f(Y) )
condicionadas
Distribuciones
marginales Sea X = (X1 , X2 ) un vector aleatorio de tipo continuo con función
Distribuciones
condicionadas de densidad conjunta fX (x1 , x2 ).
Cópulas
Sea g : R2 → R2 una función biyectiva, y h : R2 → R2 su
Variables
aleatorias correspondiente transformación inversa:
independientes

Funciones de
varias variables
y1 = g1 (x1 , x2 ), x1 = h1 (y1 , y2 )
Correlación, y2 = g2 (x1 , x2 ), x2 = h2 (y1 , y2 ).
varianzas y
momentos

Esperanza y Supongamos que ambas funciones son continuas y que las


varianza
condicionadas derivadas parciales ∂x
∂yj , i, j = 1, 2, existen y son continuas.
i

Supongamos que el jacobiano de la transformación inversa


J = ∂(x 1 ,x2 )
∂(y1 ,y2 ) 6= 0. Entonces,

fY (y1 , y2 ) = |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 ))


Demostración del Teorema 10
Introducción
Demostración.
Distribuciones
marginales y
condicionadas
Sea (y?1 , y?2 ) ∈ R2 , fijado. El objetivo es dar una expresión para
Distribuciones FY (y?1 , y?2 ). Se considera
marginales
Distribuciones

B = (y1 , y2 ) ∈ R2 : −∞ < yi ≤ y?i , i = 1, 2 .


condicionadas

Cópulas

Variables Además
aleatorias
independientes
g−1 (B) = (x1 , x2 ) ∈ R2 : gi (x1 , x2 ) ≤ y?i , i = 1, 2 .

Funciones de
varias variables

Correlación, Entonces como Y = g(X)


varianzas y
momentos
FY (y?1 , y?2 ) = P (g(X) ∈ B) = P X ∈g−1 (B) =

Esperanza y
varianza Z Z
condicionadas
fX (x1 , x2 ) dx1 dx2 =
g−1 (B)
Z y?
1
Z y?
2
= |J| · fX (h1 (y1 , y2 ) , h2 (y2 , y1 )) dy1 , dy2 .
−∞ −∞
Ejemplo 9
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas

Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sean Y1 = X1 + X2 , Y2 = X1 − X2 . Calcular la función de densidad
Esperanza y
varianza conjunta fY (y1 , y2 ) y comprobar que efectivamente es una función
condicionadas
de densidad. Calcular las densidades marginales de Y1 e Y2 .
Resolvemos....
Introducción

Distribuciones Observamos en primer lugar que la función de densidad


marginales y
condicionadas
conjunta del vector X = (X1 , X2 ) viene dado por
Distribuciones
marginales
Distribuciones
condicionadas
fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ) = 1, 0 < xi < 1, i = 1, 2
Cópulas

Variables
¿Por qué?
aleatorias
independientes Dada la transformación
Funciones de
varias variables
Y1 = X1 + X2 ,
Correlación,
varianzas y
momentos Y2 = X1 − X2
Esperanza y
varianza
condicionadas
nos piden en primer lugar calcular la función de densidad
conjunta del vector aleatorio Y = (Y1 , Y2 ).
Aplicaremos el Teorema 10.
Para ello comprobamos en primer lugar que se verifican las
hipótesis de dicho resultado.
Resolvemos....aplicando el Teorema 10
Introducción
Comprobamos hipótesis del Teorema 10
Distribuciones
marginales y g : R2 → R2 , dada por
condicionadas
Distribuciones
marginales
y1 = g1 (x1 , x2 ) = x1 + x2 ,
Distribuciones
condicionadas
y2 = g2 (x1 , x2 ) = x1 − x2
Cópulas

Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : R2 → R2 , viene dada por
Funciones de y1 + y2
varias variables x1 = h1 (y1 , y2 ) =
2
Correlación,
varianzas y y1 − y2
momentos x2 = h2 (y1 , y2 ) =
Esperanza y
2
varianza
condicionadas
Tanto g como h son continuas, y las derivadas parciales ∂x i
∂yj ,
i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
1 1 1
2 2 =− =6 0
1
2 − 21 2
Resolvemos....aplicando el Teorema 10
Introducción

Distribuciones Entonces aplicando el Teorema 10, la función de densidad


marginales y
condicionadas conjunta de (Y1 , Y2 ) viene dada por
Distribuciones
marginales
Distribuciones
condicionadas
fY (y1 , y2 ) = |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 ))
Cópulas

Variables Sustituyendo por los valores correspondientes


aleatorias
independientes    
1 y1 + y2 y1 − y2 1
Funciones de fY1 ,Y2 (y1 , y2 ) = f f =
varias variables 2 2 2 2
Correlación,
varianzas y
momentos
y1 + y2 y1 − y2
si 0 < < 1, 0 < < 1.
Esperanza y 2 2
varianza
condicionadas Observad que el soporte de (Y1 , Y2 ) viene dado por

{(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}

Representemos gráficamente dicho recinto.


El soporte de (Y1 , Y2 )
Introducción

Distribuciones
marginales y {(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Resolvemos....
Introducción

Distribuciones
marginales y
La expresión obtenida para la función de densidad conjunta
condicionadas es
Distribuciones
marginales
Distribuciones
fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
condicionadas

Cópulas
Comprobar que la función de densidad conjunta de (Y1 , Y2 )
Variables
es efectivamente función de densidad.
aleatorias
independientes REs∞inmediato
R∞ que fY (y1 , y2 ) ≥ 0, bastaría ver que
Funciones de −∞ −∞ Y 1 , y2 )dy2 dy1 = 1.
f (y
varias variables

Correlación,
Z ∞ Z ∞
varianzas y
momentos
fY (y1 , y2 )dy2 dy1 =
−∞ −∞
Esperanza y
varianza Z 1 Z y1  Z 2 Z 2−y1 
condicionadas 1 1
= dy2 dy1 + dy2 dy1
0 −y1 2 1 y1 −2 2

1 1
+ =1
2 2
Resolvemos....
Introducción

Distribuciones A partir de la expresión obtenida para la función de densidad


marginales y
condicionadas conjunta del vector aleatorio (Y1 , Y2 ) nos piden obtener las
Distribuciones
marginales marginales de Y1 e Y2 .
Distribuciones
condicionadas
fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
Cópulas

Variables
Para obtener la función de densidad marginal de Y1 debemos
aleatorias calcular:
independientes Z +∞
Funciones de fY1 (y1 ) = fY (y1 , y2 )dy2
varias variables −∞
Correlación,
varianzas y Por ello hemos representado el soporte del vector aleatorio
momentos
Y = (Y1 , Y2 ) en unos ejes cartesianos y1 , y2 . Observar que el
Esperanza y
varianza soporte de Y1 es el intervalo (0, 2), (es la proyección del
condicionadas
soporte del vector en la primera componente).
Así para cada y1 ∈ (0, 2) debemos integrar la función de
densidad conjunta anterior en todos los posibles valores de
y2 .
La densidad marginal de Y1
Introducción
R +∞
Distribuciones fY1 (y1 ) = −∞ fY (y1 , y2 )dy2 Observar en el gráfico del recinto que la
marginales y
condicionadas variable y2 no varía de la misma forma para todos los valores de y1
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas

Si 0 < y1 < 1 la variable y2 varía entre −y1 < y2 < y1 y cuando


1 ≤ y1 < 2, la variable y2 varía entre y1 − 2 < y2 < 2 − y1 .
Resolvemos....
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Por tanto la función de densidad marginal de Y1 vendrá dada por
condicionadas

Cópulas
Z y1
1

Variables

 dy2 = y1 , 0 < y1 ≤ 1
 Z −y1 2
aleatorias


independientes 2−y1
fY1 (y1 ) = 1
Funciones de  dy2 = 2 − y1 , 1 < y1 < 2
varias variables  2
 y1 −2


Correlación,
varianzas y
0, en otro caso
momentos

Esperanza y ¿Cómo proceder para obtener la función de densidad marginal de


varianza
condicionadas Y2 ?
Resolvemos....la marginal de Y2
Introducción

Distribuciones
marginales y La expresión obtenida para la función de densidad conjunta
condicionadas
Distribuciones es
marginales
Distribuciones
condicionadas
fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
Cópulas Para obtener la función de densidad marginal de Y2 debemos
Variables calcular:
aleatorias
Z +∞
independientes
fY2 (y2 ) = fY (y1 , y2 )dy1
Funciones de −∞
varias variables

Correlación, A partir de la representación del soporte del vector aleatorio


varianzas y
momentos
Y = (Y1 , Y2 ) en unos ejes cartesianos y1 , y2 , observamos que
Esperanza y el soporte de Y2 es el intervalo (−1, 1), (es la proyección del
varianza
condicionadas soporte del vector en la segunda componente).
Así para cada y2 ∈ (−1, 1) debemos integrar la función de
densidad conjunta anterior en todos los posibles valores de
y2 .
La densidad marginal de Y2
Introducción

Distribuciones
marginales y
Z +∞
condicionadas fY2 (y2 ) = fY (y1 , y2 )dy1
Distribuciones
marginales −∞
Distribuciones
condicionadas
Observar en el gráfico del recinto que la variable y1 no varía de la
Cópulas
misma forma para todos los valores de y2
Variables
aleatorias Si −1 < y2 < 0 la variable y1 varía entre −y2 < y1 < 2 + y2 .
independientes

Funciones de Si 0 ≤ y2 < 1, la variable y1 varía entre y2 < y1 < 2 − y2 .


varias variables

Correlación,
Por tanto la función de densidad marginal de Y2 vendrá dada por
varianzas y  Z
momentos 2+y2
 1
Esperanza y

 dy1 = 1 + y2 , −1 < y2 < 0
 Z−y2 2
varianza


condicionadas
2−y2
fY2 (y2 ) = 1
 dy1 = 1 − y2 , 0 ≤ y2 < 1



 y2 2
 0, en otro caso
Ampliando el ejemplo 9
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas

Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sea la variable aleatoria U = X1 · X2 . Calcular la función de
Esperanza y
varianza densidad de U. ¿Son las variables aleatorias U y X1
condicionadas
independientes?
Resolvemos....
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales Para resolver el ejercicio, utilizaremos el Teorema 10.
Distribuciones

¿Tenemos una función g : R2 → R2 biyectiva?


condicionadas

Cópulas

Variables Podemos construirla, teniendo en cuenta además que nos


aleatorias
independientes piden estudiar si U y X1 son independientes. Para responder
Funciones de esta cuestión es necesario obtener la función de densidad
varias variables
conjunta de U y X1 .
Correlación,
varianzas y Consideramos U = X1 · X2 , y V = X1 con esta
momentos
transformación, g(x1 , x2 ) = (x1 · x2 , x1 ) es biyectiva
Esperanza y
varianza
condicionadas
Con dicha transformación g biyectiva, comprobamos que se
verifican las hipótesis del Teorema 10.
Resolvemos....
Introducción
Comprobamos hipótesis del Teorema 10
Distribuciones
marginales y g : (0, 1) × (0, 1) → (0, 1) × (0, 1), dada por
condicionadas
Distribuciones
marginales
u = g1 (x1 , x2 ) = x1 · x2 ,
Distribuciones
condicionadas v = g2 (x1 , x2 ) = x1
Cópulas

Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : (0, 1)2 → (0, 1)2 , viene dada
Funciones de por
varias variables
x1 = h1 (u, v) = v
Correlación,
varianzas y
u
momentos x2 = h2 (u, v) =
v
Esperanza y
varianza Tanto g como h son continuas, y las derivadas parciales ∂x i
∂u ,
condicionadas
∂xi
∂v i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
0 1 1
1 =− =6 0
v − vu2 v
Resolvemos....
Introducción

Distribuciones
Entonces aplicando el Teorema 10, la función de densidad
marginales y
condicionadas
conjunta de (U, V) viene dada por
Distribuciones
marginales
Distribuciones
condicionadas
fU,V (u, v) = |J| · fX (h1 (u, v) , h2 (u, v))
Cópulas

Variables
Sustituyendo por los valores correspondientes como X1 y X2 son
aleatorias independientes
independientes

Funciones de
1 u 1
varias variables
fU,V (u, v) = f (v) · f =
Correlación, v v v
varianzas y
momentos u
Esperanza y
si 0 < v < 1, 0 < < 1.
varianza
v
condicionadas
Observad que el soporte de (U, V) viene dado por

A = {(u, v) : 0 < v < 1, 0 < u < v}

Representemos gráficamente dicho recinto.


Resolvemos...la función de densidad de U
Introducción

Distribuciones 1
marginales y f (u, v) = , (u, v) ∈ A
condicionadas v
Distribuciones
marginales A = {(u, v) : 0 < u < v < 1}
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos Para obtener la función de densidad marginal de U, debemos
Esperanza y integrar la función de densidad conjunta en todos los posibles
varianza
condicionadas valores de v.
Observando el gráfico para cada u ∈ (0, 1), la variable v varía
entre u < v < 1, por tanto
Z ∞ Z 1
1
fU (u) = f (u, v)dv = dv = − ln u, u ∈ (0, 1)
−∞ u v
Resolvemos...¿Son independientes U y X1 ?
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas
Para responder a la pregunta, ¿son U y X1 independientes?, basta
Variables ver si las variables U y V son independientes.
aleatorias
independientes ¿Es necesario obtener la marginal de V?
Funciones de
varias variables
¿Qué tenemos que comprobar para ver si U y V son
Correlación, independientes?
varianzas y
momentos ¿Son independientes?
Esperanza y
varianza
condicionadas
Ejercicio 5
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales Se considera el vector aleatorio (X, Y) con función de densidad
Distribuciones
condicionadas
conjunta
Cópulas
f (x, y) = e−y (y − x), 0 ≤ x < y
Variables
aleatorias
independientes Se pide:
Funciones de
varias variables
1 Obtener las distribuciones marginales de X e Y.
Correlación, 2 Considerar la variable aleatoria U = Y − X. Obtener la
varianzas y
momentos función de densidad de U.
Esperanza y
varianza
3 ¿Las variables aleatorias U y X son independientes?. Razona
condicionadas la respuesta.
Convolución
Introducción

Distribuciones
Sea (X, Y) un vector de tipo continuo con función de
marginales y
condicionadas
densidad conjunta f (x, y) . Se puede comprobar que la
Distribuciones
marginales
variable Z = X + Y tiene por función de densidad
Distribuciones
condicionadas
Z ∞ Z ∞
Cópulas fZ (t) = f (x, t − x) dx = f (t − x, x) dx.
Variables −∞ −∞
aleatorias
independientes Si X e Y son independientes con marginales fX y fY , se
Funciones de
varias variables
deduce que
Correlación,
Z ∞ Z ∞
varianzas y
momentos fZ (t) = fX (x) fY (t − x) dx = fX (t − x) fY (x) dx
−∞ −∞
Esperanza y
varianza
condicionadas y, en este caso, la función de distribución de Z viene dada por
Z ∞ Z ∞
FZ (t) = fX (x) FY (t − x) dx = FX (t − x) fY (x) dx.
−∞ −∞

Se dice que FZ es una convolución de FX con FY .


Convolución
Introducción

Distribuciones
marginales y
condicionadas
Distribuciones Definición
marginales
Distribuciones
condicionadas
Sean F y G dos funciones de distribución univariantes y
Cópulas absolutamente continuas. La función H definida por
Variables Z ∞ Z ∞
aleatorias
0
independientes H(x) = F (x − y) G (y)dy = G (x − y) F 0 (y)dy
Funciones de −∞ −∞
varias variables

Correlación,
varianzas y
es una función de distribución llamada CONVOLUCIÓN de X e
momentos Y, y se denota H = F ∗ G.
Esperanza y
varianza
condicionadas Se deduce que si X e Y son variables aleatorias independientes
con funciones de distribución F y G, respectivamente, la variable
X + Y es una convolución con función de distribución H = F ∗ G.
Una transformación especial es Z = X + Y
Introducción

Introducción
Dado (X, Y) un vector aleatorio continuo con f.densidad
Introducción
conjunta f (x, y). Sea Z = X + Y, estamos interesados en
Distribuciones obtener la f.d.d. de Z, fZ .
marginales y
condicionadas Podemos considerar Z = X + Y, U = X o bien Z = X + Y,
Distribuciones
marginales U = Y, como dos casos simples para poder aplicar el
Distribuciones
condicionadas Teorema de la transformación de vectores aleatorios (T. 10).
Cópulas
Si Z = X + Y, U = X, se tiene que la f.d.d. conjunta de
Variables
aleatorias (Z, U) es, fZ,U (z, u) = f (u, z − u). Así fZ , sería
independientes
Z ∞
Funciones de
varias variables fZ (z) = f (u, z − u)du
Correlación, −∞
varianzas y
momentos
Si Z = X + Y, U = Y, se tiene que la f.d.d. conjunta de
Esperanza y
varianza (Z, U) es, fZ,U (z, u) = f (z − u, u). Así fZ sería
condicionadas
Z ∞
fZ (z) = f (z − u, u)du
−∞
Convolución
Introducción

Introducción
Sea (X, Y) un vector de tipo continuo con función de
Introducción
densidad conjunta f (x, y) . Hemos comprobado que la
Distribuciones
variable Z = X + Y tiene por función de densidad
marginales y Z ∞ Z ∞
condicionadas
Distribuciones
marginales
fZ (z) = f (x, z − x) dx = f (z − x, x) dx.
Distribuciones −∞ −∞
condicionadas

Cópulas Si X e Y son independientes con marginales fX y fY , se


Variables deduce que
aleatorias
independientes Z ∞ Z ∞
Funciones de fZ (z) = fX (x) fY (z − x) dx = fX (z − x) fY (x) dx
varias variables −∞ −∞
Correlación,
varianzas y y, en este caso, la función de distribución de Z, FZ ,
momentos
(calcularla), viene dada por
Esperanza y
varianza Z ∞ Z ∞
condicionadas
FZ (z) = fX (x) FY (z − x) dx = FX (z − x) fY (x) dx.
−∞ −∞

Se dice que FZ es una convolución de FX con FY .


Convolución
Introducción

Introducción

Introducción

Distribuciones Definición: Convolución


marginales y
condicionadas Sean F y G dos funciones de distribución univariantes y
Distribuciones
marginales absolutamente continuas. La función H definida por
Distribuciones
condicionadas Z ∞ Z ∞
0
Cópulas
H(z) = F (z − x) G (x)dx = G (z − x) F 0 (x)dx
Variables −∞ −∞
aleatorias
independientes

Funciones de
es una función de distribución llamada convolución de X e Y, y se
varias variables denota H = F ∗ G.
Correlación,
varianzas y
momentos
Se deduce que si X e Y son variables aleatorias independientes
Esperanza y con funciones de distribución F y G, respectivamente, la variable
varianza
condicionadas X + Y es una convolución con función de distribución H = F ∗ G.
Contenido
Introducción

Introducción 1 Introducción
Introducción

Distribuciones 2 Introducción
marginales y
condicionadas
Distribuciones 3 Introducción
marginales
Distribuciones
condicionadas
4 Distribuciones marginales y condicionadas
Cópulas
Distribuciones condicionadas
Variables
aleatorias
independientes 5 Cópulas
Funciones de
varias variables 6 Variables aleatorias independientes
Correlación,
varianzas y
momentos 7 Funciones de varias variables
Esperanza y
varianza 8 Correlación, varianzas y momentos
condicionadas

9 Esperanza y varianza condicionadas


Recordemos el caso unidimensional E[g(X)]
Introducción

Introducción
Sea g : R → R medible, por tanto Y = g(X) es v.a.
Introducción

Distribuciones Si X es v.a. discreta con f.m.p P(X = x),


marginales y
condicionadas X
Distribuciones
marginales
E[g(X)] = g(x)P(X = x)
Distribuciones
condicionadas
x
Cópulas P
Variables
siempre que x |g(x)|P(X = x) < +∞.
aleatorias
independientes
Si X es v.a. continua con f.d.d. f (x),
Funciones de Z ∞
varias variables
E[g(X)] = g(x)f (x)dx
Correlación,
varianzas y −∞
momentos
R∞
Esperanza y
varianza
siempre que −∞ |g(x)|f (x)dx < +∞.
condicionadas ¿Cómo se generaliza al caso bivariante? y ¿en general al caso
n-dimensional?
Momentos: Valor esperado (esperanza) de g(X1 , X2 )
Introducción

Introducción Sea g : R2 → R medible, por tanto g(X1 , X2 ) es v.a.


Introducción

Distribuciones
Definición de E[g(X1 , X2 )]
marginales y
condicionadas 1 Si (X1 , X2 ) es discreto, con f.m.p. P(X1 = x1 , X2 = x2 ),
Distribuciones
marginales
X
Distribuciones
condicionadas E [g(X1 , X2 )] = g(x1 , x2 )P(X1 = x1 , X2 = x2 ).
Cópulas x1 ,x2
Variables
aleatorias 2 Si (X1 , X2 ) es continuo, con f.d.d. f (x1 , x2 ),
independientes

Funciones de Z +∞ Z +∞
varias variables
E [g(X1 , X2 )] = g(x1 , x2 )f (x1 , x2 )dx1 dx2 .
Correlación, −∞ −∞
varianzas y
momentos P
Esperanza y
Siempre que x1 ,x2 |g(x1 , x2 )|P(X1 = x1 , X2 = x2 ) < +∞
varianza
R +∞ R +∞
condicionadas −∞ −∞
|g(x1 , x2 )|f (x1 , x2 )dx1 dx2 < +∞
Las definiciones anteriores se extienden de manera natural al caso
n-dimensional.
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción

Distribuciones E[a1 X1 + a2 X2 ] = a1 E[X1 ] + a2 E[X2 ]?


marginales y
condicionadas
Distribuciones En el caso continuo (de forma análoga se razona para el caso
marginales
Distribuciones
condicionadas
discreto)
Z +∞ Z +∞
Cópulas

Variables
E[a1 X1 + a2 X2 ] = (a1 x1 + a2 x2 )f (x1 , x2 )dx1 dx2
aleatorias −∞ −∞
independientes = I1 + I2
Funciones de
varias variables Z +∞ Z +∞
Correlación, I1 = a 1 x1 f (x1 , x2 )dx1 dx2
varianzas y
momentos −∞ −∞
Z +∞ Z +∞ 
Esperanza y
varianza = a1 x1 f (x1 , x2 )dx2 dx1
condicionadas −∞ −∞
Z +∞
= a1 x1 fX1 (x1 )dx1 = a1 E[X1 ]
−∞
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción

Distribuciones E[a1 X1 + a2 X2 ] = a1 E[X1 ] + a2 E[X2 ]?


marginales y
condicionadas
Distribuciones
En el caso continuo (de forma análoga se razona para el caso
marginales
Distribuciones
discreto)
condicionadas
Z +∞ Z +∞
Cópulas
E[a1 X1 + a2 X2 ] = (a1 x1 + a2 x2 )f (x1 , x2 )dx1 dx2
Variables −∞ −∞
aleatorias
independientes = I1 + I2
Funciones de
varias variables

Correlación,
Z +∞ Z +∞
varianzas y
momentos
I2 = a 2 x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Esperanza y Z +∞ Z +∞ 
varianza
condicionadas = a2 x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Z +∞
= a2 x2 fX2 (x2 )dx2 = a2 E[X2 ]
−∞
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción

Distribuciones E[a1 X1 + a2 X2 ] = a1 E[X1 ] + a2 E[X2 ]?


marginales y
condicionadas
Distribuciones
En el caso continuo (de forma análoga se razona para el caso
marginales
Distribuciones
discreto)
condicionadas
Z +∞ Z +∞
Cópulas
E[a1 X1 + a2 X2 ] = (a1 x1 + a2 x2 )f (x1 , x2 )dx1 dx2
Variables −∞ −∞
aleatorias
independientes = I1 + I2 = a1 E[X1 ] + a2 E[X2 ]
Funciones de
varias variables En general se verifica
Correlación,
" n # n
varianzas y X X
momentos E ai Xi = ai E (Xi ) .
Esperanza y i=1 i=1
varianza
condicionadas
Si ai = n1 , i = 1, 2, . . . , n, se tiene que
 1 Pn
E X1 +···+X
 n
n = n i=1 E[Xi ], ¿y si E[Xi ] = µ para
1 ≤ i ≤ n? E X1 +···+X
 n

n = µ.
Valor esperado: propiedades
Introducción

Introducción

Introducción
2 Si X1 , X2 son independientes y E |Xi | < ∞, para i = 1, 2,
Distribuciones
entonces
marginales y
condicionadas
E [X1 · X2 ] = E[X1 ] · E[X2 ]
Distribuciones
marginales
Distribuciones
En el caso continuo (de forma análoga se razona para el caso
condicionadas
discreto)
Cópulas

Variables
Z +∞ Z +∞
aleatorias
independientes
E[X1 · X2 ] = x1 · x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Funciones de
varias variables
Z +∞ Z +∞

Correlación,
= x1 · x2 fX1 (x1 )fX2 (x2 )dx1 dx2
indep −∞ −∞
varianzas y
momentos Z +∞  Z +∞ 
Esperanza y = x1 fX1 (x1 )dx1 · x2 fX2 (x2 )dx2
varianza −∞ −∞
condicionadas
= E[X1 ] · E[X2 ]
Valor esperado: propiedades
Introducción

Introducción

Introducción

Distribuciones
marginales y
2 Si X1 , X2 son independientes y E |Xi | < ∞, para i = 1, 2,
condicionadas
Distribuciones
entonces
marginales
Distribuciones E [X1 · X2 ] = E[X1 ] · E[X2 ]
condicionadas

Cópulas En general,
Variables
aleatorias
Si X1 , . . . , Xn son independientes y E |Xi | < ∞, para todo
independientes i = 1, . . . , n, entonces
Funciones de
varias variables " n # n
Y Y
Correlación,
varianzas y
E Xi = E [Xi ] .
momentos i=1 i=1
Esperanza y
varianza
condicionadas
Valor esperado: variables incorreladas
Introducción

Introducción

Introducción

Distribuciones Definición: Variables incorreladas


marginales y
condicionadas Dos variables aleatorias X e Y son incorreladas si
Distribuciones
marginales E [XY] = E [X] E [Y] .
Distribuciones
condicionadas

Cópulas
¿Si X e Y son independientes son incorreladas?
Variables
aleatorias Es immediato, ya que si X e Y son independientes entonces
independientes
E[XY] = E[X]E[Y], por tanto por definición X e Y son
Funciones de
varias variables incorreladas.
Correlación,
varianzas y
¿Es cierto el recíproco?
momentos
¿Si E[XY] = E[X]E[Y] entonces X e Y son independientes?
Esperanza y
varianza ¿Qué pensáis?
condicionadas
Incorrelación e independencia
Introducción

Introducción
Ejercicio 6: incorrelación no implica independencia
Introducción Sean X e Y dos variables aleatorias con función de densidad
Distribuciones conjunta f (x, y) = 21 si |x| + |y| ≤ 1, y cero en otro caso.
marginales y
condicionadas Demostrar que X e Y son incorreladas, pero no son independientes
Distribuciones
marginales
Distribuciones
condicionadas
Observamos que {(x, y) : |x| + |y| ≤ 1} es el recinto limitado
Cópulas
por las rectas x + y ≤ 1, x + y ≥ −1, x − y ≤ 1, x − y ≥ −1.
Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 6...continuación
Introducción

Introducción

Introducción

Distribuciones Las funciones de densidad marginales


marginales y  
condicionadas
1 + x, −1 < x < 0 1 + y, −1 < y < 0
Distribuciones
fX (x) = fY (y) =
marginales
Distribuciones
1 − x, 0 < x < 1 1 − y, 0 < y < 1
condicionadas

Cópulas

Variables X e Y no son independientes. Sin embargo sí son incorreladas


aleatorias Z 0 Z 1+x  Z 1 Z 1−x  
independientes 1
E [XY] = x ydy dx + x ydy dx = 0
Funciones de
varias variables
2 −1 −1−x 0 x−1
Correlación, y, operando con las marginales,
varianzas y
momentos

Esperanza y E [X] = E [Y] = 0.


varianza
condicionadas
Caracterización de independencia
Introducción

Introducción

Introducción
Teorema 11: Caracterización de independencia
Distribuciones Dos v.a.’s X e Y son independientes si y sólo si se verifica
marginales y
condicionadas
Distribuciones
marginales
E [g1 (X)g2 (Y)] = E [g1 (X)] · E [g2 (Y)] , (5)
Distribuciones
condicionadas

Cópulas para todo par de funciones medibles g1 y g2 (suponiendo que las


Variables esperanzas de la expresión existen).
aleatorias
independientes

Funciones de Demostración (Caracterización de independencia)


varias variables

Correlación,
Supongamos X e Y independientes. Hay que probar que se
varianzas y
momentos
verifica (5).
Esperanza y
Sean g1 y g2 funciones medibles, se deduce del Corolario 3
varianza
condicionadas
que g1 (X) y g2 (Y) son independientes y por tanto se verifica
E[g1 (X)g2 (Y)] = E[g1 (X)]E[g2 (Y)].
Continuación de la demostración
Introducción

Introducción
Supongamos que la relación (5) se verifica para cualesquiera
Introducción
g1 , g2 medibles. Hay que probar que X e Y son
Distribuciones
independientes
marginales y
condicionadas
Sean A y B dos conjuntos de Borel cualesquiera. Definimos
Distribuciones  
marginales
1, X ∈ A 1, Y ∈ B
Distribuciones
condicionadas g1 (X) = g2 (Y) =
0, X ∈
/A 0, Y ∈/ B.
Cópulas

Variables
aleatorias
Ambas funciones son medibles y verifican:
independientes

Funciones de E [g1 (X) g2 (Y)] = P (X ∈ A, Y ∈ B) ,


varias variables

Correlación, E [g1 (X)] = P (X ∈ A) , E [g2 (Y)] = P (Y ∈ B) .


varianzas y
momentos
Por tanto,
Esperanza y
varianza
condicionadas P {X ∈ A, Y ∈ B} = P (X ∈ A) P (Y ∈ B)
lo que implica que X e Y son independientes por el Corolario
2.
Introducción

Introducción
Ejercicio 7
Introducción
Sean X e Y dos variables aleatorias con función de densidad
Distribuciones
marginales y conjunta f (x, y) = 21 si |x| + |y| ≤ 1, y cero en otro caso. Se
condicionadas
Distribuciones consideran las variables U = X + 2Y, V = 2X + Y. Demostrar
marginales
Distribuciones
condicionadas
que U y V no son independientes. ¿Son incorreladas?
Cópulas

Variables Ayuda: debéis encontrar que


aleatorias
independientes
2+u 2+v
 
Funciones de
varias variables  3 , u ∈ (−2, −1)  3 , v ∈ (−2, −1)
1 1
Correlación, fU (u) = 3, u ∈ (−1, 1) fV (v) = 3, v ∈ (−1, 1)
varianzas y 2−u 2−v
3 , u ∈ (1, 2) 3 , v ∈ (1, 2)
 
momentos

Esperanza y
varianza
condicionadas
Covarianza
Introducción

Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Definición
Distribuciones
condicionadas
Se denomina covarianza entre X e Y al valor de
Cópulas

Variables cov(X, Y) = E [(X − E (X)) · (Y − E (Y))]


aleatorias
independientes = E (XY) − E (X) E (Y)
Funciones de
varias variables
siempre que exista.
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Propiedades de la covarianza
Introducción

Introducción 1 X, Y están incorreladas si y sólo si cov(X, Y) = 0.


Introducción

Distribuciones
2 La covarianza es una medida de asociación entre X e Y. Si es
marginales y
condicionadas
positiva, implica que X e Y crecen simultáneamente (análogo
Distribuciones
marginales
cuando es negativa).
Distribuciones
condicionadas
Observar que si X e Y crecen (o decrecen) simultáneamente,
Cópulas (X − E (X)) (Y − E (Y)) debería ser positivo, mientras que si
Variables X crece e Y decrece (o al contrario), el producto debería ser
aleatorias
independientes negativo. Por tanto, el valor esperado de ese producto, es
Funciones de decir, la covarianza entre X e Y, es una medida de asociación
varias variables
entre X e Y.
Correlación,
varianzas y
momentos
3 En particular,
Esperanza y
varianza
condicionadas
X, Y independientes =⇒ cov(X, Y) = 0.

¿Se verifica el recíproco?


Propiedades de la covarianza
Introducción 2
4 Sean X1 , ..., Xn , v.a.’s tales que E |Xi | < ∞, i = 1, 2, ..., n. Sean
Introducción
a1 , ..., an ∈ R. Entonces,
Introducción

Distribuciones
marginales y
var [a1 X1 + ... + an Xn ] = ?
condicionadas
Distribuciones
marginales " n #  !2 
Distribuciones X n
X n
X
condicionadas
var ai Xi = E ai Xi − ai E [Xi ] 
Cópulas
i=1 i=1 i=1
Variables 
aleatorias n
!2 
independientes X
= E ai (Xi − E [Xi ]) =
Funciones de
varias variables i=1
Correlación,  
varianzas y n n
momentos X 2
X
E  a2i (Xi − E [Xi ]) + ai aj (Xi − E [Xi ]) (Xj − E [Xj ]) =
Esperanza y
varianza i=1 i6=j
condicionadas
n
X h i n
X
2
a2i E (Xi − E [Xi ]) + ai aj E [(Xi − E [Xi ]) (Xj − E [Xj ])].
i=1 i6=j
Propiedades de la covarianza
Introducción 2
4 Sean X1 , ..., Xn , v.a.’s tales que E |Xi | < ∞, i = 1, 2, ..., n. Sean
Introducción
a1 , ..., an ∈ R. Entonces,
Introducción
n
X n
X
Distribuciones
marginales y var [a1 X1 + ... + an Xn ] = a2i var [Xi ] + ai aj cov (Xi , Xj ) .
condicionadas i=1 i6=j
Distribuciones
marginales
Distribuciones " n #  !2 
condicionadas
X n
X n
X
Cópulas var ai Xi = E ai Xi − ai E [Xi ] 
Variables i=1 i=1 i=1
aleatorias 
independientes n
!2 
X
Funciones de
varias variables
= E ai (Xi − E [Xi ]) =
i=1
Correlación,
varianzas y  
momentos Xn n
X
2
Esperanza y E  a2i (Xi − E [Xi ]) + ai aj (Xi − E [Xi ]) (Xj − E [Xj ]) =
varianza
condicionadas
i=1 i6=j
n
X h n
i X
2
a2i E (Xi − E [Xi ]) + ai aj E [(Xi − E [Xi ]) (Xj − E [Xj ])].
i=1 i6=j
Propiedades de la covarianza
Introducción

Introducción
Si denotamos por a = (a1 , ..., an ) ∈ Rn y consideramos la matriz
Introducción

Distribuciones
 
marginales y var (X1 ) cov(X1 , X2 ) ... cov (X1 , Xn )
condicionadas  cov(X2 , X1 ) var (X2 ) ... cov (X2 , Xn ) 
Distribuciones
Σ= 
marginales
Distribuciones
 ... ... ... ... 
condicionadas
cov(Xn , X1 ) cov (Xn , X2 ) ... var(Xn )
Cópulas

Variables
aleatorias o, abreviadamente,
independientes

Funciones de
varias variables
Σ = (σi,j ) ∈ Mnxn donde σij = cov (Xi , Xj ) y σii = var (Xi ) ,
Correlación,
varianzas y entonces
momentos

Esperanza y
var [a1 X1 + ... + an Xn ] = aΣat .
varianza
condicionadas La matriz Σ es simétrica, semidefinida positiva y se denomina
matriz de covarianzas del vector aleatorio (X1 , ..., Xn ) .
Propiedades de la covarianza
Introducción

Introducción 5 En particular, si las variables están incorreladas dos a dos, es


Introducción decir, si cov (Xi , Xj ) = 0 para i, j = 1, 2, ...n, i 6= j, entonces
Distribuciones
marginales y n
X
condicionadas
Distribuciones var [a1 X1 + ... + an Xn ] = a2i var [Xi ] .
marginales
Distribuciones i=1
condicionadas

Cópulas

Variables
6 Si X1 , X2 , . . . , Xn son v.a.’s independientes , entonces
aleatorias
independientes n
X
Funciones de
varias variables
var [a1 X1 + ... + an Xn ] = a2i var [Xi ] .
Correlación,
i=1
varianzas y
momentos
Si además aii = n1 , para 1 ≤ i ≤ n, entonces
Esperanza y h Pn Pn
varianza Xi var[Xi ]
condicionadas
var i=1
n = i=1
n2
.
Si además var[Xi ] 2
= σ , para todo 1 ≤ i ≤ n, ¿Cómo queda
dicha expresión?
Propiedades de la covarianza
Introducción

Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Ejercicio 8
Cópulas Sean X, Y y Z tres variables aleatorias. Probar que
Variables
aleatorias
cov (X + Y, Z) = cov (X, Z) + cov (Y, Z) . Más generalmente,
independientes decimos que la covarianza es un operador bilineal.
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Coeficiente de correlación
Introducción

Introducción
Definición
Sean X e Y dos variables aleatorias tales que E X 2 y E Y 2
   
Introducción

Distribuciones
marginales y
existen y sean σX y σY las respectivas desviaciones típicas. Se
condicionadas define el coeficiente de correlación entre X e Y como
Distribuciones
marginales
Distribuciones cov(X, Y)
condicionadas
ρ= .
Cópulas σX σY
Variables
aleatorias El coeficiente de correlación se interpreta como una medida de la
independientes

Funciones de
dependencia lineal entre X e Y. Veremos que,
varias variables
Mientras más se aproxime ρ a ±1 más fuerte es la relación
Correlación,
varianzas y lineal entre X e Y.
momentos

Esperanza y
Si ρ = 1 →, entonces Y = a + bX con b > 0.
varianza
condicionadas Si ρ = −1 →, entonces Y = a + bX con b < 0.
X e Y serán menos dependientes linealmente a medida que
ρ ≈ 0.
Coeficiente de correlación: interpretación
Introducción

Introducción

Introducción
En el caso unidimensional se vió que dada una v.a. Y con
Distribuciones
E[Y] = µY , entonces la solución al problema de optimización
marginales y
condicionadas h i
Distribuciones
marginales
minE (Y − c)2
c
Distribuciones
condicionadas

Cópulas es c = µY , es decir, el mejor predictor constante de Y según el


Variables criterio del error cuadrático medio es E [Y].
aleatorias
independientes De forma similar, si queremos predecir Y por medio de una
Funciones de función lineal de X (a + bX), entonces el mejor predictor de
varias variables

Correlación,
acuerdo con el criterio del error cuadrático medio será la solución
varianzas y
momentos
de
n h io n h io
Esperanza y
varianza min E (Y − (a + bX))2 = min E ((Y − bX) − a)2
condicionadas a,b b,a
Coeficiente de correlación: interpretación
Introducción

Introducción

Introducción

Distribuciones
marginales y n h io n h io
condicionadas
Distribuciones
min E (Y − (a + bX))2 = min E ((Y − bX) − a)2 =
marginales a,b b,a
Distribuciones
condicionadas n h io
Cópulas min E ((Y − bX) − E (Y − bX))2 =
Variables
b
aleatorias n h io
independientes
min E ((Y − E[Y]) − b (X − E[X]))2 =
Funciones de b
varias variables
min var[Y] − 2bcov(X, Y) + b2 var[X] =

Correlación,
varianzas y b
momentos
min σY2 − 2bcov(X, Y) + b2 σX2 ,

Esperanza y
varianza
b
condicionadas
cuya solución es
cov(X, Y)
Introducción b∗ = , a∗ = E[Y] − b∗ E[X]
σX2
Introducción

Introducción supuesto que σX > 0. Sustituyendo a y b por su valor óptimo, se


Distribuciones obtiene finalmente que
marginales y
condicionadas n h io
Distribuciones
marginales
min E (Y − (a + bX))2 = σY2 − 2b∗ cov(X, Y) + (b∗ )2 σX2
Distribuciones
a,b
condicionadas "  #
cov (X, Y) 2

Cópulas 2
= σY 1 −
Variables σX σY
aleatorias
independientes
= σY2 1 − ρ2 ,

Funciones de
varias variables

Correlación,
lo que implica que ρ2 ≤ 1.
varianzas y
momentos
Si ρ = ±1 =⇒ el error que se comete al predecir Y a través
Esperanza y
de una función lineal de X es cero =⇒ Y es función lineal de
varianza
condicionadas
X.
El error será tanto mayor cuanto más cerca esté ρ de cero, en
cuyo caso podremos decir que Y no puede explicarse por
medio de una función lineal de X.
Ejercicio
Introducción

Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Ejercicio 9
condicionadas

Sean X e Y dos variables tales que E X 2 < ∞, E Y 2 < ∞ y


   
Cópulas

Variables sean U = a + bX y V = c + dY, donde a, b, c y d son constantes.


aleatorias
independientes Probar que ρX,Y = ±ρU,V, donde ρX,Y y ρU,V, son los coeficientes
Funciones de de correlación entre X e Y y entre U y V, respectivamente.
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Contenido
Introducción

Introducción 1 Introducción
Introducción

Distribuciones 2 Introducción
marginales y
condicionadas
Distribuciones 3 Introducción
marginales
Distribuciones
condicionadas
4 Distribuciones marginales y condicionadas
Cópulas
Distribuciones condicionadas
Variables
aleatorias
independientes 5 Cópulas
Funciones de
varias variables 6 Variables aleatorias independientes
Correlación,
varianzas y
momentos 7 Funciones de varias variables
Esperanza y
varianza 8 Correlación, varianzas y momentos
condicionadas

9 Esperanza y varianza condicionadas


Recordemos las distribuciones condicionadas...
Introducción Sea (X, Y) un vector aleatorio, hemos estudiado las distribuciones
Introducción condicionadas de Y | X = x y las de X | Y = y.
Introducción
En el caso discreto, sea x tal que P(X = x) > 0:
Distribuciones
marginales y Y | X = x es una variable aleatoria que toma los valores de Y, con
condicionadas
Distribuciones
probabilidades
marginales
Distribuciones P(X = x, Y = y)
condicionadas P (Y = y | X = x) = .
Cópulas
P(X = x)
Variables Tiene sentido calcular
aleatorias X
independientes
E [Y | X = x] = y P (Y = y | X = x) .
Funciones de
y
varias variables

Correlación,
varianzas y
En el caso continuo, si x es tal que fX (x) > 0
momentos Y | X = x es una variable aleatoria, cuyo soporte estará contenido
Esperanza y en el soporte de Y,
varianza
condicionadas
Z ∞
f (x, y)
fY|X (y | x) = , E [Y | X = x] = y fY|X (y | x) dy.
fX (x) −∞
Recordemos las distribuciones condicionadas...
Introducción

Introducción
Sea (X, Y) un vector aleatorio, en la distribución condicionada de
Introducción
Y | X = x:
Distribuciones
marginales y Generalizando podemos calcular
condicionadas
Distribuciones
 X
marginales 
 h(y) P (Y = y | X = x), si X es discreta
Distribuciones 
condicionadas y
E [h(Y) | X = x] = Z ∞
Cópulas 

 h(y) fY|X (y | x) dy, si X es continua
Variables −∞
aleatorias
independientes

Funciones de Obtener una expresión para la var (Y | X = x) tanto para el caso discreto
varias variables
como para el caso continuo.
Correlación,
varianzas y h i
momentos
var (Y | X = x) = E (Y − E(Y | X = x))2 | X = x
Esperanza y

= E Y 2 | X = x − (E [Y | X = x])2
varianza  
condicionadas
Esperanza condicionada E [Y |X ]
Introducción

Introducción
Definición
Introducción
Sean X e Y v.a.’s. Se denomina esperanza condicionada de Y dado
Distribuciones
marginales y X, y se denota E [Y |X ] , a la variable aleatoria que toma los
condicionadas
Distribuciones valores E [Y |X = x ] .
marginales
Distribuciones
condicionadas
Se trata de una v.a. g(X) que toma los valores g(x) = E [Y |X = x ].
Cópulas
En el caso discreto,
Variables X
aleatorias E [Y |X = x ] = y P [Y = y |X = x ] ,
independientes
y
Funciones de
varias variables

Correlación, siempre que P [X = x] > 0. En el caso continuo,


varianzas y
momentos Z ∞
Esperanza y E [Y |X = x ] = y fY|X (y |x ) dy
varianza
condicionadas
−∞

siempre que fX (x) > 0. La definición de E [X |Y ] es análoga.


Esperanza condicionada E [h(Y) |X ]
Introducción

Introducción

Introducción
Definición
Distribuciones Sean X e Y v.a.’s. Se denomina esperanza condicionada de h(Y)
marginales y
condicionadas dado X, y se denota E [h(Y) |X ] , a la variable aleatoria que toma
Distribuciones
marginales los valores E [h(Y) |X = x ] .
Distribuciones
condicionadas En el caso discreto,
Cópulas X
Variables E [h(Y) |X = x ] = h(y)P [Y = y |X = x ] ,
aleatorias
independientes y
Funciones de
varias variables siempre que P [X = x] 6= 0. En el caso continuo,
Correlación,
varianzas y Z ∞
momentos
E [h(Y) |X = x ] = h (y) fY|X (y |x ) dy
Esperanza y
varianza
−∞
condicionadas
siempre que fX (x) > 0. La definición de E [h(X) |Y ] es análoga.
Ejemplo
Introducción 1
Sea (X, Y) un vector aleatorio, tal que f (x, y) = si 0 < y < x < 1.
Introducción x
Introducción X ∼ U(0, 1), fX (x) = 1, x ∈ (0, 1). E[X] = 1/2, var[X]=1/12.
Distribuciones 1
marginales y Y | X = x, fY|X (y | x) = , y ∈ (0, x)
condicionadas x
Distribuciones Z ∞ Z x
marginales 1 x
Distribuciones E[Y | X = x] = yfY|X (y | x)dy = y dy =
condicionadas
−∞ 0 x 2
Cópulas
Consideramos la v.a. E[Y | X] = X/2, calculamos
Variables  
aleatorias X 1 1
independientes E [E(Y | X)] = E = E[X] =
Funciones de
2 2 4
varias variables
var(X) 1
Correlación, var[E(Y | X)] = var[X/2] = =
varianzas y 4 48
momentos Z ∞
2
Esperanza y
varianza
var[Y | X = x] = (y − E (Y | X = x)) fY|X (y | x)dy
condicionadas −∞
x
x2
Z
2 1
= (y − x/2) dy =
0 x 12
Introducción

Introducción

Introducción

Distribuciones Teorema 12
marginales y
condicionadas Sea (X, Y) un vector aleatorio. Si E [Y] existe. Entonces,
Distribuciones
marginales
Distribuciones
condicionadas E [Y] = E (E [Y |X ]) .
Cópulas

Variables Cuestión propuesta: Demostrar que si E [h(Y)] existe. Entonces,


aleatorias
independientes

Funciones de E [h(Y)] = E (E [h(Y) |X ]) .


varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Demostración del Teorema 12
Introducción
Sea (X, Y) continuo (el caso discreto es similar). Sea g(X) = E[Y | X]
Introducción

Introducción g (x) = E [Y |X = x ] .
Distribuciones
marginales y
condicionadas
Entonces,
Distribuciones
marginales
Z ∞
Distribuciones
condicionadas
E (E [Y |X ]) =E [g (X)] = g (x) fX (x)dx =
−∞
Cópulas

Variables
Z ∞
aleatorias E [Y |X = x ] fX (x)dx =
independientes
−∞
Funciones de Z ∞ Z ∞ 
varias variables
y fY|X (y |x ) dy fX (x)dx =
Correlación, −∞ −∞
varianzas y
momentos Z ∞ Z ∞  Z ∞Z ∞
f (x, y)
Esperanza y y dy fX (x)dx = y f (x, y) dydx =
varianza −∞ −∞ fX (x) −∞ −∞
condicionadas Z ∞ Z ∞  Z ∞
y f (x, y) dx dy = y fY (y)dy = E [Y]
−∞ −∞ −∞
Introducción

Introducción Otras propiedades:


Introducción

Distribuciones
marginales y 1 E [c |X ] = c para cualquier constante c.
condicionadas
Distribuciones
marginales
Distribuciones
2 E [a1 g1 (Y) + a2 g2 (Y) |X ] = a1 E [g1 (Y) |X ] + a2 E [g2 (Y) |X ]
condicionadas
para cualesquiera funciones g1 , g2 medibles.
Cópulas

Variables
aleatorias
3 Si X e Y son independientes E [Y |X ] = E [Y] y
independientes E [X |Y ] = E [X] .
Funciones de
varias variables 4 E [h1 (X)h2 (Y)|X] = h1 (X)E [h2 (Y)|X], para cualesquiera
Correlación,
varianzas y funciones h1 y h2 medibles.
momentos

Esperanza y
varianza
condicionadas
Algunas de estas propiedades
Introducción

Introducción 2 E [a1 g1 (Y) + a2 g2 (Y) |X ] = a1 E [g1 (Y) |X ] + a2 E [g2 (Y) |X ]


Introducción
para cualesquiera funciones g1 , g2 medibles.
Distribuciones
marginales y
condicionadas
Basta ver que para todo x ∈ Sop(X),
Distribuciones
marginales
Distribuciones
E [a1 g1 (Y) + a2 g2 (Y) |X = x ] = a1 E [g1 (Y) |X = x ]+a2 E [g2 (Y) |X = x ] ,
condicionadas

Cópulas En el caso continuo, es inmediato ya que


Variables
aleatorias
Z ∞
independientes E [a1 g1 (Y) + a2 g2 (Y) |X = x ] = (a1 g1 (y) + a2 g2 (y))fY|X (y | x)dy
Funciones de −∞
varias variables

Correlación, y por la linealidad de las integrales es inmediato lo que se quiere.


varianzas y
momentos Z ∞ Z ∞
Esperanza y = a1 g1 (y)fY|X (y | x)dy + a2 g1 (y)fY|X (y | x)dy
varianza −∞ −∞
condicionadas
= a1 E [g1 (Y) |X = x ] + a2 E [g2 (Y) |X = x ]
Algunas de estas propiedades
Introducción

Introducción

Introducción 4 E [h1 (X)h2 (Y)|X] = h1 (X)E [h2 (Y)|X], para cualesquiera


Distribuciones funciones h1 y h2 medibles.
marginales y
condicionadas
Distribuciones Basta ver que para todo x ∈ Sop(X),
marginales
Distribuciones
condicionadas
E [h1 (X)h2 (Y)|X = x] = h1 (x)E [h2 (Y)|X = x]
Cópulas

Variables
aleatorias En el caso continuo, es inmediato a partir de
independientes
Z ∞
Funciones de
varias variables E [h1 (X)h2 (Y)|X = x] = h1 (x)h2 (y)fY|X (y | x)dy
Correlación, −∞
varianzas y Z ∞
momentos
= h1 (x) h2 (y)fY|X (y | x)dy
Esperanza y −∞
varianza
condicionadas = h1 (x)E [h2 (Y)|X = x]
Línea de regresión - Varianza condicionada
Introducción

Introducción

Introducción
Definición. Línea de regresión
Distribuciones Dadas las variables X e Y, se denomina línea de regresión de Y
marginales y
condicionadas sobre X (Y | X) al lugar geométrico de los puntos
Distribuciones
marginales (x, E [Y |X = x ]) . Análogamente, la línea de regresión de X sobre
Distribuciones
condicionadas Y (X | Y) es el lugar geométrico de los puntos (E [X |Y = y ] , y) .
Cópulas

Variables
aleatorias
independientes Si queremos predecir Y por medio de una función de X (no
Funciones de necesariamente lineal), digamos g(X), el mejor predictor de
varias variables
acuerdo con el criterio del error cuadrático medio saldrá de
Correlación,
varianzas y n h io
momentos min E (Y − g(X))2 .
Esperanza y
g
varianza
condicionadas
Vamos a demostrar que el mejor predictor g(X) es precisamente la
esperanza condicionada E [Y |X ].
Varianza condicionada
Introducción

Introducción

Introducción Definición. Varianza condicionada


Distribuciones Se define la varianza condicionada de Y dado que X = x como
marginales y
condicionadas h i
Distribuciones
marginales var (Y | X = x) = E (Y − E(Y | X = x))2 |X = x
Distribuciones
condicionadas

Cópulas supuesto que la correspondiente suma o integral exista.


Variables
aleatorias
independientes
Definición. Varianza de Y | X
Funciones de
varias variables Se define la varianza condicionada de Y dado X y se denota como
Correlación,
varianzas y
var(Y | X) a la variable aleatoria que toma los valores
momentos var (Y |X = x ).
Esperanza y
varianza h i
condicionadas
var (Y | X) = E (Y − E(Y | X))2 |X
Teorema 13
Introducción

Introducción
Sean X e Y variables aleatorias y sea g una
 función
 medible y real.
Supongamos que E Y 2 < ∞ y que E (g (X))2 < ∞. Entonces,

Introducción

Distribuciones h i h i
marginales y
condicionadas E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables Demostración
aleatorias
independientes
h i h i
Funciones de
varias variables E (Y − g(X))2 = E (Y−E (Y |X ) + E (Y |X ) − g(X))2 =
Correlación,
varianzas y h i
momentos E (Y − E (Y |X ))2 + 2E [(Y − E (Y |X )) (E (Y |X ) − g(X))] +
Esperanza y
varianza h i
condicionadas
E (E (Y |X ) − g(X))2 .
Teorema 13
Introducción Sean X e Y variables aleatorias y sea g una
 función
 medible y real.
Supongamos que E Y 2 < ∞ y que E (g (X))2 < ∞. Entonces,

Introducción

Introducción
h i h i
Distribuciones
marginales y E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas
Demostración
Variables
aleatorias
independientes h i h i
Funciones de E (Y − g(X))2 = E (Y−E (Y |X ) + E (Y |X ) − g(X))2 =
varias variables

Correlación, h i
varianzas y
momentos
E (Y − E (Y |X ))2 + 2E [(Y − E (Y |X )) (E (Y |X ) − g(X))]+
Esperanza y h i
varianza
condicionadas
E (E (Y |X ) − g(X))2 .

= S1 + S2 + S3
Continuación... demostración del Teorema 13
Por un lado ¿S1 =h E [var(Y | X)]?. Recordemos que
Introducción

Introducción
i
2
var (Y | X) = E (Y − E(Y | X)) |X . Sabemos que
Introducción

Distribuciones h i
marginales y
condicionadas
S1 = E (Y − E (Y |X ))2
Distribuciones n h io
Teo,12
E E (Y − E (Y |X ))2 | X
marginales
Distribuciones = por def.
condicionadas

Cópulas = E {var(Y | X)}


Variables
aleatorias
independientes
Por otro lado ¿S2 = 0?
Funciones de
varias variables
S2 = 2E [(Y − E (Y |X )) (E (Y |X ) − g(X))]
Correlación, Teo,12
varianzas y = 2E {E [(Y − E (Y |X ))(E (Y |X ) − g(X)) | X]}
momentos
= 2E {(E (Y |X ) − g(X))E [(Y − E (Y |X )) | X]}
Esperanza y prop 4
varianza
condicionadas
Observar que
E [(Y − E (Y |X )) | X] = 0
Por tanto S2 = 0 y se tiene lo que se quería.
Corolario 4: Teorema de Madow
Introducción
Si E Y 2 < ∞, entonces
 
Introducción

Introducción
var (Y) = E [var (Y |X )] + var (E [Y |X ]) .
Distribuciones
marginales y
condicionadas La demostración es inmediata a partir del teorema anterior.
Distribuciones
marginales
Distribuciones
condicionadas
h i h i
Cópulas E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
Variables
aleatorias
independientes ¿Por qué?
Funciones de
varias variables
Basta considerar como g(X) la función constante e igual a E[Y], es
Correlación, decir g(X) = E[Y]. Observad que
varianzas y
momentos h i
Esperanza y E (E (Y | X) − E[Y])2 = var (E [Y |X ])
varianza
condicionadas
Cuestión propuesta: Demostrar el Teorema de Madow de forma
directa sin utilizar el Teorema 13.
Corolario 5
 
Si E Y 2 < ∞, entonces el mínimo
Introducción
n h io
Introducción 2
min E (Y − g(X))
Introducción g∈A
Distribuciones n h i o
marginales y 2
condicionadas siendo A = g : R → R medible : E (g (X)) < ∞ se alcanza
Distribuciones
marginales cuando g(X) = E [Y |X ] .
Distribuciones
condicionadas

Cópulas Demostración.
Variables Por el Teorema 13, se verifica que
aleatorias
independientes h i h i
2 2
Funciones de E (Y − g(X)) = E [var (Y |X )] + E (E (Y |X ) − g(X)) .
varias variables

Correlación, n h io
2
varianzas y
momentos
Como E [var (Y |X )] > 0, E (Y − g(X)) es mínimo cuando
Esperanza y h i
varianza 2
condicionadas E (E (Y |X ) − g(X)) = 0,

ya que dicho término es no negativo. Esto implica que g(X) = E [Y |X ] .


¿Por qué?
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura.
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X).
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X). Esto se interpreta de la
siguiente forma: dado que X = x ∈ (0, 1) , la variable Y (Y |X = x) se
distribuye uniformemente en (0, x) , Y |X = x ∼ U(0, x).
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] =
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables

Correlación, E [Y |X ] =
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables
X
Correlación, E [Y |X ] = .
varianzas y 2
momentos

Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables
X
Correlación, E [Y |X ] = .
varianzas y 2
momentos

Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas

E [Y] =
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables
X
Correlación, E [Y |X ] = .
varianzas y 2
momentos

Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas

E [Y] = E [E [Y |X ]] =
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas

Cópulas a+b (b − a)2


E[X] = y var[X] = .
Variables 2 12
aleatorias
independientes
Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,
Funciones de
varias variables
X
Correlación, E [Y |X ] = .
varianzas y 2
momentos

Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas
 
X 1 1
E [Y] = E [E [Y |X ]] = E = E [X] = .
2 2 4
Además, var [Y |X = x ] =

Introducción

Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
E [var (Y |X )] =
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
 
condicionadas 1   1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas

Cópulas Además
Variables
aleatorias
independientes
var (E [Y |X ]) =
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
 
condicionadas 1   1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas

Cópulas Además
Variables  
aleatorias
X
independientes
var (E [Y |X ]) = var =
Funciones de 2
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
 
condicionadas 1   1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas

Cópulas Además
Variables  
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables

Correlación, Finalmente, aplicando el Teorema de Madow,


varianzas y
momentos

Esperanza y var[Y] =
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
 
condicionadas 1   1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas

Cópulas Además
Variables  
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables

Correlación, Finalmente, aplicando el Teorema de Madow,


varianzas y
momentos

Esperanza y var[Y] = var (E[Y | X]) + E [var(Y | X)]


varianza
condicionadas
se tiene:
1 1 7
var (Y) = + = .
36 48 144
Ejercicio 11
Introducción

Introducción

Introducción
Sean X1 , X2 , ... variables aleatorias i.i.d. con E [Xi ] = µ yP
Distribuciones
σ 2 = var [Xi ] < ∞. Se definen las sumas parciales Sn = ni=1 Xi ,
marginales y
condicionadas
con S0 = 0. Sea N una variable aleatoria positiva, que toma
Distribuciones
marginales
valores en los naturales e independiente de las variables Xi , tal que
var(N) < ∞. Considerar la suma aleatoria SN = Ni=1 Xi .
P
Distribuciones
condicionadas

Cópulas
1 Demostrar que
Variables
aleatorias E [SN | N] = µN
independientes

Funciones de y, a partir de ella, obtener E [SN ], en términos de E[N].


varias variables

Correlación,
2 Demostrar que
varianzas y
momentos
E SN2 | N = σ 2 N + µ2 N 2
 
Esperanza y
varianza
Calcular E SN2 y var (SN ).
condicionadas
 
Ejercicio 11: Indicaciones para su solución
PN
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] =
Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] =
Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos
Por tanto
Esperanza y E[SN2 ] =
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N =
 
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
 
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
 
Esperanza y
varianza
condicionadas

var(SN ) =
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción

Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas

Cópulas E[SN ] = E (E [SN | N]) = µE[N]


Variables
aleatorias
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
independientes 2
Funciones de
E SN2 | N = n = σ 2 n + µ2 n2
 
varias variables

Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
 
Esperanza y
varianza
condicionadas

var(SN ) = E[SN2 ] − (E[SN ])2


Sustituyendo por los valores correspondientes,
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas

Cópulas

Variables
aleatorias
independientes

Funciones de
varias variables

Correlación,
varianzas y
momentos

Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X). Esto se interpreta de la
siguiente forma: dado que X = x ∈ (0, 1) , la variable Y (Y |X = x) se
distribuye uniformemente en (0, x) , Y |X = x ∼ U(0, x).
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1   1 1
E [X] = , E X 2 = , var [X] = .
Introducción

Distribuciones 2 3 12
marginales y
condicionadas 1
Distribuciones En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
condicionadas
Comprobar que
Cópulas
a+b (b − a)2
Variables E[X] = y var[X] = .
aleatorias 2 12
independientes

Funciones de Como [Y | X = x] ∼ U(0, x), entonces E [Y |X = x ] = 2x , así,


varias variables

Correlación, X
varianzas y E [Y |X ] = .
momentos 2
Esperanza y
varianza Aplicando el Teorema 12 se tiene que
condicionadas
 
X 1 1
E [Y] = E [E [Y |X ]] = E = E [X] = .
2 2 4
x2
Además, var [Y |X = x ] = 12 , es decir,

Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
 
condicionadas 1   1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas

Cópulas Además
Variables  
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables

Correlación, Finalmente, aplicando el Teorema de Madow,


varianzas y
momentos

Esperanza y var[Y] = var (E[Y | X]) + E [var(Y | X)]


varianza
condicionadas
se tiene:
1 1 7
var (Y) = + = .
36 48 144
Ejercicio 11
Introducción

Introducción

Introducción
Sean X1 , X2 , ... variables aleatorias i.i.d. con E [Xi ] = µ yP
Distribuciones
σ 2 = var [Xi ] < ∞. Se definen las sumas parciales Sn = ni=1 Xi ,
marginales y
condicionadas
con S0 = 0. Sea N una variable aleatoria positiva, que toma
Distribuciones
marginales
valores en los naturales e independiente de las variables Xi , tal que
var(N) < ∞. Considerar la suma aleatoria SN = Ni=1 Xi .
P
Distribuciones
condicionadas

Cópulas
1 Demostrar que
Variables
aleatorias E [SN | N] = µN
independientes

Funciones de y, a partir de ella, obtener E [SN ], en términos de E[N].


varias variables

Correlación,
2 Demostrar que
varianzas y
momentos
E SN2 | N = σ 2 N + µ2 N 2
 
Esperanza y
varianza
Calcular E SN2 y var (SN ).
condicionadas
 
Ejercicio 11: Indicaciones para su solución
Observad que si SN = Ni=1 Xi , entonces [SN | N = n] = ni=1 Xi
Introducción
P P
Introducción
1 Para demostrar que E [S
N | N] = µN, basta ver que
Introducción

Distribuciones E [SN | N = n] = µn.


marginales y
condicionadas
Distribuciones Por tanto,
marginales
Distribuciones
condicionadas E[SN ] = E (E [SN | N]) = µE[N]
Cópulas
Para demostrar que E SN2 | N = σ 2 N + µ2 N 2 , basta ver que
 
2
Variables
aleatorias
E SN2 | N = n = σ 2 n + µ2 n2
independientes
 
Funciones de
varias variables
Por tanto
Correlación,
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
varianzas y
 
momentos

Esperanza y
varianza var(SN ) = E[SN2 ] − (E[SN ])2
condicionadas
Sustituyendo por los valores correspondientes,
var(SN ) = σ 2 E[N] + µ2 var(N).
Cuestión 1 propuesta en el foro
Introducción

Introducción

Introducción

Distribuciones
marginales y
condicionadas
Distribuciones
marginales Sea Y una variable aleatoria continua cuya media y varianza se
Distribuciones
condicionadas
desea conocer. Para ello se considera X una variable aleatoria tal
Cópulas
que E[X] = 2, y Var[X] = 1. Sabiendo que la distribución
Variables
aleatorias condicionada Y/X = x sigue una distribución exponencial,
independientes
Exp (1/(2x)), hallar, si es posible, la esperanza y varianza de la
Funciones de
varias variables variable aleatoria Y.
Correlación,
varianzas y
momentos

Esperanza y
varianza
condicionadas
Cuestión 1: Indicaciones para la solución
Introducción

Introducción Solución:
Introducción ¿Qué conocemos?
Distribuciones
marginales y
condicionadas
Distribuciones
E[X] = 2, var(X) = 1
marginales
Distribuciones
condicionadas Además se sabe que
Cópulas  
1
Variables
aleatorias
[Y | X = x] ∼ Exp
independientes 2x
Funciones de
varias variables Si Z ∼ Exp(λ), entonces fZ (z) = λe−λz , z > 0.
Correlación,
varianzas y  
momentos 1 1
fY|X (y | x) = exp − y , y > 0
Esperanza y 2x 2x
varianza
condicionadas
Si Z ∼ Exp(λ), sabemos que E[Z] = 1/λ y var(Z) = 1/λ2 .
¿Cómo proceder para conocer E[Y] y la var(Y)?
Cuestión 1: Indicaciones para la solución
Introducción

Introducción

Introducción

Distribuciones
¿Cómo proceder para conocer E[Y] y la var(Y)?
marginales y
condicionadas
Como [Y | X = x] ∼ Exp(1/(2x)), entonces
Distribuciones
marginales
Distribuciones
condicionadas
E [Y | X = x] = 2x, var (Y | X = x) = (2x)2
Cópulas

Variables
¿Por qué?
aleatorias
independientes Teor,12
Funciones de
E[Y] = E [E(Y | X)]
varias variables

Correlación,
Teor.Madow
varianzas y
momentos
var(Y) = E [var (Y | X)] + var (E [Y | X])
Esperanza y
varianza
Continuar.... subir al foro vuestras respuestas.
condicionadas
Ejercicio 2.16
Ejercicio 2.2

Ejercicio 2.7

Ejercicio 2.11

Ejercicio 2.9

Ejercicio 2.5

Ejercicio 2.17
2.16 Supongamos que X1 y X2 tienen función de densidad
Ejercicio 10:
conjunta:
propuesto en
Teoría
λm+n+2 x1m x2n −λ(x1 +x2 )
Ejercicio 2.16 f (x1 , x2 ) = e , x1 , x2 > 0.
m!n!
Encontrar la función de densidad conjunta de Y1 = X1 + X2 y
Y2 = X1 /(X1 + X2 ) y mostrar que Y1 e Y2 son independientes.
Ejercicio 2.16: Solución
Ejercicio 2.2
λm+n+2 xm xn
1 2 −λ(x1 +x2 )
Ejercicio 2.7
f (x1 , x2 ) = m!n! e , x1 , x2 > 0.
Ejercicio 2.11
¿Cómo procedemos para hallar la densidad conjunta de (Y1 , Y2 )?
Ejercicio 2.9
Aplicaremos el Teorema de la transformación de vectores
Ejercicio 2.5
aleatorios (Teorema 10)
Ejercicio 2.17
Consideramos Y1 = X1 + X2 , Y2 = X1X+X 1
2
. Para comprobar que se
Ejercicio 10:
propuesto en verifican las hipótesis del Teorema. Consideramos
Teoría

Ejercicio 2.16
g(y1 , y2 ) = (x1 + x2 , x1x+x
1
2
) (g : R+ × R+ → R+ × R+ , biyectiva)
 
y1 = g1 (x1 , x2 ) = x1 + x2 x1 = h1 (y1 , y2 ) = y1 · y2
y2 = g2 (x1 , x2 ) = x1x+x
1
2
x2 = h2 (y1 , y2 ) = y1 (1 − y2 )

∂xi
Tanto g como h son continuas, y las derivadas parciales ∂y j
, para
i, j = 1, 2 existen y son continuas. El jacobiano de la
y2 y1
transformación inversa, J = = −y1 6= 0
1 − y2 −y1
Ejercicio 2.16: Solución
Ejercicio 2.2
λm+n+2 xm xn
1 2 −λ(x1 +x2 )
Ejercicio 2.7 f (x1 , x2 ) = m!n! e , x1 , x2 > 0.
Ejercicio 2.11 Entonces aplicando el Teorema 10, la función de densidad
Ejercicio 2.9
conjunta de (Y1 , Y2 ) viene dada por
Ejercicio 2.5

Ejercicio 2.17
fY1 ,Y2 (y1 , y2 ) = |J| · f (h1 (y1 , y2 ) , h2 (y1 , y2 ))
Ejercicio 10:
propuesto en
Teoría Sustituyendo por los valores correspondientes
Ejercicio 2.16

fY1 ,Y2 (y1 , y2 ) = y1 f (y1 y2 , y1 (1 − y2 ))


λm+n+2 (y1 y2 )m (y1 (1 − y2 ))n −λy1
= y1 e
m!n!
λm+n+2 m+n+1 −λy1 m
= y e y2 (1 − y2 )n
m!n! 1
para y1 > 0, 0 < y2 < 1.
Continuar.... mejor cuando se vea el tema 3

También podría gustarte