Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Tema 2: Vectores aleatorios
Cópulas
Variables
aleatorias
independientes Teoría de la Probabilidad
Funciones de
varias variables
Grado en Matemáticas
Correlación,
varianzas y
momentos
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Distribuciones
marginales y
condicionadas Hay ocasiones en las que el resultado de un experimento
Distribuciones
marginales aleatorio se expresa mediante un conjunto de números.
Distribuciones
condicionadas
Si lanzamos dos dados, observaremos como resultado una
Cópulas
pareja (x, y) de números, donde x representa el valor que
Variables
aleatorias toma el primer dado e y el valor que toma el segundo.
independientes
Funciones de
Otro ejemplo podría ser la observación conjunta de la altura
varias variables de una conjunto de padres (X) con la altura de uno de sus
Correlación,
varianzas y
hijos (Y), obtenemos el vector aleatorio (X, Y), nos interesará
momentos estudiar si existe algún tipo de relación de dependencia entre
Esperanza y
varianza
ellos.
condicionadas
Para describir matemáticamente este tipo de experimentos,
estudiamos las variables aleatorias multidimensionales, (nos
centramos en el caso bivariante o bidimensional).
Definición formal de vector aleatorio bivariante
Introducción
Distribuciones
marginales y
condicionadas Definición
Distribuciones
marginales
Distribuciones
Sea (Ω, S) un espacio medible. Una función X : Ω → R2 definida
condicionadas
por
Cópulas
X (ω) = (X1 (ω) , X2 (ω)) , ω ∈ Ω,
Variables
aleatorias
independientes es una variable aleatoria bidimensional (o un vector aleatorio de
Funciones de dimensión 2) si la imagen inversa de cualquier intervalo
varias variables
Correlación,
bidimensional de la forma
varianzas y
momentos
I = {(x1 , x2 ) : −∞ < xi ≤ ai , ai ∈ R, i = 1, 2}
Esperanza y
varianza
condicionadas
es un suceso, es decir, si
es un suceso, es decir, si
Distribuciones
marginales y Se puede demostrar que si X1 y X2 son variables aleatorias
condicionadas
Distribuciones definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
marginales
Distribuciones
condicionadas
Cópulas
Más generalmente:
Variables
aleatorias
Teorema
independientes
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Funciones de
varias variables Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación, sobre (Ω, S) .
varianzas y
momentos
Esperanza y
varianza
condicionadas
Vector aleatorio
Introducción
Distribuciones
marginales y Se puede demostrar que si X1 y X2 son variables aleatorias
condicionadas
Distribuciones definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
marginales
Distribuciones
condicionadas
Cópulas
Más generalmente:
Variables
aleatorias
Teorema
independientes
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Funciones de
varias variables Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Correlación, sobre (Ω, S) .
varianzas y
momentos
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
En adelante, nos restringimos al caso n = 2 (variables aleatorias
Distribuciones
condicionadas bidimensionales), que denotaremos (X, Y).
Cópulas
Variables
Función de distribución asociada a (X, Y)
aleatorias
independientes Sea (X, Y) un vector aleatorio bidimensional definido sobre un
Funciones de espacio de probabilidad (Ω, S, P) . La función F : IR 2 −→ [0, 1]
varias variables
Correlación,
definida por
varianzas y
momentos
F(x, y) = P [X ≤ x, Y ≤ y] , (x, y) ∈ IR 2 , (1)
Esperanza y
varianza
condicionadas
se llama función de distribución asociada al vector (X, Y) .
Función de distribución
Introducción
Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas
Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas
Distribuciones
marginales y
condicionadas Se puede demostrar que
Distribuciones
marginales
Distribuciones
(a) F(x, y) es no decreciente y continua por la derecha con
condicionadas
respecto a cada coordenada.
Cópulas
Variables
aleatorias
independientes
(b) lim F(x, y) = F (+∞, +∞) = 1
x→∞,y→∞
Funciones de
varias variables
lim F(x, y) = F (x, −∞) = 0 para todo x
y→−∞
Correlación,
varianzas y
momentos
lim F(x, y) = F (−∞, y) = 0 para todo y
x→−∞
Esperanza y
varianza
condicionadas Sin embargo, las condiciones (a), (b). anteriores no garantizan que
una función F (x, y) sea una función de distribución, como
muestra el siguiente ejemplo.
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 1
Cópulas
Sea F una función bivariante definida por
Variables
aleatorias
independientes 0, x < 0 ó y < 0 ó x + y < 1
F (x, y) =
Funciones de
varias variables
1 en otro caso
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas Ejemplo 1 (cont.)
Distribuciones
marginales La función F satisface las propiedades (a),(b) anteriores. Sin
Distribuciones
condicionadas embargo, no es una función de distribución ya que:
Cópulas
Variables 1 1
aleatorias P < X ≤ 1, < Y ≤ 1
independientes 3 3
Funciones de
varias variables
1 1 1 1
Correlación, = F (1, 1) + F , −F , 1 − F 1,
varianzas y 3 3 3 3
momentos
Esperanza y = 1 + 0 − 1 − 1 = −1 0.
varianza
condicionadas
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 es la función de distribución
Variables
aleatorias asociada a cierto vector aleatoria X si y sólo satisface las
independientes
Funciones de
propiedades (a) y (b) anteriores y para todo (x1 , x2 ) , (y1 , y2 ) con
varias variables x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 es la función de distribución
Variables
aleatorias asociada a cierto vector aleatoria X si y sólo satisface las
independientes
Funciones de
propiedades (a) y (b) anteriores y para todo (x1 , x2 ) , (y1 , y2 ) con
varias variables x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
No se dará la demostración de este resultado
Casos discreto y continuo
Introducción
A continuación se definirán algunos tipos de vectores aleatorios.
Distribuciones
marginales y
condicionadas Vector aleatorio discreto
Distribuciones
marginales Un vector (X, Y) es de tipo discreto si toma pares de valores que
Distribuciones
condicionadas
pertenecen a un conjunto E numerable con probabilidad 1.
Cópulas
Llamamos función de masa de probabilidad (conjunta) del vector
Variables
aleatorias (X, Y) a
independientes
Funciones de
varias variables
pi,j = P [X = xi , Y = yj ] , i = 1, 2, ..., j = 1, 2, .....
Correlación,
varianzas y
momentos Teorema
Esperanza y Cualquier conjunto de números
varianza n
condicionadas
P
{pi,j ≥ 0 : i = 1, 2, ...; j = 1, 2, ...} tal que pi,j = 1 es la
i,j=1
función de masa de probabilidad de algún vector (X, Y) .
Distribuciones Ejemplo 2
marginales y
condicionadas
Distribuciones
Se considera el experimento aleatorio consistente en lanzar un
marginales
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
número obtenido e Y la variable aleatoria que describe el número
Cópulas
de resultados pares obtenidos. Calcular la función de masa de
Variables
aleatorias probabilidad conjunta.
independientes
Funciones de
varias variables
Correlación, Y \X 1 2 3 4 5 6
varianzas y
momentos 0
Esperanza y 1
varianza
condicionadas 2
Ejemplo 2
Introducción
Se considera el experimento aleatorio consistente en lanzar un
Distribuciones
marginales y dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
Distribuciones número obtenido e Y la variable aleatoria que describe el número
marginales
Distribuciones de resultados pares obtenidos. Calcular la función de masa de
condicionadas
Cópulas
probabilidad conjunta.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0
varianzas y
momentos 2 0 5/36 0 3/36 0 1/36
Esperanza y
varianza
condicionadas Se puede comprobar que efectivamente,
X
P(X = xi , Y = yj ) = 1.
i,j
En el caso continuo...
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Definición
Cópulas Un vector (X, Y) es de tipo continuo si existe una función no
Variables
aleatorias
negativa f : IR 2 → IR tal que para cada (x, y) ∈ IR 2 se tiene
independientes
Z x Z y
Funciones de
varias variables F (x, y) = f (u, v) dv du
Correlación, −∞ −∞
varianzas y
momentos
donde F es la función de distribución de (X, Y). La función f es la
Esperanza y
varianza función de densidad (conjunta) del vector (X, Y) .
condicionadas
Propiedades:
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Se verifica que
condicionadas
RbRd
1 P (a < X < b, c < Y < d) = a c f (x, y)dydx,
Cópulas
2
Variables
aleatorias
Z +∞ Z +∞
independientes F (+∞, +∞) = f (u, v) dv du = 1.
Funciones de −∞ −∞
varias variables
Correlación,
3 Además, si f es continua en (x, y) :
varianzas y
momentos
∂ 2 F (x, y)
Esperanza y = f (x, y) .
varianza ∂x∂y
condicionadas
Caracterización de función de densidad
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema - Caso continuo
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema - Caso continuo
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3
Cópulas
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Variables
aleatorias −(x+y)
independientes e , 0 < x < ∞, 0 < y < ∞
Funciones de
f (x, y) =
varias variables
0, en otro caso
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3 (cont.)
Cópulas Entonces,
Variables
aleatorias
F (x, y) = (1 − e−x ) (1 − e−y ) , 0 < x < ∞, 0 < y < ∞
independientes
Funciones de
varias variables
Ejercicio: Calcular F(x, y) para el resto de valores de (x, y) ∈ IR 2
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas Ejemplo 4
Distribuciones
marginales
Distribuciones
Sean X e Y dos v.a.’s con función de densidad conjunta dada por:
condicionadas
Cópulas
x + y, 0 ≤ x, y ≤ 1.
Variables f (x, y) =
aleatorias 0, en otro caso
independientes
Funciones de
varias variables Ejercicio
Correlación,
varianzas y Demostrar que f (x, y) satisface las propiedades de una función de
momentos
densidad, calcular F(x, y) y P(X ≤ 0,5, Y ≤ 0,75).
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Tema 2: Vectores aleatorios
Cópulas
Variables
aleatorias
independientes Teoría de la Probabilidad
Funciones de
varias variables
Grado en Matemáticas
Correlación,
varianzas y
momentos
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Distribuciones
marginales y
condicionadas Hay ocasiones en las que el resultado de un experimento
Distribuciones
marginales aleatorio se expresa mediante un conjunto de números.
Distribuciones
condicionadas
Si lanzamos dos dados, observaremos como resultado una
Cópulas
pareja (x, y) de números, donde x representa el valor que
Variables
aleatorias toma el primer dado e y el valor que toma el segundo.
independientes
Funciones de
Otro ejemplo podría ser la observación conjunta de la altura
varias variables de una conjunto de padres (X) con la altura de uno de sus
Correlación,
varianzas y
hijos (Y), obtenemos el vector aleatorio (X, Y), nos interesará
momentos estudiar si existe algún tipo de relación de dependencia entre
Esperanza y
varianza
ellos.
condicionadas
Para describir matemáticamente este tipo de experimentos,
estudiamos las variables aleatorias multidimensionales, (nos
centramos en el caso bivariante o bidimensional).
Definición formal de vector aleatorio bivariante
Introducción
Correlación,
varianzas y
I = {(x1 , x2 ) : −∞ < xi ≤ ai , ai ∈ R, i = 1, 2}
momentos
Esperanza y
varianza
es un suceso, es decir, si
condicionadas
es un suceso, es decir, si
Distribuciones
marginales y
condicionadas Se puede demostrar que si X1 y X2 son variables aleatorias
Distribuciones
marginales definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
Distribuciones
condicionadas
Esperanza y
varianza
condicionadas
Vector aleatorio
Introducción
Distribuciones
marginales y
condicionadas Se puede demostrar que si X1 y X2 son variables aleatorias
Distribuciones
marginales definidas en (Ω, S), entonces X = (X1 , X2 ) es un vector aleatorio.
Distribuciones
condicionadas
Esperanza y
varianza
La demostración de este resultado se propone como ejercicio a
condicionadas resolver durante la sesión del lunes, 16 de marzo. Intentadlo para
el caso de n = 2, análogamente se realiza el caso general
Igualmente se propone demostrar el recíproco.
Demostración del Teorema 1 para el caso n=2
Introducción
Teorema 1
Distribuciones
marginales y
condicionadas
Sean X1 , ..., Xn n variables aleatorias definidas sobre (Ω, S) .
Distribuciones
marginales
Entonces, X = (X1 , ..., Xn ) es un vector n-dimensional definido
Distribuciones
condicionadas sobre (Ω, S) .
Cópulas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
En adelante, nos restringimos al caso n = 2 (variables aleatorias
Distribuciones
condicionadas bidimensionales), que denotaremos (X, Y).
Cópulas
Variables
Función de distribución asociada a (X, Y)
aleatorias
independientes Sea (X, Y) un vector aleatorio bidimensional definido sobre un
Funciones de espacio de probabilidad (Ω, S, P) . La función F : IR 2 −→ [0, 1]
varias variables
Correlación,
definida por
varianzas y
momentos
F(x, y) = P [X ≤ x, Y ≤ y] , para todo (x, y) ∈ IR 2 , (1)
Esperanza y
varianza
condicionadas
se llama función de distribución asociada al vector (X, Y) .
Propiedad de la Función de distribución
Introducción
Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas
Distribuciones
marginales y
condicionadas La relación en el caso univariante P(a < X ≤ b) = F(b) − F(a)
Distribuciones
marginales
Distribuciones
se generaliza al caso bivariante como
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Función de distribución
Introducción
Distribuciones
marginales y
condicionadas Se puede demostrar que
Distribuciones
marginales
Distribuciones
(a) F(x, y) es no decreciente y continua por la derecha con
condicionadas
respecto a cada coordenada.
Cópulas
Variables
aleatorias
independientes
(b) lim F(x, y) = F (+∞, +∞) = 1
x→∞,y→∞
Funciones de
varias variables
lim F(x, y) = F (x, −∞) = 0 para todo x
y→−∞
Correlación,
varianzas y
momentos
lim F(x, y) = F (−∞, y) = 0 para todo y
x→−∞
Esperanza y
varianza
condicionadas Sin embargo, las condiciones (a), (b). anteriores no garantizan que
una función F (x, y) sea una función de distribución, como
muestra el siguiente ejemplo.
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 1
Cópulas
Sea F una función bivariante definida por
Variables
aleatorias
independientes 0, x < 0 ó y < 0 ó x + y < 1
F (x, y) =
Funciones de
varias variables
1 en otro caso
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas Ejemplo 1 (cont.)
Distribuciones
marginales La función F satisface las propiedades (a),(b) anteriores. Sin
Distribuciones
condicionadas embargo, no es una función de distribución ya que:
Cópulas
Variables 1 1
aleatorias P < X ≤ 1, < Y ≤ 1
independientes 3 3
Funciones de
varias variables
1 1 1 1
Correlación, = F (1, 1) + F , −F , 1 − F 1,
varianzas y 3 3 3 3
momentos
Esperanza y = 1 + 0 − 1 − 1 = −1 0.
varianza
condicionadas
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema 2: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 que toma valores en [0, 1] es
Variables
aleatorias la función de distribución asociada a cierto vector aleatoria X si y
independientes
Funciones de
sólo si satisface las propiedades (a) y (b) anteriores y para todo
varias variables (x1 , x2 ) , (y1 , y2 ) con x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
Caracterización de función de distribución
Introducción bivariante
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Teorema 2: Caracterización de Función de distribución
Cópulas
Una función real F definida sobre IR 2 que toma valores en [0, 1] es
Variables
aleatorias la función de distribución asociada a cierto vector aleatoria X si y
independientes
Funciones de
sólo si satisface las propiedades (a) y (b) anteriores y para todo
varias variables (x1 , x2 ) , (y1 , y2 ) con x1 < x2 e y1 < y2 , se verifica
Correlación,
varianzas y
momentos F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) ≥ 0.
Esperanza y
varianza
condicionadas
De esta forma se garantiza que P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) sea
no negativa.
No se dará la demostración de este resultado
Casos discreto y continuo
Introducción
Vector aleatorio discreto
Distribuciones
marginales y
condicionadas
Un vector (X, Y) es de tipo discreto si toma pares de valores que
Distribuciones
marginales
pertenecen a un conjunto E = {(xi , yj ), i ≥ 1, j ≥ 1} ⊂ IR 2
Distribuciones
condicionadas
numerable con probabilidad 1. Llamamos función de masa de
Cópulas probabilidad (conjunta) del vector (X, Y) a
Variables
aleatorias
independientes pi,j = P [X = xi , Y = yj ] , i = 1, 2, ..., j = 1, 2, .....
Funciones de P
varias variables Observemos que se verifica que pi,j ≥ 0 y i,j≥1 pi,j = 1
Correlación,
varianzas y
momentos
Teorema 4- Caso discreto
Esperanza y
varianza Cualquier conjunto de números
condicionadas P
{pi,j ≥ 0 : i = 1, 2, ...; j = 1, 2, ...} tal que pi,j = 1 es la
i,j≥1
función de masa de probabilidad de algún vector (X, Y) .
Variables
probabilidad conjunta.
aleatorias
independientes
Funciones de
varias variables Y \X 1 2 3 4 5 6
Correlación, 0
varianzas y
momentos 1
Esperanza y 2
varianza
condicionadas
Introducción Ejemplo 2
Distribuciones
marginales y Se considera el experimento aleatorio consistente en lanzar un
condicionadas
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
marginales
Distribuciones
número obtenido e Y la variable aleatoria que describe el número
condicionadas
de resultados pares obtenidos. Calcular la función de masa de
Cópulas
Variables
probabilidad conjunta.
aleatorias
independientes
Funciones de
varias variables Y \X 1 2 3 4 5 6
Correlación, 0
varianzas y
momentos 1
Esperanza y 2
varianza
condicionadas
Cópulas
probabilidad conjunta.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0
varianzas y
momentos 2 0 5/36 0 3/36 0 1/36
Esperanza y
varianza
condicionadas Se puede comprobar que efectivamente,
X
P(X = xi , Y = yj ) = 1.
i,j
En el caso continuo...
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Definición
Cópulas Un vector (X, Y) es de tipo continuo si existe una función no
Variables
aleatorias
negativa f : IR 2 → IR tal que para cada (x, y) ∈ IR 2 se tiene
independientes
Z x Z y
Funciones de
varias variables F (x, y) = f (u, v) dv du
Correlación, −∞ −∞
varianzas y
momentos
donde F es la función de distribución de (X, Y). La función f es la
Esperanza y
varianza función de densidad (conjunta) del vector (X, Y) .
condicionadas
Propiedades:
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Se verifica que
condicionadas
RbRd
1 P (a < X < b, c < Y < d) = a c f (x, y)dydx,
Cópulas
2
Variables
aleatorias
Z +∞ Z +∞
independientes F (+∞, +∞) = f (u, v) dv du = 1.
Funciones de −∞ −∞
varias variables
Correlación,
3 Además, si f es continua en (x, y) :
varianzas y
momentos
∂ 2 F (x, y)
Esperanza y = f (x, y) .
varianza ∂x∂y
condicionadas
Caracterización de función de densidad
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema 5 - Caso continuo
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Teorema 5 - Caso continuo
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3
Cópulas
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Variables
aleatorias −(x+y)
independientes e , 0 < x < ∞, 0 < y < ∞
Funciones de
f (x, y) =
varias variables
0, en otro caso
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas Ejemplo 3 (cont.)
Cópulas Entonces,
Variables
aleatorias
F (x, y) = (1 − e−x ) (1 − e−y ) , 0 < x < ∞, 0 < y < ∞
independientes
Funciones de
varias variables
Ejercicio: Calcular F(x, y) para el resto de valores de (x, y) ∈ IR 2
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Introducción
Distribuciones
marginales y
condicionadas Ejemplo 4
Distribuciones
marginales
Distribuciones
Sean X e Y dos v.a.’s con función de densidad conjunta dada por:
condicionadas
Cópulas
x + y, 0 ≤ x, y ≤ 1.
Variables f (x, y) =
aleatorias 0, en otro caso
independientes
Funciones de
varias variables Ejercicio
Correlación,
varianzas y Demostrar que f (x, y) satisface las propiedades de una función de
momentos
densidad, calcular F(x, y) y P(X ≤ 0,5, Y ≤ 0,75).
Esperanza y
varianza
condicionadas
Contenido
Introducción
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Variables
las secuencias {pi .}i y {p.j }j representan distribuciones de masa
aleatorias
independientes
de probabilidad.
Funciones de
varias variables
Distribuciones marginales en el caso discreto
Correlación, La distribución de probabilidades {pi .} se llama función de masa
varianzas y
momentos de probabilidad MARGINAL de X (ó distribución MARGINAL
Esperanza y
varianza
de X) y la distribució {p.j } se llama función de masa de
condicionadas probabilidad MARGINAL de Y (ó distribución MARGINAL de
Y).
Introducción
Distribuciones
marginales y
Ejemplo 2 (cont.)
condicionadas
Distribuciones
Se considera el experimento aleatorio consistente en lanzar un
marginales
Distribuciones
dado dos veces. Sea X la variable aleatoria que describe el menor
condicionadas
número obtenido e Y la variable aleatoria que describe el número
Cópulas de resultados pares obtenidos. Calcular las funciones de masa de
Variables
aleatorias
probabilidad conjunta y marginales.
independientes
Funciones de
varias variables Y \X 1 2 3 4 5 6 P(Y = y)
Correlación,
varianzas y
0 5/36 0 3/36 0 1/36 0
momentos 1 6/36 4/36 4/36 2/36 2/36 0
Esperanza y 2 0 5/36 0 3/36 0 1/36
varianza
condicionadas P(X = x) 1
Introducción
Ejemplo 2 (cont.)
Distribuciones Se considera el experimento aleatorio consistente en lanzar un
marginales y
condicionadas dado dos veces. Sea X la variable aleatoria que describe el menor
Distribuciones
marginales
número obtenido e Y la variable aleatoria que describe el número
Distribuciones
condicionadas
de resultados pares obtenidos. Calcular las funciones de masa de
Cópulas probabilidad conjunta y marginales.
Variables
aleatorias
independientes
Y \X 1 2 3 4 5 6 P(Y = y)
Funciones de
varias variables 0 5/36 0 3/36 0 1/36 0 9/36
Correlación, 1 6/36 4/36 4/36 2/36 2/36 0 18/36
varianzas y
momentos
2 0 5/36 0 3/36 0 1/36 9/36
Esperanza y
P(X = x) 11/36 9/36 7/36 5/36 3/36 1/36 1
varianza
condicionadas
Es decir
P[X = 1] = 11/36, P[X = 2] = 9/36, P[X = 3] = 7/36 . . .
P[Y = 0] = 9/36, P[Y = 1] = 18/36, P[Y = 2] = 9/36
Distribuciones marginales: Caso continuo
Introducción
Distribuciones
marginales y
condicionadas
Sea (X, Y) un vector aleatorio de tipo continuo con función de
Distribuciones
marginales
densidad conjunta f (x, y) , entonces
Distribuciones
condicionadas Z ∞
Cópulas fX (x) = f (x, y)dy ≥ 0
Variables −∞
aleatorias
independientes Z ∞
Funciones de fY (y) = f (x, y)dx ≥ 0
varias variables
−∞
Correlación, R∞ R∞
y −∞ fX (x)dx = 1, −∞ fY (y)dy = 1.
varianzas y
momentos
Esperanza y
varianza Se deduce que fX (x) y fY (y) son funciones de densidad. Se les
condicionadas
llama función de densidad marginal de X, y función de densidad
marginal de Y, respectivamente. A partir de ellas se obtienen de
forma natural las funciones de distribución marginales de X e Y.
Observemos...
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Para obtener la función de densidad marginal de X en el
condicionadas
punto x, es decir fX (x), a partir de la función de densidad
Cópulas
conjunta f (x, y) debemos integrar en todos los posibles
Variables
aleatorias valores de y, para cada valor de x fijado. Es lo que se hace en
independientes
Funciones de
el ejemplo siguiente.
varias variables
Para obtener la función de densidad marginal de Y en el
Correlación,
varianzas y punto y, es decir fY (y), a partir de la función de densidad
momentos
conjunta f (x, y) debemos integrar en todos los posibles
Esperanza y
varianza valores de x, para cada valor de y fijado. Es lo que se hace en
condicionadas
el ejemplo siguiente.
Ejemplo 5
Sea (X, Y) un vector aleatorio con función de densidad conjunta
Introducción
dada por
Distribuciones
marginales y 2, 0 < x < y < 1
condicionadas f (x, y) = .
Distribuciones 0, en otro caso
marginales
Distribuciones
condicionadas Las funciones de densidad marginales son:
Cópulas
Z 1
Variables 2 − 2x, 0 < x < 1
aleatorias fX (x) = 2dy =
independientes x 0, en otro caso
Funciones de
varias variables y Z y
Correlación, 2y, 0 < y < 1
varianzas y fY (y) = 2dx =
momentos
0 0, en otro caso
Esperanza y
varianza
condicionadas Se recomienda pintar el soporte de (X,Y), es decir el recinto
donde f (x, y) > 0, en este caso se trata del triángulo
{(x, y) : 0 < x < y < 1}. Para obtener fX (x), se debe integrar
f (x, y) en todos los posibles valores de y, para cada x fijado. En
este caso casi que no es necesario pintar el recinto, ya que
claramente para cada x fijado la variable y varía entre x y 1
Funciones de distribución marginales
Introducción
La función de distribución marginal de X
Distribuciones
marginales y
condicionadas
Sea (X, Y), con F (x, y) su f. distribución conjunta. La función de
Distribuciones
marginales
distribución marginal de X es
Distribuciones
condicionadas
Cópulas
FY (y) = F (+∞, y) = lim F (x, y) .
Variables x→∞
aleatorias
independientes
Funciones de
varias variables Si (X, Y) es de tipo discreto
Correlación, X
varianzas y
momentos FY (y) = p.j
Esperanza y yj ≤y
varianza
condicionadas
Si (X, Y) es de tipo continuo
Z y
FY (y) = fY (t)dt.
−∞
Distribuciones condicionadas: Recordemos...
Introducción
Distribuciones
Recordemos que, dados dos sucesos A y B con P (B) > 0, la
marginales y
condicionadas
probabilidad de A condicionada a B se define como
Distribuciones
marginales
Distribuciones P (A ∩ B)
condicionadas P (A | B) = .
Cópulas
P (B)
Variables
aleatorias Si consideramos los conjuntos
independientes
Funciones de
varias variables
A = {X = xi } = {(xi , y) : −∞ < y < ∞}
Correlación,
varianzas y
momentos
y
Esperanza y
B = {Y = yj } = {(x, yj ) : −∞ < x < ∞}
varianza
condicionadas donde P(B) = p.j > 0, se tiene que
A ∩ B = {X = xi , Y = yj } y
pij
P [X = xi |Y = yj ] = .
p.j
Distribuciones condicionadas: Caso discreto
Introducción
Fijado j se tiene que
Distribuciones
marginales y
condicionadas n
pij X
Distribuciones
marginales P (X = xi |Y = yj ) = ≥ 0, P (X = xi |Y = yj ) = 1.
Distribuciones p.j
condicionadas i=1
Cópulas
Variables
aleatorias
independientes Función de masa de probabilidad de X |Y = yj
Funciones de
varias variables Sea (X, Y) un vector aleatorio de tipo discreto. Si P (Y = yj ) > 0,
Correlación, la función
varianzas y
momentos
P (X = xi , Y = yj )
Esperanza y P (X = xi |Y = yj ) = , 1≤i≤n
varianza
condicionadas
P (Y = yj )
Cópulas
X 1 2 3 4 5 6
Variables
aleatorias P(X = x |Y = 1 )
independientes
Funciones de
varias variables
Esperanza y P (X = 2, Y = y)
varianza P (Y = y |X = 2 ) =
condicionadas P (X = 2)
Y 0 1 2
P(Y = y |X = 2 )
Ejemplo 2 (cont.)
Introducción
Obtener la distribución condicionada X |Y = 1 .
Distribuciones
marginales y
condicionadas P (X = x, Y = 1)
Distribuciones P (X = x |Y = 1 ) =
marginales
Distribuciones
P (Y = 1)
condicionadas
Cópulas
X 1 2 3 4 5 6
Variables
aleatorias P(X = x |Y = 1 ) 1/3 2/9 2/9 1/9 1/9 0
independientes
Funciones de
varias variables
Esperanza y P (X = 2, Y = y)
varianza P (Y = y |X = 2 ) =
condicionadas P (X = 2)
Y 0 1 2
P(Y = y |X = 2 ) 0 4/9 5/9
Distribuciones condicionadas: Caso continuo
Introducción
Distribuciones
marginales y
condicionadas
Supongamos que (X, Y) es una vector aleatorio continuo con
Distribuciones
marginales
función de densidad conjunta f (x, y).
Distribuciones
condicionadas Nuestro objetivo es definir la función de distribución de la
Cópulas
variable aleatoria X condicionada a que Y = y, i.e. X | Y = y,
Variables
aleatorias para un valor y fijado.
independientes
Sabemos que P(Y = y) = 0, para cualquier valor y. Ya que la
Funciones de
varias variables v.a. Y es continua.
Correlación,
varianzas y Por tanto no estaría definida la siguiente probabilidad
momentos
condicionada P (X ≤ x | Y = y). Recordad que para definir
Esperanza y
varianza P(A | B) debe cumplirse que P(B) > 0.
condicionadas
Consideremos ε > 0 y supongamos que
P(y − ε < Y < y + ε) > 0. Para cada x, sí que está definida
la probabilidad condicionada P (X ≤ x | Y ∈ (y − ε, y + ε)).
Distribuciones condicionadas: Caso continuo
Introducción
Distribuciones
marginales y
condicionadas Así, podemos aplicar la definición de probabilidad
Distribuciones
marginales condicionada
Distribuciones
condicionadas
Cópulas P (X ≤ x | Y ∈ (y − ε, y + ε)) =
Variables
aleatorias
independientes
P (X ≤ x, y − ε < Y < y + ε)
Funciones de P (Y ∈ (y − ε, y + ε))
varias variables
.
Correlación,
varianzas y Estamos interesados en los casos donde el siguiente límite
momentos
Esperanza y
existe
varianza lim P (X ≤ x |Y ∈ (y − ε, y + ε) )
condicionadas ε→0+
Distribuciones
Función de distribución de X | Y = y con y un valor fijado
marginales y
condicionadas Se define la función de distribución de la v.a. X condicionada a
Distribuciones
marginales que Y = y, siempre que el siguiente límite exista,
Distribuciones
condicionadas
Esperanza y
Z x
varianza
condicionadas
FX|Y (x | y) = fX|Y (t | y)dt, para todo x ∈ R.
−∞
Distribuciones
marginales y
condicionadas Teorema 6
Distribuciones
marginales Sea (X, Y) un vector aleatorio con función de densidad conjunta f ,
Distribuciones
condicionadas
y sea fY la función de densidad marginal de Y. Si f es continua en
Cópulas
(x, y) , fY (y) > 0 y fY es continua en y, la función de densidad de
Variables
aleatorias X condicionada a Y = y existe y se verifica que
independientes
Funciones de f (x, y)
varias variables fX|Y (x | y) = .
Correlación,
fY (y)
varianzas y
momentos
Si fX (x) > 0 y es continua en x, la función de densidad de Y
Esperanza y
varianza condicionada a X = x existe y se verifica que
condicionadas
f (x, y)
fY|X (y | x) = .
fX (y)
Demostración del Teorema 6
Introducción
Distribuciones Demostración.
marginales y
condicionadas Sea (x, y) ∈ R2 tal que P [Y ∈ (y − ε, y + ε)] > 0. Entonces,
Distribuciones
marginales
Distribuciones
condicionadas FX|Y (x | y) = lı́m P [X ≤ x |Y ∈ (y − ε, y + ε) ]
Cópulas
ε→0+
Variables Rx hR i
y+ε
y−ε f (u, v) dv du
aleatorias
independientes −∞
Funciones de
= lı́m R y+ε
ε→0+
varias variables y−ε fY (v) dv
Correlación,
varianzas y Dividiendo numerado y denominado entre 2ε, y tomando el límite
momentos
cuando ε → 0+ ,
Esperanza y
varianza Rx Z x
−∞ f (u, y) du f (u, y)
condicionadas
FX|Y (x | y) = = du
fY (y) −∞ fY (y)
Variables
aleatorias es decir, la distribución de Y | X (se lee “Y condicionada a X”) es
independientes
uniformea sobre (x, 1) . De forma similar,
Funciones de
varias variables
f (x, y) 1
Correlación, fX|Y (x | y) = = , 0 < x < y,
varianzas y
momentos
fY (y) y
Esperanza y
varianza es decir, la distribución de X | Y es uniforme sobre (0, y) .
condicionadas
a 1
U ∼ Unif (a, b) si fU (u) = b−a
, para u ∈ (a, b).
Ejemplo 5 (cont.)
A partir de las distribuciones condicionadas podemos calcular
Introducción
Distribuciones
probabilidades, por ejemplo:
marginales y
1 00
condicionadas Z 1
1 1
Distribuciones
marginales P Y ≥ | “X = = dy = 1,
Distribuciones 2 2 1 1 − 1
condicionadas 2 2
Cópulas
Z 2
2 00
Variables 1 3 1 1
aleatorias P X ≥ | “Y = = 2
dy = .
independientes 3 3 1
3
2
3
Funciones de
varias variables 00
Observad que el uso de las comillas, por ejemplo en “X = 12 es para
Correlación,
varianzas y hacer notar que al ser un vector aleatorio continuo no se puede aplicar la
momentos
Esperanza y
definición de probabilidad condicionada habitual, en su lugar habría que
varianza interpretarlo a través del límite que se ha visto en la definición de la
condicionadas
función de distribución condicionada. Aunque eso ya no es necesario,
basta darse cuenta que si no hubiese ningún suceso condicionando se
resolvería integrando la función de densidad de Y, ahora bien como se
está trabajando con la distribución condicionada de Y a que X = 1/2,
entonces hay que integrar la densidad condicionada correspondiente.
Para practicar
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas Ejercicio 3
Variables
aleatorias Hallar la función de distribución conjunta del vector aleatorio
independientes
(X, Y) que tiene como función de densidad a
Funciones de
varias variables
6
Correlación,
varianzas y
f (x, y) = (x + y2 ), x, y ∈ [0, 1].
momentos
5
Esperanza y
varianza
condicionadas
Para practicar
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones Ejercicio 4
marginales
Distribuciones
condicionadas Sea vector aleatorio (X, Y) con función de densidad a
Cópulas
Funciones de
Se pide:
varias variables
a) Comprobar que f (x, y) es función de densidad.
Correlación,
varianzas y
momentos
b) Calcular E(X) y E(Y).
Esperanza y c) Calcular las distribuciones condicionadas.
varianza
condicionadas d) Hallar P(X < 0,5, Y < 0), P(X > 0,5, −0,5 < Y < 0,5),
E(Y|X = 0,5).
Contenido
Introducción
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Distribuciones
marginales y
condicionadas
La distribución conjunta F(x, y) de un vector aleatorio (X, Y)
Distribuciones
marginales
determina de forma unívoca las distribuciones marginales de sus
Distribuciones
condicionadas
componentes, FX (x), FY (y).
Cópulas FX (x) = lı́my→∞ F(x, y); FY (y) = lı́mx→∞ F(x, y).
Variables Nota: Cuando se dice distribución conjunta, nos podemos referir
aleatorias
independientes al conocimiento de la función de distribución conjunta (en
Funciones de general), o bien si (X, Y) es discreto al conocimiento de la función
varias variables
de masa de probabilidad conjunta, o si (X, Y) es continuo al
Correlación,
varianzas y conocimiento de la función de densidad conjunta. Análogamente
momentos
Esperanza y
cuando decimos distribuciones marginales.
varianza En general, sin embargo, el conocimiento de las distribuciones
condicionadas
marginales no es suficiente para determinar la distribución
conjunta.
Así dadas FX y FY , por ejemplo se pueden construir infinitas
Introducción funciones de distribución bidimensionales F(x, y) con las
Distribuciones
marginales y
distribuciones marginales dadas.
condicionadas
Distribuciones
marginales
Familia de funciones de distribución con marginales dadas
Distribuciones
condicionadas Sean FX (x), FY (y) distribuciones marginales dadas, entonces la
Cópulas
familia de funciones de distribuciones
Variables
aleatorias
independientes F(x, y) = FX (x)FY (y)(1 − θ(1 − FX (x))(1 − FY (y)))
Funciones de
varias variables
o de funciones de densidad
Correlación,
varianzas y
momentos
f (x, y) = fX (x)fY (y)(1 + θ(1 − 2FX (x))(1 − 2FY (y)))
Esperanza y
varianza
condicionadas con |θ| ≤ 1, tienen como marginales las dadas inicialmente.
Distribuciones
marginales y Para determinar F(x, y) a partir de las distribuciones
condicionadas
Distribuciones marginales FX , FY , es necesario introducir un elemento
marginales
Distribuciones
condicionadas
adicional que nos describirá cómo se relacionan ambas
Cópulas variables, nos describirá el vínculo entre ambas, su estructura
Variables de dependencia, es lo que se va llamar Cópula.
aleatorias
independientes El objetivo será expresar la función de distribución conjunta
Funciones de
varias variables
como una función de las funciones de distribución
Correlación,
marginales, así
varianzas y
momentos
F(x, y) = C( FX (x), FY (y) ) (x, y) ∈ R2
Esperanza y | {z } | {z }
varianza
condicionadas
La función C(u, v) ha de estar definida en [0, 1] × [0, 1] y
tomar valores en [0, 1].
¿Qué propiedades deberá verificar?
Motivación
Introducción
Distribuciones
marginales y F(x, y) = C( FX (x), FY (y) ) (x, y) ∈ R2
condicionadas | {z } | {z }
Distribuciones
marginales
Distribuciones
La función C(u, v) ha de estar definida en [0, 1] × [0, 1] y
condicionadas
tomar valores en [0, 1].
Cópulas
¿Qué propiedades deberá verificar?
Variables
aleatorias Se le deberá exigir que C(u, v) tenga las propiedades de
independientes
función de distribución bidimensional (con soporte en
Funciones de
varias variables [0, 1] × [0, 1]) .Ya que F(x, y) debe verificar dichas
Correlación, propiedades.
varianzas y
momentos
Se le deberá exigir que C(u, 1) = u y que C(1, v) = v con
objeto de exigirle que las marginales sean las dadas
Esperanza y
varianza inicialmente, es decir que F(x, +∞) = FX (x) y que
condicionadas
F(+∞, y) = FY (y).
Si C(u, v) verifica las propiedades anteriores, se trata de una
función de distribución bidimensional con marginales
Uniformes (0, 1).
Definición de Cópula
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Correlación,
(0, 1).
varianzas y
momentos
Esperanza y
varianza
condicionadas
Formalizando la definición de Cópula
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Definición formal de Cópula
Distribuciones
condicionadas
Una cópula es una función C : [0, 1] × [0, 1] → [0, 1] que satisface
Cópulas
las siguientes propiedades:
Variables
aleatorias
independientes
1 C(u, v) es no decreciente y continua por la derecha con
Funciones de
varias variables respecto a cada coordenada.
Correlación,
varianzas y
2 C (1, 1) = 1, C(u, 0) = C (0, v) = 0
momentos
3 C (u, 1) = u, C (1, v) = v, para todo u ∈ (0, 1) , v ∈ (0, 1) .
Esperanza y
varianza
condicionadas
4 C (u0 , v0 ) + C (u, v) − C (u0 , v) − C (u, v0 ) ≥ 0 para todo
u, u0 , v, v0 ∈ (0, 1) , u < u0 , v < v0 .
Ejemplos de cópulas
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Algunos ejemplos de cópulas son los siguientes:
Distribuciones
condicionadas 1 C (u, v) = uv, (Conocida como cópula de independencia)
Cópulas 2 C (u, v) = min {u, v} (Conocida como cópula maximal)
Variables
aleatorias
independientes
3 C (u, v) = max {0, u + v − 1} (Conocida como cópula
Funciones de
minimal)
varias variables
4 C (u, v) = uv (1 − θ (1 − u) (1 − v)), donde |θ| ≤ 1.
Correlación,
varianzas y (Familia de Farlie-Gumbel-Morgenstern)
momentos −1/θ
Esperanza y
5 C (u, v) = u−θ + v−θ − 1 , donde θ > 0. (Familia de
varianza
condicionadas Clayton)
Estas familias se estudiarán en la práctica 3 con R
Teorema 7 (Sklar, 1959)
Introducción
Distribuciones
Sea (X, Y) un vector aleatorio de tipo continuo, con función de
marginales y
condicionadas
distribución conjunta F (x, y) y sean FX (x) y FY (y) las
Distribuciones
marginales
distribuciones marginales de X e Y, respectivamente. Entonces,
Distribuciones
condicionadas
existe una única cópula C(·, ·) tal que
Cópulas
Funciones de
Recíprocamente, si C(·, ·) es una cópula y FX (x) y FY (y) son dos
varias variables funciones de distribución univariantes, la función F (x, y) definida
Correlación,
varianzas y
por (2) es una función de distribución bivariante cuyas
momentos marginales son precisamente FX (x) y FY (y) .
Esperanza y
varianza
condicionadas La idea que subyace en el Teorema de Sklar es la de distinguir, en
una distribución conjunta, la parte que describe la estructura de
dependencia entre las variables X e Y (la cópula) y la parte que
describe el comportamiento marginal de las mismas.
Demostración del Teorema de Sklar
Introducción
Distribuciones Demostración.
marginales y
condicionadas Dadas F(x, y) y las marginales FX , FY . Supongamos que FX y FY
Distribuciones
marginales son estrictamente crecientes.
Distribuciones
condicionadas
Para demostrar que existe una única función C(u, v), tal que se
Cópulas
verifique (2), F (x, y) = C(FX (x) , FY (y) ) basta considerar
Variables
aleatorias
independientes C(u, v) = F(FX−1 (u), FY−1 (v))
Funciones de
varias variables
Comprobar que efectivamente C(u, v) es una cópula es inmediato
Correlación,
varianzas y por construcción.
momentos
Esperanza y
El recíproco es inmediato por definición de cópula.
varianza
condicionadas
Nota 1: En el caso de que FX y FY no sean estrictamente creciente
el resultado también es cierto, y FX−1 y FY−1 denotarán la funciones
cuantiles correspondientes.
Nota 2: Si el vector aleatorio (X, Y) es discreto se puede
demostrar la existencia, pero no la unicidad.
Contenido
Introducción
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Distribuciones
marginales y
condicionadas
Distribuciones
marginales Definición
Distribuciones
condicionadas
Sean F (x, y) y FX (x), FY (y), respectivamente, las funciones de
Cópulas
distribución conjunta y marginales, del vector aleatorio (X, Y) . Se
Variables
aleatorias dice que X e Y son independientes si y sólo si
independientes
Funciones de
varias variables
F (x, y) = FX (x) · FY (y) para todo (x, y) ∈ R2 .
Correlación,
varianzas y
momentos
Esperanza y
varianza
Nótese que la anterior definición implica que distribuciones
condicionadas marginales de X e Y están ligadas conjuntamente mediante la
cópula C(u, v) = uv,
En caso de independencia...
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas Lema 1
Variables
aleatorias Si X e Y son independientes se tiene que
independientes
Funciones de
varias variables
P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) = P (x1 < X ≤ x2 )·P (y1 < Y ≤ y2 )
Correlación,
varianzas y para todo x1 , x2 , y1 , y2 ∈ IR tales que x1 < x2 y y1 < y2 .
momentos
Esperanza y
varianza
condicionadas
Demostración del Lema 1
Introducción
Demostración.
Distribuciones
marginales y
condicionadas
Sea (X, Y) un vector aleatorio con función de distribución F(x, y).
Distribuciones
marginales
Consideramos FX la función de distribución marginal de X y FY la
Distribuciones
condicionadas
función de distribución marginal de Y. Como X e Y son v.a.’s
Cópulas independientes, por definición F(x, y) = FX (x) · FY (y).
Variables Veamos
aleatorias
independientes
P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) =
Funciones de F (x2 , y2 ) + F (x1 , y1 ) − F (x1 , y2 ) − F (x2 , y1 ) =
varias variables
Esperanza y
FX (x2 )FY (y2 ) + FX (x1 ) FY (y1 ) − FX (x1 )FY (y2 ) − FX (x2 )FY (y1 ) =
varianza
condicionadas
Sacando factor común
Por tanto
P (x1 < X ≤ x2 ) · P (y1 < Y ≤ y2 )
Introducción
Distribuciones Teorema 8
marginales y
condicionadas Las variables discretas X e Y son independientes si y sólo si
Distribuciones
marginales
Distribuciones
condicionadas P (X = xi , Y = yj ) = P (X = xi ) · P (Y = yj ) (3)
Cópulas
Correlación,
varianzas y f (x, y) = fX (x) · fY (y)
momentos
Esperanza y
varianza
para todo (x, y) ∈ R2 , donde f , fX y fY son las densidades
condicionadas conjuntas y marginales, con f continua en casi todo.
Demostración del Teorema 8
Introducción
Demostración.
Distribuciones
marginales y Se demostrará para el caso continuo:
condicionadas
Distribuciones
marginales Si X e Y son independientes, se verifica que F(x, y) = FX (x)FY (y),
Distribuciones
condicionadas por tanto si derivamos parcialmente con respecto a x e y, se tendrá
Cópulas
Variables
f (x, y) = fX (x)fY (y)
aleatorias
independientes
Si se verifica que f (x, y) = fX (x)fY (y), veamos que
Funciones de
varias variables F(x, y) = FX (x)FY (y).
Correlación, Esto es inmediato expresando F(x, y) como,
varianzas y
momentos Z x Z y
Esperanza y F(x, y) = f (u, v)dvdu
varianza
condicionadas −∞ −∞
Z x Z y
= fX (u)fY (v)dvdu
−∞ −∞
Z x Z y
= fX (u)du fY (v)dv
−∞ −∞
= FX (x)FY (y)
Demostración del Teorema 8. Indicaciones para el
Introducción caso discreto
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Queda como cuestión propuesta la demostración en el caso
condicionadas
discreto. Para ello
Cópulas
Variables
Para ver que si X e Y son independientes demostrar que
aleatorias
independientes
P(X = xi , Y = yj ) = P(X = xi )P(Y = yj ), es necesario
Funciones de
demostrar previamente que
varias variables
Distribuciones
marginales y
Corolario 3
condicionadas
Distribuciones
Sean X e Y dos variables aleatorias independientes y sean g y h
marginales
Distribuciones
dos funciones medibles. Entonces g(X) y h(Y) también son
condicionadas
independientes.
Cópulas
Variables
aleatorias
independientes
Demostración.
Funciones de Aplicaremos el Corolario 2:
varias variables
Correlación,
varianzas y
P (g (X) ≤ x, h (Y) ≤ y) =
momentos
= P (g(X) ≤ x) P (h (Y) ≤ y) .
Ejemplo 6
Introducción
Distribuciones
marginales y Consideremos un vector aleatorio (X, Y) con función de densidad
condicionadas
Distribuciones conjunta
marginales
Distribuciones
condicionadas
( 1 + xy
Cópulas , |x| < 1, |y| < 1
f (x, y) = 4
Variables
aleatorias
0, en otro caso.
independientes
Correlación, 1 y=1
xy2
Z
varianzas y 1 + xy 1 1
momentos fX (x) = dy = y+ = , para − 1 < x <
−1 4 4 2 y=−1 2
Esperanza y
varianza Z 1
condicionadas 1 + xy 1
fY (y) = dx = , para − 1 < y < 1.
−1 4 2
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejemplo 6 (cont.)
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas √ "Z √ #
Z x y √ √
1
P X 2 ≤ x, Y 2 ≤ y =
Cópulas
√ √
(1 + uv) du dv = x y
Variables 4 − x − y
aleatorias
independientes
= P X2 ≤ x P Y 2 ≤ y .
Funciones de
varias variables
Correlación,
varianzas y
momentos
Distribuciones
marginales y
condicionadas
1 Introducción
Distribuciones
marginales
Distribuciones
condicionadas
2 Distribuciones marginales y condicionadas
Cópulas Distribuciones condicionadas
Variables
aleatorias
independientes 3 Cópulas
Funciones de
varias variables
4 Variables aleatorias independientes
Correlación,
varianzas y
momentos
5 Funciones de varias variables
Esperanza y
varianza
condicionadas
6 Correlación, varianzas y momentos
Distribuciones
marginales y Sean X e Y dos variables aleatorias definidas sobre un espacio de
condicionadas
Distribuciones
probabilidad (Ω, S, P) . Nos preguntamos bajo qué condiciones
marginales
Distribuciones funciones del tipo X + Y, X − Y o XY son variables aleatorias y
condicionadas
Cópulas
cómo calcular sus distribuciones de probabilidad.
Variables
aleatorias
Teorema 9
independientes
Sea g : Rn → Rm una función medible Borel (es decir, si B es un
Funciones de
varias variables conjunto de Borel en Rm , entonces g−1 (B) es un conjunto de
Correlación, Borel en Rn ). Si X = (X1 , ..., Xn ) es un vector aleatorio, entonces
varianzas y
momentos Y = g (X) también lo es.
Esperanza y
varianza
condicionadas Observación
Si g : Rn → Rm es continua y X = (X1 , ..., Xn ) es un vector
aleatorio, entonces g (X) también es un vector aleatorio.
Demostración del Teorema 9
Introducción
Distribuciones Demostración.
marginales y
condicionadas
Distribuciones g : Rn → R m
marginales
Cópulas y Rm , respectivamente.
Variables Como g es medible se verifica que g−1 (B) ∈ B(Rn ), para todo
aleatorias
independientes B ∈ B(Rm ).
Funciones de
Sea (Ω, S) el espacio sobre el que el vector aleatorio X = (X1 , ..., Xn )
varias variables está definido.
Correlación, Dado B ∈ B(Rm ), hay que probar que {ω : Y(ω) ∈ B} ∈ S
varianzas y
momentos
Esperanza y
{ω : Y(ω) ∈ B} = {ω : g (X (ω)) ∈ B}
varianza
ω : X (ω) ∈ g−1 (B)
condicionadas =
un suceso.
Introducción Consideramos g : R2 → R, medible. Sea la variable aleatoria
Distribuciones U = g (X, Y).
marginales y
condicionadas
Distribuciones
Caso discreto:
marginales
Distribuciones X
condicionadas
P [U ≤ u] = P [X = x, Y = y] para todo u ∈ R
Cópulas
A
Variables
aleatorias
independientes donde A = {(x, y) : g (x, y) ≤ u} .
Funciones de
varias variables Caso continuo, sea f (x, y) la función de densidad conjunta de
Correlación, (X, Y)
varianzas y
momentos Z
Esperanza y P [U ≤ u] = f (x, y) dxdy para todo u ∈ R
varianza
condicionadas A
Cópulas
donde x, y = 0, 1, 2... y p, q ∈ (0, 1) con p + q < 1. Observar que
Sop(U)={0,1,2,. . . }. Para calcular P(U = u) sea
Variables
aleatorias A = {(x, y) : x + y = u, x, y = 0, 1, 2, . . .}
independientes
Funciones de
1 Sop (U) = (0, 2).
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejemplo 8
Introducción
Funciones de
1 Sop (U) = (0, 2).
varias variables
Correlación,
2 Para t ∈ (0, 2), calcular FU (t) = P(U ≤ t).
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejemplo 8
Introducción
Funciones de
1 Sop (U) = (0, 2).
varias variables
Correlación,
2 Para t ∈ (0, 2), calcular FU (t) = P(U ≤ t).
varianzas y
momentos
3 Obtener fU (t) derivando la anterior.
Z Z
Esperanza y
varianza
condicionadas
P [U ≤ t] = P [X + Y ≤ t] = f (x, y)dydx
A
¿Quién es A?
Distribuciones
marginales y
condicionadas A = {(x, y) : 0 < x < y < 1, x + y ≤ t}
Distribuciones
marginales
Distribuciones
condicionadas 2 2
y
y=x
Correlación, 0.8 0.8 (x=t/2, y=t/2)
varianzas y
0.6 0.6
momentos
0.4 (x=t/2, y=t/2) 0.4 y=x
Esperanza y
varianza 0.2 0.2
y=t−x y=t−x
condicionadas
0 0
0 0.5 1 1.5 2 0 0.5 1 1.5
x x
Ejemplo 8 (cont.)
Introducción
Funciones de 1
y
varias variables
y=x
0.8
Correlación,
varianzas y 0.6
momentos (x=t/2, y=t/2)
0.4
Esperanza y 0.2
varianza y=t−x
condicionadas 0
0 0.5 1 1.5 2
x
t
t−x
t2
Z Z
2
P [U ≤ t] = 2dy dx =
0 x 2
Ejemplo 8 (cont.)
Introducción
Distribuciones
marginales y Caso 2 Si 1 ≤ t ≤ 2
condicionadas
Distribuciones
marginales 2
Distribuciones
condicionadas 1.8
Cópulas 1.6
1.4
Variables
aleatorias 1.2
(x=t−1, y=1)
independientes
1
y
Funciones de
varias variables 0.8 (x=t/2, y=t/2)
0.6
Correlación,
varianzas y 0.4 y=x
momentos
0.2
y=t−x
Esperanza y
varianza 0
0 0.5 1 1.5 2
condicionadas x
t
t−1 Z 1 t−x
4t − t2 − 2
Z Z Z
2
P [U ≤ t] = 2dy dx+ 2dy dx = .
0 x t−1 x 2
Ejemplo 8 (cont.)
Introducción
Distribuciones
marginales y
condicionadas Por tanto la función de distribución de U sería
Distribuciones
marginales
Distribuciones
02
si t < 0
condicionadas
t
Cópulas
si 0 ≤ t < 1
Variables FU (t) = 2
aleatorias 4t − t2 − 2
si 1 ≤ t < 2
independientes
Funciones de
2
si t ≥ 2
varias variables 1
Correlación,
varianzas y
momentos
Y la función de densidad resultante:
Esperanza y
varianza t, 0≤t<1
condicionadas
fU (t) = 2 − t, 1 ≤ t < 2
0, otro caso
El siguiente teorema proporciona un método diferente para calcular la
función de densidad del vector Y = g(X) para el caso bidimensional
Introducción (X = (X1 , X2 ), Y = (Y1 , Y2 ), Yi = gi (X1 , X2 ), gi : R2 → R i = 1, 2).
Distribuciones
marginales y Teorema 9 (método alternativo para calcular f(Y) )
condicionadas
Distribuciones
marginales Sea (X1 , X2 ) un vector aleatorio de tipo continuo con función de
Distribuciones
condicionadas densidad conjunta fX (x1 , x2 ).
Cópulas
Sea g : R2 → R2 una función biyectiva, y h : R2 → R2 su
Variables
aleatorias correspondiente transformación inversa:
independientes
Funciones de
varias variables
y1 = g1 (x1 , x2 ), x1 = h1 (y1 , y2 )
Correlación, y2 = g2 (x1 , x2 ), x2 = h2 (y1 , y2 ).
varianzas y
momentos
Variables
aleatorias
independientes
Además
Funciones de
g−1 (B) = (x1 , x2 ) ∈ R2 : gi (x1 , x2 ) ≤ y?i , i = 1, 2 .
varias variables
Correlación,
varianzas y
momentos Entonces
FY (y?1 , y?2 ) = P X ∈g−1 (B) =
Esperanza y
varianza
condicionadas
Z Z
fX (x1 , x2 ) dx1 dx2 =
g−1 (B)
Z y?1 Z y?2
= |J| · fX (h1 (y1 , y2 ) , h2 (y1 , y2 )) dy1 , dy2 .
−∞ −∞
Ejemplo 9
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas
Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sean Y1 = X1 + X2 , Y2 = X1 − X2 . Calcular la función de densidad
Esperanza y
varianza conjunta fY (y1 , y2 ) y comprobar que efectivamente es una función
condicionadas
de densidad. Calcular las densidades marginales de Y1 e Y2 .
Resolvemos....
Introducción
Variables
¿Por qué?
aleatorias
independientes Dada la transformación
Funciones de
varias variables
Y1 = X1 + X2 ,
Correlación,
varianzas y
momentos Y2 = X1 − X2
Esperanza y
varianza
condicionadas
nos piden en primer lugar calcular la función de densidad
conjunta del vector aleatorio Y = (Y1 , Y2 ).
Aplicaremos el Teorema 10.
Para ello comprobamos en primer lugar que se verifican las
hipótesis de dicho resultado.
Resolvemos....
Introducción
Comprobamos hipótesis del Teorema 10
Distribuciones
marginales y g : R2 → R2 , dada por
condicionadas
Distribuciones
marginales
y1 = g1 (x1 , x2 ) = x1 + x2 ,
Distribuciones
condicionadas
y2 = g2 (x1 , x2 ) = x1 − x2
Cópulas
Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : R2 → R2 , viene dada por
Funciones de y1 + y2
varias variables x1 = h1 (y1 , y2 ) =
2
Correlación,
varianzas y y1 − y2
momentos x2 = h2 (y1 , y2 ) =
Esperanza y
2
varianza
condicionadas
Tanto g como h son continuas, y las derivadas parciales ∂x i
∂yj ,
i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
1 1 1
2 2 =− =6 0
1
2 − 21 2
Resolvemos....
Introducción
Distribuciones
marginales y {(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Resolvemos....
Introducción
A partir de la expresión obtenida para la función de densidad
Distribuciones
marginales y conjunta del vector aleatorio (Y1 , Y2 ) nos piden obtener las
condicionadas
Distribuciones
marginales de Y1 e Y2 .
marginales
Distribuciones
condicionadas
La expresión obtenida para la función de densidad conjunta
Cópulas
es
Variables fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
aleatorias
independientes Para obtener la función de densidad marginal de Y1 debemos
Funciones de calcular: Z +∞
varias variables
Correlación,
fY1 (y1 ) = fY (y1 , y2 )dy2
varianzas y −∞
momentos
Por ello hemos representado el soporte del vector aleatorio
Esperanza y
varianza Y = (Y1 , Y2 ) en unos ejes cartesianos y1 , y2 . Observar que el
condicionadas
soporte de Y1 es el intervalo (0, 2), (es la proyección del
soporte del vector en la primera componente).
Así para cada y1 ∈ (0, 2) debemos integrar la función de
densidad conjunta anterior en todos los posibles valores de
y2 .
La densidad marginal de Y1
Introducción
R +∞
Distribuciones fY1 (y1 ) = −∞ fY (y1 , y2 )dy2 Observar en el gráfico del recinto que la
marginales y
condicionadas variable y2 no varía de la misma forma para todos los valores de y1
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Por tanto la función de densidad marginal de Y1 vendrá dada por
condicionadas
Cópulas
Z y1
1
Variables
dy2 = y1 , 0 < y1 ≤ 1
Z −y1 2
aleatorias
independientes 2−y1
fY1 (y1 ) = 1
Funciones de dy2 = 2 − y1 , 1 < y1 < 2
varias variables 2
y1 −2
Correlación,
varianzas y
0, en otro caso
momentos
Funciones de
varias variables
y1 = g1 (x1 , x2 ), x1 = h1 (y1 , y2 )
Correlación, y2 = g2 (x1 , x2 ), x2 = h2 (y1 , y2 ).
varianzas y
momentos
Variables Además
aleatorias
independientes
g−1 (B) = (x1 , x2 ) ∈ R2 : gi (x1 , x2 ) ≤ y?i , i = 1, 2 .
Funciones de
varias variables
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas
Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sean Y1 = X1 + X2 , Y2 = X1 − X2 . Calcular la función de densidad
Esperanza y
varianza conjunta fY (y1 , y2 ) y comprobar que efectivamente es una función
condicionadas
de densidad. Calcular las densidades marginales de Y1 e Y2 .
Resolvemos....
Introducción
Variables
¿Por qué?
aleatorias
independientes Dada la transformación
Funciones de
varias variables
Y1 = X1 + X2 ,
Correlación,
varianzas y
momentos Y2 = X1 − X2
Esperanza y
varianza
condicionadas
nos piden en primer lugar calcular la función de densidad
conjunta del vector aleatorio Y = (Y1 , Y2 ).
Aplicaremos el Teorema 10.
Para ello comprobamos en primer lugar que se verifican las
hipótesis de dicho resultado.
Resolvemos....aplicando el Teorema 10
Introducción
Comprobamos hipótesis del Teorema 10
Distribuciones
marginales y g : R2 → R2 , dada por
condicionadas
Distribuciones
marginales
y1 = g1 (x1 , x2 ) = x1 + x2 ,
Distribuciones
condicionadas
y2 = g2 (x1 , x2 ) = x1 − x2
Cópulas
Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : R2 → R2 , viene dada por
Funciones de y1 + y2
varias variables x1 = h1 (y1 , y2 ) =
2
Correlación,
varianzas y y1 − y2
momentos x2 = h2 (y1 , y2 ) =
Esperanza y
2
varianza
condicionadas
Tanto g como h son continuas, y las derivadas parciales ∂x i
∂yj ,
i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
1 1 1
2 2 =− =6 0
1
2 − 21 2
Resolvemos....aplicando el Teorema 10
Introducción
Distribuciones
marginales y {(y1 , y2 ) : 0 < y1 + y2 < 2, 0 < y1 − y2 < 2}
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Resolvemos....
Introducción
Distribuciones
marginales y
La expresión obtenida para la función de densidad conjunta
condicionadas es
Distribuciones
marginales
Distribuciones
fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
condicionadas
Cópulas
Comprobar que la función de densidad conjunta de (Y1 , Y2 )
Variables
es efectivamente función de densidad.
aleatorias
independientes REs∞inmediato
R∞ que fY (y1 , y2 ) ≥ 0, bastaría ver que
Funciones de −∞ −∞ Y 1 , y2 )dy2 dy1 = 1.
f (y
varias variables
Correlación,
Z ∞ Z ∞
varianzas y
momentos
fY (y1 , y2 )dy2 dy1 =
−∞ −∞
Esperanza y
varianza Z 1 Z y1 Z 2 Z 2−y1
condicionadas 1 1
= dy2 dy1 + dy2 dy1
0 −y1 2 1 y1 −2 2
1 1
+ =1
2 2
Resolvemos....
Introducción
Variables
Para obtener la función de densidad marginal de Y1 debemos
aleatorias calcular:
independientes Z +∞
Funciones de fY1 (y1 ) = fY (y1 , y2 )dy2
varias variables −∞
Correlación,
varianzas y Por ello hemos representado el soporte del vector aleatorio
momentos
Y = (Y1 , Y2 ) en unos ejes cartesianos y1 , y2 . Observar que el
Esperanza y
varianza soporte de Y1 es el intervalo (0, 2), (es la proyección del
condicionadas
soporte del vector en la primera componente).
Así para cada y1 ∈ (0, 2) debemos integrar la función de
densidad conjunta anterior en todos los posibles valores de
y2 .
La densidad marginal de Y1
Introducción
R +∞
Distribuciones fY1 (y1 ) = −∞ fY (y1 , y2 )dy2 Observar en el gráfico del recinto que la
marginales y
condicionadas variable y2 no varía de la misma forma para todos los valores de y1
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones Por tanto la función de densidad marginal de Y1 vendrá dada por
condicionadas
Cópulas
Z y1
1
Variables
dy2 = y1 , 0 < y1 ≤ 1
Z −y1 2
aleatorias
independientes 2−y1
fY1 (y1 ) = 1
Funciones de dy2 = 2 − y1 , 1 < y1 < 2
varias variables 2
y1 −2
Correlación,
varianzas y
0, en otro caso
momentos
Distribuciones
marginales y La expresión obtenida para la función de densidad conjunta
condicionadas
Distribuciones es
marginales
Distribuciones
condicionadas
fY (y1 , y2 ) = 12 si 0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
Cópulas Para obtener la función de densidad marginal de Y2 debemos
Variables calcular:
aleatorias
Z +∞
independientes
fY2 (y2 ) = fY (y1 , y2 )dy1
Funciones de −∞
varias variables
Distribuciones
marginales y
Z +∞
condicionadas fY2 (y2 ) = fY (y1 , y2 )dy1
Distribuciones
marginales −∞
Distribuciones
condicionadas
Observar en el gráfico del recinto que la variable y1 no varía de la
Cópulas
misma forma para todos los valores de y2
Variables
aleatorias Si −1 < y2 < 0 la variable y1 varía entre −y2 < y1 < 2 + y2 .
independientes
Correlación,
Por tanto la función de densidad marginal de Y2 vendrá dada por
varianzas y Z
momentos 2+y2
1
Esperanza y
dy1 = 1 + y2 , −1 < y2 < 0
Z−y2 2
varianza
condicionadas
2−y2
fY2 (y2 ) = 1
dy1 = 1 − y2 , 0 ≤ y2 < 1
y2 2
0, en otro caso
Ampliando el ejemplo 9
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Sean X1 y X2 dos variables aleatorias independientes e
condicionadas
idénticamente distribuidas con función de densidad
Cópulas
Variables 1, si 0 < x < 1
aleatorias f (x) =
independientes 0, en otro caso.
Funciones de
varias variables
Se trata por tanto de variables distribuidas según una Uniforme
Correlación,
varianzas y (0, 1).
momentos
Sea la variable aleatoria U = X1 · X2 . Calcular la función de
Esperanza y
varianza densidad de U. ¿Son las variables aleatorias U y X1
condicionadas
independientes?
Resolvemos....
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales Para resolver el ejercicio, utilizaremos el Teorema 10.
Distribuciones
Cópulas
Variables
es biyectiva.
aleatorias
independientes
Su transformación inversa h : (0, 1)2 → (0, 1)2 , viene dada
Funciones de por
varias variables
x1 = h1 (u, v) = v
Correlación,
varianzas y
u
momentos x2 = h2 (u, v) =
v
Esperanza y
varianza Tanto g como h son continuas, y las derivadas parciales ∂x i
∂u ,
condicionadas
∂xi
∂v i, j = 1, 2, existen y son continuas.
El jacobiano de la transformación es
0 1 1
1 =− =6 0
v − vu2 v
Resolvemos....
Introducción
Distribuciones
Entonces aplicando el Teorema 10, la función de densidad
marginales y
condicionadas
conjunta de (U, V) viene dada por
Distribuciones
marginales
Distribuciones
condicionadas
fU,V (u, v) = |J| · fX (h1 (u, v) , h2 (u, v))
Cópulas
Variables
Sustituyendo por los valores correspondientes como X1 y X2 son
aleatorias independientes
independientes
Funciones de
1 u 1
varias variables
fU,V (u, v) = f (v) · f =
Correlación, v v v
varianzas y
momentos u
Esperanza y
si 0 < v < 1, 0 < < 1.
varianza
v
condicionadas
Observad que el soporte de (U, V) viene dado por
Distribuciones 1
marginales y f (u, v) = , (u, v) ∈ A
condicionadas v
Distribuciones
marginales A = {(u, v) : 0 < u < v < 1}
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos Para obtener la función de densidad marginal de U, debemos
Esperanza y integrar la función de densidad conjunta en todos los posibles
varianza
condicionadas valores de v.
Observando el gráfico para cada u ∈ (0, 1), la variable v varía
entre u < v < 1, por tanto
Z ∞ Z 1
1
fU (u) = f (u, v)dv = dv = − ln u, u ∈ (0, 1)
−∞ u v
Resolvemos...¿Son independientes U y X1 ?
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Para responder a la pregunta, ¿son U y X1 independientes?, basta
Variables ver si las variables U y V son independientes.
aleatorias
independientes ¿Es necesario obtener la marginal de V?
Funciones de
varias variables
¿Qué tenemos que comprobar para ver si U y V son
Correlación, independientes?
varianzas y
momentos ¿Son independientes?
Esperanza y
varianza
condicionadas
Ejercicio 5
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales Se considera el vector aleatorio (X, Y) con función de densidad
Distribuciones
condicionadas
conjunta
Cópulas
f (x, y) = e−y (y − x), 0 ≤ x < y
Variables
aleatorias
independientes Se pide:
Funciones de
varias variables
1 Obtener las distribuciones marginales de X e Y.
Correlación, 2 Considerar la variable aleatoria U = Y − X. Obtener la
varianzas y
momentos función de densidad de U.
Esperanza y
varianza
3 ¿Las variables aleatorias U y X son independientes?. Razona
condicionadas la respuesta.
Convolución
Introducción
Distribuciones
Sea (X, Y) un vector de tipo continuo con función de
marginales y
condicionadas
densidad conjunta f (x, y) . Se puede comprobar que la
Distribuciones
marginales
variable Z = X + Y tiene por función de densidad
Distribuciones
condicionadas
Z ∞ Z ∞
Cópulas fZ (t) = f (x, t − x) dx = f (t − x, x) dx.
Variables −∞ −∞
aleatorias
independientes Si X e Y son independientes con marginales fX y fY , se
Funciones de
varias variables
deduce que
Correlación,
Z ∞ Z ∞
varianzas y
momentos fZ (t) = fX (x) fY (t − x) dx = fX (t − x) fY (x) dx
−∞ −∞
Esperanza y
varianza
condicionadas y, en este caso, la función de distribución de Z viene dada por
Z ∞ Z ∞
FZ (t) = fX (x) FY (t − x) dx = FX (t − x) fY (x) dx.
−∞ −∞
Distribuciones
marginales y
condicionadas
Distribuciones Definición
marginales
Distribuciones
condicionadas
Sean F y G dos funciones de distribución univariantes y
Cópulas absolutamente continuas. La función H definida por
Variables Z ∞ Z ∞
aleatorias
0
independientes H(x) = F (x − y) G (y)dy = G (x − y) F 0 (y)dy
Funciones de −∞ −∞
varias variables
Correlación,
varianzas y
es una función de distribución llamada CONVOLUCIÓN de X e
momentos Y, y se denota H = F ∗ G.
Esperanza y
varianza
condicionadas Se deduce que si X e Y son variables aleatorias independientes
con funciones de distribución F y G, respectivamente, la variable
X + Y es una convolución con función de distribución H = F ∗ G.
Una transformación especial es Z = X + Y
Introducción
Introducción
Dado (X, Y) un vector aleatorio continuo con f.densidad
Introducción
conjunta f (x, y). Sea Z = X + Y, estamos interesados en
Distribuciones obtener la f.d.d. de Z, fZ .
marginales y
condicionadas Podemos considerar Z = X + Y, U = X o bien Z = X + Y,
Distribuciones
marginales U = Y, como dos casos simples para poder aplicar el
Distribuciones
condicionadas Teorema de la transformación de vectores aleatorios (T. 10).
Cópulas
Si Z = X + Y, U = X, se tiene que la f.d.d. conjunta de
Variables
aleatorias (Z, U) es, fZ,U (z, u) = f (u, z − u). Así fZ , sería
independientes
Z ∞
Funciones de
varias variables fZ (z) = f (u, z − u)du
Correlación, −∞
varianzas y
momentos
Si Z = X + Y, U = Y, se tiene que la f.d.d. conjunta de
Esperanza y
varianza (Z, U) es, fZ,U (z, u) = f (z − u, u). Así fZ sería
condicionadas
Z ∞
fZ (z) = f (z − u, u)du
−∞
Convolución
Introducción
Introducción
Sea (X, Y) un vector de tipo continuo con función de
Introducción
densidad conjunta f (x, y) . Hemos comprobado que la
Distribuciones
variable Z = X + Y tiene por función de densidad
marginales y Z ∞ Z ∞
condicionadas
Distribuciones
marginales
fZ (z) = f (x, z − x) dx = f (z − x, x) dx.
Distribuciones −∞ −∞
condicionadas
Introducción
Introducción
Funciones de
es una función de distribución llamada convolución de X e Y, y se
varias variables denota H = F ∗ G.
Correlación,
varianzas y
momentos
Se deduce que si X e Y son variables aleatorias independientes
Esperanza y con funciones de distribución F y G, respectivamente, la variable
varianza
condicionadas X + Y es una convolución con función de distribución H = F ∗ G.
Contenido
Introducción
Introducción 1 Introducción
Introducción
Distribuciones 2 Introducción
marginales y
condicionadas
Distribuciones 3 Introducción
marginales
Distribuciones
condicionadas
4 Distribuciones marginales y condicionadas
Cópulas
Distribuciones condicionadas
Variables
aleatorias
independientes 5 Cópulas
Funciones de
varias variables 6 Variables aleatorias independientes
Correlación,
varianzas y
momentos 7 Funciones de varias variables
Esperanza y
varianza 8 Correlación, varianzas y momentos
condicionadas
Introducción
Sea g : R → R medible, por tanto Y = g(X) es v.a.
Introducción
Distribuciones
Definición de E[g(X1 , X2 )]
marginales y
condicionadas 1 Si (X1 , X2 ) es discreto, con f.m.p. P(X1 = x1 , X2 = x2 ),
Distribuciones
marginales
X
Distribuciones
condicionadas E [g(X1 , X2 )] = g(x1 , x2 )P(X1 = x1 , X2 = x2 ).
Cópulas x1 ,x2
Variables
aleatorias 2 Si (X1 , X2 ) es continuo, con f.d.d. f (x1 , x2 ),
independientes
Funciones de Z +∞ Z +∞
varias variables
E [g(X1 , X2 )] = g(x1 , x2 )f (x1 , x2 )dx1 dx2 .
Correlación, −∞ −∞
varianzas y
momentos P
Esperanza y
Siempre que x1 ,x2 |g(x1 , x2 )|P(X1 = x1 , X2 = x2 ) < +∞
varianza
R +∞ R +∞
condicionadas −∞ −∞
|g(x1 , x2 )|f (x1 , x2 )dx1 dx2 < +∞
Las definiciones anteriores se extienden de manera natural al caso
n-dimensional.
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción
Variables
E[a1 X1 + a2 X2 ] = (a1 x1 + a2 x2 )f (x1 , x2 )dx1 dx2
aleatorias −∞ −∞
independientes = I1 + I2
Funciones de
varias variables Z +∞ Z +∞
Correlación, I1 = a 1 x1 f (x1 , x2 )dx1 dx2
varianzas y
momentos −∞ −∞
Z +∞ Z +∞
Esperanza y
varianza = a1 x1 f (x1 , x2 )dx2 dx1
condicionadas −∞ −∞
Z +∞
= a1 x1 fX1 (x1 )dx1 = a1 E[X1 ]
−∞
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción
Correlación,
Z +∞ Z +∞
varianzas y
momentos
I2 = a 2 x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Esperanza y Z +∞ Z +∞
varianza
condicionadas = a2 x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Z +∞
= a2 x2 fX2 (x2 )dx2 = a2 E[X2 ]
−∞
Valor esperado: propiedades
Introducción
1 Si E |Xi | < ∞ y ai ∈ R, i = 1, 2. Sea
Introducción
g(X1 , X2 ) = a1 X1 + a2 X2 , ¿se verifica que
Introducción
Introducción
Introducción
2 Si X1 , X2 son independientes y E |Xi | < ∞, para i = 1, 2,
Distribuciones
entonces
marginales y
condicionadas
E [X1 · X2 ] = E[X1 ] · E[X2 ]
Distribuciones
marginales
Distribuciones
En el caso continuo (de forma análoga se razona para el caso
condicionadas
discreto)
Cópulas
Variables
Z +∞ Z +∞
aleatorias
independientes
E[X1 · X2 ] = x1 · x2 f (x1 , x2 )dx1 dx2
−∞ −∞
Funciones de
varias variables
Z +∞ Z +∞
Correlación,
= x1 · x2 fX1 (x1 )fX2 (x2 )dx1 dx2
indep −∞ −∞
varianzas y
momentos Z +∞ Z +∞
Esperanza y = x1 fX1 (x1 )dx1 · x2 fX2 (x2 )dx2
varianza −∞ −∞
condicionadas
= E[X1 ] · E[X2 ]
Valor esperado: propiedades
Introducción
Introducción
Introducción
Distribuciones
marginales y
2 Si X1 , X2 son independientes y E |Xi | < ∞, para i = 1, 2,
condicionadas
Distribuciones
entonces
marginales
Distribuciones E [X1 · X2 ] = E[X1 ] · E[X2 ]
condicionadas
Cópulas En general,
Variables
aleatorias
Si X1 , . . . , Xn son independientes y E |Xi | < ∞, para todo
independientes i = 1, . . . , n, entonces
Funciones de
varias variables " n # n
Y Y
Correlación,
varianzas y
E Xi = E [Xi ] .
momentos i=1 i=1
Esperanza y
varianza
condicionadas
Valor esperado: variables incorreladas
Introducción
Introducción
Introducción
Cópulas
¿Si X e Y son independientes son incorreladas?
Variables
aleatorias Es immediato, ya que si X e Y son independientes entonces
independientes
E[XY] = E[X]E[Y], por tanto por definición X e Y son
Funciones de
varias variables incorreladas.
Correlación,
varianzas y
¿Es cierto el recíproco?
momentos
¿Si E[XY] = E[X]E[Y] entonces X e Y son independientes?
Esperanza y
varianza ¿Qué pensáis?
condicionadas
Incorrelación e independencia
Introducción
Introducción
Ejercicio 6: incorrelación no implica independencia
Introducción Sean X e Y dos variables aleatorias con función de densidad
Distribuciones conjunta f (x, y) = 21 si |x| + |y| ≤ 1, y cero en otro caso.
marginales y
condicionadas Demostrar que X e Y son incorreladas, pero no son independientes
Distribuciones
marginales
Distribuciones
condicionadas
Observamos que {(x, y) : |x| + |y| ≤ 1} es el recinto limitado
Cópulas
por las rectas x + y ≤ 1, x + y ≥ −1, x − y ≤ 1, x − y ≥ −1.
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 6...continuación
Introducción
Introducción
Introducción
Cópulas
Introducción
Introducción
Teorema 11: Caracterización de independencia
Distribuciones Dos v.a.’s X e Y son independientes si y sólo si se verifica
marginales y
condicionadas
Distribuciones
marginales
E [g1 (X)g2 (Y)] = E [g1 (X)] · E [g2 (Y)] , (5)
Distribuciones
condicionadas
Correlación,
Supongamos X e Y independientes. Hay que probar que se
varianzas y
momentos
verifica (5).
Esperanza y
Sean g1 y g2 funciones medibles, se deduce del Corolario 3
varianza
condicionadas
que g1 (X) y g2 (Y) son independientes y por tanto se verifica
E[g1 (X)g2 (Y)] = E[g1 (X)]E[g2 (Y)].
Continuación de la demostración
Introducción
Introducción
Supongamos que la relación (5) se verifica para cualesquiera
Introducción
g1 , g2 medibles. Hay que probar que X e Y son
Distribuciones
independientes
marginales y
condicionadas
Sean A y B dos conjuntos de Borel cualesquiera. Definimos
Distribuciones
marginales
1, X ∈ A 1, Y ∈ B
Distribuciones
condicionadas g1 (X) = g2 (Y) =
0, X ∈
/A 0, Y ∈/ B.
Cópulas
Variables
aleatorias
Ambas funciones son medibles y verifican:
independientes
Introducción
Ejercicio 7
Introducción
Sean X e Y dos variables aleatorias con función de densidad
Distribuciones
marginales y conjunta f (x, y) = 21 si |x| + |y| ≤ 1, y cero en otro caso. Se
condicionadas
Distribuciones consideran las variables U = X + 2Y, V = 2X + Y. Demostrar
marginales
Distribuciones
condicionadas
que U y V no son independientes. ¿Son incorreladas?
Cópulas
Esperanza y
varianza
condicionadas
Covarianza
Introducción
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Definición
Distribuciones
condicionadas
Se denomina covarianza entre X e Y al valor de
Cópulas
Esperanza y
varianza
condicionadas
Propiedades de la covarianza
Introducción
Distribuciones
2 La covarianza es una medida de asociación entre X e Y. Si es
marginales y
condicionadas
positiva, implica que X e Y crecen simultáneamente (análogo
Distribuciones
marginales
cuando es negativa).
Distribuciones
condicionadas
Observar que si X e Y crecen (o decrecen) simultáneamente,
Cópulas (X − E (X)) (Y − E (Y)) debería ser positivo, mientras que si
Variables X crece e Y decrece (o al contrario), el producto debería ser
aleatorias
independientes negativo. Por tanto, el valor esperado de ese producto, es
Funciones de decir, la covarianza entre X e Y, es una medida de asociación
varias variables
entre X e Y.
Correlación,
varianzas y
momentos
3 En particular,
Esperanza y
varianza
condicionadas
X, Y independientes =⇒ cov(X, Y) = 0.
Distribuciones
marginales y
var [a1 X1 + ... + an Xn ] = ?
condicionadas
Distribuciones
marginales " n # !2
Distribuciones X n
X n
X
condicionadas
var ai Xi = E ai Xi − ai E [Xi ]
Cópulas
i=1 i=1 i=1
Variables
aleatorias n
!2
independientes X
= E ai (Xi − E [Xi ]) =
Funciones de
varias variables i=1
Correlación,
varianzas y n n
momentos X 2
X
E a2i (Xi − E [Xi ]) + ai aj (Xi − E [Xi ]) (Xj − E [Xj ]) =
Esperanza y
varianza i=1 i6=j
condicionadas
n
X h i n
X
2
a2i E (Xi − E [Xi ]) + ai aj E [(Xi − E [Xi ]) (Xj − E [Xj ])].
i=1 i6=j
Propiedades de la covarianza
Introducción 2
4 Sean X1 , ..., Xn , v.a.’s tales que E |Xi | < ∞, i = 1, 2, ..., n. Sean
Introducción
a1 , ..., an ∈ R. Entonces,
Introducción
n
X n
X
Distribuciones
marginales y var [a1 X1 + ... + an Xn ] = a2i var [Xi ] + ai aj cov (Xi , Xj ) .
condicionadas i=1 i6=j
Distribuciones
marginales
Distribuciones " n # !2
condicionadas
X n
X n
X
Cópulas var ai Xi = E ai Xi − ai E [Xi ]
Variables i=1 i=1 i=1
aleatorias
independientes n
!2
X
Funciones de
varias variables
= E ai (Xi − E [Xi ]) =
i=1
Correlación,
varianzas y
momentos Xn n
X
2
Esperanza y E a2i (Xi − E [Xi ]) + ai aj (Xi − E [Xi ]) (Xj − E [Xj ]) =
varianza
condicionadas
i=1 i6=j
n
X h n
i X
2
a2i E (Xi − E [Xi ]) + ai aj E [(Xi − E [Xi ]) (Xj − E [Xj ])].
i=1 i6=j
Propiedades de la covarianza
Introducción
Introducción
Si denotamos por a = (a1 , ..., an ) ∈ Rn y consideramos la matriz
Introducción
Distribuciones
marginales y var (X1 ) cov(X1 , X2 ) ... cov (X1 , Xn )
condicionadas cov(X2 , X1 ) var (X2 ) ... cov (X2 , Xn )
Distribuciones
Σ=
marginales
Distribuciones
... ... ... ...
condicionadas
cov(Xn , X1 ) cov (Xn , X2 ) ... var(Xn )
Cópulas
Variables
aleatorias o, abreviadamente,
independientes
Funciones de
varias variables
Σ = (σi,j ) ∈ Mnxn donde σij = cov (Xi , Xj ) y σii = var (Xi ) ,
Correlación,
varianzas y entonces
momentos
Esperanza y
var [a1 X1 + ... + an Xn ] = aΣat .
varianza
condicionadas La matriz Σ es simétrica, semidefinida positiva y se denomina
matriz de covarianzas del vector aleatorio (X1 , ..., Xn ) .
Propiedades de la covarianza
Introducción
Cópulas
Variables
6 Si X1 , X2 , . . . , Xn son v.a.’s independientes , entonces
aleatorias
independientes n
X
Funciones de
varias variables
var [a1 X1 + ... + an Xn ] = a2i var [Xi ] .
Correlación,
i=1
varianzas y
momentos
Si además aii = n1 , para 1 ≤ i ≤ n, entonces
Esperanza y h Pn Pn
varianza Xi var[Xi ]
condicionadas
var i=1
n = i=1
n2
.
Si además var[Xi ] 2
= σ , para todo 1 ≤ i ≤ n, ¿Cómo queda
dicha expresión?
Propiedades de la covarianza
Introducción
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Ejercicio 8
Cópulas Sean X, Y y Z tres variables aleatorias. Probar que
Variables
aleatorias
cov (X + Y, Z) = cov (X, Z) + cov (Y, Z) . Más generalmente,
independientes decimos que la covarianza es un operador bilineal.
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Coeficiente de correlación
Introducción
Introducción
Definición
Sean X e Y dos variables aleatorias tales que E X 2 y E Y 2
Introducción
Distribuciones
marginales y
existen y sean σX y σY las respectivas desviaciones típicas. Se
condicionadas define el coeficiente de correlación entre X e Y como
Distribuciones
marginales
Distribuciones cov(X, Y)
condicionadas
ρ= .
Cópulas σX σY
Variables
aleatorias El coeficiente de correlación se interpreta como una medida de la
independientes
Funciones de
dependencia lineal entre X e Y. Veremos que,
varias variables
Mientras más se aproxime ρ a ±1 más fuerte es la relación
Correlación,
varianzas y lineal entre X e Y.
momentos
Esperanza y
Si ρ = 1 →, entonces Y = a + bX con b > 0.
varianza
condicionadas Si ρ = −1 →, entonces Y = a + bX con b < 0.
X e Y serán menos dependientes linealmente a medida que
ρ ≈ 0.
Coeficiente de correlación: interpretación
Introducción
Introducción
Introducción
En el caso unidimensional se vió que dada una v.a. Y con
Distribuciones
E[Y] = µY , entonces la solución al problema de optimización
marginales y
condicionadas h i
Distribuciones
marginales
minE (Y − c)2
c
Distribuciones
condicionadas
Correlación,
acuerdo con el criterio del error cuadrático medio será la solución
varianzas y
momentos
de
n h io n h io
Esperanza y
varianza min E (Y − (a + bX))2 = min E ((Y − bX) − a)2
condicionadas a,b b,a
Coeficiente de correlación: interpretación
Introducción
Introducción
Introducción
Distribuciones
marginales y n h io n h io
condicionadas
Distribuciones
min E (Y − (a + bX))2 = min E ((Y − bX) − a)2 =
marginales a,b b,a
Distribuciones
condicionadas n h io
Cópulas min E ((Y − bX) − E (Y − bX))2 =
Variables
b
aleatorias n h io
independientes
min E ((Y − E[Y]) − b (X − E[X]))2 =
Funciones de b
varias variables
min var[Y] − 2bcov(X, Y) + b2 var[X] =
Correlación,
varianzas y b
momentos
min σY2 − 2bcov(X, Y) + b2 σX2 ,
Esperanza y
varianza
b
condicionadas
cuya solución es
cov(X, Y)
Introducción b∗ = , a∗ = E[Y] − b∗ E[X]
σX2
Introducción
Correlación,
lo que implica que ρ2 ≤ 1.
varianzas y
momentos
Si ρ = ±1 =⇒ el error que se comete al predecir Y a través
Esperanza y
de una función lineal de X es cero =⇒ Y es función lineal de
varianza
condicionadas
X.
El error será tanto mayor cuanto más cerca esté ρ de cero, en
cuyo caso podremos decir que Y no puede explicarse por
medio de una función lineal de X.
Ejercicio
Introducción
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
Ejercicio 9
condicionadas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Contenido
Introducción
Introducción 1 Introducción
Introducción
Distribuciones 2 Introducción
marginales y
condicionadas
Distribuciones 3 Introducción
marginales
Distribuciones
condicionadas
4 Distribuciones marginales y condicionadas
Cópulas
Distribuciones condicionadas
Variables
aleatorias
independientes 5 Cópulas
Funciones de
varias variables 6 Variables aleatorias independientes
Correlación,
varianzas y
momentos 7 Funciones de varias variables
Esperanza y
varianza 8 Correlación, varianzas y momentos
condicionadas
Correlación,
varianzas y
En el caso continuo, si x es tal que fX (x) > 0
momentos Y | X = x es una variable aleatoria, cuyo soporte estará contenido
Esperanza y en el soporte de Y,
varianza
condicionadas
Z ∞
f (x, y)
fY|X (y | x) = , E [Y | X = x] = y fY|X (y | x) dy.
fX (x) −∞
Recordemos las distribuciones condicionadas...
Introducción
Introducción
Sea (X, Y) un vector aleatorio, en la distribución condicionada de
Introducción
Y | X = x:
Distribuciones
marginales y Generalizando podemos calcular
condicionadas
Distribuciones
X
marginales
h(y) P (Y = y | X = x), si X es discreta
Distribuciones
condicionadas y
E [h(Y) | X = x] = Z ∞
Cópulas
h(y) fY|X (y | x) dy, si X es continua
Variables −∞
aleatorias
independientes
Funciones de Obtener una expresión para la var (Y | X = x) tanto para el caso discreto
varias variables
como para el caso continuo.
Correlación,
varianzas y h i
momentos
var (Y | X = x) = E (Y − E(Y | X = x))2 | X = x
Esperanza y
= E Y 2 | X = x − (E [Y | X = x])2
varianza
condicionadas
Esperanza condicionada E [Y |X ]
Introducción
Introducción
Definición
Introducción
Sean X e Y v.a.’s. Se denomina esperanza condicionada de Y dado
Distribuciones
marginales y X, y se denota E [Y |X ] , a la variable aleatoria que toma los
condicionadas
Distribuciones valores E [Y |X = x ] .
marginales
Distribuciones
condicionadas
Se trata de una v.a. g(X) que toma los valores g(x) = E [Y |X = x ].
Cópulas
En el caso discreto,
Variables X
aleatorias E [Y |X = x ] = y P [Y = y |X = x ] ,
independientes
y
Funciones de
varias variables
Introducción
Introducción
Definición
Distribuciones Sean X e Y v.a.’s. Se denomina esperanza condicionada de h(Y)
marginales y
condicionadas dado X, y se denota E [h(Y) |X ] , a la variable aleatoria que toma
Distribuciones
marginales los valores E [h(Y) |X = x ] .
Distribuciones
condicionadas En el caso discreto,
Cópulas X
Variables E [h(Y) |X = x ] = h(y)P [Y = y |X = x ] ,
aleatorias
independientes y
Funciones de
varias variables siempre que P [X = x] 6= 0. En el caso continuo,
Correlación,
varianzas y Z ∞
momentos
E [h(Y) |X = x ] = h (y) fY|X (y |x ) dy
Esperanza y
varianza
−∞
condicionadas
siempre que fX (x) > 0. La definición de E [h(X) |Y ] es análoga.
Ejemplo
Introducción 1
Sea (X, Y) un vector aleatorio, tal que f (x, y) = si 0 < y < x < 1.
Introducción x
Introducción X ∼ U(0, 1), fX (x) = 1, x ∈ (0, 1). E[X] = 1/2, var[X]=1/12.
Distribuciones 1
marginales y Y | X = x, fY|X (y | x) = , y ∈ (0, x)
condicionadas x
Distribuciones Z ∞ Z x
marginales 1 x
Distribuciones E[Y | X = x] = yfY|X (y | x)dy = y dy =
condicionadas
−∞ 0 x 2
Cópulas
Consideramos la v.a. E[Y | X] = X/2, calculamos
Variables
aleatorias X 1 1
independientes E [E(Y | X)] = E = E[X] =
Funciones de
2 2 4
varias variables
var(X) 1
Correlación, var[E(Y | X)] = var[X/2] = =
varianzas y 4 48
momentos Z ∞
2
Esperanza y
varianza
var[Y | X = x] = (y − E (Y | X = x)) fY|X (y | x)dy
condicionadas −∞
x
x2
Z
2 1
= (y − x/2) dy =
0 x 12
Introducción
Introducción
Introducción
Distribuciones Teorema 12
marginales y
condicionadas Sea (X, Y) un vector aleatorio. Si E [Y] existe. Entonces,
Distribuciones
marginales
Distribuciones
condicionadas E [Y] = E (E [Y |X ]) .
Cópulas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Demostración del Teorema 12
Introducción
Sea (X, Y) continuo (el caso discreto es similar). Sea g(X) = E[Y | X]
Introducción
Introducción g (x) = E [Y |X = x ] .
Distribuciones
marginales y
condicionadas
Entonces,
Distribuciones
marginales
Z ∞
Distribuciones
condicionadas
E (E [Y |X ]) =E [g (X)] = g (x) fX (x)dx =
−∞
Cópulas
Variables
Z ∞
aleatorias E [Y |X = x ] fX (x)dx =
independientes
−∞
Funciones de Z ∞ Z ∞
varias variables
y fY|X (y |x ) dy fX (x)dx =
Correlación, −∞ −∞
varianzas y
momentos Z ∞ Z ∞ Z ∞Z ∞
f (x, y)
Esperanza y y dy fX (x)dx = y f (x, y) dydx =
varianza −∞ −∞ fX (x) −∞ −∞
condicionadas Z ∞ Z ∞ Z ∞
y f (x, y) dx dy = y fY (y)dy = E [Y]
−∞ −∞ −∞
Introducción
Distribuciones
marginales y 1 E [c |X ] = c para cualquier constante c.
condicionadas
Distribuciones
marginales
Distribuciones
2 E [a1 g1 (Y) + a2 g2 (Y) |X ] = a1 E [g1 (Y) |X ] + a2 E [g2 (Y) |X ]
condicionadas
para cualesquiera funciones g1 , g2 medibles.
Cópulas
Variables
aleatorias
3 Si X e Y son independientes E [Y |X ] = E [Y] y
independientes E [X |Y ] = E [X] .
Funciones de
varias variables 4 E [h1 (X)h2 (Y)|X] = h1 (X)E [h2 (Y)|X], para cualesquiera
Correlación,
varianzas y funciones h1 y h2 medibles.
momentos
Esperanza y
varianza
condicionadas
Algunas de estas propiedades
Introducción
Introducción
Variables
aleatorias En el caso continuo, es inmediato a partir de
independientes
Z ∞
Funciones de
varias variables E [h1 (X)h2 (Y)|X = x] = h1 (x)h2 (y)fY|X (y | x)dy
Correlación, −∞
varianzas y Z ∞
momentos
= h1 (x) h2 (y)fY|X (y | x)dy
Esperanza y −∞
varianza
condicionadas = h1 (x)E [h2 (Y)|X = x]
Línea de regresión - Varianza condicionada
Introducción
Introducción
Introducción
Definición. Línea de regresión
Distribuciones Dadas las variables X e Y, se denomina línea de regresión de Y
marginales y
condicionadas sobre X (Y | X) al lugar geométrico de los puntos
Distribuciones
marginales (x, E [Y |X = x ]) . Análogamente, la línea de regresión de X sobre
Distribuciones
condicionadas Y (X | Y) es el lugar geométrico de los puntos (E [X |Y = y ] , y) .
Cópulas
Variables
aleatorias
independientes Si queremos predecir Y por medio de una función de X (no
Funciones de necesariamente lineal), digamos g(X), el mejor predictor de
varias variables
acuerdo con el criterio del error cuadrático medio saldrá de
Correlación,
varianzas y n h io
momentos min E (Y − g(X))2 .
Esperanza y
g
varianza
condicionadas
Vamos a demostrar que el mejor predictor g(X) es precisamente la
esperanza condicionada E [Y |X ].
Varianza condicionada
Introducción
Introducción
Introducción
Sean X e Y variables aleatorias y sea g una
función
medible y real.
Supongamos que E Y 2 < ∞ y que E (g (X))2 < ∞. Entonces,
Introducción
Distribuciones h i h i
marginales y
condicionadas E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables Demostración
aleatorias
independientes
h i h i
Funciones de
varias variables E (Y − g(X))2 = E (Y−E (Y |X ) + E (Y |X ) − g(X))2 =
Correlación,
varianzas y h i
momentos E (Y − E (Y |X ))2 + 2E [(Y − E (Y |X )) (E (Y |X ) − g(X))] +
Esperanza y
varianza h i
condicionadas
E (E (Y |X ) − g(X))2 .
Teorema 13
Introducción Sean X e Y variables aleatorias y sea g una
función
medible y real.
Supongamos que E Y 2 < ∞ y que E (g (X))2 < ∞. Entonces,
Introducción
Introducción
h i h i
Distribuciones
marginales y E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Demostración
Variables
aleatorias
independientes h i h i
Funciones de E (Y − g(X))2 = E (Y−E (Y |X ) + E (Y |X ) − g(X))2 =
varias variables
Correlación, h i
varianzas y
momentos
E (Y − E (Y |X ))2 + 2E [(Y − E (Y |X )) (E (Y |X ) − g(X))]+
Esperanza y h i
varianza
condicionadas
E (E (Y |X ) − g(X))2 .
= S1 + S2 + S3
Continuación... demostración del Teorema 13
Por un lado ¿S1 =h E [var(Y | X)]?. Recordemos que
Introducción
Introducción
i
2
var (Y | X) = E (Y − E(Y | X)) |X . Sabemos que
Introducción
Distribuciones h i
marginales y
condicionadas
S1 = E (Y − E (Y |X ))2
Distribuciones n h io
Teo,12
E E (Y − E (Y |X ))2 | X
marginales
Distribuciones = por def.
condicionadas
Introducción
var (Y) = E [var (Y |X )] + var (E [Y |X ]) .
Distribuciones
marginales y
condicionadas La demostración es inmediata a partir del teorema anterior.
Distribuciones
marginales
Distribuciones
condicionadas
h i h i
Cópulas E (Y − g(X))2 = E [var (Y |X )] + E (E (Y |X ) − g(X))2 .
Variables
aleatorias
independientes ¿Por qué?
Funciones de
varias variables
Basta considerar como g(X) la función constante e igual a E[Y], es
Correlación, decir g(X) = E[Y]. Observad que
varianzas y
momentos h i
Esperanza y E (E (Y | X) − E[Y])2 = var (E [Y |X ])
varianza
condicionadas
Cuestión propuesta: Demostrar el Teorema de Madow de forma
directa sin utilizar el Teorema 13.
Corolario 5
Si E Y 2 < ∞, entonces el mínimo
Introducción
n h io
Introducción 2
min E (Y − g(X))
Introducción g∈A
Distribuciones n h i o
marginales y 2
condicionadas siendo A = g : R → R medible : E (g (X)) < ∞ se alcanza
Distribuciones
marginales cuando g(X) = E [Y |X ] .
Distribuciones
condicionadas
Cópulas Demostración.
Variables Por el Teorema 13, se verifica que
aleatorias
independientes h i h i
2 2
Funciones de E (Y − g(X)) = E [var (Y |X )] + E (E (Y |X ) − g(X)) .
varias variables
Correlación, n h io
2
varianzas y
momentos
Como E [var (Y |X )] > 0, E (Y − g(X)) es mínimo cuando
Esperanza y h i
varianza 2
condicionadas E (E (Y |X ) − g(X)) = 0,
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura.
condicionadas
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X).
Ejercicio 10
Introducción
Rompemos un bastón de longitud 1 metro en un punto aleatorio,
Introducción
uniformemente distribuido sobre la longitud del bastón. Posteriormente,
Introducción
rompemos la pieza restante siguiendo el mismo procedimiento. Hallar la
Distribuciones
marginales y longitud esperada y la varianza de dicha pieza.
condicionadas
Distribuciones Solución:
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X). Esto se interpreta de la
siguiente forma: dado que X = x ∈ (0, 1) , la variable Y (Y |X = x) se
distribuye uniformemente en (0, x) , Y |X = x ∼ U(0, x).
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Correlación, E [Y |X ] =
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Esperanza y
varianza
condicionadas
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas
E [Y] =
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas
E [Y] = E [E [Y |X ]] =
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
Introducción
E [X] = , E X 2 = , var [X] = .
Distribuciones 2 3 12
marginales y
1
condicionadas
Distribuciones
En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
Comprobar que
condicionadas
Esperanza y
varianza Aplicando el Teorema 13 se tiene que
condicionadas
X 1 1
E [Y] = E [E [Y |X ]] = E = E [X] = .
2 2 4
Además, var [Y |X = x ] =
Introducción
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
E [var (Y |X )] =
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
condicionadas 1 1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas
Cópulas Además
Variables
aleatorias
independientes
var (E [Y |X ]) =
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
condicionadas 1 1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas
Cópulas Además
Variables
aleatorias
X
independientes
var (E [Y |X ]) = var =
Funciones de 2
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
condicionadas 1 1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas
Cópulas Además
Variables
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables
Esperanza y var[Y] =
varianza
condicionadas
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
condicionadas 1 1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas
Cópulas Además
Variables
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables
Introducción
Introducción
Sean X1 , X2 , ... variables aleatorias i.i.d. con E [Xi ] = µ yP
Distribuciones
σ 2 = var [Xi ] < ∞. Se definen las sumas parciales Sn = ni=1 Xi ,
marginales y
condicionadas
con S0 = 0. Sea N una variable aleatoria positiva, que toma
Distribuciones
marginales
valores en los naturales e independiente de las variables Xi , tal que
var(N) < ∞. Considerar la suma aleatoria SN = Ni=1 Xi .
P
Distribuciones
condicionadas
Cópulas
1 Demostrar que
Variables
aleatorias E [SN | N] = µN
independientes
Correlación,
2 Demostrar que
varianzas y
momentos
E SN2 | N = σ 2 N + µ2 N 2
Esperanza y
varianza
Calcular E SN2 y var (SN ).
condicionadas
Ejercicio 11: Indicaciones para su solución
PN
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] =
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Cópulas E[SN ] =
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Por tanto
Esperanza y E[SN2 ] =
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N =
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
Esperanza y
varianza
condicionadas
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
Esperanza y
varianza
condicionadas
var(SN ) =
Ejercicio 11: Indicaciones para su solución
PN Pn
Introducción
Observad que si SN = i=1 Xi , entonces [SN | N = n] = i=1 Xi
Introducción
Introducción
1 Para demostrar que E [SN | N] = µN, basta ver que
Distribuciones
marginales y
condicionadas E [SN | N = n] = µn.
Distribuciones
marginales
Distribuciones
Por tanto,
condicionadas
Correlación,
varianzas y
momentos
Por tanto
E[SN2 ] = E E SN2 | N = σ 2 E[N] + µ2 E[N 2 ]
Esperanza y
varianza
condicionadas
Cópulas
Variables
aleatorias
independientes
Funciones de
varias variables
Correlación,
varianzas y
momentos
Esperanza y
varianza Sea X ∼ U (0, 1) el primer punto de ruptura. Entonces, el segundo punto
condicionadas
de ruptura, Y, dado X, verifica Y |X ∼ U(0, X). Esto se interpreta de la
siguiente forma: dado que X = x ∈ (0, 1) , la variable Y (Y |X = x) se
distribuye uniformemente en (0, x) , Y |X = x ∼ U(0, x).
Ejercicio 10 continuación
Introducción
Si X ∼ U(0, 1), se tiene que
Introducción
1 1 1
E [X] = , E X 2 = , var [X] = .
Introducción
Distribuciones 2 3 12
marginales y
condicionadas 1
Distribuciones En general si X ∼ U(a, b), f (x) = b−a , x ∈ (a, b).
marginales
Distribuciones
condicionadas
Comprobar que
Cópulas
a+b (b − a)2
Variables E[X] = y var[X] = .
aleatorias 2 12
independientes
Correlación, X
varianzas y E [Y |X ] = .
momentos 2
Esperanza y
varianza Aplicando el Teorema 12 se tiene que
condicionadas
X 1 1
E [Y] = E [E [Y |X ]] = E = E [X] = .
2 2 4
x2
Además, var [Y |X = x ] = 12 , es decir,
Introducción X2
var [Y |X ] =
Introducción 12
Introducción
por tanto
Distribuciones
marginales y
X2
condicionadas 1 1 1 1
Distribuciones
E [var (Y |X )] = E = E X2 = · = .
marginales
Distribuciones
12 12 12 3 36
condicionadas
Cópulas Además
Variables
aleatorias
X 1 1 1
independientes
var (E [Y |X ]) = var = · = .
Funciones de 2 4 12 48
varias variables
Introducción
Introducción
Sean X1 , X2 , ... variables aleatorias i.i.d. con E [Xi ] = µ yP
Distribuciones
σ 2 = var [Xi ] < ∞. Se definen las sumas parciales Sn = ni=1 Xi ,
marginales y
condicionadas
con S0 = 0. Sea N una variable aleatoria positiva, que toma
Distribuciones
marginales
valores en los naturales e independiente de las variables Xi , tal que
var(N) < ∞. Considerar la suma aleatoria SN = Ni=1 Xi .
P
Distribuciones
condicionadas
Cópulas
1 Demostrar que
Variables
aleatorias E [SN | N] = µN
independientes
Correlación,
2 Demostrar que
varianzas y
momentos
E SN2 | N = σ 2 N + µ2 N 2
Esperanza y
varianza
Calcular E SN2 y var (SN ).
condicionadas
Ejercicio 11: Indicaciones para su solución
Observad que si SN = Ni=1 Xi , entonces [SN | N = n] = ni=1 Xi
Introducción
P P
Introducción
1 Para demostrar que E [S
N | N] = µN, basta ver que
Introducción
Esperanza y
varianza var(SN ) = E[SN2 ] − (E[SN ])2
condicionadas
Sustituyendo por los valores correspondientes,
var(SN ) = σ 2 E[N] + µ2 var(N).
Cuestión 1 propuesta en el foro
Introducción
Introducción
Introducción
Distribuciones
marginales y
condicionadas
Distribuciones
marginales Sea Y una variable aleatoria continua cuya media y varianza se
Distribuciones
condicionadas
desea conocer. Para ello se considera X una variable aleatoria tal
Cópulas
que E[X] = 2, y Var[X] = 1. Sabiendo que la distribución
Variables
aleatorias condicionada Y/X = x sigue una distribución exponencial,
independientes
Exp (1/(2x)), hallar, si es posible, la esperanza y varianza de la
Funciones de
varias variables variable aleatoria Y.
Correlación,
varianzas y
momentos
Esperanza y
varianza
condicionadas
Cuestión 1: Indicaciones para la solución
Introducción
Introducción Solución:
Introducción ¿Qué conocemos?
Distribuciones
marginales y
condicionadas
Distribuciones
E[X] = 2, var(X) = 1
marginales
Distribuciones
condicionadas Además se sabe que
Cópulas
1
Variables
aleatorias
[Y | X = x] ∼ Exp
independientes 2x
Funciones de
varias variables Si Z ∼ Exp(λ), entonces fZ (z) = λe−λz , z > 0.
Correlación,
varianzas y
momentos 1 1
fY|X (y | x) = exp − y , y > 0
Esperanza y 2x 2x
varianza
condicionadas
Si Z ∼ Exp(λ), sabemos que E[Z] = 1/λ y var(Z) = 1/λ2 .
¿Cómo proceder para conocer E[Y] y la var(Y)?
Cuestión 1: Indicaciones para la solución
Introducción
Introducción
Introducción
Distribuciones
¿Cómo proceder para conocer E[Y] y la var(Y)?
marginales y
condicionadas
Como [Y | X = x] ∼ Exp(1/(2x)), entonces
Distribuciones
marginales
Distribuciones
condicionadas
E [Y | X = x] = 2x, var (Y | X = x) = (2x)2
Cópulas
Variables
¿Por qué?
aleatorias
independientes Teor,12
Funciones de
E[Y] = E [E(Y | X)]
varias variables
Correlación,
Teor.Madow
varianzas y
momentos
var(Y) = E [var (Y | X)] + var (E [Y | X])
Esperanza y
varianza
Continuar.... subir al foro vuestras respuestas.
condicionadas
Ejercicio 2.16
Ejercicio 2.2
Ejercicio 2.7
Ejercicio 2.11
Ejercicio 2.9
Ejercicio 2.5
Ejercicio 2.17
2.16 Supongamos que X1 y X2 tienen función de densidad
Ejercicio 10:
conjunta:
propuesto en
Teoría
λm+n+2 x1m x2n −λ(x1 +x2 )
Ejercicio 2.16 f (x1 , x2 ) = e , x1 , x2 > 0.
m!n!
Encontrar la función de densidad conjunta de Y1 = X1 + X2 y
Y2 = X1 /(X1 + X2 ) y mostrar que Y1 e Y2 son independientes.
Ejercicio 2.16: Solución
Ejercicio 2.2
λm+n+2 xm xn
1 2 −λ(x1 +x2 )
Ejercicio 2.7
f (x1 , x2 ) = m!n! e , x1 , x2 > 0.
Ejercicio 2.11
¿Cómo procedemos para hallar la densidad conjunta de (Y1 , Y2 )?
Ejercicio 2.9
Aplicaremos el Teorema de la transformación de vectores
Ejercicio 2.5
aleatorios (Teorema 10)
Ejercicio 2.17
Consideramos Y1 = X1 + X2 , Y2 = X1X+X 1
2
. Para comprobar que se
Ejercicio 10:
propuesto en verifican las hipótesis del Teorema. Consideramos
Teoría
Ejercicio 2.16
g(y1 , y2 ) = (x1 + x2 , x1x+x
1
2
) (g : R+ × R+ → R+ × R+ , biyectiva)
y1 = g1 (x1 , x2 ) = x1 + x2 x1 = h1 (y1 , y2 ) = y1 · y2
y2 = g2 (x1 , x2 ) = x1x+x
1
2
x2 = h2 (y1 , y2 ) = y1 (1 − y2 )
∂xi
Tanto g como h son continuas, y las derivadas parciales ∂y j
, para
i, j = 1, 2 existen y son continuas. El jacobiano de la
y2 y1
transformación inversa, J = = −y1 6= 0
1 − y2 −y1
Ejercicio 2.16: Solución
Ejercicio 2.2
λm+n+2 xm xn
1 2 −λ(x1 +x2 )
Ejercicio 2.7 f (x1 , x2 ) = m!n! e , x1 , x2 > 0.
Ejercicio 2.11 Entonces aplicando el Teorema 10, la función de densidad
Ejercicio 2.9
conjunta de (Y1 , Y2 ) viene dada por
Ejercicio 2.5
Ejercicio 2.17
fY1 ,Y2 (y1 , y2 ) = |J| · f (h1 (y1 , y2 ) , h2 (y1 , y2 ))
Ejercicio 10:
propuesto en
Teoría Sustituyendo por los valores correspondientes
Ejercicio 2.16