Está en la página 1de 22

VECTORES ALEATORIOS

1 Introducci
on

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caractersticas simult
aneamente, como por ejemplo la velocidad
de transmision de un mensaje y la proporcion de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matematico que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numericos. Estos modelos seran la base para la construccion de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la poblacion.

2 Vectores aleatorios

El concepto de vector aleatorio nace como una generalizacion natural de la nocion


de variable aleatoria, al considerar simult
aneamente el comportamiento aleatorio
de varias caractersticas asociadas a un experimento.

Definici on 2.1 (Vector aleatorio.) Dado un un espacio probabilstico (E, A, P )


y el espacio probabilizable (Rp , ) con -
algebra de Borel en Rp , se dice que una
on x = (x1 . . . , xp )t
aplicaci
x : E Rp
es un vector aleatorio si es medible, es decir x1 (B) A B , por tanto
cada una de sus componentes xi , i = 1, . . . p es una variable aleatoria.

Veamos algunos ejemplos sencillos de vectores aleatorios.


El vector (x1 , x2 ) representa la temperatura maxima que puede alcanzar una
resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es mas
frecuente utilizar la notacion (X,Y).)

1
2 2 VECTORES ALEATORIOS

Los componentes del vector (x1 , x2 , x3 , x4 , x5 , x6 )t representan, respectiva-


mente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.

Definicion 2.2 (Probabilidad inducida.) Dado un vector aleatorio x defini-


do sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicaci
on
p
Px : R definida por:

Px (B) = P [x1 (B)] B

(Rp , , Px ) es el espacio probabilstico inducido por x.


La distribucion de probabilidad inducida por un vector aleatorio se puede
caracterizar mediante la funcion de distribucion.

Definici
on 2.3 (Funcion de distribuci on.) Dado el vector aleatorio x se de-
nomina funci
on de distribuci
on asociada, a la funci on F : Rp R definida
por:
F (a) = P [x1 a1 , . . . , xp ap ]

Las propiedades mas importantes de las funciones de distribucion son:

1. F (, a2 , . . . , ap ) = = F (, , ai , , ) = 0.

2. F (, . . . , ) = 1.

3. F es continua por la derecha respecto de cada variable.

4. F es no decreciente respecto a cada variable.

5. En el caso bidimensional dados hi > 0 se verifica que


\
P ((a1 < x1 a1 + h1 ) (a2 < x2 a2 + h2 )) =

= F (a1 + h1 , a2 + h2 ) F (a1 , a2 + h2 ) F (a1 + h1 , a2 ) + F (a1 , a2 ) 0


Mientras que en el caso p-dimensional se tendra la expresion:
Xp
F (a1 +h1 , . . . , ap +hp ) F (a1 +h1 , . . . , ai1 +hi1 , ai , ai+1 +hi+1 , . . . , ap +hp )
i=1
p
X
+ F (a1 +h1 , . . . , ai1 +hi1 , ai , ai+1 +hi+1 , . . . , aj1 +hj1 , aj , aj+1 +hj+1 , . . . , ap +hp )
i,j=1,i6=j

+ . . . , +(1)p F (a1 , . . . , ap ) 0

Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las


variables aleatorias que lo componen.
3

3 Vectores aleatorios discretos

La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.

Definici
on 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio defini-
do sobre (E, A, P ) y S = {a Rp /P (a) > 0}, se dice que x es discreto si se
cumple que:

1. S 6=

2. El cardinal de S es a lo sumo infinito numerable.


X
3. P (a) = 1.
aS
P
4. P [x B] = aBS P (a).

Al conjunto S se le llama conjunto soporte del vector x.


En este caso la funcion de distribucion es discontinua y viene dada por la
expresion: X
F (x) = P (a)
aSx

con Sx = {a Rp /a x}.

4 Vectores aleatorios continuos

En los vectores aleatorios continuos cada componente es una v. a. de tipo


continuo y analogamente al caso unidimensional para caracterizar su distribucion
es conveniente emplear la funcion de densidad.

Definicion 4.1 (Funcion de densidad) Una funci on f : Rp R se dice que


es funci
on de densidad si verifica las condiciones:

1. f (x) 0 x Rp
R R R
2. Rp f (x) dx = . . . f (x) dx = 1

Definicion 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice que


es continuo si su funci
on de distribuci
on se puede expresar como:
Z x1 Z xp
F (x) = ... f (y)dy x Rp

4 5 DISTRIBUCIONES MARGINALES

on de densidad en Rp .
donde f es una funci

El conjunto Sx = {a Rp /f (a) > 0} se denomina conjunto soporte de x.


Las propiedades mas importantes de los vectores continuos son:

1. La funcion de distribucion es continua.

2. En los puntos de continuidad de la funcion de densidad se cumple que:


p F (x)
f (x) =
x1 . . . xp
3. S = {a Rp /Px (a) > 0} = , es decir, P (a) = 0 a Rp
R
4. P [x B] = B f (x)dx

5 Distribuciones marginales

Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos


de interes de estudiar el comportamiento de cada una de esas variables por se-
parado o de grupos de las mismas. Para abordar este problemas se definen las
distribuciones marginales.

Definicion 5.1 (Distribuciones marginales) Sea x un vector aleatorio con


funci
on de distribucion F(x), entonces cada una de sus componentes, xi son
variables aleatorias unidimensionales con las siguientes funciones de distribuci
on
marginal para la componente xi

Fi (xi ) = F (+, + , xi , +, + )

Tambien se puede hablar de distribuciones marginales de un subvector , as


si x = (x1 , x2 )se define la funci
on de distribuci
on marginal de x1 como F1 (x1 ) =
F (x1 , +, + )

Si el vector es continuo se tiene las funcion de densidad marginal de la compo-


R
nente xi , fi (xi ) = Rp1 f (a1 , . . . ai1 , xi , ai+1 , . . . an )da1 . . . dai1 dai+1 , . . . dan
Mientras que si x es discreto las expresiones para las distribucion de proba-
bilidad marginal de la componente xi son:
X
Pi (xi ) = P (y)
yS,yi =xi

Analogamente se tendran las distribuciones de los subvectores.


5

6 Distribuciones condicionadas

En muchos problemas reales puede interesa estudiar el comportamiento de una


variable teniendo cierta informacion complementaria sobre el experimento. Por
ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respecti-
vamente, las intensidades de las senales enviadas y recibidas a traves de un canal
de informacion. Un aspecto fundamental es este tipo de problemas es conocer
el comportamiento de la se nal recibida Y condicionada a que se ha enviado una
se
nal (X=x), es decir, analizar la distribucion de (Y / X=x). Otro problema muy
interesante es el complementario del anterior, o sea, estudiar la se
nal que se envi
o
cuando se conoce la senal recibida (X/ Y=y).
Cuando el suceso que condiciona tiene una probabilidad estrictamente posi-
tiva el problema se reduce a utilizar la probabilidad condicionada para calcular
la distribucion de (x2 /x1 = a).

P (x1 = a, x2 b)
Fx2 /x1 =a (b) =
P (x1 = a)
En el caso que esta funcion sea absolutamente continua se puede considerar la
funcion de densidad condicionada de (x2 /x1 = a) que sera


p2 (Fx2 /x1 =a (x2 ))
fx2 /x1 =a (b) =
x2
b
en los puntos de continuidad de la funcion de distribucion
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.
En este caso se define la funcion de densidad condicionada.

Definicion 6.1 (Funci on de densidad condicionada) Dado el vector alea-


torio ( x1 , x2 ) la funci
on de densidad de x2 condicionada a (x1 = a), se define
como una funci on no negativa fx2 /x1 =a , que satisface:
Z
Fx2 /x1 =a (b) = fx2 /x1 =a (t) dt x2 Rp2
{tRp2 /tb}

El siguiente resultado nos permite calcular la funcion de densidad condicio-


nada en el caso de trabajar con vectores aleatorios continuos.

Proposici on 6.1 Dado un vector aleatorio ( x1 , x2 ) cuya funci on de densidad


es f( x1 , x2 ) se verifica que en todo punto de continuidad de f en el que fx2 (b) >0,
6 7 MOMENTOS

la funci
on de densidad de (x1 /x2 = b) existe y vale:
f (a, b)
fx1 /x2 =b (a) =
fx2 (b)

Definici
on 6.2 (Independencia de vectores aleatorios) Dado el vector alea-
torio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que:
Fx (a, b) = Fx1 (a) Fx2 (b) (a , b) Rp

Si trabajamos con la funcion de densidad esta condicion es equivalente a:


fx (a, b) = fx1 (a) fx2 (b) (a , b) Rp

Cuando las variables son discretas la independencia equivales a:


Px (a, b) = Px1 (a) Px2 (b) (a , b) Rp

Una propiedad muy interesante es que si x1 y x2 son independientes entonces


nuevas variables aleatorias g(x1 ) y h( x2 ), obtenidas como transformaciones de
las anteriores, tambien los son.
Tambien es interesante hacer notar que si dos vectores x1 y x2 son inde-
pendientes no quiere decir que las componentes de x1 lo sean. Es decir en el
caso multidimensional pueden aparecer muchos tipos de independencia como la
independencia condicional

Definici on 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x1 , x2 , x3 )


se dice que x1 y x2 son condicionalmente independientes dado x3 cuando se ve-
rifica que x1 /x3 y x2 /x3 son independientes.

7 Momentos

En este apartado se da la definicion de momento para poder describir de manera


resumida el comportamiento de los vectores aleatorios.

Definici on 7.1 (Momentos respecto al origen) Dado una vector aleatorio


p-dimensional continuo x se denomina momento respecto al origen de orden
(r1 , . . . , rp ), si existe, al valor dado por la expresi on:
Z
r r
ar1 ,...,rp (x) = E(xr11 . . . xpp ) = xr11 . . . xpp f (x)dx
Rp

donde f(x) es la funci


on de densidad.
An
alogamente se definira para el caso discreto.
7

Los momentos respecto al origen mas importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.

Definicion 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional


x se denomina vector esperanza, E(x), al vector de componentes (1 , . . . , p )t
definidas por : Z
i = x fxi (x) dx

Es inmediato comprobar que:

i = E(xi ) = a0...,0,1i ,0,...,0 (x)

.
Cuando se trabaja con una funcion g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresion:
Z
E[g(x)] = g(x) f (x) dx
Rp

Entre las propiedades mas importantes del vector esperanza, si existe, se


encuentran:

1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):


E[ y]=A E[x]+b.
R R
2 E[g1 (x1 )] = Rp g1 (x1 ) f (x)dx = Rp1 g1 (x1 ) f1 (x1 )dx1 .

3 Linealidad E[a1 g1 (x) + a2 g2 (x)] = a1 E[g1 (x)] + a2 E[g2 (x)] , siendo ai R

Otros momentos muy importantes son los centrados respecto al vector de


medias. La expresiones que aparecen a continuaci on se refieren al caso continuo,
ya que el caso discreto se desarrolla de manera analoga a la realizada hasta este
momento.

Definicion 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional


continuo x se denomina momento centrado de orden (r1 , . . . , rp ), si existe, al va-
lor dado por la expresi on:
Z
mr1 ,...,rp (x) = (x1 1 )r1 . . . (xp p )rp f (x)dx
Rp

donde f(x) es la funci


on de densidad.
8 7 MOMENTOS

Los momentos centrados de orden dos para una de las componentes ri = 2,


cero para el resto, rj = 0 si j 6= i), dan lugar a las varianzas de cada componente
xi , que se va a denotar por ii .

V ar(xi ) = ii = E(xi i )2 = m0...,0,2i ,0,...,0 (x)

El momento centrado de orden (0 . . . , 0, 1i , 0, . . . , 0, 1j , 0, . . . , 0) se denomina


covarianza entre la componentes xi , xj , y se va a denotar por ij , tiene una gran
importancia porque nos permite estudiar si las componentes estan relacionadas
linealmente.

Definicion 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleato-


rio x se define su matriz de varianzas-covarianzas, si existe, como:

11 . . . 1p
..
= E[(x ) (x )t ] = ... ..
. .
p1 . . . pp

Entre sus propiedades destacan:

Las matrices de varianzas-covarianzas son siempre matrices simetricas y


semidefinidas positivas

= E[x xt ] t

Var (at x)=at a

Var(Ax+b)= A At

Tambien se pueden definir matrices de varianzas-covarianzas entre dos vec-


tores aleatorios definidos sobre el mismo espacio probabilstico,

Definicion 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,


y, se define su matriz de varianzas-covarianzas, si existe, como:

x1 ,y1 . . . x1 ,yq
.. .. ..
Cov(x, y) = E[(x x ) (y y )t ] = . . .
xp ,y1 ... xp ,yq

Entre sus propiedades destacan:

=Cov(x,x)
9

Cov(x,y)= (Cov(y,x))t

Cov(Ax,By)= A Cov(x,y) Bt

Cov(x1 +x2 ,y)= Cov(x1 ,y) + Cov(x2 ,y)

Si los vectores tienen la misma dimension


Var(x+y)=x+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)

Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,


pero el recproco no tiene porque ser cierto.

Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,


Y) en el que existen los momentos centrados de orden dos, se verifica que:

E 2 [X Y ] E(X 2 ) E(Y 2 )

ademas la igualdad se alcanza si y solo si existen dos n


umeros reales y , con
al menos uno de ellos distinto de cero, tales que P [ X + Y = 0] = 1.

Definici
on 7.6 (Coeficiente de correlaci on de Pearson) Dadas dos compo-
nentes xi , xj de un vector aleatorio x se denomina coeficiente de correlaci
on de
Pearson entre esas componentes , ij a la expresion:
ij
ij =
ii jj

Las propiedades mas importantes del Coeficiente de correlacion de Pearson


son:

1. 1 ij 1.

2. ij alcanza los extremos si y solo si xj es una funcion lineal de xi , o al reves.

3. Si ij =0, se dice que xi e xj son linealmente independientes, pero en general


la independencia lineal no implica la independencia estadstica.

4. Si xi e xj son independientes entonces son linealmente independientes.

Definicion 7.7 (Matriz de correlaci on de Pearson) Dado un vector aleato-


rio x se denomina matriz de correlaci
on entre sus componentes a:
10 7 MOMENTOS


1 ... 1p
.. .. ..
R= . . .
p1 ... 1

Ejemplo 1.(Continuacion)
La correlacion de Pearson entre X e Y es:
Cov(X , Y ) 1
= =
X Y 11
por lo tanto tienen una relacion lineal muy peque
na.
Ejemplo.
Sea X una v. a. con distribucion U(-1, 1), y definimos la variable Y=X2 . Com-
probar que X e Y son linealmente independientes pero no son independientes.
R1 1
E(X) = 1 x dx = 0.
2
R1 1
E(X.Y) = E(X. X2 ) = E(X3 ) = 1 x3 dx = 0.
2
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X2 .

Definicion 7.8 (Funci on generatriz de momentos) Dado un vector aleato-


rio x p-dimensional la funcion generatriz de momentos,si existe, se define como:
Z
tt x t
gx (t) = E(e ) = et x f (x) dx
Rp

Entre las propiedades mas interesantes de la funcion generatriz de momentos


est
an las siguientes:

1. g(0)=1

2. g cuando existe caracteriza la distribucion.

3. Los vectores aleatorias x,y son independientes si y solo si la funcion genera-


triz de momentos conjunta es igual al producto de las funciones generatrices
de las marginales.

gx,y (t1 , t2 ) = gx (t1 ) gy (t2 ) (t1 , t2 ) entorno de 0 Rp+q

4. Si x,y son vectores aleatorios independientes entonces la funcion generatriz


de x+y verifica:
gx+y (t) = gx (t) gy (t)
11

Definici on 7.9 (Funci on caracterstica ) Dado un vector aleatorio x p-dimensional


la funci
on caracterstica se define como:
Z
t t
x (t) = E(eit x ) = eit x f (x) dx
Rp

Esta funcion existe siempre y caracteriza totalmente la distribucion del vec-


tor aleatorio x. Presenta unas propiedades analogas a la funcion generatriz de
momentos.
Relacionada con la funcion caracterstica tienen gran importancia el siguien-
te Teorema

Teorema 7.2 (Teorema de Cramer- Wald) La distribuci on de un vector alea-


torio p-dimansional x est
a completamente determinada por el conocimiento del
comportamiento de todas las variables unidimensionales que se puedan formar
como combinacion lineal de sus componentes.

8 Momentos Condicionados

Estos momentos juegan un papel importante en el manejo de las distribucio-


nes multivariantes , sobre todo cuando se imponen condiciones a algunas de sus
componentes.

Definicion 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional


del que se consideran la partici
on (x1 , x2 ) se define la esperanza del vector x1 con-
dicionada por el valor x2 de la segunda componente como
Z
E[x1 /x2 ] = x1 fx1 /x2 (x1 )dx1
Rp1

En general esta expresion sera una funcion del valor de x2 . Observese que se hace
un abuso de notacion cuando x1 tienen dimension mayor que 1, ya que en este caso
habra que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.
Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen

E[x1 ] = E[E[x1 /x2 ]]


12 DE UN VECTOR ALEATORIO
9 FUNCION

La curva o superficie que a cada valor de x2 le hace corresponder E[x1 /x2 ]


se llama la curva o superficie general de regresion de x1 sobre x2 . En el caso de
que esta superficie sea lineal se tiene la regresion lineal.

Definicion 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensional


del que se consideran la partici
on (x1 , x2 ) se define la varianza del vector x1 con-
dicionada por el valor x2 como V [x1 /x2 ] = V1|2 como la matriz de varianzas
respecto a la distribuci
on condicionada (x1 /x2 )

En el caso bidimensional (x1 , x2 ) se verifica que

E(xi ) = E[E(xi /xj )]

V ar(xi ) = E[V ar(xi /xj )] + V ar[E(xi /xj )]

9 Funci
on de un vector aleatorio

En este apartado estudiaremos algunos metodos que nos permiten calcular la


distribucion de probabilidad de funciones de un vector aleatorio.
El metodo mas general consiste en obtener directamente la funcion de distribucion
del nuevo vector aleatorio. Dado y = g(x), entonces

Fy (y) = P (y y) = P [ x Rp / g(x) y]

Veamos algunos ejemplos sencillos en los que g es una funcion de R2 en R,


es decir Z es una variable aleatoria.
Ejemplo
Sea (X, Y)un vector aleatorio continuo cuya funcion de densidad vale:
(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Y
Calcular la distribucion de la variable Z = .
X
El conjunto soporte de Z es SZ = (0 , ).
Y
P (Z z) = P ( z) = P (Y z X)
X
Cuando 0 < z < 1 la funcion de distribucion vale:
Z 1 Z zx Z 1Z zx
z
F (z) = f (x , y) dx dy = dx dy =
0 0 0 0 2
13

Cuando z > 1 la funcion de distribucion vale:


Z 1/z Z zx Z 1 Z 1
1 1 1
F (z) = dx dy + dx dy = + (1 ) = 1
0 0 1/z 0 2z z 2z

Por lo tanto la funcion de distribucion es:




0 si z 0
z
F (z) = si 0 < z 1 ,
2

1 1 si z > 1
2z

Cuando la funcion g verifique ciertas condiciones de regularidad es posible


calcular directamente la funcion de densidad del vector aleatorio transformado.

Proposici on 9.1 Dado un vector aleatorio continuo x con funci


on de densidad
f(x), sea z=g(x) una transformaci
on que verifica en el conjunto soporte Sx las
siguientes condiciones :

on g:Rp Rp es biyectiva,salvo un conjunto de Lebesgue de me-


1. La funci
dida nula. es decir existen las transformaciones

zi = gi (x), i = 1, . . . p

xi = hi (z), i = 1, . . . p

2. Todas las transformaciones son continuas.

3. Existen y son continuas las derivadas parciales

x z
,
z x

(x)

J =
(z)
es distinto de cero en el recorrido de la transformaci
on.

Entonces se cumple que


(
fx [h(z)] |J| si z Sz
fz (z) =
0 en el resto
14 10 EJEMPLOS

Corolario 9.1 Si el conjunto soporte S se puede expresar como una uni on finita
de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funci on g
es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y
Jacobianos: Ji entonces
n
X
fx [hSi (z)] |Ji | si z Sz
fz (z) =


i=1
0 en el resto

Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,


es decir, det(A)6=0, son transformaciones biyectivas, su inversa es

x = A1 (y b)t

y el jacobiano de la transformacion inversa vale J=det(A1 ).


Aplicando el teorema anterior la funcion de densidad de y es:

fy (y) = fx [A1 (y-b)t ] |det(A1 )|

10 Ejemplos

Ejemplo 1.
Calcula el valor de c para que f(x, y) sea funcion de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto

1. La funcion f(x, y) 0.
Tomando c>0 se verifica la primera condicion.
R R
2. f (x , y) dx dy = 1.
Z Z Z 1Z 1
f (x , y) dx dy = c (x + y)dx dy
0 0
Z 1
1
= c ( + y) dy = c
0 2
Por lo tanto el valor que buscamos es c=1.

Calcula la probabilidad de que P[ X 0,5 ; Y 0,75].


Z 0,5 Z 0,75
P [ X 0, 5 ; Y 0, 75] = f (x , y) dy dx

15

Z 0,5 Z 0,75 Z 0,5


3x 9 15
= (x + y) dy dx = ( + ) dx =
0 0 0 4 32 64
Calcula las distribuciones marginales de X e Y.

1. La marginal de la variable X es:



Z R1 1
f1 (x) = f (x , y) dy = 0 (x + y) dy = x + 2 si 0 < x < 1
0 en el resto

2. La marginal de la variable Y es:



Z R1 1
f2 (y) = f (x , y) dx = 0 (x + y) dx = y + 2 si 0 < y < 1
0 en el resto

Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x)


y E(X/Y=y).

1
1. Como la marginal f1 (x) = x + la funcion de densidad de (Y/X=x) sera:
2

f (x, y) 2(x + y)
si 0 < y < 1
fY /X (y/x) = = 2x + 1
f1 (x) 0 en el resto

Z Z 1
2(x + y) 3x + 2
E(Y /X = x) = y fY /X (y/x) dy = y dy =
0 2x + 1 6x + 3

1
2. Como la marginal f2 (y) = y + la funcion de densidad de (X/Y=y) sera:
2

f (x, y) 2(x + y) si 0 < x < 1
fX/Y (x/y) = = 2y + 1
f2 (y)
0 en el resto

Z Z 1
2(x + y) 3y + 2
E(X/Y = y) = y fX/Y (x/y) dx = x dx =
0 2y + 1 6y + 3

Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
16 10 EJEMPLOS

y las densidades marginales son:



1
x+ si 0 < x < 1
f1 (x) = 2
0 en el resto

1
y+ si 0 < y < 1
f2 (y) = 2
0 en el resto

Entonces f (x , y) 6= f1 (x) f2 (y) y por lo tanto X e Y no son independientes.


Calcula el vector de medias y la matriz de varianzas covarianzas de (X,
Y).

1. En primer lugar vamos a obtener el vector de medias.

Z Z 1
1 7
E(X) = x f1 (x) dx = x (x + ) dx =
0 2 12
Z Z 1
1 7
E(Y ) = y f2 (y) dy = y (y + ) dy =
0 2 12

2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las


varianzas y la covarianza.

Z Z 1
2 2 1 5
E(X ) = x f1 (x) dx = x2 (x + ) dx =
0 2 12
y la varianza de X es
11
V ar(X) = E(X 2 ) E 2 (X) =
144

Z Z 1
1 5
E(Y 2 ) = y 2 f2 (y) dx = y 2 (y + ) dy =
0 2 12
y la varianza de Y es
11
V ar(Y ) = E(Y 2 ) E 2 (Y ) =
144

Para obtener la covarianza calculamos primero el momento de orden (1, 1)


Z Z Z 1Z 1
E(X Y ) = x y f (x , y) dy dx = x y (x + y) dy dx
0 0
17

Z 1
x2 x 1
= ( + ) dx =
0 2 3 3
1
Cov(X , Y ) = E(X Y ) E(X) E(Y ) =
144
La matriz de varianzas-covarianzas es :
!
1 11 1
=
144 1 11

La correlacion de Pearson entre X e Y es:


Cov(X , Y ) 1
= =
X Y 11
por lo tanto tienen una relacion lineal muy peque
na.
Ejemplo 2.
Comprueba que f(x, y) es funcion de densidad.

2
3 si 0 < x 1 ; 0 < y < x
4
f (x, y) = 3 si 1 < x < 2 ; 0 < y < 2 x

0 en el resto

1. La primera condicion f(x, y)0 se comprueba de forma inmediata.


R R
2. f (x , y) dx dy = 1.
Z Z Z 1Z x Z 2 Z 2x
2 4
f (x , y) dx dy = dy dx + dy dx
0 0 3 1 0 3
Z 1 Z 2
2x 4(2 x) 1 2
= dx + dx = + = 1
0 3 1 3 3 3

Calcula la probabilidad de que P[ X 1,5 ; Y 0,5].


Z 0,5 Z 1,5
P [ X 1, 5 ; Y 0, 5] = f (x , y) dy dx

Z 0,5 Z x Z 1 Z 0,5 Z 1,5 Z 0,5
2 2 4
= dy dx + dy dx + dy dx
0 0 3 0,5 0 3 1 0 3
1 2 4 7
= + + =
12 12 12 12
Calcula las distribuciones marginales de X e Y.
18 10 EJEMPLOS

1. La marginal de la variable X es:


R
x 2 2x
Z
dy = si 0 < x 1
0 3 3
f1 (x) = f (x , y) dy = R 2x 4 4(2 x)

0 3 dy = 3
si 1 < x < 2


0 en el resto

2. La marginal de la variable Y es:


( R R 2y
1 2 4
y 3 dx + 1 3 dx = 2(1 y) si 0 < y < 1
f2 (y) =
0 en el resto

Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) .

1. Teniendo en cuenta la expresion de f2 (y), la densidad de (X/Y=y) es:




2/3 1

= si 0 < x 1
2(1 y) 3(1 y)
f (x, y) 4/3 2
fX/Y (x/y) = = si 1 < x < 2
f2 (y)

2(1 y) 3(1 y)

0 en el resto
cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).

2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1 (x),


cambia de expresion dependiendo del valor de x.
Para 0 < x 1 se tiene:

2/3 1
f (x, y) = si 0 < y < 2 x
fY /X (y/x) = 2x/3 x
f1 (x)
0 en el resto
Para 1 < x < 2 se tiene:

4/3 1
f (x, y) = si 0 < y < 2 x
fY /X (y/x) = 4(2 x)/3 2x
f1 (x)
0 en el resto

Calcula el vector de medias y la matriz de varianzas covarianzas de (X,


Y).

1. El vector de medias de (X, Y) es

Z Z 1 Z 2
2x 4(2 x) 10
E(X) = x f1 (x) dx = x dx + x dx =
0 3 1 3 9
Z Z 1
1
E(Y ) = y f2 (y) dy = y 2 (1 y) dy =
0 3
19

2.
Z Z 1 Z 2
2x 4(2 x) 25
E(X 2 ) = x2 f1 (x) dx = x2 dx + x2 dx =
0 3 1 3 18

La varianza de X es
25
V ar(X) = E(X 2 ) [E(X)]2 =
162

Z Z 1
1
E(Y 2 ) = y 2 f2 (y) dy = y 2 2 (1 y) dy =
0 6
La varianza de Y es
1
V ar(Y ) = E(Y 2 ) [E(Y )]2 =
18
El momento de orden (1, 1)
Z Z Z 1Z x Z 2 Z 2x
2 4 13
E(X Y ) = x y f (x , y) dy dx = x y dy dx + xy dy dx =
0 0 3 1 0 3 36
13 10 1 1
Cov(X , Y ) = E(X Y ) E(X) E(Y ) = =
36 9 3 108
La matriz de varianzas-covarianzas es :
!
25 1
= 162 108
1 1
108 18

Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabi-
lidad
X\Y 0 1 2 3
3 2 1
1 0 8 8 8
1 1
2 8 0 0 8

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:


3
X 3 2 1 3
P1 (X = 1) = P (1 , y) = 0 + + + =
8 8 8 4
y=0

3
X 1 1 1
P (1 X = 2) = P (2 , y) = + 0 +0 + =
8 8 4
y=0
20 10 EJEMPLOS

2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:


2
X 1 1
P2 (Y = 0) = P (x , 0) = 0 + =
8 8
x=1

2
X 3 3
P2 (Y = 1) = P (x , 1) = +0 =
8 8
x=1
2
X 2 2
P2 (Y = 2) = P (x , 2) = +0 =
8 8
x=1
2
X 1 1 2
P2 (Y = 3) = P (x , 3) = + =
8 8 8
x=1

Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2 si 0 < x y < 1
f (x , y) =
0 en el resto

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X tiene como conjunto soporte SX =(0, 1) y su funcion


de densidad es:
Z ( R
1
f1 (x) = f (x , y) dy = x 2 dy = 2 2x si 0 < x < 1
0 en el resto

2. La v. a. marginal Y tiene el mismo conjunto soporte SY =(0, 1) y su funcion


de densidad es:
Z ( R
y
f2 (y) = f (x , y) dx = 0 2 dx = 2y si 0 < y < 1
0 en el resto

Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y).

1. La funcion de densidad de (Y/X=x) sera:


f (x, y) 2 1
fY /X (y/x) = = = si 0 < x y < 1
f (x) 2y y

2. La funcion de densidad de (X/Y=y) sera:


f (x, y) 2 1
fX/Y (x/y) = = = si 0 < x y < 1
f (y) 2 2x 1x
21

Ejemplo 5.

Sea (X, Y) un vector aleatorio cuya funcion de densidad es:


(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
f1 (x) =
0 en el resto
(
1 si 0 < y < 1
f2 (y) =
0 en el resto

Como f (x , y) = f1 (x)f2 (y) (x , y) R2 entonces X e Y son independien-


tes.
Ejemplo 6.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2x si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Calcular la distribucion de la variable (U, V)=(X+Y, X-Y).


Las funciones g y h estan definidas de la siguiente formas:

u = g1 (x, y) = x + y v = g2 (x, y) = x y

u+v uv
x = h1 (u, v) = y = h2 (u, v) =
2 2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformacion realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos

u+v
0 < x < 1 0 < < 1 0 < u + v < 2 u < v < 2 u
2
uv
0 < y < 1 0 < < 1 2 < u + v < 0 u 2 < v < 2 u
2
es decir,
0 < u < 2 ; M ax(u 2 , u) < v < min(u , 2 u)
22 10 EJEMPLOS

Si u (0, 1] = Max(u-2, -u)=-u ; min(u, 2-u)=u.


Si u (1, 2) = Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.

Por lo tanto

SU V = {(u , v) R2 / 0 < u < 1 u < v < u 1 < u < 2 u 2 < v < 2 u}

d(x , y) 1
El jacobiano de la transformacion inversa vale J = =
d(u , v) 2
y la funcion de densidad de (U, V) se calcula a partir de la expresion
u+v uv
f (u , v) = f [ , ] |J|
2 2
es decir,

u+v

si 0 < u 1 ; u < v < u
2
f (u , v) = u+v
si 1 < u < 2 ; u 2 < v < 2 u

2
0 en el resto

El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un


caso particular de las transformaciones del tipo

U = a11 X + a12 Y ; V = a21 X + a22 Y


que se pueden representar en forma matricial como

(U , V )t = A (X , Y )t

También podría gustarte