Está en la página 1de 22

VECTORES ALEATORIOS

1 Introduccion
En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caractersticas simultaneamente, como por ejemplo la velocidad
de transmision de un mensaje y la proporcion de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matematico que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numericos. Estos modelos seran la base para la construccion de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la poblacion.
2 Vectores aleatorios
El concepto de vector aleatorio nace como una generalizacion natural de la nocion
de variable aleatoria, al considerar simultaneamente el comportamiento aleatorio
de varias caractersticas asociadas a un experimento.
Denicion 2.1 (Vector aleatorio.) Dado un un espacio probabilstico (E, A, P)
y el espacio probabilizable (R
p
, ) con -algebra de Borel en R
p
, se dice que una
aplicacion x = (x
1
. . . , x
p
)
t
x : E R
p
es un vector aleatorio si es medible, es decir x
1
(B) A B , por tanto
cada una de sus componentes x
i
, i = 1, . . . p es una variable aleatoria.
Veamos algunos ejemplos sencillos de vectores aleatorios.
El vector (x
1
, x
2
) representa la temperatura maxima que puede alcanzar una
resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es mas
frecuente utilizar la notacion (X,Y).)
1
2 2 VECTORES ALEATORIOS
Los componentes del vector (x
1
, x
2
, x
3
, x
4
, x
5
, x
6
)
t
representan, respectiva-
mente, la edad, peso, estatura, sexo, colesterol y trigliceridos de una persona.
Denicion 2.2 (Probabilidad inducida.) Dado un vector aleatorio x deni-
do sobre (E, A, P), se denomina probabilidad inducida por el vector a la aplicacion
P
x
: R
p
denida por:
P
x
(B) = P[x
1
(B)] B
(R
p
, , P
x
) es el espacio probabilstico inducido por x.
La distribucion de probabilidad inducida por un vector aleatorio se puede
caracterizar mediante la funcion de distribucion.
Denicion 2.3 (Funcion de distribucion.) Dado el vector aleatorio x se de-
nomina funcion de distribucion asociada, a la funcion F : R
p
R denida
por:
F(a) = P[x
1
a
1
, . . . , x
p
a
p
]
Las propiedades mas importantes de las funciones de distribucion son:
1. F(, a
2
, . . . , a
p
) = = F(, , a
i
, , ) = 0.
2. F(, . . . , ) = 1.
3. F es continua por la derecha respecto de cada variable.
4. F es no decreciente respecto a cada variable.
5. En el caso bidimensional dados h
i
> 0 se verica que
P((a
1
< x
1
a
1
+h
1
)

(a
2
< x
2
a
2
+h
2
)) =
= F(a
1
+h
1
, a
2
+h
2
) F(a
1
, a
2
+h
2
) F(a
1
+h
1
, a
2
) +F(a
1
, a
2
) 0
Mientras que en el caso p-dimensional se tendra la expresion:
F(a
1
+h
1
, . . . , a
p
+h
p
)
p

i=1
F(a
1
+h
1
, . . . , a
i1
+h
i1
, a
i
, a
i+1
+h
i+1
, . . . , a
p
+h
p
)
+
p

i,j=1,i=j
F(a
1
+h
1
, . . . , a
i1
+h
i1
, a
i
, a
i+1
+h
i+1
, . . . , a
j1
+h
j1
, a
j
, a
j+1
+h
j+1
, . . . , a
p
+h
p
)
+. . . , +(1)
p
F(a
1
, . . . , a
p
) 0
Los vectores aleatorios se pueden clasicar teniendo en cuenta el tipo de las
variables aleatorias que lo componen.
3
3 Vectores aleatorios discretos
La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.
Denicion 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio deni-
do sobre (E, A, P) y S = {a R
p
/P(a) > 0}, se dice que x es discreto si se
cumple que:
1. S =
2. El cardinal de S es a lo sumo innito numerable.
3.

aS
P(a) = 1.
4. P[x B] =

aBS
P(a).
Al conjunto S se le llama conjunto soporte del vector x.
En este caso la funcion de distribucion es discontinua y viene dada por la
expresion:
F(x) =

aSx
P(a)
con S
x
= {a R
p
/a x}.
4 Vectores aleatorios continuos
En los vectores aleatorios continuos cada componente es una v. a. de tipo
continuo y analogamente al caso unidimensional para caracterizar su distribucion
es conveniente emplear la funcion de densidad.
Denicion 4.1 (Funcion de densidad) Una funcion f : R
p
R se dice que
es funcion de densidad si verica las condiciones:
1. f(x) 0 x R
p
2.
_
R
p
f(x) dx =
_

. . .
_

f(x) dx = 1
Denicion 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice que
es continuo si su funcion de distribucion se puede expresar como:
F(x) =
_
x1

. . .
_
xp

f(y)dy x R
p
4 5 DISTRIBUCIONES MARGINALES
donde f es una funcion de densidad en R
p
.
El conjunto S
x
= {a R
p
/f(a) > 0} se denomina conjunto soporte de x.
Las propiedades mas importantes de los vectores continuos son:
1. La funcion de distribucion es continua.
2. En los puntos de continuidad de la funcion de densidad se cumple que:
f(x) =

p
F(x)
x
1
. . . x
p
3. S = {a R
p
/P
x
(a) > 0} = , es decir, P(a) = 0 a R
p
4. P[x B] =
_
B
f(x)dx
5 Distribuciones marginales
Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos
de interes de estudiar el comportamiento de cada una de esas variables por se-
parado o de grupos de las mismas. Para abordar este problemas se denen las
distribuciones marginales.
Denicion 5.1 (Distribuciones marginales) Sea x un vector aleatorio con
funcion de distribucion F(x), entonces cada una de sus componentes, x
i
son
variables aleatorias unidimensionales con las siguientes funciones de distribucion
marginal para la componente x
i
F
i
(x
i
) = F(+, +, x
i
, +, +)
Tambien se puede hablar de distribuciones marginales de un subvector , as
si x = (x
1
, x
2
)se dene la funcion de distribucion marginal de x
1
como F
1
(x
1
) =
F(x
1
, +, +)
Si el vector es continuo se tiene las funcion de densidad marginal de la compo-
nente x
i
, f
i
(x
i
) =
_
R
p1
f(a
1
, . . . a
i1
, x
i
, a
i+1
, . . . a
n
)da
1
. . . da
i1
da
i+1
, . . . da
n
Mientras que si x es discreto las expresiones para las distribucion de proba-
bilidad marginal de la componente x
i
son:
P
i
(x
i
) =

yS,y
i
=x
i
P(y)
Analogamente se tendran las distribuciones de los subvectores.
5
6 Distribuciones condicionadas
En muchos problemas reales puede interesa estudiar el comportamiento de una
variable teniendo cierta informacion complementaria sobre el experimento. Por
ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respecti-
vamente, las intensidades de las se nales enviadas y recibidas a traves de un canal
de informacion. Un aspecto fundamental es este tipo de problemas es conocer
el comportamiento de la se nal recibida Y condicionada a que se ha enviado una
se nal (X=x), es decir, analizar la distribucion de (Y / X=x). Otro problema muy
interesante es el complementario del anterior, o sea, estudiar la se nal que se envio
cuando se conoce la se nal recibida (X/ Y=y).
Cuando el suceso que condiciona tiene una probabilidad estrictamente posi-
tiva el problema se reduce a utilizar la probabilidad condicionada para calcular
la distribucion de (x
2
/x
1
= a).
F
x
2
/x
1
=a
(b) =
P(x
1
= a, x
2
b)
P(x
1
= a)
En el caso que esta funcion sea absolutamente continua se puede considerar la
funcion de densidad condicionada de (x
2
/x
1
= a) que sera
f
x
2
/x
1
=a
(b) =

p
2
(F
x
2
/x
1
=a
(x
2
))
x
2

b
en los puntos de continuidad de la funcion de distribucion
Sin embargo cuando el vector x
1
es de tipo continuo, el suceso (x
1
= a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.
En este caso se dene la funcion de densidad condicionada.
Denicion 6.1 (Funcion de densidad condicionada) Dado el vector alea-
torio ( x
1
, x
2
) la funcion de densidad de x
2
condicionada a (x
1
= a), se dene
como una funcion no negativa f
x
2
/x
1
=a
, que satisface:
F
x
2
/x
1
=a
(b) =
_
{tR
p
2/tb}
f
x
2
/x
1
=a
(t) dt x
2
R
p
2
El siguiente resultado nos permite calcular la funcion de densidad condicio-
nada en el caso de trabajar con vectores aleatorios continuos.
Proposicion 6.1 Dado un vector aleatorio ( x
1
, x
2
) cuya funcion de densidad
es f( x
1
, x
2
) se verica que en todo punto de continuidad de f en el que f
x
2
(b) >0,
6 7 MOMENTOS
la funcion de densidad de (x
1
/x
2
= b) existe y vale:
f
x
1
/x
2
=b
(a) =
f(a, b)
f
x
2
(b)
Denicion 6.2 (Independencia de vectores aleatorios) Dado el vector alea-
torio x=(x
1
, x
2
) se dice que x
1
y x
2
son independientes cuando se verica que:
F
x
(a, b) = F
x
1
(a) F
x
2
(b) (a, b) R
p
Si trabajamos con la funcion de densidad esta condicion es equivalente a:
f
x
(a, b) = f
x
1
(a) f
x
2
(b) (a, b) R
p
Cuando las variables son discretas la independencia equivales a:
P
x
(a, b) = P
x
1
(a) P
x
2
(b) (a, b) R
p
Una propiedad muy interesante es que si x
1
y x
2
son independientes entonces
nuevas variables aleatorias g(x
1
) y h( x
2
), obtenidas como transformaciones de
las anteriores, tambien los son.
Tambien es interesante hacer notar que si dos vectores x
1
y x
2
son inde-
pendientes no quiere decir que las componentes de x
1
lo sean. Es decir en el
caso multidimensional pueden aparecer muchos tipos de independencia como la
independencia condicional
Denicion 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x
1
, x
2
, x
3
)
se dice que x
1
y x
2
son condicionalmente independientes dado x
3
cuando se ve-
rica que x
1
/x
3
y x
2
/x
3
son independientes.
7 Momentos
En este apartado se da la denicion de momento para poder describir de manera
resumida el comportamiento de los vectores aleatorios.
Denicion 7.1 (Momentos respecto al origen) Dado una vector aleatorio
p-dimensional continuo x se denomina momento respecto al origen de orden
(r
1
, . . . , r
p
), si existe, al valor dado por la expresion:
a
r
1
,...,r
p
(x) = E(x
r
1
1
. . . x
r
p
p
) =
_
R
p
x
r
1
1
. . . x
r
p
p
f(x)dx
donde f(x) es la funcion de densidad.
An alogamente se denira para el caso discreto.
7
Los momentos respecto al origen mas importantes son los orden uno que
permiten denir el vector esperanza del vector aleatorio.
Denicion 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional
x se denomina vector esperanza, E(x), al vector de componentes (
1
, . . . ,
p
)
t
denidas por :

i
=
_

xf
x
i
(x) dx
Es inmediato comprobar que:

i
= E(x
i
) = a
0...,0,1
i
,0,...,0
(x)
.
Cuando se trabaja con una funcion g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresion:
E[g(x)] =
_
R
p
g(x) f(x) dx
Entre las propiedades mas importantes del vector esperanza, si existe, se
encuentran:
1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):
E[ y]=A E[x]+b.
2 E[g
1
(x
1
)] =
_
R
p
g
1
(x
1
) f(x)dx =
_
R
p
1
g
1
(x
1
) f
1
(x
1
)dx
1
.
3 Linealidad E[a
1
g
1
(x) +a
2
g
2
(x)] = a
1
E[g
1
(x)] +a
2
E[g
2
(x)] , siendo a
i
R
Otros momentos muy importantes son los centrados respecto al vector de
medias. La expresiones que aparecen a continuacion se reeren al caso continuo,
ya que el caso discreto se desarrolla de manera analoga a la realizada hasta este
momento.
Denicion 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional
continuo x se denomina momento centrado de orden (r
1
, . . . , r
p
), si existe, al va-
lor dado por la expresion:
m
r
1
,...,r
p
(x) =
_
R
p
(x
1

1
)
r
1
. . . (x
p

p
)
rp
f(x)dx
donde f(x) es la funcion de densidad.
8 7 MOMENTOS
Los momentos centrados de orden dos para una de las componentes r
i
= 2,
cero para el resto, r
j
= 0 si j = i), dan lugar a las varianzas de cada componente
x
i
, que se va a denotar por
ii
.
V ar(x
i
) =
ii
= E(x
i

i
)
2
= m
0...,0,2
i
,0,...,0
(x)
El momento centrado de orden (0 . . . , 0, 1
i
, 0, . . . , 0, 1
j
, 0, . . . , 0) se denomina
covarianza entre la componentes x
i
, x
j
, y se va a denotar por
ij
, tiene una gran
importancia porque nos permite estudiar si las componentes estan relacionadas
linealmente.
Denicion 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleato-
rio x se dene su matriz de varianzas-covarianzas, si existe, como:
= E[(x ) (x )
t
] =
_
_
_

11
. . .
1p
.
.
.
.
.
.
.
.
.

p1
. . .
pp
_
_
_
Entre sus propiedades destacan:
Las matrices de varianzas-covarianzas son siempre matrices simetricas y
semidenidas positivas
= E[xx
t
]
t
Var (a
t
x)=a
t
a
Var(Ax+b)= AA
t
Tambien se pueden denir matrices de varianzas-covarianzas entre dos vec-
tores aleatorios denidos sobre el mismo espacio probabilstico,
Denicion 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,
y, se dene su matriz de varianzas-covarianzas, si existe, como:
Cov(x, y) = E[(x
x
) (y
y
)
t
] =
_
_
_

x
1
,y
1
. . .
x
1
,y
q
.
.
.
.
.
.
.
.
.

xp,y
1
. . .
xp,yq
_
_
_
Entre sus propiedades destacan:
=Cov(x,x)
9
Cov(x,y)= (Cov(y,x))
t
Cov(Ax,By)= ACov(x,y) B
t
Cov(x
1
+x
2
,y)= Cov(x
1
,y) + Cov(x
2
,y)
Si los vectores tienen la misma dimension
Var(x+y)=
x+y
= Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)
Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,
pero el recproco no tiene porque ser cierto.
Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,
Y) en el que existen los momentos centrados de orden dos, se verica que:
E
2
[X Y ] E(X
2
) E(Y
2
)
ademas la igualdad se alcanza si y solo si existen dos n umeros reales y , con
al menos uno de ellos distinto de cero, tales que P[X + Y = 0] = 1.
Denicion 7.6 (Coeciente de correlacion de Pearson) Dadas dos compo-
nentes x
i
, x
j
de un vector aleatorio x se denomina coeciente de correlacion de
Pearson entre esas componentes ,
ij
a la expresion:

ij
=

ij

ii

jj
Las propiedades mas importantes del Coeciente de correlacion de Pearson
son:
1. 1
ij
1.
2.
ij
alcanza los extremos si y solo si x
j
es una funcion lineal de x
i
, o al reves.
3. Si
ij
=0, se dice que x
i
e x
j
son linealmente independientes, pero en general
la independencia lineal no implica la independencia estadstica.
4. Si x
i
e x
j
son independientes entonces son linealmente independientes.
Denicion 7.7 (Matriz de correlacion de Pearson) Dado un vector aleato-
rio x se denomina matriz de correlacion entre sus componentes a:
10 7 MOMENTOS
R =
_
_
_
1 . . .
1p
.
.
.
.
.
.
.
.
.

p1
. . . 1
_
_
_
Ejemplo 1.(Continuacion)
La correlacion de Pearson entre X e Y es:
=
Cov(X , Y )

X

Y
=
1
11
por lo tanto tienen una relacion lineal muy peque na.
Ejemplo.
Sea X una v. a. con distribucion U(-1, 1), y denimos la variable Y=X
2
. Com-
probar que X e Y son linealmente independientes pero no son independientes.
E(X) =
_
1
1
x
1
2
dx = 0.
E(X.Y) = E(X. X
2
) = E(X
3
) =
_
1
1
x
3
1
2
dx = 0.
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X
2
.
Denicion 7.8 (Funcion generatriz de momentos) Dado un vector aleato-
rio x p-dimensional la funcion generatriz de momentos,si existe, se dene como:
g
x
(t) = E(e
t
t
x
) =
_
R
p
e
t
t
x
f(x) dx
Entre las propiedades mas interesantes de la funcion generatriz de momentos
estan las siguientes:
1. g(0)=1
2. g cuando existe caracteriza la distribucion.
3. Los vectores aleatorias x,y son independientes si y solo si la funcion genera-
triz de momentos conjunta es igual al producto de las funciones generatrices
de las marginales.
g
x,y
(t
1
, t
2
) = g
x
(t
1
) g
y
(t
2
) (t
1
, t
2
) entorno de 0 R
p+q
4. Si x,y son vectores aleatorios independientes entonces la funcion generatriz
de x+y verica:
g
x+y
(t) = g
x
(t) g
y
(t)
11
Denicion 7.9 (Funcion caracterstica ) Dado un vector aleatorio x p-dimensional
la funcion caracterstica se dene como:

x
(t) = E(e
it
t
x
) =
_
R
p
e
it
t
x
f(x) dx
Esta funcion existe siempre y caracteriza totalmente la distribucion del vec-
tor aleatorio x. Presenta unas propiedades analogas a la funcion generatriz de
momentos.
Relacionada con la funcion caracterstica tienen gran importancia el siguien-
te Teorema
Teorema 7.2 (Teorema de Cramer- Wald) La distribucion de un vector alea-
torio p-dimansional x esta completamente determinada por el conocimiento del
comportamiento de todas las variables unidimensionales que se puedan formar
como combinacion lineal de sus componentes.
8 Momentos Condicionados
Estos momentos juegan un papel importante en el manejo de las distribucio-
nes multivariantes , sobre todo cuando se imponen condiciones a algunas de sus
componentes.
Denicion 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional
del que se consideran la particion (x
1
, x
2
) se dene la esperanza del vector x
1
con-
dicionada por el valor x
2
de la segunda componente como
E[x
1
/x
2
] =
_
R
p
1
x
1
f
x
1
/x
2
(x
1
)dx
1
En general esta expresion sera una funcion del valor de x
2
. Observese que se hace
un abuso de notacion cuando x
1
tienen dimension mayor que 1, ya que en este caso
habra que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x
1
. Por otro lado si considero x
2
un vector
aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.
Por tanto podra hablarse de su esperanza, que verica el siguiente resultado, si
todas las esperanzas existen
E[x
1
] = E[E[x
1
/x
2
]]
12 9 FUNCI

ON DE UN VECTOR ALEATORIO
La curva o supercie que a cada valor de x
2
le hace corresponder E[x
1
/x
2
]
se llama la curva o supercie general de regresion de x
1
sobre x
2
. En el caso de
que esta supercie sea lineal se tiene la regresion lineal.
Denicion 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensional
del que se consideran la particion (x
1
, x
2
) se dene la varianza del vector x
1
con-
dicionada por el valor x
2
como V [x
1
/x
2
] = V
1|2
como la matriz de varianzas
respecto a la distribucion condicionada (x
1
/x
2
)
En el caso bidimensional (x
1
, x
2
) se verica que
E(x
i
) = E[E(x
i
/x
j
)]
V ar(x
i
) = E[V ar(x
i
/x
j
)] +V ar[E(x
i
/x
j
)]
9 Funci on de un vector aleatorio
En este apartado estudiaremos algunos metodos que nos permiten calcular la
distribucion de probabilidad de funciones de un vector aleatorio.
El metodo mas general consiste en obtener directamente la funcion de distribucion
del nuevo vector aleatorio. Dado y = g(x), entonces
F
y
(y) = P(y y) = P[ x R
p
/ g(x) y]
Veamos algunos ejemplos sencillos en los que g es una funcion de R
2
en R,
es decir Z es una variable aleatoria.
Ejemplo
Sea (X, Y)un vector aleatorio continuo cuya funcion de densidad vale:
f(x, y) =
_
1 si 0 < x < 1 ; 0 < y < 1
0 en el resto
Calcular la distribucion de la variable Z =
Y
X
.
El conjunto soporte de Z es S
Z
= (0 , ).
P(Z z) = P(
Y
X
z) = P(Y z X)
Cuando 0 < z < 1 la funcion de distribucion vale:
F(z) =
_
1
0
_
zx
0
f(x, y) dxdy =
_
1
0
_
zx
0
dxdy =
z
2
13
Cuando z > 1 la funcion de distribucion vale:
F(z) =
_
1/z
0
_
zx
0
dxdy +
_
1
1/z
_
1
0
dxdy =
1
2z
+ (1
1
z
) = 1
1
2z
Por lo tanto la funcion de distribucion es:
F(z) =
_

_
0 si z 0
z
2
si 0 < z 1
1
1
2z
si z > 1
,
Cuando la funcion g verique ciertas condiciones de regularidad es posible
calcular directamente la funcion de densidad del vector aleatorio transformado.
Proposicion 9.1 Dado un vector aleatorio continuo x con funcion de densidad
f(x), sea z=g(x) una transformaci on que verica en el conjunto soporte S
x
las
siguientes condiciones :
1. La funcion g:R
p
R
p
es biyectiva,salvo un conjunto de Lebesgue de me-
dida nula. es decir existen las transformaciones
z
i
= g
i
(x), i = 1, . . . p
x
i
= h
i
(z), i = 1, . . . p
2. Todas las transformaciones son continuas.
3. Existen y son continuas las derivadas parciales
x
z
,
z
x
J =

(x)
(z)

es distinto de cero en el recorrido de la transformacion.


Entonces se cumple que
f
z
(z) =
_
f
x
[h(z)] |J| si z S
z
0 en el resto
14 10 EJEMPLOS
Corolario 9.1 Si el conjunto soporte S se puede expresar como una union nita
de conjuntos disjuntos S
i
i = 1 . . . n, en cada uno de los cuales la funcion g
es biyectiva y verica las condiciones del teorema anterior, con inversas: h
S
i
y
Jacobianos: J
i
entonces
f
z
(z) =
_

_
n

i=1
f
x
[h
S
i
(z)] |J
i
| si z S
z
0 en el resto
Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,
es decir, det(A)=0, son transformaciones biyectivas, su inversa es
x = A
1
(y b)
t
y el jacobiano de la transformacion inversa vale J=det(A
1
).
Aplicando el teorema anterior la funcion de densidad de y es:
f
y
(y) = f
x
[A
1
(y-b)
t
] |det(A
1
)|
10 Ejemplos
Ejemplo 1.
Calcula el valor de c para que f(x, y) sea funcion de densidad.
f(x, y) =
_
c (x +y) si 0 < x < 1 ; 0 < y < 1
0 en el resto
1. La funcion f(x, y) 0.
Tomando c>0 se verica la primera condicion.
2.
_

f(x, y) dxdy = 1.
_

f(x, y) dxdy =
_
1
0
_
1
0
c (x +y)dxdy
= c
_
1
0
(
1
2
+y) dy = c
Por lo tanto el valor que buscamos es c=1.
Calcula la probabilidad de que P[ X 0,5 ; Y 0,75].
P[ X 0, 5 ; Y 0, 75] =
_
0,5

_
0,75

f(x, y) dy dx
15
=
_
0,5
0
_
0,75
0
(x +y) dy dx =
_
0,5
0
(
3x
4
+
9
32
) dx =
15
64
Calcula las distribuciones marginales de X e Y.
1. La marginal de la variable X es:
f
1
(x) =
_

f(x, y) dy =
_
_
_
_
1
0
(x +y) dy = x +
1
2
si 0 < x < 1
0 en el resto
2. La marginal de la variable Y es:
f
2
(y) =
_

f(x, y) dx =
_
_
_
_
1
0
(x +y) dx = y +
1
2
si 0 < y < 1
0 en el resto
Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x)
y E(X/Y=y).
1. Como la marginal f
1
(x) = x +
1
2
la funcion de densidad de (Y/X=x) sera:
f
Y/X
(y/x) =
f(x, y)
f
1
(x)
=
_
_
_
2(x +y)
2x + 1
si 0 < y < 1
0 en el resto
E(Y/X = x) =
_

y f
Y/X
(y/x) dy =
_
1
0
y
2(x +y)
2x + 1
dy =
3x + 2
6x + 3
2. Como la marginal f
2
(y) = y +
1
2
la funcion de densidad de (X/Y=y) sera:
f
X/Y
(x/y) =
f(x, y)
f
2
(y)
=
_
_
_
2(x +y)
2y + 1
si 0 < x < 1
0 en el resto
E(X/Y = y) =
_

y f
X/Y
(x/y) dx =
_
1
0
x
2(x +y)
2y + 1
dx =
3y + 2
6y + 3
Estudia la independencia de X e Y.
La densidad conjunta es:
f(x, y) =
_
(x +y) si 0 < x < 1 ; 0 < y < 1
0 en el resto
16 10 EJEMPLOS
y las densidades marginales son:
f
1
(x) =
_
_
_
x +
1
2
si 0 < x < 1
0 en el resto
f
2
(y) =
_
_
_
y +
1
2
si 0 < y < 1
0 en el resto
Entonces f(x, y) = f
1
(x) f
2
(y) y por lo tanto X e Y no son independientes.
Calcula el vector de medias y la matriz de varianzas covarianzas de (X,
Y).
1. En primer lugar vamos a obtener el vector de medias.
E(X) =
_

xf
1
(x) dx =
_
1
0
x(x +
1
2
) dx =
7
12
E(Y ) =
_

y f
2
(y) dy =
_
1
0
y (y +
1
2
) dy =
7
12
2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las
varianzas y la covarianza.
E(X
2
) =
_

x
2
f
1
(x) dx =
_
1
0
x
2
(x +
1
2
) dx =
5
12
y la varianza de X es
V ar(X) = E(X
2
) E
2
(X) =
11
144
E(Y
2
) =
_

y
2
f
2
(y) dx =
_
1
0
y
2
(y +
1
2
) dy =
5
12
y la varianza de Y es
V ar(Y ) = E(Y
2
) E
2
(Y ) =
11
144
Para obtener la covarianza calculamos primero el momento de orden (1, 1)
E(X Y ) =
_

xy f(x, y) dy dx =
_
1
0
_
1
0
xy (x +y) dy dx
17
=
_
1
0
(
x
2
2
+
x
3
) dx =
1
3
Cov(X , Y ) = E(X Y ) E(X) E(Y ) =
1
144
La matriz de varianzas-covarianzas es :
=
1
144
_
11 1
1 11
_
La correlacion de Pearson entre X e Y es:
=
Cov(X , Y )

X

Y
=
1
11
por lo tanto tienen una relacion lineal muy peque na.
Ejemplo 2.
Comprueba que f(x, y) es funcion de densidad.
f(x, y) =
_

_
2
3
si 0 < x 1 ; 0 < y < x
4
3
si 1 < x < 2 ; 0 < y < 2 x
0 en el resto
1. La primera condicion f(x, y)0 se comprueba de forma inmediata.
2.
_

f(x, y) dxdy = 1.
_

f(x, y) dxdy =
_
1
0
_
x
0
2
3
dy dx +
_
2
1
_
2x
0
4
3
dy dx
=
_
1
0
2x
3
dx +
_
2
1
4(2 x)
3
dx =
1
3
+
2
3
= 1
Calcula la probabilidad de que P[ X 1,5 ; Y 0,5].
P[ X 1, 5 ; Y 0, 5] =
_
0,5

_
1,5

f(x, y) dy dx
=
_
0,5
0
_
x
0
2
3
dy dx +
_
1
0,5
_
0,5
0
2
3
dy dx +
_
1,5
1
_
0,5
0
4
3
dy dx
=
1
12
+
2
12
+
4
12
=
7
12
Calcula las distribuciones marginales de X e Y.
18 10 EJEMPLOS
1. La marginal de la variable X es:
f
1
(x) =
_

f(x, y) dy =
_

_
_
x
0
2
3
dy =
2x
3
si 0 < x 1
_
2x
0
4
3
dy =
4(2 x)
3
si 1 < x < 2
0 en el resto
2. La marginal de la variable Y es:
f
2
(y) =
_
_
1
y
2
3
dx +
_
2y
1
4
3
dx = 2(1 y) si 0 < y < 1
0 en el resto
Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) .
1. Teniendo en cuenta la expresion de f
2
(y), la densidad de (X/Y=y) es:
f
X/Y
(x/y) =
f(x, y)
f
2
(y)
_

_
2/3
2(1 y)
=
1
3(1 y)
si 0 < x 1
4/3
2(1 y)
=
2
3(1 y)
si 1 < x < 2
0 en el resto
cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).
2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f
1
(x),
cambia de expresion dependiendo del valor de x.
Para 0 < x 1 se tiene:
f
Y/X
(y/x) =
f(x, y)
f
1
(x)
_
_
_
2/3
2x/3
=
1
x
si 0 < y < 2 x
0 en el resto
Para 1 < x < 2 se tiene:
f
Y/X
(y/x) =
f(x, y)
f
1
(x)
_
_
_
4/3
4(2 x)/3
=
1
2 x
si 0 < y < 2 x
0 en el resto
Calcula el vector de medias y la matriz de varianzas covarianzas de (X,
Y).
1. El vector de medias de (X, Y) es
E(X) =
_

xf
1
(x) dx =
_
1
0
x
2x
3
dx +
_
2
1
x
4(2 x)
3
dx =
10
9
E(Y ) =
_

y f
2
(y) dy =
_
1
0
y 2 (1 y) dy =
1
3
19
2.
E(X
2
) =
_

x
2
f
1
(x) dx =
_
1
0
x
2
2x
3
dx +
_
2
1
x
2
4(2 x)
3
dx =
25
18
La varianza de X es
V ar(X) = E(X
2
) [E(X)]
2
=
25
162
E(Y
2
) =
_

y
2
f
2
(y) dy =
_
1
0
y
2
2 (1 y) dy =
1
6
La varianza de Y es
V ar(Y ) = E(Y
2
) [E(Y )]
2
=
1
18
El momento de orden (1, 1)
E(X Y ) =
_

xy f(x, y) dy dx =
_
1
0
_
x
0
xy
2
3
dy dx+
_
2
1
_
2x
0
xy
4
3
dy dx =
13
36
Cov(X , Y ) = E(X Y ) E(X) E(Y ) =
13
36

10
9

1
3
=
1
108
La matriz de varianzas-covarianzas es :
=
_
25
162
1
108
1
108
1
18
_
Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabi-
lidad
X\Y 0 1 2 3
1 0
3
8
2
8
1
8
2
1
8
0 0
1
8
Calcular las distribuciones marginales de X e Y.
1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:
P
1
(X = 1) =
3

y=0
P(1 , y) = 0 +
3
8
+
2
8
+
1
8
=
3
4
P(
1
X = 2) =
3

y=0
P(2 , y) =
1
8
+ 0 + 0 +
1
8
=
1
4
20 10 EJEMPLOS
2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:
P
2
(Y = 0) =
2

x=1
P(x, 0) = 0 +
1
8
=
1
8
P
2
(Y = 1) =
2

x=1
P(x, 1) =
3
8
+ 0 =
3
8
P
2
(Y = 2) =
2

x=1
P(x, 2) =
2
8
+ 0 =
2
8
P
2
(Y = 3) =
2

x=1
P(x, 3) =
1
8
+
1
8
=
2
8
Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
f(x, y) =
_
2 si 0 < x y < 1
0 en el resto
Calcular las distribuciones marginales de X e Y.
1. La v. a. marginal X tiene como conjunto soporte S
X
=(0, 1) y su funcion
de densidad es:
f
1
(x) =
_

f(x, y) dy =
_
_
1
x
2 dy = 2 2x si 0 < x < 1
0 en el resto
2. La v. a. marginal Y tiene el mismo conjunto soporte S
Y
=(0, 1) y su funcion
de densidad es:
f
2
(y) =
_

f(x, y) dx =
_
_
y
0
2 dx = 2y si 0 < y < 1
0 en el resto
Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y).
1. La funcion de densidad de (Y/X=x) sera:
f
Y/X
(y/x) =
f(x, y)
f(x)
=
2
2y
=
1
y
si 0 < x y < 1
2. La funcion de densidad de (X/Y=y) sera:
f
X/Y
(x/y) =
f(x, y)
f(y)
=
2
2 2x
=
1
1 x
si 0 < x y < 1
21
Ejemplo 5.
Sea (X, Y) un vector aleatorio cuya funcion de densidad es:
f(x, y) =
_
1 si 0 < x < 1 ; 0 < y < 1
0 en el resto
Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
f
1
(x) =
_
1 si 0 < x < 1
0 en el resto
f
2
(y) =
_
1 si 0 < y < 1
0 en el resto
Como f(x, y) = f
1
(x)f
2
(y) (x, y) R
2
entonces X e Y son independien-
tes.
Ejemplo 6.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
f(x, y) =
_
2x si 0 < x < 1 ; 0 < y < 1
0 en el resto
Calcular la distribucion de la variable (U, V)=(X+Y, X-Y).
Las funciones g y h estan denidas de la siguiente formas:
u = g
1
(x, y) = x +y v = g
2
(x, y) = x y
x = h
1
(u, v) =
u +v
2
y = h
2
(u, v) =
u v
2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformacion realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos
0 < x < 1 0 <
u +v
2
< 1 0 < u +v < 2 u < v < 2 u
0 < y < 1 0 <
u v
2
< 1 2 < u +v < 0 u 2 < v < 2 u
es decir,
0 < u < 2 ; Max(u 2 , u) < v < min(u, 2 u)
22 10 EJEMPLOS
Si u (0, 1] = Max(u-2, -u)=-u ; min(u, 2-u)=u.
Si u (1, 2) = Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.
Por lo tanto
S
U V
= {(u, v) R
2
/ 0 < u < 1 u < v < u 1 < u < 2 u 2 < v < 2 u}
El jacobiano de la transformacion inversa vale J =
d(x, y)
d(u, v)
=
1
2
y la funcion de densidad de (U, V) se calcula a partir de la expresion
f(u, v) = f[
u +v
2
,
u v
2
] |J|
es decir,
f(u, v) =
_

_
u +v
2
si 0 < u 1 ; u < v < u
u +v
2
si 1 < u < 2 ; u 2 < v < 2 u
0 en el resto
El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un
caso particular de las transformaciones del tipo
U = a
11
X + a
12
Y ; V = a
21
X + a
22
Y
que se pueden representar en forma matricial como
(U , V )
t
= A(X , Y )
t
.

También podría gustarte