Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Vector Aleatorio Complementario PDF
Vector Aleatorio Complementario PDF
1 Introducci
on
En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caractersticas simult
aneamente, como por ejemplo la velocidad
de transmision de un mensaje y la proporcion de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matematico que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numericos. Estos modelos seran la base para la construccion de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la poblacion.
2 Vectores aleatorios
1
2 2 VECTORES ALEATORIOS
Definici
on 2.3 (Funcion de distribuci on.) Dado el vector aleatorio x se de-
nomina funci
on de distribuci
on asociada, a la funci on F : Rp R definida
por:
F (a) = P [x1 a1 , . . . , xp ap ]
1. F (, a2 , . . . , ap ) = = F (, , ai , , ) = 0.
2. F (, . . . , ) = 1.
+ . . . , +(1)p F (a1 , . . . , ap ) 0
La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.
Definici
on 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio defini-
do sobre (E, A, P ) y S = {a Rp /P (a) > 0}, se dice que x es discreto si se
cumple que:
1. S 6=
con Sx = {a Rp /a x}.
1. f (x) 0 x Rp
R R R
2. Rp f (x) dx = . . . f (x) dx = 1
on de densidad en Rp .
donde f es una funci
5 Distribuciones marginales
Fi (xi ) = F (+, + , xi , +, + )
6 Distribuciones condicionadas
P (x1 = a, x2 b)
Fx2 /x1 =a (b) =
P (x1 = a)
En el caso que esta funcion sea absolutamente continua se puede considerar la
funcion de densidad condicionada de (x2 /x1 = a) que sera
p2 (Fx2 /x1 =a (x2 ))
fx2 /x1 =a (b) =
x2
b
en los puntos de continuidad de la funcion de distribucion
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el metodo anterior.
En este caso se define la funcion de densidad condicionada.
la funci
on de densidad de (x1 /x2 = b) existe y vale:
f (a, b)
fx1 /x2 =b (a) =
fx2 (b)
Definici
on 6.2 (Independencia de vectores aleatorios) Dado el vector alea-
torio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que:
Fx (a, b) = Fx1 (a) Fx2 (b) (a , b) Rp
7 Momentos
Los momentos respecto al origen mas importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.
.
Cuando se trabaja con una funcion g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresion:
Z
E[g(x)] = g(x) f (x) dx
Rp
= E[x xt ] t
Var(Ax+b)= A At
=Cov(x,x)
9
Cov(x,y)= (Cov(y,x))t
Cov(Ax,By)= A Cov(x,y) Bt
E 2 [X Y ] E(X 2 ) E(Y 2 )
Definici
on 7.6 (Coeficiente de correlaci on de Pearson) Dadas dos compo-
nentes xi , xj de un vector aleatorio x se denomina coeficiente de correlaci
on de
Pearson entre esas componentes , ij a la expresion:
ij
ij =
ii jj
1. 1 ij 1.
1 ... 1p
.. .. ..
R= . . .
p1 ... 1
Ejemplo 1.(Continuacion)
La correlacion de Pearson entre X e Y es:
Cov(X , Y ) 1
= =
X Y 11
por lo tanto tienen una relacion lineal muy peque
na.
Ejemplo.
Sea X una v. a. con distribucion U(-1, 1), y definimos la variable Y=X2 . Com-
probar que X e Y son linealmente independientes pero no son independientes.
R1 1
E(X) = 1 x dx = 0.
2
R1 1
E(X.Y) = E(X. X2 ) = E(X3 ) = 1 x3 dx = 0.
2
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X2 .
1. g(0)=1
8 Momentos Condicionados
En general esta expresion sera una funcion del valor de x2 . Observese que se hace
un abuso de notacion cuando x1 tienen dimension mayor que 1, ya que en este caso
habra que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada tambien sera un vector aleatorio.
Por tanto podra hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen
9 Funci
on de un vector aleatorio
Fy (y) = P (y y) = P [ x Rp / g(x) y]
Y
Calcular la distribucion de la variable Z = .
X
El conjunto soporte de Z es SZ = (0 , ).
Y
P (Z z) = P ( z) = P (Y z X)
X
Cuando 0 < z < 1 la funcion de distribucion vale:
Z 1 Z zx Z 1Z zx
z
F (z) = f (x , y) dx dy = dx dy =
0 0 0 0 2
13
zi = gi (x), i = 1, . . . p
xi = hi (z), i = 1, . . . p
x z
,
z x
(x)
J =
(z)
es distinto de cero en el recorrido de la transformaci
on.
Corolario 9.1 Si el conjunto soporte S se puede expresar como una uni on finita
de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la funci on g
es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y
Jacobianos: Ji entonces
n
X
fx [hSi (z)] |Ji | si z Sz
fz (z) =
i=1
0 en el resto
x = A1 (y b)t
10 Ejemplos
Ejemplo 1.
Calcula el valor de c para que f(x, y) sea funcion de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
1. La funcion f(x, y) 0.
Tomando c>0 se verifica la primera condicion.
R R
2. f (x , y) dx dy = 1.
Z Z Z 1Z 1
f (x , y) dx dy = c (x + y)dx dy
0 0
Z 1
1
= c ( + y) dy = c
0 2
Por lo tanto el valor que buscamos es c=1.
1
1. Como la marginal f1 (x) = x + la funcion de densidad de (Y/X=x) sera:
2
f (x, y) 2(x + y)
si 0 < y < 1
fY /X (y/x) = = 2x + 1
f1 (x) 0 en el resto
Z Z 1
2(x + y) 3x + 2
E(Y /X = x) = y fY /X (y/x) dy = y dy =
0 2x + 1 6x + 3
1
2. Como la marginal f2 (y) = y + la funcion de densidad de (X/Y=y) sera:
2
f (x, y) 2(x + y) si 0 < x < 1
fX/Y (x/y) = = 2y + 1
f2 (y)
0 en el resto
Z Z 1
2(x + y) 3y + 2
E(X/Y = y) = y fX/Y (x/y) dx = x dx =
0 2y + 1 6y + 3
Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
16 10 EJEMPLOS
Z Z 1
1 7
E(X) = x f1 (x) dx = x (x + ) dx =
0 2 12
Z Z 1
1 7
E(Y ) = y f2 (y) dy = y (y + ) dy =
0 2 12
Z Z 1
2 2 1 5
E(X ) = x f1 (x) dx = x2 (x + ) dx =
0 2 12
y la varianza de X es
11
V ar(X) = E(X 2 ) E 2 (X) =
144
Z Z 1
1 5
E(Y 2 ) = y 2 f2 (y) dx = y 2 (y + ) dy =
0 2 12
y la varianza de Y es
11
V ar(Y ) = E(Y 2 ) E 2 (Y ) =
144
Z 1
x2 x 1
= ( + ) dx =
0 2 3 3
1
Cov(X , Y ) = E(X Y ) E(X) E(Y ) =
144
La matriz de varianzas-covarianzas es :
!
1 11 1
=
144 1 11
Z Z 1 Z 2
2x 4(2 x) 10
E(X) = x f1 (x) dx = x dx + x dx =
0 3 1 3 9
Z Z 1
1
E(Y ) = y f2 (y) dy = y 2 (1 y) dy =
0 3
19
2.
Z Z 1 Z 2
2x 4(2 x) 25
E(X 2 ) = x2 f1 (x) dx = x2 dx + x2 dx =
0 3 1 3 18
La varianza de X es
25
V ar(X) = E(X 2 ) [E(X)]2 =
162
Z Z 1
1
E(Y 2 ) = y 2 f2 (y) dy = y 2 2 (1 y) dy =
0 6
La varianza de Y es
1
V ar(Y ) = E(Y 2 ) [E(Y )]2 =
18
El momento de orden (1, 1)
Z Z Z 1Z x Z 2 Z 2x
2 4 13
E(X Y ) = x y f (x , y) dy dx = x y dy dx + xy dy dx =
0 0 3 1 0 3 36
13 10 1 1
Cov(X , Y ) = E(X Y ) E(X) E(Y ) = =
36 9 3 108
La matriz de varianzas-covarianzas es :
!
25 1
= 162 108
1 1
108 18
Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribucion de probabi-
lidad
X\Y 0 1 2 3
3 2 1
1 0 8 8 8
1 1
2 8 0 0 8
3
X 1 1 1
P (1 X = 2) = P (2 , y) = + 0 +0 + =
8 8 4
y=0
20 10 EJEMPLOS
2
X 3 3
P2 (Y = 1) = P (x , 1) = +0 =
8 8
x=1
2
X 2 2
P2 (Y = 2) = P (x , 2) = +0 =
8 8
x=1
2
X 1 1 2
P2 (Y = 3) = P (x , 3) = + =
8 8 8
x=1
Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya funcion de densidad vale:
(
2 si 0 < x y < 1
f (x , y) =
0 en el resto
Ejemplo 5.
Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
f1 (x) =
0 en el resto
(
1 si 0 < y < 1
f2 (y) =
0 en el resto
u = g1 (x, y) = x + y v = g2 (x, y) = x y
u+v uv
x = h1 (u, v) = y = h2 (u, v) =
2 2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformacion realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos
u+v
0 < x < 1 0 < < 1 0 < u + v < 2 u < v < 2 u
2
uv
0 < y < 1 0 < < 1 2 < u + v < 0 u 2 < v < 2 u
2
es decir,
0 < u < 2 ; M ax(u 2 , u) < v < min(u , 2 u)
22 10 EJEMPLOS
Por lo tanto
d(x , y) 1
El jacobiano de la transformacion inversa vale J = =
d(u , v) 2
y la funcion de densidad de (U, V) se calcula a partir de la expresion
u+v uv
f (u , v) = f [ , ] |J|
2 2
es decir,
u+v
si 0 < u 1 ; u < v < u
2
f (u , v) = u+v
si 1 < u < 2 ; u 2 < v < 2 u
2
0 en el resto
(U , V )t = A (X , Y )t