Está en la página 1de 22

CAPITULO N 1

1. VARIABLES ALEATORIAS MULTIDIMENSIONALES.

1.1. Conceptos bsicos.


El concepto de variable aleatoria surge de la necesidad de transformar el espacio muestral asociado a
un experimento aleatorio en un espacio cuantitativo, lo que se consigue asignando un valor real a cada
resultado elemental del experimento (a cada elemento del espacio muestral). Este valor se obtiene
midiendo una determinada caracterstica numrica de los resultados del experimento que describa
alguna propiedad de inters. En muchas ocasiones, para describir las propiedades de inters de los
resultados de un experimento es preciso considerar varias caractersticas.

Por ejemplo, en el experimento consistente en la eleccin de un individuo de una determinada


poblacin, se consideran las variables altura y peso.

Si se extraen cinco bolas de una urna con bolas blancas, negras y rojas, podemos estar interesados en el
nmero de bolas de cada color. Es evidente que al considerar diversas caractersticas para describir los
resultados de un experimento aleatorio (o sea, diversas variables aleatorias), estas estarn a menudo
relacionadas, por lo que ser a conveniente realizar un estudio conjunto de ellas que refleje dichas
relaciones, ms que analizarlas individualmente. De esta forma aparece el concepto de variable
aleatoria multidimensional o vector aleatorio que, en trminos generales, puede definirse como una
funcin que asigna a cada elemento del espacio muestral un conjunto finito de nmeros reales que
describen el valor da cada una de las caractersticas bajo estudio en dicho elemento. Como en el caso
unidimensional, al considerar un vector aleatorio definido en relacin a un experimento, los conjuntos
de inters estarn definidos en trminos de dicho vector y, para poder calcular sus probabilidades, es
preciso exigir determinadas propiedades. La definicin formal y el tratamiento de las variables
aleatorias multidimensionales son anlogas a los de unidimensionales.

i. Experimento.- Un experimento es una observacin de un fenmeno que ocurre en la


naturaleza. Son aquellos en donde no se puede anticipar el resultado que ocurrir, pero si se
tiene una completa idea acerca de todos los resultados posibles del experimento cuando ste
es ejecutado.
Ejemplo:
Lanzar un dado
ii. Espacio muestral (prueba).- Es el conjunto de posibles resultados de un experimento
aleatorio. Representaremos el espacio muestral S y cada elemento de l es llamado un punto
muestral.
Ejemplo:
Exp1: lanzar un par de monedas y anotar el resultado que sale.
S 2= {CC , CX , XC , XX }

iii. Evento.- Un Evento es un resultado particular de un experimento aleatorio. En trminos de


conjuntos, un evento es un subconjunto del espacio muestral.
Ejemplo:
A: que salga un par al lanzar un dado.

1
CAPITULO N 1

Evento: E= { 2,4,6 }

iv. Concepto De Probabilidad.- Si un experimento aleatorio tiene un espacio muestral


equiprobable S que contiene # ( S ) elementos y A es un evento de que ocurre de # (A )
maneras distintas entonces la probabilidad de ocurrencia de A es:
( A)
P ( A )=
( S)

Si un experimento se repite n veces y n(A) de esas veces ocurre el evento A, entonces la


A

frecuencia relativa de A se define por: n
f A =

Se puede notar que:


f S=1
a)
f A0
b)
f AUB =f A +f B
c) SI A y B son eventos disjuntos entonces

Algunas personas de acuerdo a su propio criterio generalmente basado en su experiencia,


asignan probabilidades a eventos, stas son llamadas probabilidades subjetivas. Por ejemplo:

La Probabilidad de que llueva maana es 40%.

La Probabilidad de que haya un terremoto en Puerto Rico antes del 2000 es casi cero.

Se basa en funcin real valorada, la probabilidad es la funcin que vincula un dominio de


eventos con el rango de los nmeros reales y tiene que satisfacer las siguientes propiedades:

1) 0 P ( A ) 1

2) P( S)=1
A1 A2 , , AN
3) Si , son eventos mutuamente excluyentes

Se basa en el concepto de prstamo de la probabilidad. La probabilidad es el resultado de


proporcionar un valor subvalorado para conocer su resultado.

2
CAPITULO N 1

Dnde: es el nivel de significacion

1 = nivel de confianza

1.2. Variables aleatorias multidimensionales.-


Variable aleatoria univariante.

Experimento: E= {lanzar dos monedas }

S= {CC , CS , SC , SS }

X = ? = N DE caras

X: S R

La variable aleatoria es la funcin que asigna a un dominio de eventos numricos reales.

Variable aleatoria bidimensional.

Sean X e Y variables aleatorias Una variable aleatoria bidimensional (X, Y) es una asignacin numrica
en R2.

Sea un experimento aleatorio y su espacio de prueba entonces:

X :S R ; Y : S R

Dnde: por la definicin de las variables aleatorias se le asigna un par de nmeros reales (X, Y) a los
eventos del espacio de prueba. Por lo tanto se dice que (X, Y) es una variable aleatoria.

3
CAPITULO N 1


X =( X 1 , X 2 , , X N ) S (
X ( S ))
X
Si es un vector definido en , entonces es una
variable aleatoria multidimensional.

1.3. Distribucin de probabilidades conjuntas y acumuladas de variables


aleatorias discretas y continuas.
1.3.1. Distribucin de probabilidad conjunta

- Caso Discreto: Si (x,y) es una variable aleatoria bidimensional, entonces la distribucin de


probabilidad cuanta se define como:

p( x , y )=P( X=x ;Y = y )

Propiedades:

1)
P ( x , y )=1
x y

2) p ( x , y )=P ( X=x ; Y = y ) 0

Sea x (x1, x2, x3,.,xn) variable aleatoria multidimensional

Donde x es el conjuto de variables aleatorias, entonces se define la distribucion de probabilidad


como:

p(x1, x2, x3,.,xn) = P(X1=x1 , X2=x2 ,,Xn=xn) = 1

Propiedades

a) p ( x 1 , x 2, x 3 , . , x n ) 0

b)
. P ( x , y )=1
x1 x2 xn

Ejemplo:

Se lanza dos dados y se define las variables aleatorias como la siguiente:

S = {suma de ambos valores resultados del lanzamiento}

D= {diferencia absoluta de los resultados}

D/S 2 3 4 5 6 7 8 9 10 11 12 P.y = Px (x)


=

4
CAPITULO N 1

P(x , y)
y

0 1/3 0 1/3 0 1/3 0 1/3 0 1/3 0 1/3 1/6


6 6 6 6 6 6
1 0 1/1 0 1/1 0 1/1 0 1/1 0 1/1 0 5/18
8 8 8 8 8
2 0 0 1/1 0 1/1 0 1/1 0 1/1 0 0 4/18
8 8 8 8
3 0 0 0 1/1 0 1/1 0 1/1 0 0 0 3/18
8 8 8
4 0 0 0 0 1/1 0 1/1 0 0 0 0 2/18
8 8
5 0 0 0 0 0 1/1 0 0 0 0 0 1/18
8
Px . = Px 1/3 1/1 3/3 2/1 5/1 3/1 5/3 2/1 3/3 1/1 1/3 1
(x) = 6 8 6 8 8 8 6 8 6 8 6
P( x , y)
y

- Caso continuo: si las variables (x,y) son variables aleatorias bidimensionales continuas entonces se
define la funcin de probabilidad como:

f(x,y) = f(X=x ; Y=y)

Propiedades:

a) f(x,y) 0

b) f ( x , y ) dxdy =1
x y

Sea x (x1, x2, x3,.,xn) vector aleatorio multidimensional continuo

Donde x es el conjunto de variables aleatorias, entonces se define la funcin de densidad como:

f(x1, x2, x3,.,xn) = F(X1=x1 , X2=x2 ,,Xn=xn)

Propiedades

a) f(x1, x2, x3,.,xn) 0


b) f ( x 1 , x 2 , x 3 , . , x n ) dx1 dx 2 dxn =1
x1 x2 xn

5
CAPITULO N 1

1.3.2. Funciones acumuladas

Caso discreto

a) Caso directo: para cualquier par (x,y) se define F (x,y) como:


x y

P(x,y) = P(Xx ; Yy) = P(t1 ; t2 )


t1 t2

b) Caso particular:
a b

P(a,b) = P(Xa ; Yb) = P( x ; y)


x y

Si el vector n-dimensional x (x1, x2, x3,.,xn) es una variable aleatoria se define la funcin
de distribucin cumulada como:

t 1 ,t 2 , .. t n
x2 xn

X 1 x1 , X 2 x 2 , , X n xn . P()
p(x1, x2, x3,.,xn) = P ( )= t2
x1
tn


t1

Caso continuo

Sean (x,y) variables aleatorias bidimensionales continuas con funcin de densidad f(x,y) entonces se
define la funcin de distribucin acumulada como:
x y

F(x,y) = f (Xx ; Yy) = f ( t1 ,t 2 ) dydx


Si x (x1, x2, x3,.,xn) es una variable aleatoria multidimensional continua funcin de


distribucin densidad f(x1, x2, x3,.,xn) entonces se define la funcin de distribucin acumulada
como:

X 1 x1 , X2 x2 , , Xn xn
F(x1, x2, x3,.,xn) = f( )=
x1 x 2 xn

. f ( t1 , t2 , , tn ) dt n dtn1 dt 2 dt 1

Propiedades:

6
CAPITULO N 1

a) F(-,) = F(-,y) = F(x,) = 0


b) F(-,)=1
2
c) F(x,y) = x y F(x , y)

1.4. Distribuciones marginales.


La funcin de probabilidad individual para X e Y se llaman distribuciones de probabilidad marginal o
funciones de probabilidad marginal.

Caso Discreto, Sean (x,y) variable aleatoria bidimensional discretos con distribucin de cuanta
conjunta P(x,y), entonces la funcin de probabilidad marginal de (x,y) est dada por:

P1 ( X )=P x (x )= P(x , y)
y

P2 ( y ) =P y ( y ) = P( x , y )
x

Sea P( x 1, x 2, . xn ) una funcin de cuanta n-dimensional, si se define la funcin marginal para

cualquier subconjunto como:

X =( X 1, X 2, ., X n) Entonces un subconjunto es X i 1 , X i 2 .. X it

Entonces:

P1 , Pi 2 ,. . .. Pit ( x i1, x i 2, xit )= P1 P2 . . .. . P(x 1 , x 2 , . . . x n )


x1 x2 xn Donde la suma no considera al

x i1 , xi 2 x
subconjunto , . . . . it .

Caso Continuo, Sean (x,y) variable aleatoria continua con funcin de densidad
f(x, y), entonces la funcin de distribucin marginal se define como.
Ry 1

f x ( x )=f 1 ( x ) = f (x , y) d y =h x ( x)
Ry

x= g y ( y)
Rx 1

f y ( y )=f 2 ( y )= f ( x , y ) d
Rx

7
CAPITULO N 1

Dada una funcin de densidad multivariante X (x 1 , x 2 , .. x n) f ( x )=f ( x 1 , x 2 , x n) y se define

un subconjunto (x i1 , xi 2 , .. x ) que pertenece al espacio s; la distribucin marginal se define


como:

f i 1,i 2, .. it ( x i 1 , x i 2 , . x it )= x 1 d x 1 x 2 d x2 . x n d x n
Rx 1
Rx 2
Rxn

x ,x x .
Donde la integral se extiende a todas las variables excepto a las del subconjunto ( i 1 i2, .. it )

1.5. Distribucin Condicionales.-


Al considerar un vector aleatorio como conjunto de variables aleatorias unidimensionales la
distribucin del vector se denomina distribucin conjunta (funcin de distribucin conjunta, funcin
masa de probabilidad conjunta o funcin de densidad conjunta) y a la distribucin de cada componente
se le denomina distribucin marginal de dicha componente. Veamos a continuacin como pueden
obtenerse las distribuciones marginales de cada componente a partir de la conjunta.

1.5.1. Funcin de distribucin marginal.


X =( X 1 , , X N ) FX
SI es un vector aleatorio con funcin de distribucin
i=1, , n F Xi ( x1 ) =F X ( + , ,+ , x i ,+ , ,+ ) x i= R

Anlogamente,

F Xi , , xik ( xi , , x i ) =F X ( + , ,+ , x i ,+ , ,+ , xi ,+ , ,+ )
1 k 1 k

Sin embargo, ya que nosotros trabajamos con vectores discretos o continuos cuyas componentes, como
hemos visto, son variables aleatorias discretas o continuas, lo que nos interesa es el clculo de las f.m.p
o funciones de densidad marginales a partir de la conjunta.

1.5.2. Distribuciones marginales de vectores discretos.

X =( X 1 , , X N ) P { X E X }=1
Sea es un vector aleatorio discreto con y funcin masa de

P { X=x } x EX
probabilidad conocida: .

8
CAPITULO N 1

P ( X )=P X ( X )= ( x , y )
y

P ( y )=P y ( y ) = ( x , y )
x

Si Xi es una componente arbitraria (ya sabemos que es discreta y que toma valores en el conjunto

{
E Xi= Xi R x E X : ( x )i =Xi
} su funcin masa de probabilidad puede obtenerse a partir de la de

X por la siguiente relacin

P { X i=x i }=P { X i=x i , X E X }


Relacin que se obtiene inmediatamente de Anlogamente se obtiene
la funcin masa de probabilidad de cualquier subvector que ser tambin de tipo discreto puesto que
todas sus componentes los son.

Ejemplo: Se lanza una moneda tres veces y se define X: Numero de caras e Y: Diferencia, en valor
absoluto, de nmero de caras y cruces. Calcular las distribuciones marginales a partir de la conjunta.

La funcin masa de probabilidad conjunta y marginales son (sin ms que sumar por Filas y por
columnas)

1.5.3. Distribuciones marginales de vectores continuos.

9
CAPITULO N 1

X =( X 1 , , X N )
Sea un vector aleatorio de tipo continuo con funcin de densidad fX conocida. En
el apartado anterior vimos que cada componente Xi es de tipo continuo y su funcin de distribucin es


f ( X )=f X ( X )= f ( x , y ) dy
Ry


f ( y )=f y ( X )= f ( x , y ) dx
Rx

Con
+ +
f i ( t i )= fx ( t 1 , ,t i , ,t n ) d t 1 d t i1 d t i+1 d t n d t i R

Por tanto, esta es la funcin de densidad de Xi que, como observamos se obtiene integrando la
conjunta en el resto de las componentes, fijando en la componente i-esima el punto de inters ti.
Ejemplo: Sea (X,Y) un vector aleatorio continuo con funcin de densidad
f ( x , y ) =10 x 2 y 0 y x 1

Calcular las marginales y P {Y 1/ 2 }

La Probabilidad P {Y 1/2 } se puede calcular de dos formas, con la marginal

O con la conjunta,

O bien,

10
CAPITULO N 1

1.6. Distribucin uniforme.


1
f(x) = ba a x b a b

1
ax b;c y d
f(x,y) = area

a b

1 f
a x bc y d ;e z f
f(x,y,z) = volumen

e c

1.7. Distribucin polinomial.


Esta distribucin est asociada con pruebas repetidas de un suceso con ms de dos resultados.

11
CAPITULO N 1

En general suponemos que hay K resultados posibles, entonces va a ir hasta k resultados de un


P1 , P2 , .. P K
suceso aleatorio y se designa las probabilidades de los resultados como se
k

debe verificar que la P1=1 P 1+ P2 . P n


i=1

n!
x 1 , x 2 .. x k = P1x P2x Px3 . P xk
1 2 3 k

x 1 ! x2 ! . x k !
P

1.8. Momentos potenciales ordinarios.-


1.7.1. Valor esperado.- frecuentemente denominado esperanza matemtica o calor medio( valor
promedio)
1. En discretas:
E [ x ]= xp ( x )
x

y xp ( x , y )
y

E [ xy ]=
x

g(x 1 , x 2 , , x n) x1 , x2, , xn
Sea una funcin de las variables aleatorias que tiene

una funcin de cuanta dad por: p( x 1 , x 2 , , x n) entonces se define la esperanza

matemtica de la funcin g(x 1 , x 2 , , x n) como:

E [ g (x 1 , x 2 , , x n) ]= g( x 1 , x 2 , , x n ) p( x 1 , x 2 , , x n )
xi x2 xn

2. En continuas: sean x y (x, y) variables aleatorias continuas.



E [ x ]= xf ( x ) dx
Rx


E [ x , y ] = y xf ( x , y ) dxdy
Rx Ry

12
CAPITULO N 1

g(x 1 , x 2 , , x n) una funcin de las variables aleatorias x1 , x2 , , xn


Sea que tienen

x
funcin de densidad dada por ( 1 , x 2 , , xn )
, entonces se define el valor esperado de
f

g ( x1 , x2 , , x n)
como:

. g ( x 1 , x 2 , , x n ) p ( x 1 , x 2 , , x n )
Rx 2 Rxn

E [ x , y ]=
Rx1

1.7.2. Valor esperado condicional.-

E [ x / y ] = xp ( x / y )
x

E [ x / y ] = xp ( y / x )
x


E [ x / y ] = xf ( x / y ) dx
Rx


E [ y /x ] = yf ( x / y ) dx
Rx

1.7.3. Momentos ordinarios.-


mr=E [ x r ] ; Donde r es el orden del momento

mrs =E [ xr y s ]

Para discretas:
y s x rp ( x , y )
y

E [ x r y s ]=
x

Para continuas:

E [ xr y s ] = y s x rf ( x , y ) dxdy
Rx Ry

Donde:

m1=E [ ]= X=E [ ] =M [ x ]

m01=E [ x0 y 1 ]=M [ y ]

13
CAPITULO N 1

m10=E [ x1 y 0 ]=M [ x ]

m11=E [ x 1 y 0 ] =M [ x , y ]

mr 1,r 2 rn=E [ xr 1x r 2 x rn ]

1.9. Momentos potenciados centrados.


Momento centrado de orden (r,s) : rs = E[(X E[X])r (Y E[Y ])s]

Al momento centrado de orden (1,1) se le llama covarianza, y se suele notar por Cov(X, Y ) o X,Y. Su
expresin es:

Cov(X, Y ) = E[(X E[X]) (Y E[Y ])] = E[XY ] E[X]E[Y ]

Diremos que dos variables son incorreladas si su covarianza es 0. Claramente, si dos variables son
independientes, tambin son incorreladas.

Ejemplo

Sea (X, Y ) una Variable aleatoria bidimensional con funcin de densidad:

1
f ( x , y )= ( 1+ xy ( x 2 y 2) ) ,1 x 1 ,1 y 1
4

a) Son X e Y independientes? Comprobamos para ello si f (x, y) = fX (x) fY (y).

Las funciones de densidad marginales resultan:


1
1
f x ( x )= ( 1+ xy ( x 2 y 2 ) ) dy= 1 1 x 1
1 4 2

1
1
f y ( y ) = ( 1+ xy ( x 2 y 2 ) ) dx= 1 1 y 1
1 4 2

Como f(x,y) 1/4, las variables no son independientes

b) Son X e Y incorreladas?. Comprobamos si la covarianza es 0.

Cov(X, Y ) = E[XY ] E[X]E[Y ]

14
CAPITULO N 1

1 1
1
E [ XY ] = xy ( 1+ xy ( x 2 y 2 ) ) dydx =0
1 1 4

1
1
E [ X ] = x dx =0
1 2

1
1
E [ Y ] = y dy =0
1 2

Por lo que Cov(X, Y ) = 0 y en consecuencia las variables son incorreladas. Con este ejemplo
observamos que el que las variables sean incorreladas no implica que sean independientes. Sin
embargo, si las variables son independientes s son incorreladas.

1.10. Funcin generatriz de momentos.


tx
M x ( t )=E (e )

Propiedades

M x ( t ) y las constantes a,b 0


i) Si

at

Entonces M x+a ( t )=e b M x


b
( bt ) ; b 0
tx +sy
ii) M x , y ( t , s )=E (e )

M x , y ( t , s )=E ( etx + sy ) = e tx +sy p ( x , y )


x y

R x Rx
1 2

tx +sy
M x . y ( t , s )=E ( e )= e tx +sy f ( x , y ) dydx
Rx R y

Propiedades:

r +s
mrs =M ( x r y s ) =E ( x r y s )= M x , y (t , s )t=0, s=0
xr ys

15
CAPITULO N 1

t 1 x 1+ t x 2 2+ ,,,,,, ,, ,,,,,,,,,,,,,+ t n x n

e
Mx 1
x 2, .x n
( t 1, t2, t n )=E

1.11. Funcin caracterstica.-

La funcin caracterstica de una variable aleatoria o de su distribucin de probabilidad es una funcin


de variable real que toma valores complejos, que permite la aplicacin de mtodos analticos (es decir,
de anlisis funcional) en el estudio de la probabilidad.

XY ( t , s )=E [ e i (tx +sy ) ]

Dada una variable aleatoria continua X su funcin caracterstica, que se denota mediante XY (t , s)
para t,s real, se define como:


XY ( t , s )=E [ e i ( tx +sy )
]= e i( tx+ sy )f ( x , y ) dxdy
Rx Ry

Dada una variable aleatoria discreta para X su funcin caracterstica, que se denota
mediante XY (t , s) se define como:
XY ( t , s )=E [ e i (tx +sy ) ] = e i( tx+ sy ) p ( x , y )
x y

1.12. Independencia.
Sabemos que dos sucesos A y B son independientes si se cumple que:

P (A/B) = P (A)
P (B/A) = P (B)

Y en consecuencia:

P (A B) = P (A) P (B)

Anlogamente, diremos que dos variables aleatorias X e Y son independientes

Si se verifica:

P (X = xi, Y = yj) = pij = pi.p.j en el caso discreto.

16
CAPITULO N 1

f (x, y) = fX (x) fY (y) en el caso continuo.

Equivalentemente, F (x, y) = FX (x) FY (y).

Por lo tanto, si las variables X e Y son independientes, se cumple que:

P (a X b, c Y d) = P (a X b) P (c Y d)

1.13. Regresin y coeficiente de correlacin.


1.13.1. Regresin.

La regresin lineal es una tcnica que permite cuantificar la relacin que puede ser observada cuando
se grafica un diagrama de puntos dispersos correspondientes a dos variables, cuya tendencia general es
rectilnea relacin que cabe compendiar mediante una ecuacin del mejor ajuste de la forma:

E ( yx )=f ( x )=a+ bx
E ( xy )=f ( y )=c +dy
Sea (x,y) variable aleatoria continua:
Ry Ry
f (x, y) f ( x , y)
y
() ( y
) ()
1 1

E =E = yf dy= y dy (1)
x f x(x) R
x R y
f x (x) y

Multiplicando (1) por f x ( x ) e integrar por x

x1 y1 x1 x1
f (x , y)
y f (x ) f x x dydx= a f x ( x ) dx+ bx f x ( x ) dx
x y x x x

En (1) se multiplica por x f x ( x ) e integrando respecto x, entonces

y1 x1 x2

xyf ( x , y ) dydx= a x f x ( x ) dx+ b x 2 f x ( x ) dx


y x x
x1

Las ecuaciones normales para la regresin son:

17
CAPITULO N 1

m01=a+b m10

m11=a m10 +b m20

Obteniendo los coeficientes de regresin:

m11 m10 m01


b= 2
m20( m10 )

a=m01b m10

1.13.2. Coeficiente De Correlacin

x y y
Sea X e Y variables aleatorias con desviacin estndar respectivamente. El coeficiente de

correlacin de X y Y, denotado ( x , y ) , se define por:

cov (X , Y )
( x , y )=
x y

Propiedades Del Coeficiente De Correlacin ()

a. 1 1

b. ( x , y )= ( y , x )

c. Si X e Y son independientes, entonces =0

d. Si = 1, entonces entre X y Y existe una dependencia funcional lineal.


e. Suponga que Y =aX+ b , donde a y b son constantes.

Si a>0 , entonces ( X ,Y )=1 ; Si a<0, entonces ( X ,Y )=1

f. Si a, b, c, d son constantes, a>0 y b> 0,entonces ,

( aX +c , bY + d )=( X ,Y )

1.13. Covarianza y matriz de covarianza

a) Covarianza.- es el grado de asociacin entre dos variables:

18
CAPITULO N 1

La covarianza de (X, Y) se define como:


Cov [ X , Y ] =E [ ( X E [ X ] )( Y E [ Y ] ) ]

La siguiente expresin equivalente de la covarianza simplifica su clculo en las aplicaciones


prcticas.
Cov [ X , Y ] =E [ XY ] E [ X ] E [ Y ]

+
( X )(
X )
V [
X ] =E

Propiedades:
i. Si x,y son independientes, entonces:
Cov [ X , Y ] =0

Cov [ X , Y ] =E [ XY ] E [ X ] E [ Y ] =E [ XY ] E [ XY ] =0

ii. V [ X Y ] =V [ X ] V [ Y ] 2 cov [ X , Y ]

iii. cov [ X ,Y ] = 11=m11 m10m 01

b) Matriz De Covarianza.-

Dada una variable estadstica n-dimensional (X1,X2,X3,...,Xn), llamaremos matriz de varianzas-


covarianzas (matriz de varianzas) (matriz de covarianzas), a la matriz cuadrada, n n, que disponga
en su diagonal principal de las varianzas de cada una de las distribuciones marginales
unidimensionales, y en los elementos no-diagonales (i,j) de las correspondientes covarianzas entre
cada dos variables Sij

19
CAPITULO N 1


X (x 1 , x 2 , , x n )
SI:

{[ ] }
x1 X1
x2 X2
=(
X1 ,
X 2, ,
X n ) =E . [ x 1
X 1 x 2 Xn]
X 2 . . . x n
.
.
x n Xn

[ ]
2
( x 1
X 1 ) ( x 1 X 1 ) ( x 2
X2) . . . ( x 1
X 1 )( x n
Xn)
2
( x 2
X 2 ) ( x 1
X 1 ) ( x 2 X 2) . . . .
. . .
. . .
. . . . . .
2

( x n X n )( x1 X 1 ) ( x n X n ) ( x 2 X 2 ) . . . ( x n X n)

[ ]
11 11 . . . 1n
21 22 . . . 1n
. . . . . .
. . . . . .
n1 n 1 . . . nn

Propiedades.

1. La matriz de varianzas-covarianzas es simtrica respecto a su diagonal principal

2. La matriz de varianzas-covarianzas es definida positiva

3. El determinante de la matriz de varianzas-covarianzas (tambin llamado determinante de


momentos) es siempre no negativo

L mayor o igual a 0

4. En el caso bidimensional tendremos: det V = L = S2x S2y - (Sxy)2

EJEMPLOS SOBRE EL TEMA.-

Una moneda es lanzada tres veces, sea x el nmero de caras obtenidas en los dos primeros
lanzamientos y sea el nmero de caras obtenidos en los dos ltimos lanzamientos hallar:

20
CAPITULO N 1

1. Distribucin de probabilidad conjunta y las marginales


2. La distribucin de probabilidad condicional P [ X /1 ] y P [ Y /2 ]

3. P [ X 1/1 Y 2 ]

4. E [ X ] , E [Y ]

5. V [ X ] , V [ X ] , COV [ X ]

SOLUCION:

{ ccc , cec , cee , cce , ecc , eee , eec , ece }

YX 0 1 2 Py
0 1/8 1/8 0 2/8
1 1/8 2/8 1/8 4/8
2 0 1/8 1/8 2/8
Px 2/8 4/8 2/8 1

2. P [ X /1 ] =4 / 8

P [ y /1 ] =2 /8

P [ X 1 ] P [ 1 Y 2 ]
P [ X 1/1 Y 2 ]= =
3. P [ 1 Y 2 ]
1 1 2
+ +
8 8 8 2
=
4 2 3
+
8 8

4. m10= xp ( x )=E(x )

m10=0 ( 28 )+1( 48 )+2( 28 )=1


m01= yp ( y )=E ( y)

m01=0 ( 28 )+1( 48 )+2( 28 )=1


5. V ( X )=m20( m10 )2

m20= x 2 p ( x )

21
CAPITULO N 1

m20=02 ( 28 )+1 ( 48 )+2 ( 28 )= 32


2 2

3 1
V ( X ) = ( 1 )2=
2 2

V ( y )=m02 ( m01 )2

m02=02 ( 28 )+1 ( 48 )+2 ( 28 )= 32


2 2

3 2 1
V ( y )= ( 1 ) =
2 2

cov ( x , y )=E XY E XE Y =m11m10 m01

xyp ( xy )=
m11 =

m11=00 ( 18 )+10( 18 )+02( 0 )+10( 18 )+ 11( 28 )+12( 18 )+20( 0 )+ 21( 18 )+22( 18 )= 54


5 1
cov ( x , y )= 1=
4 4

CONCLUSIONES

Podemos aseverar que el uso de la variable aleatoria multidimensional, es un buen recurso, para de esa manera
poder analizar y contrastar datos, en este caso probabilidad de un suceso, de distintas variables. Adems que su
uso en el anlisis de distintas sucesos, si bien en algunos momentos resulta simple en los resultados que arroja,
es la base de distintos anlisis que sern vistos en esta materia

22

También podría gustarte