Está en la página 1de 17

Universidad de Valladolid

SEALES ALEATORIAS Y RUIDO


(Grupo )

Tema 4: VARIABLE ALEATORIA


N-DIMENSIONAL
Profesor: Luis Miguel San Jos Revuelta

Concepto de VA N-dimensional

X, Y
Y
Extensin a
composicin de N
experimentos i

X X1 , X 2 ,, X N

Conceptos bsicos
Funcin de distribucin: se define como la probabilidad de la
interseccin de N sucesos:

Funcin de densidad de probabilidad:

Clculo de una probabilidad en espacio N-dimensional

Conceptos bsicos
Reduccin del nmero de variables en las funciones:
a)) Funcin de distribucin: evaluar en infinito las variables a
eliminar,

b) Funcin de densidad: integrar en el recorrido de las variables


a eliminar,

Independencia de variables: factorizacin de funciones de


caracterizacin,

Conceptos bsicos
N funciones de N VAs. Teorema fundamental:
Si partimos de una situacin del tipo:

Y1

g1 X1 , X 2 ,, X N

Y2

g 2 X1 , X 2 ,, X N

YN

g N X1 , X 2 ,, X N

Podemos caracterizar la VA de salida mediante:

Conceptos bsicos
Respecto de funciones condicionadas:
Recordemos la relacin vista en el caso 2D:
Y la regla de la cadena para probabilidades condicionadas:

O bien:

Conceptos bsicos
Teniendo esto en cuenta, se puede escribir:

O bien:

f x1 , x2 , , x N f x1 , x2 x3 , , x N f x3 , , x N

Conceptos bsicos
Y siguiendo esta pauta es sencillo eliminar la dependencia de
variables en las funciones condicionadas:
Variables a la izquierda del condicionante: integrar con
respecto a ellas,

Variables a la derecha del condicionante: multiplicar por


la funcin de densidad de esa variable condicionada a las
dems e integrar con respecto a ella,

Conceptos bsicos
Estimacin de mnimo error cuadrtico medio (MMSE):
El estimador lineal se obtiene resolviendo un problema de
optimizacin
i i
i N dimensional:
di
i
l
N

g X , X ,, X a X b
Y
N
i i
1
2
i 1

El estimador no lineal es la extensin del caso 2D, es decir, la


esperanza de la variable a estimar condicionada a las observaciones:

Esperanzas matemticas
Los conceptos de correlacin y covarianza siguen presentes. Miden
la relacin cruzada entre dos variables (no entre tres o ms).
Cuando se tienen N variables hay que especificar entre qu dos
variables (de las N) se estn especificando tales parmetros.
Es cmodo emplear operadores vectoriales y/o matriciales para
ordenar esta informacin.

Vector de medias:

Matriz de covarianzas:

Esperanzas matemticas
Sea

Z i1 Xi
N

. Se puede demostrar que [Alb2004, p.173-174]:

Si las Vas Xi son ortogonales:


2
N

N
E Z E Xi E Xi2
i 1
i 1
2

Si las Vas Xi son incorreladas:

E Z Z
2
Z

2
N
N
N

E Xi Xi X2 i
i 1
i 1

i 1

Variables complejas
Las variables complejas son una combinacin lineal de variables
reales: Z X jY
Por tanto:

E Z E X jY E X jEY

Respecto de la varianza, en el caso complejo tenemos que encontrar


un radio de dispersin, pues mide la dispersin de Z respecto su
valor medio. Por ello se define:

Variables complejas
La esperanza de una funcin de la variable compleja puede
escribirse como hemos visto para el caso de una funcin de 2
variables aleatorias:

Independencia: si dos variables complejas son independientes, las


componentes cartesianas son independientes entre s:

Variables complejas
Se definen la correlacin y la covarianza como:

El orden de las variables por tanto ahora es importante:

Teoremas asintticos
Teorema del Lmite Central: la suma de variables
independientes e indnticamente distribuidas (IID) tiende a tener
una distribucin g
gaussiana.
X2 B1 0
i 1, , N
i

E X i Xi

i 1, , N

con

El teorema tambin es cierto cuando

Teoremas asintticos
Para: (i) VAs continuas, y (ii) VAs discretas con valores equiespaciados, tambin se observa que:

con

Teoremas asintticos
X1 X 2

X1

10

Xi

i 11

i 11

X i ~ U 0,1

Teoremas asintticos
Teorema de Demoivre-Laplace: caso particular del Teorema del
Lmite Central para el caso de VAs de Bernouilli IID:

N 1

0 P X i 0 q
Xi
1 P X i 1 p

con

Teoremas asintticos
Ley de los Grandes Nmeros: convergencia de la frecuencia
relativa a la probabilidad axiomtica. Formalmente:

con:

f r A
P A

NA
N
p

Teoremas asintticos
Ley de los Grandes Nmeros. Demostracin:

D
Demoivre-Laplace
i
L l

10

Teoremas asintticos
Por tanto:

La expresin:

sirve para hallar el valor de N que hace falta para caer dentro de
un intervalo del valor p con una probabilidad deseada.

Variables conjuntamente gaussianas


N VAs son conjuntamente gaussianas si su fdp conjunta puede
escribirse:

11

Variables conjuntamente gaussianas


Si N VAs son conjuntamente gaussianas:
Que cada una de ellas es marginalmente gaussiana, con los
parmetros (media y varianza) segn indica el vector de medias
y la matriz de covarianzas.

Variables conjuntamente gaussianas


Si N VAs son conjuntamente gaussianas:
Que cada una de ellas es marginalmente gaussiana, con los
parmetros (media y varianza) segn indica el vector de medias
y la matriz de covarianzas.

Que cada subconjunto de k<N variables son conjuntamente


gaussianas.

Que la funcin de densidad de k variables condicionadas a las


N-k restantes es la correspondiente a una variable conjuntamente gaussiana.

12

Variables conjuntamente gaussianas


IMPORTANTE: La transformacin lineal de VAs conjuntamente
gaussianas es conjuntamente gaussiana !!!!!
Partimos de Y A X donde la matriz de transformacin es de
rango completo. Entonces, aplicando el teorema fundamental:

Operando y agrupando trminos matriciales en la


matriz C se llega fcilmente al resultado:

A X

T
C ACX A

T
C 1 A 1 CX 1 A 1

Variables conjuntamente gaussianas


Si N VAs son conjuntamente gaussianas:
Incorrelacin implica independencia

13

Variables conjuntamente gaussianas


Si N VAs son conjuntamente gaussianas:
Incorrelacin implica independencia

X1

CX

X2

XN

Gaussiana Bivariante
Particularizacin de lo anterior para N=2. La funcin de densidad
resulta ser:

Si XY 0 entonces los trminos cruzados desaparecen y la


funcin de densidad se factoriza en el producto de las marginales
(luego, de nuevo, incorrelacin implica independencia)

14

b) Las variables son gaussianas correladas. Por ello la variable


bidimensional es una gaussiana bivariante. Nos piden:

fY y x

E Y x
Para ello

f XY x, y 2 2 1 2
fY y x

1
f X x

1
2 1 2

x 2 2 xy y 2 x 2
2 2 2

2 2

15

Introduciendo el segundo factor:

fY y x
resulta

2 1 2

fY y x

x 2 x 2 1 2 2 xy y 2
1

2 2
2 2
2 1
2

2 1 2

2 x 2 2 xy y 2
1
2 2
2
2 1 2

es decir

fY y x

1 2 2
Segn enunciado

1
2 1 2

y x 2
2

Y X x 0 ~ N x 0 , 1 - 2

P R f XY x, y dxdy

Solucin: a)

R
2

x2

y2

1 2 2 2 2

e
d d
dxdy
e

R
Si ahora hacemos

P R

r cos

r sin

Nos queda

R
1
2
4
0 0

r2

r2

1
2 1
r 2
1 2 2
rdrd
d 4 2 e 2 dr

e
0 2
0
2

16

P R

1
4
0

r
1
d 2 e
2

r2
2 2

dr e

1
r2 4
2 2

1 e

1
32 2

Si ha de verificarse que:

P R 1 e

1
32 2

0.7

entonces, despejando tenemos

0.1611

17

También podría gustarte