Está en la página 1de 13

07.

ESPERANZA MATEMATICA
VALOR ESPERADO
Valor Medio. Sea X una Variable Aleatoria discreta o continua. Se denomina
esperanza matemtica de X o valor esperado,
) X ( E
o bien , a la cantidad que se
expresada como,

+

)dx f(x x E(X) ) f(x x E(X)
i i
x
i i
respectivamente.
Ahora bien, ello es vlido para transformaciones de la variable aleatoria, de forma
que

+

dx ) x ( f ) x ( h )) X ( h ( E
En el caso continuo y similarmente para el caso discreto
Por las analogas existentes entre la definicin de media aritmtica y esperanza
matemtica, las propiedades de linealidad de la primera se trasladan a la segunda, de
forma que se puede obtener,
0 ) X ( E ) X ( E )) X ( E X ( E
) X ( bE a ) bX a ( E

+ +
Ejemplo. Si X es el nmero de puntos obtenidos al lanzar un dado de seis caras,
encontremos el valor esperado de la variable aleatoria Y = X
2
.
La funcin de probabilidad de X es f(x) = 1/6 si x{1,2,3,4,5,6}. La funcin de
probabilidad
de Y = X
2
es entonces f(y) = 1/6 si y{1,4,9,16,25,36}, as E(Y) = 1/6*1 + 1/6*4 +
1/6*9 + 1/6*16 + 1/6*25 + 1/6*36 = 1
2
*P(X=1) + 2
2
*P(X= 2) + 3
2
*P(X= 3) +
4
2
*P(X= 4) + 5
2
*P(X= 5) + 6
2
*P(X= 6) = X
2
*P(X=x)
Ejemplo. Supongamos ahora que X es una v.a. que tiene funcin de probabilidad f(x)
= 1/6 si x{-2,-1,0,1,2,3}y Y = X
2
. La funcin de probabilidad de Y es f(y) = 2/6 si
y{1, 4} y f(y) = 1/6 si y{0, 9}. Entonces E(Y) = 2/6*1 + 2/6*4 + 1/6*0 + 1/6*9.
Esta ecuacin puede escribirse de la siguiente manera: E(Y) = 2/6*1 + 2/64 + 1/6*0
+ 1/6*9 = 1*P(Y=1) + 4*P(Y=4) + 0*P(Y=0) + 9*P(Y=1) = 1
2
*P(X=1 X=-1) +
2
2
*P(X=2 X=-2) + 0
2
*P(X=0) + 3
2
*P(X=3) = X
2
*P(X=x)
A travs de estos ejemplos vemos que no es necesario calcular la funcin de
probabilidad de Y, slo tenemos que usar la funcin de probabilidad de X y los
valores obtenidos al aplicar la
1
funcin Y = g(X) = X
2
. Esto es cierto an en el caso en que la funcin no es uno-uno.
LA VARIANZA
La varianza la denotamos mediante V(X) o VAR(X) o
2
, y se calcula como,
( )
( )
( )

'

+

Continua X .f(x)dx E(X) x
Discreta X ) .f(x E(X) x
E(X) X E V(X)
2
x
i
2
i
2
Obsrvese que del mismo modo en que se demuestra la relacin se comprueba que
V(X)=E(X
2
)-(E(X))
2
Similarmente, V(a+bX)=b
2.
V(X)=b
2

2
Ejemplo. Consideramos una variable aleatoria discreta con funcin de probabilidad,
caso otro 0
1 x
4
c
f(x)
x

Obtener el valor de la constante c para que sea una funcin de probabilidad, los
valores de las funciones de probabilidad y distribucin para todos los valores de x, y
P(x=3), y P(x3).
Solucin: Para ello consideramos,
3
c
4
1
4
1
4
1
c
4
c
1 x
3 2 1 x

,
_

+ + +

,
ya que tenemos la suma de una progresin geomtrica de razn menor que la unidad:
Calculemos sucesivos valores de f(x) y F(x),
x 2 3 4 5
f(x) 3/4 3/16 3/64 3/256
F(x) 0.75 0.94 0.987 0.999 .
Y como se observa que: si x crece, f(x) decrece y F(x) crece hasta llegar a su mximo
valor 1
P(X=3)=f(3)=0.047 P(X3)=0.987
Ejemplo para la variable aleatoria continua, funcin de densidad
2
caso otro 0
1 x 0 cx
f(x)
3

Hallar: El valor de la constante c para que sea una funcin de densidad, la funcin de
distribucin, el valor medio, y la probabilidad de que la variable este comprendida
entre 0,2 y 0,7
Solucin. Consideremos,
4
c
4
x
c dx cx
1
0
4
1
0
3

La cual debe ser de valor 1, entonces c/4=1, esto es, c=4





x
4
x
0
4
x
3
x
4
x
4 dx x 4 dx ) x ( f ) x ( F
luego, la funcin de distincin acumulada es F(x)=x
4
para 0<x1, 0 en valores x0 y
1 para x1
El valor medio es


8 . 0
5
x
4 dx x 4 x dx ) x ( f x ) X ( E
1
0
5
1
0
3
P(0.2x0.7)=F(0.7)-F(0.2)=0.7
2
-0.2
2
=0.24
Ejemplo, Calcule la varianza de la variable aleatoria x, que representa el nmero de
puntos obtenidos con un dado.
=E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6

`
2
=E(X
2
)=1
2
*1/6+2
2
*1/6+3
2
*1/6+4
2
*1/6+5
2
*1/6+6
2
*1/6
Sabemos que 2=`
2
-
2
=((91/6)-(7/2)
2
=35/12
Teorema:
2
2
2

Teorema. Si X es una v.a. discreta y f(x) es su funcin de probabilidad, Y = g(X) es
una funcin a valores reales, es decir, Y es una v.a., entonces su valor esperado es
E(Y)= E(g(X))=f (x) g(x) .
Teorema. Si a y b son constantes reales y g(X) = aX + b es una funcin a valores
reales, entonces E(aX + b) = aE(X) + b.
Corolario. Si a es una constante real, entonces E(aX) = aE(X).
Corolario. Si b es una constante real, entonces E(b) = b.
3
Estos resultados se pueden generalizar de la siguiente forma:
Teorema. Si c
1
, c
2
, ...., c
n
son constantes reales, y g
1
(X), g
2
(X) ,...., g
n
(X), son
funciones reales de X, entonces E(ci*g
i
(x))c
i
*E(g
i
(x))
Teorema. Var( X) = 2 = E(X
2
) [E(X)]
2
= E(X
2
)
2
MOMENTOS
La esperanza matemtica y la varianza pueden ser calculadas a partir de otras
medidas: el momento de orden r (r pertenece al conjunto de los naturales):
r

'



x
r
r
r r
Discreta X f(x) x
Continua X f(x) x
) X ( E
Asimismo se denomina momento central de orden r, m
r
,
( )
( )
( )

'

+

Continua f(x)dx E(X) x
Discreta X ) f(x E(X) x
) X ( E X E m
r
i
x
r
i
r
r
De este modo, es claro que la esperanza matemtica es el momento de primer orden y
que la varianza es el momento central de segundo orden
2
2
1
1
m V(X) ) E(X
Ejemplo, Ciertas mediciones codificadas del dimetro del avance de la cuerda de un
ajuste tienen la densidad de probabilidad
4

'

< <
+
otro 0
1 x 0
) x 1 (
4
) x ( f
2
Determine el valor esperado y la varianza
Aplicando la definicin,
4413 . 0
4 ln
dx
) x 1 (
4
x ) X ( E
1
0
2

2732 . 0 1
4
dx
x 1
x 4
) X ( E
1
0
2
2
2
2

En muchas ocasiones puede ser complicado computar directamente los momentos de


algunas variables aleatorias por lo cual debemos usar otras tcnicas ms
convenientes. En particular podemos usar la funcin generatriz de momentos. La
funcin generatriz de momentos de una v.a. X, donde existe, est definida por
M
x
(t)= E(e
tX
)=e
tX
*f(x)
Teorema. ) X ( E
dt
) t ( M d
r
r
x
r

DESIGUALDAD DE TCHEBYCHEFF
Variable Aleatoria tipificadas. Si X es una variable aleatoria con esperanza E(X)=
y varianza V(X)=
2
, se puede demostrar que en general, una gran parte de la masa se
encuentra en un intervalo centrado en y que tiene por amplitud varias veces . Ms
precisamente, la desigualdad de Thebycheff afirma que si consideramos un intervalo
de centro y radio k veces , la probabilidad de realizar una observacin de la
variable y que esta no est en dicho intervalo es inferior o igual a 1/k
2
: Si X es
Variable Aleatoria con E(X)= y V(X)=
2
, entonces para todo valor de k positivo,
( )
2
k
1
k X P
Este importante resultado, por si slo, justifica el que sea una medida central y la
medida de dispersin respecto a ese valor medio y motiva la introduccin del
concepto de tipificacin de variables aleatorias, as, dada una Variable Aleatoria X,
definimos su Variable Aleatoria tipificada, z, como,
5

X
z
que es una Variable Aleatoria que presenta la caracterstica de tener valor medio cero
y varianza unitaria: E(X)=0 y V(X)=1
Ejemplo, Si la densidad de probabilidad de la variable aleatoria x est dada por

'

< <

otro 0
1 x 0 ) x 1 ( x 630
) x ( f
4 4
Determine la probabilidad de que x tome un valor contenido en dos desviaciones
estndar de la media y comprela con el lmite inferior proporcionado por el teorema
de Chebyshev
Integrando directamente, obtenemos que =1/2 y
2
=1/44 o sea =0.15
Por tanto, la probabilidad de que x tome un valor contenido en dos desviaciones de la
media es la probabilidad de que tome un valor entre 0.20 y 0.80,
96 . 0 dx ) x 1 ( x 630 ) 80 . 0 x 20 . 0 ( P
80 . 0
20 . 0
4 4
+ < <

Comparando: la probabilidad de 0.96 es mucho mas especifico que la probabilidad es


cuando menos 0.75, enunciado por el teorema de Shebyshev
MOMENTO PRODUCTO
El r-simo y s-simo momento producto con respecto al origen de las variables
aleatorias x y y, representado por `
r,s
es el valor esperado de x
r
y
s
,




0 0
s r s r
s , r
x y
s r s r
s , r
dxdy ) y , x ( f y x ) y x ( E
,... 0 s ,.., 0 r ) y , x ( f y x ) y x ( E
Y con respecto al valor medio
( )
( )




0 0
s
y
r
x
s
y
r
x s , r
x y
s
y
r
x
s
y
r
x s , r
dxdy ) y , x ( f ) y ( ) x ( ) y ( ) x ( E
,... 0 s ,.., 0 r ) y , x ( f ) y ( ) x ( ) y ( ) x ( E
Teorema, 1 , 1 xy
) y , x cov(
Teorema, y x 1 , 1 xy

6
TEORA DE LOS GRANDES NMEROS Y TEOREMA DEL LMITE
CENTRAL
Sea

un experimento y A un suceso asociado. En n repeticiones independientes de

, se n
A
el nmero de veces que ocurre A en las n repeticiones y f
A
=n
A
/n. Sea P(A)=p,
igual para cualquier repeticin, entonces, para cualquier nmero positivo:
[ ]
2
A
n
) p 1 ( p
p f P


y
[ ]
2
A
n
) p 1 ( p
1 p f P

<
Por lo anterior se puede demostrar que para grandes nmeros la funcin de
distribucin binomial tiende a ser Normal
Teorema del Lmite Central: Sea X
1
,...,X
n
sucesos de variables aleatorias
independientes con
i i
] X [ E y
2
i i
] X [ V . Sea X X
n
i
n

1
. Entonces,
) 1 , 0 ( N
X
Z
n
1 i
2
i
n
1 i
i
n

, es decir,
Si G
n
es la fda de Z
n
, entonces,
) z ( ) Z ( G Lim
n
n


Teorema: Si X
1
,...,X
n
son variables aleatorias independientes y tienen igual
distribucin y sean
] X [ V y ] X [ E
i
2
i

, los valores esperados de media y
varianza. Sea

n
1 i
i
X S , entonces,
2
n ] S [ V y n ] S [ E
. Ahora bien, para
valores grandes de n,
) 1 , 0 ( N
n
n S
T
n

considerando,
) t ( ] t T [ P Lim
n
n


|
Teorema: Sean X y Y variables aleatorias independientes con funciones de
distribucin de probabilidad g y h, respectivamente. Sea Z=X+Y con Funcin de
distribucin de probabilidad s definida como,


dw ) w z ( h ) w ( g ) z ( s
. Usando
la transformacin w=x, y z=x+y
7
Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros
positivos. Sea p(k)=P[X=x] y q(r)=[Y=r], siendo k=1,..., y r=1,.... sea Z=X+Y y sea
w(i)=P[Z=z], entonces,


i
0 k
) k i ( r ) k ( p ) i ( w
ESPERANZA CONDICIONAL
Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribucin
de probabilidad condicional de x dada y, la esperanza condicional, de u(x) dada y es,
respectivamente
( )
( ) dx ) y / x ( f ) x ( u y / ) x ( u E
) y / x ( f ) x ( u y / ) x ( u E
x




Ejemplo, Si la densidad conjunta de dos variables aleatorias x y y est dada por
1 y 0 y 1 x 0 valores para ) y 2 x (
3
2
) x ( f < < < <
Determine la media y la varianza condicionales de x dada y=1/2

'

+
+
+

,
_

+
+

+ +


18
7
dx ) 1 x ( x
3
2
) 2 / 1 / x ( E
9
5
dx ) 1 x ( x
3
2
) 2 / 1 / x ( E
) 1 x (
3
2
2
1
/ x f
) y 4 1 ( 3 / 1
) y 2 x ( 3 / 2
) y ( h
) y , x ( f
) y / x ( f
) y 4 1 (
3
1
dx ) y 2 x (
3
2
dx ) y , x ( f ) y ( h
1
0
2 2
1
0
1
0
TEOREMA DE FOURIER FUNCION GENERATRIZ
Si X es una Variable Aleatoria cuya funcin caracterstica es
X
, su funcin de
probabilidad (o densidad de probabilidad) es,
8

(t)dt e
2
1
f(x)
X
itx
Esta propiedad de
X
es fundamental, ya que en una gran cantidad de casos es
mucho ms fcil trabajar con la funcin caracterstica que con la propia funcin de
probabilidad (o densidad). La razn de ello estriba en una serie de propiedades de la
funcin caracterstica que la hacen muy manejable desde el punto de vista
matemtico. Para esta funcin se verifican las relaciones


t ) t ( ) t (
t 1 ) t ( 1 ) 0 (
X X
X X
Lo cual se puede verificar con,
( ) ( ) ( ) ( ) (t) sen(tx) iE cos(tx) E tX) sen( iE tX) cos( E ) E(e t) (
1 f(x)dx 1 dx f(x) e f(x)dx e (t)
1 f(x)dt 1 E(1) ) E(e (0)
X
itX -
X
itx itx
X
i0x
X
+



Aplicando a una recta, Sea (bt) e (t) bX a Y
X
ita
Y
+ , lo que se demuestra
como,
( ) ( ) (bt) e e e E e E ) E(e (t)
X
ita itbX ita bX it(a itX
Y

+
Una propiedad de que es muy usada es que la suma de Variable Aleatoria
independientes tiene por funcin caracterstica el producto de las respectivas
funciones caractersticas. Es decir, Sean X e Y Variables Aleatorias independientes,
entonces, ) t ( ) t ( ) t (
Y X Y X

+
La ltima propiedad de que enunciamos es que al igual que la funcin generatriz
de momentos, esta nos permite calcular los momentos de la variable (y por tanto su
esperanza y su varianza), veamos,
r
(r)
X r
i
(0)
) E(X
Lo que se puede observar como,

+

+

+

f(x)dx e x i
i
(0)
f(x)dx e x i (0) f(x)dx e x i (t)
itx r r
r
(r)
X itx r r (r)
X
itx r r (r)
X
Funcin caracterstica. Para una Variable Aleatoria X se define su funcin
caracterstica como
9

'


f(x)dx e
) f(x e
) E(e (t)
itx
x
i
itx
itX
X
Pero isen(tx) cos(tx) e
itx
+ , lo cual nos conduce a la Tansformada de Fourier de
f. Su denominacin proviene del hecho de que una vez conocida la funcin
caracterstica podemos determinar la funcin de distribucin de la Variable Aleatoria
y recprocamente. siendo
i 1
, y esta funcin siempre existe para todo t
Las principales funciones generadoras de momentos son:
[ ]

,
_

0
x tx
x
0 k
) 1 e ( e
k
tk
x
n
0 k
n
t k n k tk
x
b
a
at bt tx
x
parametro , dx e e ) t ( M : l Exponencia
e e e
! k
e
e ) t ( M : Poisson
) p 1 ( pe ) p 1 ( p
k
n
e ) t ( M : Binomial
0 t ,
t ) a b (
e e
dx
a b
e
) t ( M : Uniforme
t t
Propiedades: Sea la serie de MacLaurin de
! n
x
! 2
x
x 1 e : e
n 2
x x
+ + + +

( )
1
]
1

+ + + +
! n
) tx (
! 2
) tx (
tx 1 e E ) t ( M
n 2
tx
x
, lo que es igual a
1
]
1

+ + + +
! n
] x [ E t
! 2
] x [ E t
] x [ tE 1 ) t ( M
n n 2 2
x
Derivando tenemos,
1
]
1

+ + + +

)! 2 n (
] x [ E t
! 2
] x [ E t
] x [ tE ] x [ E ) t ( M
n 1 n 3 2
2
x
Ahora bien, si t=0, entonces, ] x [ E ) 0 ( M
x

Volviendo a derivar,
1
]
1

+ + +

)! 2 n (
] x [ E t
] x [ tE ] x [ E ) t ( M
n 2 n
3 2
x
Si t=0, entonces, ] x [ E ) 0 ( M
2
x

En general, ] x [ E ) 0 ( M
n ) n (
x

10
Teorema: La variable aleatoria X tiene una fgm M
x
, y sea
+ X Y
, entonces,
) t ( M e ) t ( M
x
t
y


Teorema: Si M
x
(t) y M
y
(t) son las fgm de X y Y que son variables aleatorias
respectivamente y si M
x
(t)=M
y
(t), para todo t, entonces X y Y tienen igual
distribucin de probabilidad.
Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y, y tienen fgm
M
x
(t), M
y
(t) y M
z
(t), respectivamente, entonces, M
z
(t)=M
x
(t)M
y
(t)
Ejemplo, Determine la funcin generatriz de momentos de la variable aleatoria x,
cuya densidad de probabilidad est dada por,

'

>

otro 0
0 x e
f(x)
x
Utilcela para hallar `
r



0
) t 1 ( x
0
x tx tx
x
t 1
1
dx e dx e e ) e ( E ) t ( M
Expandiendo en la serie de McLaurin,
+ + + + + + + + + +
! r
t
! r
! 2
t
! 2
! 1
t
! 1 1 t t t 1 ) t ( M
r 2
r 2
x
Por consiguiente,
r ! r
r


Transformada Lineal de una Variable Aleatoria
0 c c X c X
1 2 1
*
+
) X ( c ) c c ( ) c X c ( X
c X c ] 1 [ E c ] X [ E c ] X [ E
1 2 1 2 1
* *
2 1 2 1
* *
+ +
+ +
En general, se tiene,
] ) X ( c ] ) X ( c [ E ] ) X [( E
k k k k k * *
1 1

2
1
2 *
c que es un caso particular para k=2
11
La varianza es invariante bajo una traslacin del origen, esto es, una transformacin
de la forma
2
*
c X X + . Si entonces, X
*
toma la expresin

2 1
c y
1
c
,
entonces
Z
X


, que tiene media 0 y varianza 1
Si una variable aleatoria X tiene media

y varianza
2
, entonces

X
Z
tiene
media 0 y varianza 1
Teorema,
r
r
x
r
dt
) t ( M d

De este teorema se desprende,
( ) ( )

,
_

,
_

,
_

+
+
+
+
b
t
M e e E ) t ( M
) bt ( M e E ) t ( M ) t ( M e e E ) t ( M
x
t
b
a
t
b
a x
b
a x
x
bxt
bx x
at t ) a x (
a x
ESPERANZA BIDIMENSIONAL
E[g(X,Y)] se define como




+ +

'


x y x
1
x y
X de depende ) x ( f ) x ( g ) y , x ( f ) x ( g )] Y , X ( g [ E
)] y , x ( h [ bE )] y , x ( g [ aE )] Y , X ( bh ) Y , X ( ag [ E
Continuo dxdy ) y , x ( f ) y , x ( g
Discreto ) y , x ( f ) y , x ( g
)] Y , X ( g [ E
E[X+Y]=E[X]+E[Y]
12
El valor medio de una suma de variables aleatorias es igual a la suma de los valores
medios de las variables aleatorias, esto es,
[ ] ] Y [ E ] X [ E ] XY [ E y ] X [ E X E
i i


si X e Y son independientes
Si X
1
,X
2
,...X
n
son variables aleatorias independientes, entonces


1
]
1

n
n
n
n
] X [ E X E
Varianza: Si se tiene Z=X+Y, entonces
2 2 2
]) Z [ E ( ] Z [ E de donde
2 2 2 2
]) Y [ E ] X [ E ( ] Y XY 2 X [ E ] Z [ E + + + , lo que conduce a ,
] Y [ E ] X [ E ] XY [ E
XY
, o sea,
XY
2
Y
2 2
2
X
+ +
,
y si X e Y son independientes,
XY
0
La varianza de una suma de variables aleatorias independientes cuyas varianzas
existan, es igual a la suma de esas varianzas
Si X
1
,X
2
,...X
n
son variables aleatorias independientes, con varianza comn
2
,
entonces Si X
1
,X
2
,...X
n
son variables aleatorias independientes, entonces
X
n
X X
n
+ +
1
1
( )
y tienen varianza Si X
1
,X
2
,...X
n
son variables aleatorias independientes, entonces


X
n
2
2

La fgm se define como: Sea X una variable aleatoria con dp p(x


i
)=P[X=x
i
], la funcin
M
x
es la fgm de X y se define como
M t e p x
x
tx
j
j
j
( ) ( )

1
para el caso discreto, y
M t d f x
x
tx
( ) ( )dx

para el caso continuo,


siendo f(x) la funcin de distribucin de probabilidades
13

También podría gustarte