Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Recordemos que una variable aleatoria X es discreta, si existe una sucesión ( x n) n ≥ 1 de números
reales tales que
∞
∑ P( X=x n )=1
n =1
Comenzaremos por definir la noción de valor esperado para variables aleatorias discretas.
Definición: Sea X una variable aleatoria discreta con la notación anterior, y llamemos
pn=P( X=x n ), n=1 ,2 , … Diremos que existe el valor esperado, la media o la esperanza matemática de X
si la serie
∞
∑| xn| pn
n =1
Es convergente. En ese caso, el valor esperado se denota E(X) y se define mediante la serie
∞
E ( X ) =∑ x n pn
n=1
Ejemplo
Sea X el resultado de lanzar un dado, entonces X toma valores { 1,2,3,4,5,6 } con probabilidad uniforme en este
conjunto. Por lo tanto
6
1 21
E ( X ) =∑ i = =3.5
i=1 6 6
Observamos que en este caso el valor esperado no es un valor posible de la variable aleatoria.
Propiedades
La esperanza matemática de una variable discreta tiene las siguientes propiedades.
1. Propiedad: Si X ≥ 0y existe E( X) , entonces E( X)≥ 0.
Es obvio que si X ≥ 0, los valores x n que figuran en la suma (6.1) son no-negativos, y si dicha serie es
convergente, la suma también será no-negativa.
2. Propiedad: Si X es una variable aleatoria acotada entonces existe E( X) .
Decir que la variable aleatoria X es acotada es decir que existe una constante C tal que
¿ x n∨≤ C Para toda n,
y, por lo tanto,
N N
∑|xn| pn ≤C ∑ p n ≤ C
n =1 n=1
Es decir que las sumas parciales de la serie (6.1) resultan estar acotadas por la constante C. Ahora bien,
recordemos que para una serie de términos no-negativos – es el caso de la serie (6.1) – es necesario y suficiente
para que converja que sus sumas parciales estén acotadas. Como las de (6.1) lo están, esta serie es convergente
y el valor esperado de X existe.
Observación Una primera observación es que si una variable aleatoria toma solamente un número finito de
valores, entonces su esperanza matemática está bien definida, ya que (6.1) se reduce a una suma finita.
Por otra parte, no siempre existe el valor esperado de una variable aleatoria. Por ejemplo, consideremos la
variable aleatoria X tal que
1
x n=2n y p n=P ( X=2 n )= ,n
2n
Es claro que
∞
∑ p n=1
n =1
Se tiene que x n p n=1, para toda n y por lo tanto, la serie (6.1) es divergente, de modo que esta variable
aleatoria no tiene esperanza matemática.
En algunos textos el lector encontrar a que, en casos como el de este ejemplo, en el cual la variable
aleatoria X es no-negativa y la serie (6.1) diverge, se conviene en definir E(X) = + ∞en lugar de hacer como
hemos optado, esto es, decir que no existe la esperanza.
Se debe hacer especial atención, sin embargo, en que si la variable no es no-negativa (o, en general, de signo
constante), no hay esa opción convencional. Por ejemplo, si modificamos el ejemplo considerado y tomamos la
variable aleatoria Y tal que
1 1
P ( Y =2n ) = n+1
P ( Y =−2 n) = n≥1
2 2n+1
1 A ( w )= 1 si w ∈ A
{
0 si w∄ A
Entonces
E(1 A )=P( A ).
Es claro que 1A es discreta, ya que toma solamente dos valores y
E(1 A )=1× P (1 A=1)+0 × P(1 A =0)=P (A ).
4. Propiedad: Sea g : R → R una función y consideremos la nueva variable aleatoria (discreta)
Y =g (X ).
Entonces, si existe la esperanza matemática de Y , ´esta es
∞
E ( Y ) = ∑ g ( x n) p n
n=1
Demostración. Llamemos { y m} a los valores de Y, entonces
∞
E ( Y )=∑ y m P(Y = y m )
n=1
Donde el conjunto de los valores de n sobre los que se suma es el conjunto de los valores tales que
G (xn) = y m.
E ( Y ) =∑ y m
m
Y ahora, un instante de reflexión mostrar a al lector que la suma doble que aparece en la última igualdad es,
simplemente, la suma sobre todos los valores de n, ya que cada n aparece una y solo una vez allí. En resumen
E ( Y ) = ∑ g ( x n) p n
n
Observe que la desigualdad entre las sumas de las series, se deduce simplemente de que
N N
∑|xn| pn ≥ ∑ x n pn
n =1
| n=1
|
En virtud de la desigualdad triangular entre números reales. Pasando al límite cuando N → ∞, se
obtiene la desigualdad análoga entre las sumas de las series.
¿ ∑|z k| ∑ r nm
k {( n ,m ) : xn + y m= zk }
Donde en la última suma hay que entender que la suma interior se efectúa sobre todas las parejas de
´índices (n , m) tales que x n + y m=z k . La última expresión es:
¿ ∑ |x n|∑ r nm + ∑ | y m|∑ r nm
n m m n
¿ ∑ |x n| pn + ∑ | y m|q m <∞ ,
n m
9. Propiedad: Si X e Y son variables aleatorias independientes con valor esperado, entonces existe
E( XY ) y
E( XY )= E( X )E (Y )
r nm=P ( X=x n ,Y = y m ) =P ¿
∑|w k| P ( XY =w k) =∑ ∑ |w k|r nm
k k { ( n ,m ) : x n y m=w k }
¿∑ ∑ | xn y m| pn qm
k { ( n ,m ) : x n ym =w k }
¿ ∑ |x n|| y m| pn qm =∑ |x n| pn ∑ | y m|q m
n ,m n m
Lo cual muestra que existe E ( XY ) .El mismo calculo, quitando los valores absolutos, permite obtener la
relación.
μm =E ¿
(Ver la propiedad 4, con g( x )=(xE ( X ))m . En la definición se sobrentiende que existe la esperanza de la
variable aleatoria X).
Se acostumbra denominar varianza (Var ( X)) al momento centrado de orden 2 – cuando existe – es decir
Var ( X )=E ¿ 2)
Siempre que la esperanza que figura en el segundo miembro esté bien definida, y el coeficiente de correlación
De X e Y por
Cov ( X , Y )
ρ ( X , Y )=
√Var ( X ) Var (Y )
Siempre que el segundo miembro tenga sentido.
Finalmente, se dice que X e Y no están correlacionadas, son no-correlacionadas o incorreladas si
Cov ( X , Y )=0
Propiedades
Veamos a continuación algunas propiedades de estos momentos.
1. Propiedad: Si a es una constante y X una variable aleatoria que tiene varianza, entonces
Var ( X )=Var ( X + a )
Var ( aX )=a2 Var ( X)
Tomando en cuenta quienes son U y V y las definiciones de varianza y covarianza, resulta la desigualdad
que queríamos probar.
4. Propiedad: Sean X e Y dos variables aleatorias tales que están definido el coeficiente de correlación.
Entonces
−1 ≤ ρ( X ,Y )≤1
Demostración. Es una consecuencia sencilla de la propiedad anterior.
5. Propiedad: Si Var(X) = 0 entonces existe una constante c tal que
P( X =c )=1.
(Esta propiedad de que P( X =c )=1 se enuncia a veces diciendo que X es una variable aleatoria “casi
seguramente” igual a la constante c ).
Demostración. Para probar esta propiedad, recordemos que X es una variable aleatoria discreta. (El
resultado también será cierto en general, como ocurre con casi todas las propiedades que hemos
estudiado, pero eso lo veremos más adelante).
Entonces la variable aleatoria Y =( X −E( X))2 también es discreta y toma valores mayores o iguales a
cero, digamos { y m}. Nuestra hipótesis es que
E(Y )=0 .
Sea q m=P ¿). Si hubiera algún y m >0 tal que pm >0 , se tendría que
0 0
E ( Y ) = ∑ y m pm ≥ y m p m > 0
0 0
m
Contradiciendo la hipótesis. Por lo tanto no hay un tal y m , y si y m >0 necesariamente pm =0. En
0
consecuencia
P ( Y >O )= ∑ p m=0
{ m : y m >0 }
Puesto que
P ( X−c=0 ) =P ( X =C )=1
6. Propiedad: Sean X 1 , X 2 , .. . , X n variables aleatorias independientes, cada una de las cuales tiene
varianza, entonces la suma también tiene varianza y
Var ( X 1+ X 2+ ·· ·+ Xn )=Var ( X 1 ) +Var ( X 2 )+· · ·+ Var ( Xn ) .
Demostración. Basta probar la igualdad para n=2. Para n>2 se sigue por inducción completa, y queda como
ejercicio.
Sea entonces n = 2 y pongamos Y1 = X1 E(X1), Y2 = X2 E(X2). Como X1, X2 son variables aleatorias
Independientes, también lo son Y1, Y2 y, en consecuencia, por la propiedad 9 de la sección
Se deduce que
Var ( X 1 + X 2 ) =E ¿
¿ Var ( X 1 ) +Var ( X 2)
Que es lo que queríamos probar.
7. Propiedad: Sea X una variable aleatoria y supongamos que existe su momento de orden m. Entonces
también existe su momento de orden k , para cualquier k , que satisfaga 0 ≤ k <m .
Demostración. Para probar que existe el momento de orden k hay que ver que
Ejemplos y Aplicaciones.
P ( X i=1 )= p i=1,2 ,…
E ( X i ) =1 x P ( X i=1 ) + 0 x P ( X i=0 )= p
Se deduce que
E ( Sn ) =E ¿
n n
Var ( S n )=Var (∑ ) ∑
i=1
Xi =
i=1
Var ( X i)
Y
2
Var ( X i ) =E ( X 2i ) −( E ( X i ) ) = p− p2= p(1−p)
( Sn ) =∑ kP (S n=k)=∑ k n p (1− p)
k n−k
k=0 k=0
(k )
n
( n−1)!
¿ np ∑ pk−1 (1− p)n−k
k=1 (n−k ) !( k−1)!
n−1
¿ np ∑ n−1 p j ( 1− p )
n−1− j
j=0 j ( )
Observamos que la última suma es igual a 1 ya que no es otra cosa que la suma de todas las
probabilidades ( j=0 , 1, . . ., n−1) correspondientes a una distribución binomial con (n−1) observaciones. O,
también, es el desarrollo de Newton del binomio ( p+1− p)n−1=1.
Con un cálculo parecido también reencontramos el resultado que hemos obtenido para Var(Sn);
observemos primero que
Var ( S n )=E ( S 2n ) −¿
Y entonces
n
E ( Sn ( Sn −1 ) )=∑ k ( k −1 ) P ( Sn=k )
k=0
n
¿ ∑ k (k −1) n pk (1− p)n−k
k=2 k ()
n
2 (n−2)!
¿ n( n−1) p ∑ (n−k )! (k −2)! p k−2 (1− p)n−k
k=2
n−2
n ( n−1 ) p 2
∑ ( n−2
j ) p j (1− p )
n−2− j
=n(n−1) p2
j=0
La última suma nuevamente vale 1, por un argumento análogo al ya empleado. Reemplazando en la
igualdad anterior
Var ( Sn )=n (n−1) p 2+ np−(np)2=np (1− p).
Distribución de Poisson. Recordemos que la variable aleatoria X tiene distribución de Poisson con
parámetro λ> 0 si
λ k −λ
P ( X=k )= e k=0,1,2 , …
k!
∞ ∞
λk −λ
Entonces E ( X ) =∑ kP ( X =k ) =∑ k e
k=0 k=0 k!
∞ ∞
λk−1 λj
¿ λ e− λ ∑ k =λ e− λ ∑
k=0 (k−1)! j=0 j!
−λ λ
¿ λ e e =λ
∞
λ λj
Donde hemos empleado el desarrollo de Taylor de la funci´on exponencial e =∑ . Por lo tanto
j=0 j!
E ( X ) =λ
Además
∞ ∞
λ k − λ 2 −λ λ k−2
E ( X ( X −1 ) )=∑ k (k −1)! e =λ e ∑
k =0 K! k=2 (k−2)!
∞
2 −λ λj
¿λ e ∑ =¿ λ2 ¿
j=0 j!
Y en consecuencia
¿ λ2 + λ−λ 2=λ
Es decir
Var ( X )= λ
Igual que en el caso de variables estadísticas, mide la dispersión de la variable, y se calcula como la
media de las desviaciones (elevadas al cuadrado) de los valores a su media:
σ 2=E[ X 2 ]−μ 2
Si X es una variable discreta, la forma de hacer los cálculos será
k
σ =∑ ( x i−μ)2 p i=¿
2
i=1
−∞
y que también puede calcularse como
∞
σ 2=( ∫ x 2 f ( x ) dx)−μ 2
−∞
Ejemplo de dos variables discretas con prácticamente la misma media y diferente varianza
(dispersión).
Consideremos la variable aleatoria que representa el número que puede salir en una ruleta:
36 1/37
Mediante la fórmula,
k 36 36
1 1 1
E( X)=∑ x i pi=∑ i. = ∑ ¿ ⋅666=18 ,
i=1 i =0 37 37 i=0 37
Lo que quiere decir que, si jugásemos a la ruleta infinitas veces, y fuésemos anotando el número que
sale, la media aritmética de esos infinitos números daría 18.
Por medio de una simulación, podemos comprobarlo: vamos a ver qué sucede si jugamos en la ruleta y
anotamos los números durante un gran número de jugadas. Esto juego lo “simulamos” en R generando
números aleatorios que tomen valores enteros entre 0 y 36, lo cual se hace con el comando runif, del
siguiente modo:
Si, en vez de hacerlo 1000 veces, lo hacemos, por ejemplo, 10.000 veces:
x=runif (10000, 0, 36)
x=round(x)
Mean(x)
## [1] 17.94
Observamos que, en efecto, la media de los números obtenidos se aproxima al valor medio o
esperado que es 18.
Vamos a considerar ahora la variable X =ganancia al apostar a un número concreto . Las reglas de la ruleta
francesa (la que tiene un cero) son: cuando apostamos una cantidad a un número concreto entre 1 y
36 (al cero no podemos apostar) y no acertamos, perdemos la cantidad apostada; si acertamos,
recibimos 35 veces la cantidad apostada.
De esta forma, si llamamos cc a la cantidad apostada, vemos que la variable X toma sólo dos
valores: −c si perdemos (sale cualquier número, incluido el cero, excepto el que hemos apostado),
y c ⋅35 si ganamos (sale el número apostado).
X P( X =x i)
−1 1/2
1 1/2
La esperanza es
E( X)=1⋅ 0.5−1 ⋅ 0.5=0
Esto se llama juego de suma nula, que significa que, en teoría, si juegan 2 jugadores, los dos pierden
tantas veces como ganan. Vemos que no es lo que ocurre en el caso de la ruleta. La ruleta está
pensada para que, a la larga, gane el casino.
Vamos a jugar a la ruleta 100 veces y ver cuánto dinero podríamos ganar:
X=round (runif (100, 0,36))
## [1] 44
Si, en vez de jugar 100 veces, jugamos 100.000 veces, veamos qué podría ocurrir.
X=round (runif(10000,0,36))
sum (premio)
## [1] 152
Estos dos ejemplos son simulaciones. En algunos casos ganaremos y otras perderemos, pero nunca
van a ser cantidades desorbitadas, y habrá que jugar muchas horas para llegar a 100.000 apuestas
Empezamos lanzando la moneda 10 veces porque así nos “aseguramos” de que el número de cruces
no sea cero (evidentemente puede ocurrir, pero sería raro), y así la proporción no nos dé infinito al
dividir por cero.