Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad 2:
LA MEDIA DE UNA VARIABLE ALEATORIA DISCRETA
Variables
⚠ Definición
Sea X una variable aleatoria discreta con rango R X ={ x 1 , x 2 , ⋯ }. El valor esperado, valor medio o
esperanza de X , se define como
∞
E ( X ) =μ X =∑ x i ⋅ p ( x i)
i=1
Si la serie infinita no converge, entonces la esperanza de X no existe. Por otro lado, si R X fuese finito,
1
digamos R X ={ x 1 , x 2 , ⋯ , x n } y las probabilidades p(x i) fueran iguales, entonces p ( x i) = y
n
n
n
1
∑ xi
E ( X ) =∑ x i ⋅ = i=1
i=1 n n
que no es más que el promedio de todos los valores posibles de X . En realidad, la esperanza de una
variable aleatoria no es más que una generalización del promedio de comúnmente utilizamos en nuestra
vida cotidiana para representar a un conjunto de números. Por ello, cuando X es una variable aleatoria
discreta, a E( X) también se le conoce como promedio ponderado de los valores posibles de X .
LA ESPERANZA ES ANÁLOGA AL
CENTRO DE GRAVEDAD
Si sobre una barra ubicamos las p( x i) como si fuesen
pesos que corresponden a cada uno de los valores x i, el
punto en el que la barra logra el equilibrio, que en Física
se conoce como centro de gravedad, coincide con la
esperanza de la variable aleatoria X.
__ EJEMPLO _________________________________________________________________
1
k
{
p ( x) = x2
, x =1, 2 , 3 , ⋯
0 , en otros casos
En este ejemplo k existe, pero no será necesario hallar su valor exacto. Hallamos el valor esperado de X
como sigue
∞ ∞ ∞
k 1
E ( X ) =∑ x ⋅ p ( x )=¿ ∑ x ⋅ 2 =k ∑ ¿
x=1 x=1 x x=1 x
Sin embargo, dado que la serie resultante es la famosa serie armónica y esta no converge, no existe la
esperanza de X . Los estadísticos dicen que la distribución de probabilidad de X tiene una “cola gruesa”.
■
__ EJEMPLO _________________________________________________________________
Un jugador en una feria paga $5.00 para tirar una moneda tres veces. Recibirá a cambio $3.00 si salen
dos águilas, $12.00 si salen tres águilas, de otro modo no recibirá nada. Hallar la cantidad de dinero que
el jugador espera recibir.
Solución: Sea X la cantidad de dinero que el jugador espera recibir, su rango está dado por
R x ={ 0 , 3 ,12 }. Su función masa de probabilidad es la siguiente
4 3 1
P ( X=0 )= , P ( X=3 )= , P ( X=12 ) =
8 8 8
4 3 1
Entonces E ( X ) =( 0 ) () () ()
8
+( 3 )
8
+ (12 )
8
=2.625. Concluimos que, si el jugador paga $5.00 por jugar,
⚠ Definición
Sea X una variable aleatoria continua cuya función de densidad es f . El valor esperado, valor
medio o esperanza de X , se define como
∞
E ( X ) =∫ x ⋅f ( x ) dx
−∞
Al igual que en la sección anterior, si X es continua, su esperanza puede ser interpretada como un centro
de gravedad. Así, si f (x) es simétrica respecto a una recta y=x 0, entonces E ( X ) =x0 .
Observaciones 🙈
2
∞
1. No siempre existe E( X) : Existirá si y sólo si ∫ x ⋅f ( x ) dx es absolutamente convergente, esto
−∞
∞
es si y sólo si ∫ |x|⋅ f ( x ) dx <∞.
−∞
2. X es variable aleatoria acotada: Cuando X es una variable aleatoria acotada, esto siempre que
existan números a , b con −∞<a< b<∞ tales que P ( a ≤ X ≤ b )=1, entonces E( X) debe existir.
PROPIEDADES DE LA ESPERANZA
1. Esta propiedad nos dice que E ( g ( x ) ) se calcula del mismo modo que E ( X ) , excepto que g ( x )
sustituye a x .
a. Si X es una variable aleatoria discreta con función masa de probabilidad p, entonces
para cualquier función real g( x ) se cumple que
E ( g ( x ) )= ∑ g ( x i ) ⋅ p ( x i ) =¿ ∑ g ( xi ) ⋅ P( X =x i) ¿
xi ∈R X x i∈ R X
2. Linealidad de la esperanza de X:
a. Si a , b son constantes arbitrarias, entonces E ( aX +b )=a ⋅ E ( X )+ b.
Demostración:
i. Sea X una variable aleatoria discreta de rango R X ={ x 1 , x 2 , ⋯ }. Entonces
∞ ∞ ∞
E ( aX +b )=∑ ( a x i +b ) p ( x i )=¿ a ∑ x i ⋅ p ( xi ) + b ∑ p ( x i ) =¿ a ⋅ E ( X ) +b ¿ ¿
i=1 i =1 i=1
ii. Sea X una variable aleatoria continua cuya función de densidad es f (x).
Entonces
3
∞ ∞ ∞
E ( aX +b )= ∫ ( ax +b ) ⋅ f ( x ) dx=a ∫ x ⋅ f ( x ) dx+ b ∫ f ( x ) dx=a⋅ E ( X ) +b
−∞ −∞ −∞
3.
a. Si existe una constante a tal que P ( X ≥ a )=1, entonces E ( X ) ≥ a.
b. Si existe una constante b tal que P ( X ≤b )=1, entonces E ( X ) ≤ b.
c. Si P ( a ≤ X ≤ b )=1, entonces a ≤ E ( X ) ≤b .
4. Generalización de la propiedad 2.
a. Si X , Y son variables aleatorias y a , b , c son constantes arbitrarias, entonces
E ( aX +bY + c )=aE ( X )+ bE (Y )+ c
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias, entonces
E ( X 1 + X 2+ ⋯+ X n )=E ( X 1 )+ E ( X 2 ) +⋯ + E( X n)
c. Si X 1 , X 2 , ⋯ , X n son variables aleatorias, a i es una constante con 1 ≤i ≤n y b también
es una constante, entonces
E ( a 1 X 1 +a 2 X 2+ ⋯+a n X n+ b ) =a1 E ( X 1 ) +a2 E ( X 2 ) + ⋯ an E ( X n ) + b
⚠ Definición
Dos variables aleatorias X , Y son independientes si para dos conjuntos A , B arbitrarios, se
cumple P ( X ∈ A , Y ∈ B )=P ( X ∈ A ) ⋅ P(Y ∈ B). En general, n variables aleatorias X 1 , X 2 , ⋯ , X n
son independientes si para cualesquiera A1 , A 2 ,⋯ , A n conjuntos borelianos, se cumple
P ( X 1 ∈ A1 , ⋯ , X n ∈ A n) =P ( X 1 ∈ A1 ) ⋅⋯ ⋅ P( X n ∈ A n ).
5.
a. Si X 1 , X 2 son variables aleatorias independientes, entonces E ( X 1 ⋅ X 2 ) =E ( X 1 ) ⋅ E( X 2).
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias independientes, entonces
n n
E ( )
∏ X i =∏ E( X i)
i=1 i=1
4
LA VARIANZA DE UNA VARIABLE ALEATORIA
La media no es suficiente para tener una buena idea del comportamiento de un conjunto de datos
numéricos. Se puede mejorar añadiendo una medida de la dispersión de los datos alrededor de ella. A
continuación, se presentan dos distribuciones de probabilidad distintas:
Podemos observar que, aunque ambas distribuciones tienen el mismo centro o la misma esperanza, la
distribución de (b) tiene mayor dispersión o variabilidad que (a). Se utilizará la varianza de X para
evaluar la cantidad de variabilidad en X.
⚠ Definición
Sea X una variable aleatoria (discreta o continua). Entonces la varianza de X se define como
2
Var ( X )=σ 2=E { [ X−E ( X ) ] }
A la raíz cuadrada no negativa de la varianza se le denomina desviación estándar.
Observaciones
La varianza no siempre existe, ya que es la esperanza de una variable aleatoria.
2
Si hacemos Y = [ X−E ( X ) ] , entonces
Y ≥ 0→ P (Y ≥ 0 ) =1→ E(Y )≥ 0
Es decir, Var ( X ) ≥0 .
PROPIEDADES DE LA VARIANZA
2
1. Fórmula abreviada: Var ( X )=E ( X 2 )−[ E ( X ) ]
2. Var ( X +c )=Var ( X )
3. Var ( cX )=c2 Var (X )
Para la siguiente propiedad es necesario tener en cuenta que las funciones de variables aleatorias
independientes son independientes. Sin embargo, no sucede con cualquier par de funciones. Por
ejemplo: X 1 +2 X 2 y X 3 son independientes, pero X 1 + X 2 y X 1 puede que no lo sean. Podemos
concluir que las funciones serán independientes si las v.a. no se repiten.
4.
5
a. Si X ,Y son variables aleatorias independientes, entonces
Var ( X +Y )=Var ( X )+Var (Y ).
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias independientes, entonces
Var ( X 1 + X 2 ⋯ + X n )=Var ( X 1 ) +Var ( X 2) + ⋯+Var ( X n)
LA DESIGUALDAD DE CHEBYSHEV
Para la demostración de este teorema es necesario estudiar la desigualdad de Márkov. Esta relaciona
las probabilidades con la esperanza matemática y proporciona cotas útiles (aunque habitualmente poco
ajustadas) para la función de distribución de una variable aleatoria.
Teorema
E(X)
Sea X una variable aleatoria y a> 0, entonces P ( X ≥ a ) ≤ .
a
Teorema
Sea X una variable aleatoria con media μ y varianza σ 2, entonces, para cualquier k > 0,
2
σ
P (|X −μ|≥ k ) ≤ 2
k
2
Demostración: Primeramente, observemos que {| X−μ|≥ k } ↔ {( X −μ ) ≥ k 2 . Entonces
2 2 E [ ( X −μ )2 ] Var ( X )
P [ ( X−μ ) ≥ k ] ≤ 2
=
k k2
■
Ambas desigualdades son resultados muy generales en el sentido que son válidos cualesquiera sea la
distribución de la variable aleatoria, por tal razón arrojan resultados muy conservadores.