Está en la página 1de 6

Probabilidad

Unidad 2:
LA MEDIA DE UNA VARIABLE ALEATORIA DISCRETA
Variables

⚠ Definición
Sea X una variable aleatoria discreta con rango R X ={ x 1 , x 2 , ⋯ }. El valor esperado, valor medio o
esperanza de X , se define como

E ( X ) =μ X =∑ x i ⋅ p ( x i)
i=1

donde p(x ) es la función masa de probabilidad de X , esto es p ( x ) =P ( X=x ).

Si la serie infinita no converge, entonces la esperanza de X no existe. Por otro lado, si R X fuese finito,
1
digamos R X ={ x 1 , x 2 , ⋯ , x n } y las probabilidades p(x i) fueran iguales, entonces p ( x i) = y
n
n

n
1
∑ xi
E ( X ) =∑ x i ⋅ = i=1
i=1 n n

que no es más que el promedio de todos los valores posibles de X . En realidad, la esperanza de una
variable aleatoria no es más que una generalización del promedio de comúnmente utilizamos en nuestra
vida cotidiana para representar a un conjunto de números. Por ello, cuando X es una variable aleatoria
discreta, a E( X) también se le conoce como promedio ponderado de los valores posibles de X .

LA ESPERANZA ES ANÁLOGA AL
CENTRO DE GRAVEDAD
Si sobre una barra ubicamos las p( x i) como si fuesen
pesos que corresponden a cada uno de los valores x i, el
punto en el que la barra logra el equilibrio, que en Física
se conoce como centro de gravedad, coincide con la
esperanza de la variable aleatoria X.

__ EJEMPLO _________________________________________________________________

Supongamos que X es el número de entrevistas que un estudiante sostiene antes de conseguir un


trabajo, cuya función masa de probabilidad es

1
k

{
p ( x) = x2
, x =1, 2 , 3 , ⋯

0 , en otros casos

En este ejemplo k existe, pero no será necesario hallar su valor exacto. Hallamos el valor esperado de X
como sigue
∞ ∞ ∞
k 1
E ( X ) =∑ x ⋅ p ( x )=¿ ∑ x ⋅ 2 =k ∑ ¿
x=1 x=1 x x=1 x

Sin embargo, dado que la serie resultante es la famosa serie armónica y esta no converge, no existe la
esperanza de X . Los estadísticos dicen que la distribución de probabilidad de X tiene una “cola gruesa”.

__ EJEMPLO _________________________________________________________________
Un jugador en una feria paga $5.00 para tirar una moneda tres veces. Recibirá a cambio $3.00 si salen
dos águilas, $12.00 si salen tres águilas, de otro modo no recibirá nada. Hallar la cantidad de dinero que
el jugador espera recibir.

Solución: Sea X la cantidad de dinero que el jugador espera recibir, su rango está dado por
R x ={ 0 , 3 ,12 }. Su función masa de probabilidad es la siguiente

4 3 1
P ( X=0 )= , P ( X=3 )= , P ( X=12 ) =
8 8 8

4 3 1
Entonces E ( X ) =( 0 ) () () ()
8
+( 3 )
8
+ (12 )
8
=2.625. Concluimos que, si el jugador paga $5.00 por jugar,

en promedio recibirá $3.00, por lo tanto, el juego no le conviene.


LA MEDIA DE UNA VARIABLE ALEATORIA CONTINUA

⚠ Definición
Sea X una variable aleatoria continua cuya función de densidad es f . El valor esperado, valor
medio o esperanza de X , se define como

E ( X ) =∫ x ⋅f ( x ) dx
−∞

Al igual que en la sección anterior, si X es continua, su esperanza puede ser interpretada como un centro
de gravedad. Así, si f (x) es simétrica respecto a una recta y=x 0, entonces E ( X ) =x0 .

Observaciones 🙈

2

1. No siempre existe E( X) : Existirá si y sólo si ∫ x ⋅f ( x ) dx es absolutamente convergente, esto
−∞


es si y sólo si ∫ |x|⋅ f ( x ) dx <∞.
−∞

2. X es variable aleatoria acotada: Cuando X es una variable aleatoria acotada, esto siempre que
existan números a , b con −∞<a< b<∞ tales que P ( a ≤ X ≤ b )=1, entonces E( X) debe existir.

Es importante considerar como verdadero lo siguiente:

 Si X es una variable aleatoria, cualquier función de X y Y es también una variable aleatoria.


Ejemplos: 2 X−9 , e X , ln ( 7 X + 8 ) y X 3 −5 X 2 +11.
 Si X y Y son variables aleatorias, cualquier función de X y Y es también una variable aleatoria.
X
Ejemplos: X + 6Y −9, XY , y e X−Y .
Y
 Si X 1 , X 2 , ⋯ , X n son variables aleatorias, cualquier función de ellas es también una variable
aleatoria. Ejemplos: X 1 + X 2+ ⋯+ X n, X 1 ⋅ X 2 ⋅⋯ ⋅ X n y 2 X 1 +3 X 2 + X 5 −4 .

PROPIEDADES DE LA ESPERANZA

1. Esta propiedad nos dice que E ( g ( x ) ) se calcula del mismo modo que E ( X ) , excepto que g ( x )
sustituye a x .
a. Si X es una variable aleatoria discreta con función masa de probabilidad p, entonces
para cualquier función real g( x ) se cumple que
E ( g ( x ) )= ∑ g ( x i ) ⋅ p ( x i ) =¿ ∑ g ( xi ) ⋅ P( X =x i) ¿
xi ∈R X x i∈ R X

b. Si X es una variable aleatoria continua con función de densidad f , entonces para


cualquier función g( x ) se cumple que

E ( g ( x ) )=∫ g ( x ) ⋅f X ( x ) dx
−∞

2. Linealidad de la esperanza de X:
a. Si a , b son constantes arbitrarias, entonces E ( aX +b )=a ⋅ E ( X )+ b.
Demostración:
i. Sea X una variable aleatoria discreta de rango R X ={ x 1 , x 2 , ⋯ }. Entonces
∞ ∞ ∞
E ( aX +b )=∑ ( a x i +b ) p ( x i )=¿ a ∑ x i ⋅ p ( xi ) + b ∑ p ( x i ) =¿ a ⋅ E ( X ) +b ¿ ¿
i=1 i =1 i=1

ii. Sea X una variable aleatoria continua cuya función de densidad es f (x).
Entonces

3
∞ ∞ ∞
E ( aX +b )= ∫ ( ax +b ) ⋅ f ( x ) dx=a ∫ x ⋅ f ( x ) dx+ b ∫ f ( x ) dx=a⋅ E ( X ) +b
−∞ −∞ −∞

Dos casos especiales de esta proposición producen dos reglas importantes:

b. Con cualquier constante a , E ( aX ) =a ⋅ E(X ).


c. Con cualquier constante b , E ( X +b )=E ( X ) + b.
La multiplicación deX por una constante cambia la unidad de medición. Asimismo, si se
agrega una constante b a cada valor posible de X , entonces el valor esperado se desplazará
en esa misma cantidad constante.

3.
a. Si existe una constante a tal que P ( X ≥ a )=1, entonces E ( X ) ≥ a.
b. Si existe una constante b tal que P ( X ≤b )=1, entonces E ( X ) ≤ b.
c. Si P ( a ≤ X ≤ b )=1, entonces a ≤ E ( X ) ≤b .
4. Generalización de la propiedad 2.
a. Si X , Y son variables aleatorias y a , b , c son constantes arbitrarias, entonces
E ( aX +bY + c )=aE ( X )+ bE (Y )+ c
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias, entonces
E ( X 1 + X 2+ ⋯+ X n )=E ( X 1 )+ E ( X 2 ) +⋯ + E( X n)
c. Si X 1 , X 2 , ⋯ , X n son variables aleatorias, a i es una constante con 1 ≤i ≤n y b también
es una constante, entonces
E ( a 1 X 1 +a 2 X 2+ ⋯+a n X n+ b ) =a1 E ( X 1 ) +a2 E ( X 2 ) + ⋯ an E ( X n ) + b

⚠ Definición
Dos variables aleatorias X , Y son independientes si para dos conjuntos A , B arbitrarios, se
cumple P ( X ∈ A , Y ∈ B )=P ( X ∈ A ) ⋅ P(Y ∈ B). En general, n variables aleatorias X 1 , X 2 , ⋯ , X n
son independientes si para cualesquiera A1 , A 2 ,⋯ , A n conjuntos borelianos, se cumple
P ( X 1 ∈ A1 , ⋯ , X n ∈ A n) =P ( X 1 ∈ A1 ) ⋅⋯ ⋅ P( X n ∈ A n ).

5.
a. Si X 1 , X 2 son variables aleatorias independientes, entonces E ( X 1 ⋅ X 2 ) =E ( X 1 ) ⋅ E( X 2).
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias independientes, entonces
n n
E ( )
∏ X i =∏ E( X i)
i=1 i=1

4
LA VARIANZA DE UNA VARIABLE ALEATORIA
La media no es suficiente para tener una buena idea del comportamiento de un conjunto de datos
numéricos. Se puede mejorar añadiendo una medida de la dispersión de los datos alrededor de ella. A
continuación, se presentan dos distribuciones de probabilidad distintas:

Podemos observar que, aunque ambas distribuciones tienen el mismo centro o la misma esperanza, la
distribución de (b) tiene mayor dispersión o variabilidad que (a). Se utilizará la varianza de X para
evaluar la cantidad de variabilidad en X.

⚠ Definición
Sea X una variable aleatoria (discreta o continua). Entonces la varianza de X se define como
2
Var ( X )=σ 2=E { [ X−E ( X ) ] }
A la raíz cuadrada no negativa de la varianza se le denomina desviación estándar.

Observaciones
 La varianza no siempre existe, ya que es la esperanza de una variable aleatoria.
2
 Si hacemos Y = [ X−E ( X ) ] , entonces

Y ≥ 0→ P (Y ≥ 0 ) =1→ E(Y )≥ 0
Es decir, Var ( X ) ≥0 .

PROPIEDADES DE LA VARIANZA
2
1. Fórmula abreviada: Var ( X )=E ( X 2 )−[ E ( X ) ]

2. Var ( X +c )=Var ( X )
3. Var ( cX )=c2 Var (X )

Para la siguiente propiedad es necesario tener en cuenta que las funciones de variables aleatorias
independientes son independientes. Sin embargo, no sucede con cualquier par de funciones. Por
ejemplo: X 1 +2 X 2 y X 3 son independientes, pero X 1 + X 2 y X 1 puede que no lo sean. Podemos
concluir que las funciones serán independientes si las v.a. no se repiten.

4.

5
a. Si X ,Y son variables aleatorias independientes, entonces
Var ( X +Y )=Var ( X )+Var (Y ).
b. Si X 1 , X 2 , ⋯ , X n son variables aleatorias independientes, entonces
Var ( X 1 + X 2 ⋯ + X n )=Var ( X 1 ) +Var ( X 2) + ⋯+Var ( X n)

LA DESIGUALDAD DE CHEBYSHEV
Para la demostración de este teorema es necesario estudiar la desigualdad de Márkov. Esta relaciona
las probabilidades con la esperanza matemática y proporciona cotas útiles (aunque habitualmente poco
ajustadas) para la función de distribución de una variable aleatoria.

Teorema
E(X)
Sea X una variable aleatoria y a> 0, entonces P ( X ≥ a ) ≤ .
a

Pasaremos directamente a demostrar la desigualdad de Chebyshev:

Teorema
Sea X una variable aleatoria con media μ y varianza σ 2, entonces, para cualquier k > 0,
2
σ
P (|X −μ|≥ k ) ≤ 2
k

2
Demostración: Primeramente, observemos que {| X−μ|≥ k } ↔ {( X −μ ) ≥ k 2 . Entonces

P (|X −μ|≥ k )=P [ ( X −μ )2 ≥ k 2 ]

Como ( X −μ )2 es una v.a. no negativa y k 2> 0, aplicando la desigualdad de Márkov obtenemos

2 2 E [ ( X −μ )2 ] Var ( X )
P [ ( X−μ ) ≥ k ] ≤ 2
=
k k2

Ambas desigualdades son resultados muy generales en el sentido que son válidos cualesquiera sea la
distribución de la variable aleatoria, por tal razón arrojan resultados muy conservadores.

También podría gustarte