Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Esperanza Matemática.
Caracterı́sticas numéricas de una variable aleatoria.
es decir el promedio de las ganancias del jugador ponderadas por la probabilidad con la que puede
lograrlas, de hecho, es lo que el jugador espera ganar en media, por partida, si el juego se repitiera
indefinidamente (a la larga, según la concepción frecuentista, cada ganancia se obtendrá con una
frecuencia relativa identificable con la probabilidad.)
Un juego con un número finito de alternativas x1 , x2 · · · , xn y con probabilidades p1 , p2 · · · , pn
respectivamente, puede visualizarse como una variable aleatoria finita con distribución de frecuen-
cias {(xi , pi )}ni=1 , por lo que se define la esperanza matemática de la variable aleatoria X como
n
X
E(X) = xi pi
i=1
Ejemplo 10.1: Se venden 5000 billetes de loterı́a a 100 ptas. cada uno, para el sorteo de un premio
de 300.000 ptas. ¿Cuál es la ganancia esperada de una persona que compra 3 billetes?
Definamos X como la variable aleatoria X=“ganancia del jugador.Los posibles valores de
esta variable son
* X = 300: si entre sus números no se encuentra el número premiado. La función de masa
para este valor es
3
C4999 4997
PX ( 300) = 3 =
C5000 5000
2
C4999 C11 3
PX (299.700) = 3 =
C5000 5000
La esperanza de este juego es entonces
4997 3
E(X) = 300 + 299.700 = 120 ptas.
5000 5000
Lo que estamos afirmando es que si el juego se repitiese muchas veces, en las condiciones indicadas
al principio, el jugador perderı́a en promedio 120 ptas. en cada juego.
En definitiva, el criterio de valor esperado es una manera de valorar, mediante un único
número, las distribuciones de ganancias asociadas a un juego para poderlas comparar fácilmente
entre sı́ o con cantidades fijas.
El concepto de valor esperado no se aplica sólo a juegos de azar, sino a cualquier magnitud
numérica cuyo valor es determinado por el azar como por ejemplo son las variables aleatorias.
Sea X una variable aleatoria discreta con valores {x1 , . . . , xn , . . .} y función de masa
{p1 , . . . , pn , . . .}. Se define la esperanza matemática de X como la suma infinita
1
X n
X
E(X) = xi pi = lim xi pi
n!1
i=1 i=1
1
X n
X
|xi |pi = lim |xi |pi
n!1
i=1 i=1
4
X 4
X 1
E(X) = xi pi = xi = 2.5
i=1 i=1
4
Obsérvese en este ejemplo que el valor esperado o esperanza matemática, no se corresponde con
ningún valor de la variable aleatoria. (El valor esperado coincide, en este caso, con el centro o
punto medio de dichos valores.)
Ejemplo 10.3: Sea ahora X una variable aleatoria que toma los valores {0, 1, 2} con función de
1 1 1
masa p1 = , p2 = , p3 = . La esperanza de esta variable aleatoria es
4 4 2
3
X
E(X) = xi pi = 0.75
i=1
En este caso la esperanza no es el punto medio de dichos valores. Resaltamos este hecho porque
existe la creencia de que la media es el valor central del conjunto de datos, confundiéndolo con la
mediana.
La condición de que la serie que define la esperanza sea absolutamente convergente es esencial
porque permite calcular la esperanza por cualquier procedimiento de reordenación y asociación de
sumandos de la serie. ¿ Qué sentido tendrı́a la definición de E(X) si su valor se pudiera modificar
con solo barajar los términos de la serie o enumerando en otro orden los puntos del espacio muestral
de partida? Los siguientes ejemplos muestran casos en los que no existe la esperanza matemática
de una variable.
176 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
1
P (X = n) = pn = , n = 1, 2, . . . ,
n(n + 1)
Como los valores de la variable X son positivos y pn siempre es mayor o igual que cero, la
condición de que la serie sea absolutamente convergente se reduce al cálculo directo de la esperanza
de esta variable.
1
X 1
X
1 1
E(X) = n =
n=1
n(n + 1) n=1 (n + 1)
✓ ◆
3j 2
P X = ( 1)j+1 = j j = 1, 2, . . .
j 3
Para comprobar si esta variable posee esperanza sı́ tendremos que comprobar que la serie es
absolutamente convergente, ya que los valores de la variable son positivos y negativos. Sea entonces
1
X X 3j 2 1 X 1 1
3j 2
( 1)j+1 = = 2
j=1
j 3j j=1
j 3j j=1
j
X1 X1 X1
3j 2 j+1 2 1
( 1)j+1 j
= ( 1) = 2 ( 1)j+1
j=1
j 3 j=1
j j=1
j
esta serie es convergente y su suma vale 2(0.693147), que serı́a la esperanza en el caso de que la
serie hubiera sido absolutamente convergente.
P1 P1
Llamemos S a la suma de la serie j=1 ( 1)j+1 1j ; por lo tanto la serie j=1 ( 1)j+1 2j 1
converge
a S/2. Consideremos ahora una nueva serie que va a ser la anterior pero con un cero en los lugares
impares, es decir definimos
8
<0 j+2
si j es impar
aj = ( 1) 2
: si j es par
j
P1 P1 P1
Evidentemente la serie j=1 aj converge a S/2. Sumando j=1 ( 1)j+1 1j y j=1 aj obtenemos
una serie que converge a 3S/2
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 177
X1
1 1 1 1 1 1 1 1
( 1)j+1 = 1 + + + + ...
j=1
j 2 3 4 5 6 7 8
1
X 1 1 1 1
aj = 0 + +0 +0+ +0 + 0...
j=1
2 4 6 8
X1
⇥ 1 ⇤ 1 1 1 1 1
( 1)j+1 + aj = 1 + 0 + + +0+ + ...
j=1
j 3 2 5 7 4
1 1 1 1
1
=1+ + + + ...
3 2 5 7
4
P1
Por tanto, hemos encontrado una reordenación de j=1 ( 1)j+1 1j que converge a un lı́mite difer-
ente.
Ejemplo 10.6: Paradoja de San Petersburgo. Previo pago de cierta cantidad, un casino permite
participar en el siguiente juego: lanzamos una moneda perfecta tantas veces como sea necesario
hasta obtener la primera cara. Si el número de lanzamientos es n el jugador recibirá 2n unidades
monetarias. ¿Cuál es la esperanza de dicho juego? ¿Cuánto debe estar dispuesto a pagar el jugador
por una partida en este juego? ¿Cuánto debe cobrar el casino por partida?
Los valores que puede tomar la variable X, que indicará la ganancia del jugador, son
2, 2 , 23 , . . . , 2n , . . . , con probabilidades 2 1 , 2 2 , 2 3 , . . . , 2 n , . . . Como los valores de la varia-
2
ble son positivos, comprobar que la serie es absolutamente convergente, equivale a calcular la
esperanza de dicha variable. Tenemos ası́
1
X 1
X
xn pn = 1=1
n=1 n=1
Cualquiera que sea el precio que cobre el casino por jugar, el valor esperado del juego será 1.
Luego el juego es favorable para el jugador sea cual sea el precio que haya que pagar por jugar.
X10
1 1023
n
= = 0.999
n=1
2 1024
Es decir, menos de una vez de cada mil se obtendrá un premio superior a las 1024 unidades mon-
etarias. Si el jugador dispusiese de una cantidad suficientemente grande de unidades monetarias,
podrı́a conseguir una ganancia media por partida tan alta como se proponga y con una probabilidad
tan próxima a 1 como desee. Visto desde la óptica del casino, que está obligado a jugar mientras
que haya jugadores dispuestos a hacerlo, el único remedio que tiene es poner un precio de entrada
tan prohibitivo que el juego no se celebre. En caso contrario acabará arruinado, pues la pérdida
acumulada tenderá a infinito.
178 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
Tal y como se indicó en el tema anterior, cuando nos referimos a variables aleatorias continuas,
nos estamos refiriendo a variables aleatorias absolutamente continuas.
Sea X una variable aleatoria continua con función de densidad f ; se define la esperanza
matemática de X, como la integral impropia en el sentido Riemann
Z +1
E(X) = xf (x)dx
1
Z +1
siempre que la integral impropia |x|f (x)dx sea un número real.
1
⇢1
si x 2 [1, 5]
f (x) = 4
0 si x 2
6 [1, 5]
En este caso todos los valores de la variable con función de densidad distinta de cero, son los
pertenecientes al intervalo [1, 5], que son valores positivos, por lo que demostrar que la integral
es absolutamente convergente se reduce a calcular directamente la esperanza de X; además 1
E(X) 5, como ya se verá más adelante cuando se enuncien las propiedades de la esperanza
matemática. Calculamos entonces la E(X).
Z +1 Z 5 Z 5
1
E(X) = xf (x)dx = xf (x)dx = x dx = 3.
1 1 1 4
Ejemplo 10.8: Sea > 0 un número real y X una variable aleatoria con función de densidad
⇢
exp( x) si x > 0
f (x) =
0 si x 0
Los valores de la variable con función de densidad distinta de cero, son todos positivos y pertenecen
al intervalo (0, +1), con lo que de nuevo comprobar que la serie es absolutamente convergente
se reduce a calcular la E(X) directamente.
Z +1 Z +1 Z +1
E(X) = xf (x)dx = xf (x)dx = x exp( x)dx
1 0 0
+1 Z +1
x 1
= exp( x) + exp( x)dx =
0 0
1
f (x) = , 1 < x < +1
⇡(1 + x2 )
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 179
Una variable aleatoria X con esta función de densidad diremos se distribuye según una Cauchy
de parámetros 0 y 1, y la notaremos X ⇠ C(0, 1). Esta distribución es importante; se puede
comprobar que efectivamente la función definida arriba es una función de densidad, pero que sin
embargo no posee esperanza, como se pone de manifiesto a continuación comprobando que no es
absolutamente convergente:
Z +1 Z +1 Z +1
1 |x| 2 |x|
|x|f (x)dx = dx = dx
1 ⇡ 1 1 + x2 ⇡ 0 1 + x2
1
Haciendo el cambio z = se tiene
1 + x2
Z +1 Z 1
2 |x| 1 1
2
dx = dz = 1
⇡ 0 1+x ⇡ 0 z
Por lo tanto la distribución de Cauchy no posee esperanza.
Sea X una variable aleatoria mixta cuyo conjunto de puntos con probabilidades positivas es
DX = {x1 , . . . , xn , . . .} y la función asociada a la parte continua es g. Se define la esperanza de
X como
X Z +1
E(X) = xi pi + xg(x)dx
xi 2DX 1
X Z +1
si |xi |pi y |x|g(x)dx son números reales.
xi 2D 1
Ejemplo 10.10: Sea X una variable aleatoria con función de distribución asociada
(
0 si x < 0
x
F (x) = 1+x si 0 x < 3
1 si x 3
Esta distribución es mixta. La parte discreta corresponde a DX = {3} con probabilidad P (X =
1
3) = p1 = y la función g asociada a la parte continua, es
4
⇢
1
g(x) = (1+x)2 , si x 2 (0, 3)
0 en otro caso
Para este ejemplo podemos calcular la esperanza matemática directamente por estar la variable
aleatoria X acotada en el intervalo [0, 3].
Z 3 Z 3
3 x
E(X) = 3p1 + xg(x)dx = + dx = log(4)
0 4 0 (1 + x)2
Las propiedades de la esperanza que se dan a continuación sólo se demostrarán para variables
aleatorias continuas. Se dejarán para el lector las demostraciones para el caso de variables aleatorias
discretas.
P1.– Si X es una variable aleatoria tal que X 0, entonces si la esperanza de esta variable
existe, se verifica E(X) 0.
Demostración:
Z +1 Z +1
E(X) = xf (x)dx 0f (x)dx = 0.
0 0
P4.– Si X es una variable aleatoria acotada, es decir, existe un número real M , tal que P (|X|
M ) = 1, entonces existe E(X) y se verifica M E(X) M .
Demostración:
Primero demostraremos que existe la esperanza de dicha variable y después que la esperanza está
acotada entre los valores que se indican en el enunciado.
Para demostrar que la esperanza existe comprobamos que la serie es absolutamente conver-
gente. Dado que P (|X| M ) = 1, se tiene que
Z +1 Z M Z M
|x|f (x)dx = |x|f (x)dx M f (x)dx = M PX ( M X M ) = M
1 M M
por lo que la integral existe. Veamos ahora que está acotada. Todos los valores de la variable
aleatoria X verifican M x M , luego
Z M Z M Z M
M f (x)dx xf (x)dx M f (x)dx ) M E(X) M.
M M M
Para variables aleatorias discretas y finitas, esta propiedad nos indicarı́a que si los valores de una
variable aleatoria, X, son x1 , . . . , xn , entonces, de existir la E(X), se tendrı́a x1 E(X) xn .
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 181
P5.– Linealidad del operador esperanza: Sea X una variable aleatoria tal que E(X) existe, y
sean a y b constantes reales. Sea Y = aX + b. Entonces existe E(Y ) y se verifica:
E(Y ) = aE(X) + b
Demostración:
La dividiremos en dos partes: primero se demostrará que la esperanza existe, y segundo que
R +1
coincide con la expresión anterior. - Existencia: La E(Y ) existirá si 1 |ax + b|f (x)dx es finita.
Z +1 Z +1 Z +1 Z +1
|ax + b|f (x)dx (|ax| + |b|)f (x)dx = |a| |x|f (x)dx + |b| f (x)dx
1 1 1 1
R +1 R +1
Como E(X) existe, se tiene que 1
|x|f (x)dx < +1 y que 1
f (x)dx = 1, luego
Z +1
|ax + b|f (x)dx < +1
1
Z +1 Z +1 Z +1
E(Y ) = (ax + b)f (x)dx = axf (x)dx + bf (x)dx = aE(X) + b.
1 1 1
Con esto demostramos la linealidad del operador esperanza. Además si b = 0, y bajo las mismas
condiciones dadas en P5, se tiene que E(aX) = aE(X).
Esta expresión nos da una interpretación geométrica de la esperanza matemática de una variable
aleatoria continua. La Figura 1, nos muestra que la esperanza se puede expresar como la diferencia
entre el área limitada por la recta y = 1 y la curva y = F (x) para x > 0, y el área limitada por el
eje x y la curva y = F (x) para x < 0.
182 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
F(x)
Figura 1.
Z +1 Z 0 Z +1
E(X) = xf (x)dx = xf (x)dx + xf (x)dx
1 1 0
integrando por partes se tiene, haciendo f (x)dx = dF (x) que
Z 0 Z 0 Z 0
0
xf (x)dx = [xF (x)] 1 F (x)dx = F (x)dx
1 1 1
Z +1 Z +1 Z +1
+1
xf (x)dx = [ x(1 F (x))]0 + (1 F (x))dx = (1 F (x))dx
0 0 0
+1
X +1
X
E(Y ) = E(g(X)) = g(xi )pi , si existe y es finita |g(xi )|pi
i=1 i=1
Z +1 Z +1
E(Y ) = E(g(X)) = g(x)f (x)dx, si existe y es finita |g(x)|f (x)dx
1 1
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 183
Ejemplo 10.11: Supongamos que X es la variable aleatoria que representa al número obtenido en
el lanzamiento de un dado. Se sabe que la esperanza de esta variable aleatoria es
1 7
E(X) = (1 + 2 + 3 + 4 + 5 + 6) =
6 2
1 91
E(X 2 ) = (1 + 4 + 9 + 16 + 25 + 36) =
6 6
r
X ✓ ◆
r r j
µr = ( 1)r j
↵ ↵j
j=0
j 1
Xr ✓ ◆
r r j
↵r = ↵ µj
j=0
j 1
184 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
Demostración:
Teniendo en cuenta el desarrollo de Newton del binomio (X ↵1 )r
2 3
Xr ✓ ◆
j r
µr = E [(X r
↵1 ) ] = E 4 ( 1)r X j ↵1r j5
j=0
j
r
X ✓ ◆ r
X ✓ ◆
r r j r r j
= ( 1)r j
↵ j
E[X ] = ( 1)r j
↵ ↵j .
j=0
j 1 j=0
j 1
De igual forma se puede establecer una relación entre los momentos ordinarios y los mo-
mentos centrales que se da a continuación y cuya demostración se deja para el lector.
Dado r entero no negativo se llama momento factorial de orden r de una variable alaetoria
X a la esperanza de la función g(x) = x(x 1)(x 2) . . . (x r + 1), siempre que la esperanza
de dicha función exista y sea finita. Notaremos a dichos momentos por r .
2
Nótese que E(X) = 1 y que V (X) = 2 + 1 1
Proposición 10.3. La existencia del momento absoluto de orden n implica la existencia de todo
momento de orden k con k n.
Demostración:
La demostración de este hecho es muy fácil: la existencia del momento absoluto de orden n indica
que E[|X|n ] < +1, entonces
Hay que hacer notar que si la variable aleatoria X está acotada, es decir existen números
finitos a y b tales que P (a X b) = 1, entonces deben existir necesariamente todos los
momentos ordinarios de X. Es posible, sin embargo, que existan todos los momentos de X
aunque X no esté acotada. En el teorema siguiente se demuestra que si existe el momento de
orden n de X, entonces deben existir también todos los momentos de orden inferior.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 185
Teorema 10.1. Teorema de existencia de momentos. Dada una variable aleatoria X, si existe
el momento ordinario de orden n, entonces existen todos los momentos ordinarios de orden inferior
a n.
Demostración:
La existencia del momento ordinario de orden n, ↵n lleva implı́cita la existencia del momento
absoluto de orden n. Como ya hemos visto anteriormente la existencia del momento absoluto de
orden n implica la existencia de todos los momentos absolutos de orden k con k n, y por lo
tanto existen todos los momentos ordinarios de orden menor que n.
Una consecuencia inmediata de este teorema es que si existe el momento ordinario ↵2 de una
variable aleatoria X, entonces existe el momento ordinario de ↵1 , y por lo tanto existe la varianza
de X.
Teorema 10.2. Teorema de Markov. Sea g(X) una transformación medible no negativa de
unavariable aleatoria X, tal que existe E[g(X)]. Entonces para todo t > 0 se tiene
E[g(X)]
P (g(X) t) .
t
Demostración:
Z Z Z
E[g(X)] = g(x)f (x)dx = g(x)f (x)dx + g(x)f (x)dx
IR A Ac
Z Z
E[g(X)] g(x)f (x)dx tf (x)dx = tP (g(X) t)
A A
y en consecuencia
E[g(X)]
E[g(X)] tP (g(X) > t) ) P (g(X) t) .
t
Corolario 10.1. Bajo las mismas condiciones del teorema anterior se tiene
E[g(X)]
P [g(X) < t] 1
t
E(X)
P (X t)
t
A medida que conozcamos momentos de órdenes mayores, las acotaciones de las probabil-
idades de los sucesos que se calculan mediante la desigualdad de Markov son más finas, como
lo demuestra el siguiente corolario que es una generalización del teorema de Markov y cuya
demostración es análoga a la de dicho teorema.
Corolario 10.3. Teorema de Markov (II). Si ⇥ g(X)⇤es una transformación medible no negativa
de la variable aleatoria X, tal que existe E g(X)k con k 2 IN, entonces para todo t > 0 se
verifica
⇥ ⇤
E g(X)k
P [g(X) t]
tk
El interés principal de esta desigualdad estriba en que permite utilizar momentos de orden
par para conseguir mejores acotaciones.
Corolario 10.4. Desigualdad de Chebyshev. Si X es una variable aleatoria con varianza finita,
entonces para todo k > 0
2
X
P (|X E(X)| k)
k2
Demostración:
2
Tomando g(X) = (X E(X)) en el teorema de Markov, dado en el corolario 10.3, y para
t = k2 , se tiene
h i
2
E X E(X) 2
2
P ((X E(X)) k2 ) = X
k2 k2
de donde se deduce la desigualdad del enunciado.
Como caso particular si se toma k = h X , se verifican:
1 1
P (|X E(X)| h X ) y P (|X E(X)| < h X ) 1
h2 h2
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 187
Obsérvese que estas últimas desigualdades tienen validez trivial cuando h < 1. Además, con
estas desigualdades, podemos acotar la probabilidad de que un valor observado de una distribución
desconocida esté en un intervalo centrado en la media y de longitud 2h X . Ası́ si h = 4 la
desigualdad de Chebyshev nos indica que existe una probabilidad de, al menos, 0.9375 de que un
valor observado X esté en un intervalo de centro la media y longitud 8 veces la desviación tı́pica,
mientras que la probabilidad de que un valor observado X esté dentro de un intervalo de centro la
media y de longitud de 10 desviaciones tı́picas será por lo menos de 0.99.
Ejemplo 10.12: Hemos calculado las probabilidades P (|X E(X)| h X ) para dos distribu-
ciones de probabilidad y las hemos comparado con la acotación de Chebyshev para distintos
valores de h.
8 h h
> e e
< si 0 h 1
Q1 (h) = e
1+h
:e
> 1
si h > 1
e1+h
II) Distribución uniforme: Supongamos que X es una variable aleatoria con función de densidad
n
f (x) = 1 si x 2 [0, 1]
0 resto
La probabilidad P (|X E(X)| h x ), que notaremos por Q2 (h), es igual en este caso a
h
Q2 (h) = p
3
1
III) Acotación de Chebyshev: Para todos los casos la acotación de Chebyshev es igual a 1 .
h2
Representamos para estos ejemplos las probabilidades Q1 (h), que estará representada en la
Figura 2 con una lı́nea formada por segmentos; Q2 (h), que estará representada en la Figura 2 por
una lı́nea de puntos, y la acotación de Chebyshev, que estará representada por una lı́nea continua,
tal y como se muestran en la Figura 2, y donde se observa la aproximación que da la acotación
de Chebyshev a las probabilidades reales que se indican en los ejemplos. En el eje de abscisa se
representan los distintos valores de h.
188 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
0.8
0.6
0.4
0.2
1 2 3 4
Figura 2.
Destacaremos tres medidas, igual que se hizo para las variables estadı́sticas unidimensionales,
y que serán la mediana, la moda y la esperanza aunque de esta última ya se han estudiado con
bastante amplitud tanto su definición como sus propiedades.
10.6.1.1. Mediana.
La mediana de una variable aleatoria se define como un valor M real tal que satisface la
relación
1 1
P (X M ) y P (X M)
2 2
Estas dos ecuaciones se pueden escribir en términos de de la función de distribución
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 189
1
P (X M ) = F (M )
2
P (X M) = 1 P (X < M ) = 1 F (M ) + P (X = M )
1 1
De donde se deduce que 2 F (M ) 2 + P (X = M )
Nótese que si X es una variable aleatoria continua, M es una mediana si verifica que
Señalamos algunas propiedades de la mediana de una variable aleatoria:
– La mediana es una medida importante sobre todo en el caso de que la esperanza de la variable
aleatoria no exista.
– La mediana no es única. De hecho si M y M 0 son dos medianas de una misma distribución,
con M < M 0 , entonces se puede demostrar que todos los puntos del intervalo (M, M 0 ) son
medianas.
Por último demostramos una propiedad importante de la mediana que es la que viene dada
por el siguiente teorema.
Teorema 10.4. Sea M una mediana de la distribución de X y sea d cualquier otro número.
Entonces
Demostración:
Se supondrá que X tiene una distribución continua cuya función de densidad es f (x). La
demostración con cualquier otro tipo de distribución es análoga. Supóngase en primer lugar que
M < d. Entonces
Z +1
E |X d| E |X M| = |x d| |x M | f (x)dx
1
Z M Z d Z +1
= (d M )f (x)dx + (d + M 2x)f (x)dx + (M d)f (x)dx
1 M d
Z M Z d Z +1
(d M )f (x)dx + (M d)f (x)dx + (M d)f (x)dx
1 M d
= (d M ) [P (X M ) P (X > M )]
1
P (X M ) P (X > M )
2
por lo que P (X M ) P (X > M ) 0 y por tanto
E |X d| E |X M| .
190 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
1 1 1
P (X = 2) = P (X = 0) = , P (X = 1) = , P (X = 2) =
4 3 6
Estamos ante una variable aleatoria discreta, y ası́ M será una mediana si
1 1
F (M ) + P (X = M )
2 2
Determinamos primero la función de distribución de esta variable aleatoria
8
> 0 si x< 2
>
>
<1 4 si 2x<0
1
F (x) = 2 si 0x<1
>
> 5
>
: 6 si 1x<2
1 si x 2
⇢
f (x) = 4x3 si 0 < x < 1
0 en otro caso
Estamos ante una variable aleatoria continua y por lo tanto el valor de la función de distribución
en el valor de la mediana debe ser 1/2.
Z M Z M
1
F (M ) = f (x)dx = 4x3 dx = =) M = (1/2)1/4
0 0 2
8
> 0 si x<1
>
>
< 0.1 si 1x<2
F (x) = 0.3 si 2x<3
>
>
> 0.6
: si 3x<4
1 si x 4
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 191
La única mediana de esta distribución es M = 3, ya que P (X 3) = 0.6, que es mayor que 1/2,
y P (X 3) = 0.7, que es también mayor que 1/2.
Comentarios a la mediana:
La mediana de una variable aleatoria difiere de la mediana para una variable estadı́stica en lo
siguiente: la mediana de una variable estadı́stica se ha definido como un valor de la variable que
divide al conjunto de valores de la variable, una vez ordenados de menor a mayor, por la mitad.
No hay que olvidar que en este caso estamos trabajando con datos de una muestra, es decir, con
unos valores reales concretos. Además en este caso, si apareciesen dos medianas indicábamos que
el punto medio no era aconsejable elegirlo debido, precisamente, a la definición que se daba para
la mediana.
La mediana de una variable aleatoria se ha definido como cualquier valor real que satisface
una serie de condiciones con la función de distribución; por lo tanto pueden existir una o varias
medianas e incluso pueden darse casos en los que cualquier punto de un intervalo dado sea mediana
de la distribución.
La esperanza y la mediana:
La esperanza o la mediana de una distribución se pueden utilizar para representar el valor
promedio de una variable. Aunque ya se han establecido la importancia y propiedades de la
esperanza, y posteriormente se describirán más, en muchas ocasiones la mediana es una medida
del promedio más útil que la media. Por ejemplo, la esperanza se puede hacer hacer muy grande
quitando una masa de probabilidad pequeña pero positiva, de cualquier parte de la distribución
y asignando esta masa a cualquier punto arbitrariamente grande de la variable aleatoria X. La
mediana, por el contrario, puede no se verse afectada por un cambio de este tipo, pensemos en
el traslado de una masa de probabilidad de un valor x de X mayor que la mediana a un valor
mucho arbitrariamente grande que X, la mediana de la nueva distribución será la misma que la de
la distribución original.
10.6.1.2. Percentiles.
Una generalización de la mediana son los percentiles. Dada una variable aleatoria X, un
número xp que satisfaga
p F (xp ) p + P (X = xp )
10.6.1.3. La moda.
⇢
f (x) = 4x3 si 0 < x < 1
0 resto
Esta distribución no posee moda ya que el máximo de esta función no se alcanza dentro de los
valores posibles de la variable aleatoria.
De entre las medidas de dispersión destacamos las mismas que se dieron para variables
estadı́sticas :
- Rango intercuartı́lico.
- Varianza.
- Desviación tı́pica.
- Coeficiente de variación.
10.6.2.2. Varianza.
Teorema 10.5. La varianza de cualquier variable aleatoria X es cero, si y sólo si, existe una
constante c tal que P (X = c) = 1.
Demostración:
Supóngase primero que existe una constante c tal que P (X = c) = 1. Entonces E(X) = c y
P ((X c)2 = 0) = 1. Por tanto
Inversamente, supóngase que V (X) = 0. Entonces E[(X µ)2 ] = 0 y como por definición
P ((X µ)2 0) = 1, se tiene que P ((X µ)2 = 0) = 1, y por lo tanto P (X = µ) = 1, con lo
que la constante c coincide con la media de la variable aleatoria X.
Demostración:
Si E(X) = µ, entonces E(aX + b) = aµ + b. Por tanto
Por este teorema resulta que la V (X + b) = V (X) para cualquier constante b, es decir que al
desplazar la distribución de X en b unidades, la varianza no se verá afectada por el desplazamiento;
es decir, no se verá afectada la medida de dispersión aunque sı́ la esperanza.
También de este teorema se deduce que V (X) = V ( X), y sin embargo la esperanza
cambiarı́a de µ a µ.
El teorema de König, que se demostró para variables estadı́sticas, es válido también para
variables aleatorias. Este teorema permite afirmar que
donde µ = E(X). Como consecuencia de este teorema tenemos: primero, que la esperanza es la
medida que minimiza el error cuadrático medio; y segundo, se puede obtener una forma alternativa
de calcular la varianza que sin más que tomar a = 0 en la igualdad anterior y despejando V (X),
que es la misma que se deducı́a cuando estudiamos la relación entre los momentos centrales y
ordinarios.
Ejemplo 10.17: Sea X una variable aleatoria que toma valores {1, 2, . . . , n}, con distribución de
masa
1
pi = , i = 1, 2, . . . , n
n
194 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
Como es una variable aleatoria que toma un número finito de valores, existen todos los momentos
ordinarios y centrales. La esperanza de esta variable es
n
X n
1X 1 n(n + 1) n+1
E(X) = xi pi = i= =
i=1
n i=1 n 2 2
Calcularemos la varianza aprovechando la relación de los momentos centrales con los ordinarios.
n
X n
1X 2 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
E(X 2 ) = x2i pi = i = =
i=1
n i=1 n 6 6
n2 1
V (X) =
12
Ejemplo 10.18: Un ejemplo de una distribución que no posee varianza, es la distribución de Cauchy
debido al hecho de no poseer esperanza.
Si X es una variable aleatoria tal que existe el momento ordinario de segundo orden, ↵2 , se
define el coeficiente de variación como el cociente
X
CV (X) = .
E(X)
La simetrı́a y el apuntamiento, que más tarde veremos, son conceptos relativos, deberán ser
por tanto números abstractos y no influir en ellos un cambio de escala o de origen. Empezaremos
por ello definiendo lo que entendemos por simetrı́a de una distribución, dando algunas de sus
propiedades y por último se definirá una medida para medir la simetrı́a o no simetrı́a de una
distribución.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 195
Definición 10.1. Se dice que una variable aleatoria X es simétrica respecto al origen, si para
todo B 2 B, se verifica
P (X 2 B) = P (X 2 B)
donde B = {x 2 IR : x 2 B}.
Definición 10.2. Se dice que la variable aleatoria X es simétrica respecto del origen, si X y X
poseen la misma función de distribución; es decir, están igualmente distribuidas.
Las dos definiciones son equivalentes. La definición general de variable aleatoria simétrica
es la siguiente.
Definición 10.3. Se dice la variable aleatoria X es simétrica alrededor de a 2 IR, si las variables
aleatorias a X y X a poseen la misma función de distribución. Al valor a se le llamará centro
de simetrı́a de la distribución.
Como consecuencias de esta definición, suponiendo que la variable aleatoria X tiene como
función de distribución F , se tienen:
C1.– P (X a x) = P (X a + x).
C2.– F (a x) = 1 F (a + x) + P (X = a + x). Si la variable aleatoria es continua, esta igualdad
se reduce a F (a x) = 1 F (a + x).
C3.– Una variable aleatoria continua, X, es simétrica respecto de a si y sólo si, su función de
densidad verifica
f (a x) = f (a + x)
salvo en un conjunto de probabilidad nula.
C4.– Una variable aleatoria discreta, X, es simétrica respecto de a si y sólo si
PX (a x) = PX (a + x)
⇢
1
f (x) = 4 si x 2 [ 1, 3]
0 resto
Esta distribución es simétrica respecto a 1. Si ahora definimos la variable Y = X 1, esta nueva
variable aleatoria es simétrica respecto a cero.
C4.– Si X es simétrica respecto de un valor a y existe E(X), entonces E(X) = a.
C5.– Si X es una variable aleatoria simétrica respecto de un valor a, entonces a es una mediana
de la distribución.
C6.– Si X es una variable aleatoria simétrica respecto a a, entonces todos los momentos centrales
de orden impar son nulos.
Ejemplo 10.20: La distribución de Cauchy, C(0, 1), de la que ya hemos visto que no posee varianza
ni esperanza, es una variable aleatoria simétrica respecto a cero y su mediana es cero. En este caso
la medida de posición representativa es precisamente la mediana.
196 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I
0.3
0.25
0.2
0.15
0.1
0.05
-4 -2 2 4
Para medir la simetrı́a de una distribución, se define el coeficiente propuesto por Fisher
µ3
1 =
3
µ4
2 = 4
3
La clasificación de las distribuciones que proporciona este coeficiente está relacionada con la forma
de la función de densidad de la distribución normal que se verá en el capı́tulo 13; ası́ el valor
cero corresponde a una concentración “normal”de los datos alrededor de la media (distribución
mesocúrtica), un valor positivo indica que los datos están muy concentrados alrededor de la media,
por lo que la gráfica es “apuntada (distribución leptocúrtica), y un valor negativo indica lo contrario
(distribución platicúrtica).
EJERCICIOS.
10.1. Las variables aleatorias discretas X e Y tienen las siguientes funciones de masa de proba-
bilidad:
8✓ ◆✓ ◆
4
>
< 4 1
si x = 0, 1, 2, 3, 4,
P (X = x) = x 2
>
:
0 en otro caso.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 197
8
< 1 (y 2 + 1) si y = 1, 2, 3, 4, 5,
P (Y = y) = 60
:
0 en otro caso.
Calcular el valor esperado, la mediana y la varianza de cada una de estas variables aleatorias.
10.2. Se sabe que en un lote de ciertos artı́culos hay 2 defectuosos y 8 normales. Si estos artı́culos
se inspeccionan al azar, uno después de otro y sin reposición. ¿ Cuál es el número esperado de
artı́culos que deben inspeccionarse hasta encontrar los dos defectuosos?
10.3. Un programa informático genera números naturales aleatorios mediante un proceso tal que
P (N = n) = abn , donde a > 0 y 0 < b < 1 y la probabilidad de obtener un número impar es vez
y media mayor que la probabilidad de obtener el siguiente número par.
a) Determinar las constantes a y b.
b) Calcular el valor esperado de la v.a. N , su mediana y su moda.
10.6. En una rifa de 1000 papeletas se vende cada una a 200 pts y se da al propietario del único
número que se obtendrá en el sorteo un premio de 150.000 pts.
a) Si sólo se han vendido el 80% de las papeletas ¿Qué beneficio espera obtener el
organizador de la rifa?
b) ¿Qué número de papeletas deben venderse para que este beneficio esperado sea máxi-
mo?
10.7. Sea X una variable aleatoria cuya función de distribución, para a > 0, es
8
<1 a2
si a < x
F (x) = x2
:
0 en otro caso
10.8. Determinar para que valores de la constante k > 1 existe el momento respecto del origen de
orden r de la variable aleatoria con función de densidad
8
<k 1
si x 1
f (x) = xk
:
0 si x < 1
8
< 1 si x 2 1 1
,
a) f (x) = 2 2
:
0 en otro caso
8 x
<e si x 2 [0, +1)
b) f (x) =
:
0 si x 2 ( 1, 0)
10.10. Calcular los momentos factoriales de la distribución de una variable aleatoria X que toma
valores enteros positivos con probabilidades PX (i) = pq i 1 , donde 0 < p < 1 y q = 1 p ¿Cuál
es la varianza de esta distribución?
8
> t/8
<e si t > 0
f (t) = 8
>
:
0 si t 0
10.12. El número esperado de personas que van cada dı́a a un espectáculo al aire libre es de 1.000
con una desviación tı́pica de 20 ¿Cuál es el número de sillas necesario para tener una probabilidad
de 0.75 de que todos los asistentes en un dı́a determinado podrán estar sentados?