Está en la página 1de 26

Capı́tulo 10.

Esperanza Matemática.
Caracterı́sticas numéricas de una variable aleatoria.

Existen caracterı́sticas numéricas que describen a la distribución de una variable aleatoria,


como son las medidas de posición, de dispersión, de forma y de apuntamiento. Quizás la medida
más importante, no sólo por su significado, sino por el operador que se definirá a partir de ella, y
las nuevas medidas que se podrán definir a partir de este operador es la esperanza matemática o
valor esperado.
El concepto de valor esperado o esperanza matemática, es fundamental en la teorı́a de la
probabilidad. Surgió en el contexto de los juegos de azar, cuando Fermat y Pascal, hacia 1650, se
proponı́an uno a otro problemas en los que se planteaban cómo repartirse el premio de un juego
si éste ha de suspenderse en un momento dado, Jacobo Bernoulli, sobre el 1713, lo utilizó para
referirse al estado de ánimo con el que un jugador participaba en un juego; para no identificar la
esperanza con un resultado positivo para el jugador, en 1814 Laplace denominó, a la situación en
que la esperanza fuese negativa, temor si bien, hoy en dia, esta expresión no es utilizada.
Bernoulli observó que si un juego constaba de muchas partidas, y a la ganancia por partida
se la multiplicaba por el porcentaje de veces que ganaba y se le restaba la pérdida por partida
multiplicada por el porcentaje de veces que perdı́a, se obtenı́a un número que representaba la
pérdida o ganancia esperada del juego, a este valor lo llamó esperanza matemática y lo notó por
E de esperanza.
E(Juego) = ganancia por partida · (porcentaje de veces que gana)
pérdida por partida · (porcentaje de veces que pierde).
Si la esperanza matemática del juego era cero, significaba que ningún jugador tenı́a ventaja
respecto del otro, en este caso se decı́a que el el juego era justo o equitativo. Un juego se decia
que era favorable o desfavorable para el jugador según que la esperanza matemática fuese positiva
o negativa respectivamente. Estos porcentajes pueden interpretarse como la probabilidad de ganar
o de perder en cada partida, y fué Laplace el que lo explicitó ası́. En este tipo de contexto, la
esperanza matemática tiene que ver algo con la justicia, hasta el punto de que durante buena parte
del siglo XVIII, se denominó “esperanza moral. Distinto comportamiento se presenta cuando para
jugar a un determinado juego se ha de realizar una aportación inicial; el valor esperado de cada
jugador será diferente, pues habrá que restar a cada ganancia la inscripción o apuesta inicial al
juego.
Esta idea se puede generalizar a juegos con más de dos alternativas, ası́ por ejemplo si
tenemos x1 , x2 · · · , xn alternativas con probabilidades p1 , p2 · · · , pn respectivamente, la esperanza
del juego serı́a
n
X
E(Juego) = xi pi
i=1
174 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

es decir el promedio de las ganancias del jugador ponderadas por la probabilidad con la que puede
lograrlas, de hecho, es lo que el jugador espera ganar en media, por partida, si el juego se repitiera
indefinidamente (a la larga, según la concepción frecuentista, cada ganancia se obtendrá con una
frecuencia relativa identificable con la probabilidad.)
Un juego con un número finito de alternativas x1 , x2 · · · , xn y con probabilidades p1 , p2 · · · , pn
respectivamente, puede visualizarse como una variable aleatoria finita con distribución de frecuen-
cias {(xi , pi )}ni=1 , por lo que se define la esperanza matemática de la variable aleatoria X como

n
X
E(X) = xi pi
i=1

Ejemplo 10.1: Se venden 5000 billetes de loterı́a a 100 ptas. cada uno, para el sorteo de un premio
de 300.000 ptas. ¿Cuál es la ganancia esperada de una persona que compra 3 billetes?
Definamos X como la variable aleatoria X=“ganancia del jugador.Los posibles valores de
esta variable son
* X = 300: si entre sus números no se encuentra el número premiado. La función de masa
para este valor es
3
C4999 4997
PX ( 300) = 3 =
C5000 5000

* X = 299.700: si alguno de sus billetes contiene el premio. La función de masa es

2
C4999 C11 3
PX (299.700) = 3 =
C5000 5000
La esperanza de este juego es entonces

4997 3
E(X) = 300 + 299.700 = 120 ptas.
5000 5000

Lo que estamos afirmando es que si el juego se repitiese muchas veces, en las condiciones indicadas
al principio, el jugador perderı́a en promedio 120 ptas. en cada juego.
En definitiva, el criterio de valor esperado es una manera de valorar, mediante un único
número, las distribuciones de ganancias asociadas a un juego para poderlas comparar fácilmente
entre sı́ o con cantidades fijas.
El concepto de valor esperado no se aplica sólo a juegos de azar, sino a cualquier magnitud
numérica cuyo valor es determinado por el azar como por ejemplo son las variables aleatorias.

10.1. DEFINICIÓN DE ESPERANZA MATEMÁTICA.

Tal y como se procedió en el tema de variable aleatoria, iremos definiendo la esperanza


matemática para los distintos tipos de variables aleatorias definidas en dicho capı́tulo. Sin embargo
al final de esta sección se dará una definición general de esperanza matemática aplicable a cualquier
variable aleatoria.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 175

10.1.1. Esperanza para variables aleatorias discretas.

Sea X una variable aleatoria discreta con valores {x1 , . . . , xn , . . .} y función de masa
{p1 , . . . , pn , . . .}. Se define la esperanza matemática de X como la suma infinita

1
X n
X
E(X) = xi pi = lim xi pi
n!1
i=1 i=1

en el supuesto de que la suma infinita

1
X n
X
|xi |pi = lim |xi |pi
n!1
i=1 i=1

sea un número real, es decir que la serie sea absolutamente convergente.


Hay que observar que en esta definición incluye el caso de que la variable aleatoria sea simple
y que en este caso la esperanza se calcuları́a mediante una suma finita, por lo que la esperanza
para estas variables siempre existe.
Ejemplo 10.2: Sea X una variable aleatoria que toma los valores {1, 2, 3, 4} con función de masa
1
pi = i = 1, 2, 3, 4.
4
El valor esperado es entonces

4
X 4
X 1
E(X) = xi pi = xi = 2.5
i=1 i=1
4

Obsérvese en este ejemplo que el valor esperado o esperanza matemática, no se corresponde con
ningún valor de la variable aleatoria. (El valor esperado coincide, en este caso, con el centro o
punto medio de dichos valores.)
Ejemplo 10.3: Sea ahora X una variable aleatoria que toma los valores {0, 1, 2} con función de
1 1 1
masa p1 = , p2 = , p3 = . La esperanza de esta variable aleatoria es
4 4 2

3
X
E(X) = xi pi = 0.75
i=1

En este caso la esperanza no es el punto medio de dichos valores. Resaltamos este hecho porque
existe la creencia de que la media es el valor central del conjunto de datos, confundiéndolo con la
mediana.
La condición de que la serie que define la esperanza sea absolutamente convergente es esencial
porque permite calcular la esperanza por cualquier procedimiento de reordenación y asociación de
sumandos de la serie. ¿ Qué sentido tendrı́a la definición de E(X) si su valor se pudiera modificar
con solo barajar los términos de la serie o enumerando en otro orden los puntos del espacio muestral
de partida? Los siguientes ejemplos muestran casos en los que no existe la esperanza matemática
de una variable.
176 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

Ejemplo 10.4: Sea X una variable aleatoria con distribución de probabilidad

1
P (X = n) = pn = , n = 1, 2, . . . ,
n(n + 1)

Como los valores de la variable X son positivos y pn siempre es mayor o igual que cero, la
condición de que la serie sea absolutamente convergente se reduce al cálculo directo de la esperanza
de esta variable.
1
X 1
X
1 1
E(X) = n =
n=1
n(n + 1) n=1 (n + 1)

que es una serie divergente.


Ejemplo 10.5: Sea X una variable aleatoria discreta, con distribución de probabilidad

✓ ◆
3j 2
P X = ( 1)j+1 = j j = 1, 2, . . .
j 3

Para comprobar si esta variable posee esperanza sı́ tendremos que comprobar que la serie es
absolutamente convergente, ya que los valores de la variable son positivos y negativos. Sea entonces

1
X X 3j 2 1 X 1 1
3j 2
( 1)j+1 = = 2
j=1
j 3j j=1
j 3j j=1
j

que es divergente, por lo tanto esta variable no posee esperanza.


Nótese que si calculamos

X1 X1 X1
3j 2 j+1 2 1
( 1)j+1 j
= ( 1) = 2 ( 1)j+1
j=1
j 3 j=1
j j=1
j

esta serie es convergente y su suma vale 2(0.693147), que serı́a la esperanza en el caso de que la
serie hubiera sido absolutamente convergente.
P1 P1
Llamemos S a la suma de la serie j=1 ( 1)j+1 1j ; por lo tanto la serie j=1 ( 1)j+1 2j 1
converge
a S/2. Consideremos ahora una nueva serie que va a ser la anterior pero con un cero en los lugares
impares, es decir definimos
8
<0 j+2
si j es impar
aj = ( 1) 2
: si j es par
j
P1 P1 P1
Evidentemente la serie j=1 aj converge a S/2. Sumando j=1 ( 1)j+1 1j y j=1 aj obtenemos
una serie que converge a 3S/2
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 177

X1
1 1 1 1 1 1 1 1
( 1)j+1 = 1 + + + + ...
j=1
j 2 3 4 5 6 7 8
1
X 1 1 1 1
aj = 0 + +0 +0+ +0 + 0...
j=1
2 4 6 8
X1
⇥ 1 ⇤ 1 1 1 1 1
( 1)j+1 + aj = 1 + 0 + + +0+ + ...
j=1
j 3 2 5 7 4
1 1 1 1
1
=1+ + + + ...
3 2 5 7
4
P1
Por tanto, hemos encontrado una reordenación de j=1 ( 1)j+1 1j que converge a un lı́mite difer-
ente.

Ejemplo 10.6: Paradoja de San Petersburgo. Previo pago de cierta cantidad, un casino permite
participar en el siguiente juego: lanzamos una moneda perfecta tantas veces como sea necesario
hasta obtener la primera cara. Si el número de lanzamientos es n el jugador recibirá 2n unidades
monetarias. ¿Cuál es la esperanza de dicho juego? ¿Cuánto debe estar dispuesto a pagar el jugador
por una partida en este juego? ¿Cuánto debe cobrar el casino por partida?

Los valores que puede tomar la variable X, que indicará la ganancia del jugador, son
2, 2 , 23 , . . . , 2n , . . . , con probabilidades 2 1 , 2 2 , 2 3 , . . . , 2 n , . . . Como los valores de la varia-
2

ble son positivos, comprobar que la serie es absolutamente convergente, equivale a calcular la
esperanza de dicha variable. Tenemos ası́

1
X 1
X
xn pn = 1=1
n=1 n=1

Cualquiera que sea el precio que cobre el casino por jugar, el valor esperado del juego será 1.
Luego el juego es favorable para el jugador sea cual sea el precio que haya que pagar por jugar.

Lo que indica el sentido común es muy diferente; razonemos de la siguiente forma: si no


aparecen por lo menos 10 cruces seguidas, el premio será insignificante, a lo sumo 210 = 1024
unidades monetarias, sin embargo esto sucede con probabilidad

X10
1 1023
n
= = 0.999
n=1
2 1024

Es decir, menos de una vez de cada mil se obtendrá un premio superior a las 1024 unidades mon-
etarias. Si el jugador dispusiese de una cantidad suficientemente grande de unidades monetarias,
podrı́a conseguir una ganancia media por partida tan alta como se proponga y con una probabilidad
tan próxima a 1 como desee. Visto desde la óptica del casino, que está obligado a jugar mientras
que haya jugadores dispuestos a hacerlo, el único remedio que tiene es poner un precio de entrada
tan prohibitivo que el juego no se celebre. En caso contrario acabará arruinado, pues la pérdida
acumulada tenderá a infinito.
178 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

10.1.2. Esperanza matemática para variables aleatorias continuas.

Tal y como se indicó en el tema anterior, cuando nos referimos a variables aleatorias continuas,
nos estamos refiriendo a variables aleatorias absolutamente continuas.
Sea X una variable aleatoria continua con función de densidad f ; se define la esperanza
matemática de X, como la integral impropia en el sentido Riemann

Z +1
E(X) = xf (x)dx
1
Z +1
siempre que la integral impropia |x|f (x)dx sea un número real.
1

Ejemplo 10.7: Sea X la variable aleatoria con función de densidad

⇢1
si x 2 [1, 5]
f (x) = 4
0 si x 2
6 [1, 5]
En este caso todos los valores de la variable con función de densidad distinta de cero, son los
pertenecientes al intervalo [1, 5], que son valores positivos, por lo que demostrar que la integral
es absolutamente convergente se reduce a calcular directamente la esperanza de X; además 1 
E(X)  5, como ya se verá más adelante cuando se enuncien las propiedades de la esperanza
matemática. Calculamos entonces la E(X).

Z +1 Z 5 Z 5
1
E(X) = xf (x)dx = xf (x)dx = x dx = 3.
1 1 1 4

Ejemplo 10.8: Sea > 0 un número real y X una variable aleatoria con función de densidad


exp( x) si x > 0
f (x) =
0 si x  0
Los valores de la variable con función de densidad distinta de cero, son todos positivos y pertenecen
al intervalo (0, +1), con lo que de nuevo comprobar que la serie es absolutamente convergente
se reduce a calcular la E(X) directamente.

Z +1 Z +1 Z +1
E(X) = xf (x)dx = xf (x)dx = x exp( x)dx
1 0 0

 +1 Z +1
x 1
= exp( x) + exp( x)dx =
0 0

Ejemplo 10.9: Sea X una variable aleatoria con función de densidad

1
f (x) = , 1 < x < +1
⇡(1 + x2 )
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 179

Una variable aleatoria X con esta función de densidad diremos se distribuye según una Cauchy
de parámetros 0 y 1, y la notaremos X ⇠ C(0, 1). Esta distribución es importante; se puede
comprobar que efectivamente la función definida arriba es una función de densidad, pero que sin
embargo no posee esperanza, como se pone de manifiesto a continuación comprobando que no es
absolutamente convergente:

Z +1 Z +1 Z +1
1 |x| 2 |x|
|x|f (x)dx = dx = dx
1 ⇡ 1 1 + x2 ⇡ 0 1 + x2
1
Haciendo el cambio z = se tiene
1 + x2

Z +1 Z 1
2 |x| 1 1
2
dx = dz = 1
⇡ 0 1+x ⇡ 0 z
Por lo tanto la distribución de Cauchy no posee esperanza.

10.1.3. Esperanza matemática para distribuciones mixtas.

Sea X una variable aleatoria mixta cuyo conjunto de puntos con probabilidades positivas es
DX = {x1 , . . . , xn , . . .} y la función asociada a la parte continua es g. Se define la esperanza de
X como
X Z +1
E(X) = xi pi + xg(x)dx
xi 2DX 1

X Z +1
si |xi |pi y |x|g(x)dx son números reales.
xi 2D 1

Ejemplo 10.10: Sea X una variable aleatoria con función de distribución asociada

(
0 si x < 0
x
F (x) = 1+x si 0  x < 3
1 si x 3
Esta distribución es mixta. La parte discreta corresponde a DX = {3} con probabilidad P (X =
1
3) = p1 = y la función g asociada a la parte continua, es
4


1
g(x) = (1+x)2 , si x 2 (0, 3)
0 en otro caso
Para este ejemplo podemos calcular la esperanza matemática directamente por estar la variable
aleatoria X acotada en el intervalo [0, 3].

Z 3 Z 3
3 x
E(X) = 3p1 + xg(x)dx = + dx = log(4)
0 4 0 (1 + x)2

En todas las definiciones, si la serie o la integral son de términos positivos, la condición de


convergencia simple equivale a la convergencia absoluta.
180 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

10.2. PROPIEDADES DE LA ESPERANZA MATEMÁTICA.

Las propiedades de la esperanza que se dan a continuación sólo se demostrarán para variables
aleatorias continuas. Se dejarán para el lector las demostraciones para el caso de variables aleatorias
discretas.
P1.– Si X es una variable aleatoria tal que X 0, entonces si la esperanza de esta variable
existe, se verifica E(X) 0.
Demostración:

Z +1 Z +1
E(X) = xf (x)dx 0f (x)dx = 0.
0 0

P2.– La esperanza de una variable aleatoria constante, X(!) = c 8! 2 ⌦, es la propia constante


c.
Demostración:
Estamos ante una variable aleatoria discreta que toma un solo valor con probabilidad 1; es decir
P (X = c) = 1. Por lo tanto la esperanza será: E(X) = cP (X = c) = c.
P3.– |E(X)|  E(|X|), si existe E(X).
Demostración:
Z +1 Z +1
|E(X)| = xf (x)dx  |x|f (x)dx = E(|X|).
1 1

P4.– Si X es una variable aleatoria acotada, es decir, existe un número real M , tal que P (|X| 
M ) = 1, entonces existe E(X) y se verifica M  E(X)  M .
Demostración:
Primero demostraremos que existe la esperanza de dicha variable y después que la esperanza está
acotada entre los valores que se indican en el enunciado.
Para demostrar que la esperanza existe comprobamos que la serie es absolutamente conver-
gente. Dado que P (|X|  M ) = 1, se tiene que

Z +1 Z M Z M
|x|f (x)dx = |x|f (x)dx  M f (x)dx = M PX ( M  X  M ) = M
1 M M

por lo que la integral existe. Veamos ahora que está acotada. Todos los valores de la variable
aleatoria X verifican M  x  M , luego

Z M Z M Z M
M f (x)dx  xf (x)dx  M f (x)dx ) M  E(X)  M.
M M M

Para variables aleatorias discretas y finitas, esta propiedad nos indicarı́a que si los valores de una
variable aleatoria, X, son x1 , . . . , xn , entonces, de existir la E(X), se tendrı́a x1  E(X)  xn .
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 181

P5.– Linealidad del operador esperanza: Sea X una variable aleatoria tal que E(X) existe, y
sean a y b constantes reales. Sea Y = aX + b. Entonces existe E(Y ) y se verifica:

E(Y ) = aE(X) + b

Demostración:
La dividiremos en dos partes: primero se demostrará que la esperanza existe, y segundo que
R +1
coincide con la expresión anterior. - Existencia: La E(Y ) existirá si 1 |ax + b|f (x)dx es finita.

Z +1 Z +1 Z +1 Z +1
|ax + b|f (x)dx  (|ax| + |b|)f (x)dx = |a| |x|f (x)dx + |b| f (x)dx
1 1 1 1

R +1 R +1
Como E(X) existe, se tiene que 1
|x|f (x)dx < +1 y que 1
f (x)dx = 1, luego

Z +1
|ax + b|f (x)dx < +1
1

La existencia está ası́ asegurada.


- Esperanza de Y :

Z +1 Z +1 Z +1
E(Y ) = (ax + b)f (x)dx = axf (x)dx + bf (x)dx = aE(X) + b.
1 1 1

Con esto demostramos la linealidad del operador esperanza. Además si b = 0, y bajo las mismas
condiciones dadas en P5, se tiene que E(aX) = aE(X).

10.3. INTERPRETACIÓN GEOMÉTRICA DE LA ESPERANZA MATEMÁTICA.

Si X es una variable aleatoria continua, con función de densidad f y función de distribución


F , entonces se tiene
Z +1 Z 0
E(X) = [1 F (x)]dx F (x)dx
0 1

Esta expresión nos da una interpretación geométrica de la esperanza matemática de una variable
aleatoria continua. La Figura 1, nos muestra que la esperanza se puede expresar como la diferencia
entre el área limitada por la recta y = 1 y la curva y = F (x) para x > 0, y el área limitada por el
eje x y la curva y = F (x) para x < 0.
182 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

F(x)

Figura 1.

Z +1 Z 0 Z +1
E(X) = xf (x)dx = xf (x)dx + xf (x)dx
1 1 0
integrando por partes se tiene, haciendo f (x)dx = dF (x) que

Z 0 Z 0 Z 0
0
xf (x)dx = [xF (x)] 1 F (x)dx = F (x)dx
1 1 1

y haciendo f (x)dx = d(1 F (x))

Z +1 Z +1 Z +1
+1
xf (x)dx = [ x(1 F (x))]0 + (1 F (x))dx = (1 F (x))dx
0 0 0

Uniendo ambos resultados se obtiene la demostración de la descomposición de la esperanza.

10.4. ESPERANZA DE UNA TRANSFORMACIÓN.

Si g: IR ! IR es una función de Borel y X es una variable aleatoria, ya sabemos que


Y = g(X) es también una variable aleatoria. Entonces la esperanza de la variable aleatoria Y es
- Si X es discreta con distribución de probabilidad {xi , pi }1
i=1 , como:

+1
X +1
X
E(Y ) = E(g(X)) = g(xi )pi , si existe y es finita |g(xi )|pi
i=1 i=1

- Si X es continua con función de densidad f (x):

Z +1 Z +1
E(Y ) = E(g(X)) = g(x)f (x)dx, si existe y es finita |g(x)|f (x)dx
1 1
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 183

Ejemplo 10.11: Supongamos que X es la variable aleatoria que representa al número obtenido en
el lanzamiento de un dado. Se sabe que la esperanza de esta variable aleatoria es

1 7
E(X) = (1 + 2 + 3 + 4 + 5 + 6) =
6 2

Sea ahora Y = X 2 = g(X). La esperanza de esta nueva variable aleatoria es

1 91
E(X 2 ) = (1 + 4 + 9 + 16 + 25 + 36) =
6 6

Sin embargo E(X 2 ) 6= (E(X))2 .

10.5. MOMENTOS DE UNA VARIABLE ALEATORIA.

En muchos problemas de estadı́stica matemática es muy difı́cil determinar por completo la


función de distribución de una variable aleatoria. En tales casos, aunque de forma incompleta,
puede describirse la distribución de esa variable mediante sus momentos, que vienen definidos
mediante el operador esperanza. Distinguiremos los momentos respecto al origen y respecto a la
media, ası́ como teoremas sobre la existencia de momentos.

10.5.1. Momentos respecto al origen o momentos ordinarios.

Sea r un entero no negativo. Se define el momento ordinario o momento respecto al origen


de orden r de la variable aleatoria X, a la esperanza matemática de la función g(X) = X r siempre
que dicha esperanza exista y sea finita. Notaremos a dichos momentos por ↵r .

10.5.2. Momentos respecto a la media.

Dado r entero no negativo se llama momento respecto a la media de orden r, o momento


central de orden r, de la variable aleatoria X, a la esperanza matemática de la función g(X) =
(X ↵1 )r , siempre que la esperanza de dicha función exista y sea finita, y supuesta que dicha
media ↵1 existe. Notaremos a dichos momentos por µr
Un caso muy importante es el momento central de orden 2, µ2 que recibe el nombre de
varianza, que notaremos por X2 = V (X), que se puede expresar en función de los momentos
ordinarios de la forma: µ2 = ↵2 ↵12

Proposición 10.1. Para todo r se verifican

r
X ✓ ◆
r r j
µr = ( 1)r j
↵ ↵j
j=0
j 1

Xr ✓ ◆
r r j
↵r = ↵ µj
j=0
j 1
184 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

supuestos existentes los momentos µj y ↵j , j = 1, 2, . . . , r.

Demostración:
Teniendo en cuenta el desarrollo de Newton del binomio (X ↵1 )r

2 3
Xr ✓ ◆
j r
µr = E [(X r
↵1 ) ] = E 4 ( 1)r X j ↵1r j5

j=0
j

r
X ✓ ◆ r
X ✓ ◆
r r j r r j
= ( 1)r j
↵ j
E[X ] = ( 1)r j
↵ ↵j .
j=0
j 1 j=0
j 1

De igual forma se puede establecer una relación entre los momentos ordinarios y los mo-
mentos centrales que se da a continuación y cuya demostración se deja para el lector.

10.5.3. Momentos factoriales.

Dado r entero no negativo se llama momento factorial de orden r de una variable alaetoria
X a la esperanza de la función g(x) = x(x 1)(x 2) . . . (x r + 1), siempre que la esperanza
de dicha función exista y sea finita. Notaremos a dichos momentos por r .
2
Nótese que E(X) = 1 y que V (X) = 2 + 1 1

10.5.4. Momentos absolutos respecto al origen.

Dado r entero no negativo se llama momento absoluto de orden r de la variable aleatoria


X, a la esperanza matemática de la función g(X) = |X|r . Los notaremos por r . Si r es par,
r = ↵r . Obsérvese que la existencia del momento absoluto de orden r implica la existencia del
momento ordinario de orden r.

Proposición 10.3. La existencia del momento absoluto de orden n implica la existencia de todo
momento de orden k con k  n.

Demostración:
La demostración de este hecho es muy fácil: la existencia del momento absoluto de orden n indica
que E[|X|n ] < +1, entonces

si |x|  1 ) |x|k  1 y si |x| > 1 ) |x|k  |x|n


lo que implica que para cada x 2 IR, se verifica que |x|k  |x|n + 1, con lo que

E[|X|k ]  E[|X|n ] + 1 < +1


como querı́amos demostrar.

Hay que hacer notar que si la variable aleatoria X está acotada, es decir existen números
finitos a y b tales que P (a  X  b) = 1, entonces deben existir necesariamente todos los
momentos ordinarios de X. Es posible, sin embargo, que existan todos los momentos de X
aunque X no esté acotada. En el teorema siguiente se demuestra que si existe el momento de
orden n de X, entonces deben existir también todos los momentos de orden inferior.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 185

Teorema 10.1. Teorema de existencia de momentos. Dada una variable aleatoria X, si existe
el momento ordinario de orden n, entonces existen todos los momentos ordinarios de orden inferior
a n.

Demostración:
La existencia del momento ordinario de orden n, ↵n lleva implı́cita la existencia del momento
absoluto de orden n. Como ya hemos visto anteriormente la existencia del momento absoluto de
orden n implica la existencia de todos los momentos absolutos de orden k con k  n, y por lo
tanto existen todos los momentos ordinarios de orden menor que n.
Una consecuencia inmediata de este teorema es que si existe el momento ordinario ↵2 de una
variable aleatoria X, entonces existe el momento ordinario de ↵1 , y por lo tanto existe la varianza
de X.

10.5.5. Teoremas de acotación de momentos.

En general no podemos determinar una ley de probabilidad a partir de su media y su varianza.


En el caso de que desconozcamos la ley de probabilidad podemos obtener estimadores burdos de
esta ley, que serán suficientes para muchos propósitos, siempre que la media y la varianza se hayan
determinado.

Teorema 10.2. Teorema de Markov. Sea g(X) una transformación medible no negativa de
unavariable aleatoria X, tal que existe E[g(X)]. Entonces para todo t > 0 se tiene

E[g(X)]
P (g(X) t)  .
t
Demostración:

La demostración se hará para variables aleatorias continuas ya que la técnica de demostración es


análoga para variables aleatorias discretas.
Consideremos entonces una variable aleatoria X con función de densidad f ; sea A el conjunto
A = {x : g(x) t} . Entonces

Z Z Z
E[g(X)] = g(x)f (x)dx = g(x)f (x)dx + g(x)f (x)dx
IR A Ac

La esperanza de la transformación es positiva puesto que la transformación es positiva. Los dos


sumandos en que se descomponen la esperanza son también positivos y t > 0, entonces

Z Z
E[g(X)] g(x)f (x)dx tf (x)dx = tP (g(X) t)
A A

y en consecuencia

E[g(X)]
E[g(X)] tP (g(X) > t) ) P (g(X) t)  .
t

De este teorema se deducen las siguientes consecuencias:


186 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

Corolario 10.1. Bajo las mismas condiciones del teorema anterior se tiene

E[g(X)]
P [g(X) < t] 1
t

Corolario 10.2. Desigualdad de Markov. Si X es una variable aleatoria no negativa, es decir


P (X 0) = 1, con esperanza E(X), entonces para cada t 2 IR+ , se verifica

E(X)
P (X t) 
t

A medida que conozcamos momentos de órdenes mayores, las acotaciones de las probabil-
idades de los sucesos que se calculan mediante la desigualdad de Markov son más finas, como
lo demuestra el siguiente corolario que es una generalización del teorema de Markov y cuya
demostración es análoga a la de dicho teorema.

Corolario 10.3. Teorema de Markov (II). Si ⇥ g(X)⇤es una transformación medible no negativa
de la variable aleatoria X, tal que existe E g(X)k con k 2 IN, entonces para todo t > 0 se
verifica
⇥ ⇤
E g(X)k
P [g(X) t] 
tk

El interés principal de esta desigualdad estriba en que permite utilizar momentos de orden
par para conseguir mejores acotaciones.

Corolario 10.4. Desigualdad de Chebyshev. Si X es una variable aleatoria con varianza finita,
entonces para todo k > 0
2
X
P (|X E(X)| k) 
k2

Demostración:
2
Tomando g(X) = (X E(X)) en el teorema de Markov, dado en el corolario 10.3, y para
t = k2 , se tiene
h i
2
E X E(X) 2
2
P ((X E(X)) k2 )  = X

k2 k2
de donde se deduce la desigualdad del enunciado.
Como caso particular si se toma k = h X , se verifican:

1 1
P (|X E(X)| h X ) y P (|X E(X)| < h X ) 1
h2 h2
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 187

Obsérvese que estas últimas desigualdades tienen validez trivial cuando h < 1. Además, con
estas desigualdades, podemos acotar la probabilidad de que un valor observado de una distribución
desconocida esté en un intervalo centrado en la media y de longitud 2h X . Ası́ si h = 4 la
desigualdad de Chebyshev nos indica que existe una probabilidad de, al menos, 0.9375 de que un
valor observado X esté en un intervalo de centro la media y longitud 8 veces la desviación tı́pica,
mientras que la probabilidad de que un valor observado X esté dentro de un intervalo de centro la
media y de longitud de 10 desviaciones tı́picas será por lo menos de 0.99.

Ejemplo 10.12: Hemos calculado las probabilidades P (|X E(X)|  h X ) para dos distribu-
ciones de probabilidad y las hemos comparado con la acotación de Chebyshev para distintos
valores de h.

I) Distribución Exponencial: Supongamos que X es una variable aleatoria con función de


densidad
n x
f (x) = e si x > 0
0 resto
La probabilidad P (|X E(X)|  h X ), que notaremos por Q1 (h), es igual en este caso a

8 h h
> e e
< si 0  h  1
Q1 (h) = e
1+h
:e
> 1
si h > 1
e1+h

II) Distribución uniforme: Supongamos que X es una variable aleatoria con función de densidad

n
f (x) = 1 si x 2 [0, 1]
0 resto

La probabilidad P (|X E(X)|  h x ), que notaremos por Q2 (h), es igual en este caso a

h
Q2 (h) = p
3

1
III) Acotación de Chebyshev: Para todos los casos la acotación de Chebyshev es igual a 1 .
h2
Representamos para estos ejemplos las probabilidades Q1 (h), que estará representada en la
Figura 2 con una lı́nea formada por segmentos; Q2 (h), que estará representada en la Figura 2 por
una lı́nea de puntos, y la acotación de Chebyshev, que estará representada por una lı́nea continua,
tal y como se muestran en la Figura 2, y donde se observa la aproximación que da la acotación
de Chebyshev a las probabilidades reales que se indican en los ejemplos. En el eje de abscisa se
representan los distintos valores de h.
188 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

0.8

0.6

0.4

0.2

1 2 3 4

Figura 2.

10.6. CARACTERÍSTICAS NUMÉRICAS DE UNA DISTRIBUCIÓN.

La existencia de distribuciones cuya esperanza es ±1 y la necesidad de describir mediante


algunas caracterı́sticas numéricas la distribución de una variable, justifica la introducción de otras
medidas que existen en cualquier distribución.
Las caracterı́sticas principales de las distribuciones las podemos clasificar en:
- Medidas de posición.
- Medidas de dispersión.
- Medidas de asimetrı́a o deformación.
- Medidas de apuntamiento, curtosis, o concentración central.
Algunas de las medidas que describiremos están dadas a partir del operador esperanza, como
por ejemplo la varianza y otras vendrán dadas a partir de la distribución de probabilidad, función
de distribución o de la función de densidad.

10.6.1. Medidas de posición.

Destacaremos tres medidas, igual que se hizo para las variables estadı́sticas unidimensionales,
y que serán la mediana, la moda y la esperanza aunque de esta última ya se han estudiado con
bastante amplitud tanto su definición como sus propiedades.

10.6.1.1. Mediana.

La mediana de una variable aleatoria se define como un valor M real tal que satisface la
relación
1 1
P (X  M ) y P (X M)
2 2
Estas dos ecuaciones se pueden escribir en términos de de la función de distribución
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 189

1
P (X  M ) = F (M )
2
P (X M) = 1 P (X < M ) = 1 F (M ) + P (X = M )
1 1
De donde se deduce que 2  F (M )  2 + P (X = M )

Nótese que si X es una variable aleatoria continua, M es una mediana si verifica que
Señalamos algunas propiedades de la mediana de una variable aleatoria:
– La mediana es una medida importante sobre todo en el caso de que la esperanza de la variable
aleatoria no exista.
– La mediana no es única. De hecho si M y M 0 son dos medianas de una misma distribución,
con M < M 0 , entonces se puede demostrar que todos los puntos del intervalo (M, M 0 ) son
medianas.
Por último demostramos una propiedad importante de la mediana que es la que viene dada
por el siguiente teorema.

Teorema 10.4. Sea M una mediana de la distribución de X y sea d cualquier otro número.
Entonces

E(|X M |)  E(|X d|)


Además, habrá igualdad si y sólo si d es también una mediana de la distribución de X.

Demostración:
Se supondrá que X tiene una distribución continua cuya función de densidad es f (x). La
demostración con cualquier otro tipo de distribución es análoga. Supóngase en primer lugar que
M < d. Entonces

Z +1
E |X d| E |X M| = |x d| |x M | f (x)dx
1

Z M Z d Z +1
= (d M )f (x)dx + (d + M 2x)f (x)dx + (M d)f (x)dx
1 M d

Z M Z d Z +1
(d M )f (x)dx + (M d)f (x)dx + (M d)f (x)dx
1 M d

= (d M ) [P (X  M ) P (X > M )]

Puesto que M es una mediana de la distribución de X, resulta que

1
P (X  M ) P (X > M )
2
por lo que P (X  M ) P (X > M ) 0 y por tanto

E |X d| E |X M| .
190 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

Las desigualdades serán igualdades sólo si d es también una mediana de la distribución de X.


La demostración para cualquier valor de d tal que es inferior a M es análoga.
Ejemplo 10.13: Consideremos la variable aleatoria X con distribución de probabilidad

1 1 1
P (X = 2) = P (X = 0) = , P (X = 1) = , P (X = 2) =
4 3 6

Estamos ante una variable aleatoria discreta, y ası́ M será una mediana si

1 1
 F (M )  + P (X = M )
2 2
Determinamos primero la función de distribución de esta variable aleatoria

8
> 0 si x< 2
>
>
<1 4 si 2x<0
1
F (x) = 2 si 0x<1
>
> 5
>
: 6 si 1x<2
1 si x 2

Cualquier punto del intervalo [0, 1] es una mediana.


Ejemplo 10.14: Sea X una variable aleatoria con función de densidad


f (x) = 4x3 si 0 < x < 1
0 en otro caso

Estamos ante una variable aleatoria continua y por lo tanto el valor de la función de distribución
en el valor de la mediana debe ser 1/2.

Z M Z M
1
F (M ) = f (x)dx = 4x3 dx = =) M = (1/2)1/4
0 0 2

Ejemplo 10.15: Sea X una variable aleatoria con distribución de probabilidad

P (X = 1) = 0.1 P (X = 2) = 0.2 P (X = 3) = 0.3 P (X = 4) = 0.4

La función de distribución viene dada por

8
> 0 si x<1
>
>
< 0.1 si 1x<2
F (x) = 0.3 si 2x<3
>
>
> 0.6
: si 3x<4
1 si x 4
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 191

La única mediana de esta distribución es M = 3, ya que P (X  3) = 0.6, que es mayor que 1/2,
y P (X 3) = 0.7, que es también mayor que 1/2.
Comentarios a la mediana:
La mediana de una variable aleatoria difiere de la mediana para una variable estadı́stica en lo
siguiente: la mediana de una variable estadı́stica se ha definido como un valor de la variable que
divide al conjunto de valores de la variable, una vez ordenados de menor a mayor, por la mitad.
No hay que olvidar que en este caso estamos trabajando con datos de una muestra, es decir, con
unos valores reales concretos. Además en este caso, si apareciesen dos medianas indicábamos que
el punto medio no era aconsejable elegirlo debido, precisamente, a la definición que se daba para
la mediana.
La mediana de una variable aleatoria se ha definido como cualquier valor real que satisface
una serie de condiciones con la función de distribución; por lo tanto pueden existir una o varias
medianas e incluso pueden darse casos en los que cualquier punto de un intervalo dado sea mediana
de la distribución.
La esperanza y la mediana:
La esperanza o la mediana de una distribución se pueden utilizar para representar el valor
promedio de una variable. Aunque ya se han establecido la importancia y propiedades de la
esperanza, y posteriormente se describirán más, en muchas ocasiones la mediana es una medida
del promedio más útil que la media. Por ejemplo, la esperanza se puede hacer hacer muy grande
quitando una masa de probabilidad pequeña pero positiva, de cualquier parte de la distribución
y asignando esta masa a cualquier punto arbitrariamente grande de la variable aleatoria X. La
mediana, por el contrario, puede no se verse afectada por un cambio de este tipo, pensemos en
el traslado de una masa de probabilidad de un valor x de X mayor que la mediana a un valor
mucho arbitrariamente grande que X, la mediana de la nueva distribución será la misma que la de
la distribución original.

10.6.1.2. Percentiles.

Una generalización de la mediana son los percentiles. Dada una variable aleatoria X, un
número xp que satisfaga

P (X  xp ) p, P (X xp ) 1 p, p = 0.01, 0.02, . . . , 0.99

se denomina un percentil de orden 100p%, para la distribución de X.


Las condiciones anteriores se pueden resumir en la siguiente

p  F (xp )  p + P (X = xp )

que en el caso de que la variable aleatoria sea continua se reduce a F (xp ) = p


Como casos particulares se definen los cuartiles: el cuartil de primer orden, (p = 1/4) que
notaremos por Q1 , el cuartil de segundo orden, (p = 1/2), que coincide con la mediana, y el
cuartil de tercer orden, (p = 3/4), que notaremos por Q3 .
192 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

10.6.1.3. La moda.

Sea X una variable aleatoria, se define la moda de la distribución de X como un valor de


probabilidad o de densidad máxima. Aunque es una medida de localización hay que indicar que la
moda no tiene sentido en distribuciones mixtas y que existen algunas distribuciones que no poseen
moda.
Ejemplo 10.16: Sea X la variable aleatoria con función de densidad


f (x) = 4x3 si 0 < x < 1
0 resto
Esta distribución no posee moda ya que el máximo de esta función no se alcanza dentro de los
valores posibles de la variable aleatoria.

10.6.2. Medidas de dispersión.

De entre las medidas de dispersión destacamos las mismas que se dieron para variables
estadı́sticas :
- Rango intercuartı́lico.
- Varianza.
- Desviación tı́pica.
- Coeficiente de variación.

10.6.2.1. Rango intercuartı́lico.

Si X es una variable aleatoria, se define el rango intercuartı́lico como la diferencia entre el


cuartil de tercer orden y el cuartil de primer orden. El interés de esta medida de dispersión radica
en que la probabilidad de que la variable aleatoria tome valores en el intervalo [Q1 , Q3 ] es mayor
1
o igual que .
2

10.6.2.2. Varianza.

Dada una variable aleatoria X con esperanza µ, se define sl la varianza de X, y la notaremos


por V (X) = X2 , al momento central de orden 2, siempre que dicho momento exista.
La varianza de una distribución proporciona una medida de la variación o de la dispersión
de una distribución alrededor de su media µ. Un valor pequeño de la varianza indica que la
distribución de probabilidad está muy concentrada alrededor de su esperanza; y un valor grande
que la distribución está muy dispersa. Tal y como ocurrı́a para la esperanza, la varianza de cualquier
distribución se puede hacer arbitrariamente grande colocando una masa de probabilidad positiva,
aunque sea pequeña, suficientemente lejos del “centro”de los datos.
Propiedades de la varianza.
A continuación se verán varios teoremas relacionados con las propiedades básicas de la
varianza de una variable aleatoria X, suponiendo que la varianza existe.
Una de las primeras propiedades que se puede deducir es que al ser (X µ)2 0 y V (X) =
E[(X µ)2 ], la varianza de una variable aleatoria siempre será mayor o igual que cero.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 193

Teorema 10.5. La varianza de cualquier variable aleatoria X es cero, si y sólo si, existe una
constante c tal que P (X = c) = 1.

Demostración:
Supóngase primero que existe una constante c tal que P (X = c) = 1. Entonces E(X) = c y
P ((X c)2 = 0) = 1. Por tanto

V (X) = E[(X c)2 ] = 0

Inversamente, supóngase que V (X) = 0. Entonces E[(X µ)2 ] = 0 y como por definición
P ((X µ)2 0) = 1, se tiene que P ((X µ)2 = 0) = 1, y por lo tanto P (X = µ) = 1, con lo
que la constante c coincide con la media de la variable aleatoria X.

Teorema 10.6. Para constantes a y b cualesquiera se verifica que V (aX + b) = a2 V (X).

Demostración:
Si E(X) = µ, entonces E(aX + b) = aµ + b. Por tanto

V (aX + b) = E((aX + b aµ b)2 ) = E((aX aµ)2 ) = a2 E((X µ)2 ) = a2 V (X).

Por este teorema resulta que la V (X + b) = V (X) para cualquier constante b, es decir que al
desplazar la distribución de X en b unidades, la varianza no se verá afectada por el desplazamiento;
es decir, no se verá afectada la medida de dispersión aunque sı́ la esperanza.
También de este teorema se deduce que V (X) = V ( X), y sin embargo la esperanza
cambiarı́a de µ a µ.
El teorema de König, que se demostró para variables estadı́sticas, es válido también para
variables aleatorias. Este teorema permite afirmar que

E[(X a)2 ] = V (X) + (µ a)2

donde µ = E(X). Como consecuencia de este teorema tenemos: primero, que la esperanza es la
medida que minimiza el error cuadrático medio; y segundo, se puede obtener una forma alternativa
de calcular la varianza que sin más que tomar a = 0 en la igualdad anterior y despejando V (X),

V (X) = E(X 2 ) (E(X))2

que es la misma que se deducı́a cuando estudiamos la relación entre los momentos centrales y
ordinarios.
Ejemplo 10.17: Sea X una variable aleatoria que toma valores {1, 2, . . . , n}, con distribución de
masa

1
pi = , i = 1, 2, . . . , n
n
194 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

Como es una variable aleatoria que toma un número finito de valores, existen todos los momentos
ordinarios y centrales. La esperanza de esta variable es

n
X n
1X 1 n(n + 1) n+1
E(X) = xi pi = i= =
i=1
n i=1 n 2 2

Calcularemos la varianza aprovechando la relación de los momentos centrales con los ordinarios.

V (X) = E(X 2 ) (E(X))2

Nos falta por calcular el momento ordinario de orden 2

n
X n
1X 2 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
E(X 2 ) = x2i pi = i = =
i=1
n i=1 n 6 6

con lo que la varianza es

n2 1
V (X) =
12

Ejemplo 10.18: Un ejemplo de una distribución que no posee varianza, es la distribución de Cauchy
debido al hecho de no poseer esperanza.

10.6.2.3. Desviación tı́pica.

Una medida de dispersión que se deduce de la varianza es la raiz cuadrada positiva de la


varianza, que es la desviación tı́pica, que notaremos por X = D(X), y que tiene la misma
interpretación que para variables estadı́sticas.

10.6.2.4. Coeficiente de variación.

Si X es una variable aleatoria tal que existe el momento ordinario de segundo orden, ↵2 , se
define el coeficiente de variación como el cociente

X
CV (X) = .
E(X)

10.7. MEDIDAS DE ASIMETRÍA O DEFORMACIÓN.

La simetrı́a y el apuntamiento, que más tarde veremos, son conceptos relativos, deberán ser
por tanto números abstractos y no influir en ellos un cambio de escala o de origen. Empezaremos
por ello definiendo lo que entendemos por simetrı́a de una distribución, dando algunas de sus
propiedades y por último se definirá una medida para medir la simetrı́a o no simetrı́a de una
distribución.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 195

Definición 10.1. Se dice que una variable aleatoria X es simétrica respecto al origen, si para
todo B 2 B, se verifica

P (X 2 B) = P (X 2 B)
donde B = {x 2 IR : x 2 B}.

Definición 10.2. Se dice que la variable aleatoria X es simétrica respecto del origen, si X y X
poseen la misma función de distribución; es decir, están igualmente distribuidas.

Las dos definiciones son equivalentes. La definición general de variable aleatoria simétrica
es la siguiente.

Definición 10.3. Se dice la variable aleatoria X es simétrica alrededor de a 2 IR, si las variables
aleatorias a X y X a poseen la misma función de distribución. Al valor a se le llamará centro
de simetrı́a de la distribución.

Como consecuencias de esta definición, suponiendo que la variable aleatoria X tiene como
función de distribución F , se tienen:
C1.– P (X  a x) = P (X a + x).
C2.– F (a x) = 1 F (a + x) + P (X = a + x). Si la variable aleatoria es continua, esta igualdad
se reduce a F (a x) = 1 F (a + x).
C3.– Una variable aleatoria continua, X, es simétrica respecto de a si y sólo si, su función de
densidad verifica

f (a x) = f (a + x)
salvo en un conjunto de probabilidad nula.
C4.– Una variable aleatoria discreta, X, es simétrica respecto de a si y sólo si

PX (a x) = PX (a + x)

Si una variable aleatoria es simétrica respecto de un valor a y efectuamos una cambio de


origen, Y = X a, entonces Y es simétrica respecto del origen.
Ejemplo 10.19: Sea X una variable aleatoria continua con función de densidad


1
f (x) = 4 si x 2 [ 1, 3]
0 resto
Esta distribución es simétrica respecto a 1. Si ahora definimos la variable Y = X 1, esta nueva
variable aleatoria es simétrica respecto a cero.
C4.– Si X es simétrica respecto de un valor a y existe E(X), entonces E(X) = a.
C5.– Si X es una variable aleatoria simétrica respecto de un valor a, entonces a es una mediana
de la distribución.
C6.– Si X es una variable aleatoria simétrica respecto a a, entonces todos los momentos centrales
de orden impar son nulos.
Ejemplo 10.20: La distribución de Cauchy, C(0, 1), de la que ya hemos visto que no posee varianza
ni esperanza, es una variable aleatoria simétrica respecto a cero y su mediana es cero. En este caso
la medida de posición representativa es precisamente la mediana.
196 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

0.3

0.25

0.2

0.15

0.1

0.05

-4 -2 2 4

Función de densidad de la distribución de C(0, 1)

Para medir la simetrı́a de una distribución, se define el coeficiente propuesto por Fisher

µ3
1 =
3

Si 1 > 0, la distribución (que supondremos unimodal), será asimétrica a la derecha; si 1 < 0, la


distribución es asimétrica a la izquierda, y si 1 = 0, la distribución es simétrica.

10.8. MEDIDAS DE APUNTAMIENTO.

Miden, para distribuciones unimodales campaniformes, lo puntiaguda que es una distribución.


Se suele tomar como coeficiente, invariante por cambios de escala o de origen, el número abstracto

µ4
2 = 4
3

La clasificación de las distribuciones que proporciona este coeficiente está relacionada con la forma
de la función de densidad de la distribución normal que se verá en el capı́tulo 13; ası́ el valor
cero corresponde a una concentración “normal”de los datos alrededor de la media (distribución
mesocúrtica), un valor positivo indica que los datos están muy concentrados alrededor de la media,
por lo que la gráfica es “apuntada (distribución leptocúrtica), y un valor negativo indica lo contrario
(distribución platicúrtica).

EJERCICIOS.
10.1. Las variables aleatorias discretas X e Y tienen las siguientes funciones de masa de proba-
bilidad:
8✓ ◆✓ ◆
4
>
< 4 1
si x = 0, 1, 2, 3, 4,
P (X = x) = x 2
>
:
0 en otro caso.
Capı́tulo 10: Esperanza Matemática. Caracterı́sticas numéricas de una variable aleatoria. 197

8
< 1 (y 2 + 1) si y = 1, 2, 3, 4, 5,
P (Y = y) = 60
:
0 en otro caso.
Calcular el valor esperado, la mediana y la varianza de cada una de estas variables aleatorias.

10.2. Se sabe que en un lote de ciertos artı́culos hay 2 defectuosos y 8 normales. Si estos artı́culos
se inspeccionan al azar, uno después de otro y sin reposición. ¿ Cuál es el número esperado de
artı́culos que deben inspeccionarse hasta encontrar los dos defectuosos?

10.3. Un programa informático genera números naturales aleatorios mediante un proceso tal que
P (N = n) = abn , donde a > 0 y 0 < b < 1 y la probabilidad de obtener un número impar es vez
y media mayor que la probabilidad de obtener el siguiente número par.
a) Determinar las constantes a y b.
b) Calcular el valor esperado de la v.a. N , su mediana y su moda.

10.4. Calcular el número esperado y el número mediano de lanzamientos de un dado equilibrado


necesarios para conseguir exactamente un seis. Determinar el número esperado de lanzamientos
del mismo dado necesarios para
a) Obtener exactamente dos veces el número seis.
b) Obtener exactamente n veces el número seis.

10.5. El fabricante de un tipo de máquina pequeña ha encontrado que la distribución de probabilidad


del número de defectos mecánicos por unidad fabricada está dada por los valores 0, 1, 2, 3 con
probabilidades 9/10, 1/20, 1/40, 1/40 respectivamente.
Si el coste de revisar cada máquina es de 50 pts. y el coste de corregir cada defecto es de 200 pts.
¿Cuál es el coste medio del control de calidad para una máquina?

10.6. En una rifa de 1000 papeletas se vende cada una a 200 pts y se da al propietario del único
número que se obtendrá en el sorteo un premio de 150.000 pts.
a) Si sólo se han vendido el 80% de las papeletas ¿Qué beneficio espera obtener el
organizador de la rifa?
b) ¿Qué número de papeletas deben venderse para que este beneficio esperado sea máxi-
mo?

10.7. Sea X una variable aleatoria cuya función de distribución, para a > 0, es

8
<1 a2
si a < x
F (x) = x2
:
0 en otro caso

Calcular su esperanza matemática y su mediana y demostrar que carece de varianza.


198 J.G.Galisteo, M.C. Morcillo y M. Ruiz Camacho: Probabilidad y Estadı́stica I

10.8. Determinar para que valores de la constante k > 1 existe el momento respecto del origen de
orden r de la variable aleatoria con función de densidad

8
<k 1
si x 1
f (x) = xk
:
0 si x < 1

10.9. Calcular en las siguientes distribuciones de probabilidad continuas la mediana, la varianza y


los momentos respecto del origen que existan.

8 
< 1 si x 2 1 1
,
a) f (x) = 2 2
:
0 en otro caso

8 x
<e si x 2 [0, +1)
b) f (x) =
:
0 si x 2 ( 1, 0)

10.10. Calcular los momentos factoriales de la distribución de una variable aleatoria X que toma
valores enteros positivos con probabilidades PX (i) = pq i 1 , donde 0 < p < 1 y q = 1 p ¿Cuál
es la varianza de esta distribución?

10.11. Un fabricante de compresores ofrece una garantı́a de 5 años de reparación o sustitución de


un compresor para su primera averı́a. Se sabe que el tiempo que un compresor funciona antes de
fallar es una variable aleatoria T continua con función de densidad

8
> t/8
<e si t > 0
f (t) = 8
>
:
0 si t  0

Calcular el tiempo medio de funcionamiento de un compresor antes de su primera averı́a y la


probabilidad de que un compresor falle antes de ese tiempo medio. Si el beneficio por la venta de
un compresor es de 5.500 pts. y su sustitución o reparación tiene un coste de 2.000 pts., hállese
el beneficio esperado en la venta de uno de estos compresores.

10.12. El número esperado de personas que van cada dı́a a un espectáculo al aire libre es de 1.000
con una desviación tı́pica de 20 ¿Cuál es el número de sillas necesario para tener una probabilidad
de 0.75 de que todos los asistentes en un dı́a determinado podrán estar sentados?

También podría gustarte