Está en la página 1de 42

Capı́tulo 2

Variables Aleatorias
′ ′
Definición 2.0.1. Sean (Ω, F) y (Ω , F ) espacios medibles. Una función

f : Ω −→ Ω se dice F − F ′ medible si

f −1 (A′ ) = {w ∈ Ω/f (w) ∈ A } ∈ F
′ ′
para cada A ∈ F .
′ ′
Definición 2.0.2. Si (Ω, F, P ) es un espacio de probabilidad y (Ω , F ) es

un espacio medible, entonces una función X : Ω −→ Ω se llama elemento
aleatorio, si X es una función F − F ′ .
′ ′
Definición 2.0.3. Sean (Ω, F, P ) un espacio de probabilidad, (Ω , F ) un

espacio medible y la función X : Ω −→ Ω un elemento aleatorio, si Ω′ = R
y F ′ = B(R), X se llama una variable aleatoria (v.a.).
La definición anterior implica que X es una v.a. si y solamente si la imagen
inversa de cualquier conjunto boreliano es un elemento de la σ-álgebra del
espacio de probabilidad. Esta condición se conoce como ”medibilidad” en
teorı́a de la medida, y se dice entonces que dicha función es medible respecto
de las σ-álgebras F y B(R).
Observación 2.0.1. X : Ω −→ R debe ser medible, puesto que P es una
medida de probabilidad definida sobre el espacio medible (Ω, F).
Observación 2.0.2. En general, las variables aleatorias se denotan por le-
tras mayúsculas como X, Y, Z, W, etc., mientras que los valores que toman
las v.a. se denotan con letras minúsculas; ası́, para la v.a. X se tienen los
valores x1 , x2 , ...

1
2 CAPÍTULO 2. VARIABLES ALEATORIAS

Definición 2.0.4. Para (R, B(R), P ) un espacio de probabilidad, (R, B(R))


un espacio probabilizable con B la σ-álgebra de borel, la función X : R →
R es una variable aleatoria (v.a.) si y solo si la imagen inversa de cada
intervalo es un elemento de B(R), es decir X es una v.a. si y solamente si
X −1 (−∞, x) ∈ B(R).
Ejemplo 2.0.1. Sea el experimento aleatorio ξ: lanzar dos monedas,o equi-
valentemente lanzar una moneda dos veces, entonces Ω : {cc, cs, sc, ss}. Sea
la σ-álgebra F = P (Ω). Definamos la función X : Ω → R definida por X :=
número de caras obtenidas. Entonces el rango de X es RX = {0, 1, 2} donde
X(cc) = 2, X(cs) = 1 y X(ss) = 0.

Ahora, para x ∈ R se tiene que:


i) si x < 0, entonces X −1 [(−∞, x)] = ∅ ∈ F,
ii) si 0 ≤ x < 1, entonces X −1 [(−∞, x)] = {ss} ∈ F,
iii) si 1 ≤ x < 2, entonces X −1 [(−∞, x)] = {ss, cs, sc} ∈ F,
iv) si 2 ≤ x, entonces X −1 [(−∞, x)] = Ω ∈ F ,
entonces se concluye que la función X es una variable aleatoria.
Observación 2.0.3. Se puede notar que Ω es el espacio muestral asociado
al experimento aleatorio ξ, mientras que RX es el espacio muestral asociado
a la variable aleatoria X.
Ejemplo 2.0.2. Sea Ω = {1, 2, 3} y F = {∅, {1, 2}, {3}, Ω} definamos
{
m1 si w = 1
X(ω) =
m2 si w = 2 o w = 3,

entonces, X −1 ({m1 }) = {1} ∈


/ F , por tanto, X no es v.a.
Ejemplo 2.0.3. Una función muy usada en la teorı́a estadı́stica es la función
indicadora, la cual sirve para describir y cuantificar experimentos dicotómi-
cos. Esta viene definida por:
{
1 si ω ∈ A
IA (ω) =
0 si ω ∈/ A.

Verifique que IA (ω) es una v.a. en B(R).


3

Solución:
En efecto, para x ∈ R, se tiene que:


∅ ∈ B(R) si x < 0
−1
IA (−∞, x) = {ω ∈ R|IA (ω) < x} = A ∈ B(R) si 0 ≤ x < 1
c


R ∈ B(R) si x ≥ 1

portanto, IA es una v.a.

Definición 2.0.5. Sean ξ un experimento en Ω, el espacio muestral asociado,


X una v.a definida en Ω y RX su recorrido. Sea B un suceso respecto a X,
es decir B ⊆ RX , si A se define como A = {ω ∈ Ω : X(s) ∈ B}, entonces
decimos que A y B son equivalentes.

Ejemplo 2.0.4. Para ξ el experimento de lanzar dos monedas no cargadas


X :=número de caras, entonces Ω = {cc, cs, sc, ss} y RX = {0, 1, 2}. Si
B1 = {0} ⊆ RX y A1 = {ω ∈ Ω : X(ω) = 0} = {ss}, entonces B1 y A1 son
equivalentes (A1 ⇔ B1 ) en el sentido de la definición anterior. De la misma
forma:
B2 = {1} ⇔ A2 = {ω ∈ Ω : X(ω) = 1} = {cs, sc},
B3 = {2} ⇔ A3 = {ω ∈ Ω : X(ω) = 2} = {cc},
B4 = {0, 1} ⇔ A4 = {ω ∈ Ω : X(ω) = 0 , ∨, X(ω) = 1} = {ss, cs, sc}.

En este contexto son equivalentes los eventos: (X = x) y {ω ∈ Ω : X(ω) = x},


(X ≤ x) y {ω ∈ Ω : X(ω) ≤ x}, (a ≤ X ≤ b) y {ω ∈ Ω : a ≤ X(ω) ≤ b}.

Si B es un boreliano, se usan los sı́mbolos X −1 (B) y (X ∈ B) para denotar


el conjunto {ω ∈ Ω : X(ω) ∈ B}.

Ası́, el conjunto {ω ∈ R : X(ω) ∈ [0, ∞)} puede ser representado por


X −1 [0, ∞) o simplemente (x ≥ 0).

También, podemos representar el conjunto {ω ∈ R : a ≤ X(ω) ≤ b} por


X −1 [a, b] o por (a ≤ X ≤ b).

Ejemplo 2.0.5. Para ξ el experimento de lanzar dos monedas no cargadas


y X :=número de caras, (0 ≤ X ≤ 1) ⇔ {ω ∈ Ω : 0 ≤ X(ω) ≤ 1} =
{ss, cs, sc} y (x ≤ 1) ⇔ {ω ∈ Ω : X(ω) ≤ 1} = {ω ∈ Ω : X(ω) =
0 , ∨, X(ω) = 1} = {ss, cs, sc}.
4 CAPÍTULO 2. VARIABLES ALEATORIAS

Proposición 2.0.1. Una función X : Ω → R es una v.a. si y solamente si


para cada x ∈ R se cumple que (X ≤ x) ∈ F.

Observación 2.0.4. Dado que la σ-álgebra de borel puede ser generada por
las clases ζ = {(a, b) : a < b; a, b ∈ R}, ζ = {(a, b] : a ≤ b; a, b ∈ R},
ζ = {(−∞, b) : b ∈ R}, ζ = {(a, +∞) : a ∈ R}, etc, entonces se conclu-
ye que X es una v.a. si y solamente si ocurre alguna de las condiciones:
X −1 [(−∞, x]] = {ω|X(ω) ≤ x} ∈ F o X −1 [(−∞, x)] = {ω|X(ω) < x} ∈ F
o X −1 [(x, +∞]] = {ω|X(ω) ≥ x} ∈ F o X −1 {x} = {ω|X(ω) = x} =
{ω|X(ω) ≤ x} ∩ {ω|X(ω) ≥ x} ∈ F, etc.

Observación 2.0.5. X es una v.a. si para cada x en R, (X < x) ∈ F o


(X > x) ∈ F o (X ≥ X) ∈ F o (X ≤ x) ∈ F .

Proposición 2.0.2. Sean X : Ω → R una v.a. real y f : R → R una función


continua, entonces f ◦ X : Ω → R es una v.a.

Demostración. Como f es continua, f devuelve intervalos abiertos (a, b) en


intervalos abiertos, y B(R) = σ{(a, b) : a, b ∈ R}, por tanto f es v.a; ası́ dado
A ∈ B(R), (f ◦ X)−1 (A) = X −1 (f −1 (A)) es un evento, entonces f ◦ X es una
v.a.

2.0.1. Propiedades
A continuación estudiamos las principales propiedades de las variables alea-
torias, asimismo se definen algunas operaciones entre v.a.

1) la función constante X = c es una v.a.

Demostración. Sea B un boreliano cualquiera y c ∈ R, entonces:

/ B entonces, X −1 (B) = ∅ ∈ F
• Si c ∈

• Si c ∈ B entonces, X −1 (B) = Ω ∈ F,

en cualquier caso X −1 (B) ∈ F por tanto X es una v.a.

2) Si X es una v.a. entonces Y = cX es una v.a. (con c constante).


5

Demostración. Si c = 0 entonces Y = 0 es una constante y por tanto


v.a.
Si c ̸= 0, entonces para x ∈ R, veamos que Y −1 (−∞, x] ∈ F .
En efecto:
Y −1 (−∞, x] = {ω ∈ R : Y (ω) ≤ x}
= {ω ∈ R : cX(ω) ≤ x}.
Ahora, como c ∈ R − {0} entonces
{
−1 {w ∈ R : x(w) ≤ xc } si c > 0
Y (−∞, x] =
{w ∈ R : x(w) ≥ xc } si c < 0
por tanto,
{
−1 X −1 (−∞, xc ] ∈ F si c > 0
Y (−∞, x] =
X −1 [ xc , ∞) ∈ F si c < 0
con lo cual se demuestra que Y es una v.a.

3) Si X es una v.a. entonces −X es una v.a.

Demostración. Tome c = −1 en el inciso 2).

4) Si X es una v.a. entonces X 2 , |X| y 1


X
{ω : X(ω) ̸= 0} también son
variables aleatorias.
1. Demostración. Sea Y = X 2 entonces,
Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
= {ω : X 2 (ω) ≤ x}
{
∅ si x < 0
=
{ω : X (ω) ≤ x} si x ≥ 0
2
{
∅ si x < 0
= √ √
{ω : − x ≤ X(ω) ≤ x} si x ≥ 0
{
∅∈F
= √ √
X −1 [− x, x] ∈ F .
6 CAPÍTULO 2. VARIABLES ALEATORIAS

2. Sea Y (ω) = |X(ω)| entonces, para x ∈ R

Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
= {ω : |X(ω)| ≤ x}
{
∅ si x < 0
=
{ω : −x ≤ X(ω) ≤ x} si x ≥ 0
{
∅∈F
=
X −1 [−x, x] ∈ F .

3. Sea Y (ω) = 1
X(ω)
entonces, para x ∈ R

Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
{ }
1
= ω: ≤x
X(ω)

 −1 1
X [ x , 0] ∈ F si x ≥ 0
= X −1 (−∞, 0) ∈ F si x = 0

 −1
X (−∞, 0) ∪ X −1 [ x1 , 0] ∈ F si x > 0

5) Si X y Y son variables aleatorias entonces, X + Y y X − Y también


son variables aleatorias.

Demostración. Vamos a demostrar que para cada número real x ∈ R,


el conjunto (X + Y > x) ∈ F
Ayuda:
Inicialmente demostraremos el siguiente resultado:

(X + Y > x) = (X > r) ∩ (Y > x − r).
r∈Q

” ⇒ ” Sea ω ∈ Ω, tal que X(ω) + Y (ω) > x → X(ω) > x − Y (w)


y como Q es un conjunto denso en R, entonces existe r ∈ Q tal que
X(ω) > r > x −Y (ω) → X(ω) > r , ∧, Y∪(ω) > x −r → ω ∈ (X(ω) >
r) ∩ (Y (ω) > x − r) → (X + Y > x) ⊆ (X > r) ∩ (Y > X − r).
r∈Q

” ⇐ ” Sea ω ∈ (X(ω) > r) ∩ (Y (ω) > x − r)
r∈Q
7

→ ∃r0 ∈ Q tal que /X(ω) > r0 , ∧, Y (ω) > x − r0 → suman-


do las dos desigualdades anteriores se tiene que X(w) + Y (w) > x
→ ω ∈ (X + Y > x)
De donde se sigue la igualdad.

Intuitivamente definimos (X + Y )(w) = X(w) + Y (w). Veamos ahora


que X + Y es una v.a. Entonces, para x ∈ R

(X + Y )−1 (x, ∞) = {ω : (X + Y )(ω) > x}


= {ω : X(ω) + Y (ω) > x}

= (X(ω) > r) ∩ (Y (ω) > x − r).
| {z } | {z }
r∈Q ∈F ∈F
| {z }
∈F

entonces como la intersección de elementos de la σ-álgebra es nueva-


mente un elemento de la σ-álgebra y la unión numerable también, se
sigue que (X + Y )−1 (x, ∞) ∈ F , portanto X + Y es una v.a. Adicional-
mente como X − Y = X + (−Y ) entonces también se sigue que X − Y
es una v.a.

6) Si X y Y son variables aleatorias entonces, XY y X


Y
({ω : Y (ω) ̸= 0})
también son variables aleatorias.

Demostración. La demostración de este resultado sigue del hecho que


XY = [(X+Y ) −(X−Y
2 )2 ]
4
y dado que la suma y resta de v.a. es una v.a. y
además el cuadrados de una v.a. al igual que el producto por un escalar
es v.a., entonces se sigue que XY es una v.a. Tomando el resultado
anterior y escribiendo X Y
= X Y1 entonces como Y1 es nuevamente una
X
v.a. se sigue que Y es una v.a.

7) Si X y Y son variables aleatorias entonces, Z = mı́n{X, Y } y W =


máx{X, Y } son variables aleatorias.

Demostración. Resulta del hecho que:


1
Z = mı́n{X, Y } = [(X + Y ) + |X − Y |]
2
8 CAPÍTULO 2. VARIABLES ALEATORIAS

y
1
W = máx{X, Y } = [(X + Y ) − |X − Y |],
2
usando las propiedades anteriores.

Ejemplo 2.0.6. Sean X, Y : Ω → R v.a. reales sobre (Ω, B(R), P ), usando


la definición clásica demuestre que:
1. b + cY b, c ∈ R, es una v.a. y
2. máx{X, Y } es v.a.
Demostración. 1. Sea Z = b + cY , si c = 0 el resultado es inmediato;
asumamos que c ̸= 0, luego dado a ∈ R:
Z −1 ((−∞, a]) = {x ∈ Ω : cY (x) + b ≤ a} = {x ∈ Ω : Y (x) ≤
a−b
c
} = Y −1 ((−∞, a−b
c
]), para c > 0, pero Y es v.a.; ası́ Z −1 ((−∞, a]) =
−1
Y ((−∞, c ]) ∈ B(R), por tanto Z es una v.a. El caso c < 0 se
a−b

demuestra en forma similar.


2. Sea Z = máx{X, Y }, luego dado a ∈ R:
Z −1 ((−∞, a]) = {x ∈ Ω : Z(x) ≤ a} = {x ∈ Ω : X(x) ≤ a} ∩
{x ∈ Ω : Y (x) ≤ a} = X −1 ((−∞, a]) ∩ Y −1 ((−∞, a]), pero X, Y son
variables aleatorias, por lo cual X −1 ((−∞, a]), Y −1 ((−∞, a]) ∈ B(R),
ası́ X −1 ((−∞, a]) ∩ Y −1 ((−∞, a]) ∈ B(R), por tanto Z es una v.a.

Ejemplo 2.0.7. Sea X : Ω → R una v.a. real sobre (Ω, B(R), P ), entonces
se sigue del ejemplo anterior o de las propiedades de las variables aleatorias
que la parte positiva de X, definida por X + (ω) = máx{X(ω), 0}, es una
v.a., de igual forma también se sigue que la parte negativa de X, X − (ω) =
máx{−X(ω), 0}, es una v.a.
Ejemplo 2.0.8. Suponga que Ω = [0, 4] y F = B([0, 4])
{
ω + 3 si 0 ≤ ω < 2
X(ω) =
ω si 2 ≤ ω ≤ 4
y


ω + 1 si 0 ≤ ω ≤ 1
Y (ω) = 1 si 1 < ω < 25


2ω + 3 si 52 ≤ ω ≤ 4
9

Encuentre X(ω) + Y (ω).

Solución:


(ω + 3) + (ω + 1) si 0 ≤ ω ≤ 1

(ω + 3) + 1 si 1 < ω < 2
X(ω) + Y (ω) =

ω+1 si 2 ≤ ω < 25


ω + (2ω + 3) si 52 ≤ ω < 4


2ω + 4 si 0 ≤ ω ≤ 1

ω + 4 si 1 < ω < 2
=

ω+1 si 2 ≤ ω < 25


3(ω + 1) si 52 ≤ ω < 4.

2.0.2. Variable aleatoria y probabilidad


Si X es una v.a. entonces podemos trasladar la medida de probabilidad P al
espacio medible (R, B(R)), del siguiente modo: si B es un boreliano definimos
PX (B) = P (X −1 (B)).
lo cual es posible dado que el conjunto X −1 (B) es un elemento de F, dominio
de definición de P ası́, la función.
PX : B(R) → [0, 1]
es llamada medida de probabilidad inducida por la v.a. X de este modo se
construye el espacio de probabilidad.
(R, B(R), PX ).
Definición 2.0.6. Sea B un suceso asociado a la variable aleatoria X, esto
es B ⊆ RX , se define P (B) como: P (B) = P (A), donde A = {ω ∈ Ω :
X(ω) ∈ B}.
Ejemplo 2.0.9. Para ξ el experimento de lanzar dos monedas no cargadas y
X :=número de caras, P (X = 0) = P ({ss}) = 41 , P (X = 1) = P ({cs, sc}) =
1
2
, P (X = 2) = P ({cc}) = 14 y P (X ∈ {0, 1}) = P ({ss, cs, sc}) = 43 .

las probabilidades obtenidas en RX se consideran ”inducidas” por los eventos


dados en Ω.
10 CAPÍTULO 2. VARIABLES ALEATORIAS

2.0.3. Variables aleatorias discretas y continuas


Variables aleatorias discretas (v.a.d.)
Definición 2.0.7. Sea X una v.a. Si el número de valores posibles de X es
finito o infinito numerable, decimos que X es una v.a. discreta, (v.a.d.) esto
es, si los posibles valores de X se pueden enumerar como X1 , X2 , X3 , ..., Xn , ...
Definición 2.0.8. Sea X una v.a.d., por tanto RX consta a lo mas de un
numero de valores X1 , X2 , ... infinito numerable. Con cada resultado xi se
asociara un número Pi = P (X = xi ) = p(xi ) llamado la probabilidad de xi .
Los números P (xi ), i = 1, 2, 3... son tales que
1. P (xi ) ≥ 0 ∀i y


2. P (xi ) = 1.
i=1
La función P definida anteriormente se llama función de probabilidad o fun-
ción de probabilidad puntual o función de cuantı́a y la colección (xi , P (xi ))
para i = 1, 2, 3... se llama distribución de probabilidad de la v.a. X

Ahora consideremos un suceso B asociado a la v.a. X(B ⊆ RX ) suponga que


B = {Xi1 , X2i , ..., Xik , ...}. Entonces,

P (B) = P ({w ∈ Ω : X(w) ∈ B})


= P ({w ∈ Ω : X(w) = xi , i = 1, 2...})
∑∞
= P (xi )
i=1

es decir, la probabilidad de B es la suma de probabilidades de los resultados


individuales asociados a B.
Ejemplo 2.0.10. Para el experimento de lanzar dos monedas donde la v.a.
de interés es X :=número de caras, se tiene que P (X = 0) = 14 , P (X = 1) =
1
2
, P (X = 2) = 14 y P (X ∈ {0, 1}) = 43 entonces,
 1
 4 si x = 0
1
P (X = xi ) = f (xi ) = si x = 1
 21
4
si x = 2
Es decir, la distribución de la v.a. es {(0, 1/4), (1, 1/2), (2, 1/4)}.
11

Observación 2.0.6. 1) Suponga que X puede tomar solo un número fi-


nito de valores X1 , X2 , ..., Xn si cada resultado es igualmente probable,
entonces P (X = xi ) = n1 .

2) Si X toma un número infinito numerable de valores,


∑ no es posible que
los resultados sean igualmente probables ya que ∞ i=1 P (X = xi ) >> 1
cuando P (X = xi ) = constante para i = 1, 2, 3, ...

3) En cada intervalo solo habrá un número finito de valores posibles de la


v.a. X.

Variables Aleatorias Continuas (v.a.c.)


Definición 2.0.9. Se dice que X es una variable aleatoria continua (v.a.c.)
si existe una función f, llamada función de densidad de probabilidad de X
(fdp), que satisface las siguientes propiedades.
1. f (x) ≥ 0 ∀x y
∫ ∞
2. f (x) dx = 1.
−∞

Observación 2.0.7. i) Como f es una función no negativa, entonces


∫ b
P (a ≤ X ≤ b) = f (x) dx.
a
∫ m
ii) Note que [m, m] = {m} ̸= ∅ , ∧, P (m ≤ x ≤ m) = f (x) dx = 0.
m

iii) Generalmente f es continua o continua por tramos.


Ejemplo 2.0.11. Sea X una v.a.c con fdp
{
2x si 0 < x < 1
f (x) =
0 c.c

a) Realice el gráfico de f

b) corrobore que f es una buena fdp.

c) calcular P (X ≤ 21 )
Solución:
12 CAPÍTULO 2. VARIABLES ALEATORIAS

a)
b) i) como 0 < x < 1 → 0 < 2x < 2 → 0 < f (x) ≤ 2.
ii)
∫ ∞ ∫ 0 ∫ 1 ∫ ∞
f (x) dx = f (x) dx + f (x) dx + f (x) dx
−∞ −∞ 0 1
∫ 1
=0+2 x dx + 0
0
= x2 |10 = 1.
∫ 1
2 1 1
c) P (X ≤ 1
2
)2x dx = x2 |02 = .
=
0 4
Ejemplo 2.0.12. Sea X una v.a.c. con fdp
{
kx3 si 0 < x < 1
f (x) =
0 caso contrario
1) Encuentre el valor de k (llamada constante de normalización) tal que
f sea una fdp.
2) Encuentre el valor de a tal que P (X > a) = P (X < a)
3) Encuentre P (0,2 < x < 0,8)
Solución:
1) i) como f es no negativa y 0 < x < 1 entonces es obvio∫que k > 0.

ii) Para que f sea una fdp se debe cumplir que f (x) dx =
∫ 1 −∞

kx3 dx = 1 → k4 x4 |10 = 1 → k4 = 1 → k = 4.
0

2)
1
P (X > a) = 1 − P (X ≤ a) = P (X ≤ a) → 2P (X ≤ a) = 1 → P (X ≤ a) =
2
∫ a

1 1 1 1
→ 4x3 dx = → x4 |a0 = → a4 = →a=
4
.
0 2 2 2 2
∫ 0,8
3) P (0,2 < X < 0,8) = 4x3 dx = x4 |0,8
0,2 = 0,408
0,2
2.1. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA 13

2.1. Función de Distribución Acumulativa


Definición 2.1.1. Sea X una v.a. la probabilidad de que X tenga un valor
menor o igual que X se llama función de distribución acumulada (fda) y la
simbolizamos por F (X), es decir.

F (X) = P [X ≤ x]

Ejemplo 2.1.1. 1. Para el caso de nuestro ejemplo donde el experimento


consiste en lanzar dos monedas no cargadas y la v.a. es X = # de
caras, hemos encontrado que RX = {0, 1, 2} y
 1
 4 si x = 0
1
f (x) = si x = 1
 21
4
si x = 2

Por tanto, como F (x) = P (X ≤ x) se sigue que:




 P (X < 0) si x<0

P (X < 0) + P (X = 0) si 0≤x<1
F (x) =

 P (X < 0) + P (X = 0) + P (X = 1) si 1≤x<2

P (X < 0) + P (X = 0) + P (X = 1) + P (X = 2) si x≥2

entonces,


 0 si x<0

0 + 41 = 14 si 0≤x<1
F (x) =

 0 + 41 + 12 = 34 si 1≤x<2

0 + 41 + 12 + 14 = 1 si x ≥ 2.

2. Para el caso de la v.a.c. estudiada anteriormente y definida por la fdp


{
2x si 0 < x < 1
f (x) =
0 c.c

se sigue que:
∫ x
a) Si x ≤ 0 → F (x) = f (t) dt = 0
−∞
14 CAPÍTULO 2. VARIABLES ALEATORIAS
∫ x ∫ 0 ∫ x
b) Si 0 < x < 1 → F (x) = f (t) dt = f (t) dt + f (t) dt
∫ x ∫ x −∞ −∞ 0

→ f (t) dt = 2 t dt = t2 |t0 = x2
0 0
∫ x ∫ 0 ∫ 1
c) Si x ≥ 1 → F (x) = f (t) dt = f (t) dt + f (t) dt +
∫ ∞ −∞ −∞ 0

f (t) dt = 0 + 1 + 0 = 1.
1

Entonces, 
 0 si x ≤ 0
F (x) = x2 si 0 < x < 1

1 si x ≥ 1
Teorema 2.1.1. Sea F(x) la f.d.a de una v.a X entonces.
1) lı́m F (x) = 1.
x→∞

2) lı́m F (x) = 0.
x→−∞

3) Si X1 ≤ X2 entonces, F (X1 ) ≤ F (X2 ).


4) F (X) es continua por al derecha es decir F (X + ) = F (X).
Demostración:
1) Sea {Xn , n = 1, 2, ..., } una sucesión de números reales tales que X1 ≤
X2 ≤ ... ≤ Xk ≤ ..., donde Xn → ∞ cuando n → ∞. Entonces, los
eventos An = [X ≤ xn ]n∈N es una sucesión de eventos no decrecientes
y An → Ω cuando n → ∞. Entonces por la continuidad de la función
de probabilidad
lı́m F (x) = lı́m P (X ≤ x) = lı́m P (An ) = P ( lı́m An ) = P (Ω) = 1
x→∞ x→∞ n→∞ n→∞

2) Sea {Xn , n = 1, 2, ..., } una sucesión de números reales tales que X1 ≥


X2 ≥ X3 ≥ ... ≥ Xn ≥ ... con Xn → −∞ cuando n → ∞. Entonces,
los eventos An = [X ≤ xn ]n∈N es una sucesión de eventos no crecientes
y An → ∅ cuando n → ∞. Entonces por la continuidad de la función
de probabilidad
lı́m F (x) = lı́m P (X ≤ x) = lı́m P (An ) = P ( lı́m An ) = P (∅) =
x→−∞ x→−∞ n→∞ n→∞
0
2.1. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA 15

3) Sea X1 ≤ X2 entonces, [X ≤ x1 ] ⊆ [X ≤ x2 ] → P (X ≤ x1 ) ≤ P (X ≤
x2 ) es decir, F (x1 ) ≤ F (x2 ).

4) Sea x < ... < xn < ... < x2 < x1 entonces, la sucesión de eventos
An = [X ≤ xn ]n∈N es tal que An → [X ≤ x] cuando n → ∞. Por


tanto, An = [X ≤ x]. Entonces,
n=1

lı́m F (x) = lı́m P (An ) = P ( lı́m An ) = P (X ≤ x) = F (x).


X→x+ n→∞ n→∞

Observación 2.1.1. Una función de distribución es monótona no decrecien-


te y por tanto tiene un número finito o enumerable de puntos de discontinui-
dad ademas, todas las discontinuidades son de tipo salto, por la continuidad
a la derecha, el salto en el punto x es:
( )
− 1
F (x) − F (x ) = F (x) − lı́m F x −
n→∞ n
( ( ))
1
= lı́m F (x) − F x −
n→∞ n
( ( ))
1
= lı́m P (X ≤ x) − P X ≤ x −
n→∞ n
( )
1
= lı́m P x − ≤ X ≤ x
n→∞ n
( )
1
= P ( lı́m An ), con An = x − ≤ X ≤ x
n→∞ n
= P (X = x).

Es decir, que el valor del salto es igual a la probabilidad en el punto x,


P (X = x), en este caso F es continua en el punto x si y solamente si
P (X = x) = 0. En el caso de v.a.c. el valor de la probabilidad P (X = x) es
cero, por tanto en este caso la función siempre será continua.

Por definición, la función de distribución acumulada se calcula a partir de


la función de probabilidad para el caso de v.a.d. y a partir de la fdp para
el caso de una v.a.c. El siguiente resultado muestra como se puede llegar a
la función de densidad o la función de probabilidad de una v.a. cuando se
conoce su respectiva función de distribución acumulada.
16 CAPÍTULO 2. VARIABLES ALEATORIAS

Teorema 2.1.2. 1. Sea X una v.a.d con valores x1 , x2 , ..., xn tales que
x1 < x2 < x3 < ... y sea F la fda de X luego:
f (xj ) = P (X = xj ) = F (xj ) − F (xj − 1).

2. Sea F la fda de una v.a.c. X con fdp f entonces,


d
f (x) = F (x).
dx
Demostración. 1.
F (xj ) = P (X = x1 ) + P (X = x2 ) + ... + P (X = xj−1 ) + P (X = xj )
F (xj−1 ) = P (X = x1 ) + P (X = x2 ) + ... + P (X = xj−1 )
→ F (xj ) − F (xj−1 ) = P (X = xj ) = f (xj ).
∫ x
dF (x) d
2. dx = dx f (t) dt = f (x).
−∞

Teorema 2.1.3. Sea F la fda de la v.a. X. Si a < b entonces se tiene que,


1. P [a < x ≤ b] = F (b) − F (a).
2. P (x < a) = F (a− ).
3. P (a ≤ x ≤ b) = F (b) − F (a− ).
4. P (a < x < b) = F (b− ) − F (a).
5. P (a ≤ x < b) = F (b− ) − F (a− ).
Demostración. 1. Dado que el evento [a < x ≤ b] = [x ≤ b] − [x ≤ a],
entonces, [x ≤ b] = [x ≤ a]∪[a < x ≤ b] donde [x ≤ a]∩[a < x ≤ b] = ∅
por tanto, P (x ≤ b) = P (x ≤ a) + P (a < x ≤ b) de donde sigue que
P (a < x ≤ b) = F (b) − F (a).
2. En forma similar al caso anterior tenemos que [x ≤ a] = [x < a]∪[x = a]
donde [x < a] ∩ [x = a] = ∅ por tanto, P (x ≤ a) = P (x < a) + P (x =
a), es decir, F (a) = P (x < a) + P (x = a). Ahora, anteriormente
demostramos que F (x) − F (x− ) = P (X = x) entonces usando este
resultado para P (X = a) se sigue que F (a) = P (x < a) + F (a) − F (a− )
de donde se obtiene P (x < a) = F (a− ).
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 17

3. Dado que [x ≤ b] = [x < a]∪[a ≤ x ≤ b] donde [x < a]∩[a ≤ x ≤ b] = ∅


entonces, P (x ≤ b) = P (x < a) + P (a ≤ x ≤ b) y por el inciso 2)
entonces se sigue que P (a ≤ x ≤ b) = F (b) − F (a− ).

4. Se tiene que [x < b] = [x ≤ a] ∪ [a < x < b] donde [x ≤ a] ∩ [a < x <


b] = ∅ entonces, P (x < b) = P (x ≤ a) + P (a < x < b) y nuevamente
por el inciso 2) se sigue que P (a < x < b) = F (b− ) − F (a).

5. Por último se tiene que [x < b] = [x < a] ∪ [a ≤ x < b] donde [x <


a] ∩ [a ≤ x < b] = ∅ entonces, P (x < b) = P (x < a) + P (a ≤ x < b) de
donde se obtiene que P (a ≤ x < b) = F (b− ) − F (a− ).

2.2. Esperanza Matemática o Valor Esperado


Introducimos ahora el concepto de valor esperado de una variable aleatoria.
Este concepto es de sumo interés dado que en muchas distribuciones que se
estudiaran en el siguiente capı́tulo, la esperanza o media de la v.a. X es el
parámetro o uno de los parámetros de la distribución. En otro contexto la
esperanza matemática también representa la media de la distribución, la cual
es una estadı́stica de gran utilidad cuando se estudia el comportamiento de
un determinado fenómeno medido a través de una v.a.

Definición 2.2.1. em Sea X una v.a. con fda F (x). La esperanza matemática
de X, valor esperado de X, media de la v.a. X o simplemente esperanza de
X, denotada por E(X), se define como el numero:
∫ ∞
E(X) = x dF (x), (2.1)
−∞

cuando la integral es absolutamente convergente, es decir, cuando


∫ ∞
|x| dF (x) < ∞,
−∞

en tal caso se dice que X es integrable, o que tiene esperanza finita.

Definición 2.2.2. Sea X una v.a. con función de distribución F (x).


18 CAPÍTULO 2. VARIABLES ALEATORIAS

1. Si X es discreta con función de probabilidad


∑ P (X = x) = f (x), su
esperanza, si existe, es decir cuando |xk |P (X = xk ) < ∞, se define
k
como ∑
E(X) = xk P (X = xk ). (2.2)
k

2. Si X es absolutamente continua con función


∫ de densidad f (x), entonces

su esperanza, si existe, es decir cuando |x|f (x) dx < ∞, se define
−∞
por ∫ ∞
E(X) = xf (x)dx. (2.3)
−∞

Ejemplo 2.2.1. Suponga que se lanza una moneda corriente dos veces y sea
X la v.a. que cuenta el número de caras obtenidas en los dos lanzamientos.
Entonces, RX = {0, 1, 2} y


2
E(X) = xP (X = x)
x=0
= 0 × P (X = 0) + 1 × P (X = 1) + 2 × P (X = 2)
1 1 1
=0× +1× +2×
2 2 4
=1

es decir, en promedio se espera una cara en los dos lanzamientos.

Ejemplo 2.2.2. Sea la v.a. indicadora


{
1 si x ∈ A
X = IA (x) =
0 si x ∈
/ A.

Entonces

E(X) = 0 × P (x ∈
/ A) + 1 × P (x ∈ A) = P (x ∈ A) = P (A).

Ejemplo 2.2.3. Un experimento consiste en probar tubos de radio hasta


encontrar el primero defectuoso, suponga que la probabilidad de tubos defec-
tuosos es 43 .
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 19

1. Encuentre la función de probabilidad de la v.a. que mide el número


de tubos necesarios para finalizar el experimento, compruebe que dicha
función es una función de distribución.

2. Encuentre la función de distribución.

3. ¿Cuál es la probabilidad de que el evento termine después de un número


par de experimentos?

4. Encuentre E[X].

Solución:

1. Sean D={salir tubo defectuoso} y B={salir tubo no defectuoso}, enton-


ces el experimento sigue el siguiente patrón:
D,BD,BBD,BBBD,BBBBD,. . ., ahora definamos de forma implı́cita la
v.a. X que mide el número de tubos necesarios para finalizar el experi-
mento:

D−→ 1
BD−→ 2
BBD−→ 3
BBBD−→ 4
BBBBD−→ 5
BBBBBD−→ 6
..
.

Luego P (X = 1) = 43 ; P (X = 2) = 34 ( 41 ); P (X = 3) = 43 ( 412 ); P (X =
4) = 43 ( 413 ); . . . ; P (X = n) = 34 ( 4n−1
1
); . . . y P (X = x) = 0 si x ∈
/ N.

Claramente P (X = x) ≥ 0 para todo x ∈ R y


∑ ∑ ( )n−1 ( )
3∑
∞ ∞
1 3 4
P (X = x) = P (X = n) = = = 1,
x∈R n=1
4 n=1 4 4 3

por tanto P (X = x) define una función de probabilidad con:


{ ( )x−1
3 1
si x ∈ N
P (X = x) = 4 4
0 si x ∈
/ N.
20 CAPÍTULO 2. VARIABLES ALEATORIAS

2. Si x ∈ R y x < 1, P (X = x) = 0, ası́ F (x) = P (X ≤ x) = 0 para


x < 1, mientras que para x ≥ 1
( )k−1 ( )⌊x⌋ ( )⌊x⌋
∑ 3 ∑ 1 3 1 − 14 1
F (x) = P (X = x) = = = 1− ,
4 4 4 1− 4 1
4
k∈N,k≤⌊x⌋ k∈N,k≤⌊x⌋

donde ⌊x⌋ representa la función parte entera; por tanto:


{
1 − ( 14 )⌊x⌋ si x ≥ 1
F (x) =
0 si x < 1.

3. Si n es un número natural par, entonces existe k ∈ N tal que n = 2k,


ası́, la probabilidad de que el experimento termine en un número par de
intentos es

P (X = n) = P (X = 2k)
∑∞ ( )2k−1 [ ]
3 1 3 1 1 1
= = + + + ...
4 4 4 4 43 45
k=1
[ ]
3 1 1 3 1 1
= 1 + 2 + 4 + ... = 1 = .
16 4 4 16 1 − 16 5

4.
∑ ( )n−1
3∑ 1
E[X] = xP (X = x) = ,
x∈R
4 n∈N 4

si hacemos an = ( 14 )n−1 para n ∈ N, entonces



nan = a1 + 2a2 + 3a3 + 4a4 + . . .
n∈N
= (a1 + a2 + a3 + . . .) + (a2 + a3 + a4 + . . .)
+ (a3 + a4 + a5 + . . .) + . . .

3
∑ 3
∑ ∑
Ahora, 4
an = ( 14 )n−1 = 1, entonces
4
an = a1 +a2 +a3 +. . . =
n∈N n∈N ∑ n∈N
4
3
, a2 + a3 + a4 + . . . = an − a1 = 43 − 1, a3 + a4 + a5 + . . . =
n∈N
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 21

an − a1 − a2 = 4
3
− 1 − 14 , ..., luego
n∈N

( ) ( ) ( n ( )k−1
)
∑ 4 4 4 1 4 ∑ 1
nan = + −1 + −1− + ... + − + ...
n∈N
3 3 3 4 3 k=1 4

entonces
( )
3 4 1 1 1 1
E[X] = + + + + + ...
4 3 3 12 48 192
( ( ))
3 1 1 1 1
= 4 + 1 + + 2 + 3 + ...
4 3 4 4 4
( ( ( ) ))
3 1 ∑ 1 n−1
= 4+
4 3 n∈N
4
( )
3 4 4
= +
4 3 9
3 16
=
4 9
4
= .
3

Ejemplo 2.2.4. Sea X una v.a. con valores en Z. Suponga que


{ k
x2
si x ̸= 0
P (X = x) =
0 si x = 0
∑ k
donde k > 0 es una constante y 2
= 1. Entonces,
x
x

∑ ∑
|k|P (X = x) = |x|P (X = x)
x∈Z x∈Z−{0}


=2 xP (X = x)
x=1
∑∞
k
=2 x
x=1
x2
22 CAPÍTULO 2. VARIABLES ALEATORIAS



1
= 2k
x=1
x
=∞

Esto es, E(X) no existe.


Ejemplo 2.2.5. Sea X con valores en el conjunto {1, 2, 3, ...} y con función
de probabilidad.
1
f (x) = P (X = x) = ; x = 1, 2, 3, ...
2x
Entonces,

∞ ∑∞
x
E(X) = xP (X = x) =
x=1 x=1
2x
1 2 3 4 5 6 7
= + + + + + + + ...
[2 4 8 16 32 64 128] [ ]
1 1 1 1 1 1 1 1 1 1 1
= + + + + + + ... + + + + + + ...
2 4 8 16 32 64 4 8 16 32 64
[ ]
1 1 1 1
+ + + + + ...
8 16 32 64
[ ] [ ]
1 1 1 1 1 1 1 1 1 1
= 1+ + + + + ... + 1+ + + + + ...
2 2 4 8 16 4 2 4 8 16
[ ]
1 1 1 1 1
+ 1+ + + + + ...
8 2 4 8 16
[ ][ ]
1 1 1 1 1 1 1 1
= + + + + ... 1 + + + + + ...
2 4 8 16 2 4 8 16
[ ]
1 1 1 1 1
= 1 + + + + ... ×
2 2 4 8 1 − 12
1 1 1
=
2 1 − 12 12
= 2.

Ejemplo 2.2.6. Sea X una v.a.c. con fdp


{
2x si 0 < x < 1
f (x) =
0 caso contrario
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 23

Entonces,

∫ ∞ ∫ 0 ∫ 1 ∫ ∞
E(X) = xf (x) dx = xf (x) dx + xf (x) dx + xf (x) dx
−∞ −∞ 0 1
∫ 1
= x(2x) dx
0
∫ 1
=2 x2 dx
0
2
= x3 |10
3
2
= .
3

Ejemplo 2.2.7. Sea X una v.a.c. con fdp


{
4x3 si 0 < x < 1
f (x) =
0 caso contrario.

entonces,

∫ ∞ ∫ 0 ∫ 1 ∫ ∞
E(X) = xf (x) dx = xf (x) dx + xf (x) dx + xf (x) dx
−∞ −∞ 0 1
∫ 1
= x(4x3 ) dx
0
∫ 1
=4 x4 dx
0
4
= x5 |10
5
4
= .
5

Ejemplo 2.2.8. Sea X una v.a.c. con fdp dada por:


{ 1
2x2
si 1 < x ó x < −1
f (x) =
0 caso contrario.
24 CAPÍTULO 2. VARIABLES ALEATORIAS

Entonces,
∫ ∞ ∫ −1 ∫
1 |x| 1 ∞ |x|
|x|f (x) dx = 2
dx + dx
−∞ 2 −∞ x 2 1 x2
∫ ∫
1 −1 1 1 ∞1
=− dx + dx
2 −∞ x 2 1 x
1 1
= − ln |x||−1
−∞ + ln |x||∞
1
2 2
= ∞.

Es decir, E(X) no existe.

Otro caso de distribuciones cuya esperanza no existe es la distribución de


Cauchy, la cual estudiaremos en el siguiente capı́tulo.

Ejemplo 2.2.9. Sea X una v.a. con función de probabilidad


{ e−λ λx
si x = 0, 1, 2, ...
P (X = x) = x!
0 caso contrario.

Entonces,
∑∞
e−λ λx ∑ e−λ λx

E(X) = x = x
x=0
x! x=1
x!


λx
−∞
=e
x=1
(x − 1)!
λj+1
= e−λ j = 0∞
j!


λj
−λ
= λe
j=0
j!
= λe−λ eλ
= λ.

Ejemplo 2.2.10. Sea X con fdp


{ −λx
λe si x > 0
f (x) =
0 caso contrario.
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 25

Entonces,
∫ ∞ ∫ ∞
−λx
E(X) = λxe dx = λ xe−λx dx
−∞ 0
∫ ∞
1
= λ[xe−λx ]∞
0 + e−λx dx
λ
∫ ∞
0

= e−λx dx
0
1
= − e−λx |∞
0
λ
1
= .
λ
Ejemplo 2.2.11. Sea X una v.a. entonces, E[X] existe si y sólo si E[|X|]
existe.
Demostración. Note que, si E[X] existe, por la definición de esperanza E[|X|]
existe; y si E[|X|] existe, por el teorema de comparación para integrales
impropias E[X] existe; ası́ E[X] existe si y sólo si E[|X|] existe.
Ejemplo 2.2.12. Sea X una v.a., acotada, esto es, existe una constante real
a > 0 tal que P (|X| ≤ a) = 1, entonces E(X) existe.
Demostración. a) Si X es una v.a.d. que toma valores x1 , x2 , . . . , enton-
ces, como X es acotada, existe una constante real positiva tal que
{x1 , x2 , . . .} ⊂ [−a, a] por tanto, P (|X| > a) = 0. Luego,
∑ ∑
|xi |P (X = xi ) ≤ a P (X = xi ) = a < ∞.
i i

b) Sea X una v.a.c. con fdp f , como X es acotada, existe una constante
real positiva tal que para todo ∀x ∈ RX , x ∈ [−a, a]. Ası́, podemos
suponer f (x) = 0 ∀x ∈ / [−a, a], es decir, P (|X| > a) = 0. Luego,
∫ ∞ ∫ −a ∫ a ∫ ∞
|x|f (x)dx = − xf (x)dx + |x|f (x)dx + xf (x)dx
−∞ −∞ −a
∫ a ∫ a a

= |x|f (x)dx < a f (x)dx = a < ∞.


−a −a
26 CAPÍTULO 2. VARIABLES ALEATORIAS

Proposición 2.2.1. Sea X una v.a. con fda F, y tal que E(X) existe, en-
tonces
∫ +∞ ∫ 0
E(X) = [1 − F (x)]dx + F (x)dx
0 −∞
∫ +∞ ∫ 0
= P (X > x)dx − P (X < x)dx. (2.4)
0 −∞

Es decir,
∫ +∞la esperanza existe
∫ 0si y solamente si existen y sean finitas las inte-
grales 0 P (X > x)dx y −∞ P (X < x)dx.

Demostración. Dividiendo el intervalo


∫ +∞ de integración
∫ +∞ del valor ∫esperado en
0
dos partes tenemos que E(X) = −∞ xdF (x) = 0 xdF (x) − −∞ xdF (x).

1. Como E(X) existe, entonces E[|X|] < ∞, entonces integrando por


partes tomando u = x → du = dx y dv = dF (x) → v = F (x) se tiene
que

∫ +∞ ∫ b
xdF (x) = lı́m bF (b) − 0F (0) − lı́m F (x)dx
b→∞ b→∞ 0
0
[ ∫ b ]
= lı́m −b[1 − F (b)] + [1 − F (x)]dx .
b→∞ 0

Aplicando teorı́a de colas se demuestra que lı́mb→∞ b[1 − F (b)] = 0, por


tanto,
∫ +∞ ∫ b
xdF (x) = lı́m [1 − F (x)]dx
b→∞ 0
0
∫ +∞ ∫ +∞
= [1 − F (x)] = P (X > x).
0 0

2. En forma similar a 1. se tiene que


∫ 0 [ ∫ 0 ]
xdF (x) = lı́m b[1 − F (b)] − F (x)dx
−∞ b→∞ −b
∫ 0 ∫ 0
= F (x)dx = P (X ≤ x).
−∞ −∞
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 27

3. De los incisos 1. y 2. se sigue el resultado.

Corolario 2.2.1. Sea X una v.a. no negativa con fda F, y tal que E(X)
existe, entonces
∫ +∞ ∫ +∞
E(X) = [1 − F (x)]dx = P (X > x)dx. (2.5)
0 0

Demostración. Sigue inmediatamente del Teorema anterior, dado que

P (X < x) = 0, ∀x < 0.

Observación 2.2.1. Si X es una v.a.d., entonces se puede usar el resultado


del anterior corolario para deducir la esperanza de X, dado que [0, ∞) =
∪k [k, k + 1) con ∫k ∈ N ∪ {0} y donde [k, k + 1) ∩ [k ′ ,∫k + 1) entonces la
+∞ +∞
integral anterior 0 [1 − F (x)]dx se deja escribir como 0 [1 − F (x)]dx =
∑∞ ∫ k+1
k=0 k [1−F (x)]dx. Ası́ la integrales dentro de la sumatoria corresponden
a áreas de rectángulos continuos, a partir de lo cual finalmente se obtiene que:

∞ ∑

E(X) = [1 − F (k)] = P (X > k). (2.6)
k=0 k=0

Ejemplo 2.2.13. Sea X una v.a.d. con función de probabilidad

f (x) = p(1 − p)x , x = 0, 1, 2, 3, ...(distribución geométrica).

Entonces, la función de distribución de X es:


1. Para x < 0, F (x) = 0.

2. Para k ≤ x < k + 1 con k ∈ N ,


k ∑
(k+1)−1
F (k) = P (X ≤ k) = p(1 − p) = p
k
(1 − p)k
i=0 i=0
1 − (1 − p) k+1
=p = 1 − (1 − p)k+1 .
1 − (1 − p)
28 CAPÍTULO 2. VARIABLES ALEATORIAS

Luego como la v.a. X es no negativa se sigue que


+∞ ∑

E(X) = [1 − F (k)]dx = [1 − (1 − (1 − p)k+1 )]
0 k=0

∞ ∑

= (1 − p) k+1
= (1 − p) (1 − p)k
k=0 k=0
1 1−p
= (1 − p) = .
1 − (1 − p) p

Ejemplo 2.2.14. Sea X una v.a.c. con fdp


{
λe−λx si x > 0
f (x) =
0 caso contrario

Entonces,
{
0 si x ≤ 0
F (x) = −λx
1−e si x > 0

Luego, como X es no negativa,


∫ +∞ ∫ +∞
E(X) = [1 − F (x)]dx = [1 − (1 − e−λx )]dx
∫0 +∞ 0
1 1
= e−λx dx = − e−λx |∞
0 = .
0 λ λ

Proposición 2.2.2. Sea X una v.a. real y suponga que E(X) existe.

1. Si P (X ≥ 0) = 1 (X es no negativa), entonces E(X) ≥ 0.

2. E(aX + b) = aE(X) + b para a y b constantes reales.

Demostración. 1. Analicemos los casos para variables discretas y conti-


nuas. Entonces:

Suponga que X es una v.a.d. que toma valores x1 , x2 , . . . , no ne-


gativos entonces, como P (X < 0) = 1 − P (X ≥ 0) = 1 − 1 = 0,
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 29

se tiene P (X = xj ) = 0 para todo xj < 0. Por tanto



E(X) = xk P (X = xk )
k
∑ ∑
= xk P (X = xk ) + xk P (X = xk )
k:xk <0 k:xk ≥0

= xk P (X = xn ) ≥ 0.
k:xk ≥0

Note que este resultado se puede obtener directamente del hecho


que como la v.a.d. X es no negativa, entonces


E(X) = P (X > k) ≥ 0.
k=0

Si X es una v.a.c. no negativas, entonces sigue directamente del


corolario anterior que,
∫ +∞ ∫ +∞
E(X) = xdF (x) = P (X > 0)dx ≥ 0.
0 0

2. Sea X una v.a.d. con valores valores x1 , x2 , . . . , entonces


∑ ∑
|axk + b|P (X = xk ) ≤ (|a||xk | + |b|) P (X = xk )
k k
∑ ∑
= |a| |xk |P (X = xk ) + |b| P (X = xk )
k k

= |a| |xk |P (X = xk ) + |b| < ∞,
k

dado que E(X) existe. Luego, en forma similar se sigue que



E(aX + b) = (axk + b)P (X = xk )
k
∑ ∑
=a xk P (X = xk ) + b P (X = xk )
k k

=a xk P (X = xk ) + b = aE(X) + b.
k
30 CAPÍTULO 2. VARIABLES ALEATORIAS

El caso continuo se deja como ejercicio a los lectores.

Observación 2.2.2. Tomando a = 0 en el inciso 2) de la proposición ante-


rior se desprende que el valor esperado de una constante es la misma cons-
tante, es decir, E(b) = para b una constante real.

El resultado 2) de la anterior proposición puede extenderse a casos más ge-


nerales dado que si X es una variable aleatoria, entonces se sigue que para
una función g cualquiera g(X) también es una v.a.

Definición 2.2.3. Sea X una v.a. El número E[|X|r ] se denomina momen-


to absoluto de orden r. El número E[X n ], momento de orden n. Es común
denotar E[X n ] por µ′n es decir,

µ′n = E[xn ].

Teorema 2.2.1. Sı́ E[|X|r ] < ∞, r ≥ 1, entonces E[|X|r ] < ∞, con 1 ≤
r′ ≤ r.

Demostración. ∀x ∈ R, si 1 ≤ r′ ≤ r entonces |x|r < 1 + |x|r y por tanto,
∫ ∞ ∫ ∞
r′
|x| f (x) dx ≤ [1 + |x|r ]f (x) dx
−∞ −∞
∫ ∞
≤1+ |x|r f (x) dx < ∞.
−∞

Definición 2.2.4. Para una v.a. X, el número E[(X − E(X))n ], suponiendo


que la esperanza existe, se denomina n-ésimo momento central de X. Es
común denotarlo por:
µn = E[(X − E(X))n ].

Teorema 2.2.2. Para una v.a. X, cuyo valor esperado existe, si µn existe,
entonces
∑ n ( )
n ′
µn = µk (−µ′1 )n−k .
k=0
k
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 31

Demostración.
[
n ( )
]
∑ n
′ n
µn = E[(X − µ1 ) ] = E X k (−µ′1 )n−k
k=0
k
∑ (n)
n
= E(X k )(−µ′1 )n−k
k=0
k
∑n ( )
n ′
= µk (−µ′1 )n−k
k=0
k

Definición 2.2.5. Sea X una v.a. real con función de distribución asociada
F. Sea g : R → R una función medible borel tal que g(x) es una v.a., el valor
esperado de g(X) viene definido por:
{ ∑ ∑
k g(xk )P (X = xk ) si x es v.a.d. (( k |g(xk )|P (X = xk ) <)∞)
E(g(X)) = ∫∞ ∫∞
−∞
g(x)f (x) dx si x es v.a.c. −∞
|g(x)|f (x) dx < ∞

Teorema 2.2.3. 1. Si g1 (x) ≥ 0, ∀x entonces, entonces E[g1 (X)] ≥ 0.

2. Sea X una v.a. y sean gi para i = 1, 2, ..., n funciones tales que gi (X)
son variables aleatorias, cuyos valores esperados
∑n existen. Entonces, para
constantes reales αi el valor esperado de E ( i=1 αi gi (X)) existe y
( n )
∑ ∑n
E αi gi (X) = αi E(gi (X)).
i=1 i=1

3. Si g1 y g2 son funciones tales que g1 (X) y g2 (X) son variables aleatorias


cuyos valores esperados existen y si g1 (x) ≤ g2 (x) para todo x, entonces

E(g1 (X)) ≤ E(g2 (X)).

Demostración. 1. Si g1 (x) ≥ 0 ∀x, entonces como ∀x, f (x) ≥ 0 se sigue


que
∫ ∞
g1 (x)f (x) ≥ 0 ∀x, por tanto, E[g1 (X)] = g1 (x)f (x) dx ≥ 0.
−∞
32 CAPÍTULO 2. VARIABLES ALEATORIAS

2. Sea X una v.a.c. con fdp f tal que gi (X) es una∫ ∞v.a. para i = 1, 2, ..., n
con esperanza finita, entonces se sigue que −∞ |gi (x)|f (x)dx < ∞.
Luego,
∫ ∞ ∑n

∫ ∞ [∑n
]

αi gi (X) f (x) dx ≤ |αi gi (x)| f (x) dx
−∞ i=1 −∞ i=1

∑n ∫ ∞
= |αi ||gi (x)|f (x) dx
i=1 −∞

∑n
= |αi |E[|gi (X)|]
i=1
< ∞.
∑n
Esto es, E [ αi gi (X)] existe, y
i=1
[ ] ∫ [ n ]

n ∞ ∑
E αi gi (X) = αi gi (X) f (x) dx
i=1 −∞ i=1
∫ ∞ ∑
n
= [αi gi (X)f (x)] dx
−∞ i=1
n ∫ ∞

= [αi gi (x)f (x)] dx
i=1 −∞


n ∫ ∞
= αi gi (x)f (x) dx
i=1 −∞


n
= αi E[gi (X)].
i=1

3. Sea X una v.a.c. con fdp f y suponga que ∀x g1 (x) ≤ g2 (x), entonces,
como ∀x, f (x) ≥ 0 se sigue que g1 (x)f (x) ≤ g2 (x)f (x). Por tanto,
∫ ∞ ∫ ∞
E[g1 (X)] = g1 (x)f (x) dx ≤ g2 (x)f (x) dx ≤ E[g2 (X)].
−∞ −∞

Corolario 2.2.2. Sea X una v.a. y g una función tal que g(X) es una
variable real. Suponga que existen constantes reales tal que ∀x, a ≤ g(x) ≤ b,
entonces a ≤ E[g(X)] ≤ b. En general, si para funciones g1 , g2 , g3 tal que ∀x,
g1 (x) ≤ g2 (x) ≤ g3 (x), se sigue que E[g1 (X)] ≤ E[g2 (X)] ≤ E[g3 (X)].
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 33

2.2.1. Medidas caracterizantes de una distribución


En el estudio de la probabilidad, existen varias medidas que caracterizan a
una variable aleatoria X y otras que ayudan a describir el comportamiento de
la v.a. Estas medidas se pueden describir a partir de la la esperanza E[g(X)],
para ciertas formas de la función g : R → R.
Definición 2.2.6. Sea X una v.a. y g : R → R una función real tal que
g(X) es una v.a.
1. Si g(X) = (X − m)n para una constante m y n = 0, 1, 2, 3... entonces
E[g(X)] = E [(X − m)n ] es el momento general de orden n. Si m = 0 se
obtiene µ′n . Si m = E(X) se obtiene µn . Del momento central respecto a
la media se definen varios estadı́sticos de gran importancia en el estudio
de las caracterı́sticas de una v.a., entre estas se tienen:
a) El segundo momento central de X, alrededor de la media o E(X),
se denomina varianza de la v.a X la cual usualmente es denotada
2
por V (X), V ar(X) ó σX . Ası́,
[ ]
V (X) = V ar(X) = σX 2
= E (X − E(X))2 .

b) La raı́z cuadrada de la varianza, denotada por σX es√conocida


2
como la desviación estándar de la v.a. Es decir, σX = σX .
c) Se define el coeficiente de variación de X por
σX
CV (X) = , E(X) ̸= 0.
E(X)
d) El coeficiente de asimetrı́a se define por:
E [(X − E(X))3 ] E [(X − E(X))3 ]
β1 = = 3
.
[E [(X − E(X))2 ]]3/2 σX

e) El coeficiente de curtosis se define por:


E [(X − E(X))4 ] E [(X − E(X))4 ]
β2 = = .
[E [(X − E(X))2 ]]2 4
σX

2. Si g(X) = X(X −1)(X −2)(X −3)...(X −k +1) para k ∈ Z + , entonces


se obtiene el momento factorial de orden k definido por
γk = E[g(X)] = E[X(X − 1)(X − 2)(X − 3)...(X − k + 1)].
34 CAPÍTULO 2. VARIABLES ALEATORIAS

3. Si g(X) = sX , con |s| < 1, entonces H(s) = E[g(X)] = E[sX ] es


llamada función generatriz de probabilidades (f.g.p) de la v.a. X..

4. Si g(X) = etX , con t ∈ R, entonces MX (t) = E[g(X)] = E[etX ] es


llamada función generatriz de momentos (f.g.m.) de la v.a. X.

5. Si g(X) = eitX , con i = −1 la unidad imaginaria y t ∈ R, entonces
∅X (t) = E[g(X)] = E[eitX ] es llamada función caracterı́stica (f.c.) de
la v.a. X.

Teorema 2.2.4. Sea X una v.a cuyo valor esperado existe. Entonces,

V (X) = E(X 2 ) − E 2 (X).

Demostración.

V (X) = E[(X − E(X))2 ] = E[X 2 − 2XE(X) + E 2 (X)]


= E(X 2 ) − 2E(X)E(X) + E 2 (X)
= E(X 2 ) − 2E 2 (X) + E 2 (X)
= E(X 2 ) − E 2 (X).

Teorema 2.2.5. Sea X una v.a. cuyo valor esperado existe y a, b ∈ R cons-
tantes. Entonces

1. V (X) ≥ 0.

2. V (α) = 0.

3. V (aX) = a2 V (X).

4. V (X + b) = V (X).

5. V (X) = 0 si y sólo si P (X = E(X)) = 1.

Demostración. 1. Se obtiene directamente del hecho que:


g(X) = (X − E(X))2 ≥ 0, aplicando el Teorema (2.2.3-(1)).

2. V (a) = E[(a − E(a))2 ] = E[(a − a)2 ] = E(0)2 = E(0) = 0.


2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 35

3.

V (aX) = E[aX − E(aX)]2 = E[aX − aE(X)]2


= a2 E[(X − E(X))2 ] = a2 V (X).

4.

V (X + b) = E[(X + b) − E(X + b)]2 = E[X + b − E(X) − b]2


= E[X − E(X)] = V (X).

5. Si X = E(X), por (1), es claro que V (X) = 0 pues E[X − E(X)]2 =


E[X − X] = E(0) = 0.
La prueba del reciproco se deja como ejercicio.

Definición 2.2.7. (Función Generadora de Momentos (fgm))


Sea X una v.a tal que E(etx ) < ∞ para todo t ∈ (−α, α), con α > 0. Se
define la función generadora de momentos de X, (fgm), denotada por MX (·),
como
MX (t) = E[etX ], con t ∈ (−α, α).

Esto es,

 ∑

 etxk P (X = xk ) si X es una v.a.d. con valores x1 , x2 , ...

MX (t) = ∫k ∞

 etx f (x) dx
 si X es una v.a.c. con fdp f.
−∞

Ejemplo 2.2.15. Sea X una v.a.d. con función de probabilidad


{
e−λ λx!
x
si x = 0, 1, 2, ...
f (x) = P (X = x) =
0 caso contrario
36 CAPÍTULO 2. VARIABLES ALEATORIAS

Entonces,


λxk
MX (t) = etxk e−λ
k=0
xk !


(λet )xk
−λ
=e
k=0
xk !
−λ λet
=e e
−λ+λet
=e
= eλ(e −1) .
t

Ejemplo 2.2.16. Tomemos ahora la función de probabilidad de una v.a.


binomial dada por:
{ (n ) x
x
p (1 − p)n−x si x = 0, 1, 2, ... 0 < p < 1
f (x) = P (X = x) =
0 caso contrario
Entonces,

n ( )
n x
MX (t) = e p (1 − p)n−x
tx

k=0
x
∑n ( )
n
= (pet )x (1 − p)n−x
k=0
x
= (pet + (1 − p))n
= (pet + q) donde q = 1 − p.
Ejemplo 2.2.17. Sea X una v.a.c. con fdp
{ −λx
λe si x > 0
f (x) =
0 caso contrario.
Entonces,
∫ ∞ ∫ ∞
−λx
MX (t) = tx
e λe dx = λ e−(λ−t)x dx
0 0
λ −(λ−t)x ∞
=− e |0 , para t < λ
λ−t
( )−1
λ 1 t
= = = 1− .
λ−t 1 − λt λ
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 37

Teorema 2.2.6. Suponga que la función generadora de momentos de X


existe para |t| < t0 , t > 0. Entonces, E(X n ) existe para n = 1, 2, ... y se tiene
que
(n) ∂ n MX (t)
E(X n ) = MX (t) |t=0 = |t=0
∂tn
Demostración. Por expansión en serie de Taylor se tiene que:
(tx)2 (tx)3 (tx)n
etx = 1 + tx + + + ... + + ...
2! 3! n!
Entonces, aplicando esperanza obtenemos
E(X 2 ) E(X 3 ) E(X n )
E[etX ] = MX (t) = 1 + tE(X) + t2 + t3 + ... + tn ,
2! 3! n!
el cual es un polinomio en t, luego, derivando con respecto a t se obtiene
∂MX (t) E(X 2 ) E(X 3 ) E(X n )
= E(X) + 2t + 3t2 + ... + ntn−1
∂t 2! 3! n!
y tomando t = 0 se llega a
∂MX (t)
|t=0 = E(X).
∂t
Ahora, la segunda derivada con respecto a t es
∂ 2 MX (t) 2 6 n(n − 1) n−2
2
= E(X 2 ) + tE(X 3 ) + ... + t E(X n ) + ...,
∂t 2! 3! n!
entonces,
∂ 2 MX (t)
2
|t=0 = E(X 2 )
∂t
Siguiendo sucesivamente este procedimiento, se obtiene que la n−énesima
derivada con respecto a t es
∂ n Mx (t) n(n − 1)(n − 2)..,2,1 n (n + 2)(n + 1)n(n − 1)..,3 2
= E(x )+...+ t E(xn+2 )+...
∂tn n! (n + 2)!
Y tomando t = 0, resulta
∂ n MX (t)
|t=0 = E(X n ).
∂tn
38 CAPÍTULO 2. VARIABLES ALEATORIAS

Ejemplo 2.2.18. Para la distribución


{ −λ λx
e x! si x = 0, 1, 2, ...
f (x) = P (X = x) =
0 caso contrario

Para λ > 0, se tiene



∞ −λ x ∑∞ t x ∑∞
(λet )x
tx e λ −λ (λe ) −λ
MX (t) = e = e =e
x=0
x! x=0
x! x=0
x!
−λ λet
= eλ(e −1) ,
t
=e e

entonces,
∂MX (t)
= eλ(e −1) λet = λeλ(e −1)+t .
t t

∂t
Ası́,
∂MX (t)
|t=0 = λeλ(e −1)+0 = λe0 = λ.
0
→ E(X) =
∂t
Ahora,

∂ 2 MX (t)
|t=0 = λeλ(e −1)+0 (λe0 + 1) = λ(λ + 1) = λ2 + λ
0
E(X 2 ) = 2
∂t
y asi,
V ar(X) = E(X 2 ) − E 2 (X) = λ2 + λ − λ2 = λ.
Teorema 2.2.7. Sean X y Y v.a cuyas funciones generadoras de momentos
existen. Si
MX (t) = MY (t), para todo t.
Entonces X y Y tienen la misma distribución
La demostración del anterior Teorema se encuentra fuera del alcance de este
libro, ası́ que en lo que sigue nos conformaremos con tomar este resultado
como cierto.
Definición 2.2.8. Sea X una v.a., la función caracterı́stica de X es la fun-
ción ∅X : R → C definida por:

∅X (t) := E[eitX ] = E[cos(tX)] + iE[sen(tX)],



donde i = −1 es la unidad imaginaria.
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 39

Ejemplo 2.2.19. Para X con función de probabilidad


{ −λ λx
e x! si λ > 0, x = 0, 1, 2, ...
f (x) =
0 caso contrario.

Entonces,


λx
∅X (t) = E[eitX ] = eitx e−λ
x=0
x!


(λeit )x
−λ
=e
x=0
x!
= e−λ eλe
it

it −1)
= eλ(e .

Ejemplo 2.2.20. Sea X una v.a.c. con fdp


{ −λx
λe si x > 0
f (x) =
0 caso contrario.

Entonces,
∫ ∞ ∫ ∞
−λx
∅X (t) = itx
e λe dx = λ e−(λ−it)x dx
0 0
λ λ
=− e−(λ−it)x |∞
0 =
λ − it λ − it
( )−1
1 it
= it = 1− .
1− λ λ

Teorema 2.2.8. Sea X una v.a. real, entonces ∅X (t) existe para todo t ∈ R.
Demostración. Debemos demostrar que ∅X (t) = E[eitX ] < ∞.
∫ ∫ √
→ ||e ||f (x) dx < ∞ =
itx
cos2 (tX) + sen2 (tx)f (x) dx

= (1)f (x) dx

= 1 < ∞.
40 CAPÍTULO 2. VARIABLES ALEATORIAS

Observación 2.2.3. Note que ∅X (t) = E[eitX ] = E[e(it)X ] = MX (it) con la


diferencia que ∅X (t) siempre existe.

Teorema 2.2.9. Sea X una v.a., entonces

1. ∅X (0) = 1.

2. |∅X (t)| ≤ 1 para todo t.

3. para a y b constantes ∅aX+b (t) = eitb ∅X (at).

4. ∅X (t) genera momentos, esto es,

∂ n ∅X (t)
|t=0 = in E(X n ); n = 1, 2, ... si E[|X|n ] < ∞.
∂tn

5. ∅X (t) es uniformemente continua.

6. ∅X (t) es definida positiva.

Demostración. 1. ∅X (0) = E(eitX )|t=0 = E(ei0t ) = E(1) = 1.

2.

|∅X (t)| = |E(cos(tX)) + isen(tX)|



= E 2 (cos(tX)) + E 2 (sen(tX))

≤ E(cos2 (tX)) + E(sen2 (tX)) (∗)

≤ E(cos2 (tX) + sen2 (tX))

≤ 1
= 1.

En el paso (*) se uso la desigualdad de Jensen (g(E(X)) ≤ E(g(X))).

3.

∅aX+b (t) = E(eit(aX+b) ) = E(eiatX+ibt )


= eibt E(ei(at)X )
= eibt ∅X (at).
2.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 41

4. Como E[|X|n ] < ∞ y n es finito, entonces se puede invertir derivada y


esperanza. Luego,

( n )
∂ n ∅X (t) ∂n itX ∂ itX
= n E(e ) = E e = E(in xn eitX ),
∂tn ∂t ∂tn
∂ n ∅X (t)
→ |t=0 = E(in X n ) = in E(X n ).
∂tn

5. Para verificar que ∅X (x) es uniformemente continua, observe que:

|∅X (t + h) − ∅X (t)| = |E(ei(t+h)x − eitx )|


≤ E(|ei(t+h)x − eitx |)
≤ E(|eitx (eihx − 1)|)
= E(|eitx ||eihx − 1|)
≤ E(|eihx − 1|), puesto que |eitx | ≤ 1.

Entonces,

lı́m |∅X (t + h) − ∅X (t)| ≤ lı́m E(|eihx − 1|)


h→0 h→0
= E[lı́m |eihx − 1|] = 0
h→0

Ası́, lı́m ∅X (h + t) = ∅X (t) y como la desigualdad de arriba no depen-


h→0
de de t, entonces la continuidad es uniforme.
42 CAPÍTULO 2. VARIABLES ALEATORIAS

6. Sea n ∈ N, entonces

n ∑
n ∑
n ∑
n
∅X (tj − tk )zj z k = E(eix(tj −tk ) )zj z k
j=1 k=1 j=1 k=1

n ∑
n
= E(zj eitj x z k e−itk x )
j=1 k=1
( n n )
∑∑
=E zj eitj x zk eitk x
j=1 k=1
( n )
∑ ∑
n
=E zj eitj x zk eitk x
j=1 k=1
 2 
∑n

= E  zj eitj x  ≥ 0.

j=1

Por lo tanto, ∅X es definida positiva.

Teorema 2.2.10. Si X y Y son variables aleatorias reales y ∅X (t) = ∅Y (t)


para todo t, entonces X y Y tienen la misma distribución.

También podría gustarte