Está en la página 1de 17

Tema 3

Variables Aleatorias
Distribuciones de Probabilidad

Índice
1. Variables Aleatorias. 1

2. Variables Aleatorias Discretas 3

3. Principales distribuciones discretas 5


3.1. La distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.2. La distribución de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.3. La distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.4. La distribución Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.5. La distribución de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4. Variables Aleatorias Continuas. 9

5. Principales distribuciones continuas 11


5.1. La distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.2. La distribucion Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.3. La distribución Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1. Variables Aleatorias.
Los resultados de los experimentos aleatorios pueden ser cuantitativos (el lanzamiento de un dado) y
cualitativos (el lanzamiento de una moneda es ”cara” o ”cruz”). En ocasiones, cuando los resultados son
cualitativos, puede interesarnos más unas cantidades asociadas a los resultados que los resultados mismos.
Por ejemplo, al lanzar dos veces una moneda correcta, podemos estar interesados por el número de caras
obtenidas. El número de caras obtenidas es una variable, y como su valor depende del azar, se denomina
variable aleatoria.
Consideremos el caso de una persona que se presta a participar en el siguiente juego: Se lanzará tres veces
una moneda. Si sale cara en la primera tirada, cobrará 3 e ; si la primera cara sale en la segunda tirada,
cobrará 1,2 e ; perderá 1,2 e si la primera cara sale en la tercera tirada, y perderá 3 e si siempre sale cruz.
En este ejemplo, dicha persona está interesada en el beneficio (o pérdida) que le reportará el resultado,
más que en el resultado mismo. Es decir, está interesada en la variable aleatoria ”beneficio”. Surgirán
entonces preguntas como las siguientes: ¿qué probabilidad tiene de ganar 3 e ?, ¿qué probabilidad tiene
de no perder dinero?, ¿es ”justo” el juego en el que participa?.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 2

Ası́ pues, una variable aleatoria asocia a cada resultado de un experimento aleatorio un número real.
Cuando en el último ejemplo, nos plantemos calcular la probabilidad de ganar 3 e en el juego, podemos
razonar de la siguiente forma: El espacio muestral del experimento se puede definir por el conjunto
Ω = {ccc, ccx, cxc, xcc, cxx, xcx, xxc, xxx},
en el que consideramos equiprobables los posibles resultados obtenidos, de manera que la probabilidad
de un suceso cualquiera está determinada según la definición clásica. Como ganar 3 e en el juego supone
que ocurra el suceso
A = {ccc, ccx, cxc, cxx},
entonces diremos que la probabilidad de ganar 3 e es la probabilidad del suceso A, esto es, 0, 5.
De esta manera, teniendo definida una función de probabilidad para un experimento aleatorio, y con-
siderando asociada a él una variable aleatoria, podemos hablar de la probabilidad de los sucesos de la
variable aleatoria. En la siguiente tabla se muestran los valores de la variable de este ejemplo con sus
correspondientes probabilidades.

Resultado Valor de la variable aleatoria Probabilidad


ccc, ccx, cxc, cxx 3 4/8
xcc, xcx 1,2 2/8
xxc −1,2 1/8
xxx −3 1/8

Consideremos otro caso de mucha importancia en la ciencia y en la técnica: Cualquier medida de una
magnitud fı́sica está sujeta a un error cuyo valor es, dentro de ciertos márgenes, imprevisible (si cono-
ciéramos el error, bastarı́a con sumarlo o restarlo a la medida y obtendrı́amos siempre el valor exacto de
la magnitud). Por eso, un proceso de medida se puede considerar como un experimento aleatorio, y la
propia medida como una variable aleatoria.
A continuación introducimos las primeras definiciones.
Definición 1.1 Sea Ω un espacio muestral sobre el que hay definida una función de probabilidad. Toda
función X : Ω −→ R, que a cada resultado de Ω le asocia un número real, se dice que es una variable
aleatoria.
Definición 1.2 Se dice que una variable aleatoria es discreta cuando el conjunto de valores que puede
tomar es finito o infinito numerable (esto es, los valores que toma pueden disponerse en una secuencia
que corresponde con los enteros positivos).
Definición 1.3 Se dice que una variable aleatoria es continua cuando el conjunto de valores que puede
tomar es un intervalo de números reales.
Ejemplos:
1.– Son variables aleatorias discretas las que representan ”el número de clientes que llega a una tienda en
un periodo de una hora”, ”el número de llamadas telefónicas que recibe un commutador en un intervalo
de cinco minutos”...
2.– Son variables aleatorias continuas las que representan ”la magnitud de la desviación, a partir de un
valor prescrito del peso neto de ciertos recipientes que se llenan mediante una máquina”, ”la duración en
minutos de una llamada de negocios”...
Hablando en términos generales, cuando una variable aleatoria es una magnitud fı́sica (un tiempo, un
peso, una longitud, una temperatura, una resistencia eléctrica, etc.) es una variable aleatoria continua, y
si es un número entero (número de caras al lanzar tres monedas, número de aciertos en un test, número
de piezas defectuosas en una partida, etc.), es una variable aleatoria discreta.
Cuando los resultados de un experimento aleatorio son de tipo cuantitativo, para su estudio siempre se
puede considerar la variable aleatoria ”función identidad”. Esto es, la que a cada resultado le asocia su
propio valor.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 3

2. Variables Aleatorias Discretas


Sean Ω un espacio muestral en el que hay definida una función de probabilidad P , y X : Ω −→ R una
variable aleatoria discreta que toma los valores x1 , x2 , . . ..

Definición 2.1 Se denomina función de probabilidad de la variable aleatoria discreta X, a la función


f : X(Ω) −→ R tal que f (x) es la probabilidad de que dicha variable aleatoria tome el valor x

f (x) = P (X = x) = P {ω ∈ Ω : X(ω) = x} .

A partir de esta definición, es inmediato comprobar que toda función de probabilidad tiene las siguientes
propiedades:
1. Para todo valor x de la variable se tiene 0 6 f (x) 6 1.
X
2. f (x) = 1.
x∈X(Ω)

Definición 2.2 Se llama función de probabilidad acumulada o función de distribución de la


variable aleatoria discreta X a la función

F : R −→ R tal que F (x) = P (X 6 x) = P {ω ∈ Ω : X(ω) 6 x} .

La función de distribución tiene las siguientes propiedades:


1. F (x) > 0 para todo x ∈ R.
2. Es creciente: x < y =⇒ F (x) 6 F (y).
3. Es continua por la derecha en cada punto.
4. lı́m F (x) = 0 y lı́m F (x) = 1.
x→−∞ x→∞

Observemos que conociendo cualquiera de estas dos funciones asociadas a la variable aleatoria se puede
obtener la otra: X
F (x) = f (xi ), f (xi ) = F (xi ) − F (xi−1 ),
xi 6x

por lo que podemos decir que cualquiera de estas funciones permite determinar la probabilidad de cual-
quier suceso relativo a la variable aleatoria X.
El conjunto formado por una variable aleatoria, y sus funciones de probabilidad y distribución se denomina
distribución de probabilidad.
Ejemplo: Una moneda está cargada y la probabilidad de obtener cara es 3/4. Vamos a hallar la función
de probabilidad y la función de distribución de la variable aleatoria: número de caras menos número de
cruces que se obtienen al realizar 3 tiradas de dicha moneda.
Como el espacio muestral asociado al experimento es

Ω = {ccc, ccx, cxc, xcc, cxx, xcx, xxc, xxx},

entonces la variable aleatoria X puede tomar los valores −3, −1, 1, 3. En la siguiente tabla damos su
función de probabilidad.

Resultados Valores de la variable X f (x) = P (X = x)


xxx −3 (1/4)3
cxx, xcx, xxc −1 32 (1/4)3
ccx, cxc, xcc 1 3 32 /43
3
ccc 3 (3/4)
Tema 3. Variables aleatorias. Distribuciones de probabilidad 4

La función de distribución F es la siguiente:




 0 si x < −3,
 1/64 si −3 6 x < −1,


F (x) = 10/64 si −1 6 x < 1,
37/64 si 1 6 x < 3,




1 si x > 3.

Definición 2.3 Se llama valor esperado o media de la variable aleatoria discreta X, que tiene función
de probabilidad f, al número determinado por la siguiente expresión
X
µ = E(X) = xf (x).
x∈X(Ω)

El sı́mbolo debajo del sumatorio, indica que la suma está extendida al conjunto de valores x que toma
la variable aleatoria, es decir X(Ω). Cuando este conjunto es infinito se deberá verificar que la serie
correspondiente es absolutamente convergente, cosa que sucede casi siempre en las aplicaciones. En los
casos que se presentarán en lo sucesivo, siempre ocurre.

Definición 2.4 Se llama varianza de la variable aleatoria discreta X, que tiene función de probabilidad
f, al número dado por la expresión
X
σ 2 = V ar(X) = (x − µ)2 f (x).
x∈X(Ω)

La raı́z cuadrada positiva, σ, de la varianza de X se denomina desviación tı́pica de X y se designa


σ = DT (X).

El concepto de media de una variable aleatoria está ligado en sus orı́genes a los juegos de azar, para los
que la media se puede interpretar como la cantidad de dinero promedio que el jugador puede ganar o
perder después de un número muy grandes de apuestas. En general, la media se puede considerar como
una cantidad numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse. Por
otro lado, la varianza es una medida de la dispersión o de la variabilidad que presentan dichos valores.
El siguiente ejemplo puede servir de comprobación de los comentarios anteriores.
Ejemplo: Sean X, Y dos variables aleatorias cuyas funciones de probabilidad se describen en las siguientes
tablas:

x 1 2 3 4 y −1 0 4 5 6
f (x) 1/8 2/8 3/8 2/8 f (y) 1/8 2/8 3/8 1/8 1/8

entonces se obtienen las siguientes medias y varianzas:


       
1 2 3 2
E(X) =1 +2 +3 +4 = 2, 75,
8 8 8 8
         
1 2 3 1 1
E(Y ) = − 1 +0 +4 +5 +6 = 2, 75,
8 8 8 8 8
2 1 2 3 2
V ar(X) = (1 − 2, 75) + (2 − 2, 75)2 + (3 − 2, 75)2 + (4 − 2, 75)2 = 0, 9375,
8 8 8 8
1 2 3 1 1
V ar(Y ) =(−1 − 2, 75)2 + (0 − 2, 75)2 + (4 − 2, 75)2 + (5 − 2, 75)2 + (6 − 2, 75)2 = 6, 1875.
8 8 8 8 8
Debe observarse también en este ejemplo, que la media de una variable aleatoria no tiene que coincidir
con ninguno de los valores que pueda tomar esta variable.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 5

Se presenta con cierta frecuencia la necesidad de calcular la media de una variable aleatoria Y cuya
función de probabilidad fY no se conoce, pero que está relacionada a través de una función dada h, con
otra variable aleatoria X cuya función de probabilidad fX sı́ se conoce. Aunque es posible en tales casos
hallar fY en términos de h y de fX , suele resultar trabajoso. Es más sencillo usar fX sin calcular fY . La
forma en que se lleva esto a cabo, viene dada en la siguiente proposición:
Proposición 2.1 Sean X e Y variables aleatorias definidas sobre el mismo espacio muestral Ω. La
función de probabilidad de X es fX , y h : X(Ω) −→ R donde h X(Ω) = Y (Ω) es una función. Entonces
X
E(Y ) = h(x)fX (x).
x∈X(Ω)

Nota: Una consecuencia de esta proposición y deX


la definición de varianza, es que ésta puede ser consi-
(x − µ)2 f (x) = E (x − µ)2 .

derada como un valor medio, es decir V ar(X) =
x∈X(Ω)

Otras propiedades importantes de la media y la varianza de una variable aleatoria, se exponen en la


siguiente Proposición.

Proposición 2.2 Siendo X una variable aleatoria discreta, y a, b ∈ R, se tiene:


a) E(aX + b) = aE(X) + b,
b) V ar(aX + b) = a2 V ar(X),
 2
c) V ar(X) = E X 2 − E(X) .

3. Principales distribuciones discretas


3.1. La distribución Uniforme
La distribución de probabilidad discreta más sencilla es aquella en la que variable aleatoria tiene la misma
probabilidad de tomar cualquiera de sus valores. Una distribución ası́ se llama uniforme. Es evidente que
una variable aleatoria discreta con distribución uniforme sólo puede tomar un número finito de valores
distintos, pues en caso contrario, la probabilidad de que la variable aleatoria tomara cualquiera de sus
valores (suceso seguro) serı́a infinita, lo que es absurdo. Sea pues

X(Ω) = x1 , x2 , . . . , xk ,

el conjunto de valores distintos (que supondremos en orden creciente, es decir, x1 < x2 < . . . < xk ), de
una variable aleatoria X con distribución uniforme, entonces, la función de probabilidad de X es
1
f (xi ; k) = ∀ xi ∈ X(Ω),
k
y la función de distribución

 0 si x < x1 ,
F (x; k) = i/k si xi 6 x < xi+1 , i = 1, 2, . . . , k − 1.
1 si xk 6 x,

El número k, caracterı́stico de la distribución, es el parámetro de la misma.


Teorema 3.1 La media y la varianza de una variable aleatoria discreta con distribución uniforme son
k k
1X 1X
µ= xi , σ2 = (xi − µ)2 .
k i=1 k i=1
Tema 3. Variables aleatorias. Distribuciones de probabilidad 6

3.2. La distribución de Bernoulli


Un experimento aleatorio que sólo tenga dos resultados posibles, a los que llamaremos éxito (E) y fracaso
(F ), se llama experimento o prueba de Bernoulli. Si la probabilidad de éxito es P (E) = p, la de
fracaso será P (F ) = 1 − p. Podemos definir ahora una variable aleatoria X que sólo toma dos valores, 1
y 0 con probabilidades respectivas p y 1 − p, Tal variable se dice que tiene distribución de Bernoulli
de parámetro p. Las funciones de probabilidad y distribución son

 0 si x < 0,
x 0 1
F (x) = 1−p si 0 6 x < 1,
f (x) 1 − p p
1 si 1 6 x.

Es inmediato comprobar que la media y la varianza de X son

E(X) = p, V ar(X) = p(1 − p).

Nota: 1.– En lugar de 1 − p, suele escribirse q.


2.– No es imprescindible definir una variable aleatoria de Bernoulli como lo hemos hecho, pueden asignárse-
le otros valores distintos de 0 y 1, aunque sea esta la elección más corriente. Naturalmente si se hace de
otra forma cambiarán la media y la varianza.

3.3. La distribución Binomial


Durante mucho tiempo se han estudiado variables aleatorias de interés en las aplicaciones, pudiéndose
comprobar que sus correspondientes distribuciones de probabilidad se ajustan a unos pocos modelos. Uno
de estos modelos, correspondiente a una variable aleatoria discreta, es el que se conoce como distribución
binomial.
Nos encontramos con una distribución binomial, cuando estamos en las condiciones siguientes:
1. Consideramos un experimento en el que cada realización consiste en n pruebas de Ber-
noulli sucesivas.
2. La probabilidad de éxito p, es la misma en cada prueba.
3. Las pruebas son independientes.
Un experimento de esta clase se llama binomial y asociado al mismo definimos la variable aleatoria:

X = número de éxitos en las n pruebas,

y decimos que X tiene distribución binomial. Cada resultado del experimento puede describirse como
una sucesión de x exitos y n − x fracasos, donde x puede tomar los valores 0, 1, 2, 3, . . . , n. Por lo tanto,
la variable aleatoria puede tomar los valores 0, 1, 2, 3, . . . , n.
Para determinar la probabilidad de que la variable aleatoria tome el valor x, bastará
 sumar
 las proba-
n
bilidades de todos los resultados que tienen exactamente x éxitos, que son en total elementos del
x
espacio muestral. Como en las condiciones dadas, se tiene que
x n−x
z }| {z }| { h ih i
P E ∩ E ∩ . . . ∩ E F ∩ F ∩ . . . ∩ F = P (E)P (E) . . . P (E) P (F )P (F ) . . . P (F ) = px (1 − p)n−x ,

ya que los ensayos son independientes, entonces la función de probabilidad binomial es la siguiente:
 
n x n−x
f (x) = P (X = x) = p (1 − p) , x = 0, 1, 2, . . . , n.
x
Nótese que la distribución anterior queda determinada por los números n y p, que son los parámetros
de la distribución. Suele utilizarse la notación b(x; n, p) en lugar de f (x).
Tema 3. Variables aleatorias. Distribuciones de probabilidad 7

n
Obsérvese además que los valores de f (x) son los sumandos del desarrollo del binomio p + (1 − p) , y
es esto lo que justifica el nombre de dicha distribución.
Ejemplo: Consideremos la variable aleatoria ”número de veces que se obtiene 3 al lanzar cinco veces un
dado correcto”. La distribución de probabilidad de esta variable aleatoria es una binomial de parámetros
n = 5, p = 1/6, y de ahı́ que su función de probabilidad es la que se muestra en la siguiente tabla:

x 0 1 2 3 4 5
 5  4  2  3  3  2  4  5
5 1 5 1 5 1 5 1 5 1
f (x)
6 6 6 6 6 6 6 6 6 6

Teorema 3.2 La media y la varianza de una variable aleatoria con distribución binomial b(x; n, p) son
µ = np y σ 2 = np(1 − p).

La distribución que sigue está estrechamente relacionada con la binomial, y algunas de las ideas expuestas
antes son de aplicación ahora.

3.4. La distribución Geométrica


En el mismo experimento descrito para la distribución binomial, consideremos ahora la variable aleatoria
X = número de ensayos que hay que realizar hasta que se produce un éxito. La distribución de probabilidad
de esta variable aleatoria, se llama distribución geométrica de parámetro p. Para hallar su función de
probabilidad, consideremos como antes los dos sucesos F = f racaso y E = éxito, entonces
x−1
z }| { 
g(x; p) = P (X = x) = P F ∩ F ∩ . . . ∩ F ∩E =
h i
= P (F )P (F ) . . . P (F ) P (E) = p(1 − p)x−1 x = 1, 2, 3, . . .

El nombre que se le da a esta distribución se debe al hecho de que los valores de la función de probabilidad
constituyen una progresión geométrica de razón 1 − p. Por lo tanto, si x ∈ R pero x > 1, la función de
distribución será:

G(x; p) = P (X 6 x) = P (X = 1) + P (X = 2) + P (X = 3) + . . . + P (X = [x]) =
p(1 − p)[x]−1 (1 − p) − p
= p + p(1 − p) + p(1 − p)2 + . . . + p(1 − p)[x]−1 = = 1 − (1 − p)[x] ,
1−p−1
donde [x] es la parte entera de x. En el otro caso, x < 1, tenemos G(x; p) = 0, de modo que la función de
distribución de una variable aleatoria geométrica es

0 si x < 1,
G(x; p) = [x]
1 − (1 − p) si 1 6 x.

En cuanto a la media y la varianza, tenemos el siguiente teorema:


1
Teorema 3.3 La media y la varianza de una variable aleatoria con distribución geométrica son µ =
p
1−p
y σ2 = respectivamente.
p2
La distribución geométrica tiene una propiedad conocida como carencia de memoria que viene expresada
en el siguiente teorema:
Teorema 3.4 (Carencia de Memoria). Sea X una variable aleatoria discreta con distribución geo-
métrica. Si x, y ∈ Z+ , entonces se verifican
Tema 3. Variables aleatorias. Distribuciones de probabilidad 8

a) P (X > x + y | X > x) = P (X > x + y | X > x) = P (X > y),


b) P (X > x + y | X > x) = P (X > y),
c) P (X > x + y | X > x) = P (X > y + 1).
Puede demostrarse que la única distribución de probabilidad discreta que tiene la propiedad de carencia
de memoria es la distribución geométrica.

3.5. La distribución de Poisson.


Hay muchas situaciones de interés en las cuales se van produciendo de manera aleatoria eventos a lo
largo del tiempo o se presentan en una cierta región. Por ejemplo en un cruce de carreteras, van llegando
vehı́culos de manera aleatoria a lo largo del tiempo. Cada llegada es un evento. Asimismo, si examinamos
un cable muy largo, van apareciendo defectos de fabricación de manera aleatoria. Cada defecto es un
evento. Cuando se prepara con fines de investigación un substrato para el cultivo de bacterias, se observa
que éstas aparecen de manera aleatoria sobre la superficie del substrato. Cada bacteria es un evento.
Estas situaciones corresponden a lo que se denomina proceso de Poisson, que pasamos a definir.
Definición 3.1 Un proceso en el que van ocurriendo de manera aleatoria eventos a lo largo del tiempo
o que aparecen en una determinada región, se llama proceso de Poisson si cumple:
1. El número de eventos que ocurren en el intervalo de tiempo o la región especificada, es independiente
del número que ocurren en cualquier otro intervalo o región.
2. La probabilidad de que sólo un evento ocurra durante un intervalo muy corto de tiempo o en una
región muy pequeña, es proporcional a la magnitud del intervalo de tiempo o del tamaño de la región,
y no depende del número de eventos fuera.
3. La probabilidad de que ocurra más de un evento en un pequeño intervalo de tiempo o de que caiga
en una pequeña región es despreciable.
Podemos considerar un proceso de Poisson como un experimento aleatorio al que se asocia la siguiente
variable aleatoria:
X = número de eventos que ocurren durante un intervalo de tiempo dado o en una región especificada.
Los valores que puede tomar esta variable son 0, 1, 2, 3, . . . y su distribución de probabilidad se llama
distribución de Poisson.
Como ejemplos de variables aleatorias con distribución de Poisson se pueden citar los siguientes: número
de clientes que llegan a una cola en cada minuto, número de vehı́culos que pasan por un punto de una
carretera cada hora, número de erratas por página en un libro de muchas páginas, número de defectos
superficiales en cada tablero chapado producido por una industria de laminado, número de burbujas por
centı́metro cúbico en un bloque de vidrio, número de partı́culas emitidas por segundo por una fuente
radiactiva. . .
Observaciones: 1.– Aunque la palabra evento es sinónima de suceso, reservaremos la primera para
denominar, como acabamos de hacer, cada uno de los acontecimientos que se producen a lo largo de un
proceso de Poisson.
2.– Un proceso de Poisson se produce a lo largo del tiempo o en una región determinada. Para no tener
que estar haciendo continuamente esta distinción, en lo sucesivo supondremos que todos los procesos de
Poisson se producen a lo largo del tiempo.
La función de probabilidad de una variable aleatoria de Poisson es
e−λ λx
P(x; λ) = , x = 0, 1, 2, . . .
x!
El parámetro λ es el número medio de eventos que ocurren en un intervalo de tiempo de duración t, como
queda de manifiesto en el siguiente teorema:
Tema 3. Variables aleatorias. Distribuciones de probabilidad 9

Teorema 3.5 La media y la varianza de una distribución de Poisson de parámetro λ coinciden con el
valor de dicho parámetro: µ = σ 2 = λ.
Veremos a continuación que la distribución de Poisson ofrece una aproximación a la función de probabi-
lidad binomial b(x; n, p) cuando n es grande y p es pequeño, de manera que el número medio de éxitos,
np, permanezca constante.
Cuando el valor de n es grande y el de p es pequeño, los valores de la función de probabilidad binomial
son tediosos de calcular.
λ
Llamemos λ = np (constante), entonces p = . Esto significa que la probabilidad del suceso E (éxito) es
n
tanto más pequeña cuanto mayor es n. Si escribimos la función de probabilidad de Bernoulli:

     x  n−x
n x 1−x n λ λ
p (1 − p) = 1− =
x x n n
 x  n−x
n(n − 1)(n − 2) . . . (n − (x − 1)) λ λ
= 1− =
x! n n
 n x     −x
λ λ 1 2 λ
= 1− 1− 1− ... 1 − .
n x! n n n

Si tomamos ahora lı́mites para n → ∞, tenemos que el primer factor tiende a e−λ , el segundo es constante
y los demás tienden a 1 con lo cual:
λx
 
n x
lı́m p (1 − p)1−x = e−λ .
n→∞ x x!
La aproximación se puede considerar que es bastante buena cuando se verifican las siguientes condiciones:
n > 25, p < 0,1, np = λ 6 5.
Por último, podemos observar que:
∞ ∞
X λx X λx
e−λ = e−λ = e−λ eλ = 1.
x=0
x! x=0
x!

4. Variables Aleatorias Continuas.


En el caso de una variable aleatoria discreta, podemos asignar probabilidad positiva a cada uno de los
valores de dicha variable, siempre que la suma de todas ellas sea uno aún cuando el conjunto de sus
posibles valores sea infinito numerable. Para el caso de una variable aleatoria continua esto no es posible.
Ilustramos esta idea mediante un ejemplo: Consideremos la elección de un número, al azar, del intervalo
[0,3]. El espacio muestral asociado a este experimento es [0,3]. Si consideramos como variable aleatoria X
la función identidad, entonces parece lógico pensar que la probabilidad de elegir al azar el número π − 3
sea cero, por lo que igualmente, debido a que estamos considerando todos los resultados posibles como
equiprobables, se debe tener que la probabilidad de elegir cualquier número de dicho intervalo es cero.
Luego dirı́amos que P (X = x) = 0, ∀ x ∈ [0, 3]. Sin embargo, es lógico convenir cuál es el valor de las
siguientes probabilidades:

P (X 6 3) = 1, P (X 6 2) = 2/3, P (X 6 1) = 1/3,

y en general que 
 0 si x < 0,
P (X 6 x) = x/3 si 0 6 x 6 3,
1 si 3 < x,

expresión que nos determina, análogamente al caso discreto, la función de probabilidad acumulativa o
función de distribución de dicha variable aleatoria continua.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 10

Ası́ pues, los comentarios anteriores nos indican que para las variables aleatorias continuas, aunque pierde
interés la noción de función de probabilidad que utilizamos en el caso discreto, aún podemos hablar de
la función de distribución, manteniendo la misma definición:
Definición 4.1 Se llama función de distribución de la variable aleatoria continua X a la función

F : R −→ R tal que F (x) = P (X 6 x).

La función de distribución de una variable aleatoria continua verifica la propiedad siguiente:

Teorema 4.1 La función de distribución de una variable aleatoria continua X, es una función continua
en R, si y sólo si P (X = x) = 0 ∀ x ∈ R.

Es importante distinguir entre las dos acepciones de la palabra continua que aparecen en este teorema.
Decir que la variable aleatoria X es continua, es lo mismo que decir que su recorrido X(Ω) es no numerable.
Decir que la función de distribución F es continua en R, significa que lı́m F (x) = F (x0 ) para todo x0 ∈ R.
x→x0
Como puede verse, no tiene nada que ver una acepción con la otra.
En todos los casos que trataremos en lo sucesivo, la función de distribución puede representarse por la
integral de otra función, y en tal caso, tenemos la siguiente definición:
Definición 4.2 Sea X una variable aleatoria continua con función de distribución F . Una función no
negativa f : (−∞, x) −→ R ∀ x ∈ R se llama función de densidad de probabilidad de X si es
integrable en (−∞, x) para todo x ∈ R y verifica
Z x
F (x) = f (t) dt.
−∞

Nota: A diferencia de la función de probabilidad de las variables discretas, la función de densidad de


probabilidad no es una probabilidad. Sin embargo, la función de distribución sı́ es una probabilidad
tanto en el caso discreto como en el continuo.
A la vista de esta definición, tenemos
Z ∞
f (t)dt = P (X 6 ∞) = 1. (1)
−∞

Obsérvese además, que si una variable aleatoria tiene función de densidad, entonces su función de distri-
bución es continua, y por tanto P (X = x) = 0 ∀ x ∈ R como se ha visto antes, luego:
Z b
P (X 6 b) = P (X < b) + P (X = b) = P (X < b) = F (b) = f (t) dt,
−∞
Z a Z −∞
P (a 6 X) = 1 − P (X < a) = 1 − P (X 6 a) = 1 − F (a) = 1 − f (t) dt = f (t) dt.
−∞ a

Por otro lado, como los sucesos a 6 X 6 b, X < a, b < X son mutuamente excluyentes y su unión es el
suceso seguro, tendremos:

P (a 6 X 6 b) + P (X < a) + P (b < X) = 1,

luego despejando:

P (a 6 X 6 b) = 1 − P (X < a) − P (b < X) = 1 − P (X < a) − [1 − P (X 6 b)] =


Z b Z a Z b
= P (X 6 b) − P (X < a) = F (b) − F (a) = f (t) dt − f (t) dt = f (t) dt.
−∞ −∞ a

La función de distribución de una variable aleatoria discreta tiene las siguientes propiedades análogas a
las de una variable discreta:
Tema 3. Variables aleatorias. Distribuciones de probabilidad 11

1. F (x) > 0 para todo x ∈ R.


2. Es creciente: x < y =⇒ F (x) 6 F (y).
3. Es continua en cada punto.
4. lı́m F (x) = 0 y lı́m F (x) = 1.
x→−∞ x→∞

Además, derivando en la igualdad que define la función de densidad de probabilidad (definición (4.2)),
tenemos: Z x
0 d
F (x) = f (t) dt = f (x). (2)
dx −∞
Tal como hemos señalado antes, en lo sucesivo sólo consideraremos distribuciones que posean función de
densidad de probabilidad. Por otra parte, al igual que en las variables aleatorias discretas, al conjunto
formado por una variable aleatoria continua, y sus funciones de densidad de probabilidad y distribución
se denomina distribución de probabilidad.

Definición 4.3 Se llama valor esperado, media o esperanza matemática de la variable aleatoria
continua X, que tiene función de densidad de probabilidad f, al número determinado por la siguiente
expresión Z ∞
µ = E(X) = xf (x) dx.
−∞

Definición 4.4 Se llama varianza de la variable aleatoria discreta X, que tiene función de densidad
de probabilidad f, al número dado por la expresión
Z ∞
2
σ = V ar(X) = (x − µ)2 f (x) dx.
−∞

Definición 4.5 Se llama desviación tı́pica de la variable aleatoria X, a la raı́z cuadrada positiva, σ,
de la varianza de X, y se designa por σ = DT (X).

Nota: Obsérvese que si la variable aleatoria es una variable dimensional (una longitud, una temperatura
etc.), la media y la desviación tı́pica tienen las mismas dimensiones que la variable aleatoria. No ası́ la
varianza cuyas dimensiones son el cuadrado de la variable aleatoria.
La media y la varianza de una variable aleatoria continua tienen las mismas propiedades, dadas en la
proposición (2.2), que la media y la varianza de una variable discreta.

5. Principales distribuciones continuas


5.1. La distribución Uniforme
Una variable aleatoria continua X cuyos valores son todos los números de un intervalo [a, b] ⊂ R se dice
que tiene una distribución uniforme si su función de densidad de probabilidad es

 1

si a 6 x 6 b,
f (x; a, b) = b−a

0 en otro caso.

Los números a y b son los parámetros de la distribución. La media y la varianza vienen dadas en el
siguiente teorema
Teorema 5.1 La media y la varianza de una variable aleatoria uniforme son

a+b (b − a)2
µ= y σ2 = .
2 12
Tema 3. Variables aleatorias. Distribuciones de probabilidad 12

5.2. La distribucion Normal


Se dice que una variable aleatoria continua X tiene una distribución normal o de Gauss cuando su
función de densidad de probabilidad es:
 2
1 x−µ
1 −
N (x; µ, σ) = √ e 2 σ con µ, σ ∈ R σ > 0.
σ 2π
Como puede observarse, la función anterior depende de dos parámetros µ y σ, que la determinan de
forma única, por lo que para referirnos a dicha función suele ser frecuente decir ”la variable aleatoria tiene
distribución normal o gaussiana”. Para cualquier valor de dichos parámetros, la función de densidad es
simétrica respecto de la recta x = µ y su gráfica tiene la forma del perfil de una campana, de ahı́ el
nombre de campana de Gauss con el que comúnmente se la conoce; tiene su valor máximo en x = µ, y
los puntos de abcisas x = µ ± σ son los puntos de inflexión de la curva. La figura 1muestra la gráfica de
N (x; µ, σ). Para µ = 0, el eje de simetrı́a coincide con el eje de ordenadas y para µ > 0 (µ < 0), las curvas

Figura 1:

tienen el mismo aspecto, pero están desplazadas | µ | unidades hacia la derecha (hacia la izquierda). Se
puede observar en la figura 2 que cuanto menor es σ 2 más alto es el máximo en x = µ, y más pronunciados
son los descensos a ambos lados de este punto.

Figura 2:

Teorema 5.2 Los números µ y σ son, respectivamente, la media y la desviación tı́pica de una variable
aleatoria continua X que tiene distribución normal N (µ, σ).
La función de distribución de una variable aleatoria X distribuida normalmente con media µ y desviación
tı́pica σ es
 2
Z x −1 t − µ
1
F (x; µ, σ) = √ e 2 σ dt,
σ 2π −∞
Tema 3. Variables aleatorias. Distribuciones de probabilidad 13

de modo que F (x; µ, σ) = P (X 6 x) es el área de la región delimitada por la curva N (x; µ, σ) y el eje de
abcisas, que está situada a la izquierda de la recta X = x. Esta integral no puede evaluarse por métodos
t−µ
elementales, pero el cambio de variable u = la transforma en
σ
1
(x−µ)/σ − u2
Z
1
F (x; µ, σ) = √ e 2 du.
2π −∞

x−µ
Observamos que el segundo miembro resulta ser el valor en z = de la función de distribución
σ
F (z; 0, 1) de la variable Z que sigue la distribución N (0, 1). Según esto, la probabilidad de cualquier
suceso relativo a la variable X puede calcularse haciendo uso de la función de distribución de la variable
normalizada Z. Los valores de esta función se encuentran tabulados. El paso de la variable X a la variable
Z que consiste en restar a X su media µ y dividir por su desviación tı́pica σ, se llama tipificar o normalizar.
Nota: Es costumbre designar a la función de distribución de la variable normal de media 0 y desviación
tı́pica 1, por Φ(x), es decir: Z x
Φ(x) = F (x; 0, 1) = N (t, 0, 1) dt.
−∞

Ejemplos:
1.− Si Z es normal N (0, 1), las siguientes probabilidades las calculamos directamente de la tabla:

P (Z 6 2, 44) = Φ(2, 44) = 0, 9927, P (Z 6 −1, 16) = 1 − Φ(1, 16) = 0, 1230,


P (Z > 1) = 1 − Φ(1) = 0, 1587, P (2 6 Z 6 10) = Φ(10) − Φ(2) ≈ 1 − 0, 9772 = 0, 0228.

2.− Si X es normal N (0, 8, 2), las siguientes probabilidades las calculamos normalizando dicha variable
y después utilizando la tabla:
 
X −µ 2, 44 − 0, 8
P (X 6 2, 44) = P 6 = P (Z 6 0, 82) = Φ(0, 82) = 0, 7939,
σ 2
 
X −µ −1, 16 − 0, 8
P (X 6 −1, 16) = P 6 = P (Z 6 −0, 98) = 1 − Φ(0, 98) = 1 − 0, 8365 = 0, 1635,
σ 2
 
X −µ 1 − 0, 8
P (X > 1) = P > = P (Z > 0, 1) = 1 − Φ(0, 1) = 1 − 0, 5398 = 0, 4602,
σ 2
 
2 − 0, 8 X −µ 10 − 0, 8
P (2 6 X 6 10) = P 6 6 = P (0, 6 6 Z 6 4, 6) = Φ(4, 6) − Φ(0, 6) ≈ 1 − 0, 7257 = 0, 2743.
2 σ 2

Teorema 5.3 Si X es una variable aleatoria discreta con distribución binomial b(x; n, p), entonces la
X − np
variable aleatoria tipificada Z = p tiene una función de densidad de probabilidad f (z; n, p) que
np(1 − p)
cumple
lı́m f (z; n, p) = N (z; 0, 1).
n→∞

Aparte de su interés teórico, este teorema permite aproximar la distribución binomial por la distribución
normal. En efecto, si n es grande, de acuerdo con el teorema, las funciones de probabilidad f (z; n, p) y de
densidad N (z; 0, 1) son aproximadamente iguales sea cual sea el valor de la variable aleatoria discreta Z1
es decir, que para valores grandes de n, la variable Z está distribuida de forma aproximadamente normal
con media 0 y desviación tı́pica 1, por lo tanto, la variable binomial X también estará distribuida de
s
np n(1 − p)
r
1 Obsérvese que los n + 1 valores que puede tomar Z están comprendidos entre − y , y que
1−p p
únicamente para esos valores son aproximadamente iguales la función de probabilidad f (z; n, p) y la función de densidad
N (z; 0, 1), ya que para otros, f (z; n, p) no está definida.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 14

p
forma aproximadamente normal, pero con media np y desviación tı́pica np(1 − p), lo que nos permite
escribir  p 
b(x; n, p) ≈ N x; np, np(1 − p) , x = 0, 1, 2, . . . , n, (n grande).

La igualdad evidente

P (X = x) = b(x; n, p) = x + 0, 5 − (x − 0, 5) b(x; n, p),

permite interpretar la probabilidad P (X = x) como el área de un rectángulo cuya base es el segmento


de longitud unidad que tiene por extremos los puntos de abcisas x − 0, 5 y x + 0, 5 y por altura b(x; n, p),
como puede verse en la figura 3. Ahora bien, en virtud de la mencionada aproximación, y a la vista de

Figura 3:

esa figura, podemos aproximar el área del rectángulo mediante el área del trapecio curvilı́neo ABCD,
que expresamos como una integral, de modo que la probabilidad en cuestión queda
Z x+0,5  p 
P (X = x) = b(x; n, p) ≈ N t; np, np(1 − p) dt.
x−0,5

La utilidad de esto estriba en que podemos evitar el cálculo, posiblemente tedioso debido a la presencia
del número combinatorio, de la función de probabilidad binomial b(x; n, p), hallando en su lugar el valor
de la integral, tarea muy sencilla, pues una vez tipificada la variable X, basta con consultar la tabla de
áreas bajo la curva normal.
En general, se considera buena la aproximación cuando se verifican n > 30, np > 5 y n(1 − p) > 5.
Ejemplo: Sea X una variable aleatoria binomial de parámetros n = 800 y  p = 0,2. Si queremos calcular
800
la probabilidad P (X = 160) exactamente, tenemos que obtener el valor de 0, 2160 (1 − 0, 2)800−160 ,
160
lo que no es posible manualmente, pero tampoco con una calculadora ordinaria. Sin embargo, si hacemos
uso de la aproximación comentada, tenemos
!
160 − 0, 5 − 800 × 0, 2 160 + 0, 5 − 800 × 0, 2
P (X = 160) = P p 6Z6 p ≈
800 × 0, 2 × (1 − 0, 2) 800 × 0, 2 × (1 − 0, 2)
≈ P (−0, 044 6 Z 6 0, 044) = Φ(0, 044) − Φ(−0, 044) = 2Φ(0, 044) − 1 = 2 × 0, 5176 − 1 = 0, 0352.

El primero de los dos signos de igualdad aproximada, se debe al redondeo, y el segundo a la aproximación
de la binomial por la normal. El valor exacto, calculado con SPSS y redondeado a siete cifras decimales
es 0,0352427.
Resumiendo: si X ∼ b(n, p) entonces
! !
a+0,5
a + 0, 5 − np a − 0, 5 − np
Z
P (X = a) ≈ N (z; 0, 1) dz = Φ p −Φ p ,
a−0,5 np(1 − p) np(1 − p)
Tema 3. Variables aleatorias. Distribuciones de probabilidad 15

Figura 4:

donde Φ(·) es la función de distribución normal de parámetros µ = 0 y σ = 1. Ahora podemos generalizar.


Siguiendo con la variable binomial X, supongamos que deseamos calcular la probabilidad P (a 6 X 6 b).
De acuerdo con los argumentos anteriores y observando la figura 4 podemos escribir:
P (a 6 X 6 b) = P (X = a) + P (X = a + 1) + P (X = a + 2) + . . . + P (X = b − 1) + P (X = b) ≈
! !
a + 0, 5 − np a − 0, 5 − np
≈Φ p −Φ p +
np(1 − p) np(1 − p)
! !
a + 1 + 0, 5 − np a + 1 − 0, 5 − np
+Φ p −Φ p +
np(1 − p) np(1 − p)
! !
a + 2 − 0, 5 − np a + 2 − 0, 5 − np
+Φ p −Φ p + ...
np(1 − p) np(1 − p)
! !
b − 1 + 0, 5 − np b − 1 − 0, 5 − np
... + Φ p −Φ p +
np(1 − p) np(1 − p)
! ! ! !
b + 0, 5 − np b − 0, 5 − np b + 0, 5 − np a − 0, 5 − np
+Φ p −Φ p =Φ p −Φ p .
np(1 − p) np(1 − p) np(1 − p) np(1 − p)
Finalmente, si estamos intesados en el cálculo de las probabilidades P (a < X 6 b), P (a 6 X < b) o
P (a < X < b), siguiendo el mismo procedimiento, obtenemos
! !
b + 0, 5 − np a + 0, 5 − np
P (a < X 6 b) ≈ Φ p −Φ p ,
np(1 − p) np(1 − p)
! !
b − 0, 5 − np a − 0, 5 − np
P (a 6 X < b) ≈ Φ p −Φ p ,
np(1 − p) np(1 − p)
! !
b − 0, 5 − np a + 0, 5 − np
P (a < X < b) ≈ Φ p −Φ p .
np(1 − p) np(1 − p)
El hecho de sumar o restar 0,5, motivado según se ha visto, por la sustitución de una variable discreta por
otra continua, se conoce como corrección de continuidad, y se busca con ella mejorar la aproximación
de la binomial por la normal.
Teorema 5.4 Si X es una variable aleatoria discreta con distribución de Poisson P (λ), entonces la
X −λ
variable aleatoria tipificada Z = √ tiene una función de densidad de probabilidad f (z; λ) que cumple
λ
lı́m f (z; λ) = N (z; 0, 1).
n→∞
Tema 3. Variables aleatorias. Distribuciones de probabilidad 16

En general, se considera buena la aproximación cuando λ > 25. Aquı́ también es conveniente, para mejorar
la aproximación, el empleo de la corrección de continuidad en la variable de Poisson.
Otra propiedad interesante de la distribución normal es la que nos dice el resultado siguiente:

Teorema 5.5 Si X e Y son dos variables aleatorias independientes con distribución normal N (µX , σX )
y N (µY , σY ) respectivamente, entonces la variable aleatoria aX + bY tiene una distribución normal de
parámetros p
µ = aµX + bµY y σ = a2 σX 2 + b2 σY 2 .

La propiedad anterior se conoce como propiedad reproductiva de la distribución normal y se generalizará


al caso de n variables en el tema 4.

5.3. La distribución Exponencial


En un proceso de Poisson, la probabilidad de que no ocurra ningún evento durante el intervalo de tiempo
[0, x] es igual a la probabilidad de que la variable aleatoria de Poisson Y = número de eventos que se
producen en un intervalo de tiempo de duración x sea cero, es decir
(vx)0
P (Y = 0) = P(0; x) = e−vx = e−vx ,
0!
donde v es el número medio de eventos por unidad de tiempo.
Consideremos ahora la variable aleatoria X = tiempo que pasa hasta que ocurre el primer evento. El
suceso el tiempo que transcurre hasta el primer evento es mayor que x y el suceso la variable aleatoria Y
toma el valor cero son el mismo, luego

P (X > x) = e−vx ,

de donde se deduce que la función de distribución de la variable aleatoria X es

F (x) = P (X 6 x) = 1 − e−vx .

Si ahora derivamos, de acuerdo con (2), para obtener la función de densidad de probabilidad, resulta

f (x) = v evx .
1
Llamando v = , podemos definir
β
Definición 5.1 Una variable aleatoria continua X cuya función de densidad de probabilidad sea de la
forma 
 1 −x/β
e si x > 0
f (x; β) = β β > 0,
 0 en otro caso
se dice que tiene distribución exponencial.

Nota: Algunos textos se refieren a esta distribución como exponencial negativa debido al signo menos
que aparece en el exponente. El calificativo es superfluo, ya que la exponencial positiva no es una función
de densidad de probabilidad ya que no verifica (1).
1
Observación: Dado que v es el número medio de eventos por unidad de tiempo, de la relación v = se
β
deduce que β es el tiempo medio que transcurre hasta que se produce el primer evento. En el siguiente
teorema se enuncia esta afirmación.
Teorema 5.6 Si X es una variable aleatoria con distribución exponencial, se verifica

E(X) = β, V ar(X) = β 2 .
Tema 3. Variables aleatorias. Distribuciones de probabilidad 17

Una de las propiedades más interesantes de la distribución exponencial, que la hace adecuada para el
estudio de la fiabilidad en el funcionamiento de los dispositivos y sistemas, es la carencia de memoria, igual
que la del mismo nombre que posee la distribución geométrica. Tal propiedad es el objeto del siguiente
teorema.
Teorema 5.7 (Carencia de Memoria). Sea X una variable aleatoria con distribución exponencial.
Entonces se verifican:

a) P (X > x + y | X > x) = P (X > y); b) P (X < x + y | X > x) = P (X < y).

donde 0 6 y < x.

Las situaciones descritas en los dos apartados de este teorema pueden entenderse mejor observando la
Figura 5. El apartado a) afirma que suponiendo que hasta el instante x no se ha producido ningún evento,

Figura 5:

la probabilidad de que tampoco se produzca ninguno durante el intervalo [y, x + y] es la misma que si el
intervalo fuera [0, y], es decir, tal probabilidad no depende del instante en que comienza el intervalo, sino
de la duración de éste.
Análogamente, el apartado b) afirma que suponiendo que hasta el instante x no se ha producido ningún
evento, la probabilidad de que el primero se produzca durante el intervalo [y, x + y] es la misma que si
el intervalo fuera [0, y], luego esa probabilidad no depende, como antes, de cuándo comienza el intervalo,
sino de su duración.
Se justifica de ese modo, la denominanción de carencia de memoria empleada. A continuación resumimos
tal propiedad:

Propiedad de carencia de memoria: No importa cuanto tiempo haya pasado sin


producirse ningún evento, ya que la probabilidad de que no se produzca ninguno
(o de que se produzca el primero de ellos) en el intervalo de duración dada que
comienza en este instante, sólo depende de esa duración, y no del tiempo trans-
currido hasta ahora.

Puede demostrarse que la propiedad de carencia de memoria es caracterı́stica de la distribución exponen-


cial. No hay otra distribución continua que la posea.

También podría gustarte