Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Profesores:
Jes
us Asn Lafuente
Mara Dolores Berrade Urs
ua
Bibliografa
Canavos, G.C. Probabilidad y Estadstica. Aplicaciones y M
etodos. McGraw Hill.
Le
on Garca. A. Probability and Random Processes
for Electrical Engineering. Addison-Wesley.
Levine, D.M., Ramsey, P.P y Smidt, R.K. (2001).
Applied Statistics for Engineers and Scientist. Using Microsoft EXCEL and MINITAB. Prentice Hall.
Terrien, C.W. y Tummala, M. (2004). Probability
for Electrical and Computer Engineers. CRC Press
Papoulis, A. Probabilidad, Variables Aleatorias y
Procesos Estoc
asticos. UNIBAR.
Indice
1.- Probabilidad
2.- Variables aleatorias
3.- Caractersticas de las variables aleatorias
4.- Modelos de Probabilidad
TEMA 1:
ELEMENTOS BASICOS
DE PROBABILIDAD
Relaci
on de eclipses totales de sol hasta el a
no 2020: 20
de marzo de 2015, 9 de marzo de 2016, 21 de agosto
de 2017, 2 de julio de 2019, 14 de diciembre de 2020.
Los fen
omenos que observamos se pueden clasicar en
deterministas
aleatorios
Un fen
omeno determinista es aquel cuya ocurrencia y
resultado se conoce con antelaci
on. En contraposici
on,
son aleatorios aqu
ellos cuyo resultado no se conoce con
total seguridad hasta despu
es de que han tenido lugar.
Ejemplos de fen
omenos aleatorios: n
umero de llamadas
recibidas en una central telef
onica en un da, volumen de
lluvia caida en una ciudad en un a
no, valor de una se
nal
distorsionada por un ruido, la cotizaci
on que tendr
a
ma
nana un activo nanciero . . .
En todos los ejemplos anteriores no se dispone de una
f
ormula matem
atica explcita que nos proporcione por
adelantado su valor. La oportunidad de ocurrencia de
fen
omenos aleatorios se eval
ua mediante probabilidades.
4
En la pr
actica, incluso en los experimentos controlados, es frecuente encontrar una componente aleatoria
asociada a cualquier experimento debido al efecto de
variables que no controlamos (ruido).
Un objetivo de inter
es es la construcci
on de modelos
que incluyan tal variabilidad para que las conclusiones
de nuestros an
alisis no queden invalidadas.
Al igual que en otras
areas de la Ingeniera, los modelos aleatorios van a constituir aproximaciones a sistemas fsicos reales, si bien se contempla la posibilidad
de variaciones en las salidas del sistema aunque no se
haya producido cambio de las variables bajo control.
Ejemplo: si en el dise
no de un sistema de telefona no
se tiene en cuenta que las llamadas se reciben de forma
aleatoria as como la variabilidad de su duraci
on, el sistema resultar
a inadecuado para su uso pr
actico.
Un experimento que proporciona diferentes resultados
a
un cuando se realiza en id
enticas condiciones, se llama
experimento aleatorio.
Por ejemplo, si medimos la corriente en un cable de
cobre, seg
un la ley de Ohm se tiene
voltaje
resistencia
Sin embargo, un modelo m
as realista podra ser
corriente =
corriente =
voltaje
+ error
resistencia
5
Operaciones y
algebra de sucesos
Sean E y F dos sucesos cualesquiera en . Se denen
las siguientes operaciones:
- Uni
on de E y F , denotada E F , es el conjunto
formado por los resultados que est
an en E en F o
en ambos a la vez.
- Intersecci
on de E y F , E F , es el conjunto formado
por los resultados del experimento que est
an en E
y en F simult
aneamente.
De la uni
on de dos sucesos se puede obtener la totalidad
del espacio muestral, tambi
en llamado suceso seguro.
Por ejemplo, E = sale pary F = sale impar.
Por el contrario, la intersecci
on de dos sucesos E y F
que no tienen resultados comunes da lugar al conjunto
vacio o suceso imposible denotado . En este
ultimo
caso E y F se dicen excluyentes o incompatibles.
Para cualquier suceso E se dene como complementario de E, denotado E c , al suceso que est
a formado por
todos los posibles resultados del experimento aleatorio
que no est
an en E. Por tanto se tiene que E c ocurre si y
s
olo si E no tiene lugar, es decir, ambos son excluyentes.
i = j
A = ,
A = ,
A = A,
c = ,
Se verican las
AA=AA=A
A Ac =
A Ac =
c =
(A B) C = A (B C),
(A B) C = A (B C)
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
(A B)c = Ac B c ,
(A B)c = Ac B c
8
E3 E2 , E3 E1 , E4 E2 =
La relaci
on de implicaci
on entre dos sucesos, A B,
signica que siempre que ocurre A, entonces ocurre B.
El recproco no tiene por qu
e ocurrir, puede producirse
la ocurrencia de B sin que A haya tenido lugar.
Asignaci
on de la probabilidad
Frecuentista: En experimentos que pueden ser repetidos en las mismas condiciones, la probabilidad se interpreta como el lmite de la frecuencia relativa a medida
que crece el n
umero de experimentos. Por ejemplo, la
proporci
on de caras en 106 lanzamientos de moneda se
aproxima a 12 o cuando estimamos que la fracci
on de
piezas defectuosas en una producci
on, a partir de la observaci
on de 50000 piezas, es del 1%.
Subjetiva: En experimentos que no son susceptibles
de ser repetidos una y otra vez, la probabilidad viene a
signicar una medida de certidumbre. As por ejemplo
puedo apostar 10 a 1 a que el caballo A ganar
a al B en
una carrera, signicando que veo 10 veces m
as posible
el
exito del caballo A.
9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
0
50
100
150
Nmero de lanzamientos
200
umero de caras
Se constata c
omo limn n
n
250
1
2
10
P
Ei =
P (Ei )
i=1
i=1
11
n
entonces P ni=1Ei = i=1 P (Ei )
P (E1 E2 ) = P (E1 ) + P (E2 ) P (E1 E2 )
P (E1 E2 E3 ) =
P (E1 ) + P (E2 ) + P (E3 ) P (E1 E2 )
P (E1 E3 ) P (E2 E3 ) + P (E1 E2 E3 )
Para la uni
on de n sucesos:
n
P (ni=1Ei ) =
P (Ei )
i=1
P (Ei Ej ) +
i<j
P (Ei Ej Ek ) + . . . +
i<j<k
n
+ . . . + (1)
P (Ei1 . . . Ein1 )
i1 <i2 <...<in1
Probabilidad Condicional
En ocasiones la probabilidad asignada a un suceso en
unas condiciones experimentales dadas, debe ser revisada al conocerse cierta informaci
on adicional que puede afectar al resultado de aqu
el. La probabilidad de un
suceso, cuando se conoce que otro ha tenido lugar, se
denomina probabilidad condicional.
Ejemplo En sistema de comunicaci
on la tasa de error
es de un bit por cada mil transmitidos. Los errores
se producen raramente pero cuando ocurren tienden a
hacerlo de modo que afectan a varios bits consecutivos.
Si se transmite s
olo un bit, ser
a err
oneo con probabilidad 1/1000; sin embargo, si el bit anterior era err
oneo,
podramos pensar en que el siguiente lo ser
a tambi
en
con probabilidad mayor que 1/1000.
Ejemplo Supongamos que en un lote de 100 unidades
de un determinado producto hay 2 que no cumplen las
especicaciones, resultando, por consiguiente, defectuosas. Si se eligen dos unidades al azar, cu
al es la probabilidad de que la segunda sea defectuosa, siendo que la
primera no lo era?, c
omo se modica la probabilidad
anterior si la primera result
o ser defectuosa?
Definici
on 1 La probabilidad condicional de un suceso
B dada la ocurrencia de otro, A, tal que P (A) > 0, se
denota P (B|A) y viene dada del siguiente modo
P (B|A) =
P (A B)
P (A)
13
P
Aj =
j=1
Sean {Ai }
tales
que
A
A
=
,
i
=
j,
i
j
i=1
i=1 Ai =
(sistema completo de sucesos) y P (Ai ) > 0, para todo
i. Sea B otro suceso, entonces
P (B) =
i=1
P (B Ai ) =
P (B|Ai )P (Ai )
i=1
14
Regla de Bayes
En ocasiones, conocemos cu
al es la probabilidad de un
suceso condicionado a la ocurrencia de otro, sin embargo desearamos saber la probabilidad condicionada a
la inversa. Pensemos por ejemplo en los ltros dise
nados
para identicar el correo spam. En general, se suele
conocer cu
al es la probabilidad de error en el sentido
de que la prueba identique como spam un mensaje
legtimo; esta situaci
on se denomina falso positivo. Nuestro inter
es se dirige hacia la probabilidad de que un mensaje sea spam cuando el ltro lo identica como tal.
Regla de Bayes
Sean {Ai }
tales
que
A
A
=
,
i
=
j,
i
j
i=1
i=1 Ai =
(sistema completo de sucesos) y P (Ai ) > 0, para todo
i. Sea B otro suceso, entonces
P (B|Ai )P (Ai )
P (Ai |B) =
j=1 P (B|Aj )P (Aj )
Independencia de sucesos
En algunos casos, la probabilidad de un suceso B no
depende de la ocurrencia, o no, de otro A. En estas
situaciones, el conocimiento de que A ha tenido lugar,
no afecta a la probabilidad de que el experimento aleatorio de B como resultado.
15
)k
Aij
=
j=1
P (Aij ), 1 i1 < i2 . . . ik n, 2 k n
j=1
16
TEMA 2:
VARIABLE ALEATORIA
Ejemplo: Transmisi
on de un mensaje con n dgitos con
posibilidad de error. Se emite un mensaje al azar, nos
interesa saber:
n
umero de dgitos enviados correctamente
tiempo empleado en la transmisi
on del mensaje
Supongamos ahora la siguiente codicaci
on:
Anotamos un 1 por cada dgito correctamente emitido
y 0 en caso contrario.
Cada mensaje emitido es el resultado de un experimento
aleatorio al cual se le asignan dos valores num
ericos que
responden a las preguntas anteriores: el n
umero de unos
y el tiempo que haya durado su emisi
on. Puesto que el
resultado particular del experimento, el mensaje, no se
conoce por adelantado, ocurre lo mismo con los valores
num
ericos asociados, pudi
endose obtener resultados distintos cada vez que emitamos un nuevo mensaje. Una
variable aleatoria es por consiguiente un resultado, en
general expresado num
ericamente, asociado a un experimento aleatorio.
Definici
on 2 Una variable aleatoria, X, es una funci
on
que asigna un n
umero real a cada posible resultado del
espacio muestral en un experimento aleatorio
X : RX
17
RX , denominado rango, recorrido o soporte es el conjunto de todos los posibles valores de X. En las variables
aleatorias reales, RX un subconjunto de los reales. Importante: a cada en , X le asigna un
unico valor.
Ejemplo: Se lanza una pareja de dados, obteni
endose
premio si la suma de las puntuaciones de sus caras es 3.
= {(x1 , x2 ); x1 = 1, 2, . . . , 6; x2 = 1, 2, . . . , 6}
RX = {2, 3, . . . , 12}
La probabilidad de obtener premio es
P (X = 3) = P ((1, 2) (2, 1)) =
1
1
1
= P ((1, 2)) + P ((2, 1)) =
+
=
36
36
18
En general, para cualquier B RX , se tiene
P (B) = P ({s |X(s) B})
Para evaluar probabilidades podemos utilizar la funci
on
de distribuci
on
Definici
on 3 La funci
on de distribuci
on, FX (x), de una
variable aleatoria X se define:
FX (x) = P (X x),
< x <
p(xi ) = P (X = xi ) =
P (s), i = 1, 2 . . .
{s:X(s)=xi }
19
Definici
on 4 Una funci
on de probabilidad debe satisfacer las siguientes propiedades
a) p(xi ) 0, para todo i
b)
xi RX p(xi ) = 1
Si X toma s
olo un n
umero nito de valores, por ejemplo,
RX = {x1 , x2 , . . . , xN }, entonces p(xi ) = 0 para todo xi
/
RX , convirti
endose el sumatorio anterior en una suma
nita.
Conocida la funci
on de masa de probabilidad, se pueden
calcular probabilidades de sucesos denidos mediante la
variable X. Sea A RX , entonces
P (X A) =
p(xi )
i:xi ARX
FX (x) =
p(xi )
xi x
1, P (X = 1) = 0.2
X = 2, P (X = 2) = 0.4
4, P (X = 4) = 0.4
20
La funci
on de distribuci
on asociada es
0, x < 1
0.2, 1 x < 2
FX (x) =
0.6, 2 x < 4
1, x 4
FX (x) es discontinua en los puntos x = 1, 2, 4. Se trata
de una funci
on en forma de escalera donde la altura de
los respectivos escalones est
a dada por
P (X = 1) = 0.2, P (X = 2) = 0.4, P (X = 4) = 0.4
La funci
on de distribuci
on de cualquier variable aleatoria
discreta, X, verifica las siguientes propiedades:
i) FX (x) es no-decreciente, es decir, FX (x) FX (y)
para todo x y
ii) limx FX (x) = 0, limx FX (x) = 1
iii) FX (x) es continua por la derecha, es decir,
lim FX (x + h) = FX (x), para todo x
h0
( )
( )
Denotaremos por FX x+ y FX x los lmites de FX (h)
cuando h converge a x por la derecha y por la izquierda
respectivamente. En el ejemplo anterior se advierte que
P (X = 1) = FX (1) FX (1 ) = 0.2
P (X = 2) = FX (2) FX (2 ) = 0.4
P (X = 4) = FX (4) FX (4 ) = 0.4
21
Para una variable aleatoria discreta, X, las probabilidades de cualquier valor x se obtienen
P (X = x) = FX (x) FX (x )
Asimismo, se tiene que para cualesquiera a y b reales
tales que a < b se verica
P (a < X b) = FX (b) FX (a)
Variable continua
Las variables continuas se caracterizan por tomar un
n
umero innito no numerable de valores. Consideremos el tiempo de espera en la parada del tranva. Los
posibles resultados no son numerables sino que corresponden a un intervalo de R. En este caso no podemos
hablar del i-
esimo valor de la variable y la funci
on de
probabilidad en ellos es nula. En el c
alculo de probabilidades con variables continuas hacemos uso de la funci
on
de densidad, f (x).
Definici
on 5 Para una variable continua X la funci
on
densidad, f (x), es una funci
on tal que
i) f (x) 0, para todo x
ii) f (x)dx = 1
x
ii) F (x) = P (X x) = f (u)du
22
f(x)
La funci
on de distribuci
on de una variable aleatoria continua es continua para todo x. Por tanto:
P (X = x) = FX (x) FX (x ) = 0
y en consecuencia
P (X x) = P (X < x)
25
Adem
as se tiene el siguiente resultado:
Sea FX (x) la funci
on de distribuci
on de una variable
aleatoria con funci
on de densidad f (x), entonces se tiene
dFX (x)
dx
para todo x en el cual F es diferenciable.
f (x) =
En cuanto al c
alculo de probabilidades:
P (X < a) = P (X a) = F (a) =
f (x)dx
P (X > b) = P (X b) = 1 F (b) =
f (x)dx
b
b
P (a < X < b) = P (a X b) =
f (x)dx
a
Distribuci
on de la funci
on de una variable aleatoria
Supongamos que X es una se
nal aleatoria cuya funci
on
de densidad es f (x) y sea la funci
on Y = h(X) = aX.
Si a > 1, Y representa una versi
on amplicada de X,
o atenuada en el caso a < 1. Y es, a su vez, una
variable aleatoria y para cualquier suceso asociado con
el recorrido de Y se tiene
P (Y C) = P (h(X) C) = P (X h1 (C))
en discreta.
Si X es una variable discreta, Y es tambi
26
Ejemplo
1, P (X = 1) =
X = 0, P (X = 0) = 12
1, P (X = 1) = 1
6
1
3
Sea Y = X 2
{
1, P (Y = 1) = P (X = 1) + P (X = 1) =
Y =
0, P (Y = 0) = P (X = 0) = 12
1
2
27
dh (y)
g(y) =
f (xi (y))
dy
i=1
28
TEMA 3:
CARACTER
ISTICAS DE LAS V. ALEATORIAS
Valor esperado de una variable aleatoria
Uno de los conceptos m
as importantes en teora de
la probabilidad es el de valor esperado o esperanza
matem
atica de una variable aleatoria X, denotado E(X).
Sea X es una v. a. discreta con valores posibles x1 , . . . , xn . . .
cuyas probabilidades son p(xi ) = P (X = xi ), entonces
se tiene
E(X) =
xi p(xi )
denida siempre que
i=1
<
29
Notas:
El concepto de esperanza es an
alogo al concepto
fsico de centro de gravedad de una distribuci
on de
masas.
E(X) y X vienen dadas en las mismas unidades.
Propiedades de la esperanza
Esperanza de la funci
on de una v.a Y = h(X)
Consideremos X discreta con funci
on de masa p(x)
E[h(X)] = E(Y ) =
h(x)p(x)
x
on de densidad f (x)
Sea X continua con funci
E[h(X)] = E(Y ) =
h(x)f (x)dx
CV =
31
2
(
)2 2
V ar(Y ) h ()
A n de hacer
utiles las aproximaciones anteriores, necesitamos que h sea diferenciable dos veces en .
32
Medidas de forma
Para la descripci
on de una v.a. son
utiles asimismo los
coecientes de asimetra (CAs) y de apuntamiento o
curtosis (CAp)
E(X )3
E(X )4
CAs =
CAp =
3
4
CAs mide el grado de asimetra respecto de la media, mientras que CAp es una medida de cu
an puntiaguda es la distribuci
on de probabilidad. La siguiente
gr
aca corresponde a una distribuci
on asim
etrica positiva (CAs > 0).
33
La siguiente gr
aca muestra las funciones de densidad
de una normal y una t de la misma media y varianza. La segunda es m
as apuntada y sus coecientes de
apuntamiento son, respectivamente, CAp = 0 y CAp > 0
Distribution Plot
0,4
Density
0,3
0,2
0,1
0,0
-5,0
-2,5
0,0
X
2,5
5,0
P (X xp ) = p
verica que P (X x0.1 ) = 0.1.
1
k2
1
k2
TEMA 4:
MODELOS DE PROBABILIDAD
Modelos de probabilidad discretos:
Distribuci
on uniforme sobre n puntos
Una variable aleatoria X cuyo soporte est
a dado por
{x1 , x2 , . . . , xn }, se dice con distribuci
on uniforme si su
funci
on de probabilidad est
a dada por:
{1
, X = xi
p(X = xi ) = n
0, en otro caso
Su funci
on de distribuci
on:
1, x max{x , x , . . . , x } = x
n
1
2
(n)
Su valor medio:
E(X) =
i=i
1
xi =
n
i=i xi
=X
36
Ensayos de Bernoulli
Est
an asociados con cualquier fen
omeno aleatorio que
se manieste como una dicotoma:
exitoo fracasode
un experimento, pieza defectuosa o no defectuosa, nivel
o > 10.000 euros , nivel de radiaci
on
de renta 10.000
de antenas de telefona m
ovil 450 microvatios o inferior.
X es una variable de Bernoulli si
{
X = 1, P (X = 1) = p
X = 0, P (X = 0) = 1 p = q
E(X) = p, V ar(X) = p(1 p)
La distribuci
on binomial est
a asociada a una repetici
on
de varios ensayos de Bernoulli independientes y donde la
probabilidad p permanece constante en todos ellos. Por
ejemplo, denotemos por p a la probabilidad de producir
una pieza defectuosa y supongamos que se producen n
piezas de manera independiente. El estado de la pieza
i se describe mediante Xi :
{
Xi = 1, si la pieza i es defectuosa
Xi = 0, si es no defectuosa
El n
umero de piezas defectuosas
n en una muestra de
n piezas viene dado por X =
i=1 Xi , X se dice con
distribuci
on binomial con par
ametros n y p.
37
La funci
on de probabilidad de X con distribuci
on B(n, p),
est
a dada por
(
)
n
P (X = k) =
pk (1 p)nk , X = 0, 1, 2, . . . , n
k
E(X) = np, V ar(X) = np(1 p). E(X) representa la
frecuencia esperada de
exitosen n repeticiones independientes de un experimento.
Est
a asociada a
Muestreo con reposici
on en poblaciones nitas
Muestreo con o sin reposici
on en poblaciones innitas
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi B(ni , p)
independientes, en tal caso se tiene
( n
)
n
Y =
Xi B
ni , p
i=1
i=1
38
Distribuci
on geom
etrica
Est
a asociada tambi
en a ensayos de Bernoulli para representar situaciones de espera. Por ejemplo, sea A el
suceso tener seis aciertos en la primitiva una semana
cualquiera cuya probabilidad es p. Sea X el n
umero de
semanas que debemos esperar hasta que ocurre A, X
se dice con distribuci
on geom
etrica con par
ametro p,
(G(p)), y su funci
on de probabilidad est
a dada por
P (X = k) = (1 p)k1 p,
E(X) =
1
p
y V ar(X) =
k = 1, 2, . . .
1p
p2
39
Distribuci
on binomial negativa
Se considera de nuevo un experimento dicot
omico, por
ejemplo, (
exito/fracaso) y la repetici
on de ensayos de
Bernoulli hasta conseguir r
exitos. Sea X la v.a. que
contabiliza el n
umero de pruebas realizadas hasta lograr
los r
exitos.
La v.a. X sigue una distribuci
on binomial negativa
BN (r, p) y su funci
on de probabilidad viene dada por
(
)
k1
P (X = k) =
pr (1p)kr , k = r, r+1, r+2, . . .
r1
r(1p)
p2
E(X) = pr , V ar(X) =
La distribuci
on binomial negativa modela fen
omenos de
espera hasta que un determinado suceso ocurre r veces.
En el caso r = 1 se tiene la distribuci
on geom
etrica.
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi Ge(p)
independientes, entonces
Y =
Xi BN (n, p)
i=1
Y =
Xi BN
ni , p
i=1
i=1
40
Distribuci
on hipergeom
etrica
En ocasiones el supuesto de independencia de los ensayos de Bernoulli no se verica. Supongamos por ejemplo que de un lote de 10 piezas del que 3 son defectuosas
extraemos dos piezas.
3
La probabilidad de que la primera sea defectuosa es 10
.
La probabilidad de que la segunda sea defectuosa depende de c
omo fue la primera:
P (2adefectuosa|1adefectuosa) =
2
9
P (2adefectuosa|1ano defectuosa) =
3
9
La situaci
on es totalmente diferente de las de los ejemplos basados en la distribuci
on binomial ya que las sucesivas pruebas no son independientes.
La distribuci
on hipergeom
etrica se utiliza para modelar extracciones sin reemplazamiento: Supongamos un
almac
en conteniendo N piezas de las que r son defectuosas. Se extrae una muestra de n piezas del almac
en
y nos interesa el n
umero de defectuosas en la muestra,
X.
41
X es hipergeom
etrica (H(N, n, r)) y su funci
on de probabilidad es
( )(
)
r
N r
k
nk
(
)
P (X = k) =
N
n
E(X) = n Nr
En el problema anterior se puede hacer uso de la distribuci
on binomial en cualquiera de los dos casos siguientes:
Cada pieza extrada se retorna al lote una vez examinada (extracci
on con reemplazamiento)
En el caso de que el tama
no de la muestra sea
signicativamente menor que el del lote ( Nn < 0.1),
En los dos casos anteriores H(N, n, r) B(n, p), siendo
p = Nr
Distribuci
on de Poisson
Con frecuencia existen situaciones en las que la probabilidad de ocurrencia de un suceso es muy peque
na, por
ejemplo, el fallo de un componente electr
onico, mientras
que es muy grande el n
umero de unidades a vericar.
42
El c
alculo de probabilidades con la binomial resulta muy
costoso, sin embargo con p 0 y n , la binomial
se puede aproximar a X con distribuci
on de Poisson con
par
ametro = np. Un criterio razonable para la aproximaci
on es p < 0.1 y np > 1.
La funci
on de probabilidad de la v.a. poisson est
a dada
por
k
P (X = k) = e
, k = 0, 1, 2, . . .
k!
E(X) = V ar(X) =
Esta distribuci
on se suele denominar como ley de los
sucesos raros ya que se utiliza para contar el n
umero
de veces que ocurre un suceso cuya probabilidad de ocurrencia es baja. As ocurre, por ejemplo, con los accidentes de avi
on, escapes radioactivos, defectos en una
supercie, . . .
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi (i )
independientes, entonces
( n
)
n
Y =
Xi
i
i=1
i=1
43
0,
x<a
x 1
F (x) =
du =
a ba
1, x > b
E(X) =
a+b
,
2
V ar(X) =
xa
,
ba
axb
(ba)2
12
44
Distribuci
on exponencial
Con frecuencia, la distribuci
on exponencial se utiliza
para modelar tiempos hasta el fallo de sistemas. Su
funci
on de densidad viene dada por
{ x
e
, x0
f (x) =
0 x<0
{
1 ex ,
F (x) =
0 x<0
E(X) = 1 , V ar(X) =
x0
1
2
La distribuci
on exponencial sirve para modelar tiempos
de espera y es la
unica distribuci
on continua que presenta la propiedad de ausencia de memoria, esto signica que el tiempo de espera que nos resta no depende
del que llevemos esperando. Es decir, para cualesquiera
s, t > 0 se verica
P (X > s + t|X > t) = P (X > s)
45
El proceso de Poisson
Supongamos las siguientes situaciones: en una producci
on
de cable de cobre los defectos ocurren de modo aleatorio a lo largo de su longitud y anotamos el n
umero de
defectos en una longitud ja, por ejemplo un metro, de
cobre. Los intentos de conexi
on a un servidor de Internet tienen lugar a tasa constante y contabilizamos
los que ocurren en un intervalo de tiempo concreto, por
ejemplo entre las 10 y las 12 de la ma
nana.
Las situaciones consideradas se reeren a los eventos
asociados a un experimento aleatorio que ocurren con
tasa constante en el espacio o en el tiempo. Por ejemplo, la ruptura de un componente en un sistema, las llamadas a una centralita telef
onica, llegadas de clientes
a un servicio, las subidas de tensi
on en la corriente
el
ectrica, las emisiones de partculas radiactivas . . .
Nt =n
umero de ocurrencias en [0, t] . Estudiaremos la
sucesi
on de variables {Nt, t 0} que recibe el nombre
de Proceso de Poisson de tasa cuando se cumplen los
siguientes supuestos:
46
P (Nt = k) = e
, k = 0, 1, 2, . . .
k!
Es decir, Nt es v.a. de Poisson de par
ametro t.
Relaci
on entre la exponencial y el proceso de Poisson
Sea {Nt, t 0} un proceso de Poisson de tasa y denotemos por Xn al tiempo aleatorio entre las ocurrencias
n 1 y n. Xi se denominan tiempos entre llegadas del
proceso.
Propiedad: X1 , X2 , . . . son v.a. independientes con distribuci
on exponencial de tasa .
47
i=n
t (t)
i!
Propiedad: Si los tiempos entre ocurrencias de un proceso, X1 , X2 , . . ., son v.a. independientes y con distribuci
on exponencial de par
ametro , entonces se verica que las ocurrencias tienen lugar de acuerdo a un
proceso de Poisson.
48
Distribuci
on gamma
X se dice con distribuci
on gamma, (p, a), p > 0 y a > 0,
si su funci
on de densidad est
a dada por
{ p
a
eax xp1 , x 0
(p)
f (x) =
0, x < 0
E(X) = ap , V ar(X) =
p
a2
(p) es la funci
on gamma de Euler:
(p) =
ex xp1 dx, p > 0
0
(p) verica
(p + 1) = p(p)
(n + 1) = n! con n entero positivo
(1)
2
49
Xi (n, )
i=1
Y =
Xi
ni ,
i=1
i=1
50
Distribuci
on normal
Aparece en el estudio de algunos fen
omenos fsicos o en
la descripci
on del comportamiento de errores de medida.
En este
ultimo caso surge cuando el error es el resultado
de la suma de muchos efectos innitesimales e independientes: variaciones en la materia prima, en el
angulo
de corte, en la velocidad, desgaste de la herramienta,
vibraciones. . .
Cuando se repite un experimento un elevado n
umero de
veces, tanto la suma de los resultados como su promedio
muestran un comportamiento en forma de Campana de
Gauss (Teorema del Lmite Central). Este es el motivo
esencial de que la normal sea la distribuci
on de mayor
relevancia en la teora y pr
actica estadsticas.
Est
a caracterizada por su valor medio, , y su desviaci
on
tpica, . Su funci
on de densidad es de la forma
{
}
(x )2
f (x) =
exp
,
2 2
2
1
< x <
Esta distribuci
on se indica, abreviadamente, N (, ) y
es sim
etrica respecto . Por consiguiente, el coeciente
de asimetra es nulo.
51
La funci
on de distribuci
on asociada a la normal est
andar,
Z = N (0, 1), est
a tabulada:
s
1
2
(s) =
ex /2 dx
2
por lo que el c
alculo de probabilidades relativo a una
normal no est
andar, X = N (, ), se realiza tras hacer
el siguiente cambio de escala:
Z=
Por ejemplo:
P (X a) = P
X
a
(
)
a
=P Z
etrica respecto 0 y
La distribuci
on Z = N (0, 1) es sim
por tanto
P (Z < a) = P (Z > a)
En la siguiente gura se muestran algunas probabilidades asociadas con la normal.
52
68%
95%
+2
99,7%
+3
u n
n
n
u 2
Y =
Xi N
i
i , t
i=1
i=1
i=1
53
i=1
n
= n
2 = n 2
i=1
n
es aproximadamente N(0,1).
54
( )
X
1
i
i=1
E X
= E
=
=
n
n i=1
)
(n
n
( )
X
1
2
i
2
i=1
V ar X
= V ar
= 2
=
n
n i=1
n
El TCL se puede expresar asimismo en los siguientes
t
erminos:
Si n es sucientemente grande (n > 30), se tiene que la
distribuci
on de
X
/ n
es aproximadamente N(0,1).
Las siguientes aproximaciones est
an basadas en el TCL:
Aproximaci
on de otras variables aleatorias a la normal
Aproximaci
on binomial-normal
Si X es B(n, p) con np(1 p) > 5, entonces
(
)
X N = np, = np(1 p)
55
Aproximaci
on Poisson-normal
Si X es () y es sucientemente grande, entonces
(
)
X N = , =
Al aproximar una distribuci
on discreta por una continua,
es preciso salvar la discrepancia entre ambas debida a
el hecho de que los puntos pueden tener probabilidad
positiva para la variable discreta y, sin embargo,
esta
es nula para las variables continuas. Este inconveniente
se resuelve mediante la denominada correcci
on por continuidad o correcci
on del medio punto.
Si X es una v.a cuya distribuci
on es B(n, p) tal que
np(1 p) > 5:
(
)
a 0.5 np
b + 0.5 np
P (a X b) = P
N (0, 1)
np(1 p)
np(1 p)
P (a X b) = P
N (0, 1)
56