Está en la página 1de 57

Probabilidad y Procesos

Grado en Ingeniera de Tecnologas y Servicios


de Telecomunicaci
on

Profesores:
Jes
us Asn Lafuente
Mara Dolores Berrade Urs
ua

Escuela de Ingeniera y Arquitectura


Departamento de M
etodos Estadsticos
Curso 2014-2015

Bibliografa
Canavos, G.C. Probabilidad y Estadstica. Aplicaciones y M
etodos. McGraw Hill.
Le
on Garca. A. Probability and Random Processes
for Electrical Engineering. Addison-Wesley.
Levine, D.M., Ramsey, P.P y Smidt, R.K. (2001).
Applied Statistics for Engineers and Scientist. Using Microsoft EXCEL and MINITAB. Prentice Hall.
Terrien, C.W. y Tummala, M. (2004). Probability
for Electrical and Computer Engineers. CRC Press
Papoulis, A. Probabilidad, Variables Aleatorias y
Procesos Estoc
asticos. UNIBAR.

Papoulis, A. Probability, Random Variables and Stochastic Processes.


Pe
na, D. Estadstica Modelos y M
etodos, Vol 1.
Alianza Universidad
Ross, S.M. (2009). Introduction to Probability Models (10th edition). Academic Press.
Montgomery, D.C. and Runger, G.C. (2011).Applied Statistics and Probability for Engineers. (5th
edition). Wiley.
Yates, R.D. y Goodman, D.J. (2005). Probability
and Stochastic Processes. A Friendly Introduction
for Electrical and Computer Engineers. 2nd edition.
Wiley
Recursos en Internet
http://www-stat.stanford.edu/ susan/courses/s116/
http://stattrek.com/lesson1/statistics-intro.aspx
http://www.mathgoodies.com/lessons/vol6/
intro probability.html


Indice
1.- Probabilidad
2.- Variables aleatorias
3.- Caractersticas de las variables aleatorias
4.- Modelos de Probabilidad

TEMA 1:

ELEMENTOS BASICOS
DE PROBABILIDAD
Relaci
on de eclipses totales de sol hasta el a
no 2020: 20
de marzo de 2015, 9 de marzo de 2016, 21 de agosto
de 2017, 2 de julio de 2019, 14 de diciembre de 2020.
Los fen
omenos que observamos se pueden clasicar en
deterministas
aleatorios
Un fen
omeno determinista es aquel cuya ocurrencia y
resultado se conoce con antelaci
on. En contraposici
on,
son aleatorios aqu
ellos cuyo resultado no se conoce con
total seguridad hasta despu
es de que han tenido lugar.
Ejemplos de fen
omenos aleatorios: n
umero de llamadas
recibidas en una central telef
onica en un da, volumen de
lluvia caida en una ciudad en un a
no, valor de una se
nal
distorsionada por un ruido, la cotizaci
on que tendr
a
ma
nana un activo nanciero . . .
En todos los ejemplos anteriores no se dispone de una
f
ormula matem
atica explcita que nos proporcione por
adelantado su valor. La oportunidad de ocurrencia de
fen
omenos aleatorios se eval
ua mediante probabilidades.
4

En la pr
actica, incluso en los experimentos controlados, es frecuente encontrar una componente aleatoria
asociada a cualquier experimento debido al efecto de
variables que no controlamos (ruido).
Un objetivo de inter
es es la construcci
on de modelos
que incluyan tal variabilidad para que las conclusiones
de nuestros an
alisis no queden invalidadas.
Al igual que en otras
areas de la Ingeniera, los modelos aleatorios van a constituir aproximaciones a sistemas fsicos reales, si bien se contempla la posibilidad
de variaciones en las salidas del sistema aunque no se
haya producido cambio de las variables bajo control.
Ejemplo: si en el dise
no de un sistema de telefona no
se tiene en cuenta que las llamadas se reciben de forma
aleatoria as como la variabilidad de su duraci
on, el sistema resultar
a inadecuado para su uso pr
actico.
Un experimento que proporciona diferentes resultados
a
un cuando se realiza en id
enticas condiciones, se llama
experimento aleatorio.
Por ejemplo, si medimos la corriente en un cable de
cobre, seg
un la ley de Ohm se tiene
voltaje
resistencia
Sin embargo, un modelo m
as realista podra ser
corriente =

corriente =

voltaje
+ error
resistencia
5

Espacio muestral y sucesos


El conjunto de todos los posibles resultados del experimento aleatorio se llama espacio muestral y lo denotaremos por . Algunos ejemplos son:
i) Lanzamiento de un dado. = {1, 2, 3, 4, 5, 6}
ii) Si se controla el n
umero de defectos en las piezas
procedentes de una producci
on industrial, por ejemplo ruedas para vehculos, los posibles resultados
son todos los n
umeros naturales incluido el cero.
iii) Radiaci
on emitida por una antena de telefona m
ovil
= (0, )
Los espacios muestrales pueden ser nitos o no, as
como discretos o continuos.
Cualquier subconjunto del espacio muestral, E, se denomina suceso.
En el ejemplo i), sale par se corresponde con E = {2, 4, 6}
mientras que en el ejemplo iii), el suceso la radiaci
on
2
es superior a 450 microvatios por cm equivale a F =
(450, ).

Operaciones y
algebra de sucesos
Sean E y F dos sucesos cualesquiera en . Se denen
las siguientes operaciones:
- Uni
on de E y F , denotada E F , es el conjunto
formado por los resultados que est
an en E en F o
en ambos a la vez.
- Intersecci
on de E y F , E F , es el conjunto formado
por los resultados del experimento que est
an en E
y en F simult
aneamente.
De la uni
on de dos sucesos se puede obtener la totalidad
del espacio muestral, tambi
en llamado suceso seguro.
Por ejemplo, E = sale pary F = sale impar.
Por el contrario, la intersecci
on de dos sucesos E y F
que no tienen resultados comunes da lugar al conjunto
vacio o suceso imposible denotado . En este
ultimo
caso E y F se dicen excluyentes o incompatibles.
Para cualquier suceso E se dene como complementario de E, denotado E c , al suceso que est
a formado por
todos los posibles resultados del experimento aleatorio
que no est
an en E. Por tanto se tiene que E c ocurre si y
s
olo si E no tiene lugar, es decir, ambos son excluyentes.

Las operaciones anteriores se pueden extender a n sucesos: A1 , A2 , . . . , An


A1 A2 . . . An
A1 A2 . . . An
A1 , A2 , . . . , An se dicen mutuamente excluyentes si
Ai Aj =

i = j

Sean A, B y C tres sucesos de .


siguientes propiedades
A = A,

A = ,

A = ,

A = A,

c = ,

Se verican las

AA=AA=A
A Ac =

A Ac =

c =

(A B) C = A (B C),

(A B) C = A (B C)

A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
(A B)c = Ac B c ,

(A B)c = Ac B c
8

Ejemplo: Lanzamiento de un dado = {1, 2, 3, 4, 5, 6}


E1 = Salir m
ultiplo de 3 = {3, 6}
E2 = Salir par = {2, 4, 6}
E3 = Salir 6 = {6}
E4 = Salir impar = {1, 3, 5}
E1 E2 = {6},

E1 E2 = {2, 3, 4, 6}, E1c = {1, 2, 4, 5}

E3 E2 , E3 E1 , E4 E2 =
La relaci
on de implicaci
on entre dos sucesos, A B,
signica que siempre que ocurre A, entonces ocurre B.
El recproco no tiene por qu
e ocurrir, puede producirse
la ocurrencia de B sin que A haya tenido lugar.
Asignaci
on de la probabilidad
Frecuentista: En experimentos que pueden ser repetidos en las mismas condiciones, la probabilidad se interpreta como el lmite de la frecuencia relativa a medida
que crece el n
umero de experimentos. Por ejemplo, la
proporci
on de caras en 106 lanzamientos de moneda se
aproxima a 12 o cuando estimamos que la fracci
on de
piezas defectuosas en una producci
on, a partir de la observaci
on de 50000 piezas, es del 1%.
Subjetiva: En experimentos que no son susceptibles
de ser repetidos una y otra vez, la probabilidad viene a
signicar una medida de certidumbre. As por ejemplo
puedo apostar 10 a 1 a que el caballo A ganar
a al B en
una carrera, signicando que veo 10 veces m
as posible
el
exito del caballo A.
9

Frecuencia relativa nmero de caras vs nmero de lanzamientos

Frecuencia relativa nmero de caras

0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
0

50

100
150
Nmero de lanzamientos

200

umero de caras
Se constata c
omo limn n
n

250

1
2

10

Espacio muestral con resultados igualmente verosmiles


Si el espacio muestral consta de N resultados factibles
con la misma oportunidad de ocurrencia, un modelo
razonable es asignar a cada uno de ellos una probabilidad
1
.
N
Un espacio muestral como este est
a ligado a situaciones
de elecci
on al azar , sin sesgos.
Si el suceso que se analiza est
a constituido por varios
resultados de , la probabilidad vendr
a dada por la suma
de las probabilidades de cada uno de ellos.
Axiomas de la probabilidad
Para modelar un experimento aleatorio, se construye
una funci
on P que a cada suceso, A, le asigna un valor
num
erico P (A). Los siguientes axiomas aseguran que tal
funci
on sea una funci
on de probabilidad que pueda ser
interpretada en t
erminos de frecuencias relativas y que
sea consistente con las relaciones que estas verican.
La probabilidad asociada a cada suceso E del espacio
muestral verica las siguientes propiedades:
1.- 0 P (E) 1
2.- P () = 1
3.- Si {Ei }
i=1 verican Ei Ej = , i = j entonces
(
)

P
Ei =
P (Ei )
i=1

i=1

11

Principales consecuencias de los axiomas:


P () = 0
P (E c ) = 1 P (E)
Si E1 E2 , entonces P (E1 ) P (E2 )
Sean E1 , E2(, . . . , En) tales
que Ei Ej = i = j,

n
entonces P ni=1Ei = i=1 P (Ei )
P (E1 E2 ) = P (E1 ) + P (E2 ) P (E1 E2 )
P (E1 E2 E3 ) =
P (E1 ) + P (E2 ) + P (E3 ) P (E1 E2 )
P (E1 E3 ) P (E2 E3 ) + P (E1 E2 E3 )
Para la uni
on de n sucesos:
n

P (ni=1Ei ) =
P (Ei )

i=1

P (Ei Ej ) +

i<j

P (Ei Ej Ek ) + . . . +

i<j<k
n

+ . . . + (1)

P (Ei1 . . . Ein1 )

i1 <i2 <...<in1

+ (1)n+1P (E1 E2 . . . En)


12

Probabilidad Condicional
En ocasiones la probabilidad asignada a un suceso en
unas condiciones experimentales dadas, debe ser revisada al conocerse cierta informaci
on adicional que puede afectar al resultado de aqu
el. La probabilidad de un
suceso, cuando se conoce que otro ha tenido lugar, se
denomina probabilidad condicional.
Ejemplo En sistema de comunicaci
on la tasa de error
es de un bit por cada mil transmitidos. Los errores
se producen raramente pero cuando ocurren tienden a
hacerlo de modo que afectan a varios bits consecutivos.
Si se transmite s
olo un bit, ser
a err
oneo con probabilidad 1/1000; sin embargo, si el bit anterior era err
oneo,
podramos pensar en que el siguiente lo ser
a tambi
en
con probabilidad mayor que 1/1000.
Ejemplo Supongamos que en un lote de 100 unidades
de un determinado producto hay 2 que no cumplen las
especicaciones, resultando, por consiguiente, defectuosas. Si se eligen dos unidades al azar, cu
al es la probabilidad de que la segunda sea defectuosa, siendo que la
primera no lo era?, c
omo se modica la probabilidad
anterior si la primera result
o ser defectuosa?
Definici
on 1 La probabilidad condicional de un suceso
B dada la ocurrencia de otro, A, tal que P (A) > 0, se
denota P (B|A) y viene dada del siguiente modo
P (B|A) =

P (A B)
P (A)
13

Regla del producto


La denici
on de probabilidad condicional se puede utilizar del siguiente modo.
Sean dos sucesos A y B tales que P (A) > 0 y P (B) > 0,
entonces se verica
P (A B) = P (A|B)P (B) = P (B|A)P (A)
De manera m
as general, se tiene

P
Aj =
j=1

= P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) . . . P (An|A1 . . . An1 )


Regla de la probabilidad total

Sean {Ai }
tales
que
A

A
=
,
i
=

j,
i
j
i=1
i=1 Ai =
(sistema completo de sucesos) y P (Ai ) > 0, para todo
i. Sea B otro suceso, entonces
P (B) =

i=1

P (B Ai ) =

P (B|Ai )P (Ai )

i=1

La regla de la probabilidad total constituye un m


etodo
de c
alculo de probabilidades de un suceso que depende
de otros.

14

Regla de Bayes
En ocasiones, conocemos cu
al es la probabilidad de un
suceso condicionado a la ocurrencia de otro, sin embargo desearamos saber la probabilidad condicionada a
la inversa. Pensemos por ejemplo en los ltros dise
nados
para identicar el correo spam. En general, se suele
conocer cu
al es la probabilidad de error en el sentido
de que la prueba identique como spam un mensaje
legtimo; esta situaci
on se denomina falso positivo. Nuestro inter
es se dirige hacia la probabilidad de que un mensaje sea spam cuando el ltro lo identica como tal.
Regla de Bayes

Sean {Ai }
tales
que
A

A
=
,
i
=

j,
i
j
i=1
i=1 Ai =
(sistema completo de sucesos) y P (Ai ) > 0, para todo
i. Sea B otro suceso, entonces
P (B|Ai )P (Ai )
P (Ai |B) =
j=1 P (B|Aj )P (Aj )
Independencia de sucesos
En algunos casos, la probabilidad de un suceso B no
depende de la ocurrencia, o no, de otro A. En estas
situaciones, el conocimiento de que A ha tenido lugar,
no afecta a la probabilidad de que el experimento aleatorio de B como resultado.
15

Dos sucesos A y B son independientes si y s


olo si se
verica cualquiera de las siguientes condiciones
P (A B) = P (A)P (B)
P (B|A) = P (B) si P (A) > 0
P (A|B) = P (A) si P (B) > 0
Teorema 1 Si A y B son dos sucesos independientes,
entonces se tiene:
A y B c son independientes
Ac y B son independientes
Ac y B c son independientes
Sucesos mutuamente independientes
La anterior denici
on de independencia se reere a parejas de sucesos. Si tenemos la independencia entre A
y B, B y C as como la de A y C, no se inere que
P (A B C) = P (A)P (B)P (C).
Los sucesos (Ai )ni=1 se dicen mutuamente independientes cuando para cualquier subconjunto se verica
P

)k
Aij

=
j=1

P (Aij ), 1 i1 < i2 . . . ik n, 2 k n

j=1

16

TEMA 2:
VARIABLE ALEATORIA
Ejemplo: Transmisi
on de un mensaje con n dgitos con
posibilidad de error. Se emite un mensaje al azar, nos
interesa saber:
n
umero de dgitos enviados correctamente
tiempo empleado en la transmisi
on del mensaje
Supongamos ahora la siguiente codicaci
on:
Anotamos un 1 por cada dgito correctamente emitido
y 0 en caso contrario.
Cada mensaje emitido es el resultado de un experimento
aleatorio al cual se le asignan dos valores num
ericos que
responden a las preguntas anteriores: el n
umero de unos
y el tiempo que haya durado su emisi
on. Puesto que el
resultado particular del experimento, el mensaje, no se
conoce por adelantado, ocurre lo mismo con los valores
num
ericos asociados, pudi
endose obtener resultados distintos cada vez que emitamos un nuevo mensaje. Una
variable aleatoria es por consiguiente un resultado, en
general expresado num
ericamente, asociado a un experimento aleatorio.
Definici
on 2 Una variable aleatoria, X, es una funci
on
que asigna un n
umero real a cada posible resultado del
espacio muestral en un experimento aleatorio
X : RX
17

RX , denominado rango, recorrido o soporte es el conjunto de todos los posibles valores de X. En las variables
aleatorias reales, RX un subconjunto de los reales. Importante: a cada en , X le asigna un
unico valor.
Ejemplo: Se lanza una pareja de dados, obteni
endose
premio si la suma de las puntuaciones de sus caras es 3.
= {(x1 , x2 ); x1 = 1, 2, . . . , 6; x2 = 1, 2, . . . , 6}
RX = {2, 3, . . . , 12}
La probabilidad de obtener premio es
P (X = 3) = P ((1, 2) (2, 1)) =
1
1
1
= P ((1, 2)) + P ((2, 1)) =
+
=
36
36
18
En general, para cualquier B RX , se tiene
P (B) = P ({s |X(s) B})
Para evaluar probabilidades podemos utilizar la funci
on
de distribuci
on
Definici
on 3 La funci
on de distribuci
on, FX (x), de una
variable aleatoria X se define:
FX (x) = P (X x),

< x <

Dado que FX (x) es una probabilidad, para cualquier x


se debe tener 0 FX (x) 1. Adem
as, FX (x) es no
decreciente en x.
18

Dependiendo de su rango las variables aleatorias se clasican en


discretas: cuando RX es nito o innito numerable
continuas: cuando RX es un intervalo nito o innito
Ejemplos de variables discretas: n
umero de bits recibidos
con error en una transmisi
on, n
umero de ara
nazos en
una supercie, n
umero de unidades defectuosas en un
lote, . . .
Ejemplos de variables continuas: corriente el
ectrica que
atraviesa un cable, radiaci
on emitida por una antena de
telefona m
ovil, valor de una se
nal que se ve afectada
por la presencia de un ruido, . . .
Variable discreta
Sea X : RX una variable discreta, RX = {x1 , x2 , . . .}
La funci
on de probabilidad (tambi
en llamada de masa
de probabilidad) es una descripci
on de las probabilidades
asociadas a los posibles valores de X:

p(xi ) = P (X = xi ) =
P (s), i = 1, 2 . . .
{s:X(s)=xi }

19

Definici
on 4 Una funci
on de probabilidad debe satisfacer las siguientes propiedades
a) p(xi ) 0, para todo i

b)
xi RX p(xi ) = 1
Si X toma s
olo un n
umero nito de valores, por ejemplo,
RX = {x1 , x2 , . . . , xN }, entonces p(xi ) = 0 para todo xi
/
RX , convirti
endose el sumatorio anterior en una suma
nita.
Conocida la funci
on de masa de probabilidad, se pueden
calcular probabilidades de sucesos denidos mediante la
variable X. Sea A RX , entonces

P (X A) =
p(xi )
i:xi ARX

Para una variable aleatoria discreta el valor de la funci


on
de distribuci
on en x se obtiene sumando las probabilidades de todos aquellos xi RX tales que xi x, es
decir,

FX (x) =
p(xi )
xi x

Ejemplo: Supongamos que X es una variable aleatoria


discreta con la siguiente funci
on de probabilidad

1, P (X = 1) = 0.2
X = 2, P (X = 2) = 0.4

4, P (X = 4) = 0.4
20

La funci
on de distribuci
on asociada es

0, x < 1

0.2, 1 x < 2
FX (x) =

0.6, 2 x < 4

1, x 4
FX (x) es discontinua en los puntos x = 1, 2, 4. Se trata
de una funci
on en forma de escalera donde la altura de
los respectivos escalones est
a dada por
P (X = 1) = 0.2, P (X = 2) = 0.4, P (X = 4) = 0.4
La funci
on de distribuci
on de cualquier variable aleatoria
discreta, X, verifica las siguientes propiedades:
i) FX (x) es no-decreciente, es decir, FX (x) FX (y)
para todo x y
ii) limx FX (x) = 0, limx FX (x) = 1
iii) FX (x) es continua por la derecha, es decir,
lim FX (x + h) = FX (x), para todo x

h0

( )
( )
Denotaremos por FX x+ y FX x los lmites de FX (h)
cuando h converge a x por la derecha y por la izquierda
respectivamente. En el ejemplo anterior se advierte que
P (X = 1) = FX (1) FX (1 ) = 0.2
P (X = 2) = FX (2) FX (2 ) = 0.4
P (X = 4) = FX (4) FX (4 ) = 0.4
21

Para una variable aleatoria discreta, X, las probabilidades de cualquier valor x se obtienen
P (X = x) = FX (x) FX (x )
Asimismo, se tiene que para cualesquiera a y b reales
tales que a < b se verica
P (a < X b) = FX (b) FX (a)
Variable continua
Las variables continuas se caracterizan por tomar un
n
umero innito no numerable de valores. Consideremos el tiempo de espera en la parada del tranva. Los
posibles resultados no son numerables sino que corresponden a un intervalo de R. En este caso no podemos
hablar del i-
esimo valor de la variable y la funci
on de
probabilidad en ellos es nula. En el c
alculo de probabilidades con variables continuas hacemos uso de la funci
on
de densidad, f (x).
Definici
on 5 Para una variable continua X la funci
on
densidad, f (x), es una funci
on tal que
i) f (x) 0, para todo x

ii) f (x)dx = 1
x
ii) F (x) = P (X x) = f (u)du

22

Un histograma permite disponer de una aproximaci


on
a la funci
on de densidad. Para cada intervalo del histograma, el
area del rect
angulo correspondiente es igual
a la frecuencia relativa de las medidas dentro de ese intervalo. La frecuencia relativa es un estimador de la
probabilidad de que una medida est
e en ese intervalo.
23

f(x)

X es una variable continua si puede tomar todos los


valores dentro de un intervalo (c, d), donde c y d pueden
ser e , respectivamente.
b
P (a < X < b) = a f (x)dx y por tanto P (a < X < b)
representa el
area bajo la curva f (x) entre a y b.
Nota 1: Si X s
olo toma valores en un intervalo nito
[a, b], se establece que f (x) = 0 para todo x que no
pertenezca a [a, b].
Nota 2: f (x) no es una probabilidad, sino que representa c
omo se reparte la probabilidad a lo largo del rango
de la variable. S
olo cuando la funci
on se integra entre
dos lmites genera una probabilidad.
24

Sin embargo, se puede dar la siguiente interpretaci


on:
Si x es sucientemente peque
no
f (x)x P (x X x + x)
Al hablar de probabilidad nos interesa ver c
omo
esta
cambia de unas zonas a otras del rango de la variable.
Un modo de cuanticarlo sera mediante el estudio de
la velocidad con que F (x) cambia respecto a x, es decir
de su derivada.
dFX (x)
f (x) =
dx
on de distribuci
on de una vaDefinici
on 6 La funci
riable aleatoria continua con funci
on de densidad f se
define como
x
FX (x) =
f (u)du

La funci
on de distribuci
on de una variable aleatoria continua es continua para todo x. Por tanto:
P (X = x) = FX (x) FX (x ) = 0
y en consecuencia
P (X x) = P (X < x)

25

Adem
as se tiene el siguiente resultado:
Sea FX (x) la funci
on de distribuci
on de una variable
aleatoria con funci
on de densidad f (x), entonces se tiene
dFX (x)
dx
para todo x en el cual F es diferenciable.
f (x) =

En cuanto al c
alculo de probabilidades:

P (X < a) = P (X a) = F (a) =

f (x)dx


P (X > b) = P (X b) = 1 F (b) =
f (x)dx
b
b
P (a < X < b) = P (a X b) =
f (x)dx
a

Distribuci
on de la funci
on de una variable aleatoria
Supongamos que X es una se
nal aleatoria cuya funci
on
de densidad es f (x) y sea la funci
on Y = h(X) = aX.
Si a > 1, Y representa una versi
on amplicada de X,
o atenuada en el caso a < 1. Y es, a su vez, una
variable aleatoria y para cualquier suceso asociado con
el recorrido de Y se tiene
P (Y C) = P (h(X) C) = P (X h1 (C))
en discreta.
Si X es una variable discreta, Y es tambi
26

Ejemplo

1, P (X = 1) =
X = 0, P (X = 0) = 12

1, P (X = 1) = 1
6

1
3

Sea Y = X 2
{
1, P (Y = 1) = P (X = 1) + P (X = 1) =
Y =
0, P (Y = 0) = P (X = 0) = 12

1
2

Si X es una variable continua, Y puede ser discreta o


continua.
Ejemplo Supongamos que X es una variable aleatoria
continua cuyo recorrido es toda la recta real. La variable
Y = X 2 es tambi
en continua. Sin embargo, en el caso
{
1, X > 0
T =
1, X 0
se tiene que T es una variable aleatoria discreta.
La situaci
on de mayor inter
es y que se encuentra con
m
as frecuencia, aparece cuando X es una variable aleatoria continua con funci
on de densidad f (x) e Y =h(X) es
asimismo una variable aleatoria con funci
on de densidad
g. Si tal es el caso, se distinguen las dos situaciones
siguientes:

27

h(x) es una funci


on inyectiva: x1 = x2 h(x1 ) =
h(x2 )
h(x) no es inyectiva: existen x1 , . . . , xk tales que
h(x1 ) = . . . = h(xk ) = y
Resultado 1: Sea X una variable aleatoria continua
cuya funci
on de densidad es f (x) con f (x) > 0 para a <
x < b. Sup
ongase que la funci
on y = h(x) es inyectiva
y derivable para todo x. La variable aleatoria Y = h(X)
tiene una funci
on de densidad g(y) dada por
1



dh
(y)
1


g(y) = f (h (y))
dy
Si h es creciente el soporte de Y est
a dado por los valores
h(a) < y < h(b). Por el contrario, si h es decreciente, el
soporte de Y viene dado por h(b) < y < h(a).
Resultado 2: Sea X una variable aleatoria continua
cuya funci
on de densidad es f (x) con f (x) > 0 para a <
x < b. Sup
ongase que la funci
on y = h(x) es derivable
para todo x y tal que existen x1 , . . . , xk tales que h(x1 ) =
. . . = h(xk ) = y. La variable aleatoria Y = h(X) tiene
una funci
on de densidad g(y) dada por
1

k

dh (y)

g(y) =
f (xi (y))

dy
i=1
28

TEMA 3:
CARACTER
ISTICAS DE LAS V. ALEATORIAS
Valor esperado de una variable aleatoria
Uno de los conceptos m
as importantes en teora de
la probabilidad es el de valor esperado o esperanza
matem
atica de una variable aleatoria X, denotado E(X).
Sea X es una v. a. discreta con valores posibles x1 , . . . , xn . . .
cuyas probabilidades son p(xi ) = P (X = xi ), entonces
se tiene

E(X) =
xi p(xi )
denida siempre que

i=1

i=1 |xi |p(xi )

<

es decir, la esperanza representa una media ponderada


de todos los posibles valores que X puede tomar, ponderando cada valor por la probabilidad de su ocurrencia.
Supongamos que X es una variable aleatoria continua
con funci
on de densidad f (x). Cuando dx es peque
no,
se verica
f (x)dx P (x < X < x + dx)
de donde se sigue que una media ponderada de todos
los posibles valores de X, siendo el peso la probabilidad
de que X est
e cerca de x, es justamente la integral de
xf (x)dx a lo largo de todos los posibles valores x. As,
se dene

E(X) =
xf (x)dx

29

E(X) existe siempre que

|x|f (x)dx <

Notas:
El concepto de esperanza es an
alogo al concepto
fsico de centro de gravedad de una distribuci
on de
masas.
E(X) y X vienen dadas en las mismas unidades.
Propiedades de la esperanza
Esperanza de la funci
on de una v.a Y = h(X)
Consideremos X discreta con funci
on de masa p(x)

E[h(X)] = E(Y ) =
h(x)p(x)
x

on de densidad f (x)
Sea X continua con funci

E[h(X)] = E(Y ) =
h(x)f (x)dx

Esperanza de una transformaci


on lineal Y = aX + b
E(aX + b) = aE[X] + b
La informaci
on que E(X) proporciona acerca de X es
muy limitada. Por ejemplo si E(X) = 0 puede ser que
X = 0 o bien que X tome con igual probabilidad valores
de signo opuesto. La variaci
on de X en torno a su media
la proporciona la varianza.
30

Varianza de una variable aleatoria


Sea X una variable aleatoria con media E(X) = , la
varianza de X denotada V ar(X) se dene como
2 = V ar(X) = E(X )2 = E(X 2 ) ()2
Propiedades de la varianza
Sea c una constante, entonces se tiene
V ar(c) = 0
V ar(X + c) = V ar(X)
V ar(cX) = c2 V ar(X)
|

La varianza y su raz cuadrada = (V ar(X)) 2 , denominada desviaci


on tpica, constituyen medidas de dispersi
on de X.
La desviaci
on tpica viene expresada en las mismas unidades de X, mientras que la varianza lo est
a en las
unidades de X al cuadrado.
Una medida que compara la dispersi
on relativa de dos
distribuciones de probabilidad es el coeficiente de variaci
on

CV =

31

Expresiones aproximadas de la media y de la varianza


Seg
un se ha indicado, para evaluar E(Y ) y V ar(Y ) donde
Y = h(X), no necesitamos conocer la distribuci
on de
probabilidades de Y , sino que podemos trabajar directamente con la distribuci
on de probabilidades de X.
Cuando la funci
on h(X) es muy complicada, el c
alculo
de de la media y varianza de Y puede involucrar integraciones o sumas complejas. Por este motivo, las
siguientes aproximaciones pueden ser de utilidad.
Resultado: Sea X una v.a. con E(X) = y V ar(X) = 2 .
Supongamos que Y = h(X), en tal caso se tiene:
h () 2
E(Y ) h() +

2
(
)2 2
V ar(Y ) h ()
A n de hacer
utiles las aproximaciones anteriores, necesitamos que h sea diferenciable dos veces en .

32

Medidas de forma
Para la descripci
on de una v.a. son
utiles asimismo los
coecientes de asimetra (CAs) y de apuntamiento o
curtosis (CAp)
E(X )3
E(X )4
CAs =
CAp =
3
4
CAs mide el grado de asimetra respecto de la media, mientras que CAp es una medida de cu
an puntiaguda es la distribuci
on de probabilidad. La siguiente
gr
aca corresponde a una distribuci
on asim
etrica positiva (CAs > 0).

33

La siguiente gr
aca muestra las funciones de densidad
de una normal y una t de la misma media y varianza. La segunda es m
as apuntada y sus coecientes de
apuntamiento son, respectivamente, CAp = 0 y CAp > 0
Distribution Plot
0,4

Distribution Mean StDev


Normal
0
1,67
Distribution df
T
5

Density

0,3

0,2

0,1

0,0
-5,0

-2,5

0,0
X

2,5

5,0

Otras medidas de centralizaci


on
Otras medidas de inter
es son los percentiles, xp , que
dividen a la distribuci
on de X en 100 partes con id
entica
probabilidad. Siendo X una v. a. continua, se tiene
Por ejemplo x0.1

P (X xp ) = p
verica que P (X x0.1 ) = 0.1.

Caso particular: x0.25 , x0.5 y x0.75 , denominados cuartiles.


34

El percentil del 50%, x0.5 o segundo cuartil, tambi


en
se denomina mediana y divide a la distribuci
on en dos
partes iguales.
Definici
on 7 Para cualquier variable aleatoria X se define la moda como el valor que maximiza la funci
on de
probabilidad si X es discreta, o la funci
on de densidad,
si X es continua.
Si conocemos la funci
on de probabilidad o la de densidad
de una variable aleatoria X, podemos calcular E(X) y
V ar(X). Sin embargo, a partir de la media y la varianza
no podemos reconstruir la distribuci
on de probabilidad
de X. Si bien no se pueden evaluar probabilidades de
manera exacta, s que es posible dar una cota superior
o inferior para tales probabilidades mediante la llamada
desigualdad de Chebyshev:
Si X es una v.a. cuya media y varianza son, respectivamente y 2 , para cualquier valor k > 0 se verifica:
P (|X | < k) 1
P (|X | k)

1
k2

1
k2

De la desigualdad de Chebyshev se inere que cuanto


mayores son las desviaciones respecto de la media, son
tanto m
as improbables. Por otra parte, cuanto menor
sea la varianza, m
as concentrados tienden a estar sus
valores en torno a la media.
35

TEMA 4:
MODELOS DE PROBABILIDAD
Modelos de probabilidad discretos:
Distribuci
on uniforme sobre n puntos
Una variable aleatoria X cuyo soporte est
a dado por
{x1 , x2 , . . . , xn }, se dice con distribuci
on uniforme si su
funci
on de probabilidad est
a dada por:
{1
, X = xi
p(X = xi ) = n
0, en otro caso
Su funci
on de distribuci
on:

0, x < min{x1, x2, . . . , xn} = x(1)


FX (x) = ni , x(i) x < x(i+1)

1, x max{x , x , . . . , x } = x
n
1
2
(n)
Su valor medio:
E(X) =

i=i

1
xi =
n

i=i xi

=X

36

Ensayos de Bernoulli
Est
an asociados con cualquier fen
omeno aleatorio que
se manieste como una dicotoma:
exitoo fracasode
un experimento, pieza defectuosa o no defectuosa, nivel
o > 10.000 euros , nivel de radiaci
on
de renta 10.000
de antenas de telefona m
ovil 450 microvatios o inferior.
X es una variable de Bernoulli si
{
X = 1, P (X = 1) = p
X = 0, P (X = 0) = 1 p = q
E(X) = p, V ar(X) = p(1 p)
La distribuci
on binomial est
a asociada a una repetici
on
de varios ensayos de Bernoulli independientes y donde la
probabilidad p permanece constante en todos ellos. Por
ejemplo, denotemos por p a la probabilidad de producir
una pieza defectuosa y supongamos que se producen n
piezas de manera independiente. El estado de la pieza
i se describe mediante Xi :
{
Xi = 1, si la pieza i es defectuosa
Xi = 0, si es no defectuosa
El n
umero de piezas defectuosas
n en una muestra de
n piezas viene dado por X =
i=1 Xi , X se dice con
distribuci
on binomial con par
ametros n y p.
37

La funci
on de probabilidad de X con distribuci
on B(n, p),
est
a dada por
(
)
n
P (X = k) =
pk (1 p)nk , X = 0, 1, 2, . . . , n
k
E(X) = np, V ar(X) = np(1 p). E(X) representa la
frecuencia esperada de
exitosen n repeticiones independientes de un experimento.
Est
a asociada a
Muestreo con reposici
on en poblaciones nitas
Muestreo con o sin reposici
on en poblaciones innitas
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi B(ni , p)
independientes, en tal caso se tiene
( n
)
n

Y =
Xi B
ni , p
i=1

i=1

38

Distribuci
on geom
etrica
Est
a asociada tambi
en a ensayos de Bernoulli para representar situaciones de espera. Por ejemplo, sea A el
suceso tener seis aciertos en la primitiva una semana
cualquiera cuya probabilidad es p. Sea X el n
umero de
semanas que debemos esperar hasta que ocurre A, X
se dice con distribuci
on geom
etrica con par
ametro p,
(G(p)), y su funci
on de probabilidad est
a dada por
P (X = k) = (1 p)k1 p,
E(X) =

1
p

y V ar(X) =

k = 1, 2, . . .

1p
p2

Supongamos que llevamos un tiempo jugando sin haber


obtenido premio, la probabilidad de que tengamos que
esperar, por ejemplo, 5 semanas m
as para obtener el
premio es independiente del tiempo que llevemos jugando. Esta propiedad se denomina ausencia de memoria y su expresi
on formal viene dada por
P (X s + t|X > s) = P (X t)
para cualesquiera s y t enteros positivos.

39

Distribuci
on binomial negativa
Se considera de nuevo un experimento dicot
omico, por
ejemplo, (
exito/fracaso) y la repetici
on de ensayos de
Bernoulli hasta conseguir r
exitos. Sea X la v.a. que
contabiliza el n
umero de pruebas realizadas hasta lograr
los r
exitos.
La v.a. X sigue una distribuci
on binomial negativa
BN (r, p) y su funci
on de probabilidad viene dada por
(
)
k1
P (X = k) =
pr (1p)kr , k = r, r+1, r+2, . . .
r1
r(1p)
p2

E(X) = pr , V ar(X) =

La distribuci
on binomial negativa modela fen
omenos de
espera hasta que un determinado suceso ocurre r veces.
En el caso r = 1 se tiene la distribuci
on geom
etrica.
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi Ge(p)
independientes, entonces
Y =

Xi BN (n, p)

i=1

En el caso de que Xi BN (ni , p) independientes, entonces


( n
)
n

Y =
Xi BN
ni , p
i=1

i=1

40

Distribuci
on hipergeom
etrica
En ocasiones el supuesto de independencia de los ensayos de Bernoulli no se verica. Supongamos por ejemplo que de un lote de 10 piezas del que 3 son defectuosas
extraemos dos piezas.
3
La probabilidad de que la primera sea defectuosa es 10
.
La probabilidad de que la segunda sea defectuosa depende de c
omo fue la primera:

P (2adefectuosa|1adefectuosa) =

2
9

P (2adefectuosa|1ano defectuosa) =

3
9

La situaci
on es totalmente diferente de las de los ejemplos basados en la distribuci
on binomial ya que las sucesivas pruebas no son independientes.
La distribuci
on hipergeom
etrica se utiliza para modelar extracciones sin reemplazamiento: Supongamos un
almac
en conteniendo N piezas de las que r son defectuosas. Se extrae una muestra de n piezas del almac
en
y nos interesa el n
umero de defectuosas en la muestra,
X.

41

X es hipergeom
etrica (H(N, n, r)) y su funci
on de probabilidad es
( )(
)
r
N r
k
nk
(
)
P (X = k) =
N
n
E(X) = n Nr
En el problema anterior se puede hacer uso de la distribuci
on binomial en cualquiera de los dos casos siguientes:
Cada pieza extrada se retorna al lote una vez examinada (extracci
on con reemplazamiento)
En el caso de que el tama
no de la muestra sea
signicativamente menor que el del lote ( Nn < 0.1),
En los dos casos anteriores H(N, n, r) B(n, p), siendo
p = Nr
Distribuci
on de Poisson
Con frecuencia existen situaciones en las que la probabilidad de ocurrencia de un suceso es muy peque
na, por
ejemplo, el fallo de un componente electr
onico, mientras
que es muy grande el n
umero de unidades a vericar.
42

El c
alculo de probabilidades con la binomial resulta muy
costoso, sin embargo con p 0 y n , la binomial
se puede aproximar a X con distribuci
on de Poisson con
par
ametro = np. Un criterio razonable para la aproximaci
on es p < 0.1 y np > 1.
La funci
on de probabilidad de la v.a. poisson est
a dada
por
k

P (X = k) = e
, k = 0, 1, 2, . . .
k!
E(X) = V ar(X) =
Esta distribuci
on se suele denominar como ley de los
sucesos raros ya que se utiliza para contar el n
umero
de veces que ocurre un suceso cuya probabilidad de ocurrencia es baja. As ocurre, por ejemplo, con los accidentes de avi
on, escapes radioactivos, defectos en una
supercie, . . .
Propiedad: Sean Xi , i = 1, . . . , n tales que Xi (i )
independientes, entonces
( n
)
n

Y =
Xi
i
i=1

i=1

43

Modelos de probabilidad continuos:


Distribuci
on uniforme continua
La distribuci
on uniforme en el intervalo [a, b] corresponde a la variable aleatoria que resulta de elegir un n
umero
completamente al azar en tal intervalo. Est
a asociada
a la idea de elecci
on al azar, sin preferencias.
{
1
, axb
ba
f (x) =
0, en otro caso

0,

x<a
x 1
F (x) =
du =
a ba

1, x > b
E(X) =

a+b
,
2

V ar(X) =

xa
,
ba

axb

(ba)2
12

44

Distribuci
on exponencial
Con frecuencia, la distribuci
on exponencial se utiliza
para modelar tiempos hasta el fallo de sistemas. Su
funci
on de densidad viene dada por
{ x
e
, x0
f (x) =
0 x<0

{
1 ex ,
F (x) =
0 x<0
E(X) = 1 , V ar(X) =

x0

1
2

La distribuci
on exponencial sirve para modelar tiempos
de espera y es la
unica distribuci
on continua que presenta la propiedad de ausencia de memoria, esto signica que el tiempo de espera que nos resta no depende
del que llevemos esperando. Es decir, para cualesquiera
s, t > 0 se verica
P (X > s + t|X > t) = P (X > s)

45

El proceso de Poisson
Supongamos las siguientes situaciones: en una producci
on
de cable de cobre los defectos ocurren de modo aleatorio a lo largo de su longitud y anotamos el n
umero de
defectos en una longitud ja, por ejemplo un metro, de
cobre. Los intentos de conexi
on a un servidor de Internet tienen lugar a tasa constante y contabilizamos
los que ocurren en un intervalo de tiempo concreto, por
ejemplo entre las 10 y las 12 de la ma
nana.
Las situaciones consideradas se reeren a los eventos
asociados a un experimento aleatorio que ocurren con
tasa constante en el espacio o en el tiempo. Por ejemplo, la ruptura de un componente en un sistema, las llamadas a una centralita telef
onica, llegadas de clientes
a un servicio, las subidas de tensi
on en la corriente
el
ectrica, las emisiones de partculas radiactivas . . .
Nt =n
umero de ocurrencias en [0, t] . Estudiaremos la
sucesi
on de variables {Nt, t 0} que recibe el nombre
de Proceso de Poisson de tasa cuando se cumplen los
siguientes supuestos:

46

Si consideramos un intervalo [0, t] dividido en subintervalos de corta duraci


on h = nt y se verican los siguientes
supuestos
1.- La probabilidad de que tenga lugar m
as de una
ocurrencia en un subintervalo es nula.
2.- La probabilidad de que ocurra una ocurrencia en un
subintervalo es proporcional a la amplitud de este,
h.
3.- El hecho de que en un subintervalo tenga lugar o
no un evento es independiente de lo que ocurra en
los restantes subintervalos.

Si se verican los postulados anteriores, entonces


t (t)

P (Nt = k) = e

, k = 0, 1, 2, . . .
k!
Es decir, Nt es v.a. de Poisson de par
ametro t.
Relaci
on entre la exponencial y el proceso de Poisson
Sea {Nt, t 0} un proceso de Poisson de tasa y denotemos por Xn al tiempo aleatorio entre las ocurrencias
n 1 y n. Xi se denominan tiempos entre llegadas del
proceso.
Propiedad: X1 , X2 , . . . son v.a. independientes con distribuci
on exponencial de tasa .
47

X1 representa el tiempo hasta la primera ocurrencia


P (X1 > t) = P ((0, t) = 0) = et
y por tanto X1 es exponencial de par
ametro .
Asimismo se tiene que para s, t > 0
P (X2 > t|X1 = s) = P ((s, s+t) = 0) = et = P (X2 > t)
se advierte que X2 es independiente de X1 y que tiene
tambien distribuci
on exponencial de par
ametro . Reiterando el argumento, se tiene el resultado.
Importante: Otra variable de inter
es en un proceso
de Poisson es el tiempo que transcurre hasta que se
producen n ocurrencias, Tn = X1 + . . . + Xn .
Se advierte que si el tiempo transcurrido hasta que se
producen n eventos es inferior a t unidades de tiempo,
de modo equivalente en esas t unidades de tiempo se
habr
an producido, como mnimo, n eventos, es decir:
P (T t) = P ((t) n) =

i=n

t (t)

i!

Propiedad: Si los tiempos entre ocurrencias de un proceso, X1 , X2 , . . ., son v.a. independientes y con distribuci
on exponencial de par
ametro , entonces se verica que las ocurrencias tienen lugar de acuerdo a un
proceso de Poisson.
48

Distribuci
on gamma
X se dice con distribuci
on gamma, (p, a), p > 0 y a > 0,
si su funci
on de densidad est
a dada por
{ p
a
eax xp1 , x 0
(p)
f (x) =
0, x < 0
E(X) = ap , V ar(X) =

p
a2

(p) es la funci
on gamma de Euler:

(p) =
ex xp1 dx, p > 0
0

(p) verica
(p + 1) = p(p)
(n + 1) = n! con n entero positivo

(1)
2

49

Propiedad: Sean Xi , i = 1, . . . , n tales que Xi Exp()


independientes, entonces
Y =

Xi (n, )

i=1

Como consecuencia el tiempo que transcurre hasta que


se producen n ocurrencias de un proceso de Poisson
tiene distribuci
on (n, ).

Propiedad: Xi (ni , ) independientes, entonces


( n
)
n

Y =
Xi
ni ,
i=1

i=1

50

Distribuci
on normal
Aparece en el estudio de algunos fen
omenos fsicos o en
la descripci
on del comportamiento de errores de medida.
En este
ultimo caso surge cuando el error es el resultado
de la suma de muchos efectos innitesimales e independientes: variaciones en la materia prima, en el
angulo
de corte, en la velocidad, desgaste de la herramienta,
vibraciones. . .
Cuando se repite un experimento un elevado n
umero de
veces, tanto la suma de los resultados como su promedio
muestran un comportamiento en forma de Campana de
Gauss (Teorema del Lmite Central). Este es el motivo
esencial de que la normal sea la distribuci
on de mayor
relevancia en la teora y pr
actica estadsticas.
Est
a caracterizada por su valor medio, , y su desviaci
on
tpica, . Su funci
on de densidad es de la forma

{
}
(x )2
f (x) =
exp
,
2 2
2
1

< x <

Esta distribuci
on se indica, abreviadamente, N (, ) y
es sim
etrica respecto . Por consiguiente, el coeciente
de asimetra es nulo.

51

La funci
on de distribuci
on asociada a la normal est
andar,
Z = N (0, 1), est
a tabulada:
s
1
2
(s) =
ex /2 dx
2
por lo que el c
alculo de probabilidades relativo a una
normal no est
andar, X = N (, ), se realiza tras hacer
el siguiente cambio de escala:
Z=
Por ejemplo:

P (X a) = P

X
a

(
)
a
=P Z

etrica respecto 0 y
La distribuci
on Z = N (0, 1) es sim
por tanto
P (Z < a) = P (Z > a)
En la siguiente gura se muestran algunas probabilidades asociadas con la normal.

52

68%

95%

+2

99,7%

+3

Propiedad: Xi N (i , i ), independientes, entonces


v

u n
n
n

u 2
Y =
Xi N
i
i , t
i=1

i=1

i=1

53

Teorema del Lmite Central


Este es el resultado m
as importante asociado a la distribuci
on normal ya que explica el motivo por el que
muchas variables aleatorias siguen una distribuci
on normal. Por ejemplo, el consumo diario de gas en una
ciudad resulta ser la suma de los consumos de todos los
usuarios y su distribuci
on es aproximadamente normal.
Si X1 , X2 , . . . , Xn son variables aleatorias independientes
cuyas medias y varianzas son y 2 se tiene
E (X1 + X2 + . . . + Xn) =
V ar (X1 + X2 + . . . + Xn) =

i=1
n

= n
2 = n 2

i=1

Teorema Central del Lmite: Sean X1 , X2 , . . . , Xn


variables aleatorias independientes e id
enticamente distribuidas con media y varianza 2 . Entonces si n es
sucientemente grande (n > 30), la distribuci
on de
(X1 + X2 + . . . + Xn ) n

n
es aproximadamente N(0,1).

54

Si X1 , X2 , . . . , Xn son variables aleatorias independientes


con media y varianza 2 entonces
(n
)
n

( )
X
1
i
i=1
E X
= E
=
=
n
n i=1
)
(n
n

( )
X
1
2
i
2
i=1
V ar X
= V ar
= 2
=
n
n i=1
n
El TCL se puede expresar asimismo en los siguientes
t
erminos:
Si n es sucientemente grande (n > 30), se tiene que la
distribuci
on de
X

/ n
es aproximadamente N(0,1).
Las siguientes aproximaciones est
an basadas en el TCL:
Aproximaci
on de otras variables aleatorias a la normal
Aproximaci
on binomial-normal
Si X es B(n, p) con np(1 p) > 5, entonces
(
)

X N = np, = np(1 p)

55

Aproximaci
on Poisson-normal
Si X es () y es sucientemente grande, entonces
(
)
X N = , =
Al aproximar una distribuci
on discreta por una continua,
es preciso salvar la discrepancia entre ambas debida a
el hecho de que los puntos pueden tener probabilidad
positiva para la variable discreta y, sin embargo,
esta
es nula para las variables continuas. Este inconveniente
se resuelve mediante la denominada correcci
on por continuidad o correcci
on del medio punto.
Si X es una v.a cuya distribuci
on es B(n, p) tal que
np(1 p) > 5:
(
)
a 0.5 np
b + 0.5 np
P (a X b) = P
N (0, 1)
np(1 p)
np(1 p)

Si X es una v.a cuya distribuci


on es () con > 5:
(
)
a 0.5
b + 0.5

P (a X b) = P
N (0, 1)

56

También podría gustarte