Formulario FuncionesdeProbabilidad

También podría gustarte

Está en la página 1de 13

1 Familias paramétricas discretas con nombre

propio
A continuación daremos un resumen de las familias de distribuciones discretas
más usuales. Para cada una de éstas, se dará su notación, sus parámetros, uso
más común, función de densidad y de distribución (si tiene), su media, su vari-
anza, su función generadora de momentos, y algunas propiedades adicionales.

1.0.1 Función indicadora


Una manera comoda en la cual podemos expresar el soporte de una f. d. p. es
haciendo uso de la función indicadora.

De…nition 1 (Función indicadora) Sea A un conjunto arbitrario. Se de…ne


a la función indicadora como aquella función

1 si x 2 A
IA (x) =
0 si x 2
=A

En las familias paramétricas que se verán a continuación, se hará uso de la


función indicadora para especi…car los valores que toma la v. a. analizada.

1.1 Uniforme discreta


Utilizada para la modelación de eventos en espacios …nitos equiprobables. Asigna
una probabilidad uniforme a todos los elementos del espacio. Sus características
más importantes son:

1. Notación:
X U niD (N )
Donde N es un número entero positivo, que denota el total de elementos
en el espacio en estudio.
2. Función de densidad de probabilidad:
1
fX (x) = If1;2;3;:::;N g (x)
N

3. Función generadora de momentos:

et 1 eN t
mX (t) = ; t 6= 0
N (1 et )

4. Esperanza
N +1
E (X) =
2

1
5. Varianza
N2 1
E (X) =
12
6. Otras propiedades y características

M oda = Distribución multimodal

1.2 Bernoulli
Utilizada para la modelación de eventos con sólo dos posibles resultados: éxito
(X = 1) y fracaso (X = 0). Denotaremos a la probabilidad de éxito con la letra
p, mientras que a la de fracaso con la letra q = 1 p.

1. Notación:
X Blli (p)
Donde p 2 [0; 1].
2. Función de densidad de probabilidad:

fX (x) = px q 1 x
If0;1g (x)

3. Función generadora de momentos:

mX (t) = q + pet

4. Esperanza:
E (X) = p

5. Varianza:
V ar (X) = pq

6. Otras propiedades y características:

E (X n ) = p; n 1

1.3 Binomial
Contabiliza el número de éxitos, x, en n ensayos Bernoulli independientes.

1. Notación:
X Bin (n; p)
Donde p 2 [0; 1] y n 2 Z+ .
2. Función de densidad de probabilidad:

n x n x
fX (x) = p q If0;1;2;:::;ng (x)
x

2
3. Función generadora de momentos:
n
mX (t) = q + pet

4. Esperanza:
E (X) = np
5. Varianza:
V ar (X) = npq
6. Otras propiedades y características:
b(n + 1) pc si (n + 1) p 2
=Z
Moda =
(n + 1) p 1 y (n + 1) p si (n + 1) p 2 Z
(n x) p
Fórmula recursiva: fX (x + 1) = fX (x)
(x + 1) q

1.4 Poisson
Sin duda una de las distribuciones de probabilidad más importantes. Utilizada
en muchas áreas de estudio tales como los procesos estocásticos de conteo.
Cuando en una distribución Bin (n; p) el parámetro p es muy pequeño, y el
tamaño de n es muy grande, las probabilidades de ésta se pueden aproximar
por medio de una Poisson.
1. Notación:
X P oisson ( )
Donde 2 (0; 1).
2. Función de densidad de probabilidad:
x
e
fX (x) = If0;1;2;:::g (x)
x!
3. Función generadora de momentos:
mX (t) = exp et 1

4. Esperanza
E (X) =
5. Varianza
V ar (X) =
6. Otras propiedades y características:
b c si 2
=Z
Moda =
1y si 2Z

Fórmula recursiva: fX (x + 1) = fX (x)


x+1

3
1.5 Geométrica
Esta distribución es comúnmente utilizada para medir el número de fracasos
que ocurren antes del primer éxito, en ensayos Bernoulli independientes. La
densidad geométrica tiene mucha relación con una distribución continua llamada
exponencial la cual veremos más adelante.

1. Notación:
X Geo (p)
Donde p 2 [0; 1].
2. Función de densidad de probabilidad:

fX (x) = q x pIf0;1;2;:::g (x)

3. Función de distribución:

FX (x) = 1 q bxc+1 If0;1;2;:::g (x)

4. Función generadora de momentos:


p
mX (t) = ; t< ln (q)
1 qet

5. Esperanza
q
E (X) =
p
6. Varianza
q
V ar (X) =
p2
7. Otras propiedades y características:

Moda = 0

Proposition 2 (Propiedad de pérdida de la memoria) Sea X Geo (p).


Luego, para i; j 2 Z+ , se cumple que

P [X i + jjX j] = P [X i]

1.6 Binomial Negativa


La distribución binomial negativa, es aquella que tiene una distribución la cual
calcula la probabilidad de observar x fracasos, antes de obtener el r-ésimo éx-
ito, en ensayos Bernoulli independientes. Ésta es una generalización de una
distribución geométrica, cuando r = 1.

4
1. Notación:
X BinN eg (r; p)
Donde r 2 Z+ y p 2 [0; 1].
2. Función de densidad de probabilidad:

r+x 1
fX (x) = q x pr If0;1;2;:::g (x)
x

3. Función generadora de momentos:


r
p
mX (t) = ; t< ln (q)
1 qet

4. Esperanza
rq
E (X) =
p
5. Varianza
rq
V ar (X) =
p2
6. Otras propiedades y características:
8
< (r 1) q
si r > 1
Moda = p
:
0 si r 1

1.7 Hipergeométrica
Supongamos que se tiene una población de tamaño M con solamente dos tipos
de elementos: del tipo I y del tipo II. Además, supongamos que hay k elementos
del primer tipo -por lo tanto, habrá M k del segundo tipo-. De esta población
se extrae una muestra aleatoria de tamaño n. Luego, una distribución hiper-
geométrica contabiliza el número de elementos del tipo I que se observan en la
muestra.

1. Notación:
X Hiper (M; k; n)
+
Donde M; k; n 2 Z , 0 < k; n < M:
2. Función de densidad de probabilidad:

k M k
x n x
fX (x) = If0;1;2;:::;min(n;k)g (x)
M
n

5
3. Función generadora de momentos:

No es útil

4. Esperanza
k
E (X) = n
M
5. Varianza
nk (M n) (M k)
V ar (X) =
M 2 (M 1)

6. Otras propiedades y características:

(n + 1) (k + 1)
Moda =
M +2

k h r 1
i
E (X r ) = n E (Y + 1) ; donde Y Hiper (M 1; k 1; n 1)
M

2 Familias paramétricas continuas con nombre


propio
De manera análoga al caso de las familias paramétricas discretas, analizaremos
los modelos más usuales de variables aleatorias continuas. Éstos, mas adelante
nos servirán como base, junto a las familias discretas, para la modelación de
distintos fenómenos de interés.

2.1 Uniforme continua


Utilizaremos la distribución uniforme continua cuando queramos modelar even-
tos equiprobables que ocurren dentro de un intervalo de longitud …nita de la
recta real. Dicha variable aleatoria otorga la misma probabilidad a todos los
elementos del intervalo. Es facil trabajar con esta debido a que el cálculo de
probabilidades se reduce al cálculo de "longitud favorable" entre "longitud total
del intervalo".

1. Notación:
X U nif (a; b)
Donde 1 < a < b < 1.
2. Función de densidad de probabilidad:
1
fX (x) = I(a;b) (x)
b a

6
3. Función de distribución
x a
FX (x) = I(a;b) (x) + I(b;1) (x)
b a

4. Función generadora de momentos:

ebt eat
mX (t) =
t (b a)

5. Esperanza
a+b
E (X) =
2
6. Varianza
2
(b a)
V ar (X) =
12
7. Otras propiedades y características:

br+1 ar+1
E (X r ) =
(r + 1) (b a)

2.2 Exponencial
Indudablemente, una de las distribuciones con mayor importancia dentro de
la teoría de la probabilidad y la estadística, debido a su conexión con otras
distribuciones conocidas (geométrica, Poisson, ji-cuadrada, gamma, entre otras).
Esta distribución es normalmente utilizada para medir el tiempo de espera entre
un evento y otro.

1. Notación:
X exp ( )
Donde > 0.
2. Función de densidad de probabilidad:
x
fX (x) = e I(0;1) (x)

3. Función de distribución
x
FX (x) = 1 e I(0;1) (x)

4. Función generadora de momentos:

mX (t) = ; t<
t

7
5. Esperanza
1
E (X) =

6. Varianza
1
V ar (X) = 2

7. Otras propiedades y características:


r!
E (X r ) = r

Moda = 0
ln (2)
Mediana =

Proposition 3 (Propiedad de pérdida de la memoria) Sea X exp ( ).


Luego, para i; j > 0, se cumple que

P [X i + jjX j] = P [X i]

2.3 Pareto
Una distribución comúnmente utilizada en materia de modelos de pérdida es la
Pareto. Una de las características más importantes de ésta es que posee cola
pesada, propiedad de interés en muchos casos.

1. Notación:
X P areto ( ; )
Donde ; > 0.
2. Función de densidad de probabilidad:

fX (x) = I
+1 ( ;1)
(x)
x

3. Función de distribución

FX (x) = 1 I( ;1) (x)


x

4. Función generadora de momentos:

No tiene

5. Esperanza
E (X) = ; >1
1

8
6. Varianza
2
V ar (X) = 2; >2
( 2) ( 1)

7. Otras propiedades y características:


r
E (X r ) = ; >r
r
Moda =
Mediana = 21=

2.4 Gamma
Otra distribución que es comúnmente utilizada en modelos de pérdida es la
distribución gamma. Ésta, a comparación de la Pareto, se dice que tiene cola
ligera. Además, a partir de ésta, se desprenden otras distribuciones, como casos
particulares, de gran interés estadístico.

1. Notación:
X Gamma (r; )
Donde r; > 0.
2. La función Gamma
La función Gamma, se de…ne como la integral:
Z 1
(r) = tr 1 e t dt
0

Y, dentro de sus propiedades más importantes se tienen las tres siguientes:

(a) Para toda r > 0,


(r + 1) = r (r)
(b) Para toda r 0; r 2 Z+ ,

(r + 1) = r!

(c)
1 p
=
2

3. Función de densidad de probabilidad:


r
fX (x) = xr 1
e x
I(0;1) (x)
(r)

9
4. Función generadora de momentos:
r
mX (t) =
t

5. Esperanza
r
E (X) =

6. Varianza
r
V ar (X) = 2

7. Otras propiedades y características:


(r + n)
E (X n ) =
(r) n

8. Casos particulares de la distribución

(a) La exponencial. Cuando r = 1, la densidad exponencial es un caso


particular de la gamma.
(b) La ji-cuadrada. Cuando r = k=2 y = 1=2, con k 2 Z+ , la
distribución gamma es conocida como ji-cuadrada con k grados de
libertad.

2.5 Ji-cuadrada
Esta distribución, como se mencionó, es un caso particular de la gamma. Tam-
bién resulta ser la suma de variables aleatorias normales estándar al cuadrado
independientes. La distribución Jí-cuadrada se utilizará principalmente en los
temas de inferencia estadística.
1. Notación:
X (k)

Donde k 2 Z+ .
2. Función de densidad de probabilidad:
xk=2 1 e x=2
fX (x) = I(0;1) (x)
2k=2 (k=2)

3. Función generadora de momentos:


k=2
mX (t) = (1 2t)

4. Esperanza
E (X) = k
5. Varianza
V ar (X) = 2k

10
2.6 Beta
Cuando se desea modelar una variable aleatoria que tome valores en el intervalo
[0; 1], es común utilizar la distribución beta. Su función de densidad es muy
‡exible, y puede tomar distintas formas dentro de su soporte.

1. Notación:
X Beta (a; b)
Donde a; b > 0.
2. La función Beta
La función Beta, se de…ne como la integral:
Z 1
b 1
B(a; b) = ta 1 (1 t) dt
0

La propiedad más importante de esta función, es la relación que guarda


con la función gamma, la cual garantiza que:
(a) (b)
B(a; b) =
(a + b)

3. Función de densidad de probabilidad:


(a + b) a 1 b 1
fX (x) = x (1 x) I(0;1) (x)
(a) (b)

4. Esperanza
a
E (X) =
a+b
5. Varianza
ab
V ar (X) = 2
(a + b) (a + b + 1)
6. Otras propiedades y características:
(a + b) (a + r)
E (X r ) =
(a) (a + b + r)

2.7 Normal
Sin duda, la distribución más importante de la teoría de la Probabilidad. Uti-
lizada para modelaje de errores en mediciones, como aproximación de sumas y
promedios de variables aleatorias independientes e idénticamente distribuidas,
etc...

1. Notación:
2
X N ormal ;
2
Donde 1< < 1; > 0.

11
2. Función de densidad de probabilidad:
!
2
1 (x )
fX (x) = p exp 2
I( 1;1) (x)
2 2

3. Función generadora de momentos:

1 2 2
mX (t) = exp t+ t
2

4. Esperanza
E (X) =

5. Varianza
2
V ar (X) =

6. Otras propiedades y características:

(a) Es simétrica con respecto a su media. Esto es,

fX ( x) = fX ( + x)

(b)
E (X) = Moda = Mediana =
(c) Tiene puntos de in‡exión en
2
(d) Sea X N ormal ; . Si a; b 2 R, a 6= 0, y Y = aX + b, entonces,

Y N ormal a + b; a2 2

2.8 Normal Estándar


El caso más importante de una distribución Normal, es cuando la media es 0
y la varianza es 1. En tal caso, diremos que es una normal estándar. Esta
distribución, no es más que una transformación de la Normal con media
y varianza 2 , la cual nos ayuda a calcular probabilidades que no se pueden
encontrar fácilmente la densidad original.
A la normal estándar es común asociarle la letra Z.
2
Theorem 4 Sea X N ormal ; . Luego, la variable aleatoria

X
Z=

tiene una densidad normal estándar. Esto es, Z N ormal (0; 1) :

1. Notación:
Z N ormal (0; 1)

12
2. Función de densidad de probabilidad:

1 z2
fZ (z) = p exp I( 1;1) (z)
2 2

3. Función de distribución

FZ (z) = P [Z z] := (z)

Dicho valor de probabilidad acumulada será obtenida de las tablas de la


normal estándar. Como notación se utiliza la función (z).
4. Función generadora de momentos:

1 2
mZ (t) = exp t
2

5. Esperanza
E (Z) = 0

6. Varianza
V ar (Z) = 1

7. Otras propiedades y características:

(a) Es simétrica con respecto al eje de las ordenadas. Esto es,

fZ (z) = fZ (z)

(b) Si z > 0; entonces


i. P [Z z] = P [Z > z] = (z)
ii. P [Z > z] = P [Z z] = 1 (z)
(c)
E (X) = Moda = Mediana = 0
(d) Tiene puntos de in‡exión en 1 y 1:
(e) Sea Z N ormal (0; 1). Si a; b 2 R, a 6= 0, y X = Z + , entonces,
2
Y N ormal ;

13

También podría gustarte