Está en la página 1de 33

1

CARRERA: INGENIERIA PETROLERA


GRUPO: E
SEMESTRE: 4
MATERIA: PROBABILIDAD Y ESTADISTICA EN EL CAMPO PETROLERO
TEMAS A INVESTIGAR: UNIDAD II.- DISTRIBUCIONES DE PROBABILIDAD

2.1 DISCRETAS
2.1.2 BINOMIAL
2.1.3 HIPERGEOMETRICA
2.2 CONTINUAS
2.2.1 NORMAL
2.2.2 T STUDENT
2.2.3 CHI CUADRADA
2.2.4 F FISHER
2.2.5 GAMA
2.2.6 WEIBULL
2.3DISTRIBUCION NORMAL COMO APROXIMACION DE LA BINOMIAL

ALUMNO:

DOCENTE:
FECHA DE ENTREGA: 13/04/16

2.1 DISTRIBUCIN DE PROBABILIDAD DISCRETA.


Caractersticas:
1. Es generada por una variable discreta (x).
X=Variable que solo toma valores enteros
x=0, 1, 2, 3, 4, 5, 6, 7, 8, ... etc,etc.
2. p(xi)0 Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores
o iguales a cero.
3.Sp(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x
debe ser igual a 1.
Media o valor esperado de x.- Para determinar la media de la distribucin discreta se utiliza la
siguiente frmula:

Donde:
m = media de la distribucin
E(x) = valor esperado de x
xi = valores que toma la variable
p(xi) = probabilidad asociada a cada uno de los valores de la variable x
2. Desviacin estndar. Para determinar la desviacin estndar de la distribucin discreta se
utiliza la siguiente frmula:

Donde:
s = desviacin estndar
m = media o valor esperado de x
xi = valores que toma la variable x
p(xi) = probabilidad asociada a cada uno de los valores que toma x

Denotaremos como

a la probabilidad de que la variable aleatoria tome el valor

Se llama funcin de probabilidad de una variable aleatoria discreta

a la aplicacin que a cada valor

de de la variable le hace corresponder la probabilidad de que la variable tome dicho valor:


Por definicin, deducimos que si

son los valores que puede tomar la variable

entonces:

Ya que esta suma es, en realidad, la probabilidad del suceso seguro.


Ejemplo:
En el experimento de lanzar tres monedas al aire, la aplicacin

que asigna a cada resultado el

numero de cruces obtenidas es una variable aleatoria. En este caso:

Observa que

2.1.1 Distribucion binomial


Esta distribucin se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo
experimento consistente en una serie de pruebas repetidas, caracterizadas por tener resultados que
se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e
independientes.

Para identificar un proceso Bernoulli en una serie de pruebas repetidas, se deben verificar tres
condiciones:

Resultados dicotmicos: Los resultados de cada prueba se pueden clasificar en "xito" si


verifican cierta condicin, o "fracaso" en el caso contrario.

Independencia de las pruebas: El resultado de una prueba cualquiera es independiente del


resultado obtenido en la prueba anterior, y no incide en el resultado de la prueba siguiente.

Estabilidad de las pruebas: La probabilidad p de obtener un resultado considerado como un


xito se mantiene constante a lo largo de toda la serie de pruebas.
Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtener
exactamente r xitos, en una serie de n pruebas, con una probabilidad de xito p, se puede aplicar la
frmula de la probabilidad binomial:

Se denota como B(n, p) a la repeticion n veces de un proceso de Bernoulli de parametro


p (por tanto una distribucion B(1,p) es una distribucion de Bernoulli).
Ejemplos de variables que se pueden estudiar con este modelo podran ser numero de
caras al tirar 10 veces una moneda o numero de piezas defectuosas en un proceso de
fabricacion.
Funcion de probabilidad: P (X = x) =. .x
n

px(1p)nx

,x = 0, 1, ..., n

Caractersticas: E(X) = np, Var(X) = np(1 p).


Esta distribucion se utiliza en procesos de control de calidad y en el muestreo con
reemplazamiento.
Dadas las variables X B(n, p) e Y B(m, p), entonces la variable aleatoria X + Y se
distribuye segun una B(n + m, p).

Ejemplo:
Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos experimentales, en el
25% de los casos. Aplicando esta dosis a cien cobayos se desea saber cunto vale la probabilidad
de que mueran veinte de ellos.
Primero analizaremos si este caso cumple los supuestos bsicos de una distribucin binomial:

Los cobayos mueren (xito) o sobreviven (fracaso).

Que un cobayo muera con la dosis, no significa que lo har el siguiente ( independencia) pues
no se trata de una epidemia.
La probabilidad de que mueran se mantiene constante a lo largo de la serie de pruebas (p =
0,25).
0.4

Entonces, como si cumple los supuestos bsicos, aplicamos la frmula:

La distribucion binomial (existen tablas para consultar las probabili- dades), de todos
modos, cuando el valor de n es suficientemente grande, se puede aproxi- mar una B(n,
p) por una distribucion de Poisson de parametro = np. Esta aproximacion se
considera buena cuando n > 30 y p < 0,1. Ademas, si n > 30 y 0,1 < p < 0,9,
consideraremos buena la aproximacion por una distribucion normal N(np,

,
np(1 p)).

2.1.2 Distribucion de Poisson

0.04

Un proceso de Poisson generaliza en cierta manera al proceso de Bernoulli. Consiste en


observar el numero de veces que se presenta un suceso (numero de exitos) en un
0.015

determinado intervalo (generalmente de tiempo). En estos procesos se asume que hay


0.010

estabilidad, en el sentido de que el numero de sucesos por unidad de tiempo () permanece constante. Como ejemplos tendramos numero de fallos superficiales en un cable de
red por unidad de tiempo (o por unidad de superficie), espectadores que llegan a la cola de
un cine,... De modo que, considerado un proceso de Poisson, la distribucion de Poisson mide
el numero de sucesos ocurridos en un intervalo.
La formula de la funcion de distribucion de la distribucion de Poisson es:

P (X = ex x! , x = 0, 1, ...
Caractersticas: E(X) = Var(x) = .
Dadas dos variables X Pois(1) e Y Pois(2) la variable X + Y tiene una distribucion
Pois(1 + 2 ).
La distribucion de Poisson se obtiene como lmite de la binomial cuando n y p 0.
Es decir, si repetimos una gran cantidad de veces un proceso con probabilidad muy pequena
de exito, se podra utilizar la distribucion de Poisson para obtener una buena
aproximacion del resultado (notese que la distribucion de Poisson es, en general, mas facil
de calcular que la binomial debido al problema computacional de los numeros combinatorios).
Para identificar un proceso Poisson en una serie de pruebas repetidas, se deben verificar tres
condiciones:
Sucesos puntuales: Los sucesos ocurren dentro de un continuo (espacio o tiempo) y ocupan una parte
infinitesimal del mismo. Es decir, en el espacio un suceso es puntual y en el tiempo es instantneo. En
trminos prcticos, los sucesos no ocupan una parte apreciable del continuo.
Sucesos independientes: La ocurrencia de un suceso en un lugar del continuo no condiciona la
ocurrencia del anterior (o del siguiente) en otra parte del mismo.
Probabilidad constante: La probabilidad de ocurrencia de un suceso en un lugar del continuo es la
misma en todo punto del mismo.

Son ejemplos de este tipo de proceso:


la llegada de pacientes a una cola o lnea de espera,

los accidentes en una ruta, etc.


Esta probabilidad se aproxima la binomial cuando la probabilidad de xito es muy pequea, por eso
muchos la llaman: la "binomial de los sucesos raros".

Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtener exactamente x
xitos en un intervalo de tiempo, con un promedio de eventos esperados l , se puede aplicar la frmula
de la probabilidad de Poisson:

X = 0, 1, 2, ., n
e = 2.71828 (es una constante, la base de los logaritmos naturales)
Veamos el siguiente ejemplo:
Supongamos que estamos investigando la seguridad de una peligrosa inteleccin de calles,
los registros policacos indican una media de 5 accidentes mensuales en esta interseccin.
El departamento de seguridad vial desea que calculemos la probabilidad de que en cualquier mes
ocurran exactamente 3 accidentes
Analizando el problema, este situacin se ajusta a un proceso de Poisson, hay una secuencia de
llegada (por ms que exista un choque mltiple, siempre hay uno que choca primero). Tenemos la
siguiente informacin:
l = 5 accidentes por mes
x = 3 accidentes por mes
Aplicando la frmula de la probabilidad de Poisson:

2.1.3 La distribucin Hipergeomtrica

Este modelo presenta similitudes con el Binomial, pero sin la suposicin de independencia de ste
ltimo. Vemoslo:

Partimos de un conjunto formado por N individuos divididos en dos categoras mutuamente


excluyentes: A y Ac;
de
manera
que N1 individuos
pertenecen
a
la
c
categora A y N2 individuos, a la categora A . Por tanto, se cumple que

N = N1 + N2

Si del conjunto anterior extraemos n individuos sin reemplazamiento (n N), la variable X que
representa el nmero k de individuos que pertenecen a la categora A (de los n extrados) tiene
por funcin de densidad:

La dependencia se debe al hecho de que N es finito y las extracciones se efectan sin


reemplazamiento. El caso de extracciones con reemplazamiento sera equivalente al de N infinito y se
resolvera mediante el modelo Binomial.
El programa siguiente nos muestra la forma de la funcin de densidad de esta variable y el valor de la
funcin de densidad y de la funcin de distribucin en el punto que elijamos:

Propiedades:
1) Esperanza: E(X) = n N1 / N 2.

2) Varianza: V(X) = (n N1 N2 (N-n)) / (N2 (N-1) )


Propiedades del modelo Hipergeomtrico
1) Esperanza: E(X) = n N1/N
2) Varianza: V(X) = (n N1 N2 (N n))/(N2 (N 1))

Caractersticas: E(X) = np, Var(X) = np(1 p)(N n)/(N 1).


La distribucion hipergeometrica se utiliza en el muestreo de una poblacion finita sin
reemplazamiento, por contraposicion a la binomial que se utiliza cuando hay reemplazamiento. En el caso de que el tamano de la poblacion sea muy grande, la hipergeom
etrica se puede aproximar por la normal (la probabilidad de exito apenas vara
entre cada repeticion del experimento).
Ejemplo: Supongamos que tenemos una baraja y extraemos 10 cartas, queremos saber
la probabilidad de extraer entre ellas 1,2,. . . 10 oros:
array(c(0:10,dhyper(0:10,10,30,10)),c(11,2))
[,
[1 1]0
,]
[2
1
,]
[3
2
,]
[4
3
,]
[5
4
,]
[6
5
,]
[7
6
,]
[8
7
,]
[9
8
,]
[10
9
,]
[11 1
,]
0

[,2]
3.544463e
-02
1.687840e
-01
3.107159e
-01
2.882003e
-01
1.471022e
-01
4.236544e
-02
6.789333e
-03
5.747584e
-04
2.309297e
-05
3.539153e
-07
1.179718e
-09

2.2

Distribucin continua

1.- Media o valor esperado de x.- Para calcular la media de una distribucin de probabilidad
continua se utiliza la siguiente frmula:

Donde:
= E(x) = media o valor esperado de la distribucin
x = variable aleatoria continua
f(x) = funcin de densidad de la distribucin de probabilidad

2.Desviacin estndar.- La frmula para determinar la desviacin estndar de una distribucin


continua es;

luego:

Ejemplos:
1. Para la siguiente funcin,

cuando 0 x 3 ,

f(x) = 0 para cualquier otro valor

a)
Diga si esta funcin nos define una distribucin de probabilidad.
b)
Si la funcin define una distribucin de probabilidad, entonces, determine su media y
desviacin estndar.
c)
Determine la probabilidad de que 1 x 2.
Solucin:
a)
Para verificar que la funcin nos define una distribucin de probabilidad, es necesario
que cumpla con las caractersticas que se haban mencionado.
1.
x s es una variable continua porque puede tomar cualquier valor entre 0 y 3
2.
f(x) 0, lo que se comprueba si damos diferentes valores a x para ver que valores toma
f(x), dndonos cuenta de que efectivamente f(x) solo toma valores mayores o iguales a cero.

x
0

f(x)
0.0

0.
5
1.
0
1.
4
2.
1
2.
7
3.
0

0.0277
8
0.1111
1
0.2177
8
0.49
0.81
1.0

3.
Para comprobar que la sumatoria de las probabilidades que toma cada
de 1, se integra la funcin de 0 a 3 como se muestra a continuacin:

valor de x es

A= rea bajo la funcin


Con las operaciones anteriores comprobamos que la funcin
distribucin de probabilidad continua.

s nos define una

0.0 0.2

0.3

2.2.1 Distribucion normal


La distribucion normal es la mas usada de todas las distribuciones de probabilidad. Gran
cantidad de experimentos se ajustan a distribuciones de esta familia, por ejemplo el peso y la
talla de una persona, los errores de medicion... Ademas, si una variable es el resultado de
la suma de variables aleatorias independientes, es bastante posible que pueda ser
aproximada por una distribucion normal.
Una normal de media y varianza 2 se denota N(,).
(x )2Funci

n de densidad:
(x) =
f
2

22, < x < .

A pesar de su complicada expresion, puede ser obtenida como lmite de la binomial


cuando n tiende a infinito. Cabe destacar que es una funcion simetrica, con un maximo
en x = y puntos de inflexion en x = y x = + .
Caractersticas: E(X) = , Var(X) = 2 .
Cuando definimos la curtosis dijimos que normalmente se hablaba de apuntamiento con
respecto a una variable normal, sin decir nada de la media o varianza de la misma. Esto es
porque todas las distribuciones normales tienen la misma curtosis.

Una variable aleatoria continua, X, sigue una distribucin normal de media ydesviacin tpica ,
y se designa por N(, ), si se cumplen las siguientes condiciones:
1. La variable puede tomar cualquier valor: (-, +)
2. La funcin de densidad, es la expresin en trminos de ecuacin matemtica de la curva de
Gauss:

Curva de la distribucin normal


El campo de existencia es cualquier valor real, es decir, (-, +).
Es simtrica respecto a la media .
Tiene un mximo en la media .
Crece hasta la media y decrece a partir de ella.
En los puntos y + presenta puntos de inflexin.
El eje de abscisas es una asntota de la curva.
El rea del recinto determinado por la funcin y el eje de abscisas es igual a la

unidad.

Al ser simtrica respecto al eje que pasa por x = , deja un rea igual a 0.5 a la izquierda y otra
igual a 0.5 a la derecha.
La probabilidad equivale al rea encerrada bajo la curva.
p( - < X + ) = 0.6826 = 68.26 %
p( - 2 < X + 2) = 0.954 = 95.4 %
p( - 3 < X + 3) = 0.997 = 99.7 %

2.2.2 Distribucin de t de Student


Las distribuciones t de Student son parecidas a la normal. Se pueden utilizar para hacer estimaciones
de la media cuando se desconoce la varianza (es lo habitual) y se usan muestas pequeas.
Los intervalos as obtenidos son, no podra ser de otra manera, ms grandes y menos precisos que
los que se obtendran si supusieramos conocida la varianza en una distribucin normal.
En el applet comparamos distribuciones t de Student con la normal estndar. Podemos elegir el valor
del parmetro "grados de libertad" y modificar los extremos del intervalo simtrico en torno a la media.
Con estos datos se obtiene unas probabilidades (clculos aproximados) que se muestran. A1
representa el rea de la zona central y A2 es el rea de las dos colas de los extremos. La suma de
ambas reas es 1.
Si consideramos esos mismos extremos del intervalo en el caso de una distribucin normal estndar
comprobamos que la probabilidad de la zona central (A1) es mayor para la distribucin normal que
para la t de Student. Si el parmetro grados de libertad es grande la diferencia es pequea.
Partiendo de un intervalo podemos obtener una probabilidad en una distribucin t de Student. Nos
podemos plantear el tamao del intervalo que barre la misma rea bajo la campana de Gauss. El
extremo positivo del intervalo se calcula y se muestra en "x1 Normal". El segmento dibujado de color
naranja debajo de las grficas representa ese intervalo que es de menor amplitud que el
correspondiente de la t de Student. Podemos ver cmo si el parmetro grados de libertad es
suficientemente grande la diferencia entre ambos intervalos es pequea.
Las distribuciones t se usan para tener en cuenta la incertidumbre aadida que resulta por esta
estimacin. Fisher comprendi la importancia de los trabajos de Gosset para muestras pequeas.
Si el tamao de la muestra es n entonces decimos que la distribucin t tiene n-1 grados de libertad.
Hay una distribucin t diferente para cada tamao de la muestra. Estas distribuciones son una familia
de distribuciones de probabilidad continuas. Las curvas de densidad son simtricas y con forma de
campana como la distribucin normal estndar. Sus medias son 0 y sus varianzas son mayores que 1
(tienen colas ms pesadas). Las colas de las distribuciones t disminuyen ms lentamente que las
colas de la distribucin normal. Si los grados de libertad son mayores ms prxima a 1 es la varianza
y la funcin de densidad es ms parecida a la densidad normal.

Cuando n es mayor que 30, la diferencia entre la normal y la distribucin t de Student no suele ser
muy importante. En la imagen podemos ver varios ejemplos de funciones de distribucin acumulada.

En Probabilidades en Distribuciones t-Student puedes ver una comparacin ms precisa entre las
distribuciones t-Student y la normal estndar.
En el applet podemos ver varios ejemplos de distribucin t de Student junto con la normal estndar.
Se aprecia cmo cuando el parmetro es 25 la distribucin es muy parecida a la normal estndar.

2.2.3 DISTRIBUCION JI-CUADRADA (X2)


En realidad la distribucin ji-cuadrada es la distribucin muestral de s 2. O sea que si se extraen todas
las muestras posibles de una poblacin normal y a cada muestra se le calcula su varianza, se
obtendr la distribucin muestral de varianzas.
Para estimar la varianza poblacional o la desviacin estndar, se necesita conocer el estadstico X 2. Si
se elige una muestra de tamao n de una poblacin normal con varianza

, el estadstico:

tiene una distribucin muestral que es una distribucin ji-cuadrada con gl=n-1 grados de libertad y
se denota X2 (X es la minscula de la letra griega ji). El estadstico ji-cuadrada esta dado por:

donde n es el tamao de la muestra, s2 la varianza muestral y

la varianza de la poblacin de

donde se extrajo la muestra. El estadstico ji-cuadrada tambin se puede dar con la siguiente
expresin:

Propiedades de las distribuciones ji-cuadrada


1. Los valores de X2 son mayores o iguales que 0.
2. La forma de una distribucin X 2 depende del gl=n-1. En consecuencia, hay un nmero infinito
de distribuciones X2.
3. El rea bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
4. Las distribuciones X2 no son simtricas. Tienen colas estrechas que se extienden a la derecha;
esto es, estn sesgadas a la derecha.
5. Cuando n>2, la media de una distribucin X 2 es n-1 y la varianza es 2(n-1).

6. El valor modal de una distribucin X2 se da en el valor (n-3).


La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl2).

La funcin de densidad de la distribucin X 2 esta dada por:

para x>0
La tabla que se utilizar para estos apuntes es la del libro de probabilidad y estadstica de Walpole, la
cual da valores crticos

(gl) para veinte valores especiales de

una distribucin X2 con gl grados de libertad se usa el smbolo


su derecha un rea de

. Para denotar el valor crtico de


(gl); este valor crtico determina a

bajo la curva X2 y sobre el eje horizontal. Por ejemplo para encontrar

X20.05(6) en la tabla se localiza 6 gl en el lado izquierdo y

a o largo del lado superior de la

misma tabla.

Clculo de Probabilidad
El clculo de probabilidad en una distribucin muestral de varianzas nos sirve para saber como se va
a comportar la varianza o desviacin estndar en una muestra que proviene de una distribucin
normal.

Ejemplos.
Ji- cuadrado como prueba de asociacin
Supongamos que un investigador est interesado en evaluar la asociacin entre uso de cinturn de
seguridad en vehculos particulares y el nivel socioeconmico del conductor del vehculo. Con este
objeto se toma una muestra de conductores a quienes se clasifica en una tabla de asociacin,
encontrando los siguientes resultados:

Uso de Nivel

Nivel

Nivel

TOTA

cintur socioeconmi

socioeconmi

socioeconmi

n
SI
NO
TOTAL

co medio
15
16
31

co alto
28
14
42

51
43
94

co bajo
8
13
21

Tabla I. Tabla de asociacin, valores observados.


Permiten estos datos afirmar que el uso del cinturn de seguridad depende del nivel
socioeconmico? Usaremos un nivel de significacin alfa=0,05.
Los pasos del anlisis estadstico en este caso son los siguientes:
1. En primer lugar se debe plantear las hiptesis que someteremos a prueba
H0:

El

uso

de

cinturn

de

seguridad

es

independiente

del

nivel

socioeconmico.

H1: El uso de cinturn de seguridad depende del nivel socioeconmico.


En esta prueba estadstica siempre la hiptesis nula plantea que las variables analizadas son
independientes.
2. En segundo lugar, obtener (calcular) las frecuencias esperadas
Estas son las frecuencias que debieran darse si las variables fueran independientes, es decir, si fuera
cierta la hiptesis nula.

Las frecuencias esperadas se obtendrn de la distribucin de frecuencias del total de los casos, 51
personas de un total de 94 usan el cinturn y 43 de 94 no lo usan. Esa misma proporcin se debera
dar al interior de los tres grupos de nivel socioeconmico, de manera que el clculo responde al
siguiente razonamiento: si de 94 personas 51 usan cinturn; de 21 personas, cuntas debieran
usarlo?
La respuesta a esta pregunta se obtiene aplicando la regla de tres y es 11,4. Este procedimiento
debe repetirse con todas las frecuencias del interior de la tabla.
El detalle de los clculos es el siguiente:
Nivel

bajo:

(21x51/94)=11,4-(21x43/94)=9,6

Nivel

medio:

(31x51/94)=16,8-(31x43/94)=14,2

Nivel alto: (42x51/94)=22,8-(42x43/94)=19,2


Estas son las frecuencias que debieran presentarse si la hiptesis nula fuera verdadera y, por
consiguiente, las variables fueran independientes.
Estos valores los anotamos en una tabla con las mismas celdas que la anterior; as tendremos una
tabla con los valores observados y una tabla con los valores esperados, que anotaremos en cursiva,
para identificarlos bien.
Uso de cinturn
SI
NO
TOTAL

Nivel bajo
11,4
9,6
21

Nivel medio
16,8
14,2
31

Nivel alto
22,8
19,2
42

TOTAL
51
43
94

Tabla II. Tabla de asociacin, valores esperados.


3. En tercer lugar se debe calcular el estadstico de prueba
En este caso, el estadstico de prueba es Ji-cuadrado que, como dijimos al comienzo, compara las
frecuencias que entregan los datos de la muestra (frecuencias observadas) con las frecuencias
esperadas, y tiene la siguiente frmula clculo:

donde oi representa a cada frecuencia observada y ei representa a cada frecuencia esperada.


De este modo el valor del estadstico de prueba para este problema ser:

Entonces

Este es el valor de nuestro estadstico de prueba que ahora, siguiendo el

procedimiento de problemas anteriores (paso 4), debemos comparar con un valor de la tabla de
probabilidades para ji-cuadrado (x2).

Esta tabla es muy parecida a la tabla t de student, pero tiene slo valores positivos porque ji-cuadrado
slo da resultados positivos. Vase grfico 1, que muestra la forma de la curva, con valores desde 0
hasta infinito.

Grfico 1.
Dado que el estadstico ji cuadrado slo toma valores positivos, la zona de rechazo de la hiptesis
nula siempre estar del lado derecho de la curva.

2.2.4 DISTRIBUCIN F FISHER DE SNEDECOR

Es una distribucin de probabilidad de gran aplicacin en la inferencia estadstica , fundamentalmente


en la contrastacin de la igualdad de varianzas de dos poblaciones normales, y , fundamentalmente
en el anlisis de la varianza , tcnica que permite detectar la existencia o inexistencia de diferencias
significativas entre muestras diferentes y que es, por tanto esencial , en todos aquellos casos en los
que se quiere investigar la relevancia de un factor en el desarrollo y naturaleza de una caracterstica.
La distribucin se plantea partiendo de dos variables X e Y tales que :

es decir una chi2 con m grados de libertad

es decir una chi2 con n grados de libertad ;

de manera que si establecemos el cociente

, es decir el cociente entre ambas chi2 divididas a

su vez, por sus correspondientes grados de libertad tendremos que la funcin F corresponde a una
distribucin F de Snedecor con m y n grados de libertad ; es decir una
Queda claro por tanto que la distribucin F de Snedecor tiene dos parmetros , que son m y n ; grados
de libertad del numerador , grados de libertad del denominador.
Dado que se trata de un cociente entre dos chi2 su forma (grfica de la funcin de densidad)ser
parecida a la de sta distribucin , por lo que estar slo definida para el campo positivo de la variable

y su apariencia variar segn los grados de libertad ; estando ms prxima la densidad de


probabilidad a los valores prximos a cero de la variable , cuando los grados de libertad ( sus
parmetros) sean bajos.

La funcin de densidad de la F de Snedecor viene dada por

siendo m y n los parmetros de la funcin(distribucin) y

la media de la distribucin es

la funcin gamma de Euler

si n > 2 siendo la varianza cuando n> 4

Lgicamente si
su inversa
lo que ayuda al clculo de probabilidades para
distintos valores de la variable mediante la utilizacin de tablas , caso que no es el nuestro pues estos
losrealizamos mediante un programa que incluimos , no obstante ,a modo de ejemplo , plantemos:
Si X

y nos interesa el clculo de

Luego

dicho resultado es 0,13

luego

Como curiosidad tenemos que una F con un grado de libertad en el numerador y n en el


denominador , no es ms que el cuadrado de una t de student con n grados de libertadad dado que :

dado que :

una

luego una :

siendo

una

una

2.2.5Distribucion gamma
Es una generalizacion de la distribucion exponencial.
Llamaremos funcion gamma a: (p) =

p1 x
0 x
e dx, y tiene las siguientes propiedades:

1. (p) = (p 1)! si p es un numero natural distinto de 0.


2. (p) = (p 1)(p 1).

3. (1/2) = .

Una variable X que mide el tiempo de espera hasta el suceso numero p en un


proceso

de Poisson sigue una distribucion gamma. Se denota por (,p), donde el

primer parametro representa el numero medio de sucesos por unidad de tiempo y p es el


numero de sucesos que queremos que ocurran. De modo que una exponencial no sera mas
que una (,1).

Este modelo es una generalizacin del modelo Exponencial ya que, en ocasiones, se utiliza para
modelar variables que describen el tiempo hasta que se produce p veces un determinado suceso.
Su funcin de densidad es de la forma:

Como vemos, este modelo depende de dos parmetros positivos: y p. La funcin (p) es la
denominada funcin Gamma de Euler que representa la siguiente integral:

que verifica (p + 1) = p(p), con lo que, si p es un nmero entero positivo, (p + 1) = p!


El siguiente programa permite visualizar la forma de la funcin de densidad de este modelo (para
simplificar, se ha restringido al caso en que p es un nmero entero)
Propiedades de la distribucin Gamma
1. Su

esperanza

2. Su

es

p.

es p2

varianza

3. La distribucin Gamma (, p = 1) es una distribucin Exponencial de parmetro . Es decir, el


modelo

Exponencial

es

un

caso

particular

de

la

Gamma

4. Dadas dos variables aleatorias con distribucin Gamma y parmetro comn


X ~ G(, p1) y Y ~ G(, p2)
se cumplir que la suma tambin sigue una distribucin Gamma

con p =1

X + Y ~ G(, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables aleatorias con
distribucin Exponencial de parmetro (comn) e independientes, la suma de todas ellas seguir
una distribucin G(, k).

2.2.6 La distribucin de Weibull

Se trata de un modelo continuo asociado a variables del tipo tiempo de vida, tiempo hasta que un
mecanismo falla, etc. La funcin de densidad de este modelo viene dada por:

que, como vemos, depende de dos parmetros: > 0 y > 0, donde es un parmetro de escala y
es un parmetro de forma (lo que proporciona una gran flexibilidad a este modelo).
La funcin de distribucin se obtiene por la integracin de la funcin de densidad y vale:

Propiedades de la distribucin Weibull


1. Si tomamos = 1 tenemos una distribucin Exponencial.
2. Su esperanza vale:

1 Su varianza vale:

donde (x) representa la funcin Gamma de Euler definida anteriormente.

Propiedades de la distribucin Weibull

1. Si tomamos = 1 tenemos una distribucin Exponencial.


2. Su esperanza vale:

1 Su varianza vale:

donde (x) representa la funcin Gamma de Euler definida anteriormente.

Aproximacin de la distribucin normal a la binomial


La distribucin normal se puede utilizar como una aproximacin de distribuciones discretas, en
particular cuando el tamao de la muestra "n" tiende a infinito, p y q cercanos a 0.5 se puede
aproximar

la

distribucin

binomial,

con

resultados

altamente

satisfactorios.

Sea X una variable aleatoria con distribucin binomial, si n es grande, 0 < p < 1, la distribucin
binomial se puede aproximar a la distribucin normal con media = np y varianza =npq
.La distribucin normal tiene como fdp,

Por lo tanto la distribucin aproximada estar dada por:

lo que nos permite el clculo de la siguiente probabilidad:

El teorema de Moivre (1.756) permite realizar esta aproximacin considerando p=q=1/2 que las
variables aleatorias sigan una distribucin binomial con: Este teorema fue generalizado
posteriormente por Laplace en 1.810 para distribuciones no simtricas pq .
Vimos que la variable aleatoria binomial era el nmero de xitos que tienen lugar cuando se
realizan nrepeticiones independientes de un experimento o prueba de Bernoulli.
La variable aleatoria x puede escribirse como la suma de n variables aleatorias de Bernoulli:

Si x es una variable aleatoria binomial, B(n,p) con: media


Desviacin tpica
Entonces, cuando n la variable aleatoria:

Es decir: xN(np,npq)
En la prctica, decir que n es lo suficientemente grande, se traduce en:

Lo que se hace es aproximar una distribucin discreta, como es la binomial, a una distribucin normal
que es continua, y ya que en el caso continuo la probabilidad o masa asociada a un valor concreto de
la variable aleatoria es nulo, tendremos que utilizar la correccin de continuidad de Fisher para
calcular la probabilidad deseada:
Probabilidad

en

(n,p) Correccin

de

continuidad..

P(X=x)

P(x-1/2<X<x+1/2)

P(X<X<b)

P(a-1/2<x<b+1/2)

P(X<x)

P(X<x+1/2)

PX>x)

P(X>x-1/2)

También podría gustarte