Está en la página 1de 13

TALLER ESTADISTICA I

PRESENTADO POR:

ARMANDO PUMAREJO J.

WILMAR ORTIZ

PRESENTADO A

MARCELA OROZCO BORNACELLI

UNIVERSIDAD DE LA COSTA CUC


BARRANQUILLA-OCTUBRE DE 2017
DISTRIBUCION NORMAL

La distribucin normal (en ocasiones llamada distribucin gaussiana) es la


distribucin continua que se utiliza ms comnmente en estadstica. La
distribucin normal es de vital importancia en estadstica por tener muchas
variables continuas comunes en el mundo de los negocios tienen distribuciones
que se asemejan estrechamente a la distribucin normal. La distribucin normal
sirve para acercarse a diversas distribuciones de probabilidad discreta, como la
distribucin binomial y la distribucin de Poisson. La distribucin normal
proporciona la base para la estadstica inferencial clsica por su relacin con el
teorema de lmite central. En la distribucin normal, uno puede calcular la
probabilidad de que varios valores ocurran dentro de ciertos rangos o intervalos

La distribucin de una variable normal est completamente determinada por dos


parmetros, su media y su desviacin estndar, denotadas generalmente
por y .

Propiedades de la distribucin normal:

La distribucin normal posee ciertas propiedades importantes que conviene


destacar:

i. Tiene una nica moda, que coincide con su media y su mediana.

ii. La curva normal es asinttica al eje de abscisas. Por ello, cualquier valor
entre y es tericamente posible. El rea total bajo la curva
es, por tanto, igual a 1.
iii. Es simtrica con respecto a su media . Segn esto, para este tipo de
variables existe una probabilidad de un 50% de observar un dato
mayor que la media, y un 50% de observar un dato menor.
iv. La distancia entre la lnea trazada en la media y el punto de inflexin de
la curva es igual a una desviacin tpica ( ). Cuanto mayor sea ,
ms aplanada ser la curva de la densidad.
v. El rea bajo la curva comprendida entre los valores situados
aproximadamente a dos desviaciones estndar de la media es igual a
0.95. En concreto, existe un 95% de posibilidades de observar un

valor comprendido en el intervalo .


vi. La forma de la campana de Gauss depende de los parmetros y .
La media indica la posicin de la campana, de modo que para
diferentes valores de la grfica es desplazada a lo largo del eje
horizontal. Por otra parte, la desviacin estndar determina el grado
de apuntamiento de la curva. Cuanto mayor sea el valor de , ms
se dispersarn los datos en torno a la media y la curva ser ms
plana. Un valor pequeo de este parmetro indica, por tanto, una gran
probabilidad de obtener datos cercanos al valor medio de la
distribucin.1

La distribucin normal o gaussiana es acampanada, simtrica, unimodal,


con media y mediana similares y las colas cercanas a 0. La ventaja de la
distribucin gaussiana es que permite inferir la probabilidad de que se presente
determinado valor y los
mayores o menores que l.
Ello se debe a que
tiene parmetros, valores
que nos permiten ubicarnos
dentro de la distribucin.
Dichos parmetros son la
media y el desvo estndar.

1
https://www.gestiopolis.com/que-es-la-distribucion-normal/
Sabemos que la media ocupa el lugar central de la distribucin, y que la media
1 desvo estndar engloban aproximadamente el 68% central de las
observaciones, que la media 1.96 desvos estndar engloban
aproximadamente el 95% central y que la media 2.58 desvos estndar
engloban aproximadamente el 99% central de las observaciones. Que la
distribucin sea paramtrica permite entonces ubicar la probabilidad de que se
d determinado valor en la distribucin2.

DISTRIBUCIN BINOMIAL

Una distribucin binomial es una distribucin de probabilidad ampliamente


utilizada de una variable aleatoria discreta es la distribucin binomial. Esta
describe varios procesos de inters para los administradores.

Describe datos discretos, resultantes de un experimento denominado proceso


de Bernoulli en honor del matemtico suizo Jacob Bernoulli, quien vivi en el
siglo XVII3.

Existe una frmula binomial:

Probabilidad de r xitos en n ensayos es

N! / R! (N-R)! PR QN-R

Recordemos que el smbolo factorial! Significa por ejemplo que es:

2
http://www.sac.org.ar/cuestion-de-metodo/que-es-la-distribucion-normal-o-gaussiana/
3
https://www.gestiopolis.com/que-es-una-distribucion-binomial/
3! = 3*2*1 = 6

Los matemticos definen 0! = 1.

La distribucin binomial se puede expresar de forma grfica:

Ejemplo:

Imaginemos una escuela primaria donde los alumnos llegan tarde a menudo.
Cinco alumnos estn en el jardn de nios. La directora lleva tiempo estudiando
el problema, habiendo llegado a la conclusin de que hay una probabilidad de
0.4 de que un alumno llegue tarde y de que los alumnos lleguen
independientemente uno de otro Cmo trazamos una distribucin binomial de
probabilidad que ilustre las probabilidades de que 0,1,2,3,4 5 estudiantes
lleguen tarde simultneamente? Para hacerlo necesitaremos utilizar la frmula
binomial donde:

P= 0.4

4
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_binomial
Q= 0.6

N=

Realicemos el clculo de cada valor de R:

Para R= 0 obtenemos que:

P(0) = 5!/ 0!(5-0)! (0.4 )0 (0.6)5

P(0) = 0.0777

DISTRIBUCIN DE POISSON

En teora de probabilidad y estadstica, la distribucin de Poisson es una


distribucin de probabilidad discreta que expresa, a partir de una frecuencia de
ocurrencia media, la probabilidad de que ocurra un determinado nmero de
eventos durante cierto perodo de tiempo. Concretamente, se especializa en la
probabilidad de ocurrencia de sucesos con probabilidades muy pequeas, o
sucesos "raros".

Fue descubierta por Simon-Denis Poisson, que la dio a conocer en 1838 en su


trabajo Recherches sur la probabilit des jugements en matires criminelles et
matire civile (Investigacin sobre la probabilidad de los juicios en materias
criminales y civiles)5.

La funcin de masa o probabilidad de la distribucin de Poisson es

Para R= 1 obtenemos que:

5
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson
P(1) = 5!/ 1!(5-1)! (0.4 )1 (0.6)4

P(1) = 0.2592

Para R=2 obtenemos que:

P(2) = 5!/ 2!(5-2)! (0.4 )2 (0.6)3

P(2) = 0.3456

Para R= 3

Obtenemos que:

P(3) = 5!/ 3!(5-3)! (0.4 )3 (0.6)2

P(3) = 0.2304

Para R= 4 obtenemos que:

P(4) = 5!/ 4!(5-4)! (0.4 )4 (0.6)1

P(4) = 0.0768

Para R= 5 obtenemos que:

P(5) = 5!/ 5!(5-5)! (0.4 )5 (0.6)0

Donde

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la


probabilidad de que el evento suceda precisamente k veces).
es un parmetro positivo que representa el nmero de veces que se espera
que ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso
estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados
en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos,
usaremos un modelo de distribucin de Poisson con = 104 = 40.
e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con


distribucin de Poisson son iguales a . Los momentos de orden superior
son polinomios de Touchard en cuyos coeficientes tienen una
interpretacin combinatoria. De hecho, cuando el valor esperado de la distribucin
de Poisson es 1, entonces segn la frmula de Dobinski, el n-simo momento
iguala al nmero de particiones de tamao n6.

La moda de una variable aleatoria de distribucin de Poisson con un no entero

es igual a , el mayor de los enteros menores que (los

smbolos representan la funcin parte entera). Cuando es un entero


positivo, las modas son y 1.

La funcin generadora de momentos de la distribucin de Poisson con valor


esperado es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente


divisibles.

La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de


parmetro 0 a otra de parmetro es

Intervalo de confianza

Un criterio fcil y rpido para calcular un intervalo de confianza aproximada de


es propuesto por Guerriero (2012).1 Dada una serie de eventos k (al menos el 15 -
20) en un periodo de tiempo T, los lmites del intervalo de confianza para la
frecuencia vienen dadas por:

6
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson
Entonces los lmites del parmetro estn dadas por: .

Relacin con otras distribuciones.

Sumas de variables aleatorias de Poisson

La suma de variables aleatorias de Poisson independientes es otra variable


aleatoria de Poisson cuyo parmetro es la suma de los parmetros de las
originales. Dicho de otra manera, si

Son N variables aleatorias de Poisson independientes, entonces

Distribucin binomial
La distribucin de Poisson es el caso lmite de la distribucin binomial. De hecho,

si los parmetros n y de una distribucin binomial tienden a infinito (en el

caso de 'n') y a cero (en el caso de ) de manera que se mantenga


constante, la distribucin lmite obtenida es de Poisson.

Aproximacin normal

Como consecuencia del teorema central del lmite, para valores grandes de
una variable aleatoria de Poisson X puede aproximarse por otra normal dado que
el cociente converge a una distribucin normal de media 0 y varianza 1.

Distribucin exponencial

Supngase que para cada valor t > 0, que representa el tiempo, el nmero de
sucesos de cierto fenmeno aleatorio sigue una distribucin de Poisson de
parmetro t. Entonces, los tiempos transcurridos entre dos sucesos sucesivos
sigue la distribucin exponencial
Ejemplos

Si el 2% de los libros encuadernados en cierto taller tiene encuadernacin


defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en
este taller tengan encuadernaciones defectuosas usamos la distribucin de
Poisson. En este caso concreto, k es 5 y, , el valor esperado de libros
defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la probabilidad buscada es

LA DISTRIBUCIN HIPERGEOMTRICA

La distribucin hipergeomtrica es la distribucin que sigue la siguiente situacin


de incertidumbre: Tenemos N posibles observaciones, distribuidas en dos tipos
distintos, en proporcin r y N-r, y donde realizaremos n observaciones sin
repeticin. La incertidumbre es ver cuntas de estas n observaciones que
tenemos son de un tipo o del otro.

La distribucin hipergeomtrica paradigmtica es la de extracciones de una urna


con bolas (N) de dos colores en una determinada proporcin (r y N-r), de la que se
extraen bolas (n) sin reemplazamiento y se pretende ver la probabilidad de una
determinada combinacin.

El programa siguiente nos muestra la forma de la funcin de densidad de esta


variable y el valor de la funcin de densidad y de la funcin de distribucin en el
punto que elijamos:

Propiedades:

1) Esperanza: E(X) = n N1 / N 2.

2) Varianza: V(X) = (n N1 N2 (N-n)) / (N2 (N-1) )

7
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson
Propiedades del modelo Hipergeomtrico

1) Esperanza: E(X) = n N1/N

2) Varianza: V(X) = (n N1 N2 (N n))/(N2 (N 1))

Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas


espaolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de
oros (D=10 naipes de un mismo tipo). Supongamos que de esa baraja
extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos plantea el
problema de calcular la probabilidad de que hayan k=2 oros (exactamente) en esa
extraccin. La respuesta a Este problema es

En lugar de usar como dato D es posible que tengamos la proporcin existente, p,


entre el nmero total de oros y el nmero de cartas de la baraja

de modo que podemos decir que


Este ejemplo sirve para representar el tipo de fenmenos que siguen una ley de
distribucin hipergeomtrica. Diremos en general que una v.a. X sigue
una distribucin hipergeomtrica de parmetros, N, n y p, lo que representamos
si su funcin de probabilidad es

Observacin

Cuando el tamao de la poblacin (N) es muy grande, la ley hipergeomtrica


tiende a aproximarse a la binomial:

El valor esperado de la hipergeomtrica es el mismo que el de la binomial,

sin embargo su varianza


no es exactamente la de la binomial, pues est corregida por un factor, , que
tiende a 1 cuando . A este factor se le denomina factor de correccin para
poblacin finita.

También podría gustarte