Está en la página 1de 22

Distribucin de Poisson

Distribucin de Poisson
=

El eje horizontal es el ndice x. La funcin solamente est definida en


valores enteros de k. Las lneas que conectan los puntos son solo
guas para el ojo y no indican continuidad.
Funcin de densidad de probabilidad

El eje horizontal es el ndice k.


Funcin de distribucin de probabilidad

En probabilidad estadstica, la distribucin de Poissones una probabilidad discreta que


expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un
determinado nmero de eventos durante cierto perodo de tiempo. Concretamente, se
especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeas, o
sucesos "raros".
Fue descubierta por Simon-Denis Poisson, que la dio a conocer en 1838 en su
trabajo Recherches sur la probabilit des jugements en matires criminelles et matire
civile (Investigacin sobre la probabilidad de los juicios en materias criminales y civiles).

Propiedades
La funcin de masa o probabilidad de la distribucin de Poisson es

donde

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la


probabilidad de que el evento suceda precisamente k veces).

es un parmetro positivo que representa el nmero de veces que se espera que


ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene
lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que
ocurra kveces dentro de un intervalo de 10 minutos, usaremos un modelo de distribucin
de Poisson con = 104 = 40.

e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribucin de Poisson
son iguales a . Los momentos de orden superior son polinomios de Touchard en cuyos
coeficientes tienen una interpretacin combinatoria. De hecho, cuando el valor esperado de la
distribucin de Poisson es 1, entonces segn la frmula de Dobinski, el n-simo momento
iguala al nmero de particiones de tamao n.
La moda de una variable aleatoria de distribucin de Poisson con un no entero es igual a ,
el mayor de los enteros menores que (los smbolos [] representan la funcin parte entera).
Cuando es un entero positivo, las modas son y 1.
La funcin generadora de momentos de la distribucin de Poisson con valor esperado es
Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parmetro 0 a
otra de parmetro es

Intervalo de confianza
Un criterio fcil y rpido para calcular un intervalo de confianza aproximada de es propuesto
por Guerriero (2012).1 Dada una serie de eventos k (al menos el 15 - 20) en un periodo de
tiempo T, los lmites del intervalo de confianza para la frecuencia vienen dadas por:

entonces los lmites del parmetro estn dadas por:.

Relacin con otras distribuciones


Sumas de variables aleatorias de Poisson
La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de
Poisson cuyo parmetro es la suma de los parmetros de las originales. Dicho de otra
manera, si
son N variables aleatorias de Poisson independientes, entonces

Distribucin binomial
La distribucin de Poisson es el caso lmite de la distribucin binomial. De hecho, si los
parmetros n y

de una distribucin binomial tienden a infinito (en el caso de 'n') y a cero (en

el caso de ) de manera que


es de Poisson.

se mantenga constante, la distribucin lmite obtenida

Aproximacin normal
Como consecuencia del teorema central del lmite, para valores grandes de , una variable
aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente
converge a una distribucin normal de media 0 y varianza 1.

Distribucin exponencial
Supngase que para cada valor t > 0, que representa el tiempo, el nmero de sucesos de
cierto fenmeno aleatorio sigue una distribucin de Poisson de parmetro t. Entonces, los
tiempos transcurridos entre dos sucesos sucesivos sigue la distribucin exponencial.

Ejemplos
Si el 2% de los libros encuadernados en cierto taller tiene encuadernacin defectuosa, para
obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan
encuadernaciones defectuosas usamos la distribucin de Poisson. En este caso concreto, kes
5 y, , el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la
probabilidad buscada es

Procesos de Poisson
La distribucin de Poisson se aplica a varios fenmenos discretos de la naturaleza (esto es,
aquellos fenmenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o
en un rea determinada) cuando la probabilidad de ocurrencia del fenmeno es constante en
el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la
distribucin de Poisson incluyen:

El nmero de autos que pasan a travs de un cierto punto en una ruta


(suficientemente distantes de los semforos) durante un periodo definido
de tiempo.

El nmero de errores de ortografa que uno comete al escribir una nica


pgina.

El nmero de llamadas telefnicas en una central telefnica por minuto.

El nmero de servidores web accedidos por minuto.

El nmero de animales muertos encontrados por unidad de longitud de


ruta.

El nmero de mutaciones de determinada cadena de ADN despus de


cierta cantidad de radiacin.

El nmero de ncleos atmicos inestables que se han desintegrado en un


determinado perodo.

El nmero de estrellas en un determinado volumen de espacio.

La distribucin de receptores visuales en la retina del ojo humano.

La inventiva 2 de un inventor a lo largo de su carrera.

La distribucin de la riqueza humana.

Distribucin binomial
Binomial redirige aqu. Para otras acepciones, vase binomial (desambiguacin).
Este artculo o seccin necesita referencias que aparezcan en una publicacin acreditada.
Este aviso fue puesto el 24 de diciembre de 2014.
Puedes aadirlas o avisar al autor principal del artculo en su pgina de discusin
pegando: {{sust:Aviso referencias|Distribucin binomial}} ~~~~

Distribucin binomial

Funcin de probabilidad

Funcin de distribucin de probabilidad

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que cuenta


el nmero de xitos en una secuencia de n ensayos de Bernoulli independientes entre s, con
una probabilidad fija p de ocurrencia del xito entre los ensayos. Un experimento de Bernoulli
se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se
denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una
probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de
forma independiente, y se trata de calcular la probabilidad de un determinado nmero de
xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli.
Para representar que una variable aleatoria X sigue una distribucin binomial de
parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica.

Ejemplos[editar]
Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por
esta distribucin:

Se lanza un dado diez veces y se cuenta el nmero X de tres obtenidos:


entonces X ~ B(10, 1/6)

Se lanza una moneda dos veces y se cuenta el nmero X de caras obtenidas:


entonces X ~ B(2, 1/2)

Experimento binomial[editar]
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno
de los experimentos es independiente de los restantes (la probabilidad del resultado de un
experimento no depende del resultado del resto). El resultado de cada experimento ha de
admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de
ambas posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).
Se designa por X a la variable que mide el nmero de xitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de
probabilidad binomial, y se denota B(n,p).

Caractersticas analticas
Su funcin de probabilidad es
donde

siendo
de x en n)

las combinaciones de n en x(n elementos tomados

Ejemplo[editar]
Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos conocer la
probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(51,
1/6) y la probabilidad sera P(X=20):

Propiedades
Relaciones con otras variables aleatorias
Si n tiende a infinito y p es tal que el producto entre ambos parmetros tiende a
, entonces
la distribucin de la variable aleatoria binomial tiende a una distribucin de Poisson de
parmetro .
Por ltimo, se cumple que cuando =0.5 y n es muy grande (usualmente se exige que ) la
distribucin binomial puede aproximarse mediante la distribucin normal.

Propiedades reproductivas[editar]
Dadas m variables binomiales independientes de parmetros ni (i = 1,..., m) y , su suma es
tambin una variable binomial, de parmetros n1+... + nm, y , es decir,

Distribucin multinomial

En teora de probabilidad, la distribucin multinomial es una generalizacin de


la distribucin binomial.
La distribucin binomial es la probabilidad de un nmero de xitos en N sucesos de Bernoulli
independientes, con la misma probabilidad de xito en cada suceso. En una distribucin
multinomial, el anlogo a la distribucin de Bernoulli es la distribucin categrica, donde cada
suceso concluye en nicamente un resultado de un nmero finito K de los posibles, con

probabilidades
sucesos independientes.

(tal que

para i entre 1 y K y

); y con n

Entonces sea la variable aleatoria , que indica el nmero de veces que se ha dado el resultado
i sobre los n sucesos. El vector
parmetros n y p, donde

sigue una distribucin multinomial con


.

Ntese que en algunos campos las distribuciones categricas y multinomial se encuentran


unidas, y es comn hablar de una distribucin multinomial cuando el trmino ms preciso
sera una distribucin categrica.

Especificacin
Funcin de probabilidad
La funcin de probabilidad de la distribucin multinomial es como sigue:
Para enteros no negativos x1, ..., xk.

Propiedades
La esperanza matemtica del suceso i observado en n pruebas es:
La varianza es:

Distribucin hipergeomtrica

En teora de la probabilidad la distribucin hipergeomtrica es una distribucin discreta


relacionada con muestreos aleatorios y sin reemplazo. Suponga que se tiene una poblacin
de N elementos de los cuales, d pertenecen a la categora Ay N-d a la B. La distribucin
hipergeomtrica mide la probabilidad de obtener x () elementos de la categora A en una
muestra sin reemplazo de n elementos de la poblacin original.

Propiedades

La funcin de probabilidad de una variable aleatoria con distribucin hipergeomtrica puede


deducirse a travs de razonamientos combinatorios y es igual a
donde es el tamao de poblacin, es el tamao de la muestra extrada, es el nmero de
elementos en la poblacin original que pertenecen a la categora deseada y es el nmero
de elementos en la muestra que pertenecen a dicha categora. La notacin hace
referencia al coeficiente binomial, es decir, el nmero de combinaciones posibles al
seleccionar elementos de un total .
El valor esperado de una variable aleatoria X que sigue la distribucin hipergeomtrica es
y su varianza,

En la frmula anterior, definiendo


y
se obtiene

La distribucin hipergeomtrica es aplicable a muestreos sin


reemplazo y la binomial a muestreos con reemplazo. En situaciones
en las que el nmero esperado de repeticiones en el muestreo es
presumiblemente bajo, puede aproximarse la primera por la segunda.
Esto es as cuando N es grande y el tamao relativo de la muestra
extrada, n/N, es pequeo.

Distribucin geomtrica
En teora de probabilidad y estadstica, la distribucin geomtrica es cualquiera de las
dos distribuciones de probabilidad discretas siguientes:

la distribucin de probabilidad del nmero X del ensayo de Bernoulli necesaria para


obtener un xito, contenido en el conjunto { 1, 2, 3,...} o

la distribucin de probabilidad del nmero Y = X 1 de fallos antes del primer xito,


contenido en el conjunto { 0, 1, 2, 3,... }.

Propiedades[editar]
1. La distribucin geomtrica no tiene memoria, es decir,

2. Si la probabilidad de xito en cada ensayo es p, entonces la de que x ensayos sean


necesarios para obtener un xito es para x = 1, 2, 3,.... Equivalentemente, la de que
haya x fallos antes del primer xito es para y = 0, 1, 2,... .En ambos casos, la
secuencia de es una progresin geomtrica.
3. El valor esperado de una variable aleatoria X distribuida geomtricamente es y dado
que Y = X-1, .
4. En ambos casos, la varianza es .
5. Las funciones generatrices de X y la de Y son, respectivamente, .
6. Como su anloga continua, la distribucin exponencial, la distribucin geomtrica
carece de memoria. Esto significa que si intentamos repetir el experimento hasta el
primer xito, entonces, dado que el primer xito todava no ha ocurrido, la distribucin
de condicional del nmero de ensayos adicionales no depende de cuantos fallos se
hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos
fallos. La distribucin geomtrica es de hecho la nica distribucin discreta sin
memoria.
7. De todas estas distribuciones de contenidas en {1, 2, 3,... } con un valor esperado
dado , la distribucin geomtrica X con parmetro p = 1/ es la de mayor entropa.
1. La distribucin geomtrica del nmero y de fallos antes del primer xito
es infinitamente divisible, esto es, para cualquier entero positivo n, existen variables
aleatorias independientes Y 1,..., Yn distribuidas idnticamente la suma de las cuales
tiene la misma distribucin que tiene Y. Estas no sern geomtricamente distribuidas
a menos que n = 1.

Distribuciones relacionadas[editar]
La distribucin geomtrica es un caso especial de la distribucin binomial negativa con
parmetro k = 1. Ms generalmente, si Y 1,...,Yk son variables independientes distribuidas
geomtricamente con parmetro p, entonces sigue a una distribucin binomial negativa con
parmetros k y p.
Si Y1,...,Yr son variables independientes distribuidas geomtricamente (con diferentes
parmetros de xito pm posibles ), entonces su mnimo es tambin geomtricamente
distribuido, con parmetro

Distribucin de Bernoulli

En teora de probabilidad y estadstica, la distribucin de Bernoulli (o distribucin


dicotmica), nombrada as por el matemticoy cientfico suizo Jakob Bernoulli, es
una distribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito (
valor 0 para la probabilidad de fracaso ().
Si es una variable aleatoria que mide el "nmero de xitos", y se realiza un nico
experimento con dos posibles resultados (xito o fracaso), se dice que la variable
aleatoria se distribuye como una Bernoulli de parmetro .
Su funcin de probabilidad viene definida por:

La frmula ser:

)y

Un experimento al cual se aplica la distribucin de Bernoulli se conoce como Ensayo de


Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos
repetidos.

Propiedades caractersticas
Esperanza matemtica:
Varianza:
Funcin generatriz de momentos:

Funcin caracterstica:
Moda:
0 si q > p (hay ms fracasos que xitos)
1 si q < p (hay ms xitos que fracasos)
0 y 1 si q = p (los dos valores, pues hay igual nmero de fracasos que de xitos)
Asimetra (Sesgo):

Curtosis:

La Curtosis tiende a infinito para valores de cercanos a 0 a 1, pero para la distribucin de


Bernoulli tiene un valor de curtosis menor que el de cualquier otra distribucin, igual a -2.
Caracterizacin por la binomial:
; donde es una distribucin binomial.

Distribuciones Relacionadas
Si son variables aleatorias identicamente distribuidas con la distribucin de Bernoulli con la
misma probabilidad de xito en todas, entonces la variable aleatoria presenta
una distribucin binomial de probabilidad.

Ejemplo
"Lanzar una moneda, probabilidad de conseguir que salga cruz".
Se trata de un solo experimento, con dos resultados posibles: el xito (p) se considerar sacar
cruz. Valdr 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5.
La variable aleatoria X medir "nmero de cruces que salen en un lanzamiento", y slo
existirn dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz).
Por tanto, la v.a. X se distribuir como una Bernoulli, ya que cumple todos los requisitos.

Ejemplo:
"Lanzar un dado y salir un 6".
Cuando lanzamos un dado tenemos 6 posibles resultados:
Estamos realizando un nico experimento (lanzar el dado una sola vez).
Se considera xito sacar un 6, por tanto, la probabilidad segn la Regla de Laplace (casos
favorables dividido entre casos posibles) ser 1/6.

Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualquier otro
resultado.

La variable aleatoria X medir "nmero de veces que sale un 6", y solo existen dos valores
posibles, 0 (que no salga 6) y 1 (que salga un 6).
Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parmetro = 1/6

La probabilidad de que obtengamos un 6 viene definida como la probabilidad de que X sea


igual a 1.

La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X


sea igual a 0.

Bibliografa
TTULO: Elementos de la Probabilidad
AUTORES: Lic. Martha Leticia Hernndez
Lic. Luis Fernando Mendoza Melken
Ing. Rodolfo Jess Matus Quiroz
EDICIN: Primera
EDITORIAL: LIBUDI S.A DE C.V.
PGINAS: 62-74

Bibliografa
TTULO: Probabilidad y estadstica para
AUTORES: Ronald E. Walpole
Raymond H. Myers
Sharon L. Myers
EDICIN: Sexta
EDITORIAL: PEARSON Educacin
PGINAS: 54-56

ingenieros

Bibliografa
TTULO: Probabilidad y Estadstica
AUTORES: Spiegel Murray R.
Schiller John J.
Srinivasan R. Alu
EDICIN: Segunda
EDITORIAL: Mc Graw Hill
PGINAS: 41-42

Bibliografa
TTULO: Estadstica y Probabilidad
AUTORES: Domnguez Domnguez
Domnguez Lpez Jorge Axel
EDICIN: Primera
EDITORIAL: OXFORD
PGINAS: 268-282

Jorge

Bibliografa
TTULO: Anlisis y control estadstico de los procesos
AUTORES: Hernndez Herrera Claudia Alejandra
EDITORIAL: Colegio Nacional de Educacin Profesional
PGINAS: 163-167

También podría gustarte