Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DISTRIBUCIÓN BINOMIAL
La distribución binomial es una distribución discreta muy importante que surge en
muchas aplicaciones bioestadísticas. Fue obtenida por Jakob Bernoulli (1654-
1705) y publicada en su obra póstuma Ars Conjectandi en 1713. Esta distribución
aparece de forma natural al realizar repeticiones independientes de un
experimento que tenga respuesta binaria, generalmente clasificada como “éxito” o
“fracaso”; este experimento recibe el nombre de experimento de Bernoulli.
Ejemplos de respuesta binaria pueden ser el hábito de fumar (sí/no), si un
paciente hospitalizado desarrolla o no una infección, o si un artículo de un lote es
o no defectuoso. La variable discreta que cuenta el número de éxitos en n pruebas
independientes de ese experimento, cada una de ellas con la misma probabilidad
de “éxito” igual a p, sigue una distribución binomial de parámetros n y p, que se
denota por (Bi (n, p)). Este modelo se aplica a poblaciones finitas de las que se
toman elementos al azar con reemplazo, y también a poblaciones
conceptualmente infinitas, como por ejemplo las piezas que produce una máquina,
siempre que el proceso de producción sea estable (la proporción de piezas
defectuosas se mantiene constante a largo plazo) y sin memoria (el resultado de
cada pieza no depende de las anteriores). Un ejemplo de variable binomial puede
ser el número de pacientes con cáncer de pulmón ingresados en una unidad
hospitalaria. Un caso particular se tiene cuando n=1, que da lugar a la distribución
de Bernoulli.
Las características básicas de una distribución binomial son:
Cada prueba del experimento aleatorio presenta dos únicas opciones, que
puede designarse como éxito (E) y fracaso (F).
Se realizan n ensayos del experimento, independientes unos de otros e
idénticos.
La probabilidad de éxito es constante a lo largo de las n pruebas: PE p () = .
La probabilidad de fracaso también es constante: PF q p () = = −1
Una distribución de estas características también recibe el nombre de
pruebas de Bernuilli.
DISTRIBUCIÓN POISSON
La distribución de Poisson debe su nombre al matemático francés Simeón Denis
Poisson (1781-1840), aunque ya había sido introducida en 1718 por Abraham De
Moivre (1667-1754) como una forma límite de la distribución binomial que surge
cuando se observa un evento raro después de un número grande de repeticiones.
En general, la distribución de Poisson de parámetro se puede utilizar como una
aproximación de la binomial, Bin (n, p), si el número de pruebas n es grande, pero
la probabilidad de éxito p es pequeña, siendo = np; podemos considerar que la
aproximación Poisson-binomial es “buena” si n: 20 y p: 0,05 y “muy buena” si n:
100 y p: 0,01. La distribución de Poisson se puede entender como un caso
particular de la Binomial que utilizamos para determinadas distribuciones en las
que el cálculo de la probabilidad es engorroso debido bien a que el número de
pruebas es excesivamente elevado o bien a que la probabilidad de éxito es
excesivamente baja; en ambos casos la media (n*p) es muy pequeña en relación
con el número de pruebas (n). En estos casos se puede demostrar que la
distribución binomial converge, tiende a comportarse, como una distribución de
Poisson. Como regla práctica entenderemos que es aplicable la distribución de
Poisson en aquellas binomiales cuya media tenga un valor inferior a 5 y el número
de pruebas sea superior a 30.
VARIABLES ALEATORIAS CONTINUAS
Una variable aleatoria continua es la que puede tomar un número infinitamente
grande de valores que corresponden a los puntos en un intervalo de una recta.
Las estaturas y los pesos de las personas, el tiempo entre dos eventos o la vida
útil de un equipo de oficina, son ejemplos típicos de variables aleatorias continuas.
El modelo probabilístico para la distribución de frecuencias de una variable
aleatoria continua implica la selección de una curva, generalmente regular o
aislada, a la que se llama distribución de probabilidad o función de densidad de
probabilidad de una variable aleatoria. Si la ecuación de esta distribución de
probabilidad continua es f(x), entonces la probabilidad de que x esté en el intervalo
a < x < b es el área bajo la curva de distribución para f(x) entre los dos puntos a y
b (Figura 1). Esto concuerda con la interacción de un histograma de frecuencias
relativas, donde las áreas sobre un intervalo, bajo el histograma, correspondieron
a la proporción de observación que cae en dicho intervalo. Ya que el número de
valores que puede tomar x es infinitamente grande y no se puede contar, la
probabilidad de que x sea igual a un valor específico, por ejemplo, a, es 0.
Entonces las afirmaciones probabilísticas acerca de las variables aleatorias
continuas siempre corresponden a áreas bajo la distribución de probabilidad sobre
un intervalo, por ejemplo, de a b, y se expresan como P (a < x< b). Nótese que la
probabilidad en a < x <b es igual a la probabilidad de que a < x = b, pues P (x = a)
= P (x = b) = 0. Hay muchas distribuciones de probabilidad continuas y cada una
se representa mediante una ecuación f(x), que se escoge de la manera que el
área total bajo la curva de distribución de probabilidad sea igual a 1. Dentro de
estas variables encontramos las siguientes distribuciones más relevantes.
Distribución normal
Distribución T de Student
DISTRIBUCIÓN NORMAL
Es una distribución de probabilidad continúa asociada (teóricamente) a multitud de
fenómenos naturales y cotidianos (cociente intelectual, talla o peso de las
personas; tamaño de los frutos de cualquier tipo de árbol…), que se caracterizan
porque la mayoría de los resultados tienden a agruparse en torno a su media. Una
variable con distribución normal queda totalmente definida por su media µ y por su
desviación típica σ. Se denota como N (µ, σ). Su gráfica es la conocida “campana
de Gauss”.