Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROBABILÍSTICA
3.1 INTRODUCCIÓN
La teoría de la probabilidad es el fundamento para la inferencia estadística. Sin embargo, esta
teoría, que es una rama de las matemáticas, no es el tema principal de este libro, por lo que sólo se
estudiarán los conceptos más importantes. Los objetivos de este capítulo son que el estudiante
aumente su capacidad matemática en el área de la probabilidad y brindarle ayuda en la
comprensión de los conceptos más importantes, el avance a lo largo de este capítulo contribuirá de
manera importante a lograr el dominio de los procedimientos de la inferencia estadística que se
presentan en el resto del libro.
Probabilidad subjetiva: En los primeros años de la década de 1950, L. J. Savage dio un gran
impulso a lo que se conoce como probabilidad "personalística" o subjetiva. Este enfoque sostiene
que la probabilidad mide la confianza que un individuo tiene en la certeza de una proposición
determinada. Este concepto no depende de la repetibilidad de ningún proceso. De hecho, al aplicar
este concepto de probabilidad, se puede calcular la probabilidad de un evento que solo puede
ocurrir una vez, por ejemplo, la probabilidad de descubrir una cura para el cáncer en los próximos
diez años. Aunque el punto de vista subjetivo de la probabilidad ha gozado de gran
popularidad, los estadísticos que tienen orientación tradicional aún no la aceptan del todo.
3.3 PROPIEDADES ELEMENTALES DE LA PROBABILIDAD
Dado algún proceso (o experimento) con n resultados mutuamente excluyentes
(llamados eventos), E1, E2,.., En. La probabilidad de cualquier evento E i es un
número no negativo.
La suma de las probabilidades de todos los resultados mutuamente excluyentes
es igual a 1.
Considere dos eventos mutuamente excluyentes, Ei y Ej. La probabilidad de
la ocurrencia de Ei o Ej es igual a la suma de sus probabilidades individuales.
Regla de la adición: La tercera propiedad de la probabilidad dada con anterioridad afirma que
la probabilidad de la ocurrencia de uno de los dos eventos mutuamente excluyentes es igual a la
suma de sus probabilidades individuales. Suponga, por ejemplo, que se escoge aleatoriamente a una
persona de entre las 111 representadas en la tabla 3.4.1 ¿Cuál es la probabilidad de que esta persona
sea del sexo masculino (M) o del sexo femenino (P)? Se expresa esta probabilidad con
los símbolos P (MUF). Puesto que los dos géneros son mutuamente excluyentes, P (M UF) = P(M) +
P(F) = (75/111) +(36/111) = .6757 + .3243 = 1.
1. Un falso positivo resulta cuando una prueba indica que el estado es positivo, cuando en realidad
es negativo.
2. Un falso negativo resulta cuando una prueba indica que un estado es negativo, cuando en
realidad es positivo.
DISTRIBUCIONES DE PROBABILIDAD
1. DEFINICIÓN DE DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VARIABLE ALEATORIA DISCRETA
Es una tabla, gráfica, fórmula u otro sistema utilizado para especificar todos los valores posibles de
una variable aleatoria discreta junto con sus probabilidades respectivas.
A. Propiedades:
0 P(X=x) 1
P(X=x) = 1
F(x) = P(X=xi)
Aclaraciones:
Probabilidad complementaria:
Distribución binomial:
Proceso de Bernoulli:
a) En cada ensayo ocurre uno de dos posibles resultados mutuamente excluyentes. Uno se denota
como éxito (el que se cumple) y el otro como fracaso (el que no se cumple)
b) P (éxitos) = “p” es constante de un ensayo a otro.
c) P (fracaso) = 1-p = “q”
Una combinación de “n” objetos tomados x a la vez es un subconjunto desordenado de x de los “n”
objetos. .Se utiliza cuando el orden de los datos es intrascendente:
0! = 1
X! = x(x-1)(x-2)(x-3)…
Tabla binomial:
Cuando el cálculo de una probabilidad resulta tedioso por el tamaño de la muestra (grande), se
pueden utilizar tablas predeterminadas. La distribución binomial se puede representar de forma
tabular de la siguiente manera:
La tabla B no da las probabilidades para valores de p mayores a .5. Sin embargo, pueden obtenerse
las probabilidades a partir de la tabla B replanteando el problema en términos de probabilidad de
fracaso, 1 -p, en lugar de en términos de probabilidad de éxito p. Como parte del replanteamiento,
se debe pensar, también, en términos del número de fracasos, n x, más que en términos de éxitos x.
Esta idea se resume de la siguiente manera:
Puesta en palabras, dice que: "La probabilidad de que X sea igual a algún valor específico dado el
tamaño de la muestra y una probabilidad mayor que .5, es igual a la probabilidad de que X sea igual
a n -x dado el tamaño de la muestra y la probabilidad de un fracaso 1-p". Con la finalidad de utilizar
la tabla binomial, la probabilidad de un fracaso se trató como la probabilidad de un éxito. Cuando p
es mayor que .5, las probabilidades acumuladas pueden obtenerse a partir de la tabla B empleando
la siguiente relación:
Finalmente, al utilizar la tabla B para calcular la probabilidad de que X sea mayor o igual a alguna x
cuando P > .5, se utiliza la siguiente relación:
Parámetros binomiales:
La distribución binomial tiene dos parámetros, n y p. Son parámetros en el sentido de que son
suficientes para especificar una distribución binomial. La distribución binomial es en realidad una
familia de distribuciones con cada uno de los valores posibles de n y p designando a un miembro
diferente de la familia. La media y la variancia de la distribución binomial son µ = np y ơ2= np (1
-P), respectivamente.
La distribución binomial, formalmente hablando, es aplicable en situaciones donde el muestreo se
realiza a partir de una población infinita o a partir de una población finita con restitución.
3. DISTRIBUCION DE POISSON:
Llamada así en honor del matemático francés Simeón Denis Poisson (1781-1840), quien tiene
amplio reconocimiento por la publicación de su trabajo en 1837. Esta distribución ha sido empleada
extensamente en biología y medicina como modelo de probabilidad.
Estas curvas suaves se utilizan para representar gráficamente las distribuciones de las variables
aleatorias continuas. Esto tiene algunas consecuencias importantes cuando se trabaja con
distribuciones de probabilidad.
5. DISTRIBUCIÓN NORMAL
Considerada la distribución más importante de toda la estadística, publicada por Abraham De
Moivre el 12 de noviembre de 1733, se da por la siguiente.
2 2
− ( x−μ ) / 2σ
1
F(x) = e ,−∞ < x <∞
√ 2 πσ
Teniendo en cuenta el π y el e como valores ya establecidos, aplicaríamos el μ como la media y el σ
como la desviación estándar.
Sí se le suma dos desviaciones estándar a la media a ambos lados obtendrás el 95 % del área.
Sí se le suma tres desviaciones estándar a la media a ambos lados obtendrás el 99.7% del área.
1 −(2z ) x−μ
F(x) = e ,−∞< z< ∞ , z=
√2 π σ