Está en la página 1de 11

CONCEPTOS BÁSICOS DE

PROBABILÍSTICA
3.1 INTRODUCCIÓN
La teoría de la probabilidad es el fundamento para la inferencia estadística. Sin embargo, esta
teoría, que es una rama de las matemáticas, no es el tema principal de este libro, por lo que sólo se
estudiarán los conceptos más importantes. Los objetivos de este capítulo son que el estudiante
aumente su capacidad matemática en el área de la probabilidad y brindarle ayuda en la
comprensión de los conceptos más importantes, el avance a lo largo de este capítulo contribuirá de
manera importante a lograr el dominio de los procedimientos de la inferencia estadística que se
presentan en el resto del libro.

El concepto de probabilidad no es ajeno a los trabajadores de la salud, puesto que lo encuentran


frecuentemente en la comunicación diaria. Por ejemplo, se puede escuchar que un médico dice que
un paciente tiene una oportunidad de sobrevivir a una operaci6n de 50-50. O bien, otro médico
puede decir que es 95% seguro de que un paciente tiene una enfermedad en particular. Una
enfermera de salud pública puede decir que 9 de cada 10 pacientes suspenderán su cita.

3.2 DOS PERSPECTIVAS DE LA PROBABILIDAD: OBJETIVA Y


SUBJETIVA
Probabilidad clásica: La probabilidad clásica data del siglo XVII en los trabajos de dos
matemáticos, Pascal y Fermat. Gran parte de esta teoría fue creada al intentar resolver problemas
relacionados con los juegos de como el juego de los dados, algunos ejemplos tomados de dichos
juegos ilustran perfectamente los principios de la probabilidad clásica. Por ejemplo, si un dado
normal es lanzado, la probabilidad de que caiga un 1 es igual a 1/6, y es lo mismo para los otros
cinco dados. Si Una carta es sacada al azar de un mazo bien barajado, la probabilidad de sacar un
corazón es de 13/52. Las probabilidades como éstas se calculan a través del razonamiento abstracto.

Probabilidad de frecuencia relativa: El enfoque de frecuencia relativa de la probabilidad


depende de la repetibilidad de algunos procesos y la capacidad de contar el número de repeticiones,
así como el número de veces que algún evento de interés ocurre. En este contexto, se puede definir
la probabilidad de observar alguna característica E de un evento.

Probabilidad subjetiva: En los primeros años de la década de 1950, L. J. Savage dio un gran
impulso a lo que se conoce como probabilidad "personalística" o subjetiva. Este enfoque sostiene
que la probabilidad mide la confianza que un individuo tiene en la certeza de una proposición
determinada. Este concepto no depende de la repetibilidad de ningún proceso. De hecho, al aplicar
este concepto de probabilidad, se puede calcular la probabilidad de un evento que solo puede
ocurrir una vez, por ejemplo, la probabilidad de descubrir una cura para el cáncer en los próximos
diez años. Aunque el punto de vista subjetivo de la probabilidad ha gozado de gran
popularidad, los estadísticos que tienen orientación tradicional aún no la aceptan del todo.
3.3 PROPIEDADES ELEMENTALES DE LA PROBABILIDAD
 Dado algún proceso (o experimento) con n resultados mutuamente excluyentes
(llamados eventos), E1, E2,.., En. La probabilidad de cualquier evento E i es un
número no negativo.
 La suma de las probabilidades de todos los resultados mutuamente excluyentes
es igual a 1.
 Considere dos eventos mutuamente excluyentes, Ei y Ej. La probabilidad de
la ocurrencia de Ei o Ej es igual a la suma de sus probabilidades individuales.

3.4 CÁLCULO DE LA PROBABILIDAD DE UN EVENTO

Probabilidad condicional: En ocasiones, el conjunto de todos los "resultados posibles" puede


constituir un subconjunto del conjunto universal. En otras palabras, la población de interés se
puede reducir mediante algún conjunto de condiciones, no aplicables a la población total. Cuando
se calculan las probabilidades con un subconjunto del conjunto universal como denominador, el
resultado es una probabilidad condicional.

Probabilidad conjunta: Algunas veces se quiere encontrar la probabilidad de


que un individuo seleccionado aleatoriamente a partir de un grupo de individuos posea dos
características al mismo tiempo.

Regla de la multiplicación: La probabilidad se puede calcular a partir de otras probabilidades.


Por ejemplo, la probabilidad conjunta se puede calcular como el producto de una probabilidad
marginal y una probabilidad condicional adecuadas.

Regla de la adición: La tercera propiedad de la probabilidad dada con anterioridad afirma que
la probabilidad de la ocurrencia de uno de los dos eventos mutuamente excluyentes es igual a la
suma de sus probabilidades individuales. Suponga, por ejemplo, que se escoge aleatoriamente a una
persona de entre las 111 representadas en la tabla 3.4.1 ¿Cuál es la probabilidad de que esta persona
sea del sexo masculino (M) o del sexo femenino (P)? Se expresa esta probabilidad con
los símbolos P (MUF). Puesto que los dos géneros son mutuamente excluyentes, P (M UF) = P(M) +
P(F) = (75/111) +(36/111) = .6757 + .3243 = 1.

3.5 TEOREMA DE BAYES, PRUEBA DE CLASIFICACIÓN,


SENSIBILIDAD, ESPECIFICIDAD Y VALORES QUE PREDICEN
POSITIVIDAD Y NEGATIVIDAD

1. Un falso positivo resulta cuando una prueba indica que el estado es positivo, cuando en realidad
es negativo.

2. Un falso negativo resulta cuando una prueba indica que un estado es negativo, cuando en
realidad es positivo.

La sensibilidad de una prueba (o síntoma) es la probabilidad de un resultado positivo de la prueba


(presencia o ausencia del síntoma) dada la presencia de la enfermedad.
La especificidad de una prueba (o síntoma) es la probabilidad de un resultado negativo de la prueba
(o ausencia del síntoma) dada la ausencia de la enfermedad.

El valor que predice la positividad de una prueba de detección (o un síntoma) es la probabilidad de


que un individuo tenga la enfermedad, dado que el individuo presenta un resultado positivo en la
prueba de detección (o presenta el síntoma).

El valor que predice la negatividad de la prueba de detección (o síntoma) es la probabilidad de que


el individuo no tenga la enfermedad, dado que el resultado de la prueba de detección es negativa (es
decir no presenta el síntoma).

DISTRIBUCIONES DE PROBABILIDAD
1. DEFINICIÓN DE DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VARIABLE ALEATORIA DISCRETA

Es una tabla, gráfica, fórmula u otro sistema utilizado para especificar todos los valores posibles de
una variable aleatoria discreta junto con sus probabilidades respectivas.

A. Propiedades:

 0  P(X=x)  1
  P(X=x) = 1

B. Pasos para su cálculo:

 Primero se da un cuadro donde se puede visualizar la frecuencia relativa que es igual al


número de veces que se repite la variable de un dato.
 Luego se divide eta frecuencia entre la sumatoria de las frecuencias y eso proporciona la
distribución de probabilidades.

 Se puede realizar un análisis a través de un gráfico de barras

 Cada barra indica la probabilidad de que cada hecho sede.

2. DISTRIBUCIÓN DE VARIABLES ACUMULADAS O DE


PROBABILIDAD ACUMULADA:
Esta se obtiene sumando sucesivamente las probabilidades, análogamente como se hacía en las
frecuencias relativas acumuladas.

NOTACIÓN: PROBABILIDAD ACUMULADA PARA Xi:

F(x) = P(X=xi)
Aclaraciones:

 La distribución de variables acumuladas se puede representar en gráficas llamadas ojivas.


 Estas gráficas solo contienen líneas horizontales, es decir son las líneas más importantes,
mientras que las verticales solo conectan a las horizontales teniendo un papel relativamente
secundario.
 Las líneas verticales representan la misma probabilidad que la de la línea correspondiente
del gráfico de barras.

Probabilidad complementaria:

P(x  a) + P(x  a-1) = 1

Distribuciones Teóricas: Son 3.

 Distribución binomial:

Es muy usada en estadística aplicada. Se deriva de un procedimiento llamado ENSAYO DE


BERNOULLI.
“Se dice así al ensayo en el cual puede ocurrir solo uno de dos resultados
mutuamente excluyentes”.

 Proceso de Bernoulli:
a) En cada ensayo ocurre uno de dos posibles resultados mutuamente excluyentes. Uno se denota
como éxito (el que se cumple) y el otro como fracaso (el que no se cumple)
b) P (éxitos) = “p” es constante de un ensayo a otro.
c) P (fracaso) = 1-p = “q”

 Uso de combinaciones como procedimiento en muestras grandes:

Una combinación de “n” objetos tomados x a la vez es un subconjunto desordenado de x de los “n”
objetos. .Se utiliza cuando el orden de los datos es intrascendente:

 0! = 1
 X! = x(x-1)(x-2)(x-3)…

Tabla binomial:

Cuando el cálculo de una probabilidad resulta tedioso por el tamaño de la muestra (grande), se
pueden utilizar tablas predeterminadas. La distribución binomial se puede representar de forma
tabular de la siguiente manera:

 F(X)  0;  x e IR; se da porque “n” y “p” son


números positivos, por lo que el número combinatorio multiplicado por la “x” potencia de “p” y
por la “n-x” potencia de “1-p”, tampoco lo son, por ende sus productos son mayores o iguales a
cero.

Utilizar la labia B cuando p >.5

La tabla B no da las probabilidades para valores de p mayores a .5. Sin embargo, pueden obtenerse
las probabilidades a partir de la tabla B replanteando el problema en términos de probabilidad de
fracaso, 1 -p, en lugar de en términos de probabilidad de éxito p. Como parte del replanteamiento,
se debe pensar, también, en términos del número de fracasos, n x, más que en términos de éxitos x.
Esta idea se resume de la siguiente manera:
Puesta en palabras, dice que: "La probabilidad de que X sea igual a algún valor específico dado el
tamaño de la muestra y una probabilidad mayor que .5, es igual a la probabilidad de que X sea igual
a n -x dado el tamaño de la muestra y la probabilidad de un fracaso 1-p". Con la finalidad de utilizar
la tabla binomial, la probabilidad de un fracaso se trató como la probabilidad de un éxito. Cuando p
es mayor que .5, las probabilidades acumuladas pueden obtenerse a partir de la tabla B empleando
la siguiente relación:

Finalmente, al utilizar la tabla B para calcular la probabilidad de que X sea mayor o igual a alguna x
cuando P > .5, se utiliza la siguiente relación:

Parámetros binomiales:

La distribución binomial tiene dos parámetros, n y p. Son parámetros en el sentido de que son
suficientes para especificar una distribución binomial. La distribución binomial es en realidad una
familia de distribuciones con cada uno de los valores posibles de n y p designando a un miembro
diferente de la familia. La media y la variancia de la distribución binomial son µ = np y ơ2= np (1
-P), respectivamente.
La distribución binomial, formalmente hablando, es aplicable en situaciones donde el muestreo se
realiza a partir de una población infinita o a partir de una población finita con restitución.

3. DISTRIBUCION DE POISSON:
Llamada así en honor del matemático francés Simeón Denis Poisson (1781-1840), quien tiene
amplio reconocimiento por la publicación de su trabajo en 1837. Esta distribución ha sido empleada
extensamente en biología y medicina como modelo de probabilidad.

Si x es el número de ocurrencias de algún evento aleatorio en un intervalo de espacio o tiempo (o


algún volumen de materia), la probabilidad de que x ocurra es dada por:

La letra griega λ (lambda) es el parámetro de la distribución y es el número promedio de ocurrencias


del evento aleatorio dentro del intervalo (o volumen). EI símbolo e, es la constante (con cuatro
decimales) 2.7183.
Proceso de Poisson: Como se ha visto, la distribución binomial resulta de un conjunto de
suposiciones acerca de un proceso implícito para formar un conjunto de observaciones numéricas.
Lo mismo ocurre en el caso de la distribución de Poisson. Las siguientes afirmaciones describen 10
que se conoce como proceso de Poisson.

1. Las ocurrencias de los eventos son independientes. La ocurrencia de un evento en un intervalo


de espacio o tiempo no tiene efecto en la probabilidad de una segunda ocurrencia del evento en
el mismo, o en algún otro intervalo.
2. Teóricamente, debe ser posible la ocurrencia de un evento en un número infinito de veces
dentro del intervalo.
3. La probabilidad de una sola ocurrencia del evento en un intervalo dado es proporcional a la
dimensión del intervalo.
4. En cualquier fracción infinitesimal del intervalo, la probabilidad de más de una ocurrencia del
evento es insignificante.

Una característica interesante de la distribuci6n de Poisson es que la media y la variancia son


iguales.

Cuándo utilizar el modelo de Poisson. La distribución de Poisson se emplea cuando se


cuentan los eventos o entidades, distribuidos al azar en espacio o tiempo. Es fácil intuir cuando
cierto proceso obedece a la ley de Poisson, y bajo esta suposición se puede calcular la ocurrencia de
eventos o entidades en alguna unidad de espacio o tiempo.

4. DISTRIBUCIONES DE PROBABILIDAD CONTINUA


Una variable continua es aquella que puede asumir cualquier valor en un intervalo específico de
valores. Consecuentemente, entre cualesquiera dos valores asumidos por la variable continua existe
un número infinito de valores.

En general, cuanto más se aproximan a infinito el número de n observaciones, y la amplitud de los


intervalos de clase se aproximan a cero, el polígono de frecuencia se aproxima a una curva más
suave como la que se muestra en la figura.

Estas curvas suaves se utilizan para representar gráficamente las distribuciones de las variables
aleatorias continuas. Esto tiene algunas consecuencias importantes cuando se trabaja con
distribuciones de probabilidad.

Cómo encontrar el área bajo la curva:


Para calcular el área bajo la curva entre dos puntos cualesquiera a y b, se integra la función de
densidad de a a b. Una función de densidad es una fórmula empleada para representar la
distribución de una variable aleatoria continua.
A una función no negativa (x) se Ie llama distribución de probabilidad (también llamada, algunas
veces, función de densidad de probabilidad) para la variable aleatoria continua X, si el área total
delimitada por su curva y el eje de las x es igual a 1 y si la subárea delimitada por la curva, el eje de
las x, y por las líneas perpendiculares levantadas sobre dos puntos cualesquiera a y b da la
probabilidad de que X este entre los puntos a y b.

5. DISTRIBUCIÓN NORMAL
Considerada la distribución más importante de toda la estadística, publicada por Abraham De
Moivre el 12 de noviembre de 1733, se da por la siguiente.
2 2
− ( x−μ ) / 2σ
1
F(x) = e ,−∞ < x <∞
√ 2 πσ
Teniendo en cuenta el π y el e como valores ya establecidos, aplicaríamos el μ como la media y el σ
como la desviación estándar.

Características de la distribución normal:

 Es simétrica respecto a su media.


 La media, la mediana y la moda son todas iguales.
 La distribución normal es una distribución de probabilidad.
Sí se le suma una desviación estándar a la media a ambos lados obtendrás el 68% del área.

Sí se le suma dos desviaciones estándar a la media a ambos lados obtendrás el 95 % del área.

Sí se le suma tres desviaciones estándar a la media a ambos lados obtendrás el 99.7% del área.

Distribución Normal Estándar:

La ultima característica mencionada de la distribuci6n implica que la distribución normal es


realmente una familia de distribuciones en la que un miembro se distingue de otro según los valores
de μ y σ .
2

1 −(2z ) x−μ
F(x) = e ,−∞< z< ∞ , z=
√2 π σ

6. APLICACIONES DE LADISTRIBUCIÓN NORMAL


Al utilizar la distribución normal como modelo, es posible establecer afirmaciones de probabilidad
más útil y mucho más convenientes para algunas variables que si se utilizara un modelo más
complicado.
Existen varias razones más por las que la distribución normal es muy importante en estadística, las
cuales serán consideradas a su debido tiempo. Por ahora, se considera a la forma de responder a
preguntas sencillas de probabilidad acerca de variables aleatorias cuando se sabe, o es razonable
suponer, que estas presentan una distribuci6n aproximadamente normal.

También podría gustarte