Está en la página 1de 8

Capítulo 4 A

PROBABILIDAD Y VARIABLE ALEATORIA

En primer lugar, se definen una serie de conceptos técnicos útiles para el tratamiento
de este tema:

Ensayo: es una circunstancia que debe conducir a la producción de un conjunto de


resultados posibles alternativos.
Ejemplos:
 Registrar la presión arterial sistólica de un individuo: pueden medirse diversos
valoresen mmHg.
 Examinar un paciente en busca de signos de una enfermedad, que pueden
estar presentes o ausentes.
 Arrojar un dado: puede salir un número cualquiera del 1 al 6.
 Hacer una llamada telefónica: se puede comunicar, estar ocupado, estar
descompuesto el teléfono.

Evento: es el resultado de un ensayo.


Ejemplos:
 Valor de presión arterial medido.
 Presencia o ausencia de signos clínicos.
 Salió el número 3 al tirar un dado.
 Se comunicó telefónicamente.

Experimento: es un conjunto de ensayos.


Ejemplos:
 Registrar la presión arterial de un grupo de individuos.
 Examinar varios pacientes para verificar la presencia de un signo clínico.
 Arrojar varios dados o uno varias veces.
 Hacer varias llamadas telefónicas.
Espacio muestral o eventual: es el conjunto S que contiene todos los resultados
posibles de un experimento aleatorio. Se refiere a un "espacio muestral finito", es decir,
con un límite, con un número finito de eventos elementales. Puede hacerse distinción
entre espacios muestrales discretos o continuos, según el tipo de variable que se
estudie.
Ejemplos:
 S {presencia, ausencia}
 S {1, 2, 3, 4, 5, 6}
 S {comunicado, ocupado, descompuesto}

Evento simple o elemental: lo constituyen cada uno de los puntos del espacio
muestral. Son "mutuamente excluyentes", es decir que la ocurrencia de uno de ellos
cualquiera, imposibilita la ocurrencia de los otros (no pueden ocurrir simultáneamente).
Ejemplos:
 Nace una persona: es niña o varón.
 Al arrojar una moneda, cae cara (c) o sello (s).
 Al tirar un dado, sale sólo un número.

Evento compuesto: es una combinación de dos o más eventos simples. Ocurren


cuando se hacen varios ensayos.
Ejemplos:
 Arrojar dos monedas o una misma dos veces: S {cc, cs, sc, ss}
Este espacio muestral se denominará: "resultado de arrojar dos monedas al mismo
tiempo", o bien, "resultado de arrojar dos veces una moneda".
CONCEPTO DE PROBABILIDAD

1- Definición clásica

Fue dada por Laplace en 1812. Si se desea conocer la probabilidad de que ocurra un
evento A y se tienen dos conjuntos: el primero, de casos favorables del evento A, y el
segundo, de casos posibles, que incluye al primero, y donde no hay preferencias para
que aparezca un evento determinado; la probabilidad del evento A es igual al número
de casos favorables sobre el número total de
casos posibles: NA
Todos los casos posibles deben ser p =
A NT
excluyentes entre sí.

Dado un experimento aleatorio, tal que:


a- el número total de eventos del espacio muestral es finito e igual a n (casos posibles).
b- se debe cumplir que m de los eventos tienen la propiedad A (casos favorables), y
los n-m restantes no la tienen (A).
c- los n eventos son igualmente posibles.
d- los n eventos son mutuamente excluyentes.

La definición clásica se aplica solamente si se cumplen las condiciones a y c.


Esta definición, también llamada de probabilidad "a priori", presenta varias desventajas:

 No puede aplicarse a fenómenos complejos como los biológicos, donde no se


puede determinar el número de casos favorables, y menos aún el de posibles.
 Tampoco puede aplicarse a fenómenos naturales o reales:

Ejemplo: se arroja un dado al aire: ¿cuál es la probabilidad de que salga el número 5?


p(5) = 1/6
La probabilidad del fenómeno real no se conoce, pues el dado podría estar cargado (el
centro de gravedad no coincida con el centro geométrico).
 Otro inconveniente es que no puede aplicarse a variables continuas.

Ejemplo: ¿Cuál es la probabilidad de que un avión parta a las 21:00 horas? Como esa
hora exacta es un punto en el intervalo de valores de la variable tiempo, su
probabilidad es cero (0).

2- La probabilidad como medida (Kolmogorov, 1933)

Para introducir esta definición emplearemos la teoría de conjuntos. Al conjunto


universo, en probabilidades, se le llama "espacio muestral" o "espacio eventual". Este
espacio es el conjunto de todos los eventos posibles relacionados con un fenómeno
determinado. Ese fenómeno se llama, en estadística, "experimento aleatorio".
Experimento aleatorio es aquel que si se repite en idénticas condiciones, da lugar a
resultados diferentes.
Cada uno de los elementos del espacio muestral se denomina evento elemental.
Ejemplo: arrojar un dado, o dos, constituye un experimento aleatorio. Obtener un 5 al
arrojar un dado es un evento elemental. En cambio, al arrojar dos dados, el evento "5",
es un evento compuesto, porque depende de la suma de puntos en los dos dados, que
puede darse de varias formas (1+4, 2+3, 4+1, 3+2).

Eventos compatibles: dos eventos son compatibles cuando pueden ocurrir


conjuntamente, al mismo tiempo, o lo que es lo mismo, presentan puntos muestrales
comunes. Los puntos muestrales comunes pertenecen a un conjunto llamado
intersección, que simbolizamos (AB) o (AB). Ejemplo: sacar un cuatro de copas de
una baraja española.

Eventos incompatibles o mutuamente excluyentes dos eventos son mutuamente


excluyentes cuando no pueden ocurrir simultáneamente, o sea, no presentan ningún
punto muestral común.
En este caso:
p(AB) = 0 (conjunto vacío).

Ejemplo: probabilidad de sacar 3 y 4 al tirar un solo dado.


Eventos dependientes o condicionados: dos eventos son condicionados cuando la
ocurrencia de uno depende de la ocurrencia del otro.

Eventos independientes: cuando entre los dos eventos no existe condicionamiento.

Ejemplo: se arrojan 2 dados al mismo tiempo y se quiere calcular la probabilidad de


obtener 10 puntos:
4-6
5 - 5 las tiradas son independientes
6-4
En cambio, si se arroja primero un dado y después el otro, el resultado del primero
condiciona al del segundo para obtener 10 puntos.

Muestreo con reposición o reemplazamiento:

Ocurre cuando el individuo seleccionado es devuelto a la población, pudiendo ser


elegido nuevamente.
Ejemplo: en un bolillero de examen, cada alumno que pasa a rendir extrae dos bolillas,
que se devuelven al bolillero, de modo que puedan ser sacadas por los alumnos
siguientes.
La probabilidad de sacar un par de bolillas determinado es independiente para cada
alumno. Es un ejemplo de eventos independientes.
Muestreo sin reposición o sin reemplazamiento

Se presenta cuando una vez extraído el dato individual, este no es devuelto a la


población. Es un caso de probabilidad condicionada, por ejemplo: una bolilla
determinada puede salir, siempre y cuando no haya sido sacada anteriormente.
Esto es importante en el caso de muestras pequeñas (N<30), en donde el muestreo sin
reposición produce un aumento grande de la probabilidad de extraer un individuo de la
muestra a medida que disminuye N.
En el muestreo con reposición, una muestra pequeña puede considerarse como
infinitamente grande. El análisis de poblaciones varía según se trate de tamaños
grandes o pequeños.

AXIOMAS DE PROBABILIDAD

1º- Axioma de la positividad


La probabilidad de un evento es una fracción propia inferior a la unidad y positiva.

p(E)=0 cuando E es un "conjunto vacío" (0), no contiene puntos muestrales favorables,


es decir, es un evento imposible, que no puede suceder. Ejemplo: la supervivencia
biológica.

2º- Axioma de la certeza


La probabilidad de un evento cierto (que definitivamente ocurre) es igual a uno (1).
Ejemplo: en biología, el único evento cierto es la muerte.

3º- Axioma de las uniones


La probabilidad de que ocurra un evento A o B, que son eventos mutuamente
excluyentes, en el espacio muestral S, es igual a la suma de las probabilidades
individuales.
VARIABLE ALEATORIA

Si una variable x puede tomar los valores x1 , x2 , x3 , ... xn ; con la condición de que
estos valores sean numéricamente independientes y excluyentes entre si, y si a cada
uno de ellos le corresponde una probabilidad p 1 , p2 , p3, ... pn , con la condición de que
la suma de probabilidades sea igual a 1, se trata de una variable aleatoria.

Las variables aleatorias presentan algunas características que las diferencian de las
variables estadísticas examinadas hasta ahora:

 Las variables estadísticas pertenecen a datos del mundo real, cuya frecuencia se
obtiene mediante la observación. Intuitivamente, una variable aleatoria es una variable
cuyo valor numérico se determina al azar. En muchos casos, existen funciones
matemáticas que pueden ajustarse al fenómeno real y servir como modelo de estudio
de la variable.

 Tanto las variables estadísticas como las aleatorias pueden clasificarse como
discretas, si sólo pueden tomar algunos valores en un intervalo, o continuas, si
pueden tomar todos los valores del rango en estudio. En el primer caso, la
representación gráfica habitual de las frecuencias correspondientes es el diagrama de
bastones. En el segundo caso, las frecuencias de una variable estadística continua se
grafican mediante histogramas o polígonos de frecuencias absolutas, mientras que las
de una variable aleatoria continua se presentan como el área bajo la curva de la
función de densidad.

 Cuando se trata con una variable, no basta con considerar que es aleatoria. Es
necesario poder predecir el valor que la variable puede adoptar en cualquier momento.
Puesto que el comportamiento de una variable aleatoria está gobernado por el azar, lo
más apropiado para describirlo es hacerlo en términos de probabilidades. Se utilizan
para esto dos funciones: la función de densidad y la función de distribución.

FUNCIÓN DE DENSIDAD

Densidad discreta: siendo X una variable aleatoria discreta, la densidad f para X es:
f(x)=p(X=x)

1 f está definida sobre toda la recta real y para cualquier número real x, f(x) es la
probabilidad de que la variable aleatoria X tome el valor x.
2 puesto que f(x) es una probabilidad, f(x)0, independientemente del valor de x.
3 la suma de f sobre todos los valores físicos posibles de X debe ser igual a 1.

Σf(x)=1
Para valores de x que sean físicamente imposibles, f(x)=0. Cualquier función no
negativa y que tenga el valor 1 cuando se suma su conjunto de valores posibles puede
considerarse como la densidad para una variable aleatoria discreta.

Densidad continua: en el caso de tratarse de una variable continua, puesto que la


probabilidad de que la misma tome cualquier valor específico es 0, se debe calcular la
probabilidad de que la variable tome los valores dentro de un intervalo dado.
Sea X una variable aleatoria continua. La densidad para X es una función f
definida sobre toda la recta real de modo que:
1 f(x)  0 (no negativa)
2 el área encerrada por la gráfica de f y el eje x es igual a 1.
3 para cualesquiera números reales a y b, la p[aXb] está dada por el área encerrada
por la curva de f, las rectas x=a, x=b y el eje x.
PARÁMETROS DE ESPERANZA Y DISPERSIÓN

La función densidad de una variable aleatoria describe totalmente el comportamiento


de la variable. No obstante, pueden calcularse parámetros descriptivos a fin de tomar
una rápida idea de la naturaleza de la variable. Si se conoce la densidad exacta de la
variable en estudio este proceso es simple, mientras que si sólo se dispone de un
grupo de observaciones, debe aproximarse mediante cálculos estadísticos.

ESPERANZA MATEMATICA

También denominado valor esperado, es el valor medio teórico que se espera que
tome la variable aleatoria X y se simboliza E(x).

E(x)= xi pi

Al utilizar el valor esperado de X en un contexto estadístico se le alude como media de


X y se lo designa por μ. Esto es, los términos valor esperado y media son
intercambiables, así como los símbolos E(x) y μ. De esto puede deducirse que la
media de X puede considerarse una "medida del centro de situación", en el sentido que
indica en dónde está ubicado el centro de la densidad de X a lo largo del eje de
abscisas.

VARIANZA

El conocimiento de la media de una variable es importante, pero es necesario


desarrollar un parámetro que mida la consistencia de los datos o la falta de ella. Las
medidas de variabilidad más comúnmente utilizadas son la Varianza y la Desviación
típica.

Sea X una variable aleatoria con media μ. La varianza de X, designada por V(x) o σ²,
está dada por:

V(x) = xi-Ex)2pi

También podría gustarte