Está en la página 1de 9

Capítulo 4 B: DISTRIBUCIONES DE PROBABILIDAD

DISTRIBUCIONES DISCRETAS DE PROBABILIDADES

MODELO BERNOULLI

Una variable aleatoria sigue un modelo Bernoulli, cuando puede presentar


solamente dos alternativas (acontecimiento dicotómico), una favorable que se llama
"éxito", y la otra, desfavorable que se llama "fracaso".
La probabilidad para cada alternativa permanece constante. El evento puede
producirse con una probabilidad "p", (éxito), o no producirse con una probabilidad
"q", (fracaso); con la condición que la suma de las probabilidades sea igual a 1.
La esperanza en el modelo Bernoulli es igual a la probabilidad (p), y la varianza es
igual al producto de la probabilidad del éxito (p) y la probabilidad del fracaso (q).
Ejemplos:
 rendir un examen: aprobar (éxito) o desaprobar (fracaso)
 tomar asistencia a un alumno: estar presente (éxito), o estar ausente
(fracaso)
 tirar una moneda al aire: cara (éxito) o sello (fracaso)

La variable xi toma el valor 0 cuando al realizar el ensayo se produce la alternativa


de fracaso (al lanzar una moneda al aire, ésta cae con el sello hacia arriba), cuya
probabilidad es q. La variable xi toma el valor 1 cuando al realizar el ensayo se
produce la alternativa de éxito (que la moneda caiga con la cara hacia arriba en
nuestro ejemplo), cuya probabilidad es p, recordando que:

p+q=1  q=1-p
DISTRIBUCIÓN BINOMIAL

Fue desarrollada por Bernoulli, en el año 1713. Si un proceso Bernoulli es repetido n


veces y cada uno de ellos con probabilidad constante, nos encontramos frente a una
distribución binomial de probabilidades.

Este modelo presenta las siguientes características:


1) El resultado de cada ensayo puede clasificarse en una de las dos categorías:
éxito o fracaso. Por ejemplo: se toma asistencia a diez alumnos, se repite el ensayo
diez veces; se tiran tres monedas al aire, el ensayo se repite tres veces.
2) La probabilidad del éxito "p", es constante para cada ensayo
3) Cada ensayo es independiente de todos los demás
4) El ensayo siempre se realiza un número determinado de veces

Ejemplo: arrojar monedas al aire

Número de Espacio xi pi Σ
monedas muestral
1 S 0 q p+q=1
C 1 p
2 SS 0 q.q=q² q²+2pq+p²=
SC ó CS 1 2pq (p+q)²=1
CC 2 p.p=p²
3 SSS 0 q.q.q=q3 q3+3pq²+3p²q
SSC +p3=
SCS 1 3pqq=3pq² (p+q)3=1
CSS
SCC 2 3ppq=3p²q
CSC
CCS 3 p.p.p=p3
CCC

Generalizando, se cumple que (p+q)n=1


Para calcular la probabilidad:
n
p(x)=C .px.q(n-x)
x

siendo C = combinatoria
n n!
C =x!.(n-x)!
x
Los parámetros de la distribución binomial, es decir las caracteristicas
necesarias para individualizar la distribución son n y p.

La esperanza será igual a la esperanza del modelo Bernoulli multiplicado por


el número de veces que se repite el ensayo, de igual modo se calcula la varianza:
E(x)= np
V(x)= npq
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD

Las variables aleatorias continuas pueden tomar cualquier valor dentro de un


determinado intervalo de medida. Dicho intervalo está constituído por infinitos
puntos, de manera que si se desea estimar la probabilidad de que la variable tome
un valor exacto, de acuerdo a la definición de probabilidad establecida a priori, debe
calcularse:

p(a) = Na / N total = 1 / infinito = 0

Consideremos el espacio muestral que correspondería al área que barre una aguja
con uno de sus extremos sujeto a un eje. El círculo descripto por la aguja representa
la totalidad del área de probabilidad. El área de barrido que corresponde a un punto
exacto (a) presenta área 0. Es decir, la probabilidad de que la aguja se detenga en
un punto exacto a es nula. Si la aguja recorre un ángulo de 60 (entre b y c), la
probabilidad de que se detenga en ese recorrido es igual al área de ese recorrido
sobre el área total del círculo:

p(b>x>c) = área de 60 / área total (360) = 1/6

Habitualmente, se intenta describir el comportamiento de la variable a través de una


función matemática.

La función f(x) explica la densidad que toman los valores de la variable aleatoria
continua. La probabilidad de que tome valores en un intervalo queda determinada
por el área bajo la curva encerrada por el eje de abscisas, la misma curva, y las
proyecciones de los puntos extremos del intervalo.

La función de distribución F(x) representa la probabilidad acumulada de los


valores menores al de referencia, representándose como el área bajo la curva
desde - infinito (-) hasta la proyección del valor considerado.
DISTRIBUCIÓN NORMAL

Es la distribución de probabilidades continuas más importante por varias razones:


1º permite calcular en forma aproximada el valor de p para el esquema binomial
cuando n es muy grande.
2º permite estimar las frecuencias teóricas de poblaciones del mundo real que sean
aproximadamente normales. Si bien no todas las poblaciones en estudio en ciencias
biológicas son normales, puede aplicarse alguna transformación matemática sobre
los datos observados originalmente, de manera de normalizar su distribución.
3º teóricamente, la mayor parte de las distribuciones en el muestreo de estadígrafos
son normales o aproximadas. Esto permite su aplicación directa en estimación e
inferencia estadística.

Origen de la curva normal

La distribución normal fue descripta por primera vez por De Moivre en 1733 como el
valor límite de la densidad binomial cuando el número de pruebas se hace infinito.
Este descubrimiento no llamó mucho la atención y la distribución fue "descubierta"
nuevamente por Laplace y por Gauss medio siglo después. Ambos se ocupaban de
problemas de astronomía y cada uno sacó la distribución normal como la que
aparentemente describe el comportamiento de los errores de las mediciones
astronómicas.

Características

Presenta forma campanular, motivo por el cual se la llama habitualmente "campana"


de Gauss. Es una curva simétrica con un máximo, 2 mínimos y 2 puntos de
inflexión, que se encuentran a nivel de μ + σ y μ - σ.
En la curva normal, la media aritmética, la mediana y la moda coinciden en la
abscisa correspondiente al eje de simetría, que es el punto de mayor frecuencia y el
centro de gravedad de la figura.
Curva normal estandarizada o tipificada

El cálculo de un área de probabilidad debe realizarse por integración del área bajo la
curva comprendida entre los valores de la variable seleccionada. Dada la enorme
cantidad de curvas posibles, de acuerdo a las combinaciones de sus parámetros, no
es sencillo tabular los valores de área.
Por esto se recurre a una simplificación del método mediante una transformación de
la variable en estudio.
Esta codificación se denomina tipificación, y consiste en primer lugar en un
desplazamiento sobre el eje de abcisas, haciendo coincidir el origen con la media de
la distribución, es decir, haciendo μ=0. Prácticamente esto se logra restando al valor
de la variable su media: (x-μ).
En segundo lugar, se codifica la unidad de medida, tomando como referencia a la
desviación estándar de la distribución, es decir que expresan los valores de la
variable en términos de desvíos relativos.
Se obtiene así un valor abstracto z, llamado desvío normal reducido o desvío normal
típico:
(x-μ)
z= σ

La distribución de valores de z es una curva normal cuyos parámetros son:

E(z)=0
σ²(z)=1
σ(z)=1

Propiedades de la distribución normal tipificada


Es una curva uniforme con ordenadas siempre positivas y está definida para todo
valor de abscisa real (dentro del rango - a +). Es simétrica, tomando como eje de
simetría el eje de ordenada y es asintótica al eje de abcisa. Al ser simétrica, la
función de densidad f(z) es igual a f(-z). Tiene un único máximo para z=0. En este
punto, que es también la moda de la distribución, f(z=0) = 0,3989 (corresponde a
1/2π). Es una función monótona decreciente, por lo que a medida que z aumenta
disminuye el valor de f(z). Tiene dos puntos de inflexión, para z=(-1) y z=1.
La curva se utiliza en el cálculo de probabilidades tomando el área total
comprendida bajo la curva como igual a 1 (certeza).

Para evitar el cálculo de integrales, existen tablas que presentan los valores de la
función de distribución para valores de z que van desde -3,99 a 3,99.
También existen tablas que dan la probabilidad de que la variable tome valores
superiores al valor dado mayor que μ o inferiores a un valor menor a μ, es decir las
áreas de los extremos de la curva.
Aprovechando que se trata de una función simétrica, se ideó una tabla breve, que
presenta los valores de área bajo la curva desde 0 hasta z. Denominaremos este
valor de área como φ(z). Por tratarse de una función par, φ(z) = φ(-z).

Cálculo de probabilidades con la distribución normal

Se presentan varios casos


posibles:
1º. Probabilidad de que la variable
tome valores mayores que un valor
xo superior a la media:
 Al calcular z, ésta tomará valor
positivo.
z=(x-μ)/σ>0
 Se obtiene φ(z) en la tabla de
áreas bajo la curva normal desde 0
hasta z.
 Se calcula la función de distribución (F(z), sumando al valor de φ(z) el área 0,5
que corresponde a la mitad izquierda de la curva.
F(z)=0,5+φ(z)
 Finalmente, dado que la función de distribución indica la probabilidad acumulada
desde - hasta z, o lo que es igual, la probabilidad de que la variable tome valores
inferiores a z, la probabilidad de que tome valores mayores será:
p(x>xo) = 1 - F(xo)

2º. Probabilidad de que la variable


tome valores mayores que un valor
xo inferior a la media:
 Al calcular z, ésta tomará valor
negativo.
z=(x-μ)/σ<0
 Se obtiene φ(z) en la tabla de
áreas bajo la curva normal desde 0
hasta z.
 Se calcula la función de distribución (F(z), restando el valor de φ(z) al área 0,5
que corresponde a la mitad izquierda de la curva.
F(z)=0,5 - φ(z)
 Finalmente, dado que la función de distribución indica la probabilidad acumulada
desde - hasta z, o lo que es igual, la probabilidad de que la variable tome valores
inferiores a z, la probabilidad de que tome valores mayores será:
p(x>xo) = 1 - F(xo)

3º. Probabilidad de que la variable tome valores menores que un valor x o


inferior a la media:
 Se calcula en forma idéntica a los casos anteriores y el valor de probabilidad
buscado coincide con la función de distribución.

4º. Probabilidad de que la variable


tome valores entre dos puntos
cualesquiera x1 y x2
 Se procede como en los casos
anteriores, hasta obtener la función
de distribución para ambos puntos.
 La probabilidad del intervalo se
obtiene por diferencia entre la función
de distribución mayor y menor:
P(x1<x<x2) = F(x2) - F(x1)
El caso inverso, es decir, dada una probabilidad encontrar el valor de la
variable que le corresponde, se resuelve fácilmente. En base a la probabilidad
mencionada, se calcula el valor de φ(z), luego se lo ubica en el interior de la tabla y
se determina el valor de z ubicado en el margen que corresponde. Finalmente, el
valor de la variable se despeja de la fórmula del desvío normal reducido:

x=μ±z.σ
LA DISTRIBUCION “t” DE STUDENT

La distribución “t” fue descripta por William Gosset, quien utilizó el seudónimo de
Student para su publicación.
Esta distribución reemplaza a la distribución normal cuando no se conoce la
desviación estándar poblacional σ y debe ser estimada a partir de la desviación
estándar muestra.
La variable tipificada t toma la forma:

t=(x-)/S

La distribución t es independiente de μ y σ; su forma se determina sólo por el


número de grados de libertad v. La determinación de los mismos varía según el

caso particular y será explicada más adelante.


La distribución t es muy similar a la normal y converge rápidamente hacia ella con
grados de libertad crecientes. Su amplitud va de - a +. Es continua, simétrica y
acampanada, pero en contraste con la distribución normal, tiene más área de
probabilidad concentrada en los bordes y menos en la zona central.

Dado que se trata no de una única curva, como la normal tipificada, sino de una
familia de curvas cuya forma depende de los grados de libertad, las tablas de t
contienen solamente los valores de t para algunos pocos valores de probabilidad,
que son usados generalmente como valores de significancia. Otra particularidad es
que se expresan áreas de probabilidad para ensayos unilaterales o bilaterales. La
tabla se maneja ubicando en las filas interiores el valor de t que corresponde a la
significancia deseada (fila de encabezamiento) y los grados de libertad de acuerdo
con las muestras y el tipo de diseño experimental (margen lateral izquierdo).

También podría gustarte