Está en la página 1de 21

Distribuciones probabilísticas

• Al referirse a los datos (observaciones, resultados, eventos) los estadísticos


hablan de “random variables”. Una “random variable”(=variable aleatoria) es la
realización de un proceso subyacente a la cual le asignamos un numero: nuestros
datos. Nosotros hablaremos simplemente de variables compuestas de datos.
• Los estadísticos nos proveen de formulaciones matemáticas que son
generalizaciones de las frecuencias de ocurrencia de los datos (observaciones,
resultados, eventos) según el proceso subyacente y que nos permiten estimar la
probabilidad de ocurrencia de dichos datos.
• Entonces, en el proceso de describir una variable, probar una hipótesis o hacer
una predicción comparamos las frecuencias observadas de los valores de la
variable con las probabilidades resultantes de modelos teóricos de distribuciones
que deben ser adecuados a los datos de la variable y viceversa.
Variables

Cualitativas Cuantitativas

Nominales Ordinales

Discretas Continuas
+ Bernoulli + Uniforme
+ Binomial + Exponencial
+ Poisson + Gamma
+ Negativa Binomial + Circular
+ Hipergeometrica + Lognormal
+ z Normal
+ t de Student
+ F de Fisher-Snedecor
+ Chi -cuadrado
Variables
discretas –
Bernoulli-
Binomial
•  La variable discreta mas simple es la que tiene solo dos resultados:
cara y sello, reproducirse o no, presente o no, etc. En este caso se
habla de una variable Bernoulli (“Bernoulli random variable”) y a una
realización se le llama un ensayo Bernoulli (“Bernoulli trial”): que se
lee: x se distribuye según Bernoulli con una probabilidad p.
• x toma el valor del numero de éxitos en los ensayos (presente,
capturado, reproducción, cara, etc.) y p es la probabilidad de un
resultado exitoso en un ensayo dado.
Variables discretas Bernoulli-
Binomial
•• Ejemplo:
  Supongamos que en un pasaje andino estamos interesados en la presencia del oso
de anteojos (Tremarctos ornatus). La ocurrencia del oso es por definición una variable que
se distribuye según Bernoulli: toma solo dos valores x= 1 (presente) o x= 0 (ausente).
Visitamos 349 localidades.
• El survey nos lleva encontrar que el oso es una especie “rara” (escasa) con una . Es decir,
apenas hay un 2% de oportunidad de encontrar un oso de anteojos en una localidad
cualquiera (asumiendo distribución al azar). Luego la probabilidad de ausencia de una
localidad cualquiera es .
• Ahora, nuestro conjunto de ensayos Bernoulli (=cada una de las visitas a las 349 localidades
andinas) nos lleva a (re)definir a x como una variable binomial, es decir, como el numero de
resultados exitosos en n ensayos Bernoulli independientes, lo que nos permite responder
preguntas como cual es la probabilidad de que el oso de anteojos ocurra en 10 localidades
(y no en ninguna de las restantes 339) o en cualquier combinación de presencias-ausencias.
Formalmente:
• x.
Distribución binomial – las cuentas
• La
  probabilidad de obtener x éxitos para una variable binomial es:

• n= numero de ensayos de Bernoulli


• x= numero de resultados exitosos
• n!= n factorial
• px = probabilidad de obtener x éxitos independientes
• (1-p)n-x= probabilidad de obtener n-x fracasos
• = en cuantas formas se pueden obtener x cosas de n cosas
• Para el caso del oso de anteojos, la probabilidad esperada de encontrarlos en
10 localidades (y no en 339) es:

• Y con R?
Distribución binomial con R
• # Problema: Probabilidad de encontrar osos de anteojos en 10
localidades de 349
• # La muestra consiste en 349 unidades muestreales.
• # Cada unidad muestreal consiste en un ensayo de Bernoulli con
p=0.02.
• # La variable es binomial: presente vs. ausente
• dbinom(x=10, size= 349, prob= 0.02)
Distribución de Poisson
•  La distribución de Poisson describe ocurrencias de eventos (=
conteos) registrados en áreas (p.ej., semillas en cuadrantes) o en
periodos de tiempo fijos (por ej., numero de visitas de polinizadores a
una flor en un periodo determinado). Es particularmente adecuada
cuando la mayoría de conteos en las unidades muestreales = 0. Los
eventos se consideran independientes.
• La distribución de Poisson se describe con un solo parámetro λ que es
el valor promedio del numero de ocurrencias del evento en cada
muestra: .
• La probabilidad de x ocurrencias u observaciones es:
Distribución de Poisson - Ejemplo
• De nuevo nuestro oso de anteojos, pero esta vez la pregunta no es si la especie
esta presente o no en las localidades, sino cual es la probabilidad de que una
localidad aloje un cierto numero de poblaciones. La distribución del numero
poblaciones en las localidades se puede describir con Poisson pues nuestro survey
nos dice que en 344 localidades de 349 no hay poblaciones del oso de anteojos.
• El survey: Se encontró que el numero promedio de poblaciones es de 12/349 o
0.03438 poblaciones/localidad que es entonces el parámetro λ. También se
encontró que el numero de poblaciones del oso de anteojos va de 0 a 5 por
localidad. Se quiere crear un modelo Poisson de la distribucion del numero de
poblaciones (0 a 5) y comparar sus frecuencias predichas vs la frecuencia
observada.
• Vamos con R
Distribuciones negativa binomial e
hipergeometrica
• La negativa binomial como Poisson, se usa para describir la distribución de
conteos (por ejemplo, parásitos en sangre, etc.). Es útil cuando la
distribución de los conteos en espacio o tiempo no es azarosa, sino
agregada. Con frecuencia la presencia de un individuo en una unidad
muestreal es dependiente de la presencia de otros individuos en la misma.
• La distribución hipergeometrica se usa para describir una variable
binomial donde el muestreo se hace sin reemplazamiento sobre una
población pequeña, lo cual afecta las probabilidades de éxito-fracaso
siguientes. Por ejemplo, en algunas técnicas de rarefacción: Habiendose
obtenido cierto numero de especies, cual es la probabilidad de obtener
una especie nueva.
Valores esperados (promedios) y de
dispersión (varianzas) en variables
discretas
Distribución Valor de Probabilidad E(X) Uso Ejemplo
Bernoulli Resultados Ser capturado o
dicotomos no serlo.
Binomial
Binomial Numero
Numero dede Presencia
Presencia oo
éxitos
éxitos en n
en n ausencia de
ausencia de
ensayos de
ensayos de especies
especies en
en n
n
Bernoulli
Bernoulli unidades
unidades
muestreales
muestreales
Poisson λ λ Eventos raros Distribución de
Poisson λ λ contados en
Eventos raros especies en un
Distribución de
unidades
contados en paisaje
especies en un
espaciales
unidades o paisaje
temporales
espaciales o
temporales
Variables continuas (las que van con decimales)
•• Las
  variables continuas son otra cosa. Las variables continuas pueden tomar
cualquier valor (infinitos) dentro de un rango, por lo tanto no podemos contar
los valores dentro del rango.
• Recordando que las distribuciones de probabilidad proveen la información
para encontrar la probabilidad de los valores posibles, es decir, especifican
como están repartidas las probabilidades entre los valores (con que
probabilidad se observaran) que deben sumar 1, se postula que la probabilidad
de cualquier valor especifico es 0 pues para una variable continua.
• Por lo tanto, se habla de la probabilidad de que un valor de una variable
continua este dentro de un intervalo especificado: ó la famosa
• Para describir las variables continuas se usan funciones de densidad de
probabilidad (“probability density functions”, pdf) que especificar la
distribución de probabilidades mediante una formula. Usando la pdf se puede
obtener la probabilidad de cualquier intervalo.
• La representación grafica de una pdf se llama curva de densidad de
probabilidades (“probability density curve”).
Concentración de los datos
Variables continuas
• En
  el ejemplo de los gráficos (“body
mass index”, BMI) uno se puede
preguntar por la probabilidad de que
el BMI de alguien este entre 25 y 30= .
• Ahora, la probabilidad de observar un
valor menor o igual a un valor
especificado x es llamada la
probabilidad de la cola inferior (“the
lower tail probability”)= que se halla
midiendo el área bajo la curva a la
izquierda de x y viceversa hacia la
derecha.
• Entonces (generalizado: )) es=
Función de distribución acumulada
(“Cumulative distribution function”,
CDF)

•  Para facilitar la operación anterior: (generalizado: )) es= , existe el


truco de la función de distribución acumulada.
• La cdf retorna entonces la probabilidad de cola inferior . Para ello se
requiere cambiar la escala de los datos de la original a la escala
estándar. Por ejemplo, para una distribución normal la operación es: ,
que tiene la propiedad de asimilar la media observada a cero y
redefinir la distancia de los datos a la media como desviaciones
estándar.
Ejemplo de la normal con R N(25,16)

0.10
0.08
•• Supongamos
  que el IMC(=BMI) se distribuye según la

0.06
Density
distribución normal (o eso asumimos) con media 25 y

0.04
varianza 16, y queremos:

0.02
• 1. Graficar su pdf.

0.00
10 15 20 25 30 35 40

• 2. Encontrar la BMI

• 3. Encontrar la N(25, 16)

1.0
• 4. Encontrar el cuantil (el dato) correspondiente a la p=

0.8
0.05208128

Cumulative Probability

0.6
• 5. Encontrar la

0.4
• 6. Graficar la cdf

0.2
• A R!

0.0
10 15 20 25 30 35 40

BMI
La normal (x~N(μ,σ)) como norma
•• Lo
  anterior es general para las variables continuas, si bien tomamos la normal como
ejemplo.
• La normal es importante porque forma la base de la estadística paramétrica y en
particular de los modelos generales lineales (regresión, ANOVAs, y afines) cuyo fin es
probar hipótesis en relación a efectos de una o varias variables independientes sobre una
o mas variables dependientes.
• La distribución normal se describe con solo dos parámetros: μ y σ2. Su pdf es:

• A una curva normal con μ= 0 y σ=1 se le llama curva normal estandarizada.


• Lo clave es que cualquier variable normal es fácil de estandarizar y una vez estandarizada
podemos calcular la probabilidad de observar tal o cual resultado, según se vio.

Distribución de t

• 
• La distribución de t surge del problema de estimar una media de una población normalmente distribuida
cuando el tamaño de la muestra es pequeño y se desconoce la varianza poblacional. Por ejemplo, en
problemas de calibración contra un patrón.
• Una curva t tiene: 1. forma de campana con centro en cero, 2. es mas dispersa que la normal, 3. a
medida que k (=gl=df) la variable distribuida como t tiende a distribuirse como z, la normal, 4. La forma
de la curva t solo depende de los grados de libertad.
• Grados de libertad (gl=df=“degrees of freedom”): El numero de observaciones (datos) que son libres de
variar cuando se esta estimando la varianza. Ya que se ha determinado la media, solo n-1 observaciones
pueden variar porque la ultima observación es fija.
• Ejemplo: La media de 3, 4 y 5 es 4. Conociendo dos de los tres datos, por ejemplo 3 y 4, el tercer dato
debe ser 5 si la media es 4, es decir, gl=n-1. En general los grados de libertad son el numero de
observaciones menos el numero de parámetros incluidos en la formula de la varianza.
• En la distribución de t la media es= 0 mientras que la varianza esta determinada por los grados de
libertad, gl (gl>0) asi: lo que lleva a un varianza estandarizada > 1.
• A medida que n es mayor la varianza converge a 1 como en la normal. Ejemplo: 1000000/(1000000-2)=
1.000002
Imágenes la distribución t

 siendo n los grados de libertad que actuan de parámetro    y      la función g


 Distribucion de Chi-Cuadrado
•• Una
  variable Chi cuadrado se define como la suma de n variables normales estandarizadas
elevadas al cuadrado (X= Z1²+…+Zk², ).
• Algunas de sus características:
• La distribución es asimétrica positiva.
• A medida que aumenta el tamaño de la muestra la curva es menos asimétrica,
aproximándose a una curva normal.
• Para cada tamaño muestreal, se tendrá una distribución χ2 diferente.
• El parámetro que caracteriza a una distribución χ2 son sus grados de libertad (n-1), k,
originado una distribución según los grado de libertad.
Distribución F de Fisher-Snedecor
•• La
  función de densidad de la F de Snedecor viene dada por: ver esquina, donde m y n son
grados de libertad y es la función gamma.
• X ~ F(d1, d2). Tiene dos parámetros, m y n: grados de libertad del numerador, grados de
libertad del denominador.
• Su apariencia depende de los grados de libertad.
Ejemplo de funciones de R para
describir y caracterizar
distribuciones de probabilidad

También podría gustarte