Está en la página 1de 26

Tema 3: Modelos de Probabilidad

Introducción

Principales distribuciones de probabilidad discretas


• Distribución Binomial, B
• Distribución de Poisson, P

Principales distribuciones de probabilidad continuas


T3 • Distribución Normal, N
• Distribuciones derivadas de la Normal
• Chi-cuadrado de Pearson, χ
1
• t de Student, t
• F de Snedecor, F

Teorema Central del Límite (TCL) de Lindeberg-Levy


Introducción

En este tema vamos a estudiar los modelos de distribución de


probabilidad más frecuentes en la vida real, en primer lugar para
variables aleatorias discretas, y después para variables aleatorias
continuas.

El esquema que se seguirá en cada modelo procurará tener lo elementos


básicos para el conocimiento de cada distribución:

DESCRIPCIÓN DEL FENÓMENO que genera cada variable aleatoria.

T1
FUNCIÓN DE CUANTÍA/DENSIDAD.

CARACTERÍSTICAS BÁSICAS (media, desviación típica,..).

PARÁMETROS.
2
Discretas: Distribución Binomial
Distribución de Bernoulli o Binomial (0,1) o (1,p)

Descripción del fenómeno

Tenemos un experimento de Bernoulli si al realizar un experimento sólo son


posibles dos resultados:

X=1 (éxito, con probabilidad p)


X=0 (fracaso, con probabilidad q=1-p)

Ejemplos:
Lanzar una moneda y que salga cara.
p=1/2
T1
Elegir una persona de la población y que esté enfermo.
p=1/1000 = prevalencia de la enfermedad
Aplicar un tratamiento a un enfermo y que éste se cure.
p=95%, probabilidad de que el individuo se cure

Como se aprecia, en experimentos donde el resultado es dicotómico, la variable


queda perfectamente determinada conociendo el parámetro p.
3
Discretas: Distribución Binomial
Distribución de Bernoulli o Binomial (0,1) o (1,p)

Función de cuantía y de distribución

Cuantía Distribución
𝑃 𝑋 = 𝑥 = 𝑝 𝑥 (1 − 𝑝)1−𝑥 𝑝𝑎𝑟𝑎 𝑋 = 0 𝑦 𝑋 = 1
0 𝑠𝑖 𝑥 < 0
Éxito: P(X =1) = p1(1-p)1-1 = p 𝑃 𝑋≤𝑥 = ቐ𝑞 𝑠𝑖 0 ≤ 𝑥 < 1
1 𝑠𝑖 𝑥 ≥ 1
Fracaso: P(X=0) = p0(1-p)1-0 = q

T1
Características básicas

Esperanza Matemática (p) Varianza (pq)


𝐸 𝑋 = σ1𝑖=0 𝑥𝑖 𝑝𝑖 = 0 · 𝑞 + 1 · 𝑝 = 𝑝 𝑉 𝑋 = 𝐸 𝑋 2 − 𝐸 𝑋 2 = σ1𝑖=0 𝑥𝑖2 𝑝𝑖 − 𝑝2 =
02 · 𝑞 + 12 · 𝑝 − 𝑝2 = 𝑝 − 𝑝2 = 𝑝 1 − 𝑝 = 𝑝 · 𝑞

4
Discretas: Distribución Binomial
Distribución de Bernoulli o Binomial (0,1) o (1,p)

Parámetros

La B(1,p) queda perfectamente definida cuando conocemos “p”, esto es la


probabilidad de éxito ó P(X=1).

Aplicaciones

El esquema de Bernoulli se corresponde con aquel proceso de carácter dicotómico,


esto es sólo existen dos sucesos posibles, y por tanto, complementarios. Esto se
T1
asimila a situaciones en las que sólo se pueda obtener éxito o fracaso. Por ejemplo,
en medicina Exitum = muerte; en un proceso de producción, que haya un artículo
defectuoso o no, sacar cara/cruz al tirar una moneda; votar a un candidato o no,
etc.

5
Discretas: Distribución Binomial
Distribución Binomial (n,p)
Una variable aleatoria X tiene una distribución binomial (n,p) y se denota
como B(n,p) cuando:
X = X1 + … + Xn
Siendo todas las Xi independientes y con la misma distribución B(0,1), es decir
independientes e idénticamente distribuidas.
Descripción del fenómeno
Conceptualmente, la distribución B(n,p) describe situaciones que se pueden presentar
si un suceso dicotómico se presenta o se repite n veces, y si las repeticiones son
independientes.
T1
Dado que cada variable aleatoria toma los valores 0,1, el menor valor que puede tomar
la variable aleatoria suma (X), será también 0 si todas las variables aleatorias Xi toman
el valor 0, y el máximo será “n” cuando cada una de las variables aleatorias Xi toma el
valor 1. Por tanto, X podrá tomar todos los valores naturales de “0” a “n”.

𝑋 = 0,1,2,3, … , 𝑛
La variable aleatoria X aparece, por tanto, como una variable “CONTADOR” del
número de veces que se presenta el resultado codificado como éxito (X=1) en las “n” 6
veces que se repite el experimento. Esto es, la B(n,p) describe un experimento
dicotómico o de Bernoulli cuando éste se repite “n” veces.
Discretas: Distribución Binomial
Distribución Binomial (n,p)
Función de cuantía

 n  x n− x
P[ X = x] =   p q , 0  x  n
 x
Problemas de cálculo si n es muy grande
y/o p cercano a 0 o 1.

T1
Características básicas

Esperanza Matemática (p) Varianza (pq)


𝐸 𝑋 = 𝑛𝑝 𝑉 𝑋 = 𝑛𝑝𝑞

Suponiendo que todas las Xi son B(1,p) iid 7

Demostradlo…
Discretas: Distribución Binomial
Distribución Binomial (n,p)
Parámetros

Una variable aleatoria que siga una distribución B(n,p) estará completamente
definida cuando conozcamos la probabilidad de éxito y el número de veces que se
repite el experimento.

Aplicaciones

La B(n,p) se adapta a todos los experimentos aleatorios de tipo Bernoulli que se


repiten n veces, siempre que exista independencia entre todas las repeticiones.

T1
Propiedades

La distribución B(n,p) es reproductiva en el parámetro p, ya que la suma de


variables aleatorias Xi independientes con distribución B(ni, p) también sigue una
distribución binomial. Esto es, si tenemos una variable X1~ B(n1,p) y otra variable
X2~ B(n2,p), entonces si X1 y X2 son independientes, entonces

X1 + X2~ B(n1+n2,p)
8
Discretas: Distribución Binomial
Distribución Binomial (n,p)

Parecidos razonables

Aún no conocéis la distribución normal, ni de Poisson.


De cualquier forma ahí tenéis la comparación entre valores de p no muy extremos
y una normal de misma media y desviación típica, para tamaños de n grandes
(n>30).
Cuando p es muy pequeño es mejor usar la aproximación del modelo de Poisson.

T1

9
Discretas: Distribución de Poisson
Una V.A. X con distribución de Poisson expresa el número de sucesos “raros” que
ocurren en una zona fija de espacio o de tiempo. La intensidad con que acaecen
dichos sucesos se representa mediante el parámetro positivo λ. Algunos ejemplos
de experimentos aleatorios para los que se utiliza como modelo la distribución de
Poisson son los siguientes:

• Número de sucesos que ocurren en un intervalo de tiempo dado.


• Número de linces por hectárea de monte.
• Número errores en un documento de Word.
• Número bacterias en un cultivo.

T1
Descripción del fenómeno

En la actualidad, la distribución de Poisson se utiliza para modelizar situaciones


como la distribución de entrada de usuarios que llegan a un punto de servicio y
van formando una cola, donde es probable que haya un número reducido de ellos,
pero es bastante improbable que se acumulan indefinidamente los que esperan.
También se utiliza en el ramo de los seguros (ciencias actuariales) para modelizar
el hecho de que se presenten muchos siniestros a la vez. 10
Discretas: Distribución de Poisson
Función de cuantía Función de distribución

 x
F ( x) = P[ X  x] =  e −
x
−
P[ X = x] = e , x = 0,1,2,...
x! xi  x x!
Donde λ es el número medio de resultados que ocurren en el intervalo

Características básicas (queda caracterizada por un único valor)


Esperanza Matemática (𝜆) Varianza (𝜆)
𝐸 𝑋 =𝜆 𝑉 𝑋 =𝜆

Propiedades

La distribución de Poisson es reproductiva respecto al parámetro λ. Para dos

T1
variables:
Si X1 ~ P(λ1) y X2 ~ P(λ2) y además son independientes entre sí, la variable aleatoria
suma Y=X1 + X2 ~ P(λ1+ λ2)

Distribución de Poisson como límite de la Binomial

La distribución de la Binomial puede aproximarse a una Poisson cuando n es


suficientemente grande y p tiende a cero (esto es, en situaciones en las que se dé
una probabilidad del suceso de éxito muy pequeña (sucesos raros) y un número elevado
de repeticiones). Concretamente, cuando n>30 y p≤0,1 (esto es, n·p debe ser menor o 11
igual a 5). En caso de aproximación, 𝜆 sería igual a n·p.
Continuas: Normal
La distribución Normal o distribución gaussiana es la más importante y de
más aplicación de todas las distribuciones continuas. Esta distribución es
bastante adecuada para describir la distribución de muchos conjuntos de
datos que ocurren en la naturaleza, la investigación, etc.

Distribución Normal (0,1)

Una variable aleatoria continua X se distribuye como una N(0,1) si su campo de


variación es el eje real y su función de densidad es

T1
Función de densidad y distribución

x2
1 −
f ( x) = e 2
2
x2
1 x −

12
F ( x) = P( X  x) = e 2
dx
2 −
Continuas: Normal
Distribución N(μ, σ)
Una V.A. sigue una distribución N(μ,σ) si Y = μ+σx, siendo -∞< μ <+∞ , σ>0 y X~
N(0,1).

Descripción del fenómeno

Idéntico a los descritos para la N(0,1), pero para variables cuya media es distinta
de cero y cuya desviación típica es distinta de 1. Por ejemplo, Y: renta de los
hogares españoles ~ N(μ=10.000 €, σ=3500 €) ; o por ejemplo, Y : gasto medio en
pan durante una semana~ N(11,2 €;5€).

Función de cuantía Función de distribución


T1 1  y− 
−  
2
1  y− 
−  
2

1 1 y

2  
f (Y ) = e F (Y ) = P(Y  y ) = e 2  
dy
 2  2 −

Siendo f(Y) simétrica respecto a μ.

13
Continuas: Normal
Distribución N(μ, σ)
Interpretación geométrica

Podéis interpretar la
media como un factor de
traslación.

Y la desviación típica como


un factor de escala, grado
de dispersión,…

14
Continuas: Normal
Distribución N(μ, σ)

Características

Esperanza Matemática (μ) Varianza (σ2 )


𝐸[Y]=μ 𝑉 𝑌 = σ2

Parámetros

Está caracterizada por dos parámetros: La media, μ, y la desviación típica, σ

Propiedades

T1
Propiedad aditiva o reproductiva
Sean n variables independientes xj~N(μj;σj). Si definimos una combinación lineal de las
anteriores:
Y=b+a1x1+a2x2+…+anxn=b+σ𝑛𝑗=1 𝑎𝑗 𝑥𝑗
No siendo todos los aj=0, la nueva variable Y~
𝑛 𝑛

𝑌~𝑁 𝑏 + ෍ 𝑎𝑗 𝜇𝑗 ; ෍ 𝑎𝑗2 𝜎𝑗2


𝑗=1 𝑗=1 15
Casos particulares:
Continuas: Normal
Distribución N(μ, σ)

Propiedades

Tipificación
Dada una variable de media μ y desviación típica σ, se denomina valor tipificado,z,
de una observación x, a la distancia (con signo) con respecto a la media, medido en
desviaciones típicas, es decir

x−
z=

T1
En el caso de variable X normal, la interpretación es clara: Asigna a todo valor de
N(μ, σ), un valor de N(0,1) que deja exáctamente la misma probabilidad por
debajo.
Nos permite así comparar entre dos valores de dos distribuciones normales
diferentes, para saber cuál de los dos es más extremo

16
Continuas: Normal
Distribución N(μ, σ)
Manejo de tablas
Z es normal tipificada.

Calcular P[Z<1,85]

T1
Solución: 0,968 = 96,8%

17
Continuas: Normal
Distribución N(μ, σ)
Manejo de tablas Z es normal tipificada.

Calcular P[Z<-0,54]

T1

18

Solución: 1-0,705 = 0,295


Continuas: Normal
Distribución N(μ, σ)
Manejo de tablas

Z es normal tipificada.

Calcular P[-0,54<Z<1,85]

T1

Solución: 0,968-0,295= 0,673


19
Continuas: Funciones derivadas de la Normal
Chi-cuadrado de Pearson (𝝌𝟐 )

Definición

Sean n variables aleatorias Xi~N(0,1) independientes, entonces la V.A. Y=X12 + X22


+ X32 +…+ Xn2 seguirá una χn2, es decir, una distribución Chi-cuadrado con n
grados de libertad, que es la suma de n variables N(0,1) al cuadrado e
independientes.
Su campo de variación será el de la Normal al cuadrado: [0;∞)

Función de densidad

T1
 1
x
(n 2 −1)
e
x
2
x0
 n  n 
f(x, n) =  2 2  
 2
0 x0
20
Continuas: Funciones derivadas de la Normal
Características

Esperanza Matemática Varianza


𝐸[χn2]=n 𝑉 χn2 = 2𝑛

Manejo de tablas

Esta distribución está tabulada. La forma en que vienen dispuestas las tablas
permiten determinar de forma directa la P(𝝌2𝑛 ≥a).

Otras cuestiones

T1
Tiene un sólo parámetro denominado grados de libertad.
La función de densidad es asimétrica positiva. Sólo tienen densidad los valores
positivos.
La función de densidad se hace más simétrica incluso casi gausiana cuando
aumenta el número de grados de libertad.
Normalmente consideraremos anómalos aquellos valores de la variable de la “cola
de la derecha”.
21
Continuas: Funciones derivadas de la Normal
t de Student (𝒕)
Definición

Sean X1….Xn V.A independientes N(0,σ) y sea U una V.A N(0,σ) independiente de las
Xi, se define la t-Student con n grados de libertad como:

𝑈 𝑈ൗ 𝑁(0,1)
𝜎
𝑡𝑛 = = =
𝑥12 + 𝑥22 + ⋯+ 𝑥𝑛2 𝑥12 + 𝑥22 + ⋯ + 𝑥𝑛2 𝝌2𝑛
𝑛 𝑛𝜎 2 𝑛

Su campo de variación es (-∞,+∞), el mismo que


la Normal.

T1
Su representación gráfica es parecida a la
campana de Gauss. Es simétrica respecto al eje
de ordenadas y tiene asíntotas en ±∞, sólo que
es más achatada y con mayor probabilidad en
las colas.

Además, se puede demostrar que si


n>30→tn → N(0,1).
22
Continuas: Funciones derivadas de la Normal
Características

Esperanza Matemática Varianza


𝑛
𝐸[tn]=0 𝑉 t n = σ2 = cuando n>2
𝑛−2

Manejo de tablas

Esta distribución está tabulada. La forma en que vienen dispuestas las tablas
permiten determinar de forma directa la P(𝑡𝑛 ≥a).

T1
Otras cuestiones

Tiene un parámetro denominado grados de libertad.

Cuando aumentan los grados de libertad, más se acerca a N(0,1).

Es simétrica con respecto al cero.

Se consideran valores anómalos los que se alejan de cero (positivos o negativos). 23


Continuas: Funciones derivadas de la Normal
F de Snedecor (F)
Definición
Sean X1,X2, …., Xm e Y1, Y2, …,Yn variables aleatorias independientes e idénticamente
distribuidas N(0,σ) , se define la distribución F-Snedecor con n y m grados de libertad
como:
1 2
𝑥1 + 𝑥22 +. . +𝑥𝑚
2
𝐹=𝑚 ~ 𝐹𝑚,𝑛
1 2 2 2
𝑛 𝑦1 + 𝑦2 +. . +𝑦𝑛
Se caracteriza completamente por los grados de libertad m y n. No depende de la
varianza de las variables normales de partida.

T1
Si σ = 1, la variable aleatoria sigue una distribución F de Snedecor con m y n grados de
libertad, la variable es el cociente de dos χ2 independientes de m y n grados de libertad,
corregidas por sus respectivos grados de libertad.
𝜒2
𝑚
𝑚
𝐹= 𝜒2
𝑛
𝑛

El campo de variación de la variable, al ser suma de cuadrados es la recta real positiva


[0,∞), igual al de la χ2. 24
Continuas: Funciones derivadas de la Normal
Otras cuestiones

Tiene dos parámetros denominados grados de libertad.

Sólo toma valores positivos. Es asimétrica.

Normalmente se consideran valores anómalos los de la cola de la derecha.

T1

25
Teorema Central del Límite (TCL)
TEOREMA CENTRAL DEL LÍMITE DE LINDEBERG-LÉVY

Dada una sucesión de variables aleatorias independientes e idénticamente


distribuidas X1….Xn con E[Xi]=μ para todo i, y V[Xi]=σ2, entonces si n es lo
suficientemente elevada (normalmente, mayor que 30), se demuestra que la
variable aleatoria Yn= X1+….+Xn. converge en distribución a una N(nμ;σ 𝑛)

O lo que es lo mismo,

𝑌𝑛 − 𝑛𝜇
𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒 𝑎 𝑢𝑛𝑎 𝑁(0,1)

T1
𝜎 𝑛

Un caso particular de este teorema es el teorema de Moivre, que demuestra lo


siguiente:

sean X1….Xn V.A. independientes todas ellas B(1,p), se demuestra que, si n es lo


suficientemente elevado (n>30; np>5), la V.A. Yn= X1+….+Xn converge en
distribución a 𝑁 𝑛𝑝; 𝑛𝑝𝑞
26
CLT(2) simulation
http://www.rossmanchance.com/applets/OneSample.html

También podría gustarte