Está en la página 1de 13

APLICACIONES A LA ESTADÍSTICA

(MODELOS PROBABILÍSTICOS CONTINUOS)

AUTORES:
JENNIFER CARTAGENA YEPES (T00058562)
CRISTIAN DAVID BOHORQUEZ MARTINEZ (T00058933)
KEVIN ARTURO FIGUEROA FIGUEROA (T00057863)
MELANIE OJEDA DIX (T00058203)

PROFESOR:
CARLOS RAFAEL PAYARES GUEVARA

CÁLCULO INTEGRAL
GRUPO H

UNIVERSIDAD TECNOLÓGICA DE BOLÍVAR


FACULTAD DE CIENCIAS BÁSICAS
CARTAGENA, BOLÍVAR
2019
DISTRIBUCIONES

 DISTRIBUCIÓN NORMAL
Es la más importante y la de mayor uso en la Teoría de la Probabilidad y la
Estadística Matemática, ya que multitud de fenómenos se comportan según una
distribución normal.
Esta distribución es la piedra angular en la aplicación de la Inferencia Estadística
en el análisis de datos, puesto que las distribuciones de muchos estadísticos
muestrales tienden a la distribución normal cuando el tamaño de la muestra crece.
Además, la distribución normal proporciona una adecuada representación de las
distribuciones de una gran cantidad de variables físicas (de hecho, el nombre de
normal tiene carácter histórico, ya que, en un principio se creyó que la mayoría de
las distribuciones eran de este tipo).
Algunos ejemplos son:
 Datos meteorológicos como la temperatura, lluvias, etc.
 Mediciones efectuadas en organismos vivos: altura, peso, etc.
 Calificaciones en pruebas de aptitud.
 Medidas físicas de productos manufacturados, etc.
Su forma es de campana y de ahí que usualmente se le conozca como “campana
de Gauss”, debido a que los valores se distribuyen en torno a un valor central que
coincide con el valor medio de la distribución.
Sea X una variable aleatoria continua, se dice que se distribuye como una normal:
X → N (μ σ); μ ∈ R; σ > 0
Donde se verifica que -∞ < X < +∞, μ corresponde al máximo y al centro de la
distribución, y σ influye en la apertura y aplastamiento o apuntamiento de la curva,
es cualquier valor entre –∞ y +∞, si su función de densidad viene dada por:

Propiedades:
 Tiene un parámetro que es la media, E[X] = μ.
 Tiene otro parámetro que nos da la dispersión, V[X] = σ².
 La media, la moda y la mediana coinciden.
 Es una función simétrica respecto a la media, como se puede ver en el
gráfico:
 Si definimos la variable Y = a X + b, donde X se distribuye como una normal
de parámetros X → N (μ σ); entonces:
Y → N (aμ + b,aσ)
 Sean dos variables aleatorias normales que se distribuyen X₁ → N(μ₁, σ₁),
y X₂ → N(μ₂, σ₂), se define una nueva variable de la forma Y = X1 + X2,
entonces esta nueva variable se distribuye como:
Y → N (μ₁ + μ₂, √ (σ₁² + σ₂)).
DISTRIBUCIÓN NORMAL TIPIFICADA O ESTANDARIZADA.
Cuando la media de la distribución es 0 y la varianza es 1, se denomina "normal
tipificada", y su ventaja reside en que hay tablas, o rutinas de cálculo que permiten
obtener esos mismos valores, donde se recoge la probabilidad acumulada para
cada punto de la curva de esta distribución.
Este es un caso particular de una variable aleatoria continua X que se distribuye
como una Normal de parámetros (0,1); por lo que su función de densidad viene
dada por:

Propiedades:
 E(x) = 0
 V(x) = 1
Su ventaja es que las probabilidades para cada valor de la curva se encuentran
recogidas en una tabla. Así, lo que se hará es transformar cualquier variable que
se distribuya como una normal en una normal tipificada. Para hacer este cambio,
se crea una nueva variable Z que será igual a la anterior X menos su media y
dividida por su desviación típica (que es la raíz cuadrada de la varianza).
Esta nueva variable se distribuye como una normal tipificada, permitiéndonos, por
tanto, conocer la probabilidad acumulada en cada valor, es decir,
X → N (μ σ); al definir la nueva variable siempre se verifica
que Z → N (0,1);

 DISTRIBUCIÓN EXPONENCIAL
Mientras que la distribución de Poisson describe las llegadas por unidad de
tiempo, la distribución exponencial estudia el tiempo entre cada una de estas
llegadas. Si las llegadas son de Poisson el tiempo entre estas llegadas es
exponencial. Mientras que la distribución de Poisson es discreta la distribución
exponencial es continua porque el tiempo entre llegadas no tiene que ser un
número entero. Esta distribución se utiliza mucho para describir el tiempo entre
eventos. Más específicamente la variable aleatoria que representa al tiempo
necesario para servir a la llegada.
Ejemplos típicos de esta situación son el tiempo que un medico dedica a una
exploración, el tiempo de servir una medicina en una farmacia, o el tiempo de
atender a una urgencia.
El uso de la distribución exponencial supone que los tiempos de servicio son
aleatorios, es decir, que un tiempo de servicio determinado no depende de otro
servicio realizado anteriormente ni de la posible cola que pueda estar formándose.
Otra característica de este tipo de distribución es que no tienen "edad" o en otras
palabras, "memoria". Por ejemplo. Supongamos que el tiempo de atención de un
paciente en una sala quirúrgica sigue una distribución exponencial. Si el paciente
ya lleva 5 horas siendo operado, la probabilidad de que esté una hora más es la
misma que si hubiera estado 2 horas, o 10 horas o las que sea. Esto es debido a
que la distribución exponencial supone que los tiempos de servicio tienen una gran
variabilidad. A lo mejor el próximo paciente operado tarda 1 hora porque su cirugía
era mucho más simple que la anterior.
Su gráfica es un modelo apropiado a vida útil de objetos.
Propiedades del modelo Exponencial
 Su esperanza es α.
 Su varianza es α2.
En estadística la distribución exponencial es una distribución de probabilidad
continua con un parámetro cuya función de densidad es:

Su función de distribución acumulada es:

x x
λ x
ⅆx=−∫ ⅇu du=[−e− λx ]0 =1−ⅇ−λx
−λx
Demostración: F(x) = P(X ≤ x) = ∫ λ ⅇ
0 0 λ

De forma adicional esta distribución presenta una función adicional que es función
Supervivencia (S), que representa el complemento de Función de distribución.

El valor esperado y la varianza de una variable aleatoria X con distribución


exponencial son:

Recordamos que λ es el número de sucesos esperados en una unidad de tiempo.


Entonces, el tiempo esperado entre sucesos debe ser 1/λ, es decir que E[X]=1/λ.
Ejemplo: El tiempo durante el cual cierta marca de batería trabaja en forma
efectiva hasta que falle (tiempo de falla) se distribuye según el modelo exponencial
con un tiempo promedio de fallas igual a 360 días.
a) ¿Qué probabilidad hay que el tiempo de falla sea mayor que 400 días?
b) Si una de estas baterías ha trabajado ya 400 días, ¿qué probabilidad hay que
trabaje más de 200 días más? tutu
c) Si se están usando 5 de tales baterías calcular la probabilidad de que más de
dos de ellas continúen trabajando después de 360 días.
Solución:
Sea X=el tiempo que trabaja la batería hasta que falle. El tiempo promedio de falla
es de 360 días. Entonces, X ~Exp (λ=1/360) y su función de densidad es:

 DISTRIBUCIÓN GAMMA
Antes de estudiar la distribución gamma, es pertinente observar y/o examinar
algunos detalles de la función a la que debe su nombre, la función gamma.
Función Gamma Γ(α)
Es una función que extiende el concepto de factorial a los números complejos. Fue
presentada, en primera instancia, por Leonard Euler entre los años 1730 y 1731.

α −1 −x
La función gamma Γ(α) se define, sea Γ:(0, ∞) →R, donde Γ(α) = ∫ x e ⅆx para
0
α>0.
Con el fin de observar algunos resultados o propiedades de esta función,
procederemos a integrar por partes. Tomando u=x α−1 y dv=ⅇ−1 dx, obtenemos
∞ ∞

Γ ( α )=−ⅇ−x x α −1|0 +∫ ⅇ−x ( α −1 ) x α−2 ⅆx=( α −1 )∫ x α −2 ⅇ−x ⅆx
0 0

Para α > 1, lo cual ocasiona la fórmula Γ(α)=(α-1) Γ(α-1)


Al aplicar reiteradamente la fórmula anterior tendríamos,
Γ(α) = (α - 1) (α – 2) Γ (α - 2) = (α - 1) (α - 2) (α - 3) Γ (α - 3) y así sucesivamente.
Se evidencia que cuando α=n, donde n es un entero positivo, Γ(n) = (n-1)(n-
2)...Γ(1).

Sin embargo, por la definición de Γ(a), Γ(1)= ∫ ⅇ−x ⅆx = 1, y de aquí Γ(n) =(n-1)!
0

Algunas propiedades adicionales de Γ(α) son:


 Γ(n+1) = n! si n es un entero positivo.
 Γ(n+1) = n Γ(n), n > 0.
 Γ(1/2) = √ π .
Distribución Gamma
Se le conoce, también, como una generalización de la distribución exponencial,
además de la distribución de Erlang y la distribución Ji-cuadrada. Es una
distribución de probabilidad continua adecuada para modelizar el comportamiento
de variables aleatorias con asimetría positiva y/o los experimentos en donde está
involucrado el tiempo.
Definición: Una variable aleatoria X tiene una distribución gamma si su función de
densidad está dada por:

Teorema: La función f es una función de densidad.


Demostración:
∞ ∞

Debemos probar que ∫ f ( x ) ⅆx=1. Para este caso ∫ f ( x , α , β ) ⅆx=1


−∞ −∞

De esta manera,

Pero según la definición de 


 Así, 
Realizamos el siguiente cambio de variable. Sea u = x/β, entonces x = βu, así dx
= βdu. Por lo cual tendríamos

α −1 −u
Ahora bien, recordemos que Γ: (0,∞) → R, donde Γ(α):=∫ u ⅇ ⅆu ∀ α >0Así, 
0

Por tanto, ƒ es una función de densidad.


La función de distribución acumulativa de gamma F(x), la cual permite determinar
la probabilidad de que una variable aleatoria de gamma X sea menor a un valor
específico x, se determina de la siguiente expresión:

Propiedades de la distribución gamma


Como se mencionó anteriormente, es una distribución adecuada para modelizar el
comportamiento de variables aleatorias continuas con asimetría positiva. Es decir,
variables que presentan una mayor densidad de sucesos a la izquierda de la
media que a la derecha. En su expresión se encuentran dos parámetros, siempre
positivos, α y β de los que depende su forma y alcance por la derecha, y también
la función gamma Γ(α), responsable de la convergencia de la distribución.
Podemos presentar las siguientes propiedades:
• Los valores de la esperanza E(X) y varianza Var(X), se determinan mediante
- E(X) = αβ
- Var(X) = αβ^2
Se hará una verificación y/o demostración de estas fórmulas más adelante en esta
sección.
• Los factores de forma de la distribución gamma son:
- Coeficiente de asimetría: 2/(√α) .
- Curtosis relativa: 3(1+2/(√α)) .
- Con lo anterior se puede observar que la distribución gamma es leptocúrtica y
tiene un sesgo positivo. También observamos que conforme el parámetro α crece,
el sesgo se hace menos pronunciado y la curtosis relativa tiende a 3.
• La función generadora de momentos de la variable aleatoria gamma X está dada
por mx(t)= (1 – βt)^-α, con 0 ≤ t < 1/β.
• El primer parámetro, α, sitúa la máxima intensidad de probabilidad y por este
motivo es denominada la forma de la distribución. Cuando se toman valores
próximos a cero aparece entonces un dibujo muy similar al de la distribución
exponencial. Cuando se toman valores grandes de α, el centro de la distribución
se desplaza a la derecha, por lo que va apareciendo la forma de la campana de
Gauss con asimetría positiva. El segundo parámetro, β, es el que determina la
forma o alcance de la asimetría positiva desplazando la densidad de probabilidad
en la cola de la derecha. Para valores elevados de β la distribución acumula más
densidad de probabilidad en el extremo derecho de la cola, alargando mucho su
dibujo y dispersando la probabilidad a lo largo del plano. Al dispersar la
probabilidad la altura máxima de densidad de probabilidad se va reduciendo; de
aquí que se le denomine escala. Valores más pequeños de β conducen a una
figura más simétrica y concentrada, con un pico de densidad de probabilidad más
elevado. Una forma de interpretar β es “tiempo promedio entre ocurrencia de un
suceso”.
• Dadas dos variables aleatorias X y Y con distribución gamma y parámetro α
común. Esto es X : y ( α , β 1 ) y Y : y ( α , β 2 ) se cumplirá que la suma también sigue una
distribución Gamma X +Y : y ( α , β 1 + β 2)

Esperanza E(X) y Varianza Var(X)


Sabemos que los valores de la esperanza (o media) y de la varianza para la
distribución gamma son respectivamente E(X)= αβ y Var(X) = αβ^2. Observemos
ahora la demostración de estas afirmaciones.
Teorema: La esperanza de la distribución gamma está dada por E(X) = αβ.
Demostración: Tenemos

Ahora bien, sea u = x/β; x = uβ, con lo que dx =βdu así

Teorema: La varianza de la distribución gamma está dada por Var(X) = αβ 2


Ejemplo 1.
Supongamos que la experiencia demuestra que el tiempo X (en minutos)
necesario para dar mantenimiento periódico a un dictáfono sigue una distribución
gamma con α= 3.1 y β= 2. A un nuevo técnico en mantenimiento le toma 22.5
minutos revisar la máquina. ¿Concuerda este tiempo utilizado en el mantenimiento
al dictáfono con el período anterior?
Solución
La media y varianza de los tiempos de mantenimiento (con base en la experiencia
anterior) son:
E(X) = αβ= (3.1) (2) = 6.2 y
Var(X) = αβ= (3.1) (22)= 12.4

Se deduce que   Advierta que x; = 22.5 supera a la esperanza E(X)


= 6.2 por 16.3 minutos o, k= 16.3/3.52= 4.63. Así según la regla de Tchebychev.

Por tanto,
P(‌X-6.2‌≥16.3)=P(‌X-6.2‌≥16.3)≥ 1-0.9534=0.0466
Esta probabilidad se basa en el supuesto de que la distribución de los tiempos de
mantenimiento no es diferente de lo establecido. Por consiguiente, si observamos
que P(X≥ 22.5) es pequeña, debemos concluir que nuestro nuevo técnico en
mantenimiento generó por azar un período de mantenimiento prolongado, que
tiene baja probabilidad de ocurrir, o que es más lento que los anteriores. Si
tomamos en cuenta la baja probabilidad de P(X ≥22.5), optamos por la última
probabilidad.

 DISTRIBUCIÓN UNIFORME
Supongamos que una variable X puede tomar valores al azar en un rango(a,b) y
que la probabilidad de que X tome valores en cualquier intervalo de longitud fija en
(a,b) sea la misma.
En este caso, se dice que X tiene una distribución uniforme entre a y b se escribe.
X – U(a,b).
La función de distribución NOTA: |X Y |A ES EL SIMBOLO DE LA
INTEGRAL DESDE A HASTA X
Si X-U(a,b), luego, si a < x <=b.
x x
1 u
F(x)=Pr(X <= X) = ∫
a
( )
b−a
. du=
b−a a [ ]
=¿( x−a)/(b−a) ¿

La media y desviación típica:


Teorema 1. Sea X-U(a,b).entonces
E(X) = a+b / 2
V(X)= (b-a)2 / 12
DT(X)= (b-a) / Raiz(12)

DEMOSTRACIÓN:
b
1
E(X)= ∫
a
[ ( b−a ) ] x
xdx dx = [ x 2 /2 ( b−a ) ]a

= b2 – a2 / 2(b-a) = (A+b) / 2

E(X2)= ∫ [ x 2/ ( b−a ) ] dx = [ x 3 /3 ( b−a ) ]xa


a

= b3-a3 / 3(b-a) = b2+ab+a2 / 3

V(X)= E[X2] – E[X2] = (b2+ ab +a2 / 3) – (a+b / 2)2


=(b2+ab+a2 / 3 ) – (a2 +2ab+b2 / 4)
= a2 -2ab + b2 / 12 = (b-a)2 / 12

EJEMPLO #1. Si juego con la siguiente rueda de la fortuna:
¿Cuál es la probabilidad de que gane?
Sea X un ángulo desde la vertical a la flecha. Luego
X-U(0,360°). La probabilidad de que gane es

90−0 1
Pr(X <= 90) = =
360−0 4
BIBLIOGRAFIAS

DISTRIBUCIÓN NORMAL
 https://www.ugr.es/~eues/webgrupo/Docencia/MonteroAlonso/estadisticaII/t
ema3.pdf
 https://www.ugr.es/~proman/ProbI/2016_2017/PDF/DistribucionesContinuas
.pdf
DISTRIBUCIÓN EXPONENCIAL
 Cesar Gonzales Q., monografías.com, “Distribución exponencial”, 2010,
Universidad Nacional, online, disponible en:
https://www.monografias.com/trabajos84/distribucion-
exponencial/distribucion-exponencial.shtml
 Wikipedia.com, “Distribución exponencial”, Online, disponible en:
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_exponencial
DISTRIBUCIÓN GAMMA
 Walpole R. E., Myers R. H., Myers S. L. Probabilidad y Estadística Para
Ingenieros. Traducción de Ricardo Cruz. Prentice-Hall, Inc. México, 1999.
 Ecos de la economía. Distribución Gamma. Tomado desde:
http://ecosdelaeconomia.files.wordpress.com/2011/05/distribucion-
gamma.pdf, [Acceso el 5 de agosto de 2013]
 Distribución poisson y gamma: una discreta y continua relación. Junio
14/2014. Estudiantes y docentes de la universidad del norte

También podría gustarte