Está en la página 1de 13

SOLUCION TAREA 2 ASTROESTADISTICA

Estudiante: Lina Daniela Carvajal Belalcázar…

DISTRIBUCIONES DE PROBABILIDAD:

(a) Distribución de probabilidad Geométrica: Está asociada con un experimento que


comparte algunas de las características de un experimento binomial:
1. Consiste en un número de 𝑛 pruebas idénticas e independientes.
2. Cada prueba puede arrojar uno de los resultados: éxito (𝑆) o fracaso (𝐹).
3. La probabilidad del éxito es igual a 𝑝 y es constante de una prueba a otra. La
probabilidad de fracaso es igual a 𝑞 = 1 − 𝑝.
4. La variable aleatoria geométrica 𝑌 es el número de prueba en la que ocurre el primer
éxito.
Cuando usted realiza un experimento que solo tiene dos resultados posibles: éxito o
fracaso, la distribución geométrica puede modelar el número de ensayos consecutivos
necesarios para observar el resultado de interés por primera vez. La distribución geométrica
también puede modelar el número de no eventos que ocurren antes de que se observe el
primer resultado.

Eventos
𝐸1 : 𝑆 (Éxito en la primera prueba)
𝐸2 : 𝐹𝑆 (Fracaso en la primera, éxito en la segunda)
𝐸3 : 𝐹𝐹𝑆 (Primer éxito en la tercera)
:
:

𝐸1 : 𝐹𝐹𝐹𝐹 … 𝐹 𝑆
⏟ (Primer éxito en el 𝑘 é𝑠𝑖𝑚𝑎 prueba)
𝑘−1

Como la variable 𝑌 es el número de prueba en la que ocurre el primer éxito. De esta forma
la variable aleatoria toma valores enteros a partir del uno: 𝑦 = {1, 2, 3, … }
La función P(𝑦) hará corresponder a cada valor de 𝑌 la probabilidad de obtener el primer
éxito, precisamente en la 𝑌-ésima prueba. Esto es, P(𝑌) será la probabilidad del suceso
obtener 𝑌 − 1 resultados "no 𝑆 " y un éxito o resultado 𝑆 en la prueba número 𝑌 teniendo en
cuenta que todas las pruebas son independientes y que conocemos sus probabilidades
tendremos:

𝑝(𝑦) = 𝑃(𝑌 = 𝑦) = 𝑃(𝐸𝑦 ) = 𝑃 (𝐹𝐹𝐹𝐹


⏟ 𝑞𝑞𝑞𝑞 … 𝑞 𝑝 = 𝑞 𝑦−1 𝑝
… 𝐹 𝑆) = ⏟ 0≤𝑝≤1
𝑦−1 𝑦−1
Si 𝑌 es una variable aleatoria con una distribución geométrica, la esperanza y la varianza
están dadas por:
1 1−𝑝
𝐸(𝑌) = 𝑝 y 𝑉(𝑌) = 𝑝2

La siguiente gráfica representa una distribución geométrica con probabilidad de evento de


𝑝 = 0.5.

Ejemplos:

Ejemplos:
1. Dado que ya hemos lanzado una moneda balanceada diez veces y no obtuvimos cara,
¿Cuál es la probabilidad de que lancemos la moneda una vez más y salga cara?
1
La probabilidad 𝑝 de que salga cara en una moneda balanceada es 2, y la probabilidad de
1 1
que no salga cara es 𝑞 = 1 − 𝑝 = 1 − = , sea 𝑌 la variable aleatoria en el que en el
2 2
onceavo lanzamiento sale cara, entonces
1 11−1 1 1 11
𝑃(𝑌) = 𝑞 𝑦−1 𝑝 = (2) (2) = (2)

2. Dos personas, por turnos, tiran un dado imparcial hasta que una de ellas lanza un 6. La
persona A, tiró primero, la persona B, tiró segundo, A en tercero y así sucesivamente. En
vista de que la persona B tiró el primer 6, ¿Cuál es la probabilidad de que la persona B
obtenga el primer 6 en su segundo tiro (es decir en el cuarto tiro total)?

1
La probabilidad de que salga el número 6 de un dado imparcial es 6
, y la probabilidad de
1 5
que no salga 6 es 𝑞 = 1 − 𝑝 = 1 − = , entonces siendo 𝑌 la variable aleatoria en que en
6 6
el cuarto lanzamiento salga un 6, la probabilidad está dada por

5 4−1 1 5 3 1
𝑃(𝑌) = 𝑞 𝑦−1 𝑝 = ( ) ( )= ( ) ( )
6 6 6 6
(b) Distribución de probabilidad Binomial negativa: Es una generalización de la
distribución geométrica.
1. Intentos independientes e idénticos.
2. Cada intento conduce a uno de dos resultados: éxito o fracaso.
3. La probabilidad de intento sigue siendo igual de un intento a otro.
4. La variable aleatoria 𝑌 es el número de intentos hasta que se observa el 𝑟-ésimo
éxito (𝑟 = 1, 2, 3, 𝑒𝑡𝑐).
La distribución binomial negativa es una distribución discreta que modela el número de
ensayos necesarios para producir un número específico de eventos. Cada ensayo tiene dos
resultados posibles: éxito ó fracaso. El evento es el resultado de interés en un ensayo. La
distribución binomial negativa también puede modelar el número de no eventos que deben
ocurrir para que se observe el número especificado de resultados.
Ahora consideremos los eventos A y B y seleccionemos los valores fijos, 𝑟 e 𝑦, donde
𝐴 = {Los primeros (𝑦 − 1) intentos contienen (𝑟 − 1) éxitos} y
𝐵 = {El intento 𝑦 resulta de un éxito} son independientes y P(B) = 𝑝 y 𝑃(𝐴) = 0 𝑠𝑖 (𝑦 − 1) <
𝑦 − 1 𝑟−1 𝑦−𝑟
(𝑟 − 1) ó 𝑃(𝐴) = ( )𝑝 𝑞 𝑠𝑖 𝑦 ≥ 𝑟. Por tanto
𝑟−1
𝑦 − 1 𝑟−1 𝑦−𝑟 𝑦 − 1 𝑟 𝑦−𝑟
𝑝(𝑦) = 𝑝(𝑌 = 𝑦) = 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵) = ( )𝑝 𝑞 ∗𝑝= ( )𝑝 𝑞
𝑟−1 𝑟−1
 Se dice que una variable aleatoria 𝑌 tiene una distribución de probabilidad binomial
negativa si y sólo si
𝑦 − 1 𝑟 𝑦−𝑟
𝑝(𝑦) = ( )𝑝 𝑞 𝑦 = 𝑟, 𝑟 + 1, 𝑟 + 2, … , 0 ≤ 𝑝 ≤ 1.
𝑟−1
 Si 𝑌 es una variable aleatoria con una distribución binomial negativa, la esperanza y
la varianza están dadas por:
𝑟 𝑟(1 − 𝑝)
𝐸(𝑌) = 𝑝 y 𝑉(𝑌) = 𝑝2

La siguiente gráfica ilustra una distribución binomial negativa con probabilidad de eventos
de 𝑝 = 0.5 y 𝑟 = 5 eventos necesarios.
Ejemplos:
1. ¿Cuál es la probabilidad de que en el décimo lanzamiento salga cara por quinta vez?
Sea 𝑌 la variable que denota el número de intentos necesarios para que le salga la quinta
1
cara, entonces 𝑌 tiene una distribución binomial negativa con 𝑟 = 5 y 𝑝 = 2, así
5
𝑦 − 1 𝑟 𝑦−𝑟 10 − 1 1 1 10−5 9 1
10
63
𝑝(𝑦) = 𝑝(𝑌 = 10) = ( )𝑝 𝑞 =( )( ) ( ) =( ) ( ) =
𝑟−1 5−1 2 2 4 2 512

2. Para tratar a un paciente de una afección de pulmón, han de ser operados en operaciones
independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal que, si todo va bien, lo
que ocurre con probabilidad de 7/11, el lóbulo queda definitivamente sano, pero si no es
así se deberá esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se
practicará la cirugía hasta que 4 de sus 5 lóbulos funcionen correctamente. ¿Cuál es el
valor de intervenciones que se espera que deba padecer el paciente? ¿Cuál es la
probabilidad de que se necesiten 10 intervenciones?

Podemos enfocar el problema como una binomial negativa de parámetros 𝑌 número de


7 4
operaciones hasta obtener 𝑟 = 4 como resultado positivo, 𝑝 = , 𝑞 = 1 − 𝑝 = .
11 11

En valor de intervenciones que se espera es:


𝑟 4 4∗11 44
𝐸(𝑌) = = = = = 6,28
𝑝 7⁄11 7 7

La probabilidad de que se necesiten 10 intervenciones es:

10 − 1 7 4 4 10−4 9 7
4
4 6
𝑃(𝑌 = 10) = ( )( ) ( ) = ( ) ( ) ( ) = 0,0318
4−1 11 11 3 11 11

(c) Distribución de probabilidad Log-normal: Esta distribución se puede definir como la


distribución de una variable aleatoria cuyo logaritmo se distribuye normalmente. A menudo,
la distribución del tamaño de los organismos, la distribución de las especies, la distribución
del número de personas en la clase de ocupación censal, la distribución de estrellas en el
universo y la distribución del tamaño de los ingresos se modelan mediante distribuciones
Log-normales. La distribución Log-normal se utiliza en biología, astronomía, economía,
farmacología e ingeniería.
Una variable aleatoria 𝑌 se dice que tiene una distribución de probabilidad Log-normal, si la
función de densidad está dada por:
1 ln(𝑦)−𝜇 2
1 − ( )
𝑒 2 𝜎 si 0 < 𝑦 < ∞
𝑦𝜎 √2𝜋

𝑓(𝑦) = {
0 en otro caso
donde −∞ < 𝜇 < ∞ y 0 < 𝜎 2 < ∞ son parámetros arbitrarios.
Gráfica de densidad de probabiblidad Log-normal, con diferentes parámetros 𝜇 y 𝜎.

 Si 𝑌 es una variable aleatoria con una distribución Log-normal, la esperanza y la


varianza están dadas por:
1 2 2 2
𝐸(𝑌) = 𝑒 𝜇+2𝜎 y 𝑉(𝑌) = [𝑒 𝜎 − 1]𝑒 2𝜇+𝜎

Ejemplo:

(d) Distribución de probabilidad gamma: Es una distribución de variable aleatoria


continua, adecuada para modelizar el comportamiento de variables aleatorias con asimetría
positiva (es decir, variables que presentan una mayor densidad de sucesos a la izquierda
de la media que a la derecha), y/o los experimentos en donde está involucrado el tiempo.
En su expresión se encuentran dos parámetros, siempre positivos, ∝ y β de los que
depende su forma y alcance por la derecha, y también la función gamma Г(∝), responsable
de la convergencia de la distribución.
Se utiliza la distribución gamma para modelar valores de datos positivos que sean
asimétricos a la derecha y mayores que 0. La distribución gamma se utiliza comúnmente
en estudios de supervivencia de fiabilidad.
 Se dice que una variable aleatoria Y tiene una distribución gamma con parámetros
∝> 0 y β > 0 si y sólo si la función de densidad de Y es:

𝒚
𝟏 − ⁄𝜷
𝜷𝜶 Г(∝)
∗ 𝒚∝−𝟏 ∗ 𝒆 𝟎≤𝒚≤∞

𝒇(𝒚) = {
𝟎 en cualquier otro punto
donde

Г(∝) = ∫ 𝒚∝−𝟏 𝒆−𝒚
𝟎

La cantidad Г(∝) se conoce como función gamma. La integración directa verificará que
Г(1) = 1. La integración por partes verifica que Г(∝) = (∝ −1)Г(∝ −1) para cualquier ∝> 1
y que Г(𝑛) = (𝑛 − 1)! Siempre que n sea un entero.
Los parámetros de la distribución
El primer parámetro (α) sitúa la máxima intensidad de probabilidad y por este motivo en
algunas fuentes se denomina “la forma” de la distribución: cuando se toman valores
próximos a cero aparece entonces un dibujo muy similar al de la distribución exponencial.
Cuando se toman valores más grandes de (α) el centro de la distribución se desplaza a la
derecha y va apareciendo la forma de una campana de Gauss con asimetría positiva. Es el
segundo parámetro (β) el que determina la forma o alcance de esta asimetría positiva
desplazando la densidad de probabilidad en la cola de la derecha. Para valores elevados
de (β) la distribución acumula más densidad de probabilidad en el extremo derecho de la
cola, alargando mucho su dibujo y dispersando la probabilidad a lo largo del plano. Al
dispersar la probabilidad la altura máxima de densidad de probabilidad se va reduciendo;
de aquí que se le denomine “escala”. Valores más pequeños de (β) conducen a una figura
más simétrica y concentrada, con un pico de densidad de probabilidad más elevado.
La siguiente es una gráfica de densidad gamma, para distintos parámetros ∝ y β.

 Si Y tiene una distribución gamma con parámetros ∝ y β, entonces la esperanza y la


varianza están dadas por:
E(Y) =∝ β y V(Y) =∝ 𝛽 2
Ejemplo:
1. En una ciudad se observa que el consumo diario de energía (en millones de kilowatt-
hora) es una variable aleatoria que sigue una distribución gamma con parámetros α = 3 y
β = 2. Si la planta de energía que suministra a la ciudad tiene una capacidad diaria de
generar un máximo de 12, ¿cuál es la probabilidad de que haya un día donde no se pueda
satisfacer la demanda?
𝒚
𝟏 − ⁄𝜷
𝒇(𝒚) = 𝜷𝜶 Г(∝) ∗ 𝒚∝−𝟏 ∗ 𝒆 donde

α = 3, β = 2 y Г(∝) = (∝ −1)! = (3 − 1)! = (2)! = 2, de manera que


𝟏 𝒚
𝒇(𝒚) = 𝟐𝟑∗𝟐 ∗ 𝒚𝟐 ∗ 𝒆− ⁄𝟐

La probabilidad de que haya un día donde no se pueda satisfacer la demanda, estaría dada
por:
𝟏 𝟏 𝒖⁄
P(Y ≤ 1) = 𝟐𝟑∗𝟐 ∫𝟎 𝒖𝟐 ∗ 𝒆− 𝟐 𝒅𝒖 = 𝟎, 𝟎𝟏𝟒

(e) Distribución de probabilidad chi-cuadrada: La distribución de chi-cuadrada es una


distribución continua que se especifica por los grados de libertad y el parámetro de no
centralidad. La distribución es positivamente asimétrica, pero la asimetría disminuye al
aumentar los grados de libertad.

Una variable aleatoria con distribución chi-cuadrada se denomina variable aleatoria (𝜒 2 )


chi-cuadrada. Estas variables aleatorias se presentan con frecuencia en teoría estadística.
Sea ν un entero positivo. Se dice que una variable aleatoria 𝑌 tiene distribución chi-
cuadrada con 𝜈 grados de libertad si y sólo si 𝑌 es una variable aleatoria con distribución
gamma y parámetros ∝ = 𝜈/2 y 𝛽 = 2

𝟏 𝒗 𝒚
𝒗 ∗ 𝒚𝟐−𝟏 ∗ 𝒆− ⁄𝟐
𝟎≤𝒚≤∞
𝟐𝒗⁄𝟐 Г( )
𝟐

𝒇(𝒚) = {
𝟎 en cualquier otro punto
donde
∞ 𝒗
𝒗
Г ( ) = ∫ 𝒚𝟐−𝟏 𝒆−𝒚
𝟐 𝟎

 Si 𝑌 es una variable aleatoria chi-cuadrada con 𝜈 grados de libertad, entonces la


esperanza y la varianza están dadas por:
𝐸(𝑌) = 𝑣 y 𝑉(𝑌) = 2𝑣
Gráfica de Distribución de chi-cuadrada con 2, 5 y 10 grados de libertad

Supongamos que se efectúa el siguiente experimento estadístico. Seleccionamos una


muestra aleatoria de tamaño n de una población con distribución normal, con desviación
estándar igual a σ. De la muestra encontramos que la desviación estándar es igual a s. Con
estos datos podemos calcular una estadística, que llamamos Chi-Cuadrada Cuadrada, por
medio de la siguiente ecuación:
(𝑛−1)𝑠2
𝜒2 = 𝜎2
donde 𝑛 es el tamaño de la muestra, 𝑠 2 la varianza muestral y 𝜎 2 la varianza
de la población de donde se extrajo la muestra.
Ejemplo: Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de
sus destinos en una ciudad grande forman una distribución normal con una desviación
estándar 𝜎 = 1 minuto. Si se elige al azar una muestra de 17 tiempos, encuentre la
probabilidad de que la varianza muestral sea mayor que 2.
Primero se encontrará el valor de la chi-cuadrada, correspondiente a 𝑠 2 = 2
(𝑛 − 1)𝑠 2 (17 − 1) ∗ 2
𝜒2 = = = 2 ∗ 16 = 32
𝜎2 12
El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se
encuentra que a este valor le corresponde un área a la derecha de 0.01.
(f) Distribución de probabilidad beta: La función de densidad beta es una función de
densidad de dos parámetros definida sobre el intervalo cerrado 0 ≤ 𝑦 ≤ 1.
Frecuentemente se usa como modelo para proporciones, por ejemplo como la proporción
de impurezas en un producto químico o la proporción de tiempo que una máquina está en
reparación.
Se dice que una variable aleatoria 𝑌 tiene una distribución de probabilidad beta con
parámetros ∝ > 0 y 𝛽 > 0 si y sólo si la función de densidad de 𝑌 es

𝑦 ∝−1 (𝑦−1)𝛽−1
0≤𝑦≤1
𝐵(∝,𝛽)

𝑓(𝑦) = {
0 en cualquier otro punto,
donde
1
Г(∝)Г(𝛽)
𝐵(∝, 𝛽) = ∫ 𝑦 ∝−1 (𝑦 − 1)𝛽−1 𝑑𝑦 =
0 Г(∝ +𝛽)

Si 𝑌 es una variable aleatoria con distribución beta ∝ > 0 y 𝛽 > 0, entonces la esperanza
y la varianza están dadas por:
∝ ∝𝛽
𝐸(𝑌) = y 𝑉(𝑌) = (𝛼+𝛽)2
∝+𝛽 (𝛼+𝛽+1)
Las gráficas de funciones de densidad beta toman formas muy diferentes para diversos
valores de los dos parámetros ∝ y 𝛽. Algunos de éstos se muestran en la Figura 4.17 [2]

(g) Distribución de probabilidad t-student: Sean 𝑋 e 𝑌 dos variables aleatorias


independientes distribuidas según una distribución normal 𝑁(0,1) y una ci-cuadrado con 𝑛
grados de libertad 𝜒𝑛2 , respectivamente. La variable aleatoria
𝑋
𝑇=
√𝑌
𝑛
sigue una distribución t-student con 𝑛 grados de libertad que se denota por 𝑡𝑛 .

 Se dice que una variable aleatoria 𝑌 tiene una distribución de probabilidad t-student
si y sólo si la función de densidad de 𝑌 es
𝑛+1 𝑛+1
Г( ) − 2
2 𝑦2
𝑓(𝑦) = 𝑛 (1 + 𝑛
) −∞ < 𝑦 < ∞
√𝑛𝜋Г( 2 )

 Si 𝑌 es una variable aleatoria con distribución t-student, entonces la esperanza y la


varianza están dadas por:
𝑛
𝐸(𝑌) = 0 y 𝑉(𝑌) = para 𝑛 > 2
𝑛−2

La distribución t-student es simétrica con respecto al origen.


Gráficas de funciones de densidad t-student, con diferentes grados de libertad.

(h) Distribución de probabilidad uniforme: El valor de su función de densidad de


probabilidad es constante dentro de un intervalo y vale cero, fuera de él.

Si 𝑎 < 𝑏, se dice que una variable aleatoria 𝑌 tiene distribución de probabilidad uniforme en
el intervalo (𝑎, 𝑏) si y sólo si la función de densidad de 𝑌 es
1
𝑏−𝑎
si 𝑎≤𝑦≤𝑏

𝑓(𝑦) = {
0 en cualquier otro punto
Un modelo razonable para la función de densidad de 𝑌 se muestra en la Figura 4.9. Como
las áreas bajo las curvas representan probabilidades para variables aleatorias continuas y
𝐴1 = 𝐴2 (por inspección), se deduce que 𝑃(0 ≤ 𝑌 ≤ 2) = 𝑃(6 ≤ 𝑌 ≤ 8), cómo se
desea. [2]

Si 𝑎 < 𝑏 y Y es una variable aleatoria uniformemente distribuida en el intervalo (𝑎, 𝑏),


entonces la esperanza y la varianza están dadas por:
𝑎+𝑏 (𝑏−𝑎)2
𝐸(𝑌) = y 𝑉(𝑌) =
2 12

Ejemplo: Se sabe que, durante un periodo determinado de 30 minutos, un cliente llega a


la caja. Encuentre la probabilidad de que el cliente llegue durante los últimos 5 minutos del
periodo de 30 minutos.
El tiempo real de llegada sigue una distribución uniforme en el intervalo de (0, 30). Si
𝑌 denota el tiempo de llegada, entonces
30
1 30 − 25 5 1
𝑃(25 ≤ 𝑦 ≤ 30) = ∫ 𝑑𝑦 = = =
25 30 30 30 6

La probabilidad de que la llegada ocurra en cualquier otro intervalo de 5 minutos también


es 1⁄6.
BIBLIOGRAFÍA
1. Distribución Gamma, Ciencias Actuariales y Financieras ESTADÍSTICA ACTUARIAL NO VIDA.
http://files.freddy-jose-henriquez.webnode.com.ve/200000032-6c2186e155/distribucion-
gamma.pdf
2. Dennis Wackerly, William Mendenhall y Richard Scheaffer. Estadística matemáticas
con aplicaciones. Pag 114-174, ed séptima, 2010 por Cengage Learning Editores,
S.A.
3. https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/distributions/gamma-distribution/
4. Indira Arroyo. Luis Bravo, Dr. Ret. Nat. Humberto Llinás, Msc. Fabián Muñoz.
Distribuciones Poisson y Gamma: Una Discreta y Continua Relación, Prospect. Vol.
12, No. 1, Enero - Junio de 2014, págs. 99-107.
5. Prasanna Sahoo. PROBABILITY AND MATHEMATICAL STATISTICS. Department
of Mathematics. University of Louisville. Louisville, KY 40292 USA. Pag 174-176.
6. Espejo Miranda, Fernández Palacín, López Sánchez, Muñoz Márquez, Rodríguez
Chía, Sánchez Navas, Valero Franco. Estadística Descriptiva y Probabilidad.
Universidad de Cádiz. Tercera edición, 2006, pag 208.