Está en la página 1de 42

ESTADÍSTICA AVANZADA

4
1
Variables Discretas Notables
a) Variable de Bernoulli: Esta variable supone sólo dos posibles
resultados: Un suceso 𝐴 que sea exitoso y uno 𝐴ҧ que
denominaremos fracaso.
Las probabilidades de ocurrencia serán:
𝑝 = 𝑃 𝐴 y 𝑞 = 1 − 𝑝 = 𝑃 𝐴ҧ

Ejemplos: ¿Tiene COVID-19? ; lanzar una moneda al aire

b) Variable Binomial: Al realizar “n” experimentos de Bernoulli de


manera sucesiva, la variable:

𝑋 = 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑒 𝑒𝑙 𝑠𝑢𝑐𝑒𝑠𝑜 𝐴 𝑒𝑛 𝑙𝑎𝑠 "n" 𝑝𝑟𝑢𝑒𝑏𝑎𝑠


recibe el nombre de variable binomial de parámetros “n” y “p”.
𝑝 = 𝑃 𝐴 é𝑥𝑖𝑡𝑜 𝑒𝑛 𝑢𝑛𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 se denota: 𝑋 ∈ 𝐵 𝑛, 𝑝
La variable 𝑋 puede tomar los valores 0; 1; 2; … … . ; 𝑛 siendo la
probabilidad con que los toma:
𝑛 𝑘 𝑛−𝑘 𝑛 𝑛!
𝑃 𝑥=𝑘 = 𝑝 𝑞 ; donde =
𝑘 𝑘 𝑘!∙ 𝑛−𝑘 !

Ejemplo: Para la aprobación de un proyecto, un gerente debe


exponer a 10 personeros de una junta directiva. Para que el proyecto
sea rechazado, se requiere que al menos 7 de 10 de ellos voten en
contra.
Si cada uno de ellos toma su decisión lanzando una moneda al aire.
¿Cuál es la probabilidad que sea aprobado el proyecto?
c) Variable de Poisson: En un experimento aleatorio donde se
observa la aparición de un suceso concreto sobre un soporte
continuo, se debe cumplir que los sucesos ocurran de manera
independiente y con media estable.

Aquí la variable 𝑋 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 é𝑥𝑖𝑡𝑜𝑠 𝑒𝑛 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 se dice que


seguirá una distribución de Poisson de parámetro 𝜆 , denotada
𝑋𝜖𝑃𝑜𝑖𝑠 𝜆 , si:

Su distribución de probabilidad es:


𝜆𝑘
𝑃 𝑋=𝑘 = 𝑒 −𝜆 ∙ ; 𝑘 = 0,1,2, … . .
𝑘!

Se verifica que 𝐸 𝑋 = 𝑣𝑎𝑟 𝑋 = 𝜆

Observación: La variable de Poisson es una generalización de la


variable binomial.
Generalmente se utiliza Poisson para eventos que tienen una baja
ocurrencia, donde:

𝑛 𝑘 𝑛−𝑘 𝜆𝑘
𝑃 𝑋=𝑘 = 𝑝 ∙𝑞 ֜ 𝑒 −𝜆 ∙ n > 30 y p < 0,1
𝑘 𝑘!

Ejemplo: El Gerente de una empresa, despide a 5 personas en un


lapso de tiempo (no determinado), ¿cuál es la probabilidad que
despida a 2 personas en el mismo intervalo de tiempo?
Variable Uniforme Continua
Ella sigue una distribución uniforme entre dos valores “a” y
“b”, se denota como 𝑋 ∈ 𝑈 𝑎, 𝑏 .

La función de densidad tiene la siguiente expresión:


1
𝑓 𝑥 = 𝑏−𝑎 ; 𝑥 ∈ 𝑎, 𝑏
𝑠𝑖𝑒𝑛𝑑𝑜 𝑣𝑎𝑙𝑜 𝑛𝑢𝑙𝑜 𝑐𝑒𝑟𝑜 𝑒𝑛 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Variable Exponencial
Una variable 𝑋 se dice que tiene una distribución
exponencial de parámetro 𝜆 𝜆 > 0; 𝜆 𝜖 𝑅 , denotada 𝑋 ∈
𝐸𝑥𝑝 𝜆 , si su función de densidad es:

𝑓 𝑥 = 𝜆 ∙ 𝑒 −𝜆𝑥 ; 𝑥 > 0
𝑆𝑖𝑒𝑛𝑑𝑜 𝑐𝑒𝑟𝑜 𝑒𝑛 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
Propiedades:
1
1) 𝐸 𝑥 = 𝜆
; 𝜆≠0
1
2) 𝑉𝑎𝑟 𝑥 = 𝜆2
; 𝜆≠0

Ejemplo: La duración media de una corona dental es de 20


años. ¿Cuál es la probabilidad que dure más de 20 años?
(la duración corresponde a una variable aleatoria de tipo
experimental).
Variable Normal o Gaussiana
Una variable 𝑋 se dice que tiene que tiene una distribución
normal o gaussiana de parámetros 𝜇 y 𝜎, si su función de
densidad, es de la forma:

𝑥−𝜇 2
1
𝑓 𝑥 = 𝜎 2𝜋
∙𝑒 2𝜎2 ; −∞ < 𝑥 < ∞

Por otra parte, la esperanza y varianza son:



𝐸 𝑥 = න 𝑥 ∙ 𝑓 𝑥 𝑑𝑥 = 𝜇
−∞

𝑉𝑎𝑟 𝑥 = න 𝑥 − 𝜇 2 𝑓 𝑥 𝑑𝑥 = 𝜎 2
−∞
Notación: La media o esperanza es el parámetro 𝜇 y la
varianza es el parámetro 𝜎.

La función de densidad, es simétrica respecto a la media 𝜇,


es decir, las áreas a la derecha y a la izquierda, que son
probabilidades, coinciden. Las áreas pueden ser visualizadas
en el siguiente gráfico:
Observaciones:

1) Si tenemos una variable 𝑋 con media 𝜇 y con desviación


estándar 𝜎, a partir de ella se puede construir lo que se
𝑋−𝜇
conoce como variable tipificada o estandarizada: 𝑍 = ;
𝜎
verificándose que esta variable 𝑍 tiene media igual a 0 y DE
igual a 1.

2) La campana de Gauss, está asociada a los parámetros 𝜇 y


𝜎 2 que corresponden a un valor esperado y varianza
respectivamente iguales a:
𝑋 = 𝑁 𝜇; 𝜎 2
Ejemplo: Utilizando las tablas de distribución normal,
encuentre las probabilidades asociadas a una distribución
normal típica.

a) 𝑃 𝑍 ≤ 1,2 = ∅ 1,2

b) 𝑃 𝑍 < −0,65 = ∅ −0,65


c) 𝑃 0,5 ≤ 𝑍 ≤ 0,82 = ∅ 0,82 − ∅ 0,5

d) 𝑃 −0,5 ≤ 𝑍 ≤ 0,82
e) 𝑃 𝑍 > 1,45 = 1 − 𝑃 𝑍 ≤ 1,45 = 1 − ∅ 1,45

f) 𝑃 𝑍 ≥ −0,65 =
Variable Chi-Cuadrado (Pearson)
La función de densidad de esta variable, depende de un
número entero positivo llamado “grados de libertad”, hace
2
que se hable de la distribución 𝑥 con 𝑘 grados de libertad
𝑘
𝑘≥1 .

Se deben sumar 𝑘 variables aleatorias independientes con


distribución 𝑁 0; 1 , elevadas al cuadrado.
2 2 2 2
𝑋 = 𝑋 + 𝑋 + ⋯………+ 𝑋 ; con 𝑋𝑖 ∈ 𝑁 0; 1
𝑘 1 2 𝑘
Observación: Se utiliza para la elaboración de Intervalos de
Confianza y Contrastes de Hipótesis.
Variable T de Student
Nace de la Distribución Normal y la Chi-Cuadrado. Si 𝑍 es una
variable 𝑁 0; 1 e 𝑌 es una variable independiente (aleatoria)
de 𝑍, con distribución Chi-Cuadrado con 𝑛 grados de libertad,
entonces la variable:
𝑍
𝑡𝑛 =
𝑌ൗ
𝑛
es una variable con distribución 𝑡 con 𝑛 grados de libertad.

Observación: Si aumenta el grado de libertad, la curva se


parece cada vez más a la campana de Gauss; esto ocurre con
𝑛 = 40 siendo la coincidencia total 𝑛 = ∞.
Variable F de Fischer - Snedecor
Depende de dos parámetros 𝑛1 y 𝑛2 , que son sus grados de
libertad.
Aparece a través de la distribución 𝑋 2 , puesto que si 𝑋 sigue
2
una distribución 𝑋 e 𝑌 es otra variable (independiente de
𝑛1
2
𝑋) con distribución 𝑋 , entonces la variable 𝑊 definida
𝑛2
como:

𝑋ൗ
𝑛1
𝑊= 𝑌ൗ
𝑛2

sigue una distribución 𝐹 con 𝑛1 y 𝑛2 grados de libertad.


Desafío
Estimación Puntual
Busca un estimador que con base en los datos muestrales,
de origen a una estimación univaluada del valor del
parámetro.

El objetivo de la estimación puntual es aproximar el valor


del parámetro desconocido. Por este motivo, se utiliza la
información de la muestra 𝑥1 ; 𝑥2 ; … . . ; 𝑥𝑛 , a través de un
estimador.
Estimadores más utilizados:

Media Muestral: Es utilizada para estimar la media teórica


de una variable 𝑋:

𝑥1+⋯…..+𝑥𝑛
𝑥ҧ = 𝑛

Proporción Muestral: Es usada para estimar una proporción


de “p”.
Varianza Muestral: Se usa para estimar la varianza teórica
de una población, se puede utilizar la varianza de una
muestra:

𝑥1 −𝑥ҧ 2 +⋯………….+ 𝑥𝑛 −𝑥ҧ 2


𝑆2 =
𝑛

Cuasi-Varianza Muestral: Este estimador queda definido,


como:

2 𝑥1 −𝑥ҧ 2 +⋯……………+ 𝑥𝑛 −𝑥ҧ 2


𝑆 =
𝑛−1 𝑛−1
Propiedades de los Estimadores

Las propiedades de los estimadores, nos permite decidir,


cuál debemos utilizar para cada caso concreto que
enfrentamos.
Es importante considerar que las siguientes propiedades
son deseables.
A modo de ejemplo:
Estimadores Insesgados

Es cuando deseamos para un estimador, que el centro de la


distribución de los valores que puede tomar, coincida con el
valor del parámetro que queremos aproximar. Esto se llama
Insesgadez.
Ejemplo: Deseamos tener una estimación de la edad media
de personas mayores a 18 años en una determinada
población.

𝑥1 =

𝑥2 =
𝑥3 =
Estimadores Consistentes
Es consistente, cuando su varianza tiende a cero, si 𝑛 tiende
al infinito. Esta propiedad indica que si tomamos muestras
muy grandes (creciendo al infinito), la varianza se aproxima
a cero, es decir, siempre obtendremos valores muy
próximos entre sí.
Ejemplo: Usando el ejemplo anterior, en el cual realizamos
una consulta respecto a la edad, a mayores de 18 años.
Ejemplo: Una empresa minera, entrega a sus 20.324
trabajadores, zapatos de seguridad.
Se desea obtener la media del número de calzado del total
de trabajadores, pero se encuentran con la imposibilidad de
obtener los datos de todos ellos, ¿cómo obtener una
alternativa viable y que se acerque al valor real que se
quiere obtener?

También podría gustarte