Está en la página 1de 74

ESTADÍSTICA APLICADA

1
Mapa conceptual
ESTADÍSTICA
Conceptos Básicos
Estadística
Descriptiva
Población Muestra

Parámetro Estimador
PROBABILIDAD
Conceptos Básicos

Distribuciones Continuas, Normal,


de Probabilidad ji-cuadrado, t de
Discretas, Student
Binomial, otras
Distribuciones
en el Muestreo

Desigualdad de Tchebysheff, Ley


de los grandes Números,
Teorema Central del Limite.

INFERENCIA

Estimación Prueba de Hipótesis


para una y dos
Puntual Por intervalos poblaciones
2
3
En General:

Particularmente

4
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
Pasos:
1. Conocer la población, la distribución que sigue la variable poblacional y el
parámetro p a estimar
La población es el universo compuesto por M elementos o individuos del que
se desea conocer el valor de determinado parámetro p
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá un
nuevo producto?
Si la variable aleatoria X se define como “disposición a consumir el nuevo
producto”, su distribución será Bernoulli de parámetro p desconocido

2. Determinar la aproximación que se va a utilizar para la determinación del


parámetro poblacional a partir de la información muestral
La muestra es la parte de la población compuesta por n elementos, n<M, de la
que se pretende extraer conclusiones generalizables para la población, con un
margen de error
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá un
nuevo producto?
Aproximación: % de los n individuos dispuestos a consumir el producto
(muestra)
5
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA

3. Extracción de la muestra aleatoria {X1 ,..., X n }


Una m.a. está compuesta por v.a. i.i.d.:
a) las v.a. están idénticamente distribuidas, lo que no implica que midan lo mismo
ni que tomen lo mismos valores: FX = FX (t) i

b) las v.a son independientes, lo que implica que el valor que toma una variable es
independiente del que tome otra

4. Obtener la muestra o datos {x 1 ,..., x n }

5. Elegir el estadístico muestral


Definición de estadístico muestral: cualquier función de los elementos de la
muestra (por tanto variable aleatoria) que informa sobre el parámetro a determinar

Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá un


nuevo producto?
Estadístico muestral: El parámetro poblacional p es la media de la variable
aleatoia poblacional X. El estadístico muestral apropiado será la media muestral
[ ]
EX =p

6
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA

6. Obtención del valor para el parámetro desconocido

Estimación puntual
Teoría de la estimación

Estimación por intervalos

7. Realizar afirmaciones sobre el valor del parámetro o sobre la distribución


poblacional susceptibles de ser refutadas

Simples
Paramétricas
Compuestas
Contrastaste de hipótesis
No Paramétricas

7
ESTADÍSTICOS Y DISTRIBUCIONES MUESTRALES

De la extracción de la muestra (método de muestreo) y de la elección del


estadístico muestral dependerá la calidad de los resultados respecto a la
aproximación al parámetro poblacional

PROPIEDADES DEL ESTADÍSTICO MUESTRAL

1. Es una variable aleatoria y, como tal, susceptible de cualquier medida


estadística
2. Proviene de la muestra, con lo que sólo sirve para extraer aproximaciones al
verdadero valor del parámetro poblacional desconocido
3. A mayor tamaño muestral, menor incertidumbre en la aproximación

8
9
Notación
Momentos muestrales: desconocidos, no constantes
MUESTRA
n
1
ALEATORIA
Mk =
n
∑X
i =1
k
i X, Σ 2n , S2n

Momentos poblacionales: desconocidos, constantes


POBLACIÓN
mk = E 
 X k

 µ, σ 2

Valor estimado del momento muestral: conocidos,


MUESTRA
constantes
1 n k
m̂ k = ∑ x i x, Σ ˆ2, S
n
ˆ2
n
n i =1

 E  M k  = m k

Relación entre momentos muestrales y momentos poblacionales  σ2
 Var  M k  = n

Se espera que el k-ésimo momento muestral coincida con el k-ésimo momento poblacional
La varianza del k-ésimo momento muestral es la varianza poblacional dividida por n

10
Ejemplo

11
Ejercicio

12
TEORÍA DE LA ESTIMACIÓN
Sea X una v.a.
¿Cómo se determina
el valor de γ?

Conjunto paramétrico: Γ
Estimación Estimación
puntual por intervalos

Restringir el conjunto paramétrico

Cálculo de la estimación γ̂

Definición de estimador
(estadístico muestral) Γ̂ Muestra

13
MÉTODOS DE OBTENCIÓN DE ESTIMADORES
El estimador se obtiene maximizando la
MÉTODO DE LA función de verosimilitud L (probabilidad de
MÁXIMA VEROSIMILTUD (MV) observar la muestra observada para cada
valor asignado al parámetro)

 n
∏ P ( X = x i ) , caso discreto

L ( γ ) = i =n1
 f (x ),
∏
 i =1
X i caso continuo

El valor que maximice esta función (la estimación) coincidirá con aquel para el que la
probabilidad de observar la muestra realmente observada sea máxima
a) Caso unidimensional (un parámetro a estimar). Ya sea el caso discreto o continuo, se
deberá derivar la función L respecto al parámetro desconocido.
b) Caso bidimensional (dos parámetros a estimar). Ya sea el caso discreto o continuo, se
deberá derivar la función L respecto a los dos parámetros desconocidos.

Los estimadores MV son los más usados porque basan la estimación en la información
muestral (función de verosimilitud) y porque cumplen algunas propiedades deseables.

14
Procedimiento

Sea X una variable aleatoria cuya distribución de probabilidad


depende del parámetro desconocido θ. Sea la función de
densidad de probabilidad de la población f(x,θ).

1. Se toma una muestra aleatoria x1, x2, ..., xn de observaciones


independientes y se calcula la densidad conjunta de la muestra:
la función de verosimilitud y se expresa como:

L(x1,...,xn , θ ) = f(x1, θ ) ⋅ f(x2 , θ ) ⋅ ... ⋅ f(xn , θ )


n
L(x1,...,xn , θ ) = ∏ f ( xi , θ )
i =1

15
Si de una población cualquiera hemos obtenido una muestra
particular, es razonable pensar que la muestra obtenida era
la que mayor probabilidad tenía de ser escogida.

Función
máxima
verosimilitud

θˆ θˆ
MV Valor del estimador máxima
verosimilitud 16
Si los valores posibles de θ son discretos, el procedimiento
es evaluar L(x,θ) para cada valor posible y elegir el valor de
θ para el cual L alcanza su máximo.

Por otro lado, si L(x,θ) es diferenciable se puede maximizar


L sobre el rango de valores posibles de θ obteniéndose
condiciones de primer y segundo orden.

2. En la práctica es más fácil maximizar el logaritmo de la


función de verosimilitud. Como la función logaritmo es una
transformación monótona, maximizar L(x,θ) es equivalente a
maximizar Ln(L(x,θ)).

17
3. Derivamos respecto al parámetro-objetivo.

4. Igualamos a cero para encontrar el máximo de la función

5. Verificamos la condición de máximo

18
Ejercicio
Supongamos que los tiempos de fallos de ciertas
componentes electrónicas, X, provienen de una
distribución exponencial de parámetro θ. Dada una
muestra de n componentes, obtenga el E.M.V. de θ.

19
Solución
La función de densidad es:

Y se dispone de los tiempos de fallo de n


componentes elegidas al azar x1, x2,…, xn.

La función de verosimilitud está dada por:

20
Resolviendo la ecuación de verosimilitud

se concluye que el EMV para θ por este


procedimiento viene dado por

21
Ejercicio

22
Solución

23
24
Ejercicio

25
Solución

26
27
28
EL MÉTODO DE LOS MOMENTOS
Fue introducido por K. Pearson y es el método general más antiguo y sencillo
para la obtención de estimadores de parámetros poblacionales. En algunas
ocasiones se suele utilizar para obtener una primera aproximación de los
estimadores. Este método consiste en igualar tantos momentos muestrales
como parámetros haya que estimar, a los correspondientes momentos
poblacionales, que son funciones de los parámetros desconocidos, y
resolviendo el sistema de ecuaciones resultante tendríamos los estimadores de
los parámetros.

Procedimiento

29
30
31
Ejemplo

Solución:

32
Luego igualando

33
34
Ejemplo

Solución:

35
36
37
38
Realizada la estimación de un parámetro cabe
preguntarse:
• ¿ Es exacta la estimación?
• ¿Es probable que la estimación sea alta o baja?
• ¿Con otra muestra se obtendría el mismo resultado, o
bastante diferente?
• ¿La calidad de un procedimiento de estimación mejora
bastante si la estadística de la muestra es menos variable e
insesgada a la vez?

39
Propiedades de los estimadores
El estimador es un estadístico muestra, y, como tal, es cualquier función de la muestra. Por
tanto, y aunque los derivados de alguno de los métodos de estimación sean siempre más
apropiados, dependiendo del parámetro desconocido, la elección del estimador generará una
mejor o peor aproximación al verdadero valor del parámetro. De ahí, la importancia de
definir propiedades de los estimadores que permitan realizar la elección del estimador de
forma más adecuada. Un estimador será mejor cuantas más propiedades cumpla.

1. Insesgadez
Definición : Γˆ es insesgado si E Γˆ  =γ Estima exactamente

 Si E Γˆ  ≠ γ : b(Γˆ =
) E Γˆ  − γ (sesgo de Γˆ )

 Si lím b(Γˆ ) = 0 ⇔ lím E Γˆ  = γ ⇒ Γˆ es asintóticamente insesgado


n →∞ n →∞

40
41
2. Eficiencia y Preferibilidad

42
Nota:
−1
  ∂ ln f ( y, γ )   
[]
2
ˆ = nE 
a) Si Var Γ     ⇒ θˆ es eficiente
  ∂γ   

b) Sean θˆ1 ~
y θ 2 dos estimadores de θ. Se llama

eficiencia relativa de θ~2 c / r θˆ1 a:

ECM 2 ) (θ
~
ef (θ 2 ,θ1 ) =
~ ˆ
ECM (θˆ1 )

43
Ejemplo

44
Solución

45
46
47
Ejemplo
Demostrar que dada una población N(µ, σ2) se verifica que la media
muestral X es un estimador eficiente de la media poblacional µ

Solución
En efecto

1 ( x−µ )2
1 −
ln f ( x; µ ) = ln + ln e 2 σ2

σ 2π
1 1 ( x − µ )2
= ln −
σ 2π 2 σ 2

∂ ln( f ( x; µ ) x − µ
=
∂µ σ2
48
 ∂ ln( f ( x; µ )  2   X − µ  2 
nE    = nE   
 ∂µ    σ  
2

=
n
σ 4
[
E (X − µ )
2
]
n n n
= Var ( X ) = σ = 2

σ 4
σ 4
σ2
Luego

1 σ2
Var ( µˆ ) = Var ( X ) = =
 ∂ ln( f ( x; µ )  2
 n
nE   
 ∂µ  
49
Ejemplo

Solución

50
´´´´´´´´´´´´´´´´´´´´´´´´´´´

51
52
53
3. Consistencia

n →∞
( )
Definición : Γˆ es un estimador consistente de γ ⇔ ∀ε > 0 : lím P Γˆ − γ > ε = 0 ⇔ Γˆ 
P
→γ

 Si Γˆ  
m.c
→ γ ⇒ Γˆ 
P
→ γ ⇒ Γˆ es consistente
 lím Var Γˆ
 n →∞ () Γˆ es un estimador
(
→ γ ⇔ lím  E Γˆ − γ ) =
2
n →∞
 Si Γˆ  
m.c
0 ⇒ ECM  →0 ⇔  ⇒
n →∞ 
 
 lím b Γ
 n →∞
ˆ () fuertementeconsistente

54
55
Ejemplo

Solución

56
57
Resumen práctico

Estimador = Tiro al blanco

58
59
PROPIEDADES DE LOS ESTIMADORES OBTENIDOS
POR EL MÉTODO DE LOS MOMENTOS

60
EJERCICIOS RESUELTOS

Ejercicio 1

61
Solución

62
Ejercicio 2

63
Solución

64
Ejercicio 3

si

Obtener el valor esperado y la varianza de S2. ¿Es consistente?

65
Solución

como

tenemos

66
Luego

Por tanto, S2 es un estimador consistente para σ2

67
Ejercicio 4

68
Solución

69
Ejercicio 5

70
Solución

71
72
73
Ejercicio 6
La v. a. X sigue distribución U(0, θ), donde θ es un
valor positivo y desconocido. Se extrae una m. a. s.
de tamaño n (n>2). ¿Dado los estimadores siguientes
de θ, ¿Cuáles de los siguientes errores cuadráticos
medios son correctos?

74

También podría gustarte