Está en la página 1de 31

Metodos Estadsticos

Elosa Daz Francs


Universidad de Guanajuato
Enero Junio 2012

Eugenio Daniel Flores Alatorre


Bibliografa
[1] Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Vol. 2. Springer-Verlag.

[2] Roussas, G. G. (1997). A Course in Mathematical Statistics. Academic Press.

[3] Mood, A. M., Graybill, A. F. y Boes, D. (1974). Introduction to the Theory of Statistics. Mc Graw
Hill.

[4] Hogg, R. V. y Craig, A. T. (1978). Introduction to Mathematical Statistics. Collier Mac Millan
Internacional Editions.

[5] Bhataccharyya y Johnson (2006). Statistics: Principles and Methods. John Wiley & Sons.

[6] Pawitan, Y. (2001). In All Likelihood. Statistical Modeling and Inference Using Likelihood.
Oxford: Oxford Science Publications.

[7] Sagan, Carl (1995). El mundo y sus demonios. La ciencia como una luz en la oscuridad. Mxico:
Editorial Planeta.

[8] Sprott, D. A. (2000). Statistical Inference in Science. Springer-Verlag.

[9] Evans, M., Hastings, N. y Peacock, B. (1993). Statistical Distributions. John Wiley & Sons.

[10] Serfling, R. (1980). Approximation Theorems of Mathematical Statistics, Wiley.

[11] Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Vol. 1. Springer-Verlag.

*12+ Box, G. E. P. (1980). Sampling and Bayes Inference in Scientific Modelling and Robustness.
JRSS, Series A, V.143, No. 4. pp. 383-430.

Objetivos del curso


Dar una cultura general sobre el razonamiento inductivo-deductivo y conceptos bsicos de
la Inferencia Estadstica, destacando el mbito cientfico para analizar fenmenos
naturales repetibles.
Describir, discutir y aplicar a diversos problemas reales el proceso de modelacin
estadstica: Sugerir, estimar y validar un modelo estadstico para describir adecuadamente
un fenmeno repetible de inters, modificando el modelo si fuese necesario y repitiendo
este proceso hasta converger al mejor modelo para el fenmeno, (Box, 1980).
Presentar el problema general de estimacin de parmetros de modelos estadsticos
paramtricos, desarrollando para ello conceptos bsicos relevantes de teora estadstica.
Distinguir la diferencia entre las situaciones que requieren probar hiptesis y en las que se
necesita estimar parmetros en el proceso de modelacin estadstica.
Desarrollar las habilidades computacionales del estudiante para fortalecer el conocimiento
aprendido en la gran mayora de los temas tratados en el temario.
Temario
1. Introduccin a la modelacin estadstica y al razonamiento inductivo. Objetivos de la
modelacin estadstica. Modelos probabilsticos y estadsticos, relacin y diferencias; ejemplos.
Modelos paramtricos y no paramtricos. Familias de distribuciones ms importantes. La ciencia y
la importancia de la Estadstica en ella. [Box, 1980; Captulo 1 Sprott; Captulos 1-3 Sagan]

2. Conceptos fundamentales de estimacin en la modelacin estadstica.

2.1. La funcin de verosimilitud completa de los parmetros de un modelo estadstico y sus


propiedades: Invarianza. El estimador de mxima verosimilitud (EMV). La funcin de verosimilitud
relativa como estandarizacin de la verosimilitud y su interpretacin en trminos de simetra,
localizacin, dispersin y rango de valores del parmetro con plausibilidad. Regiones e intervalos
de verosimilitud y su interpretacin. Exploracin analtica de la verosimlitud relativa a travs de su
expansin en series de Taylor alrededor del EMV. La informacin observada de Fisher, su relacin
con esta expansin y con determinar la curvatura de la verosimilitud. La informacin esperada de
Fisher. Aproximaciones normales a la verosimilitud. [Captulo 9 Kalbfleisch, Pawitan].

2.2 Otros mtodos de estimacin puntual. Estimadores de momentos. Estimador de mnima Ji-
cuadrada (Mood, Graybill y Boes).

2.3 Suficiencia. [1 semanas] Identificacin de estadsticas suficientes a partir de la funcin de


verosimilitud. El Teorema de Factorizacin de Fisher. Propiedades de estadsticas suficientes.
Relacin del concepto de suficiencia con la familia exponencial y con la familia de localizacin y
escala. [Secciones 15.1 y 15.2, Kalbfleisch]

2.4 Consistencia. Definicin e importancia. (Serfling).

2.5 Otras propiedades asintticas importantes de estimadores: a) Insesgamiento [Kalbfleisch,


Seccin 11.7], b) Cota para la varianza de estimadores insesgados de Cramer-Rao. [Serfling, y
Mood, Graybill y Boes], c) Propiedades asintticas del EMV como estimador puntual: el Teorema
de Mxima Verosimilitud (Serling), d) Propiedades asintticas del estimador de momentos
(Serfling).

2.6 Estimacin por intervalos de un parmetro de inters.

2.6.1 Intervalos aleatorios y probabilidades de cobertura.

2.6.2 Intervalos de confianza para un parmetro. Cantidades pivotales y su uso para construir
intervalos de confianza.

2.6.3 Intervalos de verosimilitud-confianza para el parmetro de inters. Comparacin e


importancia de las propiedades de verosimilitud y de confianza de un intervalo de estimacin.
[Captulo 11 de Kalbfleisch].
2.6.4. Obtencin de intervalos de confianza en el caso de muestras finitas, incluso pequeas, a
partir de cantidades pivotales asintticas: a) a travs de la aproximacin normal a la verosimilitud,
b) a travs de la aproximacin Ji-cuadrada para la distribucin del negativo del doble de la log
razn de verosimilitud.

2.7. Criterios de optimalidad para seleccionar estimadores; ventajas y desventajas del error
cuadrtico medio como criterio. Propiedades deseables de estimadores: insesgamiento asinttico,
consistencia y eficiencia. Intervalos de estimacin vs. estimadores puntuales.

2.8. Modelos estadsticos multiparamtricos. El problema de estimacin por separado de


parmetros de inters en presencia de parmetros de estorbo. La funcin de verosimilitud perfil.
La funcin de verosimilitud condicional y marginal como otras posibilidades.

3. Introduccin a pruebas de hiptesis y de significancia. Conceptos bsicos. Uso adecuado de p-


valores. El rol importante que juegan en la validacin de modelos estadsticos [Captulo 6, Sprott,
Bhattacharyya y Johnson, Captulo 6.]

4. Comparacin y seleccin de modelos estadsticos paramtricos. La razn de verosimilitud como


herramienta de comparacin para modelos estadsticos anidados y no anidados. Pruebas de
hiptesis asociadas en el caso de modelos anidados. El criterio de Akaike. Ejemplos. [Box, 1980;
Captulo 11 de Kalbfleisch; Pawitan, Captulo 3].
Proceso de modelar estadsticamente un fenmeno aleatorio
1) Fenmeno de inters con datos

Un fenmeno aleatorio obtenido de la naturaleza a partir de la observacin y la experimentacin.


Se buscan explicaciones con la ciencia y la religin. Es importante tener los datos o sera imposible
cualquier modelacin.

Mientras que las matemticas funcionan de manera deductiva, y la probabilidad tambin, la


estadstica, como parte de la matemtica aplicada, funciona de manera inductiva.

2) Planteo de un modelo
3) Estimacin del parmetro
4) Validacin del modelo
5) Comparacin con otros modelos

Modelo de probabilidad: una variable aleatoria con distribucin conocida. En un modelo de


probabilidad conocemos todos los parmetros de una variable aleatoria, pero desconocemos los
datos.

Se representa como una terna donde el primer elemento es un conjunto de resultados


posibles del experimento, el segundo es una sigma-lgebra que contiene los elementos del primer
elemento de la terna y el tercero es una funcin de probabilidad

donde a cada elemento le asocia su probabilidad. Tradicionalmente, asociamos esta funcin con la
funcin de distribucin de una variable aleatoria:

donde X es una variable aleatoria con los parmetros completamente especificados . Es


decir, todas las probabilidades de los eventos son conocidas o para conocerlas slo hace falta
usar las funciones de distribucin o densidad.

Ejemplo:

Una variable aleatoria Poisson con parmetro . Si nos preguntamos por ,


pues sabemos que en una variable aleatoria que distribuye como una Poisson,
Modelo estadstico: conjunto de modelos de probabilidad. En un modelo estadstico
desconocemos los parmetros y la distribucin que ms adecuadamente pueda describir un
fenmeno del cual tenemos un conjunto de datos.

Ejemplo:

Una variable aleatoria con distribucin Normal y parmetros desconocidos.

Clasificacin de variables
Existen numerosas maneras de clasificar las variables aleatorias segn si distribucin. Estas
clasificaciones se conocen como familias de distribuciones. Dos de las ms grandes son las
siguientes:

Discretas Continuas
Poisson Normal
Geomtrica Exponencial
Bernoulli Gama
Hipergeomtrica Uniforme
Multinomial Ji-cuadrada
Binomial Negativa LogNormal
Uniforme t-Student
Weibull
Gumbell
Frchet
F-Fisher
Rayleigh
Maxwell
Beta
Logstica
LogF
Pareto
Cauchy
En cuya clasificacin caben todas las variables aleatorias conocidas.

Antes de continuar con la clasificacin, introducimos un teorema importantsimo para poder


determinar si una variable pertenece o no a una familia dada.

Teorema de cambio de variable


Sea X una variable aleatoria continua con funcin de densidad . Interesa encontrar la
densidad de , donde es una funcin continua e invertible, de tal manera que
. Entonces
Quantiles de una distribucin
Definimos la Funcin de Quantiles (Inversa Generalizada) de la siguiente manera:

que funciona adecuadamente tanto para distribuciones continuas como para discretas.

Familias de distribuciones
Las principales familias de distribuciones, adems de las continuas y discretas, son:

1) Familia Exponencial de k parmetros

Se dice que una variable aleatoria pertenece a esta familia si su funcin de probabilidad o de
densidad se puede factorizar de la siguiente manera:

donde la funcin A es funcin nicamente de los parmetros, no necesariamente de los k, la


funcin es funcin nicamente de la variable y ambas son no negativas.

Ejemplo 1: La distribucin normal.

Consideremos una variable con distribucin normal . Recordando, si , entonces

Dado que

Proponemos la siguiente factorizacin:

Donde, definiendo
concluimos que la distribucin normal pertenece a la familia exponencial.

Ejemplo 2: La distribucin Poisson.

Consideremos una variable aleatoria con distribucin Poisson . Recordando, si


entonces

Proponemos la siguiente factorizacin

donde

que nos permite concluir que la distribucin Poisson tambin pertenece a la familia exponencial.

Ejemplo 3: La distribucin Binomial con N conocida.

Recordamos la funcin de probabilidad de la distribucin Binomial y la factorizamos de tal manera


que podamos concluir que pertenece a la familia exponencial

Observamos que si ambos parmetros N y p fueran desconocidos, entonces no sera posible


encontrar una factorizacin que nos permita incluirla dentro de esta familia, pues

no se puede separar en funciones multiplicativas donde cada una dependa slo del argumento o
slo de los parmetros.
2) Localizacin y escala

Tiene exclusivamente dos parmetros, uno de localizacin y otro de escala. Los denotamos por
respectivamente.

Reconocemos que una distribucin pertenece a esta familia si

a) la densidad se puede escribir

donde es el miembro estndar de la densidad, y su densidad no depende ni de ni


de .

b) si tiene densidad que no depende de ninguno de los parmetros, entonces X


pertenece a la familia de localizacin y escala.

Ejemplo 1: La distribucin Normal.

Puesto que , tenemos que . Usando el Teorema de Cambio de Variable,


conociendo la densidad de la distribucin Normal, tenemos que

y, para concluir que la distribucin normal pertenece a esta familia, queremos ver que esa funcin
de densidad no depende de los parmetros de localizacin o escala.

que claramente no depende de los parmetros de localizacin o escala y, por lo tanto, nos permite
concluir que la distribucin normal pertenece a la familia de localizacin y escala.

Ejemplo 2: La distribucin Lognormal.

Recordemos que una variable aleatoria Z tiene distribucon Lognormal si su logaritmo distribuye
como una Normal con parmetros . Es decir, si , entonces ,
o bien, .

Usando el Teorema de Cambio de Variable,


que claramente depende de los parmetros y que no es posible simplificar de alguna manera que
no dependa.

3) Valores extremos

Una aplicacin importante del teorema de convergencia aparece en el estudio de las posibles
distribuciones lmite para mximos normalizados de variables aleatorias independientes,
idnticamente distribuidas. Supongamos que es una sucesin independiente,
idnticamente distribuida con funcin de distribucin comn y sea

Supongamos que existen constantes y para tales que

dbilmente cuando donde es propia ( ) y no est concentrada en un punto.


Entonces pertenece a alguna de las siguientes tres familias de distribuciones:

(a) Tipo I: , .

(b) Tipo II: , para algn .

(c) Tipo III: , para algn

Este teorema fue originalmente propuesto por Fisher y Tippet en 1928 y demostrado
rigurosamente por Gnedenko en 1943. La distribucin (a) es la distribucin de Gumbel, (b) es la
distribucin de Frchet y (c) es la distribucin de Weibull.

4) Transformaciones de Box y Cox

La familia de transformaciones ms utilizada para resolver los problemas de falta de normalidad y


de heterocedestacidad es la familia Box-Cox, cuya definicin es la siguiente.

Se desea transformar la variable , cuyos valores muestrales se suponen positivos, en caso


contrario se suma una cantidad fija tal que La transformacin de Box-Cox depende
de un parmetro por determinar y viene dada por
donde y .

Si se quieren transformar los datos para conseguir normalidad, el mejor mtodo para estimar el
parmetro es el de mxima verosimilitud.

5) Simtricas (Densidades alrededor de la moda)

Distribucin Gama con parmetro

6) Asimtricas

Distribucin Gama con parmetro


Teorema Integral de probabilidad
Si X es una variable aleatoria con funcin de distribucin continua entonces se
distribuye uniformemente en el intervalo . Inversamente, si se distribuye uniformemente
en el intervalo entonces tiene funcin de distribucin .

Demostracin

Ida:

Regreso:

Ejemplo:

Utilizando el teorema integral de probabilidad, describe el procedimiento para simular

a) (exponencial)

Recordando que

definimos

b) (gumbel)

Funcin Generadora de Momentos


La funcin generadora de momentos o funcin generatriz de momentos de una variable aleatoria
es:

siempre que esa esperanza exista.

La funcin generadora de momentos se llama as porque, si existe un entorno de , permite


generar los momentos de la distribucin de probabilidad:
Funcin de distribucin emprica
Sean variables aleatorias independientes idnticamente distribuidas. Entonces

adems . Luego, es un promedio de variables aleatorias con


distribucin independientes idnticamente distribuidas donde , as, por la
Ley fuerte de los grandes nmeros:

o bien,

De manera habitual trabajaremos con

para que

Ejemplo:

Gumbel de mximos, .

entonces

Veamos que podemos calcular los cuantiles de la siguiente manera:

donde y es nuestra variable con distribucin estndar.

En ocasiones alguna variable de localizacin y escala podemos reescribir la distribucin en


trminos de un cuantil y el parmetro de escala:
y se logra gracias al resultado anterior:

Modos de convergencia
Convergencia casi segura

Se dice que la sucesin converge casi seguramente o con probabilidad 1 o fuertemente a


, denotando esto por

si existe un evento de medida cero tal que para cada se tiene que

Convergencia en probabilidad

Se dice que la sucesin converge en probabilidad a , denotando esto por

si para se tiene que

o, equivalentemente,

Convergencia en distribucin

Se dice que la sucesin converge en distribucin o en ley o dbilmente, denotado por

o, equivalentemente,
si se tiene que

para toda que sea punto de continuidad de .

Ley fuerte de los grandes nmeros

Sea una sucesin de variables aleatorias independientes idnticamente distribuidas con


media y considrese la sucesin de los promedios aritmticos , entonces
se cumple

Ley dbil de los grandes nmeros

Sea una sucesin de variables aleatorias independientes idnticamente distribuidas con


media y considrese la sucesin de los promedios aritmticos , entonces
se cumple

Demostracin: P.D.

Por el Teorema Chebyshev,

aplicado para :

pues

entonces
Teorema de Glivenko-Cantelli
El Teorema de Glivenko-Cantelli es consecuencia de la Ley fuerte de los grandes nmeros.

Sea una sucesin de variables aleatorias independientes, idnticamente distribuidas. Luego la


funcin de distribucin emprica de los primeros trminos converge casi seguro a la funcin de
distribucin de .

Demostracin: Por la ley fuerte de los grandes nmeros, es obvio que para cada tenemos la
convergencia casi segura:

Es fcil ver, usando la monotona de y que esto implica el teorema.

Funcin Indicadora
Definimos la funcin indicadora de un conjunto como

En la mayora de los casos, las densidades o funciones de probabilidad de una distribucin pueden
expresarse en trminos de funciones indicadoras o, al menos, pueden incluirlas como un factor,
para asegurar que los parmetros cumplen las condiciones fijadas de inicio.

Invarianza
Hay dos aspectos de invarianza necesarios: mediciones y parmetros.

Cantidad Pivotal
Sea una variable aleatoria cuya distribucin depende de un parmetro desconocido y sea
una muestra aleatoria de

La cantidad pivotal o simplemente, el pivote- es una funcin de la muestra


aleatoria y de un parmetro de inters que tiene distribucin completamente especificada que no
depende de ni de ningn otro parmetro desconocido.

Si es una funcin montona de , se obtiene un intervalo de confianza para ,


encontrando dos valores tales que, fijando un nivel de confianza de ,
donde se obtienen a partir de la distribucin del pivote, que es conocida.

Una vez determinados los valores de , la expresin del intervalo se obtiene despejando de
la ecuacin resultante.

Mtodos de estimacin de parmetros


Para variables aleatorias independientes, idnticamente distribuidas con y
desconocido, existen varios mtodos para estimar el parmetro.

1) Mtodo de momentos (propuesto por Karl Pearson).


2) Mtodo de mnima Ji-cuadrada (propuesto por Karl Pearson).
3) Mtodo de mxima verosimilitud (propuesto por Ronald Fisher).

Mtodo de momentos

Para estimar el parmetro donde , se igualan los primeros momentos (centrales o


no centrales) empricos con los tericos.

Momentos Empricos:

No centrales:

para

Centrales:

Momentos Tericos:

No centrales:

para

Centrales:

Mtodo de mxima verosimilitud


Sea un conjunto de variables aleatorias independientes, idnticamente distribuidas
como y sean una realizacin. La funcin de mxima verosimilitud se define
proporcional a la probabilidad conjunta de las variables aleatorias observadas.

1) Caso discreto:

donde

2) Caso continuo:

donde es la precisin del instrumento de medicin.

Generalmente, usaremos para el caso continuo la aproximacin continua a la funcin de


verosimilitud, es decir:

donde es una funcin constante con respecto al parmetro. Normalmente escogemos esta
funcin de modo que nos quede la verosimilitud en funcin nicamente del parmetro de inters
en la medida de lo posible.

Ser comn utilizar la funcin de log verosimilitud:

Tanto para la funcin verosimilitud como para la log verosimilitud, la eleccin de la funcin
constante no afecta el punto de maximizacin. Existen casos en los que es posible maximizar
cualquiera de estas dos funciones analticamente sin problemas. Cuando no, consideramos la
funcin marcador (score) definida como:

y encontramos el mximo despejando de . Es necesario verificar que sea un mximo e,


idealmente, tambin que sea un mximo global. Para ello, consideramos la funcin de la
informacin de Fisher como
menos la segunda derivada con respecto al parmetro. Habremos encontrado un mximo cuando

Teorema de Sluisky
Sea una muestra de variables aleatorias independientes, idnticamente distribuidas y
una funcin continua. Si

entonces

es decir, convergen en distribucin.

Propiedades deseables de un estimador


1) Consistencia.
2) Invarianza frente a reparametrizaciones uno a uno de y frente a las unidades de
medicin de la muestra.
3) Insesgamiento asinttico sobre insesgamiento para fija:

Consistencia

Sea una muestra de variables aleatorias independientes, idnticamente distribuidas


como con desconocida. Sea un estimador de . Se dice que

1) es consistente fuerte si

2) es consistente dbil (o estadstico o simple) si

3) es consistente en media -sima si


Tareas
Tarea 1
3. Encuentra la relacin que hay entre las siguientes dos variables aleatorias normales,

Queremos probar que . Es decir, . Usaremos el Teorema del Cambio de


Variable. Conocemos

y usando el Teorema del Cambio de Variable, suponiendo que

que es la distribucin de .

4. Considera la distribucin Gumbel. Da una expresin para el cuantil de probabilidad


. En particular, encuentra el cuantil de probabilidad 0.25 para una Gumbel con
parmetro de localizacin 5 y de escala unitaria.

Recordemos que si , entonces

de donde podemos concluir, aplicando repetidamente la respectiva funcin inversa, que

Ahora, si y y buscamos , tenemos:

5. Si es una exponencial con parmetro de escala , encuentra cul es la densidad de


. Nota que esta densidad es tambin una Gama e identifica cules son sus
parmetros. Encuentra cul es la distribucin de .

Recordemos que si , entonces


As que si , usando el Teorema del Cambio de Variable,

que distribuye igual que una variable aleatoria Gama, .

Anlogamente,

que es una ji cuadrada con 1 grado de libertad.

6. Si es una variable Poisson con parmetro de intensidad 50 y , cul es la


probabilidad de cero conteos, ?

Recordando, si entonces

Puesto que y sustituyendo por , tenemos

que para , nos queda


TAREA 2
TAREA 3
GUA PRIMER PARCIAL
1. La diferencia entre un modelo estadstico y uno probabilstico.

Modelo de probabilidad: una variable aleatoria con distribucin conocida. En un modelo de


probabilidad conocemos todos los parmetros de una variable aleatoria, pero desconocemos los
datos. Ejemplo: Una variable aleatoria Poisson con parmetro . Si nos preguntamos por
, pues sabemos que en una variable aleatoria que distribuye como una Poisson,

Modelo estadstico: conjunto de modelos de probabilidad. En un modelo estadstico


desconocemos los parmetros y la distribucin que ms adecuadamente pueda describir un
fenmeno del cual tenemos un conjunto de datos. Ejemplo: Una variable aleatoria con
distribucin Normal y parmetros desconocidos.

2. Los pasos del proceso de modelar estadsticamente un modelo aleatorio de inters.

1) Fenmeno de inters con datos


2) Planteo de un modelo
3) Estimacin del parmetro
4) Validacin del modelo
5) Comparacin con otros modelos

3. Las familias de distribuciones principales y su definicin.

1) Familia Exponencial de k parmetros

Se dice que una variable aleatoria pertenece a esta familia si su funcin de probabilidad o de
densidad se puede factorizar de la siguiente manera:

donde la funcin A es funcin nicamente de los parmetros, no necesariamente de los k, la


funcin es funcin nicamente de la variable y ambas son no negativas.

Ejemplo 1: La distribucin normal.

2) Localizacin y escala

Tiene exclusivamente dos parmetros, uno de localizacin y otro de escala. Los denotamos por
respectivamente.

Reconocemos que una distribucin pertenece a esta familia si


c) la densidad se puede escribir

donde es el miembro estndar de la densidad, y su densidad no depende ni de ni


de .

d) si tiene densidad que no depende de ninguno de los parmetros, entonces X


pertenece a la familia de localizacin y escala.

Ejemplo 1: La distribucin Normal.

3) Valores extremos

Una aplicacin importante del teorema de convergencia aparece en el estudio de las posibles
distribuciones lmite para mximos normalizados de variables aleatorias independientes,
idnticamente distribuidas. Supongamos que es una sucesin independiente,
idnticamente distribuida con funcin de distribucin comn y sea

Supongamos que existen constantes y para tales que

dbilmente cuando donde es propia ( ) y no est concentrada en un punto.


Entonces pertenece a alguna de las siguientes tres familias de distribuciones:

(a) Tipo I: , .

(b) Tipo II: , para algn .

(c) Tipo III: , para algn

Este teorema fue originalmente propuesto por Fisher y Tippet en 1928 y demostrado
rigurosamente por Gnedenko en 1943. La distribucin (a) es la distribucin de Gumbel, (b) es la
distribucin de Frchet y (c) es la distribucin de Weibull.

4) Transformaciones de Box y Cox

La familia de transformaciones ms utilizada para resolver los problemas de falta de normalidad y


de heterocedestacidad es la familia Box-Cox, cuya definicin es la siguiente.
Se desea transformar la variable , cuyos valores muestrales se suponen positivos, en caso
contrario se suma una cantidad fija tal que La transformacin de Box-Cox depende
de un parmetro por determinar y viene dada por

donde y .

Si se quieren transformar los datos para conseguir normalidad, el mejor mtodo para estimar el
parmetro es el de mxima verosimilitud.

5) Simtricas (Densidades alrededor de la moda)

Distribucin Gama con parmetro

6) Asimtricas

Distribucin Gama con parmetro

4. Relaciones entre algunas distribuciones.

5. La definicin de cuantiles para variables discretas y continuas.

Definimos la Funcin de Quantiles (Inversa Generalizada) de la siguiente manera:

que funciona adecuadamente tanto para distribuciones continuas como para discretas.

6. La funcin de distribucin emprica y su grfica y la relacin que guarda con los


cuantiles empricos. Mostrar que los momentos empricos son los momentos de esta
distribucin.

7. La grfica cuantil-cuantil, QQ, para comparar los cuantiles empricos con los tericos.

8. Las leyes de los grandes nmeros, el teorema de Glivenko-Cantelli y su importancia.

Ley fuerte de los grandes nmeros. Sea una sucesin de variables aleatorias
independientes idnticamente distribuidas con media y considrese la sucesin de los
promedios aritmticos , entonces se cumple
Ley dbil de los grandes nmeros. Sea una sucesin de variables aleatorias
independientes idnticamente distribuidas con media y considrese la sucesin de los
promedios aritmticos , entonces se cumple

Teorema de Glivenko-Cantelli. Sea una sucesin de variables aleatorias independientes,


idnticamente distribuidas. Luego la funcin de distribucin emprica de los primeros trminos
converge casi seguro a la funcin de distribucin de .

Demostracin: Por la ley fuerte de los grandes nmeros, es obvio que para cada tenemos la
convergencia casi segura:

Es fcil ver, usando la monotona de y que esto implica el teorema.

9. El estimador de momentos y el de mxima verosimilitud.

Para estimar el parmetro donde , se igualan los primeros momentos (centrales o


no centrales) empricos con los tericos. Normalmente se hace esto con igualando el
primer momento emprico no central con el primer momento terico no central (nos apoyamos de
la ley dbil de los grandes nmeros).

Generalmente, usaremos para el caso continuo la aproximacin continua a la funcin de


verosimilitud, es decir:

donde es una funcin constante con respecto al parmetro. Normalmente escogemos esta
funcin de modo que nos quede la verosimilitud en funcin nicamente del parmetro de inters
en la medida de lo posible.

Ser comn utilizar la funcin de log verosimilitud:

Tanto para la funcin verosimilitud como para la log verosimilitud, la eleccin de la funcin
constante no afecta el punto de maximizacin. Existen casos en los que es posible maximizar
cualquiera de estas dos funciones analticamente sin problemas. Cuando no, consideramos la
funcin marcador (score) definida como:

y encontramos el mximo despejando de . Es necesario verificar que sea un mximo e,


idealmente, tambin que sea un mximo global. Para ello, consideramos la funcin de la
informacin de Fisher como

menos la segunda derivada con respecto al parmetro. Habremos encontrado un mximo cuando

10. Identificacin de estadsticas suficientes a partir de la funcin de verosimilitud.

TAREA
1. Demuestra que la variable Bernoulli pertenece a la familia exponencial de un
parmetro.

Ofrecemos la factorizacin:

2. Demuestra que la densidad Gumbel de mximos con parmetros ,

pertenece a la familia de localizacin y escala. Di cul es el parmetro de localizacin y


cul el de escala.

Observando la funcin de distribucin, vemos que aparece siempre en la estructura y que,


adems, la expresin est multiplicada por . Esto nos dice que efectivamente es de localizacin y
escala con parmetro de localizacin y de escala .

Podemos confirmar esto usando el teorema de cambio de variable , de donde


y el valor absoluto de la derivada es . Haciendo la sustitucin, veremos que no depende de
ninguno de los parmetros.

3. Para la densidad exponencial con tiempo de vida garantizado


calcula la mediana en trminos del parmetro Supn que tienes una muestra de
variables aleatorias independientes e idnticamente distribuidas con esta
densidad. Encuentra un estimador de momentos para . Da el estimador de mxima
verosimilitud para y da la expresin de la funcin de verosimilitud relativa.

Considerando la funcin de quantiles como la inversa generalizada:

como es continua

de donde

Para encontrar un estimador de momentos, consideramos

de donde

Finalmente, consideramos

Puesto que por ser una probabilidad, el valor mximo se encuentra cuando
, es decir, cuando de donde como era de esperarse.

4. Supn que tienes una muestra de variables aleatorias independientes e


idnticamente distribuidas como normales con media y varianza Demuestra que el
estimador de mxima verosimilitud de es insesgado asintticamente y que tambin
es consistente dbil.

Consideramos la aproximacin continua a la funcin de verosimilitud como


considerando la funcin de log verosimilitud

y derivando con respecto a encontramos

de donde

Los estimadores de mxima verosimilitud siempre son consistentes.

Para mostrar que es insesgado asinttico, queremos mostrar que

y usaremos que y el hecho de que cuando

5. Supn que tienes una muestra de variables aleatorias independientes e


idnticamente distribuidas como una uniforme continua en el intervalo Da una
expresin para la funcin de verosimilitud relativa y grafcala a mano. Utiliza para ello a
las estadsticas de orden

y considera la relacin que guarda en particular el mnimo y el mximo con respecto a


y a . Utiliza la aproximacin continua a la funcin de verosimilitud.

6. Grafica a mano la funcin de distribucin emprica para una muestra con las
siguientes cuatro observaciones ordenadas:

Calcula usando tu grfica cul es el cuantil emprico de probabilidad 0.8?


La grfica da 4 saltos, es la funcin continua 0 desde hasta no inclusive; vale de
hasta abierto a la derecha; vale de hasta abierto a la derecha; vale
desde hasta abierto a la derecha; y finalmente, vale desde

Usando la definicin de inversa generalizada, el cuantil emprico de probabilidad 0.8 es pues


para todo se tiene que .

También podría gustarte