P. 1
Tema 3_ Estimacion Puntual

Tema 3_ Estimacion Puntual

|Views: 6|Likes:
Publicado porPaulo Johamir Orta

More info:

Published by: Paulo Johamir Orta on Jun 06, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

08/14/2014

pdf

text

original

TEMA 3 ESTIMACIÓN PUNTUAL

ESQUEMA 3.1.- Planteamiento del problema: La Estimación Puntual. 3.2.- Propiedades de los estimadores. 3.2.1.- Insesgadez. 3.2.2.- Eficiencia. La cota de Cramér-Rao. EIMV. 3.2.3.- Consistencia. 3.2.4.- Sufuciencia. Criterio de Factorización. 3.3.- Métodos de obtención de estimadores. 3.3.1.- El método de los momentos. Propiedades. 3.3.2.- El método de la máxima verosimilitud. Propiedades. 3.1.- Planteamiento del problema: La Estimación Puntual. Recordemos que a la hora de estudiar un fenómeno aleatorio básicamente podemos encontrarnos con dos problemas: Puede resultar que desconozcamos el modelo de probabilidad al que se ajusta la v.a. que estemos estudiando. (inferencia no paramétrica) O bien conozcamos el modelo de probabilidad, pero desconozcamos el parámetro (o parámetros) que lo definen. (inferencia paramétrica) Este segundo problema va ha ser el objeto de nuestro estudio en los próximos temas. Este primer tema dedicado a la inferencia estadística lo dedicaremos a la Estimación Puntual. Básicamente estudiaremos la forma en que debemos hacer uso de la información muestral para determinar el valor de los parámetros que determinan un modelo de probabilidad. Por ejemplo, en un proceso industrial de llenado de paquetes de detergentes, sabemos que esta variable se ajusta a una distribución Normal, y debido a la larga experiencia podemos afirmar que en términos medios cada paquete es llenado con 5 Kgr. de detergente, pero desconocemos la regularidad del proceso (la desviación típica). Con el fin de determinar este valor desconocido debemos seleccionar una muestra y en función de los valores obtenidos asignar un valor a este parámetro. términos: Desde un punto de vista teórico el problema lo vamos a plantear en los siguientes

Sea ξ una v.a. que tiene asociada una función de distribución F que depende de un parámetro θ. Supongamos que conocemos la forma funcional de F a falta de este parámetro. A partir de ahora nombraremos la función de distribución como F(x;θ) ó Fθ para hacer referencia a que desconocemos el valor de este parámetro. Definición.- El conjunto de todos los valores admisibles de los parámetros de una función de distribución se llama espacio paramétrico. Este conjunto lo simbolizaremos por Θ. Para cada posible valor que tome θ tendremos una función de distribución distinta. El conjunto {Fθ ; θεΘ} se llama familia de distribuciones de ξ
GARCÍA CÓRDOBA

1

con el fin de estimar la proporción de éxitos p (desconocido) en un experimento que se repite 3 veces (modelo B(3. Claro que.p) tendremos que el espacio paramétrico es el intervalo Θ = [0. que son 0. .. .a. . de F(x. ya que aunque depende unívocamente de los valores de la muestra observados (ξi = xi).θ). y buscar propiedades que hagan a unos más deseables que a otros.1. Obsérvese que el estimador no es un valor concreto sino una variable aleatoria. nunca sabremos exactamente cual es el error que estamos cometiendo al realizar nuestra predicción.5.ξn) una m.2. En cambio si tomamos la suma de todos los valores muéstrales p*=1 (que también es un estadístico=función de la muestra) este no será un estimador pues no siempre da valores posibles para p. Un estadístico θ* = f (ξ1. Un estimador es siempre una función de los valores muéstrales cuyo resultado debe ser siempre un posible valor del parámetro. en estas cuatro realizaciones hemos obtenido cuatro valores diferentes para p. es decir.Propiedades de los estimadores.1.p)) tomamos una muestra de tamaño 4.s. Todas estas funciones (estadísticos) nos dan siempre valores aceptables para p.2. . ξ2 .TEMA 3 ESTIMACIÓN PUNTUAL Ejemplo: Si ξ≈B(3. se denomina estimación el valor numérico que toma el estimador sobre esa muestra. Vamos a presentar las cuatro propiedades más importantes: GARCÍA CÓRDOBA 2 .Como hemos visto en el apartado anterior. No todos los estimadores asignan el mismo valor al parámetro desconocido. ξ2 .2. Por ejemplo. si que será posible estudiar los estimadores como v. la elección de la muestra es un proceso aleatorio. .ξn) se dice que es un estimador puntual de θ si θ* aplica Rn en Θ.. Al ser desconocido el valor real del parámetro no podemos a priori indicar el estimador que nos ofrezca el valor más próximo al parámetro.21 o quizás el mínimo valor muestral p*=0. Una vez que la muestra ha sido elegida. 0≤p≤1} Definición. . y por tanto. Pero otra alternativa podría ser la media geométrica p*=0. y en principio es lo más coherente. 3.Sea (ξ1. el método del selección de estimadores mediante el ECM no es útil en todos los casos pues éste depende en ocasiones del parámetro desconocido.5. Y la familia de distribuciones será {B(3. tomar la media: p*=0. ¿Qué valor asignamos a p? Podemos pensar. pongamos (2. Con el fin de seleccionar el mejor o los mejores estimadores de un parámetro vamos a presentar algunas propiedades que en principio parezca aceptable exigir a un estimador para que realice su función de estimar un valor desconocido. 0.1 y 0. .1]. Todo esto indica dos cosas: No todos los estadísticos son estimadores. 0.25.2).a.p) . .

Ejemplo: Consideremos los tres estimadores de la media de una población normal que presentamos en el apartado anterior.a. las funciones de densidad de cada uno de estos estimadores será: 0.2.μ = μ/(n-1) = μ su sesgo será b(μ) = μ .5 0. Frente a éstos. Gráficamente. Propiedad de insesgadez: Hemos dicho en el apartado anterior que al realizar una estimación de θ mediante un determinado estimador θ* unas veces cometeremos errores por exceso y otras por defecto.Sea ξ una v. mientras que si el sesgo es negativo. Diremos que θ* es un estimador insesgado de θ. Sabemos que: E[μ*] E[μ**] = nμ/(n-1) su sesgo será b(μ) = nμ/(n-1) . el estimador μ** es un estimador insesgado.3 0. y Fθ su función de distribución. si se verifica que: E[θ*] = θ. y tenderá a sobreestimar la media de la población.μ = .μ/(n+1) El primero de estos estimadores tiene un sesgo positivo.a.2 0. E[μ***] = nμ/(n+1) su sesgo será b(μ) = nμ/(n+1) . θ*-θ.TEMA 3 ESTIMACIÓN PUNTUAL 3. A la diferencia entre la esperanza matemática del estimador de un parámetro y el parámetro a estimar se llama sesgo del estimador que escribiremos como b(θ): b(θ) = E[θ*] .1 0 -1 0 1 2 3 4 5 GARCÍA CÓRDOBA 3 .μ = 0 Estimador Insesgado. este tenderá a sobreestimar el valor del parámetro..θ Si el sesgo de un estimador es positivo. mientras que el segundo tiene sesgo negativo y tenderá a asignar a la media valores inferiores a su valor real. el estimador tenderá a infravalorar el valor a estimar. El error es una v.4 0.1. La primera propiedad que vamos a requerir de un estimador es que en términos medios el error que se cometa al estimar un parámetro sea cero Definición.

Observamos finalmente que las propiedades que nos van a permitir medir la calidad de un estimador están en función de sus dos primeros momentos: la media y la varianza de un estimador.a. e inversamente. por su precisión.E[θ*] ) 2 ] + E[ ( θ -E[θ*] ) 2 ] . Definimos así: Definición.2. De esta manera podemos obtener una medida del error medio que estamos cometiendo al realizar la estimación mediante la esperanza matemática del error cuadrático. Así. Si el estimador tiene poca capacidad de variación para los distintas muestras que podamos tomar esto contribuirá de forma positiva a la obtención de un error más pequeño. El error que cometemos al estimar θ mediante θ* será la diferencia θ*-θ. Supongamos que estamos estudiando una v. Con el fin de estimar el valor de este parámetro consideramos el estimador θ*.. si el ECM es un número grande. Por tanto la diferencia θ*-θ será también una v.1.TEMA 3 ESTIMACIÓN PUNTUAL 3. que nos informa del error que estamos cometiendo al realizar la estimación.2 E[( θ*.a.a. En primer lugar el tamaño del error vendrá determinado por la varianza del estimador. si para los distintos valores muéstrales la media del estimador coincide con θ habremos obtenido un buen estimador. Unas veces esta diferencia será positiva (cometiendo un error por exceso) y otras veces la diferencia será negativa (cometiendo un error por defecto). θ* es una v. Como tal v.El estimador de mínimo error cuadrático medio.E[θ*] ) ] = 2 De esta manera podemos observar que el error cuadrático medio que cometemos al realizar una estimación es la suma de dos contribuciones positivas.. es decir.a. Con el fin de obtener una medida global de este error vamos a eliminar el signo de los errores considerando la diferencia al cuadrado (θ*-θ)2 (error cuadrático).E[θ*] )( θ -E[θ*] ) ] = = Var (θ*) + ( θ -E[θ*] ) = Var (θ*) + ( θ -E[θ*] ) 2 . GARCÍA CÓRDOBA 4 . A partir de esta idea vamos a deducir las propiedades más importantes que debe cumplir un estimador para ser considerado aceptable. función de la m. En segundo lugar el tamaño del error vendrá determinado por la diferencia entre el valor medio que tome el estimador y el parámetro desconocido.2( θ -E[θ*] ) E[( θ*.a.1. podríamos asegurar que error que estamos cometiendo en la estimación es pequeño (en media).{ θ -E[θ*] } ) 2 ] = = E[ ( θ*.E[θ*] } . por ejemplo.Se llama error cuadrático medio del estimador a: ECM(θ*) = E[ (θ*-θ)2 ] Si el error cuadrático medio es un número pequeño.s. podrá tomar diversos valores dependiendo de la muestra seleccionada. Vamos ahora a encontrar otra expresión para el ECM de un estimador: ECM(θ*) = E[ (θ*-θ)2 ] = E[ ( { θ*. ξ que sabemos que se ajusta a un modelo probabilístico con función de distribución F conocida que depende de un parámetro θ desconocido. cabe esperar que la estimación que realicemos no sea muy precisa.

pero quizás sí las más importantes.TEMA 3 ESTIMACIÓN PUNTUAL Estas no van a ser las únicas propiedades que observemos sobre la calidad de los distintos estimadores.s.3). Veamos esto en una gráfica (tomando n=3): 2. Ahora bien dependiendo del valor del parámetro desconocido μ unas veces GARCÍA CÓRDOBA 5 . deducimos sin ningún problema que el estimador μ* es el peor de los tres.nμ/(n-1))2 = (30n+μ2)/(n-1)2 ECM(μ**) = 30 /n + (μ. el error cuadrático medio queda en función de dos valores: El tamaño muestral y el valor desconocido del parámetro.μ)2 = 30/n ECM(μ***) = 30 n/(n+1)2 + (μ. Con el fin de determinar el valor medio desconocido de la población se toma una m.nμ/(n+1))2 = (30n+μ2)/(n+1)2 Como podemos observar. de tamaño n y se plantean tres posibles estimadores: μ* μ** = ∑ξi / (n-1) = ∑ξi / n = la media muestral μ*** = ∑ξi / (n+1) Con el fin de saber cual de ellos es mejor se calcula el ECM de cada uno de ellos. Ejemplo: Supongamos que estamos estudiando un fenómeno aleatorio que suponemos que se ajusta a una v.5 ECM[µ*] 2 ERROR CUADRATICO MEDIO ECM[µ***] 1. ξ. para lo cual necesitamos saber cuales son sus dos primeros momentos: E[μ*] E[μ**] = nμ/(n-1) = μ Var(μ*) Var(μ**) = 30 n/(n-1)2 = 30 / n E[μ***] = nμ/(n+1) De tal forma que: Var(μ***) = 30 n/(n+1)2 ECM(μ*) = 30 n/(n-1)2 + (μ.5 1 ECM[µ**] 0.a. Normal N(μ.5 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 VALOR CONJETURABLE PARA LA MEDIA POBLACIONAL Observando la gráfica.a.

2. Propiedad de eficiencia: Una vez que tengamos dos estimadores insesgados de un parámetro para determinar cuál de los dos es más adecuado debemos fijarnos en su varianza.. Se dice que θ* es más eficiente que θ** si: Var(θ*) < Var(θ**) En este sentido hablaremos de la eficiencia relativa como: eficiencia relativa = Var(θ*) / Var(θ**) Definición.Sea ξ una v. GARCÍA CÓRDOBA 6 . Si θ* es un estimador insesgado de θ. y Fθ su función de distribución.TEMA 3 ESTIMACIÓN PUNTUAL será mejor μ** y otras μ***. entonces se dice que θ* es el estimador insesgado de mínima varianza de θ. Sean θ* y θ** dos estimadores insesgados de θ.a. ya que será un estimador más preciso.2. Entre los dos elegiremos a aquel que presente una menor variación entorno al valor medio. Claro esto nos lleva a una situación difícil pues este valor es desconocido. El error cuadrático medio depende en ciertos casos del parámetro desconocido En los tres casos el ECM disminuye conforme aumenta el tamaño muestral (algo que comentaremos mas adelante) 15 µ* ERROR CUADRATICO MEDIO 10 5 µ** µ*** 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 TAMAÑO MUESTRAL 3. y Fθ su función de distribución. Esta situación hace disminuir la aplicación universal de este método para determinar la calidad de un estimador. y no hay ningún otro que tenga menor varianza.a.Sea ξ una v. Definición.. Ejemplo: Estas dos primeras propiedades las podemos relacionar con el ECM de un estimador. Como vimos en el apartado correspondiente: ECM(θ*) = Var (θ*) + ( θ -E[θ*] ) 2 = Var (θ*) + b(θ*) 2 De tal forma que entre todos los estimadores insesgados aquel que presente una varianza mínima será el que presente un error cuadrático mínimo (¿podemos encontrar un estimador sesgado con menor ECM?).

Este factor..(Cota de Cramér-Rao) Sea ξ una v. debe también ayudarnos a determinar la calidad de un buen estimador.2. el tamaño de la muestra. 3. y Fθ su función de distribución. Por otra parte no podemos asegurar la existencia de un estimador que alcance Ejemplo: La media muestral en poblaciones normales.Las dos propiedades anteriores tienen vigencia independientemente de cual sea el tamaño muestral. de tamaño n y sea θ* un estimador de θ.θ) su función de densidad. Entonces: Var( θ* ) ≥ [ 1 + b′(θ) ]2 ⎡ ∂ ln f (x.a.a. La Cota de Cramér-Rao (CCR) permite determinar el valor mínimo que puede alcanzar la varianza de un estimador de un parámetro desconocido. Sin demostración.3. Así. Si la varianza de un estimador coincide con la cota sabremos que de la clase de estimadores con ese sesgo (quizás insesgados) ninguno tendrá menor varianza. Es decir.TEMA 3 ESTIMACIÓN PUNTUAL El problema de obtener estimadores de varianza mínima está solucionado por el siguiente resultado: Proposición. y Fθ su función de distribución. el estimador no daría el resultado correcto. θ) ⎤ nE⎢ ⎥ ∂θ ⎣ ⎦ 2 Siendo b´(θ) la primera derivada del sesgo del estimador.a. Definición.. si: lim P(| θ n→∞ * n .Sea ξ una v. Si se verifica que: GARCÍA CÓRDOBA 7 . esta cota.s.a.Sea ξ una v. Diremos que θ*n es un estimador consistente si la sucesión de estimadores {θ*n} converge en probabilidad a θ. Sea θ*n es un estimador de θ para una muestra de tamaño n. Propiedad de Consistencia.. Una caracterización de los estimadores consistentes que resulta más simple de aplicar en la práctica es la siguiente: Proposición. Si θ*n es un estimador de θ para una muestra de tamaño n. Tomemos una m. parece lógico exigir a un estimador que al aumentar el tamaño de la muestra su precisión aumente. y f(x.θ | ≥ ε) = 0 De esta manera un estimador será inconsistente si al utilizar toda la población como muestra (teóricamente una muestra infinita).

Esta definición de estimador suficiente no es muy formal y tampoco operativa. Sin demostración. Propiedad de Suficiencia.Se dice que un estimador es suficiente si incluye toda la información que la muestra puede suministrar sobre el parámetro desconocido.4.6 0. a medida que la muestra se hace más grande.Definición.6 0 200 400 600 800 1000 TAMAÑO MUESTRAL Ejemplo: Como ejemplos de estimadores consistentes μ* μ** μ*** 3.2 MEDIA MUESTRAL 0 -0.1) al aumentar el tamaño muestral. y la varianza del estimador se hace despreciable (la varianza tiende a cero).000 y hemos calculado a cada una de las muestras su media aritmética. Hemos simulado m. De esta manera.s. podemos observar que le ocurre a la media muestral de una población N(0.a.2. estimador: Si veremos un procedimiento más operativo para determinar la suficiencia de un GARCÍA CÓRDOBA 8 . Hay definiciones más formales pero no entraremos en ellas..lim E [ θ n→∞ TEMA 3 ESTIMACIÓN PUNTUAL n * ]= θ lim Var [ θ n→∞ * n ]= 0 Entonces θ* es un estimador consistente. de tamaños de 1 a 1. Gráficamente.4 -0. Gráficamente el resultado es el siguiente: 0.2 -0. el valor esperado del estimador tiende hacia el verdadero valor del parámetro (se vuelve insesgado).4 0. un estimador consistente será aquel que.

Si desconocemos dos parámetros plantearemos el sistema: E[ξ] = ξ Var(ξ) = s2 GARCÍA CÓRDOBA 9 .. al existir una infinidad de estimadores de un parámetro. 3. robustez y propiedades asintóticas.TEMA 3 ESTIMACIÓN PUNTUAL Proposición. La forma de operar para obtener estimadores mediante este método es la de plantear un sistema de ecuaciones en la que el término independiente sea el momento muestral E[ξ] = ξ En el caso de que se desconozcan más de un parámetro de la población se presentarán tantas ecuaciones como parámetros se desconozcan. sería desmesurado buscar entre esta infinidad aquél que mejores propiedades tenga. Sería otro objetivo presentar exhaustivamente las propiedades deseables de un estimador.Hemos estudiado en el apartado anterior las diversas propiedades que debe cumplir un estimador para poder considerarlo adecuado para predecir un valor desconocido de la población.3. igualando siempre los primeros momentos poblacionales a los muéstrales. Como ya comentamos.θ) = g(θ*.. Ahora bien. los momentos muéstrales y poblacionales deben coincidir.Estas cuatro propiedades sobre los estimadores no son ni mucho menos las únicas.θ) se puede descomponer en el producto de dos funciones.El método de los momentos. si no somos capaces de descomponer la función de verosimiltud como indica el criterio de factorización no podemos afirmar que el estimador en cuestión no sea eficiente. aunque quizás sí las más importantes. una de ellas g(θ*. El método de los momentos está sustentado por la siguiente idea: Si una muestra representa perfectamente a una población. Para solucionar este problema la Estadística ha desarrollado métodos matemáticos que permiten obtener estimadores aceptables.s.(Criterio de factorización de Fisher-Neyman) Si un estimador θ* de θ es suficiente si la función de densidad de la m. (función de Verosimilitud) L(ξ.3.1.. esto es. Otras propiedades.Métodos de obtención de estimadores. que cumplen determinadas propiedades. En este apartado estudiaremos dos de estos métodos: El método de los momentos y el método de la máxima verosimilitud.θ) dependiente del parámetro y de la muestra a través de θ*. No obstante podríamos haber hablado de propiedades como: invarianza. y otra.θ) h(ξ) Este criterio es el habitualmente utilizado para la búsqueda de estimadores suficientes.a. h(ξ) no dependiente de θ. 3. L(ξ.

4 aquí p=0. cada vez que realizo una extracción devuelvo la papeleta a la urna (independientes) y las mezclo muy bien antes de cada extracción (idénticamente distribuidas)) Supongamos que las tres extracciones sucesivas han sido (+. Para empezar la muestra ya nos hace imposible (con probabilidad cero) determinadas proporciones. Este es el caso de las situaciones a) y f). en la década de 1. Debemos elegir como parámetro aquel que hace máxima la probabilidad de observar lo que en realidad hemos visto.6 aquí p=0. Insesgadez: No tienen porqué ser insesgados aunque si lo son asintóticamente. Parece que lo normal sería que la composición de la urna fuera d) ya que la GARCÍA CÓRDOBA 10 .A.3. R.8 aquí p=0.920. Antes de nada veamos que posibilidades pueden plantearse: a) 5 + 0 * b) 4 + 1 * c) 3 + 2 * d) 2 + 3 * e) 1 + 4 * f) 0 + 5 * aquí p=1 aquí p=0.2 aquí p=0 Tomaremos una muestra de tamaño 3.El método de la máxima verosimilitud. Fisher (1. Tengo aquí 5 papeletas.*) El objetivo del método es determinar el valor de p (la proporción) que haga máxima la probabilidad de haber seleccionado esta muestra y no otra.d..*.890-1. Fue. cuantas hay de cada clase). El método de la máxima verosimilitud consiste en elegir (entre todos los estimadores del parámetro desconocido) aquel estimador que haga máxima la probabilidad de haber obtenido la muestra que hemos encontrado.2. Intentaremos realizar esta transición mediante un sencillo ejemplo.962) quien desarrollo el método de la máxima verosimiltud como técnica para la obtención de estimadores que cumplieran (quizás no todas) las propiedades presentadas anteriormente. Ejemplo: Estimación de una proporción. La filosofía que sustenta el método es muy simple.TEMA 3 ESTIMACIÓN PUNTUAL Propiedades de los estimadores obtenidos por el método de los momentos. independientes e identicamentes distribuidas (e. pero su ejecución y la traducción de ésta a fórmulas estadística es un poco más compleja. unas llevan marcada una cruz u otras un asterisco y desconocemos la proporción (p) de cruces (+) (esto es. Para explicar este galimatías pondremos un ejemplo. 3. Es más de forma lógica podemos aventurarnos a indicar cuál de las anteriores opciones es más coherente con la muestra elegida. Consistencia: Son consistentes Normalidad: Son asintóticamente normales.

): L(x:θ) = L(x1.a.s..θ) o de forma abreviada como L(x:θ).θ) (o f. de ξ de tamaño n.θ) No siempre se puede obtener el estimador máximo-verosímil por el método analítico que hemos expuesto. f(xn. La razón por la que este método es útil para la obtención de estimadores es debido a que los estimadores así obtenidos cumplen una serie de propiedades que los hacen deseables: GARCÍA CÓRDOBA 11 . Definición.33 Por tanto y tal y como habíamos aventurado la composición que ustedes desconocen (y no van a conocer.*)) debido a la independencia Máx (en p) P(+)P(*)P(*) = Max (en p) p(1-p)(1-p) el valor de p que hace máxima esta función es p=1/3=0.θ) . aquel que hace máxima la función de verosimiltud.p.p. en este caso d). Tomamos una m. así es la realidad) será la que se corresponda con el valor más próximo a 1/3.xn.θ)) siendo θ el parámetro desconocido de la población. . Como ejemplo de esta situación el caso de la distribución uniforme.θ) El método de la máxima verosimilitud consiste en elegir.a... y con el fin de simplificar el cálculo del máximo..θ) En general.. Como estamos siempre trabajando con muestras independientes resulta que la función de verosimilitud es igual al producto de las funciones de densidad (o f. se calcula el máximo al logaritmo (función monótona creciente) de la función de verosimilitud.θ) = f(x1.TEMA 3 ESTIMACIÓN PUNTUAL proporción de cruces que tenemos en este caso es la más parecida a la proporción que encontramos en nuestra muestra. ξ con función de densidad f(x. maximizar: En este caso el método de la máxima verosimilitud nos indica que debemos Máx (en θ) P(obtener una muestra determinada) en nuestro ejemplo Máx (en p) P(obtener (+. El planteamiento operativo del método de estimación máximo-verosímil es el siguiente: Tenemos una v. L(x..θ*) = máx (en θ) L(x. Definición.p.p. de entre los posibles valores del parámetro desconocido. Propiedades de los estimadores máximo verosímiles. Otras veces es necesario recurrir a métodos numéricos para determinar este valor máximo.A la función de densidad conjunta ( o f.*. en cuyo caso se procese de forma directa partiendo del fundamento del método: lo sucedido es lo más probable que puede suceder. conjunta) de la muestra la llamaremos función de verosimilitud que denotaremos como L(x1. .θ*) = máx (en θ) ln L(x. la función de verosimiltud es complicada.xn..p. y a su forma funcional θ* estimador máximo-verosimil L(x..El valor de θ que maximice la función de verosimiltud se llama estimación máximo-verosimil... P(ξ=x.p.

Martín Pliego F.es/rd/Recursos/rd99/ed99-0018-04/ed99-0018-04. Llopis Perez J. pero si un parámetro tiene un estimador consistente. Consistencia: Los estimadores máximo verosímiles son consistentes Normalidad: Los estimadores máximo verosímiles son asintóticamente normales Suficiencia: El estimador máximo verosímil no tiene porque ser suficiente.L. Ruiz Marín: “Probabilidad e Inferencia Estadística: Una Introducción”. Martín Pliego. Montero Lorenzo J.R y Olson D. este es el obtenido por el método de la máxima verosimilitud.uc3m.J. BIBLIOGRAFÍA: **García Córdoba. Gutiérrez Jaímez R. "Introducción a la Teoría de la Probabilidad" Ed: tirant to blanch economía. Durá Peiró: "Fundamentos de Estadística" Ed: Ariel Escuder. Ruiz Maya: "Estadística: I Probabilidad .TEMA 3 ESTIMACIÓN PUNTUAL Insesgadez: Los estimadores máximo verosímiles no tienen porque ser insesgados (aunque si lo son asintóticamente) Eficiencia: Si existe un estimador de mínima varianza.ppt http://www. “Ejercicios resueltos de estadística”.uv. ** Palacios González y otros. Ed.es/~mperea/T13_APD. “Estadística y Econometría” Ed: Mc Graw Hill. II Inferencia Estadística" Ed: AC. el estimador máximo verosímil es función de éste. Riuz-Maya Pérez L.M. Fernández Abascal: "Cálculo de Probabilidades y Estadística" Ed: Ariel. Ceura Para saber más o comprobar dudas: http://thales.html www. Problemas: Murgui.S. J. Data análisis and decisión modeling” Prentice Hall.es/esp/Personal/personas/amalonso/esp/e1tema3.: "Curso Básico de Probabilidad" Ed: Pirámide. Miguel Ángel. Tussel F. "Problemas de Probabilidad" Ed: AC.: "Manual de Estadística Universitaria" Ed.cica. "La estadística: una orquesta hecha instrumento" Ed: Ariel Ciencia. “Statistics.com/temario/estadistica/es%20II/tema_03/indice. Delta ** Sierra. Garín A: "Problemas de Probabilidad e Inferencia Estadística" Ed:Tebar Flores. “Ejercicios resueltos de inferencia estadística…”. "Estadística para la Economía y Administración de Empresas" Ed: Purchades. Serret Moreno-Gil J.es/~jsalinas/activi/C10.ugr.pdf GARCÍA CÓRDOBA 12 . : "Curso Práctico de Estadística" Ed: Cívitas.pdf http://matematicasbachiller. Palacios Sánchez. Ed. Ruiz Maya: "Problemas de Estadística" Ed:AC Sarabia Alegría J. **Newbold P. ESIC.html http://halweb. Horacio Escarabajal. y otros.M. Evans J.. "Estadística para los Negocios y la Economía" Ed: Prentice Hall **Novales A. R.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->