Está en la página 1de 350
LUIS RUIZ-MAYA PEREZ JAVIER MARTIN PLIEGO Fundamentos de Inferencia Estadistica Editorial AC PROLOGO En Ia investigacién empitica existen conjuntos de elementos sometidos a andlisis, denominados poblaciones, que estadisticamente se sintetizan en modelos caracteriza- dos por expresiones matematicas conteniendo uno o varios parémetros, con valores que permiten diferenciar unas poblaciones de otras de la misma familia. El conocimiento completo del modelo hace posible el tratamiento estadistico po- blacional. Sin embargo, en la realidad, la situacién no es ésta, pues lo frecuente es hallarnos ante el desconocimiento de la expresién matematica y de los parametros, conduciendo a la inutilidad practica del modelo, siendo preciso obtener aproximacio- nes, E] tamafio de la poblacién que, a efectos practicos, puede suponerse infinito inabarcable, impide o dificulta su andlisis completo, por lo que solo sera factible estudiar una parte denominada muestra, generalizando a la poblacién las conclusio- nes obtenidas a partir de la muestra. EI proceso de paso de lo particular (muestra) a lo general (poblacién), inferencia estadistica (inferencia inductiva), tiene como caracteristica inherente que sus resulta- dos no son exactos sino probables, frente a las conclusiones de la inferencia deducti- va exactas y validas en todas circunstancias. Este manual, Fundamentos de Inferencia Estadistica, expone en los dos primeros capitulos el concepto de estadisticos, como funciones de los valores muestrales, sus distribuciones de probabilidad, y los importantes temas de suficiencia e informacién, directamente relacionados con los estadisticos y con las muestras. Basndose en la informacién proporcionada por la muestra, el proceso de la infe- rencia estadistica contempla dos Ambitos: estimacién de parametros, procedimientos que proporcionan valores aproximados de los parémetros desconocidos, y contrasta- cién de hipétesis: métodos que permiten optar por una de dos hipétesis establecidas sobre el valor de un pardmetro 0 sobre el tipo de modelo matemético supuesto. VI ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA La estimacién de parametros se desarrolla a lo largo de los capitulos tercero al quinto, estudiando los estimadores, sus propiedades, métodos de obtencién y estima- cién por intervalos. La contrastacién de hipétesis comprende los capitulos seis al nueve, tratando las contrastaciones paramétrica y no paramétrica, asi como los con- trastes de significacion. En el ultimo capitulo se presenta, de forma somera, una introducci6n a la teorfa de la decisién y a la Inferencia Bayesiana. Madrid, Julio de 1999 Los AUTORES ConTENIDO Capitulo 1 Muestreo: estadisticos y sus distribuciones: Ejercicios resueltos ... 1.1, Poblacién y muestra . 1.2. Tipos de muestreo... 1.2.1. Distribucin conjunta de ‘am muestra 1.3. Distribucién de la poblaci6n, distribucién de la muestra y distribucién en el muestreo. Estadisticos ...... 1.4 Caracterfsticas de las distribuciones en el muestreo 1.4.1. Momentos muestrales con respecto al origen 1.4.2. Momentos muestrales con respecto a la media... . 1.4.3. Momentos muestrales de distribuciones bidimensionales 1.5 Estadisticos ordenados....... ; 1.5.1. Distribucién del estadistico ordenado u,. 1.5.2. Distribucién del menos valor de la muestra, u, 1.5.3, Distribucién del mayor valor de la muestra, 1, . 1.6 Muestreo en poblaciones normales 1.7 Varianza poblacional conocida........ 1.7.1. Distribucién de la media muestral ............0046 1.7.2. Distribucién de la diferencia de medias muestrales 1.8 Distribucién conjunta de la media y la varianza muestrales Lema de Fisher-Cochram..... 1.9 Varianza poblacional desconocida . 1.9.1, Distribucién de la media muestral... 1.9.2. Distribucién de la diferencia de medias muestrales 1.10 Distribucién en el muestreo del coeficiente de correlacién lineal 1.11 Distribucién de los coeficientes de regresi6n lineal muestrales . VII @ = FUNDAMENTOS DE INFERENCIA ESTADISTICA Capitulo 2 Suficiencia e informacién .. 43 2.1 Parémetros desconocidos 43 2.2 Funcién de verosimilitud.. 44 2.3. Suficiencia. 47 2.4. Criterio de factorizacién de Fisher-Neyman 52 2.5 Informacién.... 54 2.5.1, Informacién de Fisher .. . 56 2. Estadistico suficiente ¢ informacion de Fisher . 60 0 Ejercicios resueltos .. Capitulo 3 Estimaci6n puntual: propiedades de los estimadores.... 67 3.1 Introduccién.. see 67 3.2 Concepto de estimador, estimacion y error ede “estimacién. ase 68 3. Error cuadratico medio del estimador .. 69 Propiedades de los estimadores. 71 3.3. Estimador insesgado .. TR 3.3.1. Propiedades de los ‘estimadores insesgados 14 3.4. Estimador eficiente . 7 3.4.1. Cota de Cramér-Rao. 73 3.4.2. Unicidad del estimador eficiente 83 3.4.3. Eficiencia relativa... 84 3. Estimadores UMVUE.. 85 3.5. Estimador consistente...... 86 3.5.1. Propiedades de los cstimadores consistentes .. 88 3.6 Suficiencia........... . . 90 3.6.1. Criterio de factoriza m de Fisher-Neyman... . 1 3.7 Estimador invariante. 92 3.8 Estimador robusto..... 93 Ejercicios resueltos .. 95 Capitulo 4 Métodos de estimacion.... - 109 4.1 Metodo de estimacién de maxima verosimilitud. 109 4.2 Propiedades de los estimadores maximo-verosimiles 116 4.3 Estimacién por el método de los momentos... . sees 7 4.4 Estimacién por el método de los minimos cuadrados “ a 119 Ejercicios resueltos .. 122 CONTENIDO @ IX Capitulo 5 Estimaci6n por intervalos .. 5.1 Introduccién.. 5.2. Métodos de construccién de intervalos de confianza . 133 5.2.1. Método de la cantidad pivotal. 133 5.2.2. Metodo general. 136 5.2.3, Intervalos de confianza de longitud minima. 139 5.3 Intervalos de confianza en poblaciones normales . 141 5.3.1. Intervalos de confianza para la media y de una distribuci6n norinal siendo o conocida. 142 5.3.2. Intervalo de confianza para la media 1 de una distribucién normal siendo desconocida... seve 145 5.3.3. Intervalo de confianza p para a la varianza 6? de una poblacién normal 146 5.4. Intervalos de confianza en poblaciones no normales 148 5.4.1, Caso general. 148 5.4.2. Intervalos de confianza basados en grandes muestras...... 150 5.5 Determinacién del tamafo de la muestra .......... 153, Capitulo 6 Contrastacién de hipétesis 0000 157 6.1 Conceptos generales 157 6.2. Contraste de hipétesis 158 6.2.1, Hipétesis simples ....... 160 6.2.2, Lema de Neyman-Pearson ... 163 6.3 Hipétesis compuestas im 6.3.1, Funcién de potencia .. 172 6.3.2. Contrastes uniformemente mds potentes (CUMP).. 174 Ejercicios resueltos .. 17 Capitulo 7 Contrastes de significacién.. 7.1, Principios basicos ... 7.1.1. Contraste de la media de una poblac in normal con 6 conocida 186 7.1.2. Contraste de la media de una poblacién normal con ¢ desconocida.... 188 7.2. Contraste raz6n de verosimilitud .... 190 7.3. Contrastes asint6ticos basados en la funcién de verosimilitud... 197 7.3.1. Test de Wald .. 197 7.3.2. Test de los multiplicadores de Lagrange. 200 7.3.3. Comparacién de los tests razén de ver icadores de Lagrange 204 7.4 RelaciGn entre los contrastes de hipétesis y los intervalos de confianza.. 205 XX ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA Capitulo 8 Contrastes paramétricos 8.1 Contrastaci6n de hipétesis sobre la media de una poblacién - 209 normal . . 209 8.1.1. Varianza poblacional conocida.. . 209 8.1.1.1. Hipotesis simples: H,[d = Hg) » Hy = H,] 209 8.1.1.2. Hipotesis compuestas: Hy (i = to) H, fu > wo] 0H, fu < py]. 215 8.1.1.3. Hipotesis compuesta: Hy [ht = Hg], Hy (H# Hg] sesesceneecrneee 216 8.1.2. Varianza poblacional desconocida .. seceeeeeee 219 8.1.2.1. Hipoesis simples: H, fh = pl Hy = py) sven, 219 8.1.2.2. Hip6tesis compuestas: H, {ht = Hg]. H, > tig] OH, fu < py}. 221 8.1.2.3. Hipotesis compuesta: Hy (ht = fg]s Hy (H # fg] wcccveceseseenee 222 8.1.3. Cuadro resumen de los contrastes de medias en poblacién normales. 224 8.2 Contrastaci6n de hipétesis sobre la varianza de una poblacién normal ... + 226 8.2.1. Media poblacional conocida. secesesseeeaseceseesseeenecesnee 226 8.2.1.1. Hipotesis simples: Hy [0 = 02], H, [07 = 67] sessecsseecssenee 226 8.2.1.2. Hipotesis compuestas: H, (0? = 03], H, [a? > of] 0 H, fo? <3] 231 8.2.1.3. Hip6tesis compuesta: H, [o” = 03], H, {o? + 03] 231 8.2.2. Media poblacional desconocida. we 235 8.2.2.1. Hipbtesis simple: H, (07 = 02], H, [07 = OF] vecvcecrenenves 235 8.2.2.2. Hipétesis compuestas: H, (0? = 03], H, (5? > oj] 0 H,[o? < a3) 238 8.2.2.3. Hipotesis compuestas: H, [0 = of]. H,lo? + of] 238 8.2.3. Cuadro resumen de los contrastes de varianza en poblaciones normales, 238 8.3 Contrastacién de hipétesis sobre el coeficiente de correlacién lineal de una poblacién normal bidimensional. - 240 8.3.1. Contraste de incorrelacin lineal: H,[p = 0}, H,{p # 0] 240 8.3.2. Comtraste de asociaci6n lineal: Hg[p = py]. Hylp # po] «=... 241 8.4 Contrastacién de hipétesis sobre los coeficientes de regresion de una poblacién normal .... 242 8.5 Contrastes entre dos poblaciones .. 244 8.5.1. Contrastes de igualdad de medias sa 244 8.5.1.1. Varianzas poblacionales conocidas 244 8.5.1.2. Varianza poblacional comiin descon0cida ....ciseoeeesesrnenee — 249 8.5.2. Contraste de igualdad de varianzas .. seve 253 8.5.2.1. Medias poblacionales Conocidas......vstsesetseee soe 253 8.5.2.2. Medias poblacionales desconocidas.... - 258 8.6 Contrastacién de hipétesis en muestras grandes . 259 8.6.1. Planteamiento general..... 259 8.6.2. Contraste de proporcione 260 Ejercicios resueltos os 264 CONTENIDO M® XI Capitulo 9 Contrastes no paramétricos ...... 9.1. Introduccién. 9.2. Contrastes de bondad del ajuste 9.2.1. Test x? 9.2.1.1. Test x? cuando no se estiman pardmetros 9.2.1.2. Test 72 cuando se estiman pardmetros 9.2.2. Test G? de la raz6n de verosimilitud .. 9.2.3. Test de Kolmogorov- Smirna 9.2.4, Comparacién de los tests x7, G? y de Kolmogorov ‘Smirnov. 286 9.3 Test de rachas para el contraste de aleatoriedad. 287 9.4. Test de Wilcoxon: contraste de localizaci6n .. 290 9.5. Test de correlacién por rangos de Spearman para asociacion 293 9.6 Tablas de contingencia .... . 298 9.6.1. Contraste de independencia 299 9.6.2. Contraste de homogeneidad .. 304 Capitulo 10 Introduccién a la teoria de la decisién e inferencia bayesiana ........ pane 309 10.1 Teoria de la decision. 309 10.1.1. Tipologia de la decisi6n .. 311 10.1.2. Decisién sin experimentaciér 311 10.1.2.1, Decisién en ambiente de incertidumbre: Criterio minimax 312 10.1.2.2, Decisién con riesgo: Solucién de Bayes... fone BIZ 10.1.3. Decisi6n con experimentaci6n. 313 10.1.3:1. Funcién de decisién . 313 10.1.3.2. Funcién de pérdida 313 314 10.1.3.3. Funcién de riesgo........ 10.1.34. Decision en ambieme de incertidumbre: Criterio minimax. 314 10.1.3.5. Decisi6n con riesgo: Decisién de Bayes... 317 10.2 Inferencia bayesiana: distribuciones a priori y a posterior 318 10.3 Estimacién de Bayes . 319 10.4 Contrastacién bayesiana de hipétesis 324 Ejercicios resueltos ... 327 Bibliografia 333 Tablas estadisticas ... 337 Indice analitico . 349 CAPITULO 1 | Muestreo: estadisticos y sus distribuciones | 1.1 Poblacién y muestra El conjunto de todos los posibles resultados de un fenémeno, o experimento aleato- tio, recibe el nombre de poblacién', denomindndose elemento a cada uno de sus componentes, pudiendo ser su mimero finito 0, en teorfa, infinito. Cabe, también, i contemplar una poblacién como un conjunto de elementos con una o mas caracte- risticas comunes. La poblacién se caracteriza probabilisticamente mediante varia- bles aleatorias y éstas por sus campos de variaci6n y distribuciones de probabilidad, que especifican el comportamiento aleatorio de la poblacién. Una muestra es un subconjunto” de una poblacién. Si el nimero de elementos del subconjunto es n, diremos que la muestra es de tamafio n. También cabe definir la muestra como la observacién de n elementos de una poblacién, 0 el resultado de repetir n veces un experimento aleatorio. Designaremos la muestra genérica por X, ' También universo o colectivo. 2 Bn la prictica, fnito 2 = ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA y al referirnos a sus elementos por (x,..., X,) si es de tamafio n, de tal forma que x, es el elemento que corresponde a la i-ésima observaci6n. Si tomaramos las posibles muestras de tamafio n de una poblacién, el conjunto de todas ellas constituye el espacio muestral, 2%, integrado por tantos elementos como muestras distintas sea posible obtener, y dado que cada muestra viene defini- da por un conjunto de n valores, (x,,...,x,) podemos pensar, también, en el es- pacio muestral como incluido en un espacio n-dimensional, en el que las coordena- das de cada punto son los correspondientes elementos muestrales, (%, ..., %,)» de cada una de ellas. Segiin lo expuesto, una muestra concreta puede ser considerada como la realiza- cién de un experimento consistente en la extraccién de una muestra de entre todas las integrantes del espacio muestral, por lo cual es posible contemplar la muestra genérica X como una variable aleatoria n-dimensional, cuya distribucién de proba- bilidad depende de la distribucién de probabilidad de la variable aleatoria poblacio- nal, F(x), del procedimiento de seleccién y del tamafio n de la muestra. La finalidad «ideal» perseguida al tomar una muestra es la representacin a escala de la poblacién, por Io que el procedimiento seguido para obtener la muestra debe garantizar esta representaci6n «perfecta». En una bolsa tenemos mil bolas del mismo tamafio: 900 de color blanco y 100 negro. Para que una muestra sea exactamente representativa debera contener bolas con los colores en la misma proporcién que en la poblacién: 90% blancas y 10% negras. Si el tamafio muestral es 100 deberia haber en tal muestra 90 bolas de color blanco y 10 de color negro. En la mayoria de los casos esto no sucede, apartandose el resultado muestral de la situaci6n ideal deseada (por ejemplo, la muestra obtenida puede estar constituida por 87 bolas blancas y 13 negras), atribuyéndose las desvia- ciones al proceso de seleccién de la muestra, desviaciones que no invalidan los resultados del proceso inferencial, siempre que las diferencias no sean sisteméticas y tengan origen aleatorio, es decir, sean debidas al azar. 1.2 Tipos de muestreo El procedimiento utilizado para la obtencién de cada uno de los elementos mues- trales puede ser aleatorio 0 no, disyuntiva que conduce a que la seleccién de la muestra sea probabilistica 0 no. Para garantizar la necesaria representatividad de la muestra, los elementos deben ser extraidos de la manera més objetiva posible, a fin de no influir en la Ieccién de cada uno de eilos, lograndose la representatividad cuando la extraccién se realiza al azar. Si ésto es asi, diremos que la muestra es probabilistica o aleato- MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES M3 ria. Por otra parte, el procedimiento probabilistic permitira, como veremos en capitulos posteriores, conocer en términos de probabilidad el error que se comete al utilizar la muestra como reflejo de la poblacién. Como ejemplo de seleccién no probabilistica tenemos la muestra opindtica donde el investigador elige, con criterios no aleatorios, los elementos que va a estu- diar. Esa manera de proceder impide medir el posible error que pueda cometerse en el andlisis que se esté realizando. En el muestreo probabilistico se distinguen dos tipos dependiendo de cual sea el procedimiento aleatorio de extraccién utilizado, pues influye en la probabilidad de obtencién de los elementos de la muestra. Podemos extraer los elementos muestra- les de dos maneras: con reemplazamiento y sin reemplazamiento. EI muestreo se lleva a cabo con reemplazamiento cuando una vez extraido un elemento, y hechas sobre él las observaciones oportunas, se devuelve al colectivo, Jo que supone que la poblacién no es modificada y el elemento puede ser elegido de nuevo. Esta forma de actuar implica que la probabilidad de extraccién de cada ele- mento es la misma para todos ellos, pues la poblacién no cambia. EI muestreo tiene lugar sin reemplazamiento cuando el elemento elegido se ex- cluye del colectivo y, por consiguiente, éste se modifica de tal manera que la pro- babilidad de extraccién de un elemento depende de cudntos y cuales hayan salido con anterioridad?. EI muestreo con reemplazamiento conduce a que los elementos de la muestra sean probabilisticamente independientes, mientras que en el muestreo sin reempla- zamiento no lo son. En todo el estudio estadistico que realizaremos en este manual las muestras se- rn aleatorias con reemplazamiento, denominandolas muestras aleatorias simples.* Si en el ejemplo anterior la muestra de tamaflo 100 se obtiene con reemplaza- miento, la probabilidad de que la primera bola sea blanca es 900/100, al devolver la bola a la bolsa la probabilidad de sacar la segunda bola blanca es, también, 900/100 y asi sucesivamente. En el muestreo sin reemplazamiento, la bola extraida se aparta, la probabilidad de extraer la primera bola blanca es 900/1000, igual que en el caso anterior, pero la probabilidad de la segunda blanca es 899/999, pues la primera no fue devuelta a la bolsa, produciendo tal manera de proceder una modifi- cacién de la estructura de la bolsa al pasar de un total de 1000 bolas a 999 y de 900 bolas blancas a 899. > Se supone que, junto con el procedimiento aleatorio, se mantienen fijas tas condiciones bajo las que se realiza el experimento. Esta condicién es relativamente factible en la experimentacion en las ciencias fisicas, ‘quimicas, etc., no es asf en las sociales donde el control es, en el mejor de los casos, dificil “ Algunos autores lo denominan muestreo aleatorio, 4 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA EJEMPLO 1 Tenemos 100 bolas de las mismas caracteristicas numeradas con 1, 2 y 3 en la siguiente cuantia: 20 con el mimero 1, 30 con el 2 y 50 con el 3. Se toman muestras aleatorias sim- ples de tamafio dos y construimos su espacio muestral bidimensional 2. En el plano, el espacio muestral esta constituido por los puntos cuyas coordenadas son las posibles muestras distintas de tamafio dos 3 14,3) @,3) 6,3) 2 22) G2) a) 2) B,D 1 2 3 La muestra (1, 3), por ejemplo, esté integrada por una bola con el mimero 1 y otra con el 3. Las probabilidades que tienen de ser elegidas estas muestras son 0,10 0,15 0,25 2 |0,06 0,09 0,15 0,04 0,06 0,10 1 2 3 El cAlculo de las probabilidades se ha hecho de la siguiente forma, por ejemplo, para la muestra (1, 3), PA, 3) = Pi(bola 1) > (bola 3)] = P43) como la muestra es aleatoria simple sus elementos son independientes y la probabilidad de su interseccién igual al producto de las probabilidades, quedando P(L, 3) = P()- P(3) = 0,2-0,5 = 0,10. La probabilidad de extraer una muestra con un | y un 3, sin importar el orden de obtencién se calcula del siguiente modo: Esta combinacién de valores de la variable puede proceder de Ja muestra (1, 3) 0 de la muestra (3, 1), por tanto, P(muestra con un ly un 3) = P[muestra (1, 3) U muestra (3, 1)] como las dos muestras son sucesos disjuntos, la probabilidad es igual a P {muestra (1, 3)] + P[muestra (3, 1)] = 0,10 + 0,10 = 0,20. EJEMPLO 2 En el ejemplo 1 obtuvimos para las muestras aleatorias simples de tamaiio 2 las probabilida- des correspondientes en su espacio muestral 26. A continuacién hacemos lo mismo pero siendo las muestras aleatorias extraidas sin reemplazamiento, lo que implica que sus ele- mentos no son independientes. El ejemplo se desarrolla en dos cuadros. En el primero tene- ‘mos el proceso de cdlculo de las probabilidades y, en el segundo, sus valores MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES M5 3 | 2.50 3050 50 49 100 99 100 99 100 99 2 [22.30 30.29 50.30 100 99 100 99 100 99 1 | 22 30.20 50 20 100 99 100 99 100 99 1 2 3 3 /0,1010 01515 0,2475 2 |0,0606 0,0879 01515 1 |0,0384 0,0606 _0,1010 1 2 3 Se aprecia, con claridad, que los valores de las probabilidades para cada clase de muestra difieren de un tipo de muestreo a otro. Ss 1.2.1, DISTRIBUCION CONJUNTA DE LA MUESTRA La probabilidad de extraccién de una muestra aleatoria simple conereta (x... 5 X,)s sila variable poblacional es discreta con funcién de cuantia P(é = x), se calcula de la siguiente forma. El suceso final es {6 = 4} 0 (6, = y}.0-- OE, =x,} y como la muestra es aleatoria simple sus elementos son independientes, por lo cual, P(X, Xqy ee X,) = PLE, = HAO E, = HPO OE, = x= =P = %)- PE, =) PG, = %,) siendo P(& = x) la probabilidad de obtener en la poblaci6n un elemento cuyo valor sea x, y P(x,...,%,) la funcién de cuantia conjunta de la muestra. En el caso que la variable aleatoria poblacional sea continua, con funcién de densidad f(x), la probabilidad elemental de obtener el resultado muestral concreto (x, «--+ X,), por ser la muestra aleatoria simple, es FO oo %,) de de, donde (x,,...,x,) es la funcién de densidad conjunta de la muestra, verificandose Fp Hy) = FH) FG): por ser independientes sus élementos. 6 lm FUNDAMENTOS DE INFERENCIA ESTADISTICA En una muestra aleatoria simple (x... , x,) se verifican las siguientes rela- ciones entre sus elementos: 1 F(a) = Fy) = = FO,) = F@) Il) F(X, X45 ++» Xp) = FO) - F(X) FQ) es decir, «las variables aleatorias x, son independientes e idénticamente distribui- das con la misma distribucién de probabilidad que tenga la poblacién». La manera practica de obtener una muestra aleatoria simple es la de realizar el muestreo con reemplazamiento. Si la muestra no fuera aleatoria simple (es decir, si la extraccién hubiera tenido lugar sin reemplazamiento y, por consiguiente, sus elementos no son independien- tes), la modificacién de la estructura poblacional conduce a que la probabilidad de una extraccién venga condicionada por las extracciones anteriores, y la funcin de cuantia conjunta es : 4.) P(X +X) = 16 =x /& =X isl y la funci6n de densidad conjunta FO 0%) = TT $04) os Ha i= 1.3 Distribucion de la poblacién, distribucion de la muestra y distribucién en el muestreo. Estadisticos Un concepto de gran importancia en el planteamiento de la Inferencia Estadistica es el de funcién de distribucién empirica de la muestra, definida en una muestra de tamafio n como F(x) =—, siendo N, el mimero de observaciones muestrales menores 0 iguales que x,, es decir, la frecuencia acumulada. Esta funcién presenta tantos saltos como valores a . , 1 . muestrales distintos haya, siendo ld cuantia del salto — cuando no se repite el valor 7 MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES = 7 n . a ae x, y + cuando x, se repite n, veces, lo que indica que la funcién de distribucién n empirica es siempre discreta. En la funcién de distribucién empirica de la muestra podemos calcular todos sus momentos, uni o k-dimensionales, con respecto al origen o a la media, como en una poblaci6n cualquiera y, para distinguirlos de los poblacionales, se les denominara momentos de la muestra o muestrales, representandolos por a, o m, (segin sean especto al origen o respecto a la media). Una bolsa contiene 1.000 bolas, todas de igual tamafio, y marcadas con cuatro nimeros distintos en la siguiente cuantia: 400 con el nimero 1, 100 con el 2, 300 con el 3 y las 200 restantes con el 4. El campo de variacién de la variable aleatoria &, numeracién de las bolas, est integrado por los cuatro niimeros enteros 1, 2, 3 y 4, y la distribueién de probabilidad de la poblacién es P=1)=04; P&=2)=0,5 PE=3)=0,3; PE =4)=0,2 Se expresa esta distribucién mediante el diagrama de barras de la funcién de cuantia que aparece en la figura 1.1(a). Tomamos una muestra aleatoria simple de tamafio 100, siendo el resultado 43 bolas con el mimero 1, 6 con el 2, 28 con el 3 y 23 con el nimero 4. Los elementos muestrales tienen el mismo campo de variacién que en la poblacién. La distribu- cién de frecuencias de la muestra obtenida es la siguiente: f, 4-043; 2 - 0,06; 7” n a me 0,23. 7” 7 w FIGURA 1.1 (a) Distribucién de la poblacién. (6) Distribuci6n de la muestra de tamafio 100. 8 M FUNDAMENTOS DE INFERENCIA ESTADISTICA Si comparamos el diagrama de barras muestral, Fig. 1.1(b), con el poblacional apreciamos que pese a ser muy parecidos no coinciden, pues la muestra no repro- duce exactamente la estructura de la poblacién, debiéndose esta diferencia a la va- riabilidad introducida en la estricta aleatoriedad tedrica de la muestra. Si tomamos otras muestras, cada una de ellas tendr4 su propia distribuci6n, que se aproximard tanto més a la de la poblaci6n cuanto «més aleatorio»’ haya sido el proceso de se- lecci6n, es decir, «més objetivo. En general, en una muestra concreta, sus caracteristicas (momentos, etc.) no tienen por qué coincidir exactamente con las correspondientes de la poblacién a causa de la aleatoriedad del procedimiento de extraccién de los elementos (el azar, no mecanicista, no asegura la «objetividad absoluta»), pero si la muestra ha sido tomada con las maximas garantias de aleatoriedad, con la méxima objetividad, es de esperar que los valores de las caracteristicas muestrales no se alejen demasiado de los poblacionales, 1o que proporciona a la muestra sus posibilidades inductivas. — EJEMPLO 3 Consideremos una caracteristica cualquiera de la poblacién y la correspondiente de la mues- tra, por ejemplo, la esperanza matemética, la media. En la poblaci6n anterior su valor es «PE =1)+2- PE =2)4+3-PE=3)+4-PE=4)= =1-0442-014+3-03+4-02= =23 H y en la muestra y=1-942-243.44.4- non nn = 1-043 + 2+ 0,06 + 3-028 + 4-023 = =231 valores que, aunque muy préximos, no coinciden. Ahora bien, lo que realmente confiere a las muestras aleatorias toda su potenci- lidad inductiva, es que la funcién de distribucién empirica converge en probabilidad a la funcion de distribucién poblacional (teorema de Glivenko-Cantelli,° denomina- 5 Si fuera posible emplear esta expresiOn, cientificamente inadecuada. ®SiD, = sup |E*(x)-F(x)] y. lim P(D, 2 ©) = 0. MARTIN PLIEGO y Rutz-MayA: Fundamentos de Probabilidad, Capitulo 9. MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES @ = 9 do teorema fundamental de la Estadistica) implicando, como veremos, que las caracteristicas muestrales, bajo condiciones generales, convergen en probabilidad a las correspondientes poblacionales’ Estadistico Cualquier funcién de los elementos muestrales recibe el nombre de estadistico, siempre que no contenga pardmetros desconocidos, design4ndose por T(X) = T(x, ..., %,), por ejemplo, TX) =H + x= Dy TX) =x 4-4 = Vx? x4 TX) = T,(X) = wy = min (4, ..., x,) 7% = Din x, En particular, trataremos con estadisticos muy concretos: los momentos mues- trales (concretamente, media, varianza, covarianza), el valor minimo o maximo de la muestra, etc. Los elementos que integran la muestra son variables aleatorias, por lo que cual- quier funcién de estos elementos, el estadistico, también sera variable aleatoria.* Como tal variable aleatoria el estadistico tendr4 su propio campo de variacién y su distribuci6n de probabilidad determinados, a su vez, univocamente por el campo de variaci6n y la distribucién de la poblacién. El campo de variacién del estadistico es el conjunto de valores que toma para cada uno de los elementos del espacio muestral correspondiente. Si consideramos un estadistico cualquiera, tomamos todas las posibles muestras y en cada una de ellas calculamos su valor, habremos obtenido todos sus posibles valores, su campo de variacién. 7 De af el acierto de CRAMER al designar la muestra como imagen estadistica de la poblacién. * MartiN PLieGo y RUIZ-MAYA: Fundamentos.. Capitulo 2 10M FUNDAMENTOS DE INFERENCIA ESTADISTICA Dado que un estadistico se genera en el proceso de muestreo, su distribucién de concepto de distribucién en el muestreo y el teorema de Glivenko-Cantelli constitu- yen las piezas clave de la Inferencia Estadistica, al ser la base sobre la que se cons- truye todo el edificio de estimacién y contrastacién de hipétesis que se estudiaran més adelante. Por otra parte, segtin se estudiar4 con detalle en el capitulo 2, el estadistico in- duce una particién del espacio muestral 2. Para analizar con mas detalle el concepto de distribucién en el muestreo, toma- remos una variable discreta, calculando las medias y varianzas de las correspon- dientes distribuciones en el muestreo. EJEMPLO 4 Una variable aleatoria & presenta los valores 1, 2 y 3, con probabilidades 0,1, 0,2 y 0,7. ‘Tomamos muestras aleatorias simples de tamafio 3 y consideramos como estadistico la media muestral. En el cuadro de la pagina siguiente tenemos todas las posibles muestras distintas (Clases de muestras), el valor de la media de cada muestra y la probabilidad de obtenci6n de estas muestras. El célculo de las medias y de las probabilidades se ha realizado de la siguiente forma: El nimero de valores de la media de cada muestra depende del tipo de muestra, pues hay valores medios que s6lo aparecen en una tinica clase de muestra asf, por ejemplo, en la muestra (1, 1, 1) la media'vale 1, 4+1 = 1, y no se repite. En otros casos, el valor de la media corresponde a un tinico tipo de muestra, aunque sus. elementos aparezcan en distinto orden, por ejemplo, la muestra (1, 1, 2) puede aparecer con tres ordenaciones distintas (1, 1, 2), (1, 2, 1) y 2, 1, 1) y, en los tres casos, 1a media es la misma, 4/3 Por iiltimo, 1a media puede tomar un valor procedente de clases de muestras distintas: si Ja media es igual a 7/3, este valor puede proceder de la muestra tipo (2, 2, 3) 0 de la mues- tra tipo (3, 3, 1), en ambos casos tenemos tres posibles muestras. Partiendo de lo expuesto, calculamos las probabilidades de obtencién de los valores con- cretos de la media en estos tres ejemplos: "Media igual a1 P(& = 1) = Plobtenci6n de la muestra (1, 1, 1)] = = Pl(obtener len la primera extraccién) 0 a © (obtener 1 en la segunda extraccién) 0 7 (obtener 1 en la tercera extraccién)]. MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES M11 Clases de Muestras Medias Probabilidades de obtencién muestras distinsas muestrales de las muestras () G1.) 1 0,1 -0,1 - 0,1 = 0,001 (1,2) 413 0,1 - 0,1 - 0,2 = 0,002 1,2) 2,1) 43 0,1 0,2 0,1 = 0,002 @1,) 403 0,2-.0,1 0,1 = 0,002 43 0,006 1, 3) 5/3 0,1? - 0,7 = 0,007 (a, 1,3) (3,1) 513 0,007 B10) 5/3 0,007 5/3 0,021 (1,2, 3) 2 0,1 -0,2-0,7= 0,014 (a, 3,2) 2 0,014 neta Q,1,3) 2 0,014 2,3, 1) 2 0,014 GB, 1,2) 2 0,014 G,2,1) 2 0,014 2 0,084 (1, 2,2) 5/3 0,1 - 0,2? = 0,004 2,2.) Q,1,2) 5/3 0,004 22,1) 5/3 0,004 5/3 0,012 2,2, 2) @,2,2) 2 0,2? = 0,008 @, 2,3) 13 0,2? - 0,7 = 0,028 2,2, 3) 2, 3,2) 713 0,028 G,2,2) 13 0,028 13 0,084 @B,3,1) 13 0,7? - 0,1 = 0,049 B30 1,3) 713 0,049 3, 3) 73 0,049 73 0,147 3,2) 8/3 0,2 - 0,7 = 0,098 3.3.2) 2,3) 83 0,098 2.3.3) 83 0,098 8/3 0,294 G3, 3) G3, 3) 3 12 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA. Como Ia muestra es aleatoria simple sus elementos son independientes® y la probabilidad de la interseccién de sucesos independientes es igual al producto de las probabilidades de cada uno de los sucesos, siendo la expresi6n igual a: (obtener 1 en la primera extraccién) (obtener 1 en la segunda extracci6n) P(obtener 1 en la tercera extraccién) = = P() P()- P) = [POP = 01 = = 0,001. Media igual a 4/3 P(X = 4/3) = P{muestra (1,1,2) U muestra (1, 2,1) U muestra (2,1,1)] Las muestras son aleatorias simples y disjuntas, por lo que, en cada una los elementos son independientes siendo la probabilidad igual a P(X = 4/3) = P(1)- P(l)- P(2) + P(l)- P(2)- P(A) + P(2)- Pl): PQ) = = 3 P()- PC): P(2) = 3-07 - 0,2 = = 0,006. Media igual a 7/3 P(E = 7/3) = Pmuestra tipo (2, 2,3) U muestra tipo (3, 3,1)] = = P[muestra tipo (2, 2, 3)] + P {muestra tipo (3, 3, 1)] P(clasede muestra(2,2,3)] = P{muestra(2,2,3)U muestra(2,3,2) muestra(3,2,2)] = = P{muestra(2,2,3)]+ Pimuestra(2,3,2)]+ P{muestra(3,2,2)] = = P(2) P(2) P(3) + P(2) P(3) P(2) + P(3) P(2) P(2) = =3[P(2)} P(3) =3-0,2?-07 = = 0,084 P{clase de muestra (3,3,1)] = 3 [P()° P(l) = 3-0,7? - 04 = 0,147 P(E = 7/3) = P{clase de muestra (2, 2, 3)] + P{clase de muestra (3, 3, 1)]= = 0,084 + 0,147 = 0,231. ° EI muestreo se ha realizado con reemplazamiento. MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES La distribuci6n de probabilidad en el muestreo de la media muestral resulta: Distribucién en el muestreo de la media muestral x | Pe=% 1 0,001 4/3 0,006 5/3 0,033 2 0,092 73 0,231 8/3 0,294 3 0,343 FIGURA 1.2 Distribucién en el muestreo de la media de muestras aleatorias simples de tamaiio 3. En el campo de vari 13 in de la media muestral aparecen valores que se generan en el proceso de muestreo y que no estan contemplados en el campo de la variable poblacional En la figura 1.2 representamos la funcién de cuantia muestral de la media, pudiéndose comprobar al compararla con la de la poblacién y la de la muestra concreta de la figura 1.1, que se trata de una variable distinta aunque ligada a la primera. La anterior distribucién de probabilidad en el muestreo es una distribucién de probabi- lidad como cualquier otra, y el cdleulo de sus caracteristicas se leva a cabo mediante los pro- cedimientos habituales. Calcularemos la esperanza y la varianza de la media muestral. 14 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA Esperanza E()= +X, P(E =5,) +X, P= %,)+X, PH=X,)= =1-0001 + 4.0006 + 5-0,033+2 0,092 + + $0231 +f 0,294 + 3-0,343 = = 2.6 ™@ Varianza PR = %,) + ¥} PC ¥,)+¥ PC 452 PQ =%,)4+ 82 P(T=%,)+ FF PR 4y sy =P -0,001+ (3) + 0,006 + (3) + 0,033 + 2? 0,092 + 7y 8) + (3) + 0,231 + (3) + 0,294 + 3? - 0,343 = = 6,9067 V(x) = E(R*) -[E(®)]? = 6,9067 — 2,67 = 0,1467 1.4 Caracteristicas de las distribuciones en el muestreo Estudiaremos como caracteristicas de las distribuciones en el muestreo las esperanzas y varianzas de los momentos respecto al origen y a la media. En general, supondremos que las muestras han sido extraidas de poblaciones con media 1 y varianza ?. 1.4.1. MOMENTOS MUESTRALES CON RESPECTO AL ORIGEN En una muestra aleatoria X de tamafio n (x, ..., x,), de una variable aleatoria &, se definen los momentos muestrales de orden r con respecto al origen como 1 a=— n MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES M15 Calculamos la esperanza matemiatica de a,, variable aleatoria por ser funcién de los elementos muestrales, E(a,) = et £| =4 Seaty=4+ Yee) =4na, =a,. mijzy nin nis n EI resultado dice que, sea cual sea la distribucién que tenga la variable aleato- ria poblacional, la esperanza matemética de cada momento muestral respecto al origen siempre es igual al correspondiente momento poblacional. Ademis, esto sucede aunque la muestra no sea aleatoria simple, es decir, aunque sus elementos no sean independientes. Calculamos, a continuacién, las varianzas de las distribuciones en el muestreo de estos momentos. Si la muestra aleatoria es simple, sus elementos son variables independientes y Ia varianza de su suma es igual a la suma de las varianzas"” Vea, = ve ie] - nv’) =+ Ble - B60" = + ER -a,1° = = gpg” +a? 20,8") = + (@,, - 22). i i Frente a lo apuntado para la esperanza matematica de los momentos, el resulta- do a que hemos Ilegado en la varianza exige que las variables aleatorias integrantes de la muestra sean independientes, es decir, la muestra tiene que ser aleatoria sim- ple. Media muestral Centrandonos, en particular, en la media de la muestra, momento de orden uno, tenemos que E(®) = Ela) = oy = Ven = iq) = + (a, - a) *® Marin PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 4. 16 ™ = FUNDAMENTOS DE INFERENCIA ESTADISTICA En el ejemplo 4, el valor de la varianza poblacional es 0,44 y el de la varianza de la media muestral V(x) = = = 01467 que coincide con el obtenido a partir de la distribucién en el muestreo de la media muestral. 1.4.2. MOMENTOS MUESTRALES CON RESPECTO A LA MEDIA Definimos los momentos muestrales de orden r con respecto a la media muestral E, m,, como LG, -v" a demostrandose que E(m,) =u, + of) n ’ lo que revela el hecho que el valor esperado de los momentos muestrales respecto a la media no coincide con sus respectivos momentos poblacionales, diferenciéndose . 1 ‘ fs en la cantidad of), que sera tanto menor cuanto mayor sea el tamafio de la n muestra. Varianza muestral Como caso particular estudiaremos la varianza muestral cuya expresién es De -x 2 . 7 s Para calcular su esperanza matematica hacemos, previamente, algunos célculos sumando y restando la esperanza de la variable aleatoria poblacional &, j1, en el paréntesis del segundo miembro, YG -F+p-w? Ms I, - ») - @ - wP. = sie MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES i 17 Desarrollamos el cuadrado Ziel, —w? + WP ~ 26 - wea, - WI = i “lf ~ w? + mF — w)? ~ 207 — (ae - | = ale ae DG, -w? +a w? -24-w De, - »| ie aie -4|Se =n) a -') Calculamos la esperanza matemética de la varianza muestral, 5, mediante la expresién anterior 1 = al Se ~ py? =n - 0 = n fet E(s*) [$0 py nec] a. En el segundo miembro aparecen primera dos esperanzas, la E(x, —11)* coincide 2 con la varianza poblacional, o?, al ser la muestra aleatoria simple y la segunda 2 E( ~))' es la varianza de la media muestral, 2, Hegando por iltimo a n La varianza de la varianza muestral, Vs), de calculo complicado, es 2 ae V¢e?y = Heo _ 2a = 248), a = 34 7 n 7 Adquiere especial importancia en la Inferencia Estadistica la cuasivarianza muestral'', 57, definida como Do —e ma " MarIN PLIEGO: Capitulo 4. 18 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA La relaci6n entre la cuasivarianza y la varianza es inmediata, pues y la varianza’* Vs?) = vf _ By = HG 204 = 265) he = 3H | (n-1) n 1 — = 3] | (n-1P n i 2), — (a 4H} + 1.4.3. MOMENTOS MUESTRALES DE DISTRIBUCIONES BIDIMENSIONALES Al generalizar lo expuesto respecto a los momentos vamos a centrarnos, tnicamen- te, en el caso de poblaciones bidimensionales. Se parte de una muestra aleatoria de tamafio n [(%3 J,)s--+» (%3 J_)] de la poblacion (&; n). Las expresiones de los momentos mixtos muestrales son Le -H'O,-9" legdndose a que E(a,.) = Os En el caso de una poblacién con distribucién normal no" Vis?) = y Vs) dado que p, = 30" yp, = 6? MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES @ 19 De los momentos con respecto a la media, el més importante es el de orden (uno, uno), la covarianza muestral Le m= UE -DO-D 1 cuya esperanza es E(m,) = hy a , De manera anéloga a lo estudiado en los momentos de las distribuciones bidi- mensionales poblacionales pasamos en la muestra’? a los momentos de las distribu- ciones unidimensionales marginales. Si en la expresin general de los momentos respecto al origen hacemos r=1, s=0 y r=0, s=1, llegamos a que 1 =-)x, %0 =F son las medias muestrales de las dos distribuciones marginales. Si, ahora, particula- rizamos en las expresiones de los momentos respecto a las medias para r= 2, s=Oyr=0, s=2, resultan las varianzas de las dos distribuciones marginales m. eye 1a, = LG, P= 5s Mg = 0, - HP = 5; El coeficiente de correlaci6n muestral, r, es igual a L¢ 7 = 7 XG, - 2, - y) El coeficiente de correlacién muestral r, como el poblacional p, cumple la con- dicién de tomar valores exclusivamente en el intervalo [-1; 1]. Cuando r= 1, todos los elementos muestrales (x,; y,) se encuentran sobre una recta con pendiente posi- tiva; si r =~1, la recta tiene pendiente negativa'*, Marri PLIEGO: capitulo 3 MaRriN PLIEGO y RUIZ-Mava: Fundamentos... Capitulo 8. 20 M™ FUNDAMENTOS DE INFERENCIA ESTADISTICA 1.5 Estadisticos ordenados En ocasiones, de los posibles valores que puede tomar una variable aleatoria intere- san algunos concretos: en las temperaturas, los valores minimo y maximo diarios, en el anilisis de fiabilidad, la vida maxima de una pieza, las dosis minimas o ma- ximas de un medicamento, cotizaciones extremas de Bolsa, etc. En todos estos ejemplos, se pretende llevar a cabo inferencias sobre aspectos muy particulares del campo de variacién. Los estadisticos ordenados, definidos a continuacién, resuelven* estos problemas y otros andlogos. Consideremos una variable aleatoria continua & con funcién de densidad f(x) y definida en el intervalo -« 0 es: Pty, <& Su, + 8u,) _ lim iu,90 3u, [FI (Fu, + 8u,) - Fu, - Fu, + 84,1" =k tim MOT + Om) = IES P+ OU uy 0 3u, =k LFF tim E+ 8H) = FOI oy equ, yy! 54-90 bu, ‘ donde [E(u + 84) - Fu) _ a 3u, Kes) siendo f(u,) la funcién de densidad de la poblacién particularizada para u,, resul- tando la densidad en el muestreo de 1a variable aleatoria u, = nt int . ni BM) =F Daal [FED fq) L- Fa). 1.5.2. DISTRIBUCION DEL MENOR VALOR DE LA MUESTRA, uy Hemos denominado al menor valor de la muestra como u, , esto es, el minimo de los n valores muestrales (x,,...,x,), u = min (%,...,x,). Esto Heva a que no hay a su izquierda ningin valor menor que w,, entre u, y u, + Su, hay uno y a la dere- cha de u,+ 6u, hay n—1 mayores que u, , gréficamente 1 n-1 a ~» , 4, + 8, ° La funcién de densidad en el muestreo de esta variable aleatoria, u, , la obte- nemos particularizando en la distribucién del i-ésimo valor para i-1=0 y n-i=n-l, es decir, haciendo i =1, legando a la expresion au) =n fu) 1 - Fy)" MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES Ml 23 EJEMPLO 3 Hallamos en la variable aleatoria con funcién de densidad f(x) =e", x20, P(u,2 0,45) en muestras aleatorias simples de tamafio 20. La funcién de densidad de u, es gu.) =n f(u,) 1 - Fu)" siendo fuze" Flu,)=1-e"' Juego g(u,) = 20e“"f1-(-e"')) P= =e, u, 20 Por consiguiente, Pu, 2 0,45) = f. 20 e™" du, = 0,0001234. 5 1.5.3. DISTRIBUCION DEL MAYOR VALOR DE LA MUESTRA, u, De forma andloga a como se ha obtenido la funcién de densidad en el muestreo del menor valor de la muestra, hallamos la del mayor valor, u, = max (%,...,x,). Al ser u, el mayor valor de la muestra entre él y u, +6u, hay un solo valor y los n—1 Testantes tienen que ser menores que u,, como podemos apreciar en el grafico n-1 1 —— -0 u, + du, © Particularizando en la funcién de densidad y de distribucién del i-ésimo valor para i-1=n-1, es decir, n=i resulta gtu,) = 2 fu) (Fu). <= EJEMPLO 4 2 De una poblacién con funcién de densidad f(x) = = , para 0 < x N09). +) ¥} La variable aleatoria ns? es igual a la suma de cuadrados de (n —1) variables N(0; 6) ¢ independientes, y,, y puede ser formulada una nueva variable de la siguiente manera Esta expresi6n es independiente de la media muestral, ¥ , como se expuso en el apartado 1.8 y resulta ser el denominador de la distribucién t con (n 1) grados de libertad'® y junto con que la variable of se distribuye N(O; 6), conduce a una distribucién t de Student con (n—1) grados de libertad vn @-») > t(n-1). 1.9.2, DISTRIBUCION DE LA DIFERENCIA DE MEDIAS MUESTRALES Obtenemos la distribucién en el muestreo de Ja diferencia de medias muestrales provenientes de la misma distribucién N(j1; 6). Se toman dos muestras aleatorias simples, independientes entre si, la primera (x,,...,%,) de tamafio n y la segunda (j++ + Yq) de tamafio m. Las respectivas medias y varianzas muestrales son ' Martin PLIEGO y Rutz-MAYA: Fundamentos... Capitulo 7. 28 M@ FUNDAMENTOS DE INFERENCIA ESTADISTICA En primer lugar, se establece por la generalizaci6n del lema de Fisher-Cochran que la variable aleatoria ns? + ms; es igual a la suma de cuadrados de (n + m - 2) variables aleatorias v,, N(0; 0) e independientes ay tee? ns + ms; = Di ve a con lo cual 2 ns? + ms a 3 sigue una distribucién y? con n +m — 2 grados de libertad. Asimismo, la variable ns + ms; es independiente de X y de yy, por consi- guiente, de su diferencia ¥ — J. Para justificar la distribucién en el muestreo de Ia diferencia de las dos medias, ¥—J, se procede como en el caso de una sola media: llegar a una distribucién que no dependa de la varianza poblacional o” . La variable ¥ — ¥ se distribuye ry w (0:0 pen) a y siendo la variable & N(0; 1) se obtiene con lo que (F- HF nem se distribuye N(0; 0). Por otra parte, el estadistico Yo-7+ Lo-yw f a n+m-2 MUESTREO ESTADISTICO Y SUS DISTRIBUCIONES M™ 29 independiente de la variable ¥ - y, es el denominador de una distribucién r de Stu- dent con (n + m — 2) grados de libertad, por lo cual, la variable \ (®-y) n+m SG@,-y+ S0,-7 n+m-2 se distribuye como «(n+ m — 2). Si en vez de una tinica poblacién, de la cual proceden las dos muestras, 0 de dos poblaciones con la misma distribucién, partimos de dos poblaciones con medias distintas: N (4,3 6) y N(j1;; 6), la distribucién en el muestreo de la diferencia de medias muestrales es mm fe 4m le Y)- (yy, 1] Se,-y + So,-y n+m-2 1.10 Distribucién en el muestreo del coeficiente de correlacion lineal ™ Si p es el coeficiente de correlacién lineal poblacional en una distribucién normal bidimensional siendo p #0 se tiene que, cuando n —> ©, la varia- ble aleatoria’® se distribuye asint6ticamente nit in ite; 1 20 1-p’ Vn-3 "Esta variable aleatoria Z recibe el nombre de transformacién de Fisher. 30 mM FUNDAMENTOS DE INFERENCIA ESTADISTICA Si se supone que en la poblacién p=0, el estadistico coeficiente de correla- ci6n lineal muestral r tiene un comportamiento probabilistico que puede deri- varse de la distribucién (n-2)= vn-2, es decir, la anterior transformacién de r sigue una ley ¢ de Student con n-2 grados de libertad. 1.11 Distribucién de los coeficientes de regresién El coeficiente de regresién muestral de & sobre n es igual a bard. Sy La esperanza del estadistico b es Eb) =B, siendo B el coeficiente de regresién de & sobre 1 en Ia poblacién y la variable (b-B) se distribuye como una f de Student con n-2 grados de libertad. La distribucién en el muestreo del coeficiemte de regresién muestral bY, de & sobre 1, se obtiene de manera andloga, llegdndose a que la variable ('-B/) se distribuye como #(n - 2). ® Marin PLIEGO y RUIZ-MAYA: Fundamentos.... Capitulo 8. EJERCICIOS RESUELTOS DEL CAPITULO1 m™@ 34 EJERCICIO 1.1 Una variable aleatoria & se distribuye uniformemente en el intervalo 0 < x <1. La funci6n de densidad es igual a f(x) = 1. Se toman muestras aleatorias simples de tamaiio 2. Hallese la funcién de distribucién en el muestreo de Ja media muestral Athy 7 SOLUCION. Tenemos que Ge) rites ¥] = P(x, < 25 - x) Para hallar esta probabilidad hemos de tener en cuenta el campo de variacién de y c6mo se desarrolla en él la recta x, =2F-x,, haciéndolo de dos formas distintas, segin que 2% sea menor o mayor que la unidad (0 lo que es igual, ¥< 40 ¥>4). paix, ot GG) = Pox, s 28-3) =f de, de, = 28". = siz>} G(%) = P(x, < 2r-x)= ‘S dr, de, +f fs dr, = = 27 + 4k -1. La funcién de densidad en el muestreo de la media muestral, g(%) = G'(x), es igual a 4E para OsXs} a@= 40-%) para $<¥<1 En el grafico siguiente, exponemos la funcién de densidad de la poblacién, U(0; 1), y la de la media muestral 32 lm FUNDAMENTOS DE INFERENCIA ESTADISTICA eu @ ») FIGURA 1.3 (a) Funcién de densidad poblacional. (6) Funcién de densidad en el muestreo de las medias de muestras de tamajio 2. EJERCICIO 1.2 En una bolsa hay 100 bolas, de igual tamafio, marcadas con uno de trés néimeros distintos: cero, uno y dos, con las siguientes frecuencias: 30 ceros, 50 unos y 20 doses. Se toman muestras aleatorias de tamaiio dos, primero con reemplazamiento y después sin él. Determinense las esperanzas y varianzas de la media muestral en los dos casos. SOLUCION. La media de la poblacién es H = E@) =0-0,3+1-0,5+2-0,2 = y el momento de orden dos E@) = 0 -0,3+1 -0,5+27-0,2=1,3 y la varianza poblacional V® = EG) - (EGFP = 13 - 09° = 049 EJERCICIOS RESUELTOS DEL CAPITULO1 mM 33 © Muestreo aleatorio con reemplazamiento (muestra aleatoria simple) es i | PEA % 0,0 | 0,09 05] 0,30 1,0] 0,37 15] 0,20 2,0 | 0,04 E(%) = 0-0,09 + 0,5-0,30+1-0,37 +1,5-0,20 + 20,04 = 0,9 E() = 0° -0,09 + 0,57 -0,30 + 1? -0,37 +1,5? -0,20 + 2 -0,04 = 1,055 V@) = 1,055 - 0,9? = ),245 Vimos que VG@) = En el ejemplo, el tamafio de la muestra es dos, por lo cual, cantidad que coincide con la calculada, ™ Muestreo aleatorio sin reemplazamiento (muestra aleatoria) 0,0 | 0,088 0,5 | 0,303 1,0| 0,369 1,5 | 0,202 2,0 | 0,038 E(X) = 0 - 0,088 + 0,5 - 0,303 + 1 - 0,369 + 1,5 - 0,202 + 2 - 0,038 = 0,9. La esperanza matemitica de la media muestral coincide con la poblacional, cosa que ‘no sucede con la varianza de la media muestral, como apreciamos a continuacién E(3*) = 0? - 0,088 + 0,5* - 0,303 + 1? - 0,369 + 1,5* - 0,202 + 2? - 0,038 = 1,0513 V(X) = 1,0513 - 0,9? = 0,2413 pues los elementos muestrales no son independientes. 84 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA EJERCICIO 1.3 Como continuacién del ejercicio 1.1 comprobamos que E(@) =u. (La esperanza matemitica de la distribucién U(0; 1)1 es igual a 0,5). SOLUCION. La esperanza matemitica de la media muestral es 4 ag = ['s4ear+f e4a-Da=05 7 valor que coincide con el de la esperanza matemética poblacional. EJERCICIO 1.4 Tenemos una variable aleatoria que toma los valores 1, 2 y 3 con probabilidades 0,1, 0,2 y 0,7, respectivamente. Calciilese la esperanza de la varianza muestral. SOLUCION. — En muestras aleatorias simples de tamajio tres, comprobamos que ea a if en este caso, En la tabla siguiente hemos calculado, para cada clase de muestra, su varianza, fi- gurando el nimero de muestras y las probabilidades de cada clase de muestra. ee) Muestras Mimero de muestras Varianzas Probabilidades de obtencic tipo de cada tipo muestrales de las muestras tipo aid 1 0 0,7 = 0,001 dy 1, 2) 3 219 0,1? -0,2 = 0,002 , 1, 3) 3 8/9 0,1 -0,7 = 0,007 (1, 2, 3) 6 23 0,1-0,2-0,7 = 0,014 2,2,1) 3 29 0,1-0,2? = 0,004 Q, 2,2) 1 0 0,2° = 0,008 @, 2,3) 3 29 0,27 -0,7 = 0,028 B30 3 a 0,1-0,7? = 0,049 G3, 3,2) 3 29 0,2-0,7? = 0,098 G, 3,3) 1 0 0,73 = 0,343 * MartiN PLIEGO y Ruiz-MAYA: Fundamentos... Capitulo 9. EJERCICIOS RESUELTOS DEL CAPITULO1 mf 35 Agrupando las varianzas que presenta el mismo valor, tenemos la tabla final si- guiente: 0 0,352 219 | 0,396 2/3 | 0,084 8/9 | 0,168 La esperanza matemitica de la varianza muestral es 2, 2 2 8 E(s*) = 0-0,352 + 9 0,396 + 3 0,084 ao) 0,168 = 0,2933. Por otra parte, la varianza poblacional es igual a 0,44 y 2-0,44 Es?) = 0,2933 que coincide con el resultado anterior. EJERCICIO 1.5 Enel ejercicio 1.1 se ha calculado la funcién de densidad en el muestreo de la media de muestras aleatorias simples de tamafio 2. Verifiquese que, sila varianza poblacional es = , la de la media muestral es x . SOLUCION. La funcién de densidad en el muestreo de la media es w I w 4% para 0 4d - %) para 4 2 «-| 2 < ee I Sabemos que V(x) = E[X - E(x)P = E(@*) - EY y como 1 EQ) = [ee af ° 2 11.1 7 ? 4(1-X) dE =—+>+—=— a 166 16 24 entonces 1 = E@)- B@Y = - Vx) = E@*) — EGY m4 86 M™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA Se ha demostrado que 1 ei ef Dp wa=2-f2-2._. On 2 EJERCICIO 1.6 Si una variable aleatoria se distribuye U(0; 1) su funcién de densidad es igual a f(x) =1, cuyo campo de variacién es 0<.x<1, y la funcién de distribucién F(x) = x . Caletlese P(u, < 0,1) si el tamafio muestral es cinco. SOLUCION. Si el tamaito muestral es cinco, la funcién de densidad del segundo estadistico ordenado, u, , es para i-1=1 y n-i=5-2=3 5! Blue) = Pay Fe) fu) I - FUP F(u,) = 5 f@)=1 resultando: g(t,) = 20u, [1 = u,]? n P(u, < 0,1) f 20u,(1- u,)° du, = 0,0815 EJERCICIO 1.7 Dada una distribucién N(u; 0) y en muestras aleatorias sim- ples de tamafio n, hillese la distribucién en el muestreo de la media muestral me- diante la funcién caracteristica. SOLUCION. La funcién caracteristica de la media muestral es 9.) = senyaal donde (5) es la funcién caracteristica de la distribucién N(j; 0) particularizada para ~, n n por lo cual, EJERCICIOS RESUELTOS DEL CAPITULO1 ™@ 37 funciOn carateristica que corresponde a la distribucién normal de media yy varianza 2, n ) 7 EJERCICIO 1.8 De una poblacién N(10; 4) se toman muestras aleatorias sim- ples de tamafio 100, calciilese la probabilidad que la media muestral sea mayor que 10,1. SOLUCION. La media muestral se distribuye = N(10; 0,4) 4 N{ 10; ( Jas) P(% 2 10,1) = P(10 + 0,4€ > 10,1) = P(E = 0,25) = 0,4013 siendo & NO; 1). EJERCICIO 1.9 Se parte de dos poblaciones N(4,;0,) ¥ N(i,:0,), ¥ se extrae de cada una de ellas una muestra aleatoria simple, la primera de tamaiio N Qy---%,) ¥ la segunda de tamafio m (y,,..., y,), ambas independientes entre si. Obténgase la distribucién en el muestreo de la diferencia de medias median- te la funcién caracteristica. SOLUCION. La funcién caracteristica de la variable ¥-¥ es 0 ;-(0) = Ele"? | = Ble*e") = Ele] Ele} = 9,08) 9, (-1) = 12 ay-nrb| aycn-L& ot ougdiend ez Ime l la Ultima expresién es, precisamente, la funcién caracteristica de una distribucién nor- eo mal de media y,~, y varianza SL +2. nm EJERCICIO 1.10 De la distribucién N (5; 2) se toma una muestra aleatoria simple de tamajio 20, con media ¥ y de la distribucién N (-4;10) otra muestra 38 lM! FUNDAMENTOS DE INFERENCIA ESTADISTICA aleatoria simple de tamafio 25 e independiente de la primera, con media j. Caledlese P(E -¥ <15). SOLUCION. La diferencia de las medias se distribuye nfs E.R). wero 20° 25 y expresada la diferencia de las medias en funci6n de la variable £, N(0; 1), se tiene que ¥-¥ =9+2,0494E, y la probabilidad pedida resulta P@-F <15)= P(9+2,0494E < 15) = P(E < 2,9277) = 0,99827. EJERCICIO 1.11 Como aplicacién de la independencia de la media y la varianza muestrales calculamos la probabilidad del suceso conjunto {€ 209, s? 20,6} donde x tamafio cinco de una distribucién N(1; 05). s? proceden de muestras aleatorias simples de y PI SOLUCION. Por la propiedad de independencia (lema de Fisher-Cochran) tenemos P(E >= 0,9; s? 2 0,6) = PH > 0,9) P(s* > 0,6) 2 ¥ se distribuye N(1; 0,236) y la variable = como 72(4). P(X = 0,9) = P(l + 0.2236 > 0,9) = P(E = -0,4472) = 0.6726 2 . P(s? > 06) = AS > 506 025 0,25 La probabilidad pedida es igual a ) = P(e(4) 2 12) = 0019. P@ > 0,9; s* > 0,6) = 0,6726 0,019 = 0,0128. EJERCICIO 1.12 De una variable aleatoria N(-1; 0) se extrae una muestra aleatoria simple de tamafio 10, cuyo resultado es 1,03 -1,79 1,45 -2,54 0,37 0,60 0,53 0,28 2,21 -2,66 Caletilese P(F 2 -1,2). EJERCICIOS RESUELTOS DEL CAP[TULO1 Mm 39 SOLUCION. _ Para obtener la probabilidad anterior se construye, paso a paso, la nece- saria distribucién t. De la muestra se obtiene la media y la suma de cuadrados de las des- viaciones con respecto a la media 10 F=-0614; DG, - H? = 21865 a P(X > -1,2) = PCR = (-1) 2-12 +1) = P(®+1 2-02) = = P\Vi0 @ +1) > -02v10] = P| M10 @+Y , -02 Vio | _ ys 280 = P(t(9) 2 -0,4058) = 0,6492. EJERCICIO 1.13 De una distribucién (100; 2) se toman dos muestras aleatorias simples, independientes entre si, de tamaiios 4 y 5 Muestra | Muestra 2 98,0 9718 103,4 101,3 100,5 97,9 99,7 100,7 100,3 Calctlese la probabilidad del suceso {¥ -¥ > 2}. SOLUCION. 4 En la muestra 1 = 1004; >}. (x, -¥)? = 15,26 a En la muestra 2 : 3 =996 YO, - 5 = 10,72 A Siguiendo de manera andloga los pasos del ejemplo anterior “5 : ees a a yess? z- = us [15,26 + 10,72, [15,26 + 10,72. 445-2 445-2 = P[t(7) > 1,5476] = 0,0862. 40 M™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA EJERCICIO 1.14 En una poblacién normal bidimensional, el coeficiente de correlacién es p=0,35. Se toma una muestra aleatoria simple de tamaiio 100. Caletilese P(r > 0,75). SOLUCION. La variable aleatoria transformacién de Fisher se distribuye, en este caso concreto, aproximadamente 1+ 035: 7 1 | _ v(0,3654; 0,1015) 97 20 2 4) a ofr 2 ss) et +l P(r 2 0,75) = P(Z 2 0,973) = P(0,3654 + 0,1015E = 0,973) = P(E > 5,9862) ~ 0. P(r > 0,75) EJERCICIO 1.15 De una distribucién normal bidimensional se toma una muestra aleatoria simple de tamaiio 6, cuyos valores son x |» 1,5] -3,08 11} 5,03 0,3} -3,99 0,5 -0,2| 4,34 0,9} -3,51 Calcdlese la probabilidad del suceso {|b ~ B |< 0,05} SOLUCION. Para obtener 1a probabilidad debemos transformar el suceso {|b -B |s 005} de manera que leguemos a la distribucién 1(4) indicada en el aparta- do 1.9.4. EJERCICIOS RESUELTOS DEL CAPITULO1 ™@ 41 Para ello necesitamos hallar las varianzas y coeficiente de correlacién muestrales = 0,7525; 0,8675 2 +) = 0,4222; 5S, = 0,6498 = 0,5636; = 0,9998 P(\b - BIs 0,05) = P(- 0,05 < b-B < 0,05) = _ af- 08675 V4. —(0,8675 V4 <—— > ~__. (b- B)< 0,6498 J1- 09996 ~ 0,6498 Ji — 0,9996 al < __0:8675 V4 ~ 0,6498 4/1 = 0,9996 = P(-133,5 < (4) < 133,5) = 1. CAPITULO 2 Suficiencia e informacion 2.1 Parametros desconocidos El objeto de nuestro interés (un fenémeno de la naturaleza, la conducta colectiva de una sociedad, el comportamiento de un individuo, el desarrollo de un juego de azar) es lo que modelizamos a través de una variable aleatoria y denominamos, de manera genérica, poblacién. Para establecer sus normas de funcionamiento y predecir su comportamiento, suponemos que el fenémeno aleatorio poblacional se puede describir a través de un determinado modelo probabilistico preestablecido. En esta fase primaria, toda la informacién que tengamos es fundamental: los preconocimientos que se tengan sobre esta poblacién, nuestras propias reflexiones y creencias razonables seran determinantes para iniciar el proceso inferencial estadistico con ciertas esperanzas de éxito, pues todo el trabajo preparatorio se concretard en la asignacién de un modelo probabilistico materializado en una cierta distribucién de probabilidad. Esta asignacién es conocida como distribucién subyacente de la poblacién. Si efectuamos un repaso a los modelos te6ricos de probabilidad, encontramos una caracterfstica comin: su completa especificacién depende siempre de la asigna- 43 44 M™ FUNDAMENTOS DE INFERENCIA ESTADISTICA cién de valores concretos a los parémetros que los identifican univocamente. En efecto, en el modelo binomial se debe asignar un valor al pardmetro p, la distribu- cidn de Poisson estar perfectamente especificada si se conoce el parémetro 2, en el modelo normal no se pueden determinar probabilidades sin el establecimiento de valores concretos para los pardmetros 41 y o, etc. Y precisamente el hecho que motiva la necesidad de los métodos de la inferencia estadistica es el desconoci- miento del verdadero valor de estos pardmetros. En general, el modelo probabilistico con el que se pretende representar el com- portamiento de la poblacién puede expresarse como F050) para -w tid f(x;8) con lo que la distribucién de probabilidad conjunta de la muestra es. FCs vee Xy3 0) = F450) > FC, 3 8) = L(X; 8). Las funciones f(x,; 0) representan las funciones de probabilidad del elemento i-ésimo de la muestra, siendo funciones de cuantia en el caso que la poblacién sea discreta y de densidad si es continua. Esta funci6n conjunta, que de manera compacta se representa por L(X; 0), re- cibe la denominaci6n de funcidn de verosimilitud, y tiene una interpretacién ambi- valente importante. En efecto, podemos plantear los dos situaciones siguientes: ™ Suponer que de las dos componentes de esta funcién, X y 0, X es variable y @ toma un valor, aunque desconocido, concreto y fijo del espacio para- métrico ©, con lo cual L(X; 6) es realmente la funcién de probabilidad conjunta de la muestra, que permitir4 calcular las probabilidades de extrac- ci6n de las distintas muestras de la poblacién. ™ Admitir que el parémetro 0 puede tomar cualquier valor de los que com- prende su espacio paramétrico y establecer que la muestra X es fija y de- terminada, con lo que la funcién L(X; 8) es tinicamente funcién del pard- metro 8. Esta es la interpretacién que conduce al concepto de funcién de verosimilitud, que proporciona una medida racional de la posibilidad con la que el suceso (muestra X) ha podido ocurrir segdn que el verdadero valor del parémetro @ sea uno u otro. Para entender mejor la diferencia entre las dos situaciones anteriores conside- remos el siguiente ejemplo: Supongamos que en una moneda trucada la probabili- dad de cara, pardmetro desconocido 0, puede tomar solamente los dos valores: Las posibles muestras de tamafio dos seran: (cara; cara), (cara; cruz), (cruz; cara) y (cruz; cruz). " Las iniciales iéd resumen la propiedad que cada una de las variables aleatorias x, son independientes € idénticamente distribuidas. 46 ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA Las probabilidades de obtencién de estas muestras para cada uno de los dos valores admitidos de @ son: Probabilidades Muestras 8, = Y2 0, = 2/3 X, (cara; cara) P(X,/0,) = 4 P(X,/0,) = 4/9 X, (cara; cruz) P(X,/0,) = 4 P(X,/9,) = 2/9 X, (cruz; cara) P(X,/0,) = V4 P(X,/8,) = 2/9 X, (cruz; cruz) P(X,/0,) = V4 P(X,/0,) = Y9 Total 1 1 donde para cada valor fijo de @ se comprueba que “ ‘ 2 P,/8,) = PX, /2, ma mi no teniendo ningin sentido la suma de verosimilitudes P(X,/9,) + P(X, /,) puesto que son probabilidades de distintas poblaciones (0, si se quiere, de distintas distribuciones de probabilidad). Para el caso que la poblaci6n tuviera una distribucién de probabilidad continua, se tendria fl -flzex 0) dr, de, La funci6n de verosimilitud permite establecer un orden de preferencia respecto a los diferentes valores del parémetro desconocido @, tomando como base Ja infor- maci6n contenida en la muestra obtenida X, de manera que una determinada mues- tra informa mejor sobre un cierto valor 0, del parémetro que sobre otro valor 0, , si la verosimilitud en el primer caso es mayor que en el segundo, es decir, si LX; 0,) > L(X:; 0,). En este sentido, Fisher considera que el concepto de probabilidad para realizar inferencias partiendo de a muestra obtenida no es lo més id6neo que deba usarse puesto que «la cantidad matemdtica apropiada para medir nuestro orden de prefe- rencia entre diferentes posibles poblaciones no obedece a las leyes de la probabili- dad. Para distinguirla de la probabilidad utilizo el término verosimilitud» SUFICIENCIA EINFORMACION @ 47 Para efectuar inferencias sobre el vector paramétrico @, siempre se parte de la in- formacién que pueda suministrar una muestra aleatoria X, como anteriormente se ha sefialado, resumiéndose dicha informacién muestral en un estadistico T(X). Por ejemplo, puede sintetizarse la informacién de la muestra X =(x,,...,x,) en un solo valor tal como la media muestral Al actuar asi aparecen dos cuestiones de interés: M (El resumen que realiza T(X) sobre la muestra X, es tal que no se pierde ninguna informacién que pudiera contener X acerca de los parémetros des- conocidos que componen el vector paramétrico 6? Este punto es el contenido del concepto de suficiencia. {Se puede establecer alguna medida de la informacién contenida en la muestra sobre el conjunto de parmetros que aparecen en 0? Si la respuesta es afirmativa, jel resumen que supone el estadistico T(X) reco- ge toda esa informacién? A esta segunda cuestién dedicaremos la parte iltima de este capitulo. En cuanto al primero de los temas planteados, segin Fisher’, un estadistico es suficiente para efectuar inferencias sobre un parémetro 0 cuando «resume el con- junto de informacién relevante suministrada por la muestra», y ningin otro esta- distico constituido con la misma muestra puede proporcionar informacién adicional acerca del parametro desconocido 8. Los andlisis estadisticos se realizan mediante una reduccién de la informacién contenida en la muestra, es decir, sustituyendo la informacién primaria que provie- ne de cada elemento muestral por el resumen que supone el estadistico utilizado, sintesis y, a la vez, funcién de cada uno de esos elementos muestrales. Este resu- men 0 reduccién que leva a cabo el estadistico T(X) debe producirse sin pérdida de informacién y, en este sentido, la suficiencia reclama la propiedad que el esta- distico debe tener en relaci6n a la no pérdida de informacién. 2 Véase FISHER (1922). 48 M FUNDAMENTOS DE INFERENCIA ESTADISTICA Para comprender mejor el alcance del concepto de suficiencia y sus consecuen- cias, comenzamos estudiando de qué manera cualquier estadistico genera una de- terminada particion del espacio muestral 2 Una funcién 7(X), estadistico, define una particién del espacio muestral si lo divide en una coleccién de k sucesos disjuntos %, tales que ‘ Ux, =% %,A%, = siendo cada una de las muestras X € %. Consideremos una poblacién B(L, 6) > de la que se extrac una muestra aleato- ria simple de tamaito 3, X = {x,, x,, 43}, y los siguientes estadisticos 3 700 = Dx, a T,X) = max (x, x, 35). En Ia tabla siguiente se relacionan Jas posibles muestras que pueden obtenerse (el espacio muestral 26), asi como los valores que alcanza cada uno de los dos esta- disticos propuestos: Muestra | Espacio muestral | TX) | 7,0) 1? (0, 0, 0) 0 0 2.4 (1, 0, 0) 1 1 3.8 (0, 1, 0) 1 1 4% (0, 0, 1) 1 1 5.4 (1, 1, 0) 2 1 6.8 (1,0, 1) 2 1 7 0, 1, 1) 2 1 8.7 dy) 3 1 En los esquemas siguientes se comprueba cémo cada estadistico produce una partici6n distinta del espacio muestral 26. > EL pardmetro p de la distribucién binomial lo denominamos 0, como genéricamente se representa cualquier parimetro poblacional SUFICIENCIA EINFORMACION @ 49 Pa mn generada por T,(X) in generada por 7,(X) Un estadistico es suficiente, respecto al pardmetro ®, si basta con conocer a qué conjunto de la particién generada por él conduce la muestra obtenida, no afia- diendo mds informacion el saber cudl es el punto muestral (0 muestra en concreto) que corresponda a esa particién. Por ejemplo, si 7;(X) fuera suficiente, el saber que procede de la quinta muestra no suministra mas informaci6n acerca del parametro ® que saber que 7,(X) es igual a2. Cualquier estadistico T(X) supone una reduccién de la informacién que sumi- nistra uno a uno cada elemento de la muestra. La propiedad de suficiencia plantea el problema de encontrar una determinada reduccién, es decir, un T(X) , donde no se pierda informacion. Formalmente, podemos caracterizar la suficiencia de un estadistico mediante el siguiente planteamiento: 1. Enuna poblacién definida por f(x, 6) existe un parametro 0 desconocido. 2. Para poder asignar un valor a dicho parémetro 04 partimos de la informa- cién que acerca del parametro suministra una muestra X = {x,,.... x,}- 3. _Eneste proceso se construyen estadisticos T(X) que suponen reducciones de la muestra y, también, particiones del espacio muestral. 4. Un estadistico T(X) sera suficiente si el conocimiento pormenorizado de los elementos muestrales que integran X no afiade nada sobre 0 que no proporcione la sintesis T(X) 5. Por consiguiente, la distribucién de X (conocimiento pormenorizado de la muestra) condicionada a que el estadistico T(X) tome el valor concreto t, T(X) = 1, no debe depender de @ porque, en caso contrario, el conoci- miento detallado de X si tendria que ver con el parametro @, y el estadis- tico T(X) no habria captado por completo el mensaje que sobre 8 pudiese estar contenido en la muestra X. El razonamiento anterior permite la siguiente definicin formal de un estadisti- co suficiente: «Un estadistico es suficiente respecto al pardmetro @ si la distribucion de pro- babilidad de la muestra X condicionada al estadistico no implica el pardmetro 0, es decir, si F(X/T(X) = 0) no depende de 0». * Objetivo bésico de las técnicas de estimacién que se estudian en los capitulos siguientes. 50 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA Obtenemos estas distribuciones condicionadas para cada uno de los estadisticos T,X) y T,X) del ejemplo que introdugimos en el concepto de particién del espa- cio muestral, donde se disponia de una muestra aleatoria simple de tamafio n = 3 extraida de una poblacién B(L, 0). Calculamos las probabilidades de las correspondientes distribuciones condicio- nadas a cada uno de los valores que pueda tomar el estadistico T(X) = 1, teniendo en cuenta que P(x, %, %)/T(X) = 1 = P(X) = 1) 3 Para 7(X) = )”x, tendremos a P((0, 0, 0) 0 (7,(X) = 0) ™ P[(0, 0, 0)/7,(X) = 0] = PaO (X) = y para cualquier (x,, x,, x,) # (0, 0, 0) PUG. ¥p)/TO0) = = PAA GOO =O} _ 0 P(T,(X) = 0) a-ey PU(t, 0,0) 0 (T(X) =] _ oa-0)? ® P{(, 0, 0)/7,(X) = 1) = —2 2 . Ht P(T,(X) =1) 301-0) 3 P (C0, 0/F(X)= t= 5 P((O, 0, D/T,(X) = u-4 siendo nulas el resto de probabilidades condicionadas a 7,(X) = 1. PU, 4.0) 0X) = 2) _ Od - 0) PIG, 1 OF CX) = 21 PCr,(X) =D) “300-0 3 i P((O, 1, D/TCX) = PIG, 0, 0/T,(X) = I= wie ele siendo nulas el resto de probabilidades condicionadas a 7,(X) m PULL D/T(&) = 3)=1 siendo nula la probabilidad de cualquier otra muestra (x, x,, x,) # ( 1, 1) cuando 7,(X) = 3. SUFICIENCIA EINFORMACION M@ 51 Muestras | P(X/T,(X)=0] | P(X/T,(X)=1) | PLX/T,(X) = 2] | PLX/T,(X) = 3] (@, 0, 0) 1 0 0 0 (1, 0, 0) 0 3 0 0 (0, 1, 0) 0 u3 0 0 0,0, 1) 0 13 0 0 (1, 1, 0) 0 0 13 0 (1, 0, 1) 0 0 13 0 0, 1,1) 0 0 3 0 dy, 0 0 0 1 En este ejemplo, las distribuciones condicionadas son las que aparecen en el cuadro anterior que, como puede comprobarse, no dependen del parametro 6, lo gue Ileva a que el estadistico 7;(X) es suficiente para realizar inferencias acerca del Pparametro @ de una poblacién B(1, 6). Estudiemos, a continuacién, el otro estadistico T,(X) = max (x,, x,, 4), te- niendo en cuenta que PIT,(X) = 0] = 0 - 0y P(T,(X) = I] = 1 - PIT,(X) = 0] = 1-1-0) con lo que las probabilidades condicionadas son: Muestras | PU%y X %)/TyX) 0, 0, 0) ‘ (1, 0, 0) 0 (0, 1, 0) 0 ©, 0,1) 0 1,0) 0 ol - 6) 1,0, 1, 0 ——_F Coy ==) 1,1) 0 (1,1) 0 52 ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA que, al depender de @, indican que el estadistico T,(X) no incorpora toda la infor- macién existente en la muestra X sobre el pardmetro @, lo que haria necesario completar la reduccién proporcionada por 7,(X) con la informacién concreta de la muestra que produce cada valor conereto de 7,(X). Por tanto, T,(X) no es sufi- ciente respecto al parametro 8. Analizado el concepto de suficiencia de un estadistico y dentro de la vasta pro- blematica de la suficiencia, puede plantearse la siguiente pregunta: {Es siempre nece- sario desarrollar las correspondientes distribuciones condicionadas de X al estadistico T(X) para determinar la suficiencia o no de un estadistico? O, por el contrario, existe algiin criterio simplificador que permita, mas eficazmente, el anilisis de la suficiencia? A esta cuestién se dedica el epigrafe siguiente. 2.4 Criterio de factorizacion de Fisher-Neyman {Cémo puede determinarse de forma operativa si un estadistico es suficiente? La solucién a esta pregunta viene dada por el criterio de factorizacién de Fisher- Neyman que dice: la condicién necesaria y suficiente para que el estadistico T(X) sea suficiente es que la funcién de verosimilitud de la muestra L(X; 0) se pueda descomponer en el producto de dos funciones, una g(T(X); @) dependiente del pardmetro y de la muestra, a través del estadistico T(X), y otra H(X) indepen- diente del pardmetro 6, es decir, LX; ®) = g(T(X); 0) - H(X). Una demostracién intuitiva de este teorema’ es la siguiente: Representamos la funcién de probabilidad de la muestra X condicionada al es- tadistico T(X) como S(X/T(X); 8) sabiendo que, si el estadistico T(X) es suficiente, no debe depender del parémetro 6, es decir, S(X/T(X); 0) = HX). * Para una demostracién rigurosa, véase, entre otras, ARNAIZ y WILKS. SUFICIENCIA EINFORMACION @ 53 Por otra parte, toda funci6n de probabilidad condicional se puede expresar como LRAT: 0) __f%KO) __ LK) T(X); 8) = eS Se RE) 8(T(X); ®) B(T(X); 8) g(T(X); 0) pues la funcién de probabilidad de la muestra f(X; ®) para cada valor de @ coinci- de con su funcién de verosimilitud L(X; 8) . Por tanto, LUX; 8) = g(T(X); 0)» f(K/TCRX); 0) y siel estadistico T(X) es suficiente, resulta LX 8) = g(T(X); 0) - H(X). Veamos a continuacién algunas aplicaciones de este criterio para la determina- cién de estadisticos suficientes. — EJEMPLO 1 De una poblacién con distribucién de Poisson con parametro 2, se extrac una muestra alea- toria simple de tamafio n. Compruébese si el estadistico T(X) = )° x, es suficiente. A La funci6n de verosimilitud es LOK A) = FD fas A) = _ ete ate = ra al ser la muestra aleatoria simple, cada x, se distribuye igual que la poblacién, es decir, x, > iid Poisson (2). Dado que LX; 2) = e200 x entonces eM = gT(X); A) 54 M FUNDAMENTOS DE INFERENCIA ESTADISTICA depende del parémetro 2 y de la muestra X a través del estadistico, y la funcién 1 HL x! H(X) no depende del pardmetro A, Ilegandose a que el estadistico 7(X) = )7 x, es suficiente. a EJEMPLO 2 En una poblacién continua con distribucién exponencial definida a través de la funcién de densidad S@;8)=0e", x20, O>0 se considera el estadistico T(X) = }° x,; estidiese si es suficiente. a La funcién de verosimilitud es UX; 8) = f&; 8) fi 8) = =O eM. Be = Sy ore oot mm, Definiendo la funcién H(X) = 1, y considerando que g(T(X); 8) = 0" e7™, se puede establecer la factorizacion L(X; 8) = g(T(X); 6) - H(X) que conduce a que T(X) = }) x, es suficiente. 2.5 Informacion Un estadistico es suficiente si aprovecha toda la informacion que respecto al pard- metro @ le suministra la muestra; en este epigrafe se propone medir esa informa- cin y se analiza hasta qué punto un estadistico suficiente la incorpora en si. SUFICIENCIA EINFORMACION @ 55. Antes de efectuar este andlisis, parece conveniente tener en cuenta las siguien- tes consideraciones previas: ™ {Como puede definirse la cantidad de informacién contenida en una mues- tra? El término informacién se considera estrechamente vinculado a la idea de disparidad. Cuanto mayor sea la variabilidad, las discrepancias en la po- blaci6n, mayor informacién debe contener la muestra aleatoria X. En este principio basico se fundamentan las medidas que se analizaran. Si se desea conocer todo lo referente al pardmetro @ que contenga la mues- ta aleatoria X, la via idénea para hacerlo es a través de la funcion de vero- similitud L(X; @), por ser una relacién funcional que liga la muestra con el parémetro. En esta verosimilitud se basan las medidas que se proponen, pero considerando su transformaci6n logaritmica, In L(X; 0),* por las siguientes razones: © La transformacién logaritmica es monétona y neutral en los procesos de optimizaci6n: el maximo (0 minimo) de una funci6n, si existe, se obtiene en el mismo punto que el maximo (0 minimo) de su transformada logarit- mica. © Dado que, generalmente, se trabaja con muestras aleatorias simples y que la verosimilitud es el producto de las funciones de probabilidad para cada uno de los elementos muestrales, es decir, LX; 0) = F(x,5 0) F(%,3 0) + F(x, 5 la transformacién logaritmica del producto incorpora la propiedad de aditi- vidad, puesto que, In L(K; 0) = Yn f(x; 0) a caracteristica que, segtin veremos a continuacién, es de importancia para cualquier medida de la informaciér in L(X; @) se conoce como funcién de soporte. 56 M@ FUNDAMENTOS DE INFERENCIA ESTADISTICA 2.5.1. INFORMACION DE FISHER Para Fisher una buena medida de la informacién que una muestra X contiene res- pecto a un pardmetro , viene dada por la sensibilidad (capacidad de reaccion 0 variacién) que dicha muestra aleatoria X muestre ante variaciones del pardmetro 9. Es decir, el tamafio de la variacién de L(X; 0) ante variaciones del parametro @ indicarfa cudnta informacién sobre dicho parémetro contiene la muestra, recogien- do las discrepancias (informacién) que se producen respecto a los diferentes valores de dicho parametro. Partiendo de esta idea, Fisher define la variable que denomina score como olin LC 68 SC) = que incorpora la transformacién logaritmica, de acuerdo con lo anteriormente se- fialado, y recoge las variaciones instanténeas respecto al parémetro 0, a través de la derivada de In L(X; ®) respecto a ese parametro 0.” De esta manera, la variable aleatoria score serfa como un marcador que refleja los movimientos de la verosimilitud, a través de la funcién In L(X; @), ante cam- bios infinitesimales del parametro 0. Elegido el elemento que suministra la informaci6n requerida, Fisher adopté el criterio de medir dicha informacién mediante la variabilidad® que presentaba la variable aleatoria score, a través de la varianza de esta variable, a la que llam6 cantidad de informacién y que representaremos por 1(@) . A fin de obtener la varianza es preciso tener en cuenta que deben cumplirse las siguientes condiciones, denominadas condiciones de regularidad de Fisher-Wol- fowitz: I. La poblacién de donde procede la muestra presenta un campo de variacion que no depende del parametro 0 y, por tanto, la muestra X tampoco. IL. La funcién In L(X; @) admite, por lo menos, dos primeras derivadas res- pecto al pardmetro 0. III. Las operaciones de derivacién e integracién (o suma en el caso de variable aleatoria discreta) son intercambiables. 7 Recuérdese el concepto de derivada 5 Insistimos en la idea de informacién como variabilidad que antes se apunt6. INFERENCIA ESTADISTICA: SUFICIENCIA EINFORMACION M57 Para calcular /(@) determinaremos inicialmente la esperanza matemitica de la variable aleatoria score ° — pf On LKs 0] _ E[SC(@)] = [2m | _f onl; 6) LX; 6) dX = x 00 =f 1 OL(X; 6) x L(X;8) 00 = [ See ® x= L(X; 6) dX = a =2[ ux; = sod aS puesto que j, U(X; 8) dX =1 x por tanto, la variable score es de media nula, y 1) = VISCO) = yeeuee = 2 2 {om LX 2| _ {eee L& | . 20 20 2 Ae LX: 2| 60 que, dado su cardcter de varianza, verificara 1@) 2 0. ° Utilizamos notacién compacta para resumir las integrales miltiples, es decir, i [, BIN LO 2,5 8), Pe 6:8) ay ae, =f LOE pox 0) ax, x 20 INFERENCIA ESTADISTICA: SUFICIENCIA EINFORMACION ™ 57 Para calcular /(@) determinaremos variable aleatoria score ° _ [ain Lex; 6)] _ stsco) = | SLO |- =f Olin L(X; 6) icialmente la esperanza matematica de la LX; 0) dX = =f, 1 OLX: ®) 16x; 9) ax = x U(X; 6) =( 222 aus BUX 8) ay -2) L(X; 0) dX =0 20 Jx puesto que jf UX; ) dX =1 x por tanto, la variable score es de media nula, y 1(®) = VISC@)] = ee ad Adinuxio) [fein ze; o]]_ 30 30 - 2 _ fo LX; 2] 20 que, dado su cardcter de varianza, verificaré 1(®) 2 0. ° Utitizamos notacién compacta para resumir las integrales miltiples, es decir, Sed, ~ ain L¢ Lye yi 8) dy a, =f SBOE) ox: 0) ax 58 ™# FUNDAMENTOS DE INFERENCIA ESTADISTICA Esta cantidad de informacién de Fisher presenta las siguientes propiedades: 1. 1(@) = 0 siy solo si la verosimilitud no depende del parémetro @ y, por tanto, no contiene informacién ninguna respecto a dicho pardmetro, es decir, si @ln L(X; 0) 30 0, paratodo 060. 2. Es una medida de informacién aditiva. Esta propiedad puede contemplarse bajo los siguientes prismas: = Si X, y X, son dos muestras independientes aleatorias simples, proce- iY % Di PI dentes de la misma poblacién rg, x5) = Iu) + I, En efecto, o- [2a x, oy Ig, x,(0) = B] = =m UX 36) , ain sa] . ~ oP tats ‘din L(X,; 0) soy. a2 LX; af : 20 ‘ 2e( 20 LX, 9 [2s LX; 2| _ 20 0 2 2 -#[28 ies 9 (20 1069) = Ix) + 1x,0) ya que las muestras son independientes y ademas [28 LX, 2] _ “(2a L&; 2| . 08 20 segiin se expuso anteriormente. INFERENCIA ESTADISTICA: SUFICIENCIA EINFORMACION Mf 59 Si consideramos cada uno de los elementos x, de la muestra como una muestra elemental de tamafio uno, por la aditividad de informacién de Fisher 10) = £10) donde, al ser la muestra aleatoria simple 2 2 140) = £[ 2M LG] _ p/m FO] _ i@) 20 ) siendo f(x; @) la funcién de probabilidad de la poblaci6n e i(@) la cantidad de informacién sobre @ existente en dicha poblacién, con lo que 10) = 51/0) = n i@), ia es decir, la cantidad de informacién sobre @ que contiene la muestra es igual an veces la informacion de cada una de las variables aleatorias muestrales X, que, a su vez, coincide con la de la variable aleatoria poblacional, verifi- candose, por tanto, 2 [28 UX; @) 00 ne 2 £000) 60 3. Lacantidad de informacién de Fisher puede expresarse también como!” 2 _ p[ On LK; |__| @ In LEK; ) = + 20 ] - +f oe? } expresiOn que puede ser Gtil en algunos casos para facilitar el calculo de /(@). Cuando Ia poblaci6n es multiparamétrica, dada por f(X; 0), se obtiene la ma- triz de informacién de Fisher 2 In LOK: 1(@) = -£| 28 LK ©) 30, 20, siendo 6 un vector de parametros. 10 Rurz-MAYA y MARTIN PLIEGO: Estadistica II: Inferencia. Capitulo 4. 60 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA 2.5.2. ESTADISTICO SUFICIENTE E INFORMACION DE FISHER Si un estadistico T(X) es suficiente se verificard el criterio de factorizacion de Fisher-Neyman, es decir, la verosimilitud se expresa como L(X; 8) = g(T(X); 0) - H(X) y, por consiguiente, la variable aleatoria score ser4 funcién del estadistico sufi- ciente, pues In L(X; 8) = In g(7(X); 6) + In H(X) In L(X; 0) _ dln g(T(X); 8) 20 20 Por otra parte, la informacién suministrada por un estadistico T(X) es siemipre igual o inferior a la suministrada por la muestra. Solo si el estadistico es suficiente contendré la misma informacién que la muestra. En efecto, supongamos que T(X) no es suficiente, por lo que de acuerdo con el criterio de factorizacién de Fisher-Neyman L(X; 0) = g(T(X); 0) - H(X; 6) donde H(X; 0) depende del pardmetro al no ser suficiente. Tomando logaritmos y considerando las dos primeras derivadas Fm L(K; 0) _ d Ing(T(X); 0) , on H(X; 0) ae? 6? 30" tomando esperanzas y multiplicando por -1 @ In L(X; 8) @ In g(T(X); 8) @ in H(X; 0) — E| | =e] A | - | 00 00 a | es decir, & In HX; &) 1(8) = 1,(8) - E, ———— (8) = 1,0) [ 30? donde [,.(8) representa la cantidad de informacién que suministra la muestra a través del estadistico T(X) . Por otra parte, como a # in HK; 6) ~ p| Qin HK; 6) 0 0 se llega a que 18) = 1,(0) INFERENCIA ESTADISTICA: SUFICIENCIA EINFORMACION @ 61 alcanzandose la igualdad solamente si [2% H(X; 0) 0 es decir, si On H(X; 8) _ 0 0 expresiOn que conduce a que la funcién H(X; 8) no puede depender de 0, esto es, sera de la forma H(X) y el estadistico T(X) resulta, por consiguiente, suficiente. 62 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA Ejercicios resueltos ee EJERCICIO 2.1 Consideremos una variable aleatoria que puede tomar cuatro valores: 1, 2, 3 y 4, y las posibles muestras aleatorias simples de tamaiio 2. Estiidiese la parti 2 mn generada por el estadistico T(X) = )’ x, en el espacio muestra. a SOLUCION. El espacio muestral 3% lo representamos de la siguiente forma: es G1, 4) | @ 4 | G4) | 4, 4) a@d/@91 6.9] 43) a. 2) | @ 2 [G2 | 4, 2 apleanleovl@p Consideremos el estadistico 7, = x, + x, . Los valores que puede tomar 7, y los puntos del espacio muestral que los originan son: a T, +X, | Muestras que lo originan a, (1,2); 2, ) G3 22; BD (4,4; 2,35 G.2: 4D @, 4); B, 3); 4,2) G, 4); 4,3) (4,4) x 2 3 4 5 6 7 8 y el espacio muestral %& queda ahora dividido, en sucesos disjuntos, en funcién de los valores que puede tomar el estadistico, formando la particién generada siete clases de subconjuntos: EJERCICIOS RESUELTOS DEL CAPITULO2. 63 EJERCICIO 2.2 En una poblacién con funcién de densidad FR; Q=e"%, x20>0 estiidiese el estadistico 7(X) = es suficiente, siendo (x,,...,x,) una muestra aleatoria simple. SOLUCION. — Formamos la funcién de verosimilitud UK; 0) = F445 > FO; ) = se donde eT" — eT(X); 8). Ahora bien, si hacemos H(X) = 1 no logramos una funcién que no dependa del parémetro © pues todos los x, de la muestra se distribuyen igual que la poblacién y, por consiguiente, x,20; es decir, el campo de variacién de cada x, depende del parémetro @ y la funcién H(X) = 1 no es indiferente ante variaciones de 0. Como no puede lograrse la factorizacién requerida el estadistico T(X) = )° x, no a es suficiente. EJERCICIO 2.3 Determinese la cantidad de informacién de Fisher contenida en una muestra aleatoria simple X, extraida de una poblacién Nu; 6) con o conocida. SOLUCION. La funcién de verosimilitud es oe Sew UX; ) = o"Qn) 2 & tomando logaritmos tn UK: = ning - Fin 2x 5 SG wt 64 M™ FUNDAMENTOS DE INFERENCIA ESTADISTICA 236, -wen= por lo que 2 LG -H) 2 1 = «[ 2B) = 5) & - On [é F(x, -w? + EEGs, -w) EG, - w)| = i fa] 2 a oo que también podria haberse obtenido teniendo en cuenta la aditividad de esta medida, 1a -Syo-w F(E; H) = O'2n) 20 27 In f(x; W) = ~ing = Fin dn s(x — wh tn flrs) _ au ain fas w) ou = ser - WED = iq) =E Y, por tanto, n o T(y) = ni(u) = Se puede comprobar cémo la cantidad de informacién sobre el parémetro H es tanto mayor cuanto mayor sea el tamafio de la muestra y menor la varianza de la poblacién. EJERCICIO 2.4 En una poblacién con distribucién N(u; 0), determinese la matriz de informacién de Fisher respecto a los dos pardmetros 11 y o’, a partir de una muestra aleatoria simple X de tamaiio n. EJERCICIOS RESUELTOS DEL CAPITULO2 65 SOLUCION. Dado que a? In L(X; 0) __p| 2m L(X; 0) | _ a _ 1@)= «|: 00 a0! ~ "| 2? In LOX; 8) ~ O07 Gu & In LX; 0) @ nL ~ 5] ZLB) _ go ne 8) ap) mL] _ pf on Lex; 6) ao? dp ao")? para determinar esta matriz habra que calcular previamente las segundas derivadas de la funci6n de soporte In L(X; 6) Sor ow? F(X; 0) = F(X; p, 0?) = (6?) Fn) Eg 2e 1 Ie uP L(X; 8) = L(K; p, 0) = (0?) 72m) 2e n n 1 In L(X; 0) = In L(X; p, 0?) = ~ Zino?) - 5 Inn) - Fe ze -p)? siendo ain LK; &) | Cn ain L(X; 0) ase y calculando las segundas derivadas & In L(X; 6) op? @ In L(X; 8) Op do” & In LX; 8) _ ao" 66 mM FUNDAMENTOS DE INFERENCIA ESTADISTICA la matriz de informaci6n de Fisher resulta n ln or -aZ UG -» 1(8) = o ist DEG, - wy? f pues E(x, - p) = 0 y E(x, - py’ = 0° por ser x, un elemento de una muestra alea- toria simple procedente de una poblacién N(; 0). CAPITULO 3 Estimacion puntual: propiedades de los estimadores 3.1 Introducci6n La definicién de la distribucién de probabilidad de una variable aleatoria implica, en general, la existencia y conocimiento de parmetros sin cuya concrecién no es posible utilizar la distribucin. Si, por ejemplo, en una variable aleatoria B(L; p)desconocemos el valor de p, 0 en una N(u; 0) se ignora el valor de uno 0 de los dos parmetros, no podremos calcular probabilidades de sucesos en los que estén implicadas las correspondientes variables. Las situaciones planteadas se pueden expresar formalmente de la siguiente ma- nera: sea una variable aleatoria & cuya funcin de cuantia o densidad f(x;0), incluye un parémetro' @ , definido en el espacio paramétrico, © , (0 < ©). Para cada valor del parémetro @ tendremos una distribucién de probabilidad distinta, 1 © un conjunto de k pardmetros, en cuyo caso el espacio paramétrico © ser4 un recinto k-dimensional. 67 68 Mm FUNDAMENTOS DE INFERENCIA ESTADISTICA perteneciente a una misma familia de distribuciones. Por ejemplo, si la densidad de la variable & es f(x; 6) = 6e-*, x20 y @>0, para cada valor de @ hay una funci6n de densidad exponencial. 1t 10 09 08. 07 06 0,5 04. 0,3 0,2) Ot ° FIGURA 3.1 En la figura 3.1 aparecen las funciones de densidad para dos valores de 0:0=0,5 y @=1. Lo expuesto pone de manifiesto la necesidad de asignar valores a los parame- tros desconocidos contenidos en una distribucién de probabilidad. A este problema esté dedicada una parte de la Inferencia Estadistica: la teoria de la estimacién. 3.2 Concepto de estimador, estimacion y error de estimacién Sea f(x; @) una funcién de densidad o de cuantia conteniendo un pardmetro @ desconocido. El primer objetivo de la Inferencia Estadistica es la obtencién de un ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES @ 69 valor que pueda asignarse a ese parametro desconocido. Para ello se obtiene de la poblacién la informacién precisa mediante una muestra aleatoria simple, se establece una funci6n de los valores muestrales*, estimador, y se asigna al parémetro el valor que tome esta funcién en la muestra concreta, valor denominado estimacién pun- tual. Por tanto, para efectuar la estimacién del parémetro 0, se considera una muestra aleatoria simple X(x,,..., x,), de tamafto n, siendo el estimador una fun- cin de las variables muestrales 0* = 6* (x,,...,x,), es decir, una funcién que Tecoge y resume la informacién que sobre la poblacién le suministra la muestra y que utiliza dicha informacién para la obtencién de valores aproximados del pard- metro desconocido @ , aproximaciones que se denominan estimaciones. El estimador @* sera una variable aleatoria funcién de las variables aleatorias muestrales (x,,...,x,)s y Se transformard en una estimacién del parémetro 6, un valor numérico concreto, cuando las variables muestrales (x, ..., x,) se convier- tan en datos observados al obtenerse una muestra determinada. Como se ha des- crito, un estimador siempre es un estadistico, tal como se definié en los capitulos anteriores. Se ha definido un estimador como una funcién de las variables muestrales, valo- res experimentales, por lo cual diversas funciones de éstas pueden considerarse, en principio, como estimadores del parametro. Lo que lleva a disponer de tantas estima- ciones puntuales, en cada muestra, como estimadores hayamos podido construir, por Jo que sera necesario alguna norma o conjunto de criterios que permitan elegir entre estos posibles estimadores cual es el «mejor» en cada caso. 3.2.1. ERROR CUADRATICO MEDIO DEL ESTIMADOR Al ser desconocido el parametro nunca sabremos exactamente hasta qué punto cada estimacién (valor aproximado) se encuentra lejos 0 cerca del valor del parémetro, es decir, su utilizacién conduce a la posibilidad de cometer un error mas 0 menos elevado al trabajar con la estimacién puntual como si fuera el valor verdadero. Para establecer la bondad de un estimador, partimos del hecho de ser descable conocer si la estimacién se encuentra lejos 0 cerca del valor verdadero, siempre desconocido. En la practica, tal pretensién no es mas que un deseo irrealizable, aunque conveniente, para el planteamiento tedrico del problema. El error que po- demos cometer, al tomar como valor del parémetro 6 el proporcionado por el ? Sin que contenga ningiin parémetro de la distribuci6n. 70 ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA estimador, es la diferencia 6* - @ 0, para eliminar el signo de las diferencias, su cuadrado (@* - 6)* . Si pudiéramos obtener todas las posibles muestras y para cada una la correspondiente estimacién, una media global de los errores seria la desvia- cién cuadratica media de todos ellos 0, mas concretamente, su esperanza matemati- ca, denominada error cuadratico medio, ECM, desviacién cuadratica media, o acuracidad? del estimador, ECM(6*) = E(0* - 6)?. Un valor pequefio del error cuadratico medio indicara que, en media, el esti- mador no se encuentra lejos del parametro @; inversamente, cuanto mayor sea mas lejos estar4, también en media. En el segundo miembro de ECM(G*) = E(0*— 0) sumamos y restamos la es- peranza matemitica del estimador, £(0*),‘ y, efectuando operaciones, E(@* — 0)? = E[0* — 0 + B(6*) — EO")? = = E{[6* -E(6*)] - [6 - E(@*))° = = E[0* -E(0*)}?+ E(0 — E(@*)) - 2E{(0* -E(0*)][6 - E(@*)}}= V(6*) + (8 — E*) — [0 — E@*)] Ele* - EO*)] = = V(0%) + [0 - EOP a la esperanza del tercer término de la pentiltima expresi6n es igual a cero, pues E(0* — E(6*)] = E(0*) — E(@*) = 0. La conclusion a la que Ilegamos segun la relacién [1] es la siguiente: el error cuadratico medio, E(@*-6)?, resulta igual a la varianza del estimador*, V(6*), mas el cuadrado de la diferencia entre el valor del parametro 0 y la esperan- za matemética del estimador, [0 - E(0*)]*. De esta descomposicién se deduce que un alto valor del error cuadratico medio se puede deber a un alto valor de su va- tianza, a un alto valor del segundo componente®, 0 a ambas cosas a la vez. > Conviene distinguir entre acuracidad y precisién, términos no equivalentes. La acuracidad hace referencia a la concentracin de las estimaciones respecto al verdadero valor del pardmetro, la precisién a la concen: traciOn de las estimaciones respecto al valor medio del estimador. 4 Recordamos que el estimador es variable aleatoria. $ La varianza del estimador mide su precisién. © Posteriormente se verd que la expresién @ — E(8*) se denomina sesgo. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES 71. A partir del error cuadratico medio construiremos una buena parte de las propie- dades que es razonable exigir a un estimador para ser considerado como «bueno». 3.2.2. PROPIEDADES DE LOS ESTIMADORES Cuando se llevan a cabo estimaciones se pretende que el resultado se halle lo mas cerca posible del valor desconocido del parametro @, y una medida de esta preten- si6n es la minimizacién del error cometido, expresado en términos del error cua- dratico medio. Para que la desviacién cuadratica media sea minima es necesario que los dos sumandos en que se ha descompuesto sean minimos, dado que la suma de dos mimeros no negativos seré minima cuando lo sean los dos sumandos, es decir que V(*) (varianza del estimador) sea minima y [6 — E(6*)? también. So- bre estos dos ejes se construyen las tres primeras propiedades que debe cumplir un estimador para poder considerarlo como «bueno». La expresion [0 - E(6*)?’ sera minima cuando valga cero, es decir, cuando la esperanza matemitica del estimador sea igual al parametro 0, es decir, E(0*) = 0. Esto conduce a a propiedad de insesgadez coincidiendo, en este caso, el error cuadrdtico medio con la varianza del estimador. La condicién de minimo que corresponde a la varianza se logra, para un tama- fio de muestra fijo, eligiendo entre todos los posibles estimadores el que presente menor varianza. A esta propiedad se la denomina eficiencia del estimador. Para que las inferencias muestrales resulten correctas, el procedimiento de ex- traccién de la muestra debe conducir a su maxima representatividad y esto se al- canza, también, incrementando el tamafio muestral hasta conseguir que sea «infi- nito», situacién en la que la muestra es la misma poblacién y, por consiguiente, el error cuadrdtico medio ser4 nulo, por no existir error. De aqui se deduce la propie- dad de consistencia, que establece el comportamiento probabilistico de los estima- dores cuando el tamajio de la muestra es infinito, propiedad limite, y que puede contemplarse como la conveniencia de que la estimacién esté préxima al valor des- conocido de @ con una probabilidad alta. Junto a estas tres propiedades, deducidas de la minimizacién del error cuadrati- co medio, tenemos otras tres: suficiencia, invarianza y robustez, no inmediatas pero también importantes. En la generalidad de las situaciones la informacién que poseemos sobre una po- blacién es la proporcionada por una muestra extraida de ella. El estimador que utilizamos para obtener una aproximacién del parémetro desconocido conduce a un valor concreto, estimacién puntual, valor nico que sustituye al conjunto de los valores muestrales individuales. Por otra parte, el tamafio de una muestra suele ser elevado lo que leva a que sea dificil, costoso, su manejo, por ello es razonable 72 > FUNDAMENTOS DE INFERENCIA ESTADISTICA sustituir los elementos de la muestra por un tnico valor (estadistico), mas maneja- ble que los valores muestrales individuales, deseando que éste valor conserve toda la informacién contenida en la muestra sobre el parémetro desconocido de la pobla- cién objeto de estudio. Es evidente que tal deseo es un desideratum, pues es razo- nable pensar que no siempre tendra lugar tal situacién de salvaguarda de toda la informacién muestral, sin embargo, cuando un estadistico contiene toda la informa- cién proporcionada por la muestra sobre la poblaci6n resulta mas deseable que otro que no disponga de tal propiedad; si ese estadistico existe, recibe el nombre de suficiente y la propiedad de suficiencia, siendo ésta la cuarta propiedad que se exige a un estimador para poder considerarlo como «bueno». El interés de los estimadores suficientes radica més en sus propiedades Optimas que en la mera re- ducci6n de los datos, por muy importante que ésta pueda ser”. La propiedad de invarianza se basa en la conveniencia de que obtenido un es- timador, 0*, de un parémetro, 6, el estimador de una funci6n del mismo g(6), sea la funci6n del estimador, g(6*), conservandose en esta relacién el tipo de transfor- macién representado por la funcién g. Cuando se obtienen estimadores es frecuente establecer hipétesis sobre la po- blacién bajo estudio, hipétesis que no siempre se cumplen. La propiedad de robus- tez de un estimador se refiere a que las desviaciones de las hipétesis iniciales no afectan a la bondad del estimador, o lo hacen débilmente. 3.3 Estimador insesgado La funcién de densidad’ en el muestreo de un estimador 6*, (0%; 0), también dependera del parémetro o parmetros poblacionales, por lo que la esperanza ma- tematica del estimador es. igual a E@*)= fo g(0*; 0) ao* si su campo de variacién es 20 < 0* <0. Si tenemos en cuenta que el estimador es funcién de los elementos muestrales, 0* = O* (x,,..., x,), Y que la funcién de densidad conjunta de la muestra, supuesta 1 nd ¥ 7 Ht) 7 A esta propiedad se ha dedicado parte del capitulo anterior. 8 EI planteamiento es similar en el caso discreto. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES M73 aleatoria simple de tamafio n, es f(x; 0) -- f(x,; 8), podemos calcular, también la esperanza del estimador? como E(6*) = f f OF (xy, eX) L0G 3 9) > FO; 0) de, de, = =f 0* (X) L(X, 6) dX. x En general, la esperanza matemdtica del estimador de un parametro dependerd de ese mismo parémetro pudiéndose expresar, en general, como E(6*) = 0 + b(8). La cantidad b(@) recibe el nombre de sesgo del estimador, y es equivalente a un error sistematico, no aleatorio, positive 0 negativo. El signo del sesgo de un estimador tiene una interpretacién importante. Cuando es positivo indica que si se utiliza tal estimador se tender4, en media, a sobrestimar el valor del parametro desconocido, mientras que si es negativo se tender a infravalorarlo. Cuando el sesgo es nulo el estimador se denomina insesgado” verificdndose, por consiguiente, que E(6*) = 6. En otras palabras, un estimador es insesgado cuando la media de su distribucién en el muestreo coincide con el parametro. La ausencia de sesgo supone la no exis- tencia del error sistemético. Un estimador es asintéticamente insesgado si el sesgo (8) -> 0 cuando n —> x, La insesgadez es una propiedad de la variable aleatoria estimador, no de una estimaci6n concreta, y ha de entenderse como propiedad «media», referida al conjunto de todos los valores que pueda presentar el estimador, en el sentido que si tomamos todas las posibles muestras aleatorias simples de un tamafio concreto, se calcula en cada una de ellas el valor del estimador (estimacién puntual) y se halla la media de todas las estimaciones, el resultado es igual al valor del parémetro si el estimador es insesgado y distinto de él si no lo es. La definicién de insesgadez indica la manera de verificar si un estimador es in- sesgado, pues no hay mas que calcular su esperanza matematica. ° Donde L(X, 8) = f(x,,0) f(x,.0) y dX = de, ode, 10 También se conoce como centrado. 74 lM FUNDAMENTOS DE INFERENCIA ESTADISTICA — EJEMPLO 1 En la distribucién de una variable aleatoria & B(m; p) , en muestras aleatorias simples de tamafio n, se estima el parametro p mediante dos estimadores x Pre y PE m m+ Calculamos la esperanza matemética de cada estimador. En el primero Eu) = “(2)- + y el estimador es insesgado. En el segundo Eel EG) = 7 mp = P z 1 1 P EQ) = E@) = —- mp = p- oD (4) wi Oa Pa siendo sesgado, El signo del sesgo es negativo, implicando que su utilizacién conducira en media a infravalorar el valor del parémetro desconocido p, lo que no impide que en algin caso particular, obtuviéramos una estimacién puntual que fuera mayor que el valor del parémetro, Si junto al segundo estimador hubiéramos planteado x m-1 PR = seria sesgado con sesgo positivo, —?— , 1o que Ilevaria a sobrevalorar el parametro p. = 3.3.1. PROPIEDADES DE LOS ESTIMADORES INSESGADOS 1. Si dos estimadores, 6* y @%, de un pardmetro son insesgados, tomamos un nimero c en el intervalo (0;1) y definimos un nuevo estimador 6* combinacién lineal de los otros dos, el estimador resultante es también insesgado E(0*) = E(t) = 0 0*+(1-c) 6F E(0*) = E{c OF + (1 - c) 03] = c EOF) + (1 - c) E@Z) = cO+(1-c) O=0 esto quiere decir que a partir de dos estimadores insesgados podemos obtener me- diante combinaciones lineales convexas, infinitos estimadores insesgados. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES M75: 2. El momento muestral de orden r respecto al origen es un estimador inses- gado de su correspondiente momento poblacional. En efecto, como segiin vimos en el epigrafe 1.4 Ea) =,, entonces cuando a = a, se verifica que E(a*) = E(a,) =a,, es decir, a, es un estimador insesgado de «, . Como caso particular, dado que la media poblacional 1 es igual ao, , se ten- dra que wteat=q =F obteniéndose que E(u) = EG) =a, = 1 por lo cual, sea cual sea la poblacién, un estimador insesgado de la media pobla- cional es la media muestral X . 3. Si se estima la media de una distribuci6n, 1, en muestras aleatorias simples de tamafio n (1%, ..., x,), mediante la combinaci6n lineal siendo (c,, ..., ¢,) mimeros reales, la funcién muestral es un estimador insesgado de la media poblacional si)” i ", = 1, es decir, si dicha combinacién lineal es convexa E(u" im 1 in it Por consiguiente, como caso particular es un estimador insesgado del parémetro 1, como antes vimos. 76 ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA 4. La varianza de una muestra aleatoria simple es un estimador sesgado de la varianza poblacional, siendo su esperanza" igual a ¢ donde el sesgo es - <- n Si en vez de tomar s? como estimador de o? tomamos la cuasivarianza muestral el nuevo estimador es insesgado, E(s;) el Tenemos, asi, un procedimiento para obtener estimadores insesgados a partir de estimadores sesgados, por simple transformacién lineal del estimador sesgado. 5. En los momentos muestrales con respecto a la media, m, , se obtenia que 1 E(m,) = 1, + 0[— n implicando que los momentos muestrales respecto a la media son estimadores ses- gados de sus correspondientes momentos poblacionales, siendo el orden del sesgo 1 of). n Este sesgo tiende a cero cuando el tamafio de la muestra n se hace suficiente- mente grande, pues aunque p1* = m, no es un estimador insesgado de y1,, es al menos asint6ticamente insesgado. Como caso particular, recuérdese la varianza muestral analizada en el punto anterior. 6. Entre los momentos centrales en las distribuciones bidimensionales el més im- portante es la covarianza muestral, m,, , cuya esperanza conduce a un estimador sesgado 10 Véase el capitulo 1. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES 77 Para obtener un estimador insesgado, f,,, de no hay mas que multiplicar m,, n-1 por la inversa de EJEMPLO 2 En una distribucién M(j1;6) se construye como estimador de 1 la funcién muestral Su esperanza matemética es por lo cual el estimador es insesgado. 3.4 Estimador efi nte Un estimador es eficiente cuando tiene varianza minima. Esta propiedad exige que el estimador que se utilice genere estimaciones parecidas para las diferentes mues- tras que puedan obtenerse de la poblacién. Al ser pequefia la variabilidad de las estimaciones entre sf, el estimador disfrutaré de mayor confianza en su uso que 78 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA otro que proporcione estimaciones excesivamente dispares para las distintas mues- tras posibles. En principio, para seleccionar el estimador eficiente entre el conjunto de esti- madores posibles de un parametro desconocido @ hay que calcular sus varianzas y comprobar cual es la menor. Este procedimiento puede ser impracticable si no se es capaz de definir el conjunto de todos los estimadores posibles, por lo que normal- mente se investiga la eficiencia de un estimador comparando su varianza con una cantidad, denominada cota de Cramér-Rao, que a continuacién va a obtenerse. 3.4.1. COTA DE CRAMER-RAO Sea una poblacién definida por la funcién de probabilidad f(x; @) que contiene el pardmetro desconocido 0, estimado mediante @*. El estimador recoge la informa- cin suministrada por una muestra aleatoria X de tamafio n. La funcién de verosi- militud es!” LK 0) = fl, verificdndose que f L(X: @) dX =1. Ie A partir de la funcién de verosimilitud se define la variable aleatoria score” sc = SBE) 26 que presenta las siguientes caracteristicas'? — | 2m LK 0)] _ eiscio)= | BLED | 0 2 _ y| Qin L% 8) | _ p| in LOX 8) = V[SC@)] = v[oeae | o[ zeae) | 1(8) 1" Se utiliza la notacién compacta para aligerar la exposiciOn. Recuérdese que, je 10%: 0) aK = f fre, 198,30) deo de, "2 Vease el capitulo 2. 3 Ipidem. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES 79 representando /(@) la cantidad de informacién de Fisher" que la muestra contie- ne respecto al parémetro 0, siempre y cuando se cumplan las siguientes condicio- nes de regularidad de Fisher-Wolfowitz: I. El campo de variacién de la poblacién de donde procede la muestra no de- pende del parémetro @ y, por consiguiente, la muestra X tampoco'’. Il. La funcién In L(X; @) admite, por lo menos, las dos primeras derivadas respecto al parémetro 8. III. Las operaciones de derivacién e integracién (o suma en el caso de variable aleatoria discreta) son intercambiables. Sea un estimador de 6 cuya esperanza matemiatica es E(0") = [0% L(x; 0) aX = 0 + (0) expresién, que bajo las condiciones de regularidad anteriores, se convierte en fe LED ox 14 0). Ri a) Si ahora se tiene en cuenta la distribucién conjunta del estimador 0* y la varia- ble aleatoria score, SC(0), por la desigualdad de Schwartz"* tenemos que 2fqx. dln L(X; 6) ain L(X; 0 cov’ [or 20 | < V(6*) venue. | B) y como On L(X; 6) é In L(X; 8) din L(X; 0) aaa = OAS 9) | (gs) E| SOY) | coon ry | alr 38 ] (0*) [ 30 | 0 . aloe ain L(x; 2] 0 pues ln L(X; 0) E|————=0 Ps | " Thidem. 15 Por ejemplo, una poblacién uniforme con funcion de densidad f(x; 6) = i 0.<.x< 0. nocumple esta condicion, *6 Martin PLIEGO y RUIZ-MAYA: Fundamentos.... Capitulo 4 80 M@ FUNDAMENTOS DE INFERENCIA ESTADISTICA Hegamos a que la covarianza es igual a 1 + b(8) , pues co am L(x; 2] _ elo dln L(X; 2) _ 20 20 = for ARES) Lex; 0) ax = x 20 1 aL(X; 6) = fox : = fe Tox) ag aK = for ALK) ry _ Kk 00 =1+5'@) de acuerdo con [2]. Recordando la definicién de cantidad de informacién de Fisher 2 v[ seo - 9 [Buea =10), 20 20 Ia desigualdad [3] resulta 1+b@! < VO% 10) con Io que 0+0@P _ — 0+F@r VO*) = 10) fan Lx: | 08 expresién conocida como cota de Cramér-Rao, que indica que la varianza de un estimador, para un tamafio de muestra dado, no puede ser menor que esta cota. En el planteamiento de la cota de Cramér-Rao no se ha especificado nada sobre el tipo de muestreo utilizado, simple o no. Sin embargo, al ser el muestreo que utilizamos el aleatorio simple, estudiamos qué implicaciones tiene en la cota. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES ™ 81 ‘Si la muestra es aleatoria simple se verifica la igualdad"” a2" Li of . n(n LK: ay 26 20 y la cota resulta 0+o@) ver ng[2Bseo) 08 Vv(O*) > Si el estimador es insesgado, b(@) = 0, la cota se simplifica 1 Ten E olnL(X; ®) 08 ver) = y en muestras aleatorias simples vex) > —_1___, ng 20£0e 2| « El denominador de la cota de Cramér-Rao es la cantidad de informacién de Fisher. Esta cota depende, en general, del estimador concreto analizado, a través de su sesgo y de la distribucién estudiada. Una consecuencia importante en estimadores insesgados, es que la cota tinicamente depende de la funcién de densidad poblacio- nal y del tamafio muestral. La cota de Cramér-Rao permite determinar si un estimador es eficiente 0 no. Si su varianza coincide con la cota sabemos que de la clase de estimadores con ese sesgo (0 insesgados) ninguno tendra una varianza menor. De estas palabras no debe deducirse que necesariamente siempre exista un estimador que alcance la cota. Es preciso destacar que la cota de Cramér-Rao, CRR, no tiene por qué tomar siempre un valor muy pequefio (cercano a cero), pues su calidad de minimo (cota inferior) Io es con respecto a las varianzas de los estimadores, y no con respecto al limite inferior de la varianza, cero. Un estimador es asintéticamente eficiente si lim V(0*) = Cota de Cramér-Rao. "7 Vease el capitulo 4 82 M FUNDAMENTOS DE INFERENCIA ESTADISTICA En la obtencién de la cota de Cramér-Rao se ha expuesto, explicitamente, la condicién que el campo de variacién de la variable aleatoria poblacional no depen- diera del parémetro a estimar. La inobservancia de este requisito puede dar lugar a resultados donde las varianzas de los estimadores son menores que las cotas CCR indebidamente calculadas. — EJEMPLO 3 En una distribucién N(j1; 6)se estima la media poblacional 1 mediante la media de una muestra aleatoria simple de tamafio n (x, ..., X,). El estimador es insesgado y su varianza Para obtener la cota de Cramér-Rao partimos de la funci6n de densidad poblacional, calcu- Jando su logaritmo FOG Ww) 1 (x=? In f(x; p) = -Ino-7In2n- = Derivando respecto al parémetro 1 y elevando al cuadrado in fei w on Es ainfasw) _ @-ny ou o la esperanza matemética es sw? py? glo sarw) _ | & py == ou 3 Sustituyendo el valor de la esperanza matematica en la expresién de la cota para estima- dores insesgados 1 h foedee 2) Ou La varianza del estimador coincide con Ia cota, por lo que concluimos que la media muestral es un estimador eficiente de la media poblacional en la distribucién normal. 2 CCR(u*) = 1 T ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES ™ 83 3.4.2. UNICIDAD DEL ESTIMADOR EFICIENTE Si existen dos estimadores eficientes con el mismo sesgo son iguales, pues el esti- mador eficiente es tinico. Sean 0%" y 63 tales que E(t) = E(0}) = 0 + b(®). Consideramos el estimador de idéntico sesgo or = AE 2 ya que BO") = 5 (E00!) + £03) = 1 =F 10+ 40) +10+ HOD = =0+),(0) y definimos las variables tales que E(dy = E@F - 0° = ECME@F) = VF) + 2) E(d,)’ = E@} - 6) = ECM(@}) = V@3) + 45 (0) como 6" y 6} son eficientes y tienen el mismo sesgo V@") = Vz) = V. Consideremos la identidad TET donde +d; _Of-0+0%-0 _OF+0F 9 yy 2 2 2 d,~d, = (0* - 0) - @F - 0) = OF - OF 84M FUNDAMENTOS DE INFERENCIA ESTADISTICA Tomando esperanzas en [4] E(0* - 6) + FEOF - off = = [E(d)) + E(d3)] = = rle =3V+ B®) + V + B50) = (5) =V+ RQ). Como 6* en principio no tiene por qué ser eficiente E@*- 0) V+ HO), con lo que se tendré que cumplir en [5] EQ; cuya tinica solucién es E@r - 037 =0 lo que implica la igualdad de los estimadores oF = oF concluyendo que el estimador eficiente de clase b(8)es tinico. Si b,() = 0, se obtiene como corolario que si existe un estimador insesgado eficiente, éste es tinico, y la varianza sera minima cuando sea igual a la cota, es decir, cuando se verifique 3.4.3. EFICIENCIA RELATIVA En ocasiones puede interesar comparar s6lo dos estimadores entre sien cuanto a su dispersin o grado de eficiencia. En este caso no se pretende localizar el mejor de todos los estimadores posibles en relacién a esta propiedad sino, simplemente, determinar el mejor entre dos. Para ello se establece la nocién de eficiencia relati- va como cociente de sus correspondientes errores cuadraticos medios. Si tenemos dos estimadores de un mismo parametro 0, 6 y OF, y sus errores cuadraticos medios son ECM@S) = E(@¥ - 0° = Vf) + BR) ECM(@%) = EQ - 6)? = VOX) + B30) ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES Ml 85 el indice de eficiencia relativa viene dado por ECM@*) ECM) (0; oF Si los estimadores son insesgados la eficiencia relativa es igual al cociente de sus varianzas (or; 08) = VOD. ves) La eficiencia relativa es siempre mayor que cero, pues lo son los errores cua- draticos medios. Es menor que uno si ECM(6}*) < ECM(0}) , implicando que de- beremos elegir el estimador @¥ frente a 6, y reciprocamente. 3.4.4, ESTIMADORES UMVUE En el estudio de la propiedad de eficiencia de un estimador aparece como pieza fundamental la cota de Cramér-Rao. Las posibles situaciones que, respecto a dicha cota, pueden originarse se resu- men en el diagrama siguiente: [Accesible por algin estimador [No accesible Calculable Cota de Cramér-Rao No calculable Solamente en un caso, cuando se cumplen Jas condiciones de regularidad de Fisher-Wolfowitz que permiten calcular dicha cota y cuando exista algin estimador cuya varianza sea igual a la cota (es decir, cuando sea accesible la cota de Cramér- Rao por algiin estimador), se puede concluir el andlisis de la eficiencia de los esti- madores de un pardmetro 0. Si la cota no es calculable, 0 cuando siéndolo no es posible encontrar un estimador con varianza igual a esta cota (no es accesible), es necesario ampliar los métodos de busqueda del estimador de varianza minima.'* "® Cuya existencia no esté asegurada 86 M FUNDAMENTOS DE INFERENCIA ESTADISTICA De todo esto se deduce que el recurso a la cota de Cramér-Rao para el estudio de la eficiencia es una medida parcial para casos concretos, quedando otras situa- ciones no resueltas. Una via de solucién general es la construccién de estimadores insesgados uni- formemente de varianza minima (UMVUE)'° definidos de la siguiente manera: consideremos la clase U de estimadores insesgados, 0*, de un parémetro 0, si un estimador @* de esta clase verifica, para todo 0 < @ , la desigualdad E(x - 0 < E(@*- 0)", diremos que 6% es el estimador insesgado uniformemente de varianza minima. La bisqueda de estimadores UMVUE queda fuera del nivel fijado para este manual”; no obstante, se ha querido dejar constancia de su existencia por las dos consideraciones siguientes: 1. La cota de Cramér-Rao puede no ser una solucién definitiva en el andlisis de la eficiencia de un estimador, bien porque esta cota no pueda calcularse en determinadas poblaciones, bien porque pudiéndose obtener no se en- cuentre un estimador que alcance dicha cota y con ello se le atribuya el ca- lificativo de estimador eficiente. 2. Existen otras vias de determinaci6n de estimadores eficientes, los UMVUE que si bien limitan la biisqueda del estimador de menor varianza a la clase de estimadores insesgados, implican un mayor nivel de sofisticacién. Evi- dentemente, si un estimador insesgado es eficiente en el sentido Cramér- Rao también puede calificarse de UMVUE, aunque este enfoque alternati- vo se basa en la pretensién de plantear la determinacién de este tipo de estimadores fuera del contexto de esta cota. A las propiedades de insesgadez y eficiencia de los estimadores llegamos minimi- zando la diferencia entre el estimador y el parmetro, @* - @, expresada a través del error cuadratico medio, ECM(0*) . Estas dos propiedades no estan ligadas a un '° Uniform Minimum Variante Unbiase¢ Estimator. 29 Véase RUIZ-MAYA y MARTIN PLIEGO: Estadistica II: Inferencia. Capitulo 5. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES M 87 tamafio concreto de la muestra sino a la media de las posibles estimaciones puntua- les. La ventaja de que el tamafio muestral aumente radica en que la informacion proporcionada sobre la poblacién es cada vez mayor Ilegando, si es infinito, a coincidir 1a muestra con la poblacién y la estimacién puntual con el parémetro.”! Resulta evidente la conveniencia de estudiar el comportamiento de los estimadores en funcién del tamafio muestral. Expresado formalmente, sea * = 6* (x, ..., x,)un estimador del parémetro 0 de una poblacién con funcién de densidad o cuantia f(x; 6), en muestras aleatorias simples de tamaiio n. Si damos valores a n (1, 2,..., 7, ...) tenemos una sucesién de estimadores { 6*} OF(x,); OF(a,, x): +%,) Dado que un estimador es una variable aleatoria podemos estudiar la sucesién {0*} bajo los aspectos contemplados en la convergencia de variables aleatorias, es decir, el comportamiento asint6tico de la sucesion”. Un estimador es consistente si converge en probabilidad al parametro que se quiere estimar, es decir lim P(|O7- 8] 2 €) = 0 © también, si consideramos el suceso complementario del anterior, |9* - | <¢, lim P(/0* -6| «) s—*y 21 Teorema de Glivenko-Cantelli. Vid. MARTIN PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 9. n Dbidem. 88 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA Al estudiar el error cuadrdtico medio legabamos a su descomposicién en dos su- mandos no negativos E(@x - 0) = V(0) + B°(@,) y tomando limites en la desigualdad de Chebichev E(x - 0) (Or lim P(\O7- | 2 €) < lim lim E(@* - 67 = jim V@s) + tim 6°@,) EI resultado anterior dice que para que se cumpla ‘Him PCG - 812 €) = 0 es suficiente con que lim, VOp=0 yim 5@,) = 0 equivaliendo la segunda condici6n a im, E@y) =8 y la primera a lim V(@#) = 0 indicando que en el limite el campo de variacién del estimador es un tinico punto,” coincidente con el valor desconocido del parémetro 0. Todo Io anterior supone que si el sesgo y varianza de un estimador tienden a cero cuando el tamajio muestral es infinito el estimador es consistente”. 3.5.1. PROPIEDADES DE LOS ESTIMADORES CONSISTENTES Se expone una serie de propiedades de los estimadores consistentes, derivadas de las propiedades de la convergencia en probabilidad: 2 DistribuciGn degenerada 0 causal: MARTIN PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 6. 23 Estrictamente hablando, la consistencia ¢s una propiedad Ifmite de una secuencia de estimadores aunque, para abreviar, se utilice el término estimador consistente. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES @ 89 11. Si plim @* = © y ges una funcién continua se verifica plim g(@") = g(6). es decir, si O* es un estimador consistente de @ entonces g(0) también Io seré Tespecto a (0). 2. Los momentos muestrales con respecto al origen son estimadores consis- tentes de los correspondientes poblacionales™, es decir, lim P(\a, ~2,|2) = 0. En efecto, aplicando el teorema de Chebichev Eq, -0,) _ Va, @ P(g, ~a,|2 6) AG y supuesta la existencia de a,, si m > <0, el tiltimo término tiende a cero, con lo que est4 demostrada la consistencia de a, . 3. Los momentos muestrales centrales, m,, son estimadores consistentes de los correspondientes poblacionales, 11, Segiin Chebichev Pom, ~ 12 0) s SO se demuestra que E(m, 7" = of). y si k=1 la esperanza es (2): por Jo tanto, el segundo término de la desigualdad de Chebichev es igual a 02), siendo su limite cero cuando n —> «0 , resultando a tim P(|m,- 4,2) = 0. 4 Teorema de Kintchine. Vid. MARTIN PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 9. 90 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA — EJEMPLO 4 La media muestral es un estimador consistente de la media poblacional, supuesto 0” <<, E@-uy _ lim P(|¥-pI2®)< lim Podemos seguir otro procedimiento para demostrar la consistencia de la media muestral lim P(|¥-p|2e)=1- lim P(u-e< ¥ Sp+e)= =1- tin P(-e n+ Ss wee) = 2 In En el capitulo 2 se ha estudiado la necesidad de tomar en consideracién el hecho de la posible pérdida de informacién contenida en una muestra cuando a fin de hacerla operativa, se sustituyen los valores individuales por un estadistico. Se asigna a un estadistico la calificacién de suficiente cuando resume el conjunto de informacién relevante contenida en la muestra, y ningéin otro estadistico puede proporcionar informacién adicional acerca del parametro desconocido de la poblacién. Al ser el estimador funcién de los valores muestrales y, por consiguiente, un estadistico, es preciso extender a los estimadores la propiedad de suficiencia. Si un estimador es suficiente, la distribucién de la muestra X dado el estimador 0 es independiente del pardmetro 0, es decir, F (8/8*; ®) = H(X). — EJEMPLO 5 En una distribucién de Poisson y en muestras aleatorias simples de tamafio 2 se utiliza como estimador del pardmetro A la funcién muestral T= 2x, +3x,. Se extrac una muestra (x, = 3, x; = 0) y queremos verificar si el estimador es suficiente. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES @ 91 El estimador T toma en la muestra el valor 6, por tanto, necesitamos comprobar si la probabilidad del suceso {&, = 3, £, = 0/T = 6} es independiente del pardmetro 4 P =3, = = 6) P =3, =0) Pte, #36, = 0/r == ARSE GTAD . PEE AO . PG, = 3.8; =0) FIG, =38, HUE . PG, = 3) Plé, = 0) . PE, =3) PG, = 0)+PE, = 0) PE, =D en etn? 3 (Ol oO 2 la probabilidad no es independiente de A por lo que T no es suficiente como estimador del parémetro. 3.6.1. CRITERIO DE FACTORIZACION DE FISHER-NEYMAN La aplicacién de la definicién de suficiencia para determinar si un estadistico es suficiente es poco operativa, por lo cual se utiliza como procedimiento el criterio de factorizacién de Fisher-Neyman,” de mis sencilla aplicacién, estableciendo que para que un estadistico (estimador) sea suficiente la funcién de verosimilitud de la muestra, L(X;), debe descomponerse en el producto de dos funciones, una de ellas, 9(0*, 8) , dependiente del parémetro 0 y de la muestra a través del estimador 6*, y la otra, H(X), no dependiente del parémetro @ L(X; 8) = g(0*; 0) - H(X). El criterio de factorizacién de Fisher-Neyman puede contemplarse desde un punto de vista operativo en la bisqueda de estimadores suficientes. Tal y como se ha planteado lo utilizamos para determinar si es suficiente un estimador conocido, ahora bien, si la funcién de densidad conjunta de la muestra puede descomponerse de la manera indicada por el criterio de Fisher-Neyman, el estadistico @* que apa- rece en la funcién ¢(@*, 6) es un estimador suficiente del parémetro 0. % Vease el capitulo 2. 92 ™ FUNDAMENTOS DE INFERENCIA ESTADISTICA — ESEMPLO 6 En la distribucién N(y; 0), siendo conocida o, la media muestral es un estimador suficiente de la media poblacional, en muestras aleatorias simples de tamafto n. La funcién de densidad conjunta de la muestra es 1 o V2n PO ooo Xy5 w= desarrollamos el exponente Yoo, — wt = a + np? - 2m pe = nu? - 25) + Dat om a a definimos las funciones HO) os, [evan] legando a la descomposicién de la funcién de densidad conjunta de la muestra en la forma LAK w= Oy oes ys WD = BE WY HG oe XQ) por Jo que la media muestral es un estimador suficiente de la media poblacional. Si el estimador de 0 es 6* seria deseable que, por ejemplo, los estimadores de 0 +k, 1® y @ fueran, respectivamente, 0* + k, kO*y (0%) . Es decir, que el estimador de Ja funcién de un pardmetro, g(0), sea igual a la funcién del estimador del parémetro, [g(0)]* = 9(6*) . Cuando esto sucede, diremos que el estimador es invariante.”° 26 En el capitulo siguiente se verd que el. método de estimacién de la méxima verosimilitud es invariante. ESTIMACION PUNTUAL: PROPIEDADES DE LOS ESTIMADORES @ 93 Por ejemplo, si para estimar la varianza poblacional o” se utiliza como estima- dor la varianza muestral, s*, entonces, para estimar la desviacién tipica poblacio- nal, o, el método utilizado, si es invariante, deberia proporcionar como resultado que o* =5,, desviaci6n tfpica muestral. En realidad los estimadores en sf no pueden calificarse de invariantes, sino mas bien debe ser el método de estimacién que se utilice el que ha de ser invariante ante cualquier transformacién. La invarianza y la insesgadez de estimadores de parémetros ligados funcional- mente por algin tipo de transformacién no puede lograrse simulténeamente. Por ejemplo, si el método para estimar @ y 6° es invariante y, ademés, los estimadores de cada pardmetro son insesgados, tendriamos que E(6*)=0@ y E[(0*)?]=06, sin embargo, V(6*) = E[(0*)"] - [E(@*) = 6? - 6? = 0, lo que obliga a que el estimador 6* tenga una distribucién degenerada. 3.8 Estimador robusto Un estimador es robusto cuando vulneraciones de los supuestos de partida en que se base el proceso de estimacién no alteran de manera significativa los resultados que proporciona. Los aspectos més usuales que atafien a la robustez se refieren al alejamiento de la funcién de distribucién atribuida a una variable aleatoria respecto de la verdadera, desconocida. Supongamos que se desea estimar el pardmetro @ de una poblacién que creemos presenta una distribucién de probabilidad F,(x; 0). Se extrae una muestra aleatoria simple de tamafio n y se construye un estimador 0* cuya distribucién de probabili- dad en el muestreo, G,(6*; 0), deriva de la poblacional F(x; ). Si la distribuci6n de la poblacién no es F(x; 6) sino F,(x; ), la distribucion del estimador ya no seria G,(6*; 6) sino G,(6*; 0). Entonces si G,(6*; ®) no se aleja demasiado de G,(6*; 8) , es de esperar que este cambio en las condiciones de partida no altere sustancialmente el proceso de estimacién, por lo que las conse- cuencias no serfan excesivamente desfavorables y el estimador obtenido inicial- mente seria robusto. En caso contrario, si G,(6*; 6) es bastante dispar con respecto a G,(0*; 6) al llevar a cabo inferencias con 6* se cometerian errores de considera- cién. 84 Mm FUNDAMENTOS DE INFERENCIA ESTADISTICA Citamos dos ejemplos. Supongamos que el estadistico T(X) sigue la distribu- ciénN(1; 1), aunque realmente la distribuci6n correcta es 7?(1). La probabilidad del suceso {7(X) 21} en el primer caso P(N(1; 1)>1) es 0,5 y en el segundo P(2(1) 21) = 0,345. La diferencia de las probabilidades indica, con claridad, lo que supone el tomar como distribucién poblacional una u otra distribucién. Si no se conoce la varianza en una poblacién N(; 0) se recurre a la distribu- cién de Student x-h un-1)= va-1 I? alteraciones moderadas en la normalidad respecto a N(u; @) no afectan seriamente a las inferencias basadas en t(n — 1), sobre todo para valores altos de n, indicando que los procedimientos sustentados en el estadistico ¢ son robustos. Sin embargo, la no normalidad afecta seriamente las inferencias que se realicen sobre o” basadas 2 en 2(n-1). EJERCICIOS RESUELTOS DEL CAP{TULO 3 @ 95 Ejercicios resueltos EJERCICIO 3.1 Consideremos una variable aleatoria N(u; 0) y dos estima- dores de la media poblacional j1, en muestras aleatorias simples de tamaiio n, tite, ut n-1 Selecciénese el mejor de ellos teniendo en cuenta su error cuadratico medio. SOLUCION. Hemos visto que ECM(u*) = E(u*— pw?) = Vu) + (n - Eu)? y, para cada estimador, las expresiones de E(u*), V(u*) son Yo= Bae vp = — q+ ECM (u}) = E(ut - p)? = Vint) + fh - BQ)? = __ng® : ny _ not +p? @-y [Yat | a ECM (uf) = Buf - w)? = Vg) +H - EGP A no* n ? 107 +p? = tp | aE. (n+? n+l (n+ 1)? Para decidir cual de los dos estimadores es preferible suponemos que ECM(y) > ECM), y, Si es asi, se ha de verificar que no? +n? no + (n-1 (n +1)? 96 M FUNDAMENTOS DE INFERENCIA ESTADISTICA La desigualdad siempre tiene lugar pues, operando, llegamos a que (n+l >(@n-1? por lo que se deber4 elegir, en este caso, el segundo estimador como «mejor» de los dos. EJERCICIO 3.2 Una variable aleatoria & tiene la funcién de densidad F050) =e, para x20 y @>0. Se estima el pardimetro @ mediante dos estimadores diferentes en muestras aleato- rias simples de tamafio dos 2x, +4x, 4x, + 5x, 3 3 Compérense a través de sus errores cuadraticos medios. or= ey = SOLUCION. Las esperanzas y varianzas de los estimadores son E@) = (A) =2E@) vor) = (73) -5 Lave) +teve@= ve EO!) = (22) =3E®) vos) = 24) -2v@ necesitando obtener Ia esperanza y varianza de la variable aleatoria poblacional, que como puede comprobarse, son EG) = ef_ ol vO=a resultando las correspondientes de los estimadores iguales a E(03) = vz) EJERCICIOS RESUELTOS DEL CAPITULO3 m@ 987 los errores cuadréticos medios respectivos son ECM(6%) = E(6f - 6)° = VOT) + [0 - E(@*)F = ECM(0%) = E(6% - 0)? = V(0%) + [0 - EQO*)P = 4 fy_3 P _ 90* - 5407 +122 8 907 607 + 56 90? 90 * Para verificar la influencia del pardmetro sobre los errores cuadréticos medios bas- tar4 comprobar si, por ejemplo, se cumple la siguiente desigualdad para todo valor de 6 Et - 0) < E@} - 6) 90% - 3607 + 56 < 90% - 540? +122 907 90 por lo que la relacién entre los dos errores cuadraticos medios se cumple s6lo para los ul valores de 6? inferiores a es decir, el valor de 0, desconocido, influye en la elec- cién del estimador, como se aprecia en la figura 3.2. ECM 5,0 45 40 35 30 2s 2,0: 12” 16° 16 08” 2 22° 24° 26 28 FIGURA 3.2 98 M FUNDAMENTOS DE INFERENCIA ESTAD{STICA Se puede comprobar que i Para 0° t es ECM(0*) > ECM(83) EJERCICIO 3.3 Para estimar el parémetro p de una variable aleatoria BQ; p), en muestras aleatorias simples de tamaiio 3, se establece el estimador pre itntsn, 7 10 Estidiese si dicho estimador es insesgado. SOLUCION La esperanza matemitica de p* se puede obtener de dos formas: bien mediante la distribucién de probabilidad de la variable aleatoria poblacional junto con las propiedades de la esperanza matemética, bien calculando la funcién de cuantia en el muestreo de p* y hallando, a continuacién, su esperanza matemética. Primer procedimiento E(p*) = [Brass - 1 = 7g 2B) + BG) + 4E(x5)] = 1 Tp -1 apy= 2 = 7p OP +P +4) = ee =p 10? P ‘Al no coincidir E(p*) con el parémetro p, el estimador planteado es sesgado y el sesgo igual a -3p indicando que, en media, el estimador subestima el valor de p. Segundo procedimiento Calculamos la distribucién de probabilidad en el muestreo de p*. Hay ocho muestras aleatorias simples distintas, hallamos para cada una de ellas la correspondiente estima- ci6n y su probabilidad. Todos los valores aparecen en el cuadro siguiente EJERCICIOS RESUELTOS DEL CAPITULO3 @ 99 Probabilidades de obtencién de cada clase de muestras (1310) (1,051) (05151) (515) La esperanza matemitica del estimador p* es igual a 2 E(p*) = >. pf P(p* = pp) = a 1 2 1 =0(1- py +— pl - py? +—p(l- pt +--+ —p? = (= py + TPG py +7 Pd py t+ oP Ip =e 10 *? y el estimador es sesgado. EJERCICIO 3.4 —_La variable aleatoria E que tiene por funcién de densidad f(xy=0e*, «x20, 0>0 se considera como estimador, en muestras aleatorias simples de tamaiio 2, la fun- cién muestral +3x, 4 or Compruébese si el estimador es insesgado. SOLUCION. La esperanza matemitica del estimador es 1 E(6*) = af GiB) + 3EG2)1 = EG) 100 M = FUNDAMENTOS DE INFERENCIA ESTAD{STICA y la de la variable aleatoria & E@) = [fore d= es decir, Fe) =1=0++ El estimador es sesgado por no coincidir su esperanza matematica con el parémetro ©, y el sesgo sera positive 0 negativo dependiendo del valor de ®, positive cuando 0 <1 y negativo siempre que @ > 1 También podemos calcular 1a esperanza matemética del estimador a partir de la distribucién en el muestreo de @*, cuyo campo de variacién es 6* > 0,”” G(O*; 8) = Pn sO) = [a se < | = P(E, +36, $ 46%) = 0 oe ltt =f J, > sertseer® a, de, = ‘ too e3 (0; 8) = 20 por tanto 0 2 teas B10" = [8 g(r: 0 aoe = [9+ 20 [4 EJERCICIO 3.5 —_ En la distribucién N(u; o) y en muestras aleatorias simples de tamajfio n, se consideran como estimadores de los pardmetros 1 y o° la media y la cuasivarianza muestrales, respectivamente. Estiidiese su eficiencia. SOLUCION. Sabemos* que ; : vay== y vor= 2 n— 2 Bi estimador 6* puede ser cero, ya que Ja variable también puede tomar este valor, sin embargo, debere- ‘mos rechazar que 6* sea igual a cero pues en el enunciado se establece que 0 > 0. % Vease el capftulo 1 EJERCICIOS RESUELTOS DEL CAP{TULO3 ™@ 101 La matriz de informacién correspondiente al parametro p y o* en la distribucién N(u; 0) es =z 0 es 10) = n o 204 y su inversa £9 ver = ‘ 0 por consiguiente, Ve = CCR) = & n y la media muestral es un estimador eficiente de j1, mientras que 1a cuasivarianza muestral no lo es de o” , pues - 204 4 Visi) = 2 > cerioty4 = 22. EJERCICIO 3.6 En Ia distribucién B(m; p) se considera como estimador del pardmetro p el estadistico p* = Z, si io ¥ la media muestral en muestras aleatorias simples de tamaiio n. Hillese la cota de Cramér-Rao y estadiese la efici del estimador. SOLUCION. En primer lugar, determinamos si el estimador es insesgado *) = e|=|-™- E(p*) {2 mo? Al coincidir 1a esperanza del estimador con el parametro, el estimador es insesgado, y el numerador de la cota de Cramér-Rao es la unidad. Véase el capitulo 2, ejercicio 2.4. 102 ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA Calculamos, a continuacién, el denominador de la cota. La funcién de cuantia de la distribucién binomial es f(x; p)= (") p(-p)"* su logaritmo neperiano y derivada respecto a p infos p)=i{"}oxinpsom—s9ind—p x ain f(x; p) _ x _m=-x _ _x-mp @ Pp i-p pl-p) donde ne yp p) (2 SD) EA P= py y la cota de Cramér-Rao 1 CCR = ————— na Safes 2 ®» La varianza del estimador es mp(i- p) _ p= p). 7 7m von =v[2]- Lv@ APE La varianza del estimador coincide con la cota de Cramér-Rao por lo cual el esti- mador estudiado es eficiente. EJERCICIO 3.7 En la distribucién de Poisson estimamos el parametro 4 me- diante la media de una muestra aleatoria simple de tamafio n. Estidiese su efi- ciencia. EJERCICIOS RESUELTOS DEL CAPITULO 3m 108 SOLUCION. La media muestral es un estimador insesgado de la media poblacio- nal,” E(X) = 4, y su varianza la de la poblacin dividida por el tamafio de la muestra, n, V@) = 4. Indicamos el célculo de la cota de Cramér-Rao obteniendo previamente el logaritmo de la funcién de cuantia de Poisson In P(E = x54) =-A+xIn A+ Inx! y su derivada respecto a A dmPE=%A) _ kL On a pf 2inP@= x59] _ B-? _ VG) _ ALT On RP CCR = La varianza del estimador es igual a ~, por lo cual, es eficiente. n EJERCICIO 3.8 En la funcién de densidad gamma G(p; q) estimese el pardme- tro q mediante la media de una muestra aleatoria simple de tamaiio n y estidiese su eficiencia. SOLUCION. La funcién de densidad de la variable aleatoria es” FQ Pg) = & su esperanza es igual a E(¢) = 2 y ta variamza Vie) = 2. q q Determinamos si el estimador es insesgado E(q*) = E(%) = E(€) = 7 =qt+ 29 Véase el capitulo 1. 3 MarriN PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 7. 104 | _FUNDAMENTOS DE INFERENCIA ESTADISTICA el sesgo es y el numerador de la cota igual a t+o@r El logaritmo de la funcién de densidad In f(x; p,q) = ping -InI(p) +(p-DInx— ge y la derivada respecto al parémetro q on fi p.g)_P_, =V@=4 ra resultando la cota cer - + vor n ee Li PD a Como la varianza del estimador, ¥ , es EJERCICIO 3.9 En una distribucién (uo) se estima la media poblacional hen una muestra aleatoria simple de tamaiio n(x,,...,%,) por medio de la funcién muestral Estidiese la eficiencia de este estimador. EJERCICIOS RESUELTOS DEL CAPITULO 3m 105 SOLUCION. _ Para hallar la cota de Cramér-Rao necesitamos saber, en primer lugar, si el estimador es insesgado 0 no, calculando para ello su esperanza matemética El estimador es sesgado y sobrestima, en media, el parametro, La varianza del es- timador es igual a O(n + DQn +1) ~ 6n ’ siendo oF _ (ntl? o? CR(w*) = S— oan CCR(u*) = — 4 7 puesto que dado que el sesgo b(t) = 2 cor = HOWE [+ 2 ary oF Mu) 4 n al ser mw) = (¢jercicio 3.5) o Comparando las dos expresiones, llegamos a la conclusién que al ser la varianza del estimador mayor que la cota de Cramér-Rao el estimador no es eficiente, siempre que n> 1. 106 @ ~~ FUNDAMENTOS DE INFERENCIA ESTADSTICA EJERCICIO 3.10 Una variable aleatoria est4 definida en el intervalo 00. Estudiese la consistencia del estimador de 6, 6* = Z. SOLUCION. Como primer paso del estudio de la consistencia del estimador verifi- camos su insesgadez E(®*) = E(X) = EG) =0 pues E@) = fede ax =0 siendo, por tanto, el estimador insesgado. La varianza de la variable poblacional es ye fect a0? EG) = [5 ax = 20 V(G) = EE?) -[E@P = 20? - 0? = 6 y la del estimador le V(r) = V(X) = © Pasando a la condicién de consistencia y+ — Q)? lim P(|@*— 0] 2 ©) = tim 2O*=O” = pm VO" _ tien iim, ns no gt nO ng! condicién que verifica la consistencia del estimador considerado. 108 = ™@ FUNDAMENTOS DE INFERENCIA ESTADISTICA EJERCICIO 3.13 Para estimar el pardmetro p de una variable aleatoria & distri- buida BG, p), en muestras aleatorias simples de tamafio 3, se establece el estadistico T = x, +X, +X,, sabiendo que en una muestra conereta su valor ha sido 2. Demuéstre- se que el estadistico es suficiente. SOLUCION. Para ello, verificaremos que P(E, = %, & =X, 63 =%3/T =2) @s independiente del pardmetro p P(E, =X, &) = Xp. &s = X33 T =2) P= P= 58s aay 8 4/7 2) PAT AD Si T # 2 la probabilidad es igual a0, y si T= 2 ds pa P= Hy by = ty by =) | PE pg’ __pg 1 1 Or Bn Ce Be La probabilidad no depende del parémetro p, por lo cual, el estadistico T es suficiente. EJERCICIO 3.14 En una distribucién B(1, p), en muestras aleatorias simples de tamafio n, se utiliza como estimador la suma de los valores muestrales T =x, ++ +X,) demuestrese que es suficiente. SOLUCION. La funcién de cuantfa conjunta de la muestra es L(X p) = PG, iy coe By =H) = Pd py pi py = a-p)™ r = pra py"? =a-py'|—2-| = er: = p'(- p) a oe] a(T; p) Definimos una funcién H(x,,....%,)=1, y establecemos la factorizaci6n de la funcién de cuantfa conjunta de la muestra L(X; p) = g(T; 8)-1 = g(T; 0) H(%, «+ %,) con lo que queda demostrada la suficiencia del estimador suma de los valores muestra- les. CaPiTULO 4 Meétodos de estimacién De la misma manera que planteamos el problema de las condiciones que debe veri- ficar un estimador para ser aceptado como «bueno» (capitulo 3) necesitamos dis- poner de criterios «objetivos» que permitan obtener, de entre los infinitos estima- dores de un parémetro, el mAs «razonable», como paso previo a la constatacién del cumplimiento de las deseables propiedades que debe cumplir un «buen» estimador. A este fin se establecen distintos métodos de estimacién, tratando aqui tres de ellos': maxima verosimilitud, de los momentos, minimos cuadrados. Cada uno de estos procedimientos tiene base de partida distinta: el de maxima verosimilitud y de los momentos 1a utilizacién del conocimiento de la distribucién de probabilidad poblacional, directa en el primer caso y a través de sus momentos en el segundo; en los minimos cuadrados la minimizacién de la distancia euclidea entre el valor conocido de una observacién y su estimacién puntual. El método de estimacién m4ximo-verosimil se fundamenta en el supuesto intuitivo siguiente: de varios sucesos que pueden tener lugar, admitimos que aparecera el "BI método de estimador minimax y el de Bayes se estudian en el capftulo 10. No trataremos la estimaciGn de pardmetros mediante estadisticos ordenados, remitiendo para ello a BALASKRISHNAN-COHEN, 109 110 M ~~ FUNDAMENTOS DE INFERENCIA ESTAD{STICA més probable’, o si ha aparecido uno concreto sera razonable suponer que, entre todos los posibles, era el més probable. Es decir, si en una bolsa tenemos més bolas blancas que negras y extraemos una al azar, pensamos que lo més probable es que sea blanca, y si conocido el resultado debemos decidir si hay més bolas blancas que negras, y si la bola extraida ha sido blanca, diremos que el nimero de bolas blancas es superior al de negras. Este es el planteamiento de base en la estimaci6n de parémetros por mAxima verosimilitud y que introducimos con un ejemplo més preciso. — EJEMPLO 1 La probabilidad de obtener cara con una moneda puede tomar dos valores: 0,7 0 0,4. Para decidir entre ambos procedemos de la siguiente manera. La variable aleatoria en cuestién sigue una distri- bucién B(1; p), siendo p la probabilidad desconocida de cara: 0,7 0 0,4. Parece razonable que la eleccién del valor de la probabilidad en la poblacién (0,7 0 0,4) dependa del nimero de caras que aparezcan en una muestra. Tomamos, para ello, una muestra aleatoria simple de tamafio 3, siendo el resultado dos caras y una cruz. Como los elementos muestrales son independientes, la probabili- dad de aparicién del suceso {dos caras y una cruz} es P(dos caras y una cruz) = P(e 1c 1+) = P(c) P(c) P(+) = ppg = Pg. Para el célculo de la probabilidad hemos de tener en cuenta todas las posibles combinacio- nes, en este caso, tres, (cc+;c+c; +cc).? Por consiguiente, la probabilidad del suceso es P=3p'q. El paso siguiente es la evaluacién de esta probabilidad para cada uno de los dos valores que puede tomar el pardmetro p, segiin provenga la muestra de una distribucién B(1; 0,7) 0 BU; 0,4) Poblacién con p= 0,7: P=3-0,7"-0,3 = 0,441 Poblacién con p=0,4: P= 3-0,47 -0,6 = 0,288 El resultado dice que es més probable 1a aparicién de la muestra constituida por dos caras y una cruz si en la poblaci6n el par4metro p toma el valor 0,7 que si ¢s 0,4, por lo cual atribuimos al pardmetro p el primer valor, y admitimos que la distribucién es B(; 0,7). EI planteamiento operativo del método de estimacién méximo-verosimil es el siguiente: Tenemos una variable aleatoria & con funcién de densidad, f(x; @) 0 de cuantia, P(E = x; 0), siendo @ un parémetro desconocido, cuyo campo de varia- ci6n es ©. Tomamos una muestra aleatoria simple X de tamafio n, (x, ..., %,) 2 Bsto es una formulacién de la Ley del Azar. MARTIN PLIEGO y RUIZ-MAYA: Fundamentos... Capitulo 1. 3 Para llegar al resultado no es necesario toniar en consideracién el nimero de formas en que pueden presen- tarse 2 caras y 1 cruz, aunque didécticamente sea conveniente. METODOS DE ESTIMACION Mf 111 Denominamos a la funcién conjunta de cuantia o densidad de la muestra fun- cién de verosimilitud LX; 8) = f(x3 8) + £(x,3 9), donde f(x,;@) representa la funcién de cuantia del i-¢simo elemento muestral si la poblacién es discreta o la funcién de densidad de este elemento muestral cuando la poblacién sea continua, ™ Para Ia eleccién del estimador 6 del parametro 0, de entre los posibles valores que puede tomar éste, se sigue el criterio de elegir 6 tal que L(X; 6) = max L(X; 0). La funci6n de verosimilitud es multiplicativa y complicada para calcular su maximo tespecto al parémetro @ por lo que, para mayor sencillez, se halla el valor de 6 en su logaritmo (transformacién montona creciente), siendo el estimador méximo-verosimil 6 el que verifica la relacion In LOX; 6) = max In L(K; 0). Hallando el logaritmo de la funci6n, derivamos respecto a 0, la igualamos a ce- ro y llegamos a una ecuacién con una incégnita LX; 0) = f(x; 0) -- f(%,3 ®) In L(K; 6) = In f(xy; 6) -~ In f(xy; 8) = Son fx, 8) 1 In L(X; 6) _ In f(x; &) 30 -2 Er) 0 mH la solucién, 6 = 6(X), tinicamente funci6n de los elementos muestrales*, seré el estima- dor méximo-verosimil del parametro®, siempre que se verifique la condicién de méximo 2 ; [2 22:8) <0. tS on6 4 Se prescinde de las soluciones que conduzcan a que el estimador sea igual a una constante. § Bn general, la solucién de la ecuacién no offece grandes dificultades, de no ser asf habré que recurrir a métodos iterativos de célculo. Remitimos, entre otros, a SILVEY para la exposicién de tal forma de actuar. El ndmero de rafces de la ecuacién no tiene por qué ser uno. Si la rafz es nica el estimador se denomina ‘estimador méximo verosimil en sentido estrieto, y corresponde al maximo absoluto de la funcion de ve- rosimilitud, Cuando hay més de una raz los estimadores reciben el nombre de estimadores miximo vero- similes en sentido ampli.

También podría gustarte