Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CAPITULO 11
NOCIONE S SOBRE ESTIMACIÓN DE PARÁMETROS
Sumario: 1. Estimación d I d. •
confianza ara la m . e a me ,a Y la van~~za. 2. Intervalos de confianza. 3. Intervalo de
dist .b . p edia µ de una poblac1on Normal con desvío u conocido 4 Las
Ch'~I uciones Chi-cu_ad~ado: . t de STUDENT y F de FISHER-SNEDECOR. 4.1. Disirib~ción
4
~ ~:i~r~do. 4 · 2 • Distri~ucion ( de STUDENT. 4.3. Distribución F de FISHER-SNEDECOR.
·d· ci~nes entre las distribuciones. 5. Intervalo de confianza para la mediaµ con desvío
0 esconoc1do. 6. Problemas.
... En el Capítulo I dimos algunas nociones sobre el concepto de estimación estadística y ' en particular '
· · s de la media ·
· y la varianza
. 1as eSt1mac10ne
diJimos que de una variable, a partir de una muestra de n
observaciones, X,, X2, ... , X,,, se calculan con las siguientes expresiones:
1 11
(2-1) J[ = - ~X.I
n i=l
1 n
(2-2) S2 = - ~(X1 - µ) 2 si se conoce la media poblacional µ
n i=l
1 n
(2-3) S2 = -- ~(X, -X} 2 si no se conoceµ y se estima con X'
n-1 i=l
Scanned by CamScanner
Roberto Mariano García: /11fere11cia estadfstícn y dise110 de experímemos
46
un . . o, equivalentemente
valor max1mo . • dar un valor máximo
. y mínimo para el parámetro desconocido . Esto
· ·
se consegu1ra con la técnica de los intervalos
. de confianza
. que veremos luego.
D do que un estimador es una variable aleatoria debe tener, como tal, las características gene
. d. .b . • d. ra es de
.ables aleatorias. Debe tener su propia 1stri ucmn, con su me ia y su varianza Co .d 1
a
to as as va rl
d I . · ns1 eremos
ahora la media de un estimador. . , .
·Qué es Ja media de la variable X? Sena el promedio general o poblacional que se b . .
e1 x-de cada una y luego pr
0 tendna s1
to máramos" muchas -teoricamente
• · · t"mllas-
m · muestras, calcu 1aramos
• ct··
dichos valores. Supongamos que hemos tomado K muestras, cada una con n observaciones y orne . d taramos
. _
g rande -por Jo que tenemos Kn observacmnes en total- y llamamos X. (j = 1 a K) a las med·
, sien o K muy
. de la variable
. 1 ias muestrales
obtenidas, la media X- sera:
•
l K
(2-4) E(X) =- EX1
K j=I
- la media
Rigurosamente, si conociéramos la distribución de la variable
. o esperanza matemat1ca
, . de
r., a través de su func1on
·• d .
e densidad
/{X), X- se calcularía mediante:
Sin embargo,. el cálculo práctico de la esperanza de una variable, que es la obtención de su valor numérico,
nunca se_ re~lrza con la expresió~ (2-5) pues, si bien puede conocerse la función de densidad -que aquí es
ftf{j-_,d1fic1lmente ~e la t~ndra totalmente especificada. Es decir, que se conocerá el tipo O familia
funcional pero falta~a especificarle sus parámetros. La verdadera utilidad de una expresión como (2-5) es
establecer una relación entre la esperanza de la variable y los parámetros; y, precisamente, esa relación se
podrá utilizar luego para estimar dichos parámetros. lo que se conoce como mérodo de los mamemos -que
veremos en la sección siguiente.
Nos preguntamos ahora si esta cantidad -E(X)- está relacionada con la media de la variable X, que
es µ=E(X). Dicho de otro modo, si hay alguna relación entre la esperanza de X: la inedia del estimador,
Y el parámetro estimado µ. Vamos a ver ahora que estas dos cantidades son exactamente iguales, lo que
significa que la media de X- es igual a la media de X, o que la esperanza matemática del estimador coincide
con el parámetro que está estimando. Veremos, también, que esta propiedad de X la tienen muchos
estimadores pero no todos.
Para ello, daremos ahora una propiedad de la esperanza matemática que, en rigor, debiéramos haberla
visto en el Capítulo anterior, y que no lo hicimos porque no la necesitábamos en ese momento. Se trata de la
linealidad, es decir, si X es una variable aleatoria cualquiera se tiene:
r::-
~( ;"
..·
·(2:.7)
,...
...::,':::-.::_\:.:· . , , '
Scanned by CamScanner
Capitulo II. Nociones sobre estimación de parámetros 47
-
(2-9) X = -1l1 (X1 + X2 + ... + X,.)
Y s~ observa entonces que (2-9) es caso particular de (2-7) con a =0 y a =a =...a,.=lln. Por lo tanto,
0 1 2
aplicando (2-8) tenemos:
1 1 1
(2-10) E(X) =- E(X1) +- E(X2) + ... + - E(X)
n n n n
pe_ro X1, X2, ... , Xn son, antes de obtener sus valores numéricos, variables aleatorias que, por provenir de la
misma distribución, tienen todas la misma mediaµ:
1 1 1
(2-11) E(X) =- µ +- µ + ... + - µ =µ
n n n
Que la esperanza matemática del estimador coincida con el parámetro estimado significa lo siguiente:
en sucesivas muestras, el estimador X varía, es decir oscila. Luego veremos que sus variaciones u oscilaciones
serán tanto menores cuanto mayor sea el tamaño n de las muestras. Pero esas variaciones son alrededor de su
esperanza matemática, que es en este caso el parámetroµ .
Se dice que rm estimador es i11sesgado, no viciado, imparcial o desprejuiciado, si s11 esperanza mate-
mática coincide con el parámetro q11e estima.
La insesgadez o ausencia de vicio, es una cualidad deseable para cualquier estimador. Pero hay otras
cualidades que también tienen importancia; en particular, la denominada consistencia, que es más importante
que la insesgadez. La consistencia es la propiedad por la cual el estimador se aproxima cada vez más al
parámetro al aumentar el tamaño de la muestra. Vamos a profundizar un poco en este concepto . ¿Qué significa
realmente que el estimador se aproxin1a cada vez más al parámetro? ¿Significa acaso que el parámetro es el
límite del estimador? Esto implicaría que:
Lím X=µ
Pero esta tupresión es incorrecta, porque significa lo siguiente: dado un entorno del límite de
semiarnplitud e, es decir un intervalo µ±e, habría un valor de 11 , función de e -digamos 110 (1:)- t~ que para
todo n > n , todos los X deberían caer dentro del intervalo µ±e. Diríamos entonces que X converge
0
asintóticamente con µ. Sin embargo, esto no puede ser así. Los sucesos IX -
µ 1 > e pueden presentarse para
todo 11 porque X es una variable_aleatori!!__ y, por lo tanto, no pueden predeterminars~ sus valores. ¿Cómo ~e
roduce entonces la aproximación de X a µ? Se produce de una forma más débil que la convergencia
p •ntótica que se denomina convergencia estocástica. Su significado es el siguiente: los sucesos indeseados
as1\X_ ' e siempre
µ\> pueden producirse, pero a me d'd I a que aumenta 11 , van_~ ~cumr. cad~ vez
con menos
frecuencia O más esporádicamente, lo cual puede expresarse en forma probab1hst1ca como sigue: _
Scanned by CamScanner
•
Roberto Mariano - • /nl"erencia
Garc1a. estadística y dise,io de experi111e111os
48 'J'
cuya varianza está dada por la siguiente expresión -que indicamos sin prueba-:
Pero debemos aclarar lo siguiente: así como la expresión (2-8) para la media de W es válida sin
restricciones, no ocurre lo mismo para (2-13), la cual es únicamente válida si las variables X , X , •• • , x.
1 2
son estadísticamente independientes. Si bien la definición rigurosa de independencia estadística es demasiado
compleja y no corresponde tratarla aquí, digamos en sentido menos estricto que su significado es que cada
variable no da información sobre las otras. Adviértase también que la constante a0 no aparece en (2-13).
(¿Por qué?)
Apliquemos (2-13) a (2-9), teniendo en cuenta que los coeficientes a; valen todos 1/n. Tendremos así
la varianza de X'
Nuevamente, las variables X 1, X2 , ••• , X,, provienen todas de la misma distribución y tienen la misma
varianza, que llamamos o 2 ; por lo tanto:
1 1 1 o2
D2(.\j = - 2 az + -,,2 az + ... + - 2 az = -n
11 11
az
(2-14) D 2(.\j =-
n
. . ·. J n . . . 2
,(2-2) · S2 = - .lJ(X¡ ~ µ) ranza
n_i =l . . . d Hemos visto que la espe
.. matemática de este estima or.
·· · al ul la esperanza
· Trátemos ahora de e e ar - anzas Entonces, ·
de una suma es igu~ a la suma de la espe_r .
. .
-~ ;º:i· .
Scanned by CamScanner
Cap(tulo II. Nociones sobre estimació11 de parámetros 49
Pero también hemos visto que, por definición es o 2 =E[(X; - µ) 1 ] , por lo que la última suma de (2-15)
está formada por 11 términos iguales a o 2 • Entonces,
E(S2 ) = -111 na 2 = o2
(2-16) E(S 2) = 02
con lo cual queda probado que el estimador S2, dado por (2-2), es insesgado.
Veamos ahora el caso un poco más complejo, pero más frecuente en la práctica, en que µ es
desconocido. El estimador a utilizar en ese caso es:
1 /1
(2-3) S2 =- I!(X1- x,2
n-1 i=l
y por lo tanto :
pero:
I!(X1 - µ)(X" - µ) = (X" - µ)I!(X1 - µ) = (X" - µ)(I!X1 - nµ) = (X" - µ)(nX" - nµ)
= n(X" _· µ)2
luego:
Entonces,
Scanned by CamScanner
1
.~ .
50 Roberto Mariano García: J11_¡ere11cia estadística y dise/Ío de experimelllos
2. Intervalos de confianza
:
,.· - (2-20) P(A < 8 < B) == 1. :... « . , ·... _.- _ : . · · ·· -i·ctad
:·. . · babi¡
~·:'_· ·- . . , ás deno mina « una pro trº·
L:__ st~ndo «) una prob abili dad eleva da, del 8~% o ~ob~ bilid ad da nivel de confianza y
0- a al parárlle
de que el intervalo no conteng
i j;;. pequeña, deno mina da nivel de riesgo, que sena
i·,,'..--, - l:l la ~ .
flt/ n . d d
ge~r al,_el. nivel de conf ianza es a O por el mism o usuar io.
ff'f,P•·-· . -•, : · ·
~ ~r-:,;_;· · · ..
~ '.(~:~;~~:i:~: -_ . . '- .. .
.
. .'
. . -
Scanned by CamScanner
Capítulo II. Nociones sobre estimación de parámerros 51
3. Intervalo de confianza para la media µ. de una población Normal con desvío a conocido
Dado que un intervalo de confianza implica una declaración probabilística, para su cálculo deberemos,
necesariamente, tratar con las distribuciones de las variables aleatorias que surgen del muestreo. En este caso,
analizaremos la distribución de la variable J[, que es el estadístico natural para esta situación. Según vimos
en la sección anterior, la variable J[ tiene una media igual a la media de la variable original -la variable
"madre" de la población-, es decir:
(2-21) E(.\j = µ.
y un desvío igual al desvío de la variable original dividido por la raíz cuadrada del tamaño de la muestra:
o
(2-22) D(.\j = ✓,,-
¿Qué podemos decir sobre la distribución de X"! Si la variable original es Normal, entonces X-también
es Normal, y ésta es una propiedad de la distribución Normal: cualquier suma o combinación lineal de
variables Normales independientes tiene distribución Normal, y J[ es una combinación lineal de variables
independientes:
Scanned by CamScanner
.
l
52 ,I'.
Roberto Mariano García: l 1!Jerenc ·a estadística y dise1io de experi mellto s
,
y, recordando que llamamos Zw al fraet1.1 w de la variable z, es decir al valor de Z tal que la probabilidad d
no superarlo es {a), es decir: e
P(Z < ZJ =w
podemos poner (Fig. 2.1):
(X- µ)vn ]
(2-25) P [ Za12 < a < Z1.a12 = 1- a
que es, justam ente, el interv alo de confi anza que buscá
bamo s. Dado que, por la simetría de la variable
Norm al, es Za12 = -Z1.a12, pode mos pone r tamb ién:
. ) A (x-- z o
.c2-2s 1.a12 rn < µ < x- + z,.a12 rn
o ) = 1- «
Scanned by CamScanner
Capitulo II. Nociones sobre esti111ació11 de parámetros 53
o
(2-29) E = z1. a12 rn
disminuye, como era de esperarse, al aumentar el tamaño de la muestra. Denominaremos a E, error máximo
probable del muestreo.
Un problema que se presenta con frecuencia es la determinación del tamaño de muestra necesario para
obtener un error estipulado, con un nivel de confianza dado. De (2-29) obtenemos:
valor que se recomienda redondear al entero superior. Nótese que, cuanto más pequeño se desee el error E,
mayor debe ser el tamaño de la muestra a tomar.
Ejemplo l. Una máquina llenadora de botellas de gaseosa dosifica volúmenes variables con
distribución Normal, con un desvío estándar del que se sabe que es muy estable y vale 14 cm3•
Sin embargo, el volumen medio, que debiera valer 990 cm3 , al salirse de punto la máquina,
presenta variaciones; razón por la cual debe controlárselo periódicamente y ajustarlo, de ser
necesario. A estos efectos, se toman muestras periódicas de 5 envases y se mide su contenido
neto, calculando luego su media aritmética X" y un intervalo de confianza del 90%. Si dicho
intervalo no contiene al valor especificado (990 cm3), se efectúa una revisión cuidadosa de la
máquina. Una de estas muestras arrojó una media de 983 cm3 • a) Calcule el intervalo confianza
e indique la decisión a tomar. b) ¿Qué tamaño de muestra habría que tomar para poder dar un
intervalo cuyo error máximo probable de muestreo sea 5 cm3?
Solución:
a) El intervalo de confianza se calcula con la expresión (2-28):
o 14
X"± Z1.a12 ✓rz= 983 ± Zi.9s v'3 = 983 ± 10,3 (Zl.95 =1,6449)
y, al estar el valor 990 cm3 especificado comprendido en el intervalo de confianza, concluirnos que no es
necesario ajustar la máquina.
; ..
Scanned by CamScanner
54 Roberto Mariano García: Inferen
cia estadística y dise1io de exp
erimentos
,
4 . Las distribuciones Chi-cuadrado, t de ST UD EN T Y F de
FIS HE R-S NE DE CO R
4.1. Distribución Chi-cuadrado
o como:
1 n _
(2-3) S2 = -- :E(X; -X ) 2 si no se con oce µ,
y se est ima con X.
n-1 i=l
(2-32) E(X2) =u
.
Est e val or u es el único par ám . . .
· má s adelante, "N úm ero de
etro de est a d1s tnbuc1ón Y se denomm
.
a,
por razones que se explicar~
gra dos de libe rtad ".
· .· . · La función de den sid ad de pro
bab ilid ad de la Chi-cuadrado es:
1. . .
. (2~3· 3) 11-vl) = . 1
•·· . J\A . 2 r(u /2) (x,l/2)uf2,- .Ex p(- "f._2
.·
/2)
Scanned by CamScanner
Capítulo II. Nociones sobre estimación de parámetros 55
).
(2-34) j{x) =- ().xy-1 e-l,
I'(r)
00
Parar entero, esta función coincide con el factorial de (r-1) y, para valores no enteros del argumento
r, la función se encuentra tabulada o se puede calcular con adecuados programas de computadora. Para valores
semienteros del argumento, se conocen sus valores exactos 1• Se tiene así:
(u -1)! In
(2-37) I'(u/2) =- - - .-- si u es impar
(\-1 )i2- 1
La forma de la función (2-33) depende del valor de u, siendo más simétrica cuando más grande es u,
aproximándose a la Normal, pues es una suma de variables independientes, por el Teorema Central del Límite
(Capítulo I, Sección 8.1). Esto puede observarse en la Fig. 2.2.
Como veremos en un Capítulo posterior, estas tablas serán de utilidad para calcular intervalos de
confianza para la varianza de una población Normal. La planilla EXCEL suministra el valor de la función de
distribución acumulada derecha P(X2 ~ y) con la función =DISTR.CHI(y; u) y el fractil X2u,w con la función
=PRUEBA.CHI.INV(l-w, u). De modo que el argumento de entrada es la probabilidad acunmlada derecha.
La distribución Chi-cuadrado tiene la siguiente propiedad de aditividad, que se desprende
inmediatamente de su definición:
Dadas k variables co11 distribucioms Chi-cuadrado, independientes entre sí, x/, 'X}, ... , xk1
co11 grados de liberlad u" Vi, •• •, q, la suma:
Scanned by CamScanner
56 Roberto Mariano García: /11fere11cia estadística y diseíío de experim
elltos
""'
4.2. Distribución t de STUDE NT
(2-39) t
z
= -;:::::::;=;:::::- (Z y y,_ 2 son indepe ndient es)
✓x2 / u
r[(u+ 1)/2] 1
(2-40) fl.t) =---- -----
htur( u/2) (1 + tl/u)<o+l)/2
(2-41) D (t)2 = u
\)- 2
4 •3 • Distribución F de FISIJER-SNEDECOir
(2-43)
Fig. 2_4
En la Fig. 2.4 podemos ver la gráfica de la función.
La media y la varianza están dadas por:
U2
(2-45) µ= - -
U2 -2 Dlstrlbuclon F do FISliIR-SNIDECIIR
Hay tablas que suministran los fractiles de la distribución, es decir, valores F ui.ui.w tales que:
P(F ~ F ul,u2,w ) = ú)
y también la podemos obtener mediante la planilla EXCEL mediante la función =DISTR.F(F,u 1,u2) que da la
probabilidad acumulada derecha y la función = DISTR.F.INV(l-w, u 1,u2) da el fractil Fv1.ui.w·
Como veremos en capítulos posteriores, esta distribución desempeña un papel fundamental en · la
estadística experimental, pues las pruebas del Análisis de la Varianza se realizan con ella. La utilizaremos
también, en el Capítulo XVI, para el cálculo de intervalos de confianza para la relación de varianzas de dos
poblaciones Normales independientes.
Scanned by CamScanner
·
Roberto Manano García·· J11rere11cia
u• estadística y diseiio de experimentos
58
(2-48)
-Apro{imacióll de FISHER
(u 1 par~ 2)
U2
;p=---
U1F+u2
3
2a~ 2a; 42;
--+-----
U2 U1 U 1U 2
(2-53)
... 2 22;
'.-
a2 - -
u2
-
(w<0,99)
Scanned by CamScanner
Capítulo II. Nociones sobre esti111ació11 de parámetros 59
Como vimos en la Sección 3, el intervalo de confianza paraµ con a conocido se basó en el hecho de
que la variable:
(2-23) z= (X - µ) i/n
a
tiene distribución Normal estandarizada. Cuando a no se conoce, debemos estimarlo con S y reemplazamos
este valor en (2-23), para obtener:
(X - µ)i/n
(2-56) t = - -- - -
s
que, como veremos enseguida, tiene distribución t de STUDENT con u=11- l grados de libertad. De este modo,
los límites de confianza para µ se calculan mediante:
(2-57) X
- ± l v·l -a/2 c-
s
• Vil
s
E = lv·. l-a/2 Vc-
il
de la cual se puede obtener el tamaño de muestra necesario para tener una semiamplitud dada:
(2 _58) n = ( lu:1-; S )2
1) ún problema esencial es que el valor de S qu~ aparece en la_ fórmula es el desvío estándar de la
muestra que todavía no se ha tomado -precisamente se esta tratando de calcular su tamaño n-.
2) El fractil tu,i -a12 de la/ de STUDEN: depende de 11 pues u=:'11-_I, ~ero és_tc es un inconveniente de tipo
. matemático, pues se trata simplemente de que la mcogmta esta en los dos miembros de la
· écuación - aunque esta ecuación pueda ser matemáticamente complicada.
Scanned by CamScanner
Roberto Mariano García: l11fere11cia esradfstica y diselio
l
60 de experimemos
- S l,7935
X± lu;l-a/2 vn = 17,35 ± 3,1824 x /4 = 17,35 ± 2,85
(2-58) n= ( _. __
lu·l-a/2 S )2
E
◄
Scanned by CamScanner
Capítulo II. Nociones sobre estimación de parámetros 61
(2-56) t = (X - µ) ✓,i"
s
tiene distribución
, de STUDENT. En la secc1on
· , antenor
· d JJJmos
"· que e1estad'1stJco
· S 2 tiene
· · · · , Gamma
d1stnbuc1on
2
con parametros r=u/2 Y A=u/20 ; además, si una variable Y tiene distribución Gamma la variable 2}..Y tiene
distribución Chi-cuadrado con u=2r. Por lo tanto, en nuestro caso, la variable: '
tiene distribución Chi-cuadrado con u grados de libertad. Además, como X- tiene distribución Normal, la
variable:
(2-23) z= (X - µ) ✓,i"
o
tiene distribución Normal estandarizada. Si recordamos la definición de variable t de STUDENT, dada por (2-39):
z
(2-39) t = (Z y x 2 son independientes)
✓x 2 7u
(X - µ) ✓,i"
o (X - µ)./n
(2-61) t = ----= s
s
o
Para completar la demostración, deberíamos probar que los estadísticos X y S son estadísticamente
independientes. Se puede demostrar -no lo haremos acá- que efectivamente es así, si la distribución de la
variable original (X) es Normal. Es decir, que el intervalo de confianza paraµ con o desconocido mediante
la 1 de STUDENT, es exactamente válido bajo dicha suposición de Normalidad de la población madre. Sin
embargo, se han realizado investigaciones que prueban que, si el tamaño de muestra es razonablemente
grande, la t de STUDENT es de todos modos válida, au~que no se cumpla dicho supuesto.
Resumiendo entonces, podemos afirmar que, s1 X es Normal:
(X - µ)./n
(i-23) Z = o
(X - µ)./n"
(2-56) l = S
Scanned by CamScanner
62 Roberto Man•ano Garc1,a: ln.1er
,r, . estadística y dise1io de experimentos
encia
6. Problemas
. ..
u ~,;:¿~~~:~,.,;,;_~;;:.~_,: --.---
Scanned by CamScanner