Documentos de Académico
Documentos de Profesional
Documentos de Cultura
435 295 109 4 PDF
435 295 109 4 PDF
RESUMEN
l. INTR^ODUCCION
Este trabajo tiene como objetivo el contemplar los métodos de ajuste desde el punto
de vista de la optimización matemática, y en particular desde la óptica de los métodos
de "búsqueda de extremos" rnediante los adecuados algoritmos de cálculo numérico.
El trabajo está dividido en cuatro partes, la primera, epígrafe 2, centra con toda
generalidad el problema del ajuste.
La cuarta parte, epígrafe 7, se dedica a dar una reinterpretación deI criterio de ajuste
mínimo-cuadrático que permite una generalización mediante el criterio de ajuste de la
"mínima media potenciai de orden a", obteniendo como caso limite el criterio de ajuste
"mini-max" que consiste en minimizar el máximo de los valores absolutos de los
errores, se analizan otras posibilidades de criterios de ajuste y en particular el basado en
el "mínimo-rango" de los errores.
(*} Para una exposición clara del problema de la linealidad, puede verse Barbancho, Alfonso, G.
Fundamentos y Posibilidades de la Econometría. ep. 5.2.
l_OS ( R11'E:RIOS DF. AJl.1STE Y LA OPTIMIIAC'I(^N MATEM.ÁTIC'.A 4S
E1 problema de ajuste, puede plantearse, con toda generalidad en los términos si-
guientes:
a) Se conocen "n" valores de la variable Y, relacionada con los valores que toman r
^
variables X,.... X„ que simbolizaremos como una variable r-dimensional X, con la que
la información conjunta sobre estas r+l variables vendrá dada por los pares ordenados,
á - (a^, a2....u.s)
Y^ _ ^ (X ; ^)
...
e;=Y;-y^-y; - ^(X; ; a
Si simbolizamos por é^° {e^, e,... e„} el vector n-dimensional de los errores, los
criterios de ajuste tratan de sustituir este vector por un número real positivo,
,u : R" ^. R+
--.• -^.
e ---^ ,u (e) > 0
ESTAC)ÍSTiC A ESPAÑnLA
tendremos,
,^ ( ^ _ ,^ ^v ^(x ; ^ ] _ ^^ t^
con lo que el criterio de ajuste, nos proporciona una función real o de vaciable
s-dimensional, euyas variables independientes son los parámetros de la familia a
ajustar.
^
i.Jna vez definida la función e(a), el problema de ajuste se ha reducido al de obtener
el vector aó para el que la función e alcanza un mínimo absoluto.
n n n ^ -±^
,^ ei= ^ CYi-Yi^= ^ [Y,-!^(xi;a1^=0
i-! i=1 i-1
y surge la condición,
^i Yi = ,^,r g l^i ; uJ
^=1 i^i
...^, n n
Una vez definida la función a(á^, el ajuste rnínimo cuadrático quedará concluido,
^
cuando obtengarnos el vector á que minimice a la función e(a).
La condición necesaria de mínimo vendrá dada por la anulación del vector gradiente,
v t ^ _^
^
L,as derivadas parciales de e(a) serán,
Con lo que la condición necesaria de mínimo vendrá dada por el sistema de ecuacio-
nes
--
" a^(X;;a n --.-^. a^(X^;a
^ Y^• _ ^ ^(x;;a). con j^i 1,2...s} (1)
;-1 a a; ;_^ a a;
Veamos ahora algunos casos particulares para los que este sisterna de ecuaciones,
toma una forma muy simplificada;
siendo k un número real determinado, entonces tenernos que las derivadas parciales de
-. ....
g(x ; a) vendrán dadas por,
a^{X`'a) =h^()
^ Para jE{ 1, 2...s}
a a;
ES^TAD^S'TI('A ESPAPVOL_A
luego
n ^,^. s n
^ (Y^ - k} • h; (X;) _ ^ ak • ^ hk ( ) • h; ( ) con j E { 1,2.,.s } (^)
e=1 k=1 ^=1
r n
yr = 1'2 . a 1♦ ^ ak .,r -xk, r
i=1
n n r n
^ y,..X^;=a1. ^
Xil+ ^ ak •^ xk^x^; con j={ 1,2...r}
i= 1 r= k= 1 i^. /
SON UNIDIMENSIONALES.
Y^-^(-x:a
(3)
que es la condición necesaria que debe satisfacer el parámetro a, para que la función
_.^, n n
^(e)- ^ e;- ^ L^;-8(x; ^a)]`-e(a)
;_ r ^- ^
y*=k+a. h(x)
siendo k un valor real dado, y la correspondiente ecuación normal (3) según lo obtenido
en el sistema (2), será
n rt ^
^ ^v, - k) . h (.x;) - a . ^ h (x;)`
i=1 i=!
con lo que el valor del parámetro "a" que cumple la condición necesaria de mínimo
para la función o(a) es
^ (y;-^).h(x;)
i=1
a=
n ^
^ h (x; )`
^-^
La familia de funciones corresponde en este caso al conjunto de rectas que pasan por
el origen,
y * -. a . x
So EST A DÍST ICA E SPA Ñ0L_A
n
^ 3'; • x,
i=1 (^)
a=
g(X:A)=AX
.
^(XIsA^=x^.Ax ^`f
dA ^
" x; _ " A2 . x;
^ y;.x;. A - ^ x;. (5)
i=1 i=J
xi)Z
0 {A^ _ ,,,,^, Ú^i - 1^1^
i:!
LC)S CRITERIUS DE AJUSTE Y' LA UPTIMIZAC'I(^^ti MATEMÁ^TIC'A 51
Hemos visto en el epígrafe 3. que la condición necesaria de mínimo, viene dada por
a e (a) n ag^x''a) =0
_ -2 . ^ Lv^ - g (X ; )^ con E{1,2...s}
a a; ^_^ a a;
-. -^. a^ g (x ;')
+ [y.r _ g (x.r^• a) J • =
a a; a a; ^
"
-2 ^ ag(x;; ) .ag(-^ ; ) _
'=f aa^ aa;,
-^• -^.
- Cv, - g(,, )]. a^g(x^ ' a)
X'• á .
aa;aa;.
derivadas que pueden agruparse en la matriz hessiana de la función war (a), escribiendo
la condición suficiente de mínimo será que la matriz H,o (á^ sea definida positiva en á
-^
a^, siendo á el vector que satisface las condiciones necesarias dadas por el sistema (1).
Si g^z;á) es lineal respecto a los parámetros, las derivadas podrán escribirse como,
a2 e (á)
, -2. h; (x j . h; . (x )
aa;aa;. .
F:tiT.4f^ÍSTI('A ESf :41+Ol ,4
_ _ __.
^^ n
n ^ . . . ^ ^.^ ,t.
^ ,_/
--^-----------
^-^
He(a)--2.
que es definida positiva con la condición de que n> s y los vectores [h; (z,)....h; (zñ) ]
con j€{ 1,2,...s } sean linealmente independientes, para que de esta forma el rango de
-^..
la matriz He (a) sea "s".
Si se curnple esta condición, la función a)
e( es convexa en R` al ser defnida
positiva.
Su matriz hessiana H,^ (á , es independiente del valor de á^ R', con lo que el vector
ú que satisfaga la condición necesaria de mínimo dada por (2), en este caso lineal, es
aqu^l en el que podemos asegurar que se alcanza ei mínimo absoluto de la función
e (a).
d`' g (x,;a)
> 0
d a^
LOS ('RITERIOS [)E: .^lJl'STE l^" L.A C)PTIMI/At^1Cl`` M-1TF ti11TIC'A 53
d-' e (a} ^
= 2. ^ h (_^r,)`' > 0
d a^ ^_^
g(x; a)=a.x
tendremos que,
d^ e(a )- 2. n .^' 0 ^ r ^
{.^ Q , ^ ^ ^ ^
K (-^ : A ) - A ^.
^^(-^^A)
_ _Y . A ^-^
dA
c^`' x (.Y ; A) ^
=.t . (_^ - 1) . A `--
cl 1^'
entonces,
IT
^
.Y, . (2..Y,--1). A`''' ' -- i^;. l ^ . (.Y,--1). A^'' `' -
^= I
54 E^TAD^STIC .A FaN,Atii1[.A
^ _ __.
d`'e(A) 2 n `,
- ^ x, (2 .x,--1) A' . _ v; (x-1). A `r > 0 (6)
d A` A` ^^^
.
que será la candición suficiente para que en A„ que satisface la condición necesaria de
mínimo ( 5) realmente exista un mínimo para la función a(A).
y * -- ,^ (i^ á i
llamando ti^'* =1n y* y siendo x el vector de variables independientes original _x; o aquel
en qu^e se ha sustituido alguna de ellas X;, por su transformada logarítmica ln X; y á' el
vector de parámetros originales áo el resultante de sustituir alguna a; por In a;.
,
y'* - G(x'; á') = k+ ^ a'; . h;(^
i= /
, ..,^r.
y'^= ^í ♦ ^ af'• h; (_X7
j- I
n c n
^ (y;'-k) . h (z;' ) _ ^ a^ . ^ h^ (.x ). h; ( x) con jE { 1,2....s } (7)
l^! k=1 i=!
In y^ _ (!n A) , x
que es una función lineal en las variables y'* _!n y* y x. Si aplicamos la expresión
dada en (4), tenemos
n
^ L';'. X; 1 n y;
In A = '^^
n
ESl ^DÍSTI(',^^ ESP4ti()LA
n ^
n 1 /^ x^
/n X;
A=
P
e
r= 1 r
^^
Y^ k^/
= 0f (A)
pero en general, vamos a probar que dicho valor A^, no satisface la condición necesaria
de mínimo para la función original
Esto nos dice que el valor A^„ obtenido de forma que minimiza la función ,af (A), no
minirniza como se pretende, la funeión objetivo original e ^(A) por lo que la función y* _
A;, no minimiza la suma de los cuadrados de los errores
TABLA I
Número de observaciones: 10
VALORES DE X VALORES DE Y-
1.00 0. 89
2.00 0.80
3.00 0.? 1
4.00 0.64
5.00 0.57
6.00 0. 51
7.00 0.45
8.00 0.41
9.00 0.35
10.00 0.32
55.00 5.65
(*) Recuérdese que en un régimen de interés compuesto, el factor de actualización v" _( l+i)-'^ dá
la relación entre el valor actual y el final, o sea
n
C„=C,,.v
y si C„ = 1, tenemos
n
C^-V
siendo c^, el valor actual de una unidad monetaria disponible dentro de n años.
^^i F.srAt)^srrc a E.sN.^atic^^.a
_ _.. _ _ _
^^* = 9 `
^ '^ 1
f=%
TABLA Il
X2 YLCiG XYLOG
TABLA III
^
e, (A^j) = e (0.892486999) = 0.000228039
por tratarse de una fun ^ ión de ajuste que no posee un parámetro que actúe como
término independiente.
^0 NsrAr^ísr^c _t^ E-:^^^^
_ ^vca^.A
Una vez obtenido el valor A,,, que tradicionalmente se ha considerado como el punto
donde la funció^ n ca(A) alcanza su valor mínimo, en la tabla siguiente rnostramos los
cálculos necesarios para probar gue dicho punto no satisface la condición necesaria de
extremo, esto es, que en dicho punto no se anula la derivada de la función ,0^ (A), ya que
como hemos visto en (5 ) esta condicíón necesaria implica la igualdad,
n n ^
^ t^, . .x, A `^ = ^ x, . A `
r=l ^^l
TABLA 1V
1 0.794313429 0.796533043
2 1.274452870 1.268929779
3 1.514207171 1.51 b 116748
4 1.6242 301 17 1.610182783
5 1.ó13817245 1.ó03204741
6 1.546439083 1.532406bb2
7 1.42U77021 1 1.42404796ó
8 1.320349882 1.29ó344298
9 1.1 3 1 690420 1.1 b 1 b53702
10 1.026051034 1.02 $10617 7
13.2663214+62 13.237525899
Podemos concluir afirmando que, como hemos visto en este ejemplo, en general las
transformaciones logarítmicas de la función de ajuste, no conservan, al efectuar la
transformación inversa, el mínimo que deseamos obtener para la función ,a(A) de los
cuadrados de los errores, ya que el valor obtenido minimiza la función 0, (A) que no se
transforrna en ra(A) al aplicarle la transformación inversa de la utilizada para definir a
e, (A). El valor A^, obtenido como mínimo de e, (A) no cumple la condición necesaria
de extremo en la función ra(A}.
F_OS (:^RITF:RIOS F^E_ .1Jl;STE: l^' l_A OPTIl41Fl.^(^It^)\ ti1.^^TF ti1 ^^ T Ft •1
Según nuestra opinión esto cuestiona de una forma clara la aplicación que corriente-
mente viene efectuándose de las denominadas "linealizaciones de la función de ajuste"
por aplicación de transformaciones logarítmicas.
Por todo ello, no queda más remedio que abordar directamente el problema de
minimización de la función de los cuadrados de los errores, respecto a las variables
originales s (a^ ).
S.l. UN ALGC)RITMO NUMÉRICO DE BI^SQUEDA DEL MÍNIMO DE UNA FUNCI(^N DE UNA VARIABLE,
yue existirán tantos métodos como criterios existan para elegir en el intervalo [a,hJ el
punto o puntos en las que debe evaluarse la función en cada una de las etapas de las
que consta el proceso iterativo.
Por todo ello, será preeiso encontrar un criterio de elección que maxirnice la rapidez
en la búsqueda del rninimo, esto es, un método iterativo de elección, que obtenga el
mínimo buscado en un númera mínimo de etapas y con ello de evaluaciones de la
función.
F„=F,= 1
resuelve el problema, ya que comparándolo con cualquier otro método, es el que logra
una reducción mayor del intervalo de incertidurnbre entre dos etapas sucesivas.
Todo método de búsqueda debe cumplir que después de una cierta etapa, el intervalo
de incertidumbre sea menor que el correspondiente a la etapa anterior, y por ello un
método será tanto mejor cuanto más alta sea, por etapa, la tasa de reducción en la
amplitud del intervalo de incertidumbre.
En primer lugar, consideraremos la amplitud del intervalo de incertidumbre inicial,
en unidades de intervalo de incertidumbre final, esto es
N-^-a-
E1 rnétodo iterativo, consistirá en que situado en una cierta etapa r, cuyo intervalo de
incertidumbre [ar,h,.] en unidades E, tendrá amplitud 1 r, deberemos disponer en dos
puntos c•,. < dr de dicho intervalo de los valores de la función y^ ' e ^-^^' de forma que
^ > ti^'^^^ `, el nuevo intervalo de incertidumbre será,
. ^^ < i^'^^ ' a y'^'
según sea ^•'^'
y en el segundo
entonces la {r+l ) etapa se podrá completar eligiendo un nuevo e, que junto con cFr ó dr
puedan reducir el intervalo de incertidumbre de forma idéntica a lo hecho en la etapa
anterior.
I.Oti ( fll I f f+ilt)ti I)f ^.ll ^T t 1 l^^ t)P1 Iti11/ ^( IOti ^1 1 I f^1 1 F It ^ hz
Todos estos métodos generales, consisten en generar una sucesión {^ ^}, con ^^ del
r^ >, que sea convergente al punto ^* extremo que desearnos localizar, la
dominio de er (^
sucesión se genera de forma que sus términos cumplan la siguiente relación de recurren-
cia,
^ ^+^ = ^ ^ + a^•Ií^ ^
La dirección, dada por el vector ^^, se determina por alguno de los métodos
mencionados, la mayoría de los cuales se basan en el gradiente de la función, una vez
(*) Ver por ejernplo PUN, Lucas; Introduction a la Practique de 1'optimisation, cap. 3.
(**) Numerical Algorithms Library Mark I I.
(***) Ver GILL, P. E. and MI^RRAY, W. "Qu^r.^^i-Nc^ ^vtun n^c^th^^c^.^ . J^r r^ ^tc^c^r^.ti^trurrrc^cl ^^h^in^izutic ^ ^^ ".
fi-3 t-St^tt)I^^TIt: •^ t.tiPAti()l_•^
Si la función a ajustar es
^'*=g(.^ ; a^)
. -^-
(l^ , .t ;, ) ^ifi{ I . 2...n ^
Con estos datos que determinan la funcián a minimizar ^i(a^) y aplicando las técnicas
de búsqueda de áptimos, obtendremos e1 valor ^{, que en un recinto dado de variación,
minimiza la función ^i(c^ ), y por tanto tendremos resuelto el ajuste mínimo cuadrático
de una curva de la familia k{^ ;^), pues podremos asegurar que la función g(^ ; a^^,)
satisface los requisitos planteados en la def nición del criterio de ajuste basado en
minimizar la suma de los cuadrados de los errores.
(*) Ver GiLL, P. E. and MURRAY, W. "AlKorithms _Jur the sotutiun uf the non-linear has!-squares
^arcrhlPm ".
E.Oti ([tl I E RtOti DE: ,>Jl.'ST^E^: ti` l_^^^ OPTI!^111^^(^I(^ti 11 ^ i E tit 1 i I( ^^
0 <A<1
E = 1 o-y
hh F ^^ T ^ I)E^, ^ 1( > E ^F' Z `^( )1 ^^
TABLA V
^í ú mc^ro dt ohser^^aciones : 10
l . C1C1 0.89
? .oo 0.80
3 .04 0.71
4.00 O.b4
5 .00 0.57
6.04 0.51
7 .0(J 0.45
8 .04 0.41
9 .00 0.35
10.00 0.32
.
FLINCION A AJUSTAR POR MINIMOS CUADRADOS
YY = A ** X (I)
TA,BLA VI
43 0.701408733 1.1730075559735809
42 0.433494437 2.4961788292959859
42 0.866988874 0.0522862755754780
41 0.969323029 0.9049469946739876
39 0.803742888 0.4271901123791U84
39 0.906077043 0.0177345797721818
38 0.9302 34860 0.1645905044038298
36 0.891 146691 0.0004767706376991
35 0.881919226 0.0104186391860633
35 0.896849578 0.0017299603382739
33 0.8876221 13 0.0026316351259300
33 0.893325000 0.0002382837534025
32 0.894671269 0.0005278985493081
30 0.892492960 0.0002276576216367
29 0.891978731 0.000284293834?850
29 0.892810771 0.0002167160038993
28 0.893007189 0.0002192055035013
26 0.8926893 78 0.000218715749?882
26 0.892885796 0.0002168305ó18342
24 0.892 764403 U.0002171612857425
24 0.892839428 0.000216637871á795
23 0.892857139 0.0002166649012309
21 0.892828482 0,0002166499386657
21 0.892846193 0.0002 1 664 1 403a8 70
19 0.892835247 0.0002166398868393
19 0.892842012 0.0002166382295738
17 0.892837831 0.0002166382629170
17 0.892840415 0.0002166378638058
16 0.892841025 0.0002166379482927
14 0.892840038 0.0002166378457201
13 0.892839805 0.0002166378475788
13 0.892840182 0.0002166378495507
11 0.892839949 0.0002166378452546
10 0.892839894 0.0002166378456933
10 0.892839983 o.oao2166378452609
f^K t. ti r 1OItiTI('^1 t SF'^1!^(^L. A
TABLA VI
8 0.892$39928 0.()04216b37845356b
8 U.8928399b2 0.000216b378452319
7 0.892839970 0.00021bó378452334
5 0.892839957 0.4002166378452370
5 0.8928399b5 0.0(}02 1 663784523 1 l
4 0.892839967 O.OQ02166378452315
2 0.892839964 0.000216b378452312
2 0.892839966 0.0^021b6378452312
AC, =0.8928399b5
AÚ =0.892486999
ca {A^,) ^.).00021663?8
siendo allí
a (A^,) ^J.OU0228039
La tabla VII rnuestra los valores ajustados (YY) para el valor A,^ del parámetro, y los
errores junto con sus cuadrados.
Lt)S CRfTERIOS DE AJi^STF: Y l.A t)PTIMI/.At'I(^1ti L1'^ i E:MÁT i('-^ 6y
TABLA VII
que representa una mejora aproximada del 5% respecto a los errores cornetidos por la
función ajustada mediante transformación logarítmica
e ( A ; ) - el ( A ^, ) ^ 0.00001140 I 2 ^ ,
_ - 0 05.
e( A * ) 0.000228039
TABLA VIII
.
I Y * DF[JNAJ FU NAJ * DFU NAJ
1 0.890000000 0.892839965
2 1.428543854 1.423478243
3 1.b97957211 1.70211 b4Q$
4 1.822052002 1.809152934
5 1.81 1086807 1,802737b 13
6 1.73b 158819 1.724491290
7 l .595703ó50 1.60381 ?976
8 1.483505526 1.461 14$262
9 1.272036123 1.3103701 b4
10 1.153752136 1.1 ó0643270
14.890796127 14.890796126
danda prácticamente iguales ambos miembros de la ecuacián que caracteriza a A^, como
posible extremo en contraste con lo que ocurria en la tabla IV para Al , en el que la
diferencia en valor absoluta era del orden de 3 centésimas.
TABLA IX
I 2( DF ** 2-(Y-F). D2 F)
1 2.000000000
2 6.365957632
3 1 1.457073 1 1 7
4 16.123636400
5 20.11 b235774
6 23.046925510
7 25.257405b26
8 25.8 3 3 7 1 0400
9 27.104524757
10 26.137834U08
183.443303223
LOS C'Rt"TERIUS DE AJUSTE Y' LA OPTtMilA(7(^!^ MATEMÁ"TI( A
para una cierta familia de funciones a ajustar dependientes del vector de parámetros a^,
k' (-^ ; ^ )
e^*(^)_[ 1 . e(a^)]^
n.
tendremos que
ESTADÍSTIt`A ESPAtiOL.A
1
o ,a* a(^ ) = 1 . [ I . e Ca7' ) j^ } - 1 , o s (^ ) = ---- . e (á ) - } . o s ( á )
2 n n 2 ^
--^, --i
luego ^ e* (^` ^,) = o implica que © e (a^C ^,) = 0 siendo e^ (ú ^,) ^ 0
y para ver que el punto conserva su carácter obtengamos la matriz hessiana, para ello
dada,
a ^,*(á ) 1 a^t^)
^(á )-^
r
2 *( ^ )
^ ^ a _ 1 1 --^. - .^)^a . a ^ (Q ). a ( á ) +
^. (----) . r^(a
aa; aa^ - z,1 M z aa; aa ;
1
H q^ ^` ( ^á ) _ ----- . e (a' )^} H ^ ( a^` )- . o í^ ( í^ ) • ^7 d^ ( ) ^
2 ^ 2.^ (^)
1
H^* (á ) _ ^} . H ^ (^)
2
l_OS (`RITERI(7S DE AJl!STE ti" i.A OPTIMIIAt lOti M.ATI`:M,ÁTit`,A
con lo que se diferencian arnbos por un factor positivo, lo que no altera su carácter, esto
es si H^ (á ^,) era definida positiva lo será H^* (u^` ^,) y recíprocamente, luego un
mínimo de ^(a^ ) se corresponde con uno de ^* (a^ ) en el mismo punto ^^,.
Una vez hemos visto la equivalencia de planteamientos desde el punto de vista del
valor mínimo de ^i (ú ) y de +^* (^
a }, analicemos ahora el significado de minirnizar la
función alternativa,
n 2 }
^ *(^^`)= ^ 1 •^ (á^)]^=^1 ^ e r^
n n i ^ 1
DE ORDEN CX.
Si consideramos ahora, que ^ es función del vector de los valores absolutos de los
errores que simbolizaremos por e^ Q, siendo sus componentes,
n
^mc (e^ ) _ ^ P1
i=1
n ^ n 7 n
^ ^
( P^ )
^mc•(e Q^ - ^ (eu)i ' ^ ei - ^ Ii1 (' \
i= 1 i= 1 i- l
ESTADÍSTi( A ESPA^()LA
^-^«
^*(^}_[ 1 • ^ ^ e^
^`^
n r=1
Sabemos por las propiedades de la media potencial de orden a, que cuando a-^ ^
a media potencial tiende al máximo valor de la variable, con ello, cuando a-^. ^
obtendremos un criterio dé ajuste límite de los criterios de la media potencial dados en
ei subepígrafe anterior, sea el criterio dado por la minimización de la función o* (a^ ),
tal que:
(*) Para un desarrollo completo de las propiedades de ^a media potencial de orden a, ver Alegre
Escolano, Antonio "`Sobre !as distintas medias de una distribución estadlstica. Análisis y compara-
ción. " páginas 13-2 5.
LOS C'RITERIC)ti DE'. A1l'STE Y L_A OPTIMII.A(^I('iti M:^^-TE.M.^T IC`A
1 ^
0* (a^ ) _ lim e, ]^ ^ _
[- • ^ ( ^^`
a^ ^ n i-1
. 1 n
= Irm
a^ ^
[ max{^e,^}^`.
j^
. ^
i r
[ ^ ef I
max { ( e l ^ }
] 1
1 n ( Pr I 1
=1im max{^ei^}. [ . ^ [ J x
^^ n ^_^ max {^ e^^ }
=max{^e;^}. 1 =max{^ef^}
ya que,
0_ le') 1 d iE { 1,2,... n}
C max { ^ e,^ . } ^
obsérvese que este criterio límite trata de minimizar el máximo de los valores absolutos
de los errores, con independencia de los demás, pues como ya hemos dicho la media
potencial de orden a es creciente con a y da mayor importancia a los valores grandes de
la distribución, despreciando en el límite la consideración de todas las componentes del
vector de errores ^^, a excepción de la máxima de ellas, max {^ e; ^}.
Como hemos visto, en el caso en que el orden de la potencia sea un número natural
par, el criterio de minimizar la media potencial de orden 2.p del vector e^ a de valores
absolutos de los errores, equivale a minimizar la suma de potencias de orden 2.p de los
errores componentes del vector é,
9^ (^ ) _ ^ ^ [J'^-'^ (^ ;, a^ ) ^z p
i=1 ^ =i
7fi ESTADÍST1t".A ESPAÑOLA
la condicicín necesaria de que el gradiente sea el vector nulo, vendrá dada aquí por el
sistema de ecuaciones siguiente,
a^^`) _ n
^ 2 •^^ • [y^S (X^;á) l ^^^`` • ^- a$^ ^^^^^ ^_ a
aa; ;=1 aa;
y simpiificando quedará,
n a ^( , z ; ^` Í
^ C v^ S (.z; • a^ ) ]^^^' , i 0 con j^ {1,2,...s}
^-1 ' aa;
La matriz hessiana que nos dá la condición suficiente, tendrá como elementos las
segundas derivadas tales como,
.
+ [y ^ - ^(^ ^;^ ) ]Z"^' . ag ( xl ' )
! i 1
J -
ci Cl ^ aa^ .
= 2.p. n^ ^ ) ]2.(p`"
l1 . ^g ( x; ^ ^ ) ag ( X ^ ^ )
. ' -
[ (2.,p^-1) CY^ 8{^`;;c^
^s^ CiQ^ C7(^I j^
.^ Z.p-^ . a2^ (^ ;^ )
- CY; S C-^ , ) l ]
aa; aa;°
LOS CRITERIOS DE AJLISTE Y LA OPTIMIfAC'IÓN MATEMÁTIC'A 77
d^ {a)
----2p. "
^ Lv;_g{x, ,•a) j`^ ^.- 1 , [ _ dg (X; ^ a) ]=0
da % =1 da
^^ ( a^ n , ?.(/^-ll ^c^(X;;a ^ ,
, =2p. ^ [(2.p-1)Cv^-g(x;^a)] •[ l`-
da ` % 1 da
^
d`g {x; ; a)
-[Y^-g(x;; a)j^^^f . ] >0
da `'
Podriamos plantear otros muchos criterios de ajuste, que darían mayor importancia a
propiedades diversas de la distribución de los errores, como ejernplo vamos a considerar
que se pretende minimizar el rango de los errores.
Este criterio consiste en considerar la distribución de los errores y sustituirla por una
medida representativa de la banda de errores, como podría ser el rango de éstos,
entonces, la función a miñimizar ,u (é ) tomará la forma,
E ST ADÍtiT IC"A EtiPA!VC)LA
^^
^ ^ )
En este subepígrafe final del trabajo presentamos los resultados comparativos del
ajuste de una función exponencial a los datos ya utilizados en las subepígrafes 4.1.1. y
6.1. anteriores,
Hernos elegido ocho criterios de ajuste que creemos pueden dar una idea conjunta de
los resultados obtenidos en este epígrafe 7, en lo que hace referencia a la generalización
del criterio de ajuste mínimo-cuadrático.
Estos criterios se han simbolizado con un número romano del 1 al Vlti, los seis
primeros corresponden a criterios de la mínima media potencial de orden a, siendo:
III : a=3.
I V : a =4.
V:a=8.
VI : a =15.
Las filas nos dan por el contranio la valoración de cada criterio en el punto óptimo de
uno de ellos, en particular, en la fila correspondiente al criterio II coincide el parámetro
estimado con el obtenido en el epígrafe 6 aplicando el criterio rnínimo-cuadrático en su
planteamiento original, siendo el valor de su función objetivo ^' (AU) _^ A,)/ 10 ya
que ^ (Ao) nos daba la suma de los cuadrados de los errores y ^* (A^,) nos dá la media
cuadrática.
ESTADÍSTIC'A ESPAÑUL.A
^
^ ^
v^ ^
ti ^ c^-
^.. .^ .^
r- r- t^-
^ ^ ^O
^ ^ .,
C © O
t'^ Ó O
Q
0 ^ ^ G7 G7 G? Q
0 a ^ 0 0 © ^i
M !t 40 ^ ^C ^/"1 N'1
M M O"^ ^ h
CT ^O N N f'+ ^-+ N ^
N d' ^/'^ ^ ._. ._.^ GT
^D Q M 00 ^ ^ V1 ^
^ t`^- r- C`- ^
ó
^ ^ O O C7 ^ C 0
C> Ó C^ Ó © Ó O O
M o^ ^o ^^+ ^; có ° e^
^ ^ N v o^ N ^o
d^ oo M ^» M et ^p
N ^D e+'1 fT tT CT rn
CT ^+"i © OG O^O GC^ ^
^^ ^^^^ Q^ ^^ ^^ ^ó
^ ^ ^ ^ ^^^ ^,^_
N
M
^
^o
tT
^o
^^ ^^
^ ^
0
^..^ ,^
^n M ^D N
[`^ Q^
N
V"^
^ ^ ^ O^ ^
Í.i.^ ~ r^ ^p v^ ^ ^ ^
Q Q ^ ^ ^ ^ ^
O O O O O O
00 t^ M --^ N et ['^ Q
N ^!'^ Q^ M ^D ^D N1 ^--+
OC M v'1 `p ^ M ^ I`^
--^ ^D C'^ M tiD 80 00 N
4+0 `^ M et v^ rn v^ C,T
^^ Q
^^^^^^
^ ^ ^ ^ ^ ^Có
00 E'^ e* t`- C4 tip N ^f
N M ^-^ t^- e+t et ^p OO
^^^8^^^cQ=
c^ ó c^ ci c> c^ © ó
d' ^O ^ fV ^ CJ^ M M
^ ^ ^ G d' 00 ^o ^n
CT N t`^- O^ V1 c+^ et [`^
M Q^ © ^' ^G 00 00 Q^
00 O^O Cn O^ CT C?^ O^ ^
f"^ M M M M t'n M 00
.7 ^ G? ^ ^ ^ ^ ^
^ ^ 0 ^ 0 d ^ ^
O O^ eT O oo N
00 ^n v-f .^- O c--
v^ .-r h- ^o Gn
V7 ^ Ñ N N 00
^ O+ Q^ CT CT O^O
00 00 CO o0 a0 00
© O O O O O
^
..^ ^..^
^
^ ^ ^ ? > > > >
_
L.OS C'RITF:RIOS DE AJUSTE lr' LA OPTIMII,A('I(^N PvtA'TEMÁTit'A 8
BIBLIOGRAFfA
ANTONIO ALEGRE ESCOLANO: "Sobre las distintas medias de una distrióucián estadística. Análisis y
comparación" Anales del Instituto de Acuarios Españoles. Madrid, n.° 21, ar^o 1980, pág.
13-36.
SUMMARY
In this work we deal with the "Fitting Criterions" from the point of view
of the Mathematical Optimization and particulary from the Extremun
Research option, by means of the corresponding algorithms of Numerical
Calculus.