Está en la página 1de 17

1.

1 PrediccinEspacial
Sea el campo aleatorio ( ) { }
d
R D s s Z : donde se ha observado el atributo Z
en las ubicaciones
n
s s s , , ,
2 1
y se desear predecir dicho atributo en una
ubicacin no observada, basndose en los valores obtenidos en las muestras
hechas.Lastcnicasdeprediccinespacialsonmodalidadesdeunafamiliade
mtodos llamada Kriging. El nombre se debe al Ingeniero minero D.G. Krige,
quien desarroll en la dcada de los 50, mtodos empricos para predecir
caractersticasdeunaminaenalgunaubicacindeintersdondenoseconocan
datos,usandolascaractersticasconocidasenlugarescercanosdondesihaban
sidotomados.SumtodooriginalesconocidocomoKrigingordinario.

El Kriging aparece en muchas formas de acuerdo a si se conocen la media, la


distribucindeprobabilidaddeZ(s),silasprediccionessonhechasparapuntos
oreasyassucesivamente.

Sin embargo, es importante recordar que el Kriging no es el nico mtodo de


prediccin espacial; existen mtodos determinsticos como distancia inversa,
interpolacin polinomial global, interpolacin polinomial local, triangulacin
lineal, funciones de base radial entre otros. La ventaja del kriging sobre los
mtodosdeterminsticoseslaestimacindelavarianzadelerrordeprediccin,
lo cual permite adems estimar intervalos de confianza para dicha prediccin
adems de que el kriging es un mtodo de estimacin que da el mejor
estimador lineal insesgado (cuando se cumplen todos los supuestos).
Inicialmente, el kriging fue desarrollado para aquellos casos donde hay
presenciadeestacionariedadyposteriormentefueextendidoparacasosdonde
secumplelahiptesisintrnseca.

1.1.1 Generalidadessobreelkriging

La toma de muestras da la informacin de lo que ocurre en cada punto. Sin


embargo,nodainformacinacercadelarelacinquepuedaexistirentredichos
puntos. Se requiere de una forma precisa de estimar valores en puntos
intermediosoenelcasodebloques,porejemplo,estimarelpromediosobreel
bloque.Laprecisindelestimadorusadodependedevariosfactores:

Elnmerodemuestrastomadas
Lacalidaddelamedicinencadapunto
Las ubicaciones de las muestras en la zona; si las muestras son igualmente
espaciadas se alcanza una mejor cobertura, dando mayor informacin
acerca de la zona que aquella que se obtendra de muestras muy
agrupadas en unos sectores y separadas en otros. Sin embargo, en la
prctica, debido a las caractersticas de las regiones de estudio, muchas
vecesesprecisotomarmuestrasirregularmenteespaciadas.
las distancias entre las muestras; para la prediccin es mas confiable usar
muestras vecinas que muestras distantes, esto es, la precisin mejora
cuando la cercana de las muestras aumenta, y se deteriora cuando esta
disminuye.Laextrapolacinnoesaconsejable.
La continuidad espacial de la variable o atributo en estudio; es ms fcil
estimarelvalorde unavariablebastanteregularenunareginqueuna
quepresentagrandesfluctuaciones.

1.1.2 Introduccinalateoradelkriging

Ejemplo

Supongamos que se tienen las mediciones Z(s1), Z(s2), Z(s3) y Z(s4), en los
puntos s1, s2, s3 y s4 respectivamente, y se requiere predecir el valor Z(s0). El
valorapredecirseubicamascercades2quedecualquierotraubicacindonde
se tenga medicin; por lo tanto, es lgico pensar que Z(s0) es mas parecido a
Z(s2) que a cualquiera de los otros tres valores medidos. De acuerdo a lo
anterior, se puede optar para la prediccin, por una media ponderada de las
cuatromediciones,enlacualZ(s2)tienemayorpesoquecualquierotra,seguida
ensuordenporZ(s4),Z(s3)yporltimoZ(s1).

As,
0 1 1 2 2 3 3 4 4

Z(s )= Z(s )+ Z(s )+ Z(s )+ Z(s )

Donde los
i
, 1,2,3,4 i = son los factores de ponderacin o pesos tales que
2 4 3 1
> > > y
4
1
1
i
i

=
=

En general, para obtener una estimacin de Z(s0), se realiza una combinacin


linealdelosvaloresZ(si), 1 i n = :

*s
1
*s
2

+s
0

*s
3
*s
4

0
1

( ) ( )
n
i i
i
Z s Z s
=
=

Losparmetros
i
sonlosfactoresdeponderacinocoeficientesdeponderacin
ysoncalculadosdeacuerdoalossiguientescriterios:

( ) Z s seainsesgado

0 0

( ( ) ( )) Var Z s Z s seamnima

Noteque

2 2
0 0 0 0 0 0
2
2 2
0 0 0 0 0 0

( ( ) ( )) ( ( ) ( )) ( ( ) ( ))

( ( ) ( )) ( ( ) ( )) ( ( ) ( ))
Var Z s Z s E Z s Z s E Z s Z s
E Z s Z s E Z s Z s E Z s Z s
=

= =



Ahora
[ ]
2 2
0 0 0 0
1 1 1
2
0 0
1 1 1

( ( ) ( )) ( ) ( ) 2 ( ) ( ) ( )
( ) ( ) 2 ( ) ( ) ( )
n n n
i i j j i i
i j i
n n n
i j i j i i
i j i
E Z s Z s E Z s Z s Z s Z s Z s
E Z s Z s E Z s Z s E Z s


= = =
= = =


= +




= +



Sihaestimadoelsemivariogramaobienseconocelafuncindecovarianza,
tambinsetendrnlosvalores

[ ]
2
0 0
( ) ( ) , ( ) ( ) y ( )
i j i
E Z s Z s E Z s Z s E Z s

Por lo tanto, se encontrarn los


i
minimizando esta varianza. Del respectivo
proceso de minimizacin se obtendr un sistema de ecuaciones, que cambiar
de acuerdo a las hiptesis que se tengan sobre la media y la covarianza del
proceso, y la distribucin de la variable en estudio. En la prxima seccin se
mencionarnalgunosdeestoscasos.

1.1.3 Clculodelosfactoresdeponderacinparaalgunoscasos

KrigingSimple

El kriging simple asume el conocimiento tanto de la media como de la


covarianzadelproceso.Porsupuesto,espocoprcticoyaqueengeneral

estos dos parmetros son desconocidos y es preciso estimarlos a partir de los


datosdelamuestra.

Definamoslavariable
( ) ( ) Y s Z s =

donde

eslamediadelavariableenlaregindeestudioyporlotanto

( ) 0 E Y s =

.

Entoncessiahoraencontramoslaprediccinde ( )
0
Y s ,tendremos

( ) ( )
0
1

n
i i
i
Y s Y s
=
=

Ahora para encontrar los factores de ponderacin vamos a minimizar el error


de prediccin ( ) ( )
( )
0 0

Y s Y s . Como ( )
0
Y s es desconocido, se minimizar el
errorcuadrticomediodeprediccin;estoes,hayqueminimizar

( ) ( )
( )
2
0 0

E Y s Y s

Quesegnvimosenlaseccinanterior,sepuedeescribircomo

[ ]
[ ]
2 2
0 0 0 0
1 1 1
0
1 1 1

( ( ) ( )) ( ) ( ) 2 ( ) ( ) ( )
2 (0)
n n n
i j i j i i
i j i
n n n
i j i j i i
i j i
E Y s Y s E Y s Z s E Y s Y s E Y s
Cov s s Cov s s Cov


= = =
= = =
= +

= +



Ahora, se aplica el proceso clsico de minimizacin derivando parcialmente


respecto a cada uno de los parmetros
i
e igualando a cero estas derivadas,
conloquelasecuacionesquedan:

( ) ( ) ( )
2
0 0 0
1

2 2 0 i =1 n
n
j i j i
j
i
E Y s Y s Cov s s Cov s s


= =

conlocualquedadefinidounsistemadenecuacionesconnincgnitas.Paraj
( ) 1 j n = arbitrarialaecuacines:
( )
( )
0
1
0
1
2 2 0

n
j i j i
j
n
j i j i
j
Cov s s Cov s s
Cov s s Cov s s

=
=
=

=


Queesunsistemaconnicasolucinenvirtuddelamatrizdecoeficientesla
cualesdefinidapositiva.

AsparapredecirlavariableoriginalZ

( ) ( )
0
1

n
i i
i
Z s Z
=
= +

ylavarianzadelerrordeprediccinqueda

( ) ( )
( )
( ) ( ) ( )
0 0 0
1

n
i i i
i
Var Z s Z s Var Z s Cov s s
=
=


Dedondepodemosconcluirquelavarianzadelerrordeprediccinesmenora
la varianza de la variable en estudio, lo cual es consecuencia del conocimiento
delosparmetrosdelproceso.

KrigingOrdinario

El kriging ordinario se usa cuando la variable es estacionaria con covarianza


conocida y media desconocida. Aunque el proceso es similar al del kriging
simple, no podemos centrar la variable, ya que no conocemos , as que es
necesario trabajar directamente con la variable en estudio Z. Nuevamente la
prediccines
0
1

( ) ( )
n
i i
i
Z s Z s
=
=

Alnoconocerlamediaesnecesariogarantizarlapropiedaddeinsesgamiento:

( ) ( ) [ ] ( ) ( )
( ) [ ] ( ) [ ]
1 Cuando
0 1 0 1
0
1
1 1
1 1
0
0
1
0 0
*
=
=


= =
=




=
= =
= =
=
n
i
i
n
i
i
n
i
i
n
i
i
n
i
i i
n
i
i i
s Z E s Z E
s Z s Z E s Z s Z E

( )

E Z Z =
Deestaforma,
( )
1
( )
n
i i
i
E Z s E Z
=

= =

locualesequivalentea
[ ]
1 1
( )
n n
i i i
i i
E Z s
= =
= =

Portanto,esindispensablequesecumplalacondicindeque

1
1
n
i
i

=
=

paraobtenerunestimadorinsesgado.Semantieneiguallasegundacondicin
que es la de mnima varianza; partamos de la expresin ya deducida de la
varianza
[ ]
2 2
0 0 0 0
1 1 1

( ( ) ( )) ( ) ( ) 2 ( ) ( ) ( )
n n n
i j i j i i
i j i
E Z s Z s E Z s Z s E Z s Z s E Z s
= = =
= +


Dondebajolasnuevascondicionessetiene:

( )
2
2 2 2 2
0
( ) ( )
( ) (0)
i j i j
E Z s Z s Cov s s
E Z s Cov


= +

= + = +

Sustituyendoenlavarianzaqueda

( ) ( ) ( )
2 2
0 0
1 1 1 1 1 1

( ( ) ( )) 2 0 2 1
n n n n n n
i j i j i i j i j i
i j i i j i
E Z s Z s Cov s s Cov s s C
= = = = = =

= + + +



pero

2
1 1 1 1
2 1 1 0
n n n n
i j i i
i j i i

= = = =


+ = =





porlapropiedaddeinsesgamiento.

Asquelaexpresinaminimizares

( ) ( ) ( )
1 1 1
2 0
n n n
i j i j i i j
i j i
Cov s s Cov s s C
= = =
+

bajolarestriccin
( )

E Z Z =
SeutilizaparaestoscasoselmtododelosmultiplicadoresdeLagrange:


( )
( ) ( )
1
,
n
i
i i j i j
i
i
Cov s s Cov s s




( )
( ) ( )
1
,
n
i
i i j i j
i
i
Cov s s Cov s s




( ) ( )
1
0
n
i i j i j
i
Cov s s Cov s s
=
=



( ) ( )
1
n
i i j i j
i
Cov s s Cov s s
=
=



( )
1
,
1
n
i
i
i



1
1 0
n
i
i

=
=



1
1
n
i
i

=
=

Dandocomoresultadoelsistemade 1 n + ecuacionesdelkrigingordinario:

( ) ( )
1
n
i i j i j
i
Cov s s Cov s s
=
=

1
1
n
i
i

=
=

a partir de las cuales se encuentran los valores de los factores de ponderacin


parallevaracabolaprediccin.

Porltimo,lavarianzadelerrordeprediccinparaestecasoes

( ) ( )
( )
( ) ( ) ( )
0 0 0
1

n
i i i
i
Var Z s Z s Var Z s Cov s s
=
= +

que tal como es de esperarse es mayor que la del kriging simple, debido al
desconocimientodelamediadelavariableenestudio.

KrigingOrdinarioparavariablesintrnsecas

Este es un caso ms general, en el cual la varianza no existe y las condiciones


impuestassobrelavariableregionalizadason:

( ) ( ) 0 E Z s h Z s + =


( ) ( ) ( )
1
2
h Var Z s h Z s = +

Nuevamente,hayqueimponerlassiguientesrestricciones

Estimacinlineal
0
1

( ) ( )
n
i i
i
Z s Z s
=
=


Insesgamiento
( )

E Z Z =
Mnimavarianza

( ) ( ) ( ) ( )
2
0 0 0 0

Var Z s Z s E Z s Z s

=

esmnima

Aplicando nuevamente el mtodo de los multiplicadores de Lagrange, se


obtienenlosfactoresdeponderacinylavarianzadelerrordeprediccines
( ) ( )
( )
( )
0 0 0
1

n
i i
i
Var Z s Z s s s
=
= +


Este es el caso ms general ya que es vlido tanto para variables estacionarias
comoparavariablesintrnsecas.

Engeneral,elkrigingesptimocuandolavariableenestudioprovienedeuna
poblacin con distribucin normal. La alternativa con cual se debe trabajar es
aplicarlealavariableunatransformacinquelalleveaunanormalyapartirde
la nueva variable transformada estimar el semivariograma y aplicarle las
ecuacionesdelkriging.Alfinal,elanlisisrequierellevarlavariableasuescala
original.Uncasoquesurgebastanteencasosprcticoseseldeladistribucin
lognormal.

1. Anlisisdenormalidad

1.1 ANLISISGRFICO

GRFICOSGENERALES

Caractersticasdeladistribucindeprobabilidadnormaltalescomosimetray
apuntamiento, pueden ser ilustradas por los grficos clsicos de la estadstica
descriptiva,comoelhistograma,eldiagramadecajaybigotes,yeldiagramade
tallo y hojas; a continuacin estos grficos para una muestra de una variable
aleatoriacondistribucindeprobabilidadnormal:

5
5
6
0
6
5
7
0
7
5
8
0
8
5
Histogram of x
x
F
r
e
q
u
e
n
c
y
50 55 60 65 70 75 80 85
0
5
0
1
0
0
1
5
0

Grfico1.Diagramadecajaehistogramadeunamuestraaleatoriaprovenientedeuna
distribucindeprobabilidadnormal

Es importante recordar que el histograma no es nico. Por lo tanto, para


esperar un comportamiento acampanado del histograma, una opcin es
construir los intervalos de la forma ks x
1
con 3 , 2 , 1 , 0 = k segn hasta donde
existandatos.Enalgunasdisciplinasseusalaconstruccindeloshistogramas
con base en intervalos equiprobables; luego en este caso se esperara un
histogramacontodoslosrectngulosalamismaaltura.

1
El procedimiento de verificar que a 1, 2 y 3 desviaciones estndar de la media se encuentra
respectivamente, el 68.26%, el 95.44% y el 99.74% de las observaciones se conoce como regla emprica.

Grfico2.DiagramadeTalloyhojasdeunamuestraaleatoriaprovenientedeuna
distribucindeprobabilidadnormal

En este diagrama de tallo y hojas se observa claramente la figura acampanada


deformahorizontal.

Sin embargo, existe un grfico diseado exclusivamente para el anlisis de


normalidad:

GRFICOQXQ

Elgrficocuantilcuantil,consisteenlacomparacindeloscuantilesmuestrales
conlospoblacionales,detalformaqueentremassimilaresseanestasdosseries
de datos, mejor ser el ajuste y por lo tanto, se espera que el diagrama de
dispersinentreellosseaproximebastanteaunalnearecta.Lospasosparala
construccindeestegrficosonlossiguientes:

1. Cuantiles muestrales: Se ordenan las observaciones


n
x x x , , ,
2 1
de
menor a mayor
) ( ) 2 ( ) 1 (
, , ,
n
x x x
. El dato
) (i
x
corresponder al cuantil
(proporcin)
n
i
.Porejemplo,silamuestratuviera200observaciones,el
dato
) 10 (
x
corresponder al cuantil (proporcin) % 5 05 . 0
200
10
= = , ya
que el 5% de las observaciones son inferiores al dato
) 10 (
x
. Se suele
utilizarparacorreccinporcontinuidad
n
i ) ( 2 / 1
.
2. Cuantilespoblacionales:Sean
n
q q q , , ,
2 1
loscuantilespoblaciones,es
decir,
i
q eselvalorpordebajodelcualseencuentran,unaproporcinde
n
i ) ( 2 / 1
de datos de la poblacin. estos se encuentran aplicando a cada
proporcinmuestralladistribucinnormalinversa:

( )
i i
p q
1
=

3. Se ubican en el plano cartesiano las parejas ordenadas


( )
( )
i i
x q , y se
analizalacercanaalalinealidaddedichogrfico.

Grfico3.CuantilCuantilenelcasoenelqueladistribucinnormalajustaadecuadamente
losdatosdelamuestra.

En este caso, las observaciones se aproximan bastante a la recta y por lo tanto,


sepuedepensarenqueelsupuestodenormalidadesvlido.Todoelsoftware
estadsticolotieneimplementado.

A continuacin un grfico cuyo comportamiento evidencia que la muestra no


provienedeunadistribucindeprobabilidadnormal.

-3 -2 -1 0 1 2 3
2
0
0
0
0
4
0
0
0
0
6
0
0
0
0
8
0
0
0
0
1
0
0
0
0
0
1
2
0
0
0
0
norm quantiles
s
a
l
a
r
i
o

Grfico4.CuantilCuantilenelcasoenelqueladistribucinnormalnorepresentaunbuen
ajusteparalosdatosdelamuestra.

Sibien,elanlisisgrfico,esmuyimportanteeilustrativo,continasiendouna
herramienta de estadstica descriptiva y por tanto no es concluyente. Incluso
cuando se tiene prcticamente la certeza sobre el comportamiento
aproximadamente normal de los datos, es necesaria la aplicacin de inferencia
estadstica, ya que la conclusin es acerca de la distribucin de la variable de
dondeprovienelamuestra.

Acontinuacin,serelacionanvariaspruebasdenormalidad.

1.2 PRUEBASDEHIPTESIS

PRUEBADESHAPIROYWILK

Estapruebasecentraendeterminarlabondaddelajustedeunarectaalgrfico
QQ.Esexclusivaparaprobarnormalidad.

Donde

eslavarianzamuestral,

sonloscoeficientestabuladosparaestapruebay

eseljsimoelementodelamuestraordenada

PRUEBASBASADASENASIMETRAYCURTOSIS

ASIMETRA

Si 50 > n ,elcoeficientedeasimetra,tieneunadistribucindeprobabilidad
asintticamentenormalconparmetros

( ) 0 = As E y ( )
n
As Var
6
=
Porlotanto, ( ) 0,1 N ~
6
n
As
Z =

( ) 0,1 N ~
6
n As
Z =

CURTOSIS

Si 200 > n , el coeficiente de curtosis, tiene una distribucin de probabilidad


asintticamentenormalconparmetros

( ) 3 = k E y ( )
n
k Var
24
=

Porlotanto, ( ) 0,1 N ~
24
3
n
k
Z

=

( )
( ) 0,1 N ~
24
3 n k
Z

=

PRUEBADEJARQUEYBERA(JB)

Tambin llamada prueba mnibus, esta involucra simultneamente los


coeficientesdeasimetraycurtosis.Serequierequelamuestratengaalmenos
200observaciones.

PRUEBADEBONDADDEAJUSTECHICUADRADODEPEARSON

Algoritmo

1. Construirunatabladefrecuencias,lacualenloposiblenotengamenos
de5intervalosyadems,nohayamenosde5datosencadaintervalo.
2. Encontrar las frecuencias esperadas segn , esto es, encontrar
,donde eslaprobabilidaddelintervaloi
3. Calcular el estadstico de prueba y comparar con el cuantil terico
correspondiente

PRUEBADEKOLMOGOROVSMIRNOV

Estapruebacalculaladistanciaentrelafuncindedistribucinmuestral
ylafuncindedistribucintericasupuestaenla ,

Algoritmo

1. Encontrarladistribucindefrecuenciasmuestral

Conbaseenlamuestraordenada

2. Encontrarlacorrespondientedistribucinterica
3. Calcularelestadsticodeprueba

Sudistribucinexactaseencuentratantoenlosprogramasestadsticos
comoenvarioslibrosdeestadsticanoparamtrica.

Nota1

Cuandolosparmetrosdelafuncinsonestimadosdelamuestra,esnecesario
aplicarlacorreccindeLillieforsaladistribucindel .

TRANSFORMACIN BOX COX

La familia de transformaciones Box Cox, es de mucha utilidad cuando se han


detectado problemas de heterocedasticidad, falta de normalidad o falta de
linealidad, y se buscan mtodos para realizar las respectivas correcciones; la
muy conocida transformacin logartmica es un caso particular de esta
importante familia; incluso, en muchas ocasiones se utiliza de forma mecnica
sintenerencuentaotrasposibilidades.

LaformageneraldelafamiliadetransformacionesBoxCoxeslasiguiente:

Si 0 >
i
y ; i , n i , , 1 = .Sedefinelanuevavariable
( )
y como

=
0 para log
0 para
1
) (

y
y
y

Enelcasoenelcualnosecumpla 0 >
i
y ; i , n i , , 1 = sepuederealizaruna
traslacindelavariabley;enestecasoquedara

( )
( )
( )

= +

+
= +
0 para log
0 para
1
) (

m y
m y
m y

Lajustificacinparaquelatransformacinsea logy 0 para = es el uso de la
regla de Lhospital:

El valor de que logra la mejor transformacin de la variable de inters, es el


quemaximizalacantidad

eslaestimacinmximoverosmildelavarianzadelavariable .

También podría gustarte