Está en la página 1de 84

AJUSTE GEODÉSICO

Revisión 3.2

René Zepeda G.
septiembre 2016
pag. 2 de 84

(en blanco)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 3 de 84
ÍNDICE

1. INTRODUCCIÓN ........................................................................................... 4
2. MÍNIMOS CUADRADOS .................................................................................... 5
3. TEORÍA DE ERRORES ..................................................................................... 6
4. DISTRIBUCIÓN NORMAL .................................................................................. 8
5. PROPAGACIÓN DE ERRORES .......................................................................... 10
5.1 PROPAGACIÓN DE ERRORES EN OPERADORES ...................................................... 13
5.2 EJEMPLOS ILUSTRATIVOS.............................................................................. 14
6. PESO DE LAS OBSERVACIONES ....................................................................... 16
6.2 PESOS EN LA NIVELACIÓN GEOMÉTRICA ............................................................. 17
6.3 PESO EN LA MEDICIÓN ANGULAR ..................................................................... 17
7. SISTEMAS DE ECUACIONES ............................................................................ 19
8. SERIE DE TAYLOR ....................................................................................... 21
8.1 LINEALIZACIÓN DE UNA ECUACIÓN DE OBSERVACIÓN DE DISTANCIA ............................ 23
8.2 LINEALIZACIÓN DE UNA ECUACIÓN DE OBSERVACIÓN DE ÁNGULO .............................. 25
9. ECUACIÓN DE OBSERVACIÓN ......................................................................... 27
10. MÉTODOS DE MÍNIMOS CUADRADOS, SOLUCIÓN MATRICIAL .................................... 28
10.1 ECUACIONES DE OBSERVACIÓN ..................................................................... 28
10.2 APLICACIÓN A NIVELACIONES: ..................................................................... 31
10.3 PRECISIÓN EN EL MÉTODO DE LAS ECUACIONES DE OBSERVACIÓN ............................. 33
10.4 USO DE LA MATRIZ DE COVARIANZAS .............................................................. 34
10.5 VARIANZA (A POSTERIORI) DE PESO UNITARIO .................................................... 35
11. TEST DE CHI CUADRADO .............................................................................. 37
12. MÉTODO DE LAS ECUACIONES DE CONDICIÓN ..................................................... 40
13. ECUACIONES DE CONDICIÓN (DEDUCCIÓN MATRICIAL) .......................................... 42
12.1 ECUACIONES NORMALES ............................................................................. 43
12.2 MATRICES DE COVARIANZAS ......................................................................... 44
12.3 EJEMPLO EN POLIGONALES: ......................................................................... 46
14. MATRICES DE ROTACIÓN .............................................................................. 49
15. ELIPSE DE ERRORES .................................................................................... 51
16. MÉTODO COMBINADO .................................................................................. 56
8.1 COVARIANZAS EN EL MÉTODO COMBINADO ......................................................... 58
17. TABLA RESUMEN DE LOS MÉTODOS ................................................................. 60
18. EJEMPLOS DE AJUSTE DE DATOS .................................................................... 61
17.1 TRANSFORMACIÓN ENTRE SISTEMAS GEODÉSICOS 3D. ........................................... 62
17.2 TRANSFORMACIÓN ENTRE SISTEMAS 2D............................................................ 66
17.3 INTERSECCIÓN DE DISTANCIAS Y/O DIRECCIONES ................................................ 68
17.4 AJUSTE DE ÁNGULOS ................................................................................. 71
17.5 POLINOMIOS (CURVAS) ............................................................................... 73
17.6 TRILATERACIÓN ....................................................................................... 75
17.7 AJUSTE A UNA CIRCUNFERENCIA ................................................................... 78
19. REVISIÓN DE ÁLGEBRA MATRICIAL .................................................................. 81
20. BIBLIOGRAFÍA ........................................................................................... 84

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 4 de 84

AJUSTE GEODÉSICO
-
- RENÉ ZEPEDA G. – VERSIÓN SEPTIEMBRE 2016

APUNTE PROVISORIO, SUJETO A REVISIÓN Y CAMBIOS, NO REEMPLAZAN ANOTACIONES EN CLASES


LA PRESENTE REVISIÓN INCLUYE CORRECCIONES Y ACTUALIZACIONES RESPECTO A LA VERSIÓN 2004
OBSERVACIONES Y SUGERENCIAS FAVOR DIRIGIRLAS AL CORREO renezg@gmail.com

1. INTRODUCCIÓN

¿Por qué ajustar observaciones?


Quien realiza análisis de mediciones comprende que “nunca se obtiene el verdadero valor de una
magnitud medida”. Las mediciones se caracterizan por la presencia de errores de medición, no
solo por falla humana si no que también por la imperfección de equipos e influencia de
condiciones ambientales.

Cuando se solicita una medida de confianza, no se realiza solo una medición, llevando a la
multiplicación de la observación. De allí se crea un nuevo problema: a partir de las varias
observaciones con sus discrepancias asociadas, o sea, con datos redundantes, extraer un
resultado que sea único y que represente con la mayor confianza el valor medido. El ajuste de
observaciones trata esos problemas, también como la estimativa de la precisión de la solución.

En los casos más simples se realizan mediciones u observaciones (aquí sinónimos), sobre las
propias magnitudes incógnitas (observaciones directas). Cuando tales incógnitas se ligan por
ecuaciones de condición, el problema es menos sencillo. Otras veces se miden magnitudes que
se vinculan a las incógnitas (o parámetros) a través de relaciones funcionales conocidas. En
todos los casos se busca limpiar las observaciones de las inconsistencias, o mejor, ajustarlas a un
modelo matemático y en ciertas condiciones puede contener imposiciones iniciales (constraints).
Se pueden ponderar las observaciones, atribuyéndoles “más peso” a aquellas que merecen más
confianza, es decir, supuestamente de mayor precisión.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 5 de 84
2. MÍNIMOS CUADRADOS

Considérese el caso de una medida directa de una magnitud:


l1, l2, l3, .... ln valores de una serie de “n” observaciones
Como es imposible obtener el verdadero valor de x, se calcula una estimativa en que se pueda
confiar. Sean las diferencias:
x – l1 = v1
x – l2 = v2

x – ln = vn  x – li = vi

vi son los residuos, a priori desconocidos, que sumados a las observaciones entregan el valor
escogido x.

Se podría escoger un valor diferente x’, que resultaría un nuevo conjunto de residuos.
x’ – li = v’i
x” – li = v”i  ¿cuál valor adoptar?

Se trata de escoger un criterio que permita, a partir de las observaciones repetidas li , extraer
un valor único para representar la incógnita x.

Hace 2 siglos los matemáticos y geodestas Adrien Legendre (Francia, 1752-1833) y Carl Gauss
(Alemania, 1777-1855) publicaron la teoría en 1805 y 1809, este último asociándola a la teoría
de probabilidad y la distribución normal, de allí que esta teoría tenga también los créditos de
Gauss:

Aceptar como mejor estimativa de x, el valor que n


torna mínima la suma de los cuadrados de los
residuos
v
i1
2
i  mínimo

.
Cuando las observaciones no tienen el mismo grado de confianza, son homogeneizadas a través
de los pesos pi :
n

p
i1
i v i2  mínimo
Este es el criterio que caracteriza el METODO DE MÍNIMOS CUADRADOS (MMC).

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 6 de 84
3. TEORÍA DE ERRORES

En el proceso de medición de toda cantidad física, factores como: limitación humana,


imperfección de instrumentos e inestabilidad natural, hacen que las mediciones sean afectadas
de errores. Los errores se pueden clasificar en:

 Falta. Debido a error grosero, proveniente de falta de cuidado o confusión. Las faltas
generalmente no son clasificadas como error y ellos solo pueden removerse con cuidadoso
chequeo de los “datos”, aislando el error grosero. Ejemplo: lectura o anotación equivocada
de las unidades en una medición.
 Error sistemático. Es un error que puede ser expresado por una función matemática; afecta
la medición en “casi” la misma magnitud y tiene una fuente específica. Ejemplo: error de
índice (de cero) en el ángulo vertical; temperatura no calibrada para una corrección; cambio
de prisma en un distanciómetro.
 Error aleatorio o accidental: después de removidos las dos clases anteriores de errores,
quedan errores (generalmente pequeños) de signos positivo y negativo, que pueden ser
tratados de acuerdo a las leyes de la estadística, obedecen la teoría de probabilidad y la
distribución normal (gaussiana). Ejemplo: errores de apreciación en lecturas.

PRECISIÓN Y EXACTITUD
Debido a los errores, repetidas mediciones de una misma magnitud tienen diferentes valores y
las discrepancias entre ellas son pequeñas. Entonces la tendencia es dar más credibilidad al
valor obtenido del mayor número de mediciones, es decir, con más precisión.

PRECISIÓN. Es el grado de consistencia, dispersión o refinamiento de un conjunto de


mediciones; es basado en la magnitud de las discrepancias entre los valores medidos. Es
referida al valor más probable. Está asociada a errores aleatorios.

EXACTITUD es el grado de acercamiento a un valor absoluto que representa el valor verdadero (o


norma) que, siendo verdadero es desconocido. Está afectada por errores sistemáticos.

Definiciones

 Cantidad Medida: valor observado directamente que contiene errores aleatorios.

 Valor Verdadero: valor teórico o exacto (desconocido).

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 7 de 84
 Error: diferencia entre la cantidad medida y el valor verdadero.
  (xi  x v )

 Valor Más Probable-EMP: valor de una cantidad medida que, basada en las observaciones,
tiene la más alta probabilidad. El EMP es obtenido, directamente de varias mediciones
independientes, por su media aritmética.

 Residuo: diferencia entre la cantidad medida y el valor más probable; este es el valor que se
trata en el ajuste de observaciones. Este término es frecuentemente usado como sinónimo
de error.
v i  ( x i  )

 Grados de Libertad: Es el número de mediciones en exceso, o sea, es el número


observaciones menos el número de incógnitas, es el número de observaciones redundantes;
hace posible el ajuste por mínimos cuadrados.

 Varianza de la población. (2) Expresa la precisión de un grupo de observaciones; es la media


del cuadrado de los errores.

 2

 2
n
 La varianza de la muestra es dada por:

S2 
 2
n 1

 Error Estándar: () Raíz de la varianza;


 2
n

 Desviación Estándar. Similar al Error Estándar; las cantidades 2 y , son teóricas porque el
valor verdadero es indeterminado. En la práctica se usan los residuos y una mejor estimativa
de la varianza es usar residuos:

S
 2
n 1

n-1: grados de libertad

Si n  entonces 2 = S2

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 8 de 84
4. DISTRIBUCIÓN NORMAL

El ajuste de observaciones trata solo de errores aleatorios, o accidentales, presuponiendo que


los errores sistemáticos han sido removidos.
Probabilidad es la razón entre el número de veces que un evento puede ocurrir respecto del
número total de posibilidades

y = f(x) representa la probabilidad (por unidad de intervalo de unidad medida) de obtener un


determinado valor de esa medida, obviamente:

p= 
  f(x) dx = 1
La ecuación de la curva de distribución normal es:
  ( x x )2 
1  
y  f (x)  e 2 2 

 2
y: probabilidad de ocurrencia del error entre x y dx
e: base de logaritmo natural
: desviación estándar

Histograma: es la representación gráfica de la distribución de un grupo de mediciones o de un


grupo de residuos. Es un gráfico de barra de frecuencias.

x2
1 2 2
Reemplazando: y e
2  

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 9 de 84
a a a h h
 ydx  2 ydx  2
2 2
Área bajo la curva: e x
dx
a 0 0

Interpretación: de la muestra de datos, 68% de ellas tendrán un error residual igual o menor que
1.

Nivel de confianza Sigmas


50 % 0,675 
68,27 % 1
90 % 1,645 
95,45 % 2
99 % 2,6 
99,73 % 3
99,99 % 4

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 10 de 84
5. PROPAGACIÓN DE ERRORES

Frecuentemente los valores incógnitas desconocidos son calculados a partir de mediciones, las
cuales están sujetas a errores accidentales, es decir, las operaciones matemáticas con números
inciertos, dan resultados también inciertos, por ese motivo es importante estimar el error
resultante a partir de los errores iniciales.

Si se considera que el error (o variación) de la función es suficientemente pequeño, diferencial,


se puede reemplazar la curva por una recta tangente a la curva. La relación entre el error del
lado (x) y el error del área (y) es representada por la pendiente de la curva en el punto de
interés, es decir, la derivada de la función.
y  x2
dy  2x * dx

(error superficie) = 2x (error lado)

Por ejemplo, en el cálculo del área de un terreno rectangular de lados iguales de 80m con un
error de 1m en cada lado. El valor del área será 6400m2. Siendo la superficie función del lado,
si el error del lado de 1m, el error de la superficie será 160m2.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 11 de 84
ECUACIÓN BÁSICA

En la propagación de errores independientes, se presume según Gemael (1994) que los errores
sistemáticos han sido eliminados.

Sean:
z = a1x1 + a2x2
con x1, x2 observaciones independientes con 1 y 2 desviaciones estándar, a1 y a2
constantes
x1 determinado a partir de n mediciones, cada una con un error 1i;
x2 determinado a partir de n mediciones, cada una con un error 2i;

Entonces zv es el valor verdadero de z para cada medición independiente:


Zv = a1(xi1–i1) + a2(xi2–i2) = a1xi1 + a2xi2 – (a1i1 + a2i2)
Zv = a1(xii1–ii1) + a2(xii2–ii2) = a1xii1 + a2xii2 – (a1ii1 + a2ii2)
Zv = a1(xiii1–iii1) + a2(xiii2–iii2) = a1xiii1 + a2xiii2 – (a1iii1 + a2iii2)
............

los valores de z calculados a partir de cada observación serán:


zi = a1xi1 + a2xi2
zii = a1xii1 + a2xii2
ziii = a1xiii1 + a2xiii2
……….

Reemplazando las últimas en las anteriores, resultan los (n) errores de cada valor calculado:
zi – zv= a1i1 + a2i2
zii – zv = a1ii1 + a2ii2
ziii – zv = a1iii1 + a2iii2

Recordando que:  2

 2
, es decir: n   
2 2
n

n2 = (a1i1)2 + 2 a1a2i1i2 + (a2ii2)2 + (a1ii1)2 + 2 a1a2ii1ii2 + (a2ii2)2 + ............. n veces

Factorizando:
n2 = a12(i12 + ii12 + ii12 + ...) + a22(i22 + ii22 + ii22 + ...) 2a1a2(i1i2 + ii1ii2 +
iii1ii2 + iii1iii2 + ...)

Sumando:

  2a 1a 2   1 2
  12     2    22 
 Z  a 
2 2   a2 
1   n   n 
 n     

Los términos entre paréntesis son, por definición, respectivamente las varianzas y
covarianzas x12 , x1x2 , x22

La covarianza muestra la interdependencia entre las dos variables x1 y x2.

La última ecuación puede ser rescrita como:

2Z  a122x1  2a1a 2x1x 2  a 222x 2

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 12 de 84

Matricialmente se puede expresar la matriz varianza-covarianza, o matriz de covarianzas,


para la función z por:

 2  x1 x 2   a 1 
 2Z  a 1 a 2 · x1 · 
  x1x 2  2x 2  a 2 

Puede ser generalizada a:


  2x1  x1x 2 ...  x1xn   a 1 
  
  2x 2  x 2 xn  a 2 
 2Z  a 1 ... a n · x1x 2
...
a2 ·
 ... ... ... ...   ... 
  
 x1xn ...  x 2 xn  2xn  a n 

Para un conjunto de m funciones, con n mediciones independientes, la expresión se expande a:

 a 11 a 21 ...... a n1    2x1  x 1x 2 ...  x1xn   a 11 a 12 ... a 1m 


a  
a 22 a n 2   x1x 2  2x 2 ...  x 2 xn  a 21 a 22 .... a 2 m 
 Z   12
2
· ·
 .. .. ...... ...   ... ... ... ...   .... .... ... ... 
   
a 1m a 2m ... a mn   x1xn ...  x 2 xn  2xn  a n1 a n2 ... a nm 

Si las funciones son no-lineales, se puede usar la serie de Taylor de 1er orden para linealizarlas,
de esa manera los términos anm son reemplazados por las derivadas parciales de z respecto a las
mediciones x.

Resulta la ecuación conocida como LEY GENERAL DE PROPAGACIÓN DE VARIANZAS PARA


ECUACIONES LINEALES Y NO-LINEALES:

 z1 z1 z1   z1 z 2 zm 


 x1 ...... ......
xn    x1  x1x 2  x1xn   x1 x1 
2
x 2 ... x1
 z 2 z 2 z 2    zm 
 2x 2  x 2 xn   z1 z 2
 Z   x1   x1x 2 
2 ...
 x 2 xn · ... ... ...
·
...   x..2 x 2 x 2 
 .. .. ...... ...    .. ...... ... 
 zm zm
...
zm   x1xn ...  x 2 xn  2xn   z1 z 2
...
zm 
 x1 x 2 xn   xn xn xn 
En notación matricial:

 Z  AA T en que

 : es la matriz de covarianzas de las mediciones


A : es la matriz de coeficientes, denominada matriz Jacobiana, de derivadas parciales

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 13 de 84

OBSERVACIONES NO CORRELACIONADAS (INDEPENDIENTES)

Si las observaciones (mediciones) “x” son no correlacionadas, es decir, estadísticamente


independientes, sus covarianzas son todas cero (elementos fuera de la diagonal). De ese modo
la ecuación queda:

 z1 z1 z1   z1 z 2 zm 


 x1 ...... ......
xn   x1 ... 0   x1 x1 
2
x 2 0 x1
 z 2 z 2 z 2   0  zm 
 2x 2 ... 0   z1 z 2
 Z   x1
2
x 2

xn · ... · 
 ... ... ...   x..2 x 2 x 2 
 .. .. ...... ...    .. ...... ... 
 zm zm
...
zm   0 ... 0  2xn   z1 z 2
...
zm 
 x1 x 2 xn   xn xn xn 

Puede ser rescrita y resulta la expresión para la ley especial de propagación de varianzas, o LEY
DE PROPAGACIÓN DE ERRORES DE MEDICIONES INDEPENDIENTES

 z   z  z
2 2 2
 
z    x1     x 2   ....  xn 
 x1   x 2   xn 

5.1 PROPAGACIÓN DE ERRORES EN OPERADORES

Las operaciones a que son sometidas las magnitudes medidas acarrearán errores en los
resultados.

ERROR DE LA SUMA:

Sea: A = B1 + B2 + Bn, con Bi observaciones independientes, cada una con errores i


A  1· B1 2  1· B2 2  .....  1· Bn 2
A   2B1   2B 2  ... 2Bn

si los errores son iguales:


A  n  B

ERROR DE LA MEDIA:

Sea: z
 zi 
z1  z 2  ...  zn

z1 z 2
  ... 
zn
n n n n n
Sea “” el error de cada medición,

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 14 de 84

       
2 2 2 2

z   z1    z 2    z 3   .... zn 
2

 n   n   n   n 
por tratarse de mediciones de igual precisión: 1 = 2 = .... = n
 2
2

 z  n  
2

n n

z 
n
El error medio de la media se obtiene del error medio de una observación divido por la raíz del
número de observaciones. Por ejemplo, es necesario hacer 4 observaciones para reducir el error
a la mitad y 100 veces para reducirlo a 0,1 del original.

5.2 EJEMPLOS ILUSTRATIVOS

Ejemplo: nivelación trigonométrica topográfica


Sean los siguientes datos de terreno con sus precisiones asociadas, estimar el error del desnivel
H

 H=Di*cosZ+hi-hj

Di = 425.000 m ±0.080 m
Z (g)= 110.0000 g ±0.0030 g
hi = 1.400 m ±0.010 m
hj = 1.800 m ±0.010 m

2
 H  2  H  2  H  2  H  2
2 2 2

 H     Di     z    hi     hj
 Di   z   hi   hj 

H
 cos z
Di
H
  Di  senz
z
H
 1
hi
H
 1
hj

 Dh  cos z 2 (0,080) 2  Di  senz 0.0000471 2  (0.01) 2  (0.01) 2


2

 Dh   0.0125 2   0.0198   (0.01) 2  (0.01) 2


2

 Dh  0.027 m

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 15 de 84
Ejemplo propuesto: En una esfera perfecta de radio R=6.378.000m se materializa su perímetro
por una cuerda “ideal” no elástica, sobra 1m de cuerda en su perímetro, se unen los extremos y
se extiende la cuerda a altura constante. ¿Cuánto se levanta la cuerda sobre la esfera?

Propuesta topográfica: Siendo los ángulos de una poligonal, o un triángulo, de igual precisión y
de diferentes magnitudes, ¿estos se deben “compensar” por partes proporcionales o por partes
iguales?
Indicio: un ángulo es la diferencia entre dos direcciones, por consiguiente es una función
constante: a=d2-d1, de esa forma el error del ángulo no depende de su magnitud, depende sólo
de la precisión de los calajes.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 16 de 84
6. PESO DE LAS OBSERVACIONES

Usualmente los datos son medidos con diferentes grados de precisión, asociándoles diferentes
confianzas o pesos.
Peso es la ponderación relativa entre valores observados, cuando es comparado con otro valor;
el peso estima o expresa la relativa confiabilidad de una observación.

Cuando las mediciones son correlacionadas, los pesos son relacionados al inverso de la matriz de
covarianzas . Siendo los pesos relativos, varianzas y covarianzas son reemplazados por
cofactores. Un cofactor es la relación entre la covarianza y una varianza de referencia:
ij2
qij  (coeficiente de peso)
o2
Matricialmente:
1
Q  (matriz cofactora o de coeficientes de peso)
o2

De esa manera la matriz de pesos P (también denominada Q), es:

P  Q 1   o2  1

Para observaciones no correlacionadas, las covarianzas son cero, por lo tanto la matriz  es
diagonal:
 o 
 2 0 ... 0 
 x1 
 o
P 0 ... 0    o  1 …………….. 1
 2x 2  pi  (proporcional)
 ...  i2
... ... ... 
 o 
 0 ... 0 
 n 

MEDIA PONDERADA

Sean “n” observaciones separadas en dos conjuntos “na” y “nb”, tal que n = na+nb
Media conjunto a: za = (zai/na)
Media conjunto b: zb = (zbi/nb)
Haciendo na = pa y nb = pb
(mientras mayor número de observaciones, más confiable es la observación, mayor peso)
pa  za  pb  zb  pi  z i
z 
pa  pb  pi
Por ejemplo, una distancia “d” es medida por dos grupos. El primero logró una media de 65,37m
con 3 mediciones, el segundo calculó 65,32m con 10 mediciones. Por lo tanto la media
ponderada debe ser:

65,37  3  65,62  10
z  65,562
3  10

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 17 de 84

6.2 PESOS EN LA NIVELACIÓN GEOMÉTRICA

Sea una línea de longitud “l”, con avances en distancia “d”,  la desviación estándar por cada
instalación del instrumento:

C
B
d d
A d
d l2
d
l1

Número de instalaciones por línea N = l/d


12 = N 2 = (l1/d) 2
22 = N 2 = (l2/d) 2
n2 = N 2 = (ln/d) 2

2: desviación estándar por instalación


n2: desviación estándar de la línea

l = l1+l2+..+ln

Siendo el peso inversamente proporcional a la varianza y esta también lo es respecto a la línea;


el peso de una línea nivelada es:

1 d
p1  
1
2
l1 2
d
pero los son todos proporcionalmente iguales, de esa forma
2
1 1 1
p1  ; p2  ; pn 
l1 l2 ln

Los pesos en nivelación son inversamente proporcionales a sus longitudes y a su vez, la longitud
es proporcional al número de instalaciones, por lo tanto, los pesos son inversamente
proporcionales al número de instalaciones. De allí que las normas técnicas de la nivelación
geométrica especifiquen las tolerancias respecto a √k, siendo k el desarrollo en kilómetros.

6.3 PESO EN LA MEDICIÓN ANGULAR

Sean 3 ángulos (a1, a2, a3) de un triángulo plano, que fueron medidos n1, n2 y n3 veces
respectivamente por el mismo instrumento.

La media de cada ángulo es:

1 
 a1 ; 2 
 a2 ; 3 
 a3 ;
n1 n2 n3
(en este caso  denota sumatoria)

Sea  la desviación estándar cada ángulo medido,


La varianza de la media es:

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 18 de 84
1 2 1 1
 2 1    ;  2 2    2 ;  2 3   2
n1 n2 n3

Nuevamente, los pesos son inversamente proporcionales a la varianza, relativamente los pesos
de los ángulos son:
1 n1
p1    n1
 1
2
2
1 n2
p2    n2
 2
2
2
1 n3
p3    n3
 3
2
2

Los pesos de los ángulos son proporcionales al número de mediciones efectuadas (bajo las
mismas condiciones).

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 19 de 84
7. SISTEMAS DE ECUACIONES
ELIMINACIÓN POR GAUSS Y TEOREMA DE TAYLOR

En ajuste los cálculos frecuentemente tienen grandes sistemas de ecuaciones lineales. El


método matricial es útil para uso en computadores, sin embargo no es lo más fácil para resolver
problemas “manualmente”. A veces existen sistemas de tamaño moderado que pueden ser
resueltos sin computador. La eliminación gaussiana (o por Gauss), envuelve sucesivas
eliminaciones de ecuaciones e incógnitas de un sistema de ecuaciones lineales.

a11  x1  a12  x 2  a13  x 3  ....  a1n  xn 0 (e 1 )


a 21  x1  a 22  x 2  a 23  x 3  ....  a1n  xn 0 (e 2 )

an1  x1  an 2  x 2  an3  x 3  ....  ann  xn 0 (e n )

El primer paso es eliminar la incógnita x1 y reducir el Nº de ecuaciones a (n–1). Esto se logra


multiplicando la ecuación 1 (e1) por (1/a11). El resultado será la ecuación (e1*), que es
multiplicada por (a21) y se restará a la ecuación (e2), que se denominará (e22). La ecuación
(e1*) es sucesivamente multiplicada por (a31) y restada a (e3), multiplicada por (a41) y restada
a (e41), así con todas las ecuaciones. El resultado es un sistema de (n–1) ecuaciones, que
contiene de x2 a xn incógnitas.

El método se repite a las (n–1) ecuaciones, hasta llegar a 1 ecuación con 1 incógnita.
El procedimiento es calcular las incógnitas de las ecuaciones reducidas, llamada frecuentemente
de “retro solución”.

Ejemplo:

2y1  4y2  y3  11  0 (e1)


- y1  3y2 - 2y3  16  0 (e2)
2y1 - 3y2  5y3 - 21  0 (e3)

y1  2y2  12 y3  112  0 (e1) * 12  (e1*)


- y1  3y2 - 2y3  16  0 (e2)
2y1 - 3y2  5y3 - 21  0 (e3)

y1  2y2  12 y3  112  0 (e1) * 12  (e1*)


5y2 - 32 y3  43
2 0 (e2) - (e1*) * (-1)  (e22)
2y1 - 3y2  5y3 - 21  0 (e3)

y1  2y2  1
2 y3  112  0 (e1) * 12  (e1*)
5y2 - 3
2 y3  43
2 0 (e2) - (e1*) * (-1)  (e22) sistema de (n–1)=2
- 7y2  4y3 - 32  0 (e3) - (e1*) * 2  (e32)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 20 de 84

y2 - 3
10
y3  43
10
0 (e22) * 1/5  (e22*)
- 7y2  4y3 - 32  0 (e31)  (e1*) * 2  (e32)

y2 - 0,3y3  4,3  0 (e22) * 1/5  (e22*)


sistema de (n–2)=1
1,9 y3 - 1,9  0 (e32)  (e22*) * (7)  (e33)

retro solución:

y3  1 de (e33)

- 7y2  4  (1) - 32  0 ; y2  - 4 de (e32)


2y1 - 3(-4)  5(1) - 21  0 ; y1  2 de (e3)

Varios autores han creado refinamientos de la eliminación de Gauss

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 21 de 84
8. SERIE DE TAYLOR

En ajuste es usual trabajar con ecuaciones no lineales. Resolver ecuaciones no lineales no es


tarea fácil. Para esto se recurre a la linealización por serie de Taylor.

Sea una observación L referida a dos parámetros desconocidos x e y, por coeficientes no


lineales:

L = f(x,y) (1)

Por el Teorema de Taylor, la función se puede representar por:

 L   2L   nL   L   2L   nL 



  dx  2   dx 2
 
 x n  dx n
 
 y  dy  
 y 2  dy 2
 n  dy n
 x  o  x o  o  o  o  x  o
L  f(x, y)  f(x o , y o )    .....     ..... 
1! 2! n! 1! 2! n!

(2)
(x0,y0) son aproximaciones de (x,y) y f(x0,y0) es la función no lineal evaluada en (x0,y0)
  nL 
  son derivadas parciales
 x n 
 

dx y dy son las correcciones


x = x0 + dx
y = y0 + dy (3)

A mayor grado en las ecuaciones, más exacta es la serie de Taylor

Si todos los términos que contienen derivadas más altas que 1er grado, se eliminan, resulta:

 L   L 
L  f(x, y)  f(xo , y o )    dx    dy (4)
 x  0  y  0
otra forma de expresar:
F
F(X)  F(Xo )  y
X Xo

Cuando se tengan los valores iniciales (x0,y0), solo restan como incógnitas dx y dy

La solución sigue los siguientes pasos:


1. Seleccionar aproximaciones iniciales de las incógnitas
2. Reemplazar los valores aproximados y resolver dx y dy
3. Calcular valores mejores estimados con (x = x0 + dx; y = y0 + dy)
4. Usando los últimos valores, repetir 2 y 3
5. Continuar hasta que las correcciones dx y dy sean suficientemente pequeñas (tolerancias)

EJEMPLO ILUSTRATIVO

f = x+y–2y2 = –4
g = x2+y2 = 8

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 22 de 84

f f
 1;  1  4y
x y
g g
 2x ;  2y
x y
1ª aproximación: xo=1 ; yo=1

linealización:
f f
f  f (x o , y o )  dx  dy
x y
g g
g  g( x o , y o )  dx  dy
x y

Primera iteración:
f = 1+1–2(1)2+dx+[1–4(1)]dy = –4
g = (1)2+(1)2+2(1)dx+2(1)dy = 8
dx = 1,25
dy = 1,75

de donde: x = xo + dx = 2,25
y = yo + dy = 2,75

2ª iteración:
nuevos valores aproximados:

xo = x = 2,25
yo = y = 2,75
f = 2,25+2,75–2(2,75)2+dx+[1–4(2,75)]dy = –4
g = (2,25)2+(2,75)2+2(2,25)dx+2(2,75)dy = 8
dx = –0,25
dy = –0,64

de donde: x = x0 + dx = 2,25–0,25 = 2,00


y = y0 + dy = 2,75–0,04 = 2,11

Tercera iteración:
f = 2+2,11–2(2,11)2+dx+[1–4(2,11)]dy = –4
g = (2)2+(2,11)2+2(2)dx+2(2,11)dy = 8
dx = 0,00
dy = –0,11

de donde: x = x0 + dx = 2,00 + 0,00 = 2,00


y = y0 + dy = 2,11–0,11 = 2,00
Cuarta iteración:
f = 2+2–2(2)2+dx+[1–4(2)]dy = –4
g = (2)2+(2)2+2(2)dx+2(2)dy = 8
dx = 0,00
dy = 0,00

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 23 de 84

8.1 LINEALIZACIÓN DE UNA ECUACIÓN DE OBSERVACIÓN DE DISTANCIA

Existen dos tipos de observación en control horizontal terrestre (poligonales electrónicas):


ÁNGULOS Y DISTANCIAS.

En ajuste de posiciones horizontales por el MMC, las ecuaciones son escritas respecto a las
cantidades observadas y sus errores asociados; frecuentemente este método es llamado
“variación de coordenadas”.

Lab es la observación de distancia en (xa,ya), Vab es el error residual de la distancia y (xa,ya),


(xb,yb) son las coordenadas más probables de A y B.

Lab  Vab  (xb - xa) 2  (yb - ya) 2 (5)

donde Lab  Vab  F(xa, ya, xb, yb) y

F( xa , ya, xb , yb)  (xb - xa) 2  (yb - ya) 2 (6)

Según visto antes, la linealización por Taylor de la función F, después de despreciar los términos
mayores que 2, se escribe:

 F   F 
F( xa , ya )  F( xa o , ya o )   dxa    dya (7)
    xa  o  
ya  o
incógnitas aproximaci ones  
correcciones

F
de forma matricial: F(X)  F(Xo )  y
X Xo

donde: XT= [ xa ya ]
XoT= [ xa0 ya0 ]

 F 
 xi  es la derivada parcial de F respecto a xa, evaluada para la aproximación inicial.
 o

xio .... son las aproximaciones


xi.... son las incógnitas
dxi.... son las correcciones a las aproximaciones xo

se puede escribir:

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 24 de 84
xa = xao + dxa
ya = yao + dya

Haciendo:

Lij o  (xj o - xi o ) 2  (yjo - yi o ) 2

ahora las derivadas parciales de (6): F (xb - xa) 2


 (yb - ya)2 
F 1
xa
 
 2 ( xb  xa ) 2  ( yb  ya ) 2 2  2( xb  xa )  (1) 
1

 xb  xa

( xb  xa ) 2  ( yb  ya ) 2

Evaluando la derivada con los valores aproximados


F xa o  xb o F ya o  yb o
  (8)
xa Lab o ya Lab o

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 25 de 84

8.2 LINEALIZACIÓN DE UNA ECUACIÓN DE OBSERVACIÓN DE ÁNGULO

Un ángulo puede ser expresado como la magnitud (angular) entre dos direcciones y las
direcciones pueden ser definidas a partir de azimutes, de esa forma:
 x1  xa   x 2  xa 
F(xa, ya, x1, y1)  arctg    arctg   (9)
 y1  ya   y 2  ya 

La ecuación (9) relaciona el ángulo observado () a su error residual V y a las coordenadas más
probables de los puntos involucrados. Sean las coordenadas de los puntos 1 y 2 fijas y del punto
A variables, de esa forma la serie de Taylor truncada al 1er orden queda:
 F   F 
F( xa , ya )  F( xa 0 , ya 0 )   dxa    dya (10)
    xa  0  ya  0 
incógnitas aproximaci ones 
correcciones

La derivada de la función y=arctg(x) es: arctg ( x ) ´ 1


1 x2
haciendo la derivada solo del primer término respecto a xa:
F 1 1 1 1 1 1
 ·  ·  ·
xa  x 2  xa  ( y2  ya ) 1  ( x 2  xa ) ( y2  ya )
2 2
( x 2  xa ) ( y2  ya )
2

1    1
 y2  ya  ( y2  ya ) 2
( y2  ya ) 2
F 1 1 1
 · 
xa ( y2  ya )  ( x 2  xa ) ( y2  ya )
2 2
( y2  ya )  ( x 2  xa ) 2
2

( y2  ya ) 2 ( y2  ya )

F ( y2  ya ) ( y2  ya )
 
xa ( y2  ya ) 2  ( x 2  xa ) 2 L2 a 2

La expresión completa queda:


F y2 o  ya o y1o  ya o
 
xa L2a 2 o L2a1o

repitiendo lo anterior respecto as ya:


F x 2  xa o x1o  xa o
- o2  (12)
ya La 2o L2a1o

Las ecuaciones (8) y (12) son observaciones linealizadas.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 26 de 84

LA MEDIA SEGÚN MÍNIMOS CUADRADOS

el valor más probable es la cantidad tal que la suma de los cuadrados de los residuos es
mínima.

Los errores en mediciones se comportan de acuerdo a la ley de probabilidades y siguen la teoría


de la distribución normal.

Sean “n” mediciones independientes z1, z2, ... zn y “M” el valor más probable, entonces:

z1 – M = v1
z2 – M = v2 (1)
 zi
zn – M = vn y M sumatoria de observaciones de igual peso
n
(vi: residuos)

pero en caso de pesos diferentes:

p1 v12 + p2 v22 + ... +pn vn2 =  pv2 = mínimo (2)

La función del Valor Más Probable de la cantidad observada de repetidas mediciones es la que la
suma de los residuos al cuadrado sea mínima, es decir:
F
 0 , a su vez v=(z-M)
v

Reemplazando los residuos de la ecuación (1), la condición es forzada a ser respecto a la


variable desconocida M:

p1 (z1–M)2 + p2 (z2–M)2 + ... +pn (zn–M)2 = mínimo

por lo tanto, la condición de MC es impuesta por la diferenciación respecto a M e igualando a


cero:
F (v 2 )
  2p1(z1  M)(1)  2p2(z2  M)(1)  ....  2pn(zn  M)(1)
M M

p1(M  z1)  p2(M  z2)  ....  pn(M  zn)  0 , resulta que: p·z = pM

consecuentemente M
p zi i
(3)
p i

Se concluye que la Media Aritmética es el Valor Más Probable

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 27 de 84
9. ECUACIÓN DE OBSERVACIÓN

Las ecuaciones relacionan las cantidades medidas a los residuos; son llamadas ecuaciones de
observación, resultando una ecuación para cada observación.

Usualmente se tienen más observaciones que incógnitas, lo que permite determinar valores más
probables de las incógnitas basados en el principio de Mínimos Cuadrados. Para solución única, el
número de ecuaciones es igual al número de incógnitas.

Ejemplo ilustrativo, sea el sistema de ecuaciones:

1) x + y = 3,0
2) 2x – y = 1,5
3) x – y = 0,2

se tienen 3 ecuaciones y 2 incógnitas, que deben resolverse simultáneamente.

Sea n = Nº de observaciones o mediciones, en el ejemplo n=3 y


u = Nº de incógnitas, u=2
r = (n-u) = redundancia o grados de libertad, r=1

Se pueden rescribir:
4) x + y – 3,0 = v1
5) 2x – y – 1,5 = v2
6) x – y – 0,2 = v3

pareciera que v1 = v2 = v3 = 0 es una buena solución, pero no es así:


v12 = (x+y–3,0)2
v22 = (2x–y–1,5)2
v32 = (x–y–0,2)2

vi2 = (x+y–3,0)2 + (2x–y–1,5)2 + (x–y–0,2)2 = F(X)

derivando respecto a cada incógnita:


F( X)
 0 2(x+y–3,0) + 2(2x–y–1,5)(2) + 2(x–y–0,2)
x
F( X)
 0 2(x+y–3,0) + 2(2x–y–1,5)(-1) + 2(x–y–0,2)(-1)
y
12x–4y–12,4=0
–4x+6y–2,6=0

se llaman ECUACIONES NORMALES y haciéndolas igual a cero, se minimiza la función. Las


ecuaciones normales quedan:
6x – 2y – 6,2 = 0
-2x + 3y – 1,3 = 0

Resolviendo las ecuaciones se tiene que:


x = 1,514
y = 1,442

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 28 de 84
10. MÉTODOS DE MÍNIMOS CUADRADOS, SOLUCIÓN MATRICIAL

Existen diversos métodos para la aplicación de ajuste por Mínimos Cuadrados (MC)

Sean l = observaciones
x = el mejor estimador
v = residuos
l+v=x  l+v–x=0

Un Sistema de Ecuaciones Lineales, con observaciones sobre abundantes (redundantes), se puede


expresar matricialmente por:

nAu uX1 = nL1


con:
n = Nº de ecuaciones
u= Nº de incógnitas
de lo cual: (n-u) = grados de libertad (redundancia)
A: matriz a determinar
X: vector incógnitas o parámetros
L: vector observaciones

En el sistema anterior pueden ocurrir 3 situaciones:


1- si: n < u  no existe solución
2- si: n = u  existe solución única
3- si: n > u  existen “varias soluciones” (ninguna de ellas la más probable)

X = A-1 L (SOLO SI A ES CUADRADA Y NO SINGULAR, CASO Nº 2)

L + V = AX

10.1 ECUACIONES DE OBSERVACIÓN

Son dos las técnicas más usadas en ajuste:


 Ajuste de observaciones indirectas (observación)
 Ajuste de observaciones directas (condición)

El ajuste de observaciones indirectas tiene las siguientes características:


 Las ecuaciones de observación incluyen observaciones y parámetros
 El número de ecuaciones de observación es igual al número de observaciones o mediciones
 Cada ecuación de observación contiene solo una observación con coeficiente unitario
Cuando se observa directamente la incógnita deseada, se trata de una medición directa
incógnita
Cuando se observa indirectamente la incógnita deseada, parámetro: medida indirecta

Toda observación está afectada de errores aleatorios (residuos):


La = Lb + V

Lb: vector valores observados


La: vector valores observados ajustados

Xa = Xo + X

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 29 de 84

X: vector de correcciones
Xa: vector de los parámetros ajustados
Xo: vector de los parámetros aproximados

Cuando los valores observados ajustados pueden ser expresados explícitamente como una
función de los parámetros ajustados, se puede modelar por:

La = F(Xa)

Se dice que el ajuste se procesa por el MÉTODO DE LAS OBSERVACIONES INDIRECTAS, DE LOS
PARÁMETROS, O DE LAS ECUACIONES DE OBSERVACIÓN

Asumiendo que la función es no lineal, esta debe ser linealizada mediante la Serie de Taylor:
F
F(Xa) = La = Lb + V = F(Xo + X) = F(Xo) + X
Xa Xo
F
Haciendo las observaciones aproximadas Lo = F(Xo) y =A
Xa Xo
Se llega a:
Lb + V = Lo + AX, despejando V:

V = AX + Lo – Lb, pero L = Lo – Lb

Se obtiene el modelo linealizado del método de las observaciones indirectas (o de los


parámetros):

nV1= nAu uX1 + nL1

Gauss y Legendre  MMC

VTPV = mínimo

P: matriz de pesos de las observaciones


V = AX+L (6)
 = VTPV = mínimo
 = (AX+L)T P(AX+L) = mínimo
 = (XTAT+LT) P(AX+L) = mínimo
= XTATPAX + XTATPL + LTPAX +LTPL = mínimo

 2ATPAX + ATPL + ATPL + 0 = 0 (* ver derivación de matrices)
X

(ATPA)X + ATPL = 0 ,

SOLUCIÓN: X = (ATPA)-1 ATPL (7)

A: matriz de los coeficientes de las incógnitas (o matriz diseño de ecuaciones normales) de las
derivadas parciales

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 30 de 84

F
A (orden n x u)
X

Matriz de pesos de las observaciones:


Si las observaciones son no correlacionadas (independientes) la matriz pesos será diagonal,
conteniendo los inversos de las varianzas de las observaciones

P =  Lb-1  Lb-1: matriz diagonal de los inversos de la varianzas de las observaciones

Nótese que si se cambia el signo en (AX =Lb+V=La) a (AX =Lb-V=La), debe cambiar el signo de la
ecuación (7).

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 31 de 84

10.2 APLICACIÓN A NIVELACIONES:

Sea una red de nivelación

Altura Fija: HD = 129.582 m

l1= 2.093 m
l2= 18.248 m
l3= 16.250 m
l4= 33.977 m
l5= 15.701 m
l6= 18.969 m
l7= 35.179 m
l8= 3.278 m

Todas las mediciones tienen igual precisión; calcular las alturas de A, B, C y E.


Si no hubiera errores de observación, los desniveles en cada circuito debe ser cero, pero no es
así:
1. L1+L2+L3 = -0.095 m
2. L2+L4+L5 = 0.028 m
3. L3+L6+L7 = 0.040 m
4. L5+L6+L8 = 0.010 m

Los cierres indican que las alturas pueden tener diferentes valores dependiendo de las líneas que
se consideren como conexión, por lo tanto no son únicos, es por ello que deben ser “ajustadas”

Solución:
Nº de observaciones = 8 = Nº de líneas niveladas de la red
Nº de incógnitas (parámetros) = 4 = Nº de alturas a determinar
Redundancia = Nº obs. – Nº incog. = 4 (grados de libertad)

Todas las mediciones tienen igual precisión;


Modelo: L=F(X)

las 8 ecuaciones de observación son:


F1 = l1+v1 = HA–HB
F2 = l2+v2 = HA–HC
F3 = l3+v3 = HB–HC
F4 = l4+v4 = HA–HD
F5 = l5+v5 = HC–HD
F6 = l6+v6 = HC–HE
F7 = l7+v7 = HB–HE
F8 = l8+v8 = HD–HE

Las incógnitas son las alturas HA, HB, HC y HE, designadas por A, B,C y E, siendo HD fija.
A 
B F
A
X  X
C 
 
E 

A X - Lb = V
AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016
pag. 32 de 84

8A4 4X1 - 8Lb1 = 8V1

Matriz A
A B C E
L1 1 -1 0 0
L2 1 0 -1 0
L3 0 1 -1 0
L4 1 0 0 0
L5 0 0 1 0
L6 0 0 1 -1
L7 0 1 0 -1
L8 0 0 0 -1

AT
1 1 0 1 0 0 0 0
-1 0 1 0 0 0 1 0
0 -1 -1 0 1 1 0 0
0 0 0 0 0 -1 -1 -1

ATA (ATA)-1
3.0 -1.0 -1.0 0.0 0.53 0.33 0.27 0.20
-1.0 3.0 -1.0 -1.0 0.33 0.67 0.33 0.33
-1.0 -1.0 4.0 -1.0 0.27 0.33 0.47 0.27
0.0 -1.0 -1.0 3.0 0.20 0.33 0.27 0.53

Desniveles H Constantes L
2.093 0 2.093
18.248 0 18.248
16.250 0 16.250
33.977 - -129.582 = 163.559
15.701 -129.582 145.283
18.969 0 18.969
35.179 0 35.179
3.278 129.582 -126.304

Vector X de alturas ajustadas A, B,C y E


X
HA 163.557 m
HB 161.494 m
HC 145.278 m
HE 126.309 m

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 33 de 84
10.3 PRECISIÓN EN EL MÉTODO DE LAS ECUACIONES DE OBSERVACIÓN

MATRIZ VARIANZA-COVARIANZA 

Cuando las componentes son estadísticamente independientes, su correlación es nula

Coeficiente de Correlación :
 xy
Sean las variables x e y:  xy  -1 <  < 1
x  y
si = |1|  correlación máxima, x es función de y
si = 0  no correlacionadas, x e y son independientes

MATRIZ DE COVARIANZAS 
 2  13 ...
 1 12
2 
   21  2  23 ...
  32 32 ...
 31 
 ... ... ... ...

para  = 0  la matriz varianza-covarianza de los valores observados es diagonal:

 2 0 0 ...
 1 
 0 22 0 ...
L 
 0 0 3 2 ...
 
 ... ... ... ...

En este caso: se denomina matriz de coeficientes de peso (Q) y matriz de pesos (P) a:

1
Q L varianza unitaria
o
2

P  Q-1  o 1L
2

Nótese que él escalar  también tiene la función de tornar adimensionales las unidades de la
matriz P

Si la matriz es diagonal (observaciones independientes):

o
2

pi 
i
2

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 34 de 84

 1   1 
 2 0 0 ...  2 0 0 ...
 1   1 
 0 1
0 ...  0 1
0 ...
PL  0   2
2  pero si 0 = 1  PL   2
2 
 1   1 
 0 0 ...  0 0 ...
 3
2
  3
2

 ... ...  ... ...
 ... ...  ... ...

Lo anterior significa estimar la precisión de las mediciones (L) efectuadas, con objeto de
componer la matriz de pesos (P)

10.4 USO DE LA MATRIZ DE COVARIANZAS

La varianzas i2 y covarianzas ij, de las componentes de una variable n dimensional X pueden
ser colocadas en una matriz x cuadrada simétrica de orden (nxn), de esa forma:
 12 12 13 
 
x   21  22  23 
 31  32  32 

Para un caso no lineal (modelo no lineal) general Y=F(X) se aplica el modelo de propagación de
las covarianzas:

F
para Y=F(X) y = D x DT con : D = (modelo general)
X Xo

Recordando que en el modelo de Ecuaciones de Observación:


X = -(ATPA)-1 ATPL si = (ATPA) = N y L = Lo – Lb

X = -N-1 ATP(Lo–Lb)

X = -N-1 ATP Lo+N-1 ATP Lb

Aplicando la ley de propagación de Covarianzas a través de: x = G Lb GT


X
resulta G = = N-1 ATP
L b

pero las matrices N-1 y P son simétricas

GT = (N-1 ATP)T = PT A(N-1)T = PAN-1

y Lb =  o2 P-1

x = N-1 AT P  o2 P-1 PAN-1 = x =  o2 N-1 AT PAN-1


2
pero N = (ATPA) , entonces: x =  o N-1 N N-1

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 35 de 84

2
finalmente: x =  o N-1

recordando que: Xa = Xo – X  xa = x

2
MVC de los parámetros ajustados: xa = ̂ o N-1

L + V = AX  L = AX-V, aplicando la ley de propagación La = A x AT

2
MVC de las observaciones ajustadas: La = ̂ o AN-1AT

recordando que La = Lb + V  V = La – Lb

v = La – Lb y Lb = P-1


2
MVC de los residuos: v = ̂ o (AN-1AT–P-1)

10.5 VARIANZA (A POSTERIORI) DE PESO UNITARIO

̂ o2 es la varianza posterior al ajuste (varianza aposteriori de peso unitario)

Antes de iniciar el proceso de ajuste no se definió el valor de 2, de esa forma tomó
implícitamente el valor “1”, lo cual no afecta el valor de los parámetros ajustados, por ese
motivo normalmente se escoge igual a 1.

P   o  Lb1
2
efectivamente, y
1 T 
X = -(ATPA)-1 ATPL = (A  Lb A)-1 ATLb L 
o
2

X = (ATLb A)-1 ATLb L

Después del Ajuste se debe estimar la “Varianza de la Unidad de Peso A Posteriori” ̂2o para
determinar la Matriz de Covarianzas x de los parámetros ajustados
V T PV
ˆ 
2

nu
o

V puede ser calculado directamente a partir de los residuos resultantes, o de:

V T PV  X T U  LT PL

Comparación entre o2 y ̂o2 :

Siendo los pesos asignados correctamente, es decir las varianzas de las observaciones fueron
asignadas en forma realista, la varianza a posteriori debería resultar de valor “1”.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 36 de 84

El valor inicial de sigma no afecta los valores de los parámetros en el ajuste, pero si resulta un
sigma a posteriori diferente de 1, puede implicar que la asignación de los pesos no fueron
adecuados, es decir que las varianzas de las observaciones fueron sobre o subestimadas,
indicando en algunos casos la presencia de errores groseros.

Para la comparación de las varianzas a priori y a posteriori se puede recurrir al Test de Chi
Cuadrado.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 37 de 84
11. TEST DE CHI CUADRADO

En ajuste se formula inicialmente una varianza poblacional, denominada hipótesis nula Ho,
mientras que otra hipótesis H1, tal que Ho ≠ H1, es llamada de alternativa.

DISTRIBUCIÓN CHI CUADRADO (χ2 )

La distribución de Pearson χ2 (según Ghilani, 2010) compara la relación entre la varianza de la


varianza (a posteriori) de la muestra 𝜎̂𝑜2 con la varianza de la población σ2𝑜 basado en los grados
de libertad ν.
ν 𝜎̂𝑜2 𝑉 𝑇 PV
χ2 = =
σ2𝑜 σ2𝑜

La distribución χ2 en el muestreo estadístico se usa para determinar la discrepancia entre una


distribución observada y otra teórica, llamado “bondad del ajuste”, es decir el rango en el cual
la varianza de la población σ2𝑜 se espera que ocurra, basado en un porcentaje de probabilidad
, la varianza de la muestra 𝜎̂𝑜2 y el número de grados de libertad ν. Para encontrar el área bajo
la cola de la curva comenzando de un valor específico de χ2 hasta infinito.
La prueba de chi-cuadrado necesita la comparación del χ2 de prueba (muestra) con χ2 teórico
(tabla). Si el valor de prueba es menor que el valor tabular, la hipótesis nula es aceptada, en
caso contrario, Ho es rechazado
Ho = 𝜎̂𝑜2 = 1: toda la población es homogénea (aleatoria)
H1 = 𝜎̂𝑜2 ≠ 1: NO toda la población es homogénea

Por ejemplo, para un valor referido al 1% ( = 0.010) del área bajo la curva, con 10 grados de
libertad, la tabla de la columna 0.010 muestra el valor de χ2 = 23.21, ello significa que el 1% del
área bajo esa curva está contenida entre los valores 23.21 e infinito.
Por otro lado debido a la asimetría de la curva, la parte baja de la curva (lado izquierdo), el
valor debe ser calculado a partir de (1-), para el mismo ejemplo de 10 grados de libertad y un
valor de 1% de área bajo la curva al lado izquierdo, se obtiene un valor de 2.56, ello significa
que el 1% de la curva está comprendida entre 0 y 2.56.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 38 de 84
La distribución χ2 se aplica para determinar el rango en el cual la varianza esperada de la
población puede ocurrir basada en una cierta probabilidad (), la varianza de la muestra (σ
̂2o ) y
el número de grados de libertad (ν)

La zona de rechazo es:


χ2 > χ2 α,ν

Ejemplo: sean los datos y resultados de estimación de parámetros de Helmert 2D para la


transformación entre coordenadas UTM en SAD69 y WGS84, presentado previamente.
SAD69 UTM WGS84 UTM
Punto Este Norte Este Norte
P1 294005.467 4228251.991 293935.454 4228231.995
P2 297515.665 4227082.228 297445.653 4227062.255
P3 297322.854 4226828.555 297252.845 4226808.582
P4 258766.986 4264935.032 258696.796 4264914.762
P5 257947.743 4264329.115 257877.558 4264308.841
P6 321040.665 4205829.514 320970.754 4205809.717
P7 320818.283 4205811.219 320748.373 4205791.421
P8 334304.225 4229865.104 334234.090 4229845.383
P9 370259.532 4044915.736 370192.334 4044896.446
P10 371854.916 4057424.229 371787.646 4057404.942

ν = 20 – 4 = 16
Precisión estimada de las coordenadas = ±0.1m
σ2o = 4.24
̂
χ2 de prueba (muestra) = 67.82
 = 0.05 (5%)
χ2 teórico (tabla) cola derecha = 26.30
Prueba: 8.82 < 26.30

χ2 de prueba (muestra) no está en la zona de aceptación


Ho = 𝜎̂𝑜2 = 1: toda la población es homogénea (aleatoria)
Se rechaza la hipótesis, la población no es homogénea, los datos no son “aceptables”

Análisis de 𝛔
̂ 𝟐𝐨
En el ajuste recién realizado se asignaron errores en las coordenadas estimados en ±0.1m, lo
cual resultó σ
̂2o = 4.24, indicando sobreestimación de las precisiones.
En caso de adoptar como ponderador de sigma apriori un valor de, por ejemplo 4, con ello se
reasignan pesos y la varianza aposteriori σ
̂2o ahora resulta 1.06.
σ2o = 1.06
̂

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 39 de 84
χ2 de prueba (muestra) = 16.95
 = 0.05 (5%)
χ2 teórico (tabla) cola derecha = 26.30
Prueba: 6.95 < 26.30

χ2 de prueba (muestra) está en la zona de aceptación


Ho = 𝜎̂𝑜2 = 1: toda la población es homogénea (aleatoria)
Se acepta la hipótesis, la población es homogénea, los datos son “aceptables”

Caso del ejemplo 17.3


ν=6
Precisión estimada de las coordenadas = 12mm + 8PPM
σ2o = 13.17
̂
χ2 de prueba (muestra) = 79.01
 = 0.05 (5%)
χ2 teórico (tabla) cola derecha = 12.59
Prueba: 79.01 < 12.59

χ2 de prueba (muestra) no está en la zona de aceptación


Ho = 𝜎̂𝑜2 = 1: toda la población es homogénea (aleatoria)
Se rechaza la hipótesis, la población no es homogénea, los datos no son “aceptables”

Analizar la reasignación de pesos modificando la varianza apriori

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 40 de 84
12. MÉTODO DE LAS ECUACIONES DE CONDICIÓN

Son dos las técnicas más usadas en ajuste:


 Ajuste de observaciones indirectas (observación) y,
 Ajuste de observaciones directas (condición)

Algunas clases de medición son condicionadas a un valor, por ejemplo cierre angular o de
desniveles, dando lugar a un “error de cierre” (por ejemplo en el cierre angular de un polígono,
los ángulos interiores ajustados deben sumar 180º * (Nº lados–2)). Se dice que estas
observaciones son directas condicionadas (sujetas a ecuaciones de condición), de allí que este
método recibe indistintamente las denominaciones de:
o ecuaciones de condición,
o mediciones directas,
o los correlatos

CASO TEÓRICO GENERAL

Sean las ecuaciones sujetas a una condición:


ao+a1x1+a2x2+ ............. +anxn = 0
bo+b1x1+b2x2+ ............. +bnxn = 0
.
ro+r1x1+r2x2+ ................ +rnxn = 0
r ecuaciones de condición, n incógnitas (n>r)

cada incógnita está sujeta a un error (o residuo): xi = (li + vi)


ao+a1(l1 + v1)+a2(l2 + v2)+ ............. +an(ln + vn) = 0
……………..
ro+r1(l1 + v1)+r2(l2 + v2)+ ................. +rn(ln + vn) = 0

Sean los erorres de cierre wi:


w1 = ao+a1l1+a2l2 + ............. +anln
error de cierre w1
  
a o  a1l1  a 2l 2  ...  an ln  a1v1  a 2 v 2  .......... ... an v n  0
......
ro  r1l1  r2l 2  .......  r n ln  r1v 1  r2 v 2  .......... ...  rn v n  0
  
error de cierre wr
a o  a1l1  a 2l2  ...  an ln  w 1
ro  r1l1  r2l2  ....  r n ln  w r

las ecuaciones quedan:

a1v1  a 2 v 2  .......... ... an v n  w 1  0


...... “r” ecuaciones de condición transformadas
r1v1  r2 v 2  .......... ......  rn v n  w r  0

Las ecuaciones anteriores deben satisfacer los principios de los Mínimos Cuadrados y las
ecuaciones de condición, para ello se recurre a la técnica de Lagrange, o de los correlatos:
[pvv] = mínimo

v12+v22+.........+vn2 = mínimo
AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016
pag. 41 de 84

a1v1  a 2 v 2  .......... ... an v n  w 1  0


....
r1v1  r2 v 2  .......... ... r n v n  w r  0
ai v i   w 1  0
....
ri v i   w r  0
Multiplicando las ecuaciones anteriores por (-2kr), llamados Multiplicadores de Lagrange, y
sumandolas, resulta una función U:

 2ka i v i   2kw 1  0
....
 2kri v i   2kw r  0

U = –2 k1 ([av]+w1) –2 k2 ([bv]+w2) –.............–2 kr ([rv]+wr) = 0

según MC, [vv] = mínimo y U = 0, por lo tanto se puede definir una función F:
F = [vv] + U = mínimo
F = [vv] –2 k1([av]+w1) –2 k2 ([bv]+w2) –.............–2 kr ([rv]+wr) = mínimo

Luego la derivada debe ser cero:


F
 2vi – 2aik1 – 2bik2 –..........– 2rikr = 0
v i

Despejando cada residuo (vi):

v1 = aik1+ bik2+...........+rikr
v2 = a2k1+ b2k2+..........+r2kr
ecuaciones correlatas o de Lagrange
vn = ank1+ bnk2+..........+rnkr
Permiten calcular los residuos a partir de los multiplicadores de Lagrange

reemplazando y desarrollando la primera línea de las ecuaciones de condición transformadas:


a1a1k1+a1b1k2+..........+a1r1kr+ a2a2k1+a2b2k2+..........+a2r2kr+ .......... +
+anank1+anbnk2+..........+anrnkr+w1 = 0 (1a línea)

[aa]k1+[ab]k2+..........+[ar]kr + w1 = 0
[ba]k1+[bb]k2+..........+[br]kr + w2 = 0
ecuaciones normales
[ra]k1+[rb]k2 +.......... +[rr]kr + wr = 0

Las observaciones permiten calcular los errores de cierre, r ec. de condición  wr


Las ecuaciones normales permiten calcular los r valores de k, r ec. normales  ki
Las ecuaciones correlatos permiten calcular los residuos, n ec. correlatas  vi

Finalmente:
xi = li + vi

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 42 de 84

13. ECUACIONES DE CONDICIÓN (DEDUCCIÓN MATRICIAL)

Debido a que el método de las ecuaciones de condición, no depende de parámetros, el modelo


matemático es:

F(La) = 0
Con:
La = Lb + V  F(Lb + V) = 0
V=(La-Lb)

Linealizando por serie de Taylor, derivando parcialmente la función respecto a los valores
observados ajustados y eliminando los términos mayores que 2o orden, queda:

F
F(La) = F(Lb+V) = F(Lb) + (La – Lb) = 0
La
La función F(Lb) de los valores observados tiene significado de errores de cierre y se designa por
W:

W = F(Lb)

F
Sea r Bn = la matriz de las derivadas parciales
La Lb
Con r = n-u = No de ecuaciones de condición = No de funciones
n = No de observaciones = No de incógnitas

El modelo linealizado es:

BV + W = 0 ó BV = -W

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 43 de 84

12.1 ECUACIONES NORMALES

Para solucionar las ecuaciones se utiliza el método propuesto por Joseph Lagrange (1736-1813),
para solucionar funciones de máximos y mínimos con condiciones, incorporando el vector de
multiplicadores K a la ecuación anterior.

2KT(BV + W) = 0

Aplicando Mínimos Cuadrados a la función compuesta:

 = VTPV – 2KT(BV+W) = mínimo

K es el vector de (rx1) de los multiplicadores de Lagrange o correlatos.

Derivando respecto a V:

 2PV – 2BTK = 0  nPn nV1 – nBTr rK1 = 0
V

Resulta: V = P-1BTK

Recordando que:

rBn nV1 + rW1 = 0 y reemplazando V, resulta:

B P-1BTK = -W 

Despejando K, finalmente:

K = -(BP-1BT)-1W

Si M = BP-1BT
K = -M-1W

VALORES OBSERVADOS AJUSTADOS

Obtenido el valor de los correlatos los residuos son:


V = P-1BTK

Con lo que puede ser calculado el vector de los valores observados ajustados La:
La = Lb + V

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 44 de 84

12.2 MATRICES DE COVARIANZAS

Como en todo proceso de ajuste por mínimos cuadrados, queda por estimar la precisión de los
valores ajustados, es decir, la matriz de covarianzas.

MVC de los valores observados ajustados La:

Siendo La = Lb + V = Lb + P-1 BT M-1 W

Se aplica la ley de propagación de errores: La = D Lb DT


La
D= , debido a que W es función de Lb, entonces
L b
La W
D= = I – P-1 BT M-1
L b L b
F W F(Lb)
recordando que : rBn = resulta  B
La Lb L b Lb
entonces: D = I – P-1 BT M-1 B

de esa forma: La = (I – P-1 BT M-1 B) Lb (I – P-1 BT M-1 B)T


2
queda: La =  o (I – P-1 BT M-1 B) P-1 (I – BT M-1 B P-1)
2
La =  o (P-1 – P-1 BT M-1 B P-1) (I – BT M-1 B P-1)
2
La =  o (P-1 – P-1 BT M-1 B P-1– P-1 BT M-1 B P-1 + P-1 BT M-1 B P-1 BT M-1 B P-1)

pero: B P-1 BT M-1 = M M-1 = I y además restan dos términos iguales

La =  o2 (P-1 – P-1 BT M-1 B P-1) =  o2 P-1 (I – BT M-1 B P-1)


2
recordar que Lb =  o P-1
La = Lb (I – BT M-1 B P-1)

Resulta la MVC de los valores ajustados: La = Lb (I – BT M-1 B P-1)

MVC de los residuos V:

Siendo: V = La – Lb y Lb =  o2 P-1


2 2 2
anteriormente: La =  o P-1 (I – BT M-1 B P-1) =  o P-1 –  o P-1 BT M-1 B P-1
además: V = La – Lb
2 2 2
entonces: V =  o P-1 –  o P-1 BT M-1 B P-1 –  o P-1
V = –o2 P-1 BT M-1 B P-1

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 45 de 84

Resulta la MVC de los residuos: V = o2 P-1 BT M-1 B P-1

Varianza a posteriori:
V T PV
ˆ o2 
r
r = Nº ecuaciones de condición = Nº obs. redundantes = Nº grados de libertad

VTPV = –KTW

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 46 de 84

12.3 EJEMPLO EN POLIGONALES:

Un método para cálculo de poligonales utilizado hasta hoy fue propuesto por C. L. Crandall en
1901, se trata de ajustar la figura, considerando los azimutes fijos, haciendo variar las
distancias.
El método se basa en que partiendo de una compensación acimutal de una poligonal, seguida de
la “compensación” de las coordenadas, el resultado es la “descompensación” de los acimutes.
Este método es el adoptado para poligonales electrónicas de precisión en el Volumen 2 de
Manual de Carreteras del MOP-MCV2.

En este caso se recurre al ejemplo contenido en el MCV2, en que la poligonal inicia y termina en
líneas base, de coordenadas conocidas, donde se ha realizado previamente la compensación
angular.
Cabe resaltar que el método puede ser aplicado indistintamente a datos con distancias
topográficas horizontales o UTM.

Coordenadas de control, Sirgas UTM huso 18


Punto Este Norte
GPS A 268567.515 6322929.267
GPS A1 268211.525 6322762.377
GPS B 266224.815 6323504.917
GPS B1 265884.925 6323747.437

Los puntos A1 y B son de inicio y fin de poligonal; las diferencias de coordenadas de control son:

Dif E Dif N
(B-A1) -1986.710 742.540

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 47 de 84
Observaciones
DE A D proy Az Comp
GPS A GPS A1
GPS A1 E1 171.507 279.57824
E1 E2 137.941 308.98424
E2 E3 122.573 227.92624
E3 E4 235.802 320.79984
E4 E5 129.211 295.02704
E5 E6 133.442 360.13604
E6 E7 66.450 329.24873
E7 E8 153.265 358.61043
E8 E9 124.060 307.63033
E9 E10 683.125 321.34493
E10 E11 178.018 332.19373
E11 E12 126.389 357.35263
E12 GPS B 147.091 377.64443
GPS B GPS B1 339.45423

Desarrollo:

Considerando los acimutes fijos, se tiene una condición de cierre, en que la suma de las
coordenadas parciales entre puntos de control debe ser igual la diferencia de coordenadas entre
los puntos de control, entonces:
(lo mismo se aplica a una poligonal cerrada, siendo en este caso las coordenadas inicial y final,
las mismas)

Modelo funcional: F(La) = 0

En este caso las distancias son consideradas observaciones a ser ajustadas

F1 = dX = D*senA
F2 = dY = D*cosA (azimutes no varían)

L= distancias
r= 2 condiciones
n= 13 incógnitas = observaciones

2B13 = F/L

F1 F1 F1


.....
B  D1 D2 D3 senA1 senA2 senA3 .....
B
F2 F2 F2 cos A1 cos A 2 cos A3 .....
.....
D1 D2 D3

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 48 de 84
Cálculos intermedios

Cierres: W(m) BT M=B*BT K


-0.4238 -0.94899 -0.31531 8.6119 -2.6988 -0.0580
0.0333 -0.99006 0.14066 -2.6988 4.3881 -0.0281
-0.42473 -0.90532
-0.94710 0.32094
-0.99695 -0.07804
-0.58606 0.81027
-0.89630 0.44344
-0.60530 0.79600
-0.99283 0.11957
-0.94432 0.32904
-0.87484 0.48442
-0.62091 0.78388
-0.34399 0.93897

La: distancias
V: residuos dE dN
ajustadas
d1 0.064 171.4427 -162.697 -54.058
d2 0.053 137.8875 -136.517 19.395
d3 0.050 122.5233 -52.039 -110.923
d4 0.046 235.7560 -223.284 75.664
d5 0.060 129.1507 -128.757 -10.078
d6 0.011 133.4308 -78.198 108.115
d7 0.040 66.4107 -59.524 29.449
d8 0.013 153.2518 -92.764 121.988
d9 0.054 124.0055 -123.116 14.827
d10 0.046 683.0790 -645.043 224.759
d11 0.037 177.9808 -155.704 86.217
d12 0.014 126.3752 -78.468 99.063
d13 -0.006 147.0977 -50.600 138.121
Suma coordenadas parciales -1986.710 742.540
Dif con coords de control 0.000 0.000

Las coordenadas parciales fueron calculadas con los acimutes invariables y las distancias
ajustadas, de esa forma la suma de coordenadas parciales es igual a la diferencia de las
coordenadas de control, restando solo calcular las coordenadas finales ajustadas.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 49 de 84
14. MATRICES DE ROTACIÓN

En diversas aplicaciones de la geomensura principalmente en geodesia, topografía, cartografía y


fotogrametría, es necesario relacionar sistemas de referencia cartesianos rotados entre sí.

Sea un sistema cartesiano en el cual se rotan los tres ejes

El resultado es un sistema no paralelo al original, que puede ser relacionado mediante los tres
ángulos de rotación, Rz(), Rx(), Ry()

Tomando el primer caso de rotación sobre el eje Z, se denominará el sistema resultante por
(U,V)

Realizando las operaciones necesarias resulta:

u= x cos + y sen
v= -x seny cos

Lo mismo expresado matricialmente, mediante


una matriz de rotación 2D:

u   cos  sen  x 
v    sen cos    y 
    
     

La matriz de rotación 2D ampliada a 3D queda:

 x 2  cos  sen 0  x1


 y 2   sen cos  0   y1
 
 z1   0 0 1  z1

Considerando las tres rotaciones al sistema 3D

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 50 de 84

X 2   cos  sen 0  X 1 
Y    sen cos  0   Y1 
 2
 Z 2   0 0 1  Z1 

Las matrices de rotación a cada eje son:

 cos  sen 0 1 0 0  cos  0  sen 


R Z ()   sen cos  0 R X ()  0 cos  sen  R Y ()   0 1 0 
 0 0 1 0  sen cos    sen 0 cos  

Realizando el producto entre ellas resulta el modelo general de rotaciones entre dos sistemas
cartesianos:

cos   cos   sen  sen  sen sen  cos   cos   sen  sen  cos   sen 
R Y ()  R X ()  R Z ()    sen  cos  cos   cos  sen 
 cos   sen  sen  sen  cos  sen  sen  cos   sen  cos  cos   cos  
 

  , son llamados ángulos de Euler

Modelos similares al anterior tienen aplicaciones en fotogrametría

En aplicaciones geodésicas, en transformación de coordenadas con datum clásicos, los ángulos


son pequeños, en este caso

sen( =  cos( = 1 ; sen(sen() = 0 resulta la matriz de rotación 3D para ángulos


pequeños:

 1 R Z  R Y   1   

R3D   R Z  1  
R X      1  
 R Y   R X  1      1 

X 3   1     X 1 
 Y     1    Y1 
 3 
 Z 3      1   Z1 

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 51 de 84
15. ELIPSE DE ERRORES

Cuando se trata de coordenadas, en la etapa final del ajuste, después de obtener las
coordenadas ajustadas, se obtiene la matriz de covarianzas de los valores ajustados, dada por:
 2  xy 
 xy   x 
 xy  2y 

Las desviaciones estándar son estimaciones de errores al 68% de confianza.


Para el análisis de errores interesa el comportamiento de los valores de desviaciones estándar
máxima y mínima, las cuales están relacionadas al sistema de ejes cartesianos mediante una
matriz de rotación R(t):

u = x cos (t) + y sen (t)


v = –x sen (t) + y cos (t)

u x
v   R(t) y
   

 cos ( t ) sen ( t )
R( t )   sen ( t ) cos ( t )
 

Consecuentemente la MC de (u,v) puede ser calculada a partir de las anteriores (x,y) por
propagación:
 2   T
 (uv)   u uv  = D 
(x,y) D
2
 vu  v 
 u u 
 x y 
con D     R(t ) (1)
 v v 
 x y 

 cos ( t ) sen( t )   x  xy  cos ( t )  sen( t )


2
 (uv )   sen( t ) cos ( t ) ·  ·  (2)
   yx  2y  sen( t ) cos ( t ) 
desarrollando los elementos de la matriz uv :

2u = 2x cos2 t + 2y sen2 t +2xy cos t sen t


2v = 2x sen2 t + 2y cos2 t –2xy cos t sen t
xy = –(2x–2y) cos t sen t + xy (cos2 t – sen2 t)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 52 de 84
En el sistema de ecuaciones los elementos de (x,y) son conocidos, pero no así el ángulo de
rotación t:

La matriz queda:


  2x cos 2 t   2y sen 2 t  2 xy cos t sen t  - ( -  ) cos t sen t   (cos t - sen t) (3)
2 2 2 2

 ( uv)  
   sen t   co 2 t  2 cos t sen t 
x y xy

 - ( x -  y ) cos t sen t   xy (cos t - sen t)


2 2 2 2 2 2 2 s
x y xy

1- desarrollando para 2u = 2x cos2 t + 2y sen2 t +xy cos t sen t :
 ( u2 )
–2x cos t sen t + 2y cos t sen t +xy cos2 t –xy sen2 t
t
sen 2t = 2 sen t · cos t
cos 2t = cos2 t – sen2 t
sen2 t + cos2 t = 1
 ( u2 )
= –(2x –2y) cos t sen t + xy cos 2t
t

La primera derivada igualada a cero proporciona el ángulo t:


( 2u )
= –2x cos t sen t + 2y cos t sen t +xy cos2 t –xy sen2 t = o (4)
t

2 xy sen 2 t
tg 2 t   (5) permitiendo dos raíces t y (t+90º), que indican las direcciones
  2
x
2
y cos 2 t
ortogonales de los valores críticos

Si no existiera correlación entre las coordenadas (xy = 0) t=0º, la elipse de errores sería paralela
a los ejes XY.

2- desarrollando parav = 2x sen2 t + 2y cos2 t –xy cos t sen t, se logra igualmente:
2 xy
tg 2 t 
 2x   2y

  2u  uv 
Conocido el ángulo t, los elementos de  ( uv)    pueden ser calculados:
 vu  2v 
2u = 2x cos2 t + 2y sen2 t +xy cos t sen t
2v = 2x sen2 t + 2y cos2 t –xy cos t sen t
xy = –(2x–2y) cos t sen t + xy (cos2 t – sen2 t)

Extremos de la función :

2u = 2x cos2 t + 2y sen2 t +xy cos t sen t

Las funciones presentan extremos, los que pueden evaluadas a través de las segundas derivadas:
 2 ( 2u )
= –2(2x –2y) cos 2t – 4xy sen 2t = 0
t 2

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 53 de 84

 ( )
2 2
se tratará de dejar u
en función solo de varianzas y covarianzas (para reemplazar (sen t,
t 2

cos t, etc.), para ello se recurre a:

2 xy sen 2 t
de tg 2 t   se puede escribir:
 
2
x
2
y cos 2 t
2 xy 2x  2y
sen 2t  y cos 2t  (6)
M M
2 2
 2   2  2 
 xy   x y
sen2 2t  cos2 2t     1
 M  M 
   

sen 2t  cos
2 2
2t 
2    xy
2 2
x   2y 
2

 1 (7)
M2

M 2  4 xy    2x   2y
2
  2
(8)

de esa forma:
 2 ( 2u )
= –2(2x –2y) cos 2t – 4xy sen 2t , queda:
t 2

 2 ( 2u )  2x   2y 2 xy
t 2

  2 x  y
2 2

M
  4 xy
M
 2 ( 2u )
 

2  2x   2y 
2


 
8  xy
2

(9)
 t2 M M

La función tiene un máximo para M positivo (2ª derivada negativa) y un mínimo para M negativo
(2ª derivada positiva)

ELEMENTOS DE LA ELIPSE
2 xy  2x   2y
Reemplazando Las ecuaciones (6) sen 2t  y cos 2t  en:
M M
2u = 2x cos2 t + 2y sen2 t +xy cos t sen t
queda :
1 2 1
 2u  ( x   2y )  ( 2x -  2y ) cos 2t   xy sen 2t
2 2
1  ( x -  y )  2 xy
2 2 2 2
1 2
 u  ( x   y ) 
2 2

2 2  M 
 M
1
 2u  ( 2x   2y ) 
2
1 1
2M

( 2x -  2y ) 2  4 2xy 
pero: M 2  4  xy     2 2
x   2y 2

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 54 de 84
2
1 2 1M
 2u  ( x   2y ) 
2 2 M
1 1
 2u  ( 2x   2y )  M
2 2

Los máximo y mínimo de la función están relacionados a los valores máximo y mínimo de M:
1
 2u  ( 2x   2y  M) uv
2

De la misma manera:
1
 2v  ( 2x   2y  M) uv
2

Resumen
De las ecuaciones (5), (10) y (11), los elementos de la elipse son:
2 xy sen 2 t
tg 2 t   ángulo de rotación
 
2
x
2
y cos 2 t
1
 2u  ( 2x   2y  M) : máximo (semieje mayor de la elipse)
2
1
 2v  ( 2x   2y  M) : mínimo (semieje menor de la elipse)
2

Propiedad importante:
Sumando (10)+(11):
1 1
 2u (máx )   2v (mín )  ( 2x   2y  M)  ( 2x   2y  M)
2 2
máx   mín    x   y  cons tan te (12)
2 2 2 2

Ello significa que la suma de las varianzas en las dos direcciones ortogonales es constante

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 55 de 84
EJEMPLO

Sea la MC de las coordenadas de dos estaciones ajustadas P2 y P3:


x2 y2 x3 y3
x2 1.199 -1.660 0.099 -1.402
xy = y2 -1.160 2.634 0.193 2.725
x3 -0.099 1.193 0.583 0.460
y3 -1.402 2.725 0.460 3.962
Para P2:
t = 33.312º ángulo de rotación
 máx = 1.930 máxima desviación estándar
 mín = 0.329 mínima desviación estándar
Comprobación máx  2  mín  2   2x   2y = 3.833

Para P3:
t = -7.615º ángulo de rotación
 máx = 2.006 máxima desviación estándar
 mín = 0.722 mínima desviación estándar
Comprobación máx   mín    x   2y = 4.545
2 2 2

Queda a cargo del alumno graficar las elipses de errores

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 56 de 84

16. MÉTODO COMBINADO

Anteriormente se analizaron los métodos:


Modelo paramétrico de ecuaciones de observación  La = F(Xa)
Modelo de ecuaciones de condición o de correlatos  F(La) = 0

Existe un caso más genérico en que el modelo funcional se combinan observaciones y parámetros
bajo una condición, este es el caso del modelo combinado:

F(Xa,La) = 0
Según visto:
V = La-Lb (residuos)
X = Xa-Xo (parámetros)

∂F ∂F
A= | y B= |
∂Xa Xo ∂La Lb

En este caso los errores de cierre serán:


W = F(Lb,Xo)

Linealizando (según Gemael, 1994):

F F
F(Xa,La) = F(Xo+X,Lb+V) ≈ F(Xo,Lb) + (Xa-Xo) + (La-Lb) = 0
Xa Xo La Lb
Siendo: n= N°observaciones, u= N°parámetros, relacionados por “u” ecuaciones, resultan:

rAu uX1 + rBn nV1 + rW1 = r01

Los grados de libertad serán s = r-u, por lo tanto es necesario que n > r-u

Solución por Mínimos Cuadrados aplicando la técnica de multiplicadores de Lagrange:


F = VTPV – 2KT (AX + BV + W) = mínimo
Los mínimos respecto a V, K, y X serán:

 2PV – 2BTK = 0  PV – BTK = 0
V

 -2(AX + BV + W) = 0  AX + BV + W = 0
K

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 57 de 84


 -2AT K = 0  AT K = 0
X

Notar que las ecuaciones derivadas respecto a V, K y X, representan n+r+u ecuaciones,


relacionando “n“ residuos, “r“ condiciones y “u“ parámetros.
Desde el punto de vista matricial, las ecuaciones presentadas tienen tres incógnitas: V, K y X,
que pueden ser expresadas en conjunto como una matriz de matrices (hipermatriz):

P −B T 0 V 0 0
|B 0 A| |K| + |W| = |0|
0 AT 0 X 0 0

Órdenes:
P: (nxn), B: (rxn), A: (rxu), V: (nx1), K: (rx1), X: (ux1), W: (rx1)
Si A = 0, resulta el método de ecuaciones de condición.
Si B = I y W = L, resulta el método de ecuaciones de observación

Solución de las ecuaciones


−1
V P −B T 0 0
|K| = − |B 0 A| . | W|
X 0 AT 0 0

Se recurre al algoritmo de separación en submatrices del tipo:


A B E M 0
| |.| | +| | = | |
C D F N 0
[D − CA B]F + N − CA−1 M = 0
−1

P −B T 0 V 0 0
|B 0 A| |K| + |W| = |0|
0 AT 0 X 0 0

0 A B K W B
[| T | − | | P−1 (−B T 0)] . | | + | | − | | P−1 0 = 0
A 0 0 X 0 0

0 A −1 𝑇
[| T | − |−𝐵𝑃 𝐵 0|] . |K| + |W| − |0| = 0
A 0 0 0 X 0 0

−1 T
[|BP TB A|] . |K| + |W| = |0|
A 0 X 0 0

Se repite el algoritmo para eliminar el vector K:


AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016
pag. 58 de 84
(0-AT(BP-1BT)-1A)X+0-AT(BP-1BT)-1W = 0
AT(BP-1BT)-1AX = -AT(BP-1BT)-1W
X = -[AT(BP-1BT)-1A]-1 AT(BP-1BT)-1W
Haciendo M = BP-1BT
X = -[ATM-1A]-1 ATM-1W
Reemplazando: V = P-1BTK
En: AX + BV + W = 0
AX + B P-1BTK + W = 0
Reemplazando por M: AX + MK + W = 0
MK = -AX – W = -(AX + W)
K = -M-1(AX + W)
Reemplazando K en: AT K = 0
AT M-1(AX + W) = 0
AT M-1AX + AT M-1W = 0
AT M-1AX = -AT M-1W
Correcciones a los parámetros:

X = -(AT M-1A)-1 AT M-1 W

Parámetros ajustados:
Xa = Xo + X

8.1 COVARIANZAS EN EL MÉTODO COMBINADO

Partiendo de: V = P-1BTK


VTPV = KT B P-1 P P-1 BT K = KT B P-1 BT K
VTPV = KT M K

Pero K = -M-1(AX + W)
VTPV = -KT M M-1(AX + W) = - KT (AX + W) = - KT AX - KT W

Recordando que: AT K = 0
VTPV = - KT W

Varianza aposteriori
V T PV
̂o 2 =
σ
r−u

Matriz de covarianza de los parámetros


AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016
pag. 59 de 84

Siendo X = -(AT M-1A)-1 AT M-1 W, todas las matrices son constantes excepto W, que contiene los
errores a propagar a X

Haciendo Z = -(AT M-1A)-1 AT M-1  X = Z W

Recordando que los errores son función de las observaciones y parámetros aproximados: W=
F(Lb,Xo)
Propagación de errores a W:
∂W ∂W T
W = Lb [ ] = B Lb B T
∂Lb ∂Lb
̂o 2 B P−1 B T
W = σ

̂o 2 M
W = σ

Propagación de errores a X:
∂X ∂X T
X =  [ ] =σ̂o 2 Z M Z T
∂W W ∂W
̂o 2 (AT M −1 A)−1 AT M −1 M M −1 A (AT M −1 A)−1
X = σ

̂o 2 (AT M −1 A)−1
X = Xo = σ

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 60 de 84
17. TABLA RESUMEN DE LOS MÉTODOS
RESUMEN DE LOS MÉTODOS
Modelo ec. Modelo ec. condición
observación Observaciones Modelo Combinado
Observac. Indirectas directas Implícito
(Paramétrico) (Correlatos)
Modelo La = F(Xa) F(La) = 0 F(Xa,La) = 0
Modelo linealizado AX + L = V BV + W = 0 BV + AX + W = 0
Matriz de pesos P = 02 Lb-1 P = 02 Lb-1 P = 02 Lb-1
Matriz derivadas parciales F F F F
nAu = rBn = A= ; B=
(nxu) X a Xo L a Lb X a Xo L a Lb
NX + U = 0
MK + W = 0 MK + AX + W = 0
Ecuaciones Normales N = ATPA
M = BP-1BT M = BP-1BT
U = ATPL
Valores aproximados
X0 X0
parámetros
L = L0 – Lb
Función valores observados W = F(Lb) W = F(Lb)
L0 = F(X0)
Corrección a parámetros X = -N-1U X=-(ATM-1A)-1ATM-1W
Parámetros ajustados Xa = X0 + X Xa = X0 + X
Correlatos (Lagrange) K= - M-1W K=-M-1(AX + W)
Corrección a valores
V = P-1BTK V = P-1BTK
observados
Valores observados
La = Lb + V La = Lb + V
ajustados
Varianza unidad de peso (a V T PV V T PV V T PV
2o = 2o = 2o =
posteriori) nu r r u
VTPV = XTU + LTPL VTPV = -KTW VTPV = -KTW
MVC parámetros ajustados Xa = 2o N-1 Xa = 2o (ATM-1A)-1
MVC valores observados
La = 2o AN-1AT La = 2o (P-1-P-1BTM-1BP-1)
ajustados
n: Nº de observaciones
u: Nº de parámetros (incógnitas) r: Nº de ecuaciones de condición = Nº de funciones
(n-u): grados de libertad
Medida indirecta: parámetro
Lb: valores observados (n observac.)
Medida directa: incógnita
La: valores ajustados
02 : Varianza apriori
Xa: parámetros ajustados (u parámetros)
Lb-1: MVC valores observados
X0: parámetros aproximados
(precisión) (cuadrada diagonal)
X: correcciones a los parámetros
W: matriz error de cierre
Pasos método ecuac.de observación: Pasos método ecuaciones de condición:
1- calcular L = L0 - Lb 1- montar matriz error de cierre W
2- montar matriz derivadas A 2- montar matriz derivadas B
3- montar matriz pesos P 3- montar matriz pesos P
4- montar matrices N y U 4- montar matriz M
5- calcular correc X 5- calcular matriz K (mult. de Lagrange)
6- calcular param ajustados Xa 6- calcular correc valores obs V
7- MVC param ajust Xa 7- calcular valores obs ajustados La = Lb + V
8- varianza a posteriori 8- varianza a posteriori
9- MVC valores observados ajustados 9- MVC valores observados ajustados
(fuente: Gemael 1991)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 61 de 84

18. EJEMPLOS DE AJUSTE DE DATOS

Los ejemplos contenidos en esta sección son una muestra de las


posibilidades de aplicación en la geomensura del método de Mínimos
Cuadrados.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 62 de 84

17.1 TRANSFORMACIÓN ENTRE SISTEMAS GEODÉSICOS 3D.

La transformación de sistemas se puede realizar de varias formas.

 Parámetros geocéntricos
- 3 parámetros: solo translación (sistemas paralelos)
- 6 parámetros: translación (3) y rotación (3)
- 7 parámetros: translación, rotación y escala
- n parámetros: distorsiones, polinomios
-
 Modelos diferenciales: ej. Rapp, Veis, Molodensky, simplificadas de Molodensky, Vincenty.
 Modelos Cartesianos (o matriciales)

Transformación de Helmert 3D de 7 parámetros


Este modelo considera rotaciones, traslaciones y un factor de escala entre ambos sistemas
cartesianos 3D

 3 traslaciones de origen (TX, TY, TZ)


 3 rotaciones Rz(), Rx(), Ry()
 Factor de escala (k)

 X 3   TX   1    X1 
 Y    TY   k   1    Y1 
 3   
 Z 3   TZ      1   Z1 

Siendo los ángulos de Euler pequeños: K* = 

 X 3   TX   k    X1 
 Y    TY     k    Y1 
 3   
 Z 3   TZ      k   Z1 

X 3  TX  (k  X    Y    Z)
Y3  TY  (  X  k  Y    Z)
Z3  TZ  (  X    Y  k  Z)

Este modelo también es conocido como Bursa-Wolf


Una derivación del anterior, que considera un centroide (Xo,Yo,Zo) se conoce como Molodenky-
Badekas, este tiene la ventaja de reducir la correlación entre parámetros.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 63 de 84
EJEMPLO

Sea un conjunto de puntos con coordenadas conocidas en los sistemas geodésicos SAD69 y Sirgas,
con sus coordenadas originales geodésicas transformadas a cartesianas 3D.
Debido a que las alturas en los sistemas son de naturaleza diferente (ortométrica y elipsoidal),
estas no fueron consideradas, no afectando las transformaciones planimétricas.

Estimar parámetros de transformación que permitan convertir las coordenadas SAD69 a Sirgas.

Datos
Sistema 1 Sirgas Sistema 2 SAD69
Punto
X Y Z X Y Z
P1 1214010.833 -3737645.101 -5006782.753 1214093.163 -3737664.339 -5006777.353
P2 1216979.789 -3735590.647 -5007589.738 1217062.108 -3735609.850 -5007584.327
P3 1216726.817 -3735469.321 -5007740.697 1216809.133 -3735488.527 -5007735.289
P4 1191214.715 -3776508.572 -4983198.283 1191297.301 -3776528.058 -4983192.840
P5 1190273.295 -3776339.754 -4983548.798 1190355.879 -3776359.252 -4983543.363
P6 1233067.858 -3711888.809 -5021169.145 1233150.018 -3711907.838 -5021163.742
P7 1232853.774 -3711951.399 -5021175.402 1232935.933 -3711970.430 -5021170.000
P8 1252330.179 -3725070.665 -5006716.377 1252412.473 -3725089.395 -5006710.784
P9 1233197.318 -3574902.850 -5118918.668 1233276.904 -3574922.670 -5118913.923
P10 1238306.350 -3583760.764 -5111535.928 1238385.984 -3583780.506 -5111531.106

Modelo funcional: L=F(X)

L: observaciones (n= 3*N°puntos =30)


X: parámetros (u=7)

F1 = TX+kX+Y–Z
F2 = TY–X+kY+Z
F3 = TZ+X–Y+k Z

La = F(Xa)

En este caso se consideran como observaciones (L) las coordenadas del sistema 1, Sirgas

Vector de parámetros a estimar:

XT = [TX TY TZ  k ]

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 64 de 84
Montaje de la matriz A:
Nº de columnas = Nº de parámetros
F1 F1 F1 F1 F1 F1 F1
Nº de filas = Nº =1 =0 =0 =X = -Z =0 =Y
de puntos * 3
TX TY TZ Tk T T T
F 2 F 2 F 2 F 2 F2 F2 F2
=0 =1 =0 =Y =0 =Z = -X
TX TY TZ Tk T T T
F 3 F 3 F3 F3 F3 F3 F3
=0 =0 =1 =Z =X = -Y =0
TX TY TZ Tk T T T
… … … … … … …

Cada Punto ofrece 3 ecuaciones de observación, se tienen 7 incógnitas, por lo tanto son
necesarios mínimo 3 puntos para solucionar el ajuste.

Resultados:

Matriz A
1 0 0 1214093.2 5006777.4 0.0 -3737664.3
0 1 0 -3737664.3 0.0 -5006777.4 -1214093.2
0 0 1 -5006777.4 1214093.2 3737664.3 0.0
1 0 0 1217062.1 5007584.3 0.0 -3735609.9
0 1 0 -3735609.9 0.0 -5007584.3 -1217062.1
0 0 1 -5007584.3 1217062.1 3735609.9 0.0
1 0 0 1216809.1 5007735.3 0.0 -3735488.5
0 1 0 -3735488.5 0.0 -5007735.3 -1216809.1
0 0 1 -5007735.3 1216809.1 3735488.5 0.0
1 0 0 1191297.3 4983192.8 0.0 -3776528.1
0 1 0 -3776528.1 0.0 -4983192.8 -1191297.3
0 0 1 -4983192.8 1191297.3 3776528.1 0.0
1 0 0 1190355.9 4983543.4 0.0 -3776359.3
0 1 0 -3776359.3 0.0 -4983543.4 -1190355.9
0 0 1 -4983543.4 1190355.9 3776359.3 0.0
1 0 0 1233150.0 5021163.7 0.0 -3711907.8
0 1 0 -3711907.8 0.0 -5021163.7 -1233150.0
0 0 1 -5021163.7 1233150.0 3711907.8 0.0
1 0 0 1232935.9 5021170.0 0.0 -3711970.4
0 1 0 -3711970.4 0.0 -5021170.0 -1232935.9
0 0 1 -5021170.0 1232935.9 3711970.4 0.0
1 0 0 1252412.5 5006710.8 0.0 -3725089.4
0 1 0 -3725089.4 0.0 -5006710.8 -1252412.5
0 0 1 -5006710.8 1252412.5 3725089.4 0.0
1 0 0 1233276.9 5118913.9 0.0 -3574922.7
0 1 0 -3574922.7 0.0 -5118913.9 -1233276.9
0 0 1 -5118913.9 1233276.9 3574922.7 0.0
1 0 0 1238386.0 5111531.1 0.0 -3583780.5
0 1 0 -3583780.5 0.0 -5111531.1 -1238386.0
0 0 1 -5111531.1 1238386.0 3583780.5 0.0

Después de efectuar las operaciones matriciales necesarias, resulta:

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 65 de 84

Xa
TX (m)= -2.8488
TY (m)= 18.5226
TZ (m)= 25.4999
K= 1.00000137047
 (rad)= -0.0000029788
 (rad)= -0.0000054700
 (rad)= 0.0000177097

Aplicación de los parámetros ajustados

Coordenadas SAD69 transformadas a Sirgas residuos


Punto
X Y Z vX vY vZ
P1 1214010.871 -3737645.053 -5006782.776 0.038 0.048 -0.023
P2 1216979.854 -3735590.609 -5007589.749 0.065 0.038 -0.011
P3 1216726.880 -3735469.281 -5007740.710 0.064 0.040 -0.013
P4 1191214.360 -3776508.550 -4983198.375 -0.356 0.022 -0.092
P5 1190272.939 -3776339.725 -4983548.895 -0.357 0.029 -0.097
P6 1233068.165 -3711888.775 -5021169.101 0.307 0.034 0.044
P7 1232854.079 -3711951.364 -5021175.359 0.306 0.035 0.043
P8 1252330.456 -3725070.771 -5006716.253 0.277 -0.105 0.124
P9 1233197.186 -3574902.887 -5118918.667 -0.132 -0.038 0.002
P10 1238306.138 -3583760.867 -5111535.904 -0.212 -0.102 0.024

Queda a cargo del lector estimar y analizar la precisión (matriz de covarianzas) de los
parámetros ajustados, de las observaciones y de los residuos, además de calcular la correlación
entre parámetros.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 66 de 84

17.2 TRANSFORMACIÓN ENTRE SISTEMAS 2D

Para el mismo propósito del ejemplo anterior las coordenadas se transformaron cartesianas a
geodésicas y a UTM huso 19.

2 SAD69 UTM 1 WGS84 UTM


Punto
Este Norte Este Norte
P1 294005.467 4228251.991 293935.454 4228231.995
P2 297515.665 4227082.228 297445.653 4227062.255
P3 297322.854 4226828.555 297252.845 4226808.582
P4 258766.986 4264935.032 258696.796 4264914.762
P5 257947.743 4264329.115 257877.558 4264308.841
P6 321040.665 4205829.514 320970.754 4205809.717
P7 320818.283 4205811.219 320748.373 4205791.421
P8 334304.225 4229865.104 334234.090 4229845.383
P9 370259.532 4044915.736 370192.334 4044896.446
P10 371854.916 4057424.229 371787.646 4057404.942

Tratándose de sistemas 2D se intentará estimar una transformación adoptando el modelo de


Helmert 2D, advirtiendo que no es la única alternativa de modelo de transformación.

Rotación 2D para transformar del sistema 1 al 2.

u   cos  sen  x 
 v    sen cos  ·  y
     

TRASLACIÓN Y FACTOR DE ESCALA


Cuando los orígenes de ambos sistemas no coinciden, existe traslación. Esto se expresa
mediante Tx y Ty, si existe deformación por factor de escala K, queda:

Matricialmente:

U TX   K cos  Ksen  X


V   TY    Ksen K cos   Y
       

También el modelo puede ser solucionado usando las ecuaciones agrupando términos, método el
cual no será abordado en este ejemplo.

Ecuaciones:

u = Kx cos + Ky sen  + Tx


v = –Kx sen + Ky cos + Ty

Modelo funcional: L=F(X)

L: observaciones (n= 2*N°puntos = 20)


X: parámetros (u=4)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 67 de 84

uP1
K
v P1

F X u
A= Tx Lb  P 2
Xa Xo v P2
Ty uP 3
v P2
Matriz A:
Nº de columnas = Nº de parámetros
F1 F1 F1 F1
Nº de filas = Nº

= x cos  y sen  = –Kx sen Ky cos  =1 =0


de puntos * 2

k  TX TY
F 2 F 2 F 2 F 2
= -x sen  + y cos  = –Ky sen  – Kx cos  =0 =1
k  TX TY
… … … …

Se repiten las derivadas cada 2 líneas de la matriz A

Después de efectuar las operaciones matriciales necesarias, resulta:


Xa
K= 1.000001667
 (rad)= -1.36003E-05
Tx (m)= -12.943
Ty (m)= -31.080

Aplicación de los parámetros ajustados

Coordenadas UTM SAD69


residuos
Punto transformadas a UTM Sirgas
Este Norte vE vN
P1 293935.508 4228231.958 0.054 -0.037
P2 297445.728 4227062.240 0.075 -0.015
P3 297252.920 4226808.564 0.075 -0.018
P4 258696.469 4264914.581 -0.327 -0.181
P5 257877.233 4264308.651 -0.325 -0.190
P6 320971.056 4205809.811 0.302 0.094
P7 320748.674 4205791.513 0.301 0.092
P8 334234.311 4229845.621 0.221 0.238
P9 370192.194 4044896.434 -0.140 -0.012
P10 371787.410 4057404.970 -0.236 0.028

Resta estimar y analizar la precisión (matriz de covarianzas) de los parámetros ajustados, de las
observaciones y de los residuos, además de calcular la correlación entre parámetros.

Cabe notar que algunos residuos resultan discrepantes, lo que exige analizar la distribución de
los puntos y las correlaciones entre parámetros.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 68 de 84

17.3 INTERSECCIÓN DE DISTANCIAS Y/O DIRECCIONES

Esta metodología, también llamada resección inversa, permite calcular las coordenadas de un
punto a partir de observaciones de distancia y/o ángulos, su aplicación es común en el modo
“estación libre” en la Estación Total y en posicionamiento satelital.

Sea un punto P del cual se midieron distancias y ángulos a diversos puntos de coordenadas
conocidas.

Datos Observaciones
Punto Coord X Coord Y Punto Distancia (m)
M1 9166.759 7774.203 M1 2965.279
M2 13469.100 9458.168 M2 3009.198
M3 16827.572 8261.480 M3 5049.489
M4 17775.434 5726.464 M4 5900.217
M5 14296.072 4556.132 M5 3253.191
M6 9752.036 4815.323 M6 3013.345
Ángulo (g)
a 1-2 112.5710
a 5-6 103.4591
Precisión de distancias: 12mm + 8ppm
Precisión de ángulos: 0.005g (gonios)

Distancias y ángulos son función de las coordenadas, por lo cual las ecuaciones de observación
son:

Di  (Xi  X P ) 2  (Yi  YP ) 2  ( Zi  Z P ) 2

 x 2  xp   x1  xp 
ángulo(1  2)  arctg    arctg  
 y2  yp   y1  yp 

Las incógnitas son Xp, Yp, por lo que se torna un modelo de observaciones indirectas.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 69 de 84

La = F(Xa), con AX+L = V


F
La matriz A debe ser montada de acuerdo a las ecuaciones de observación A 
X Xo

De acuerdo a la función de linealización (por serie de Taylor) de la ecuación de distancias y de


ángulos respectivamente:

D x i  x o D y i  y o
 
x i D0 y i D0

a y 2 o  y o y1o  y o a x2  x x1  x
   - o2 o  o 2 o
x D a2 2 o D a21o y Da2 o D a1o

A será una matriz de orden (nxu), con


n: Nº de ecuaciones (observaciones) = 8
u: Nº de incógnitas (parámetros) = 2

Xa = Xo +X
X = -N-1U
N = ATPA
U = ATPL
L = Lo – Lb Lo = F(Xo)

Resultados

Con los valores aproximados iniciales de las coordenadas, se montan las matrices Lo, P y A:
Xo
1000.000
1000.000

Lo=F(Xo) P
D1 10610.6446 784 0 0 0 0 0 0 0
D2 15067.1516 0 768 0 0 0 0 0 0
D3 17413.8199 0 0 364 0 0 0 0 0
D4 17428.5585 0 0 0 285 0 0 0 0
D5 13763.4151 0 0 0 0 692 0 0 0
D6 9547.5038 0 0 0 0 0 767 0 0
a1 6.1388 0 0 0 0 0 0 40000 0
a2 -9.5338 0 0 0 0 0 0 0 40000

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 70 de 84
Matriz A
-0.7697 -0.6384
-0.8276 -0.5614
-0.9089 -0.4170
-0.9625 -0.2712
-0.9660 -0.2584
-0.9167 -0.3996
0.00002 -0.00002
-0.00002 0.00003

Realizadas las operaciones matriciales, el resultado para las correcciones y coordenadas son:

X Xa
-9852.9535 10852.954
-2213.0014 3213.001

Después de varias iteraciones la solución converge al resultado final, las coordenadas ajustadas
son:

Xa=Xo+X
Xp = 11981.7093 m
Yp = 6842.2975 m

Análisis de precisión

2 (a posteriori) = 13.17

De la matriz de covarianzas resulta

xp = 0.076 m
yp = 0.098 m

Queda a cargo del alumno analizar los resultados, incluyendo residuos, varianzas y correlación.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 71 de 84
17.4 AJUSTE DE ÁNGULOS

En mediciones angulares las figuras deben ser condicionadas a errores de cierre de ángulos,
mediante la regla: suma de ángulos = (200g x N-2 lados)

Sea el siguiente cuadrilátero con sus ángulos medidos en todas las direcciones. Se deben ajustar
los ángulos observados.

De la regla general:
n = N° de observaciones = 8
u = N° de incógnitas = 6 “líneas” a orientar -1 = 5
r = n-u = N° de condiciones = 3

Datos

Valor observado
Ángulo
(gonios)
1 70.9976
2 35.0992
3 16.9305
4 78.9750
5 68.9909
6 15.6605
7 36.3794
8 76.9610

Modelo funcional F(La) = 0

F
rBn = la matriz de las derivadas parciales
La Lb
Se seleccionan tres figuras independientes (ángulos 1-2-3-8, 4-5-6-7, 2-3-4-5) con lo que se
montan las matrices de las derivadas y de cierres:

B 3x8 W
1 1 1 0 0 0 0 1 -0.0117
0 0 0 1 1 1 1 0 0.0058
0 1 1 1 1 0 0 0 -0.0044

Realizando las operaciones resultan:

K=-M(-1)*W
-0.0026
0.0018
-0.0007

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 72 de 84
Residuos y ángulos ajustados:

V=B(T)*K La=Lb-V
1 -0.0026 71.0002
2 -0.0033 35.1025
3 -0.0033 16.9338
4 0.0011 78.9739
5 0.0011 68.9898
6 0.0018 15.6587
7 0.0018 36.3776
8 -0.0026 76.9636

Comprobación de cierres con valores ajustados:

ángulos cierres
1-2-3-8 200.0000
4-5-6-7 200.0000
2-3-4-5 200.0000

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 73 de 84
17.5 POLINOMIOS (CURVAS)

En diversas aplicaciones en la geomensura, como modelo geoidal local, astronomía,


fotogrametría, transformación de coordenadas, entre otras, se requiere hacer uso de funciones
polinomiales, 2D ó 3D, de la forma genérica

y = f(x) ó z = f(x,y)

En la práctica es una regresión donde se conocen los valores y se desconocen los coeficientes de
la función.

Ejemplo

Según Sánchez (1997) en fotogrametría la “distorsión radial” ∆r de los lentes producen


deformaciones en la imagen, lo cual requiere de un modelo para calibración, este es del tipo
polinomial de grados impares, de la forma:

r  k1  r 3  k 2  r 5  k3  r 7  k 4  r 9  ...

Se observaron puntos calibrados en fotogramas, se medió la distorsión radial a diferentes


distancias. Estimar los coeficientes ki del modelo de distorsión radial.

Distorsión Distancia Radial


Lente ∆r (mm) r (mm)
1 0.000 0.000
2 0.004 20.072
3 0.018 40.855
4 0.047 63.155
5 0.062 88.034
6 0.035 116.995
7 -0.064 152.472

Modelo funcional: L = F(X)

L: observaciones, distorsión radial


X: coeficientes ki

n=7
u=4

En este caso la función es lineal respecto a las variables ki, de lo cual la matriz A no depende de
parámetros, de esa forma no es necesario asignar valores aproximados a los parámetros.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 74 de 84
Resultados:
A (7x4)
0.00E+00 0.00E+00 0.00E+00 0.00E+00
8.09E+03 3.26E+06 1.31E+09 5.29E+11
6.82E+04 1.14E+08 1.90E+11 3.17E+14
2.52E+05 1.00E+09 4.01E+12 1.60E+16
6.82E+05 5.29E+09 4.10E+13 3.18E+17
1.60E+06 2.19E+10 3.00E+14 4.11E+18
3.54E+06 8.24E+10 1.92E+15 4.45E+19

At*L=U X=N-1*U
-1.154E+05 k1 = 3.4981E-07
-4.130E+09 k2 = -5.0786E-11
-1.094E+14 k3 = 2.6127E-15
-2.686E+18 k4 = -4.7694E-20

Con los coeficientes estimados se calculan las distorsiones ajustadas y sus residuos:

∆r ajustados residuos
1 0.0000 0.0000
2 0.0027 -0.0013
3 0.0186 0.0006
4 0.0468 -0.0002
5 0.0620 0.0000
6 0.0350 0.0000
7 -0.0640 0.0000

El gráfico representa en color azul los valores observados y el rojo los ajustados, mostrando que
los parámetros ki representan la distorsión radial.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 75 de 84
17.6 TRILATERACIÓN

Trilateración es un método de determinación de coordenadas a partir de mediciones de distancia


entre puntos, a partir de una base de coordenadas conocidas.

Sea una base (BA01 y BA02) de coordenadas conocidas a partir de los cuales se realizan
mediciones de distancia (reducidas a UTM) a 6 puntos (TN01 a TN06), los datos y mediciones son:

Punto x=E y=N


BA01 586749.066 6540178.819
BA02 587038.222 6538401.176

N° De: A: Distancia (m)


1 BA01 TN01 2046.379
2 BA01 TN02 2086.384
3 BA02 TN02 1803.021
4 BA02 TN03 2184.450
5 TN01 TN02 2035.656
6 TN01 TN04 1838.970
7 TN02 TN04 2564.189
8 TN02 TN05 1907.930
9 TN02 TN03 1681.253
10 TN03 TN05 2130.629
11 TN03 TN06 2206.371
12 TN04 TN05 1998.391
13 TN05 TN06 1506.971

Planteamiento:

Ecuación de distancia

Dij = √(xj − xi )2 + (yj − yi )2

Dij: distancia entre puntos ij


(xi, yi): coordenadas a determinar

Modelo funcional: La = F(Xa)


n = 13 (distancias)
u = 12 = 6 (puntos)*2
grados de libertad = r-u = 1

∂F
A= |
∂Xa Xo

∂F −(xj−xi) ∂F −(yj−yi)
= =
∂xi Dij ∂yi Dij

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 76 de 84

Parámetros aproximados:
Coordenada Xo
x1 593573.393
y1 6546461.737
x2 593787.059
y2 6544309.218
x3 594185.643
y3 6542754.256
x4 595451.368
y4 6546271.059
x5 595663.961
y5 6544289.904
x6 596378.005
y6 6542925.898

Con las coordenadas aproximadas se calculan las observaciones aproximadas: Lo(F(Xo)

En el montaje de la matriz A se debe tener especial cuidado en el sentido de las diferencias de


coordenadas en la expresión de las derivadas parciales:

Matriz A
0.736 0.677 0 0 0 0 0 0 0 0 0 0
0 0 0.862 0.506 0 0 0 0 0 0 0 0
0 0 0.752 0.659 0 0 0 0 0 0 0 0
0 0 0 0 0.854 0.520 0 0 0 0 0 0
-0.099 0.995 0.099 -0.995 0 0 0 0 0 0 0 0
-0.995 0.101 0 0 0 0 0.995 -0.101 0 0 0 0
0 0 -0.647 -0.763 0 0 0.647 0.763 0 0 0 0
0 0 -1.000 0.010 0 0 0 0 1.000 -0.010 0 0
0 0 -0.248 0.969 0.248 -0.969 0 0 0 0 0 0
0 0 0 0 -0.694 -0.720 0 0 0.694 0.720 0 0
0 0 0 0 -0.997 -0.078 0 0 0 0 0.997 0.078
0 0 0 0 0 0 -0.465 1.679 0.465 -1.679 0 0
0 0 0 0 0 0 0 0 -0.464 0.886 0.464 -0.886

Finalmente después de varias iteraciones resultan residuos de las observaciones y coordenadas


ajustadas:

Distancia Residuo
1 0.318
2 -0.295
3 -0.378
4 0.352
5 -0.188
6 0.282
7 -0.315
8 -0.299
9 -0.382
10 0.332
11 0.000
12 0.154
13 0.000

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 77 de 84

Coordenadas ajustadas:
Punto x y
TN01 588466.398 6541291.658
TN02 588621.707 6539261.614
TN03 589086.339 6537642.175
TN04 590304.534 6541196.813
TN05 590528.452 6539213.859
TN06 591273.939 6537901.087

El paso siguiente es el cálculo de las precisiones asociadas a parámetros y observaciones.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 78 de 84
17.7 AJUSTE A UNA CIRCUNFERENCIA

En terreno existen 12 marcas que parecieran pertenecer a una circunferencia, los cuales se
levantaron sus coordenadas.
Determinar la circunferencia mejor adaptada a los 12 puntos y calcular las diferencias de ellos a
esa circunferencia.

Planteamiento:
Ecuación de una circunferencia genérica
r 2 = (xi − xc)2 + (yi − yc)2
(xi − xc)2 + (yi − yc)2 − r 2 = 0
Con xc,yc,r: coordenadas del centro y radio, son los parámetros de la ecuación
La ecuación involucra parámetros (xc,yc,r) y observaciones (xi,yi) en una condición, por lo tanto
se combinan los métodos de ecuaciones de observación y de condiciones.

F(Xa,La) = 0

n = 24 = 12 (puntos)*2
u = 3 (parámetros)
r = 12 (condiciones)
grados de libertad = r-u = 9

∂F ∂F
A= | y B= |
∂Xa Xo ∂La Lb

Matriz A (rxu)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 79 de 84
∂f ∂f ∂f
= −2(xi − xc) = −2(yi − yc) = −2r
∂xc ∂yc ∂r

Matriz B (rxn)

∂f ∂f
= 2(xi − xc) = 2(yi − yc)
∂xi ∂yi

Para evaluar las matrices A y B se necesitan parámetros aproximados, por ejemplo:

2000
Xo= |5000|
100

Lb (24x1) W (rx1)
5702.650 471024002.38
5719.674 469903005.71
5717.180 468601777.78
5698.983 467664076.16
5667.810 467315370.24
5638.140 467906446.02
5625.763 469408723.49
5635.153 470566348.90
5668.020 471399947.75
5696.886 471212146.29
5717.857 470109159.92
5716.225 468543843.21
23691.941
23665.527 A=(12x3)
23635.559 -1405.301 -43383.881 -200.000
23614.474 -1439.349 -43331.055 -200.000
23607.392 -1434.359 -43271.119 -200.000
23621.962 -1397.965 -43228.949 -200.000
23657.035 -1335.620 -43214.785 -200.000
23683.471 -1276.279 -43243.923 -200.000
23701.698 -1251.526 -43314.069 -200.000
23696.463 -1270.305 -43366.943 -200.000
23670.345 -1336.040 -43403.396 -200.000
23634.252 -1393.771 -43392.926 -200.000
-1435.715 -43340.689 -200.000
-1432.449 -43268.504 -200.000

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 80 de 84

B(12x24)
1405 0 0 0 0 0 0 0 0 0 0 0 21692 0 0 0 0 0 0 0 0 0 0 0
0 1439 0 0 0 0 0 0 0 0 0 0 0 21666 0 0 0 0 0 0 0 0 0 0
0 0 1434 0 0 0 0 0 0 0 0 0 0 0 21636 0 0 0 0 0 0 0 0 0
0 0 0 1398 0 0 0 0 0 0 0 0 0 0 0 21614 0 0 0 0 0 0 0 0
0 0 0 0 1336 0 0 0 0 0 0 0 0 0 0 0 21607 0 0 0 0 0 0 0
0 0 0 0 0 1276 0 0 0 0 0 0 0 0 0 0 0 21622 0 0 0 0 0 0
0 0 0 0 0 0 1252 0 0 0 0 0 0 0 0 0 0 0 21657 0 0 0 0 0
0 0 0 0 0 0 0 1270 0 0 0 0 0 0 0 0 0 0 0 21683 0 0 0 0
0 0 0 0 0 0 0 0 1336 0 0 0 0 0 0 0 0 0 0 0 21702 0 0 0
0 0 0 0 0 0 0 0 0 1394 0 0 0 0 0 0 0 0 0 0 0 21696 0 0
0 0 0 0 0 0 0 0 0 0 1436 0 0 0 0 0 0 0 0 0 0 0 21670 0
0 0 0 0 0 0 0 0 0 0 0 1432 0 0 0 0 0 0 0 0 0 0 0 21634

Desarrollando el cálculo matricial y después de varias iteraciones resulta:

Xa=Xo+X
Xc= 5673.254 m
Yc= 23654.585 m
r= -47.632 m

Residuos de las observaciones:


V xi V yi
-0.112 -0.071
0.061 0.007
0.246 -0.053
0.025 -0.019
0.056 0.242
-0.333 -0.155
0.079 -0.002
-0.198 0.075
0.098 -0.442
0.514 0.455
-0.337 -0.060
-0.098 0.023

Queda a cargo del alumno el análisis de resultados y cálculo de las precisiones asociadas a
parámetros y observaciones.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 81 de 84
19. REVISIÓN DE ÁLGEBRA MATRICIAL

René Zepeda G.

El álgebra matricial reduce complicados sistemas de ecuaciones a expresiones más sencillas y,


hace más rápido los cálculos matemáticos mediante planilla electrónica, programación propia o
Matlab.

DEFINICIÓN DE UNA MATRIZ

Matriz es un conjunto de números o símbolos arreglados de forma rectangular, por líneas y


columnas.

Como ejemplo, sea el siguiente sistema de ecuaciones:


a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a33 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3

el sistema puede ser representado por:


a11 a12 a13   x 1  b1 
a    b 
 21 a 22 a 23    x 2    2
a 31 a 32 a 33   x 3  b 3 
  
A X B

DIMENSIONES DE UNA MATRIZ

d11 d12 d13  3 2 6


D ij  d 
mxn  31 d32 d33  5 4 1
 

m: No de líneas
n: No de columnas

Matriz simétrica (cuadrada, m=n)


 2  4 6
A 3x 3    4 7 3 Simétrica respecto a la diagonal principal
 
 6 3 5

Matriz diagonal
 2 0 0
A 3x 3  0 7 0 los elementos fuera de la diagonal principal son ceros
 
0 0 5

Matriz unitaria
1 0 0
A 3x 3  0 1 0 los elementos la diagonal principal son 1
 
0 0 1

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 82 de 84
Matriz traspuesta
3 5 
3 2 6  
A 2x3  5 4 1 A T 3x 2  2 4 se trasponen elementos de líneas por columnas
  6 1 
 

Igualdad. Dos matrices son iguales solo si son de misma dimensión y sus elementos
correspondientes también lo son.

Suma de matrices

A2x3 + B2x3 = C2x3


7 3  1 5  8 8 
2  5    4  2   2  7 
     

Multiplicación de matriz por escalar


3  1 12  4
4    8 24 
2 6   

Multiplicación de matrices
No de columnas de A = No de líneas de B
Amxn x Bnxp = Cmxp
b11 b12 
 a11 a12 a13  b21 b22  (a11  b11)  (a12  b21)  (a13  b31) (a11  b12)  (a12  b22)  (a13  b32) 
a 21 a 22 a 23 x    (a 21  b11)  (a 22  b21)  (a 23  b31) (a 21  b12)  (a 22  b22)  (a 23  b32)
 2x3 b31 b32  3 x 2  2x 2

SOLUCIÓN DE ECUACIONES

En la solución de sistemas de ecuaciones es necesario definir y calcular la INVERSA de una


matriz.
Para un número real “x” existe uno inverso “x-1” que x.x-1=1
En un sistema de ecuaciones con igual número de ecuaciones e incógnitas, se tiene un sistema
de orden mxn, donde:
CX=B
C: matriz de los coeficientes
Existe C-1 tal que C C-1 = I (matriz identidad)
C-1 C X = C-1 B
I X = C-1 B
X = C-1 B

Condiciones de la matriz inversa


a) es cuadrada
b) no es singular (determinante  0)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 83 de 84

a b w x 
A  c d A 1   y z
   

a b  w x  1 0
A  A 1  c d   y z   0 1 
     

MARIZ ADJUNTA
adjunta de A adj A
A 1  
det er minante de A A

La adjunta se obtiene reemplazando cada elemento por su “signo menor” o cofactor y


trasponiendo la matriz.

El elemento cofactor de aij = (-1)ij multiplicado por el determinante de la matriz restante de la


eliminación de la línea “i” y la columna “j”.

Ejemplo:
 4 3 2
A 3x 3  3 4 1 
 
2 3 4
.. .. ..
cof a11 = (-1)2 (4x4-1x3) = 13 .. 4 1 
 
.. 3 4 
.. 3 2 
cof a21 = (-1)3 (3x4-2x3) = -6 .. .. ..
 
.. 3 4 
.. .. ..
cof a12 = (-1)3 (3x4-1x2) = -10  3 .. 1 
 
 2 .. 4 
 13  10 1 
cof A   6 12  6
 
  5 2 7 
 13  6  5
adj A  (cof A)   10 12
T
2 
 1  6 7 

determinante de A = |A| = 4*4*4+3*2*3*1-(2*4*2+1*3*4+4*3*3) =


= 64+18+6-(16+12+36) = 88-64 = 24
 13  6  5  13
24
6
24
5
24 
adj A 1   10 2 
A 1
    10 12 2    24
12
24 
A
24
24
 1  6 7   241 6
24
7 
24 
(comprobar)

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016


pag. 84 de 84

20. BIBLIOGRAFÍA

BLACHUT, T. J., et al. Cartografía y Levantamientos Urbanos, New York, Springer-Vertag,


1979.
Davis, R.E., et. al (1981). Surveying Theory and Practice. USA: McGraw-Hill, Inc.
FEATHERSTONE, W. A comparison of existing co-ordinate transformation models in Australia.
Cartography, vol. 26, Nº1, pp 13-26. Australia. 2000.
GEMAEL, C. Introduçao ao Ajustamento de Observaçoes: Aplicaçoes Geodésicas. Curitiba: Ed.
UFPR. 1994.
MINISTERIO DE OBRAS PÚBLICAS. Manual de Carreteras de la Dirección de Vialidad, Volumen
2. Santiago. 2002
RAPP, R. Geodesia Geométrica, Volumen II. The Ohio State University. 1980.
Sanchez J. Introducción a la Fotogrametría. Universidad Nacional de San Juan-Argentina. 1997.
SEEBER. G. Satellite Geodesy, Berlin, Walter de Gruyer. 2003.
WOLF, P.; GHILANI. C. Adjustment Computations 3rd Edition, New York, John Wiley Inc. 2003.
ZEPEDA, R. et al. Desarrollo y Validación de Procedimientos para Mejorar las
Determinaciones Altimétricas Mediante GPS en Chile. Informe Primer Concurso Fondo de
Innovación del Ministerio de Obras Públicas. 2001.
ZEPEDA, R. et al. Resultados de un Método de Transformación 2D de Bases Cartográficas para
SIG, Congreso Ciencias de la Tierra, Santiago: IGM, 2002.

AJUSTE_Rene_Zepeda_Rev3.2 -sep2016.docx – septiembre 2016

También podría gustarte