Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AL
AJUSTE Y DISEÑO
DE
REDES TOPOGRAFICAS
Raúl Márquez
1
PREFACIO
Esta publicación pretende ser una introducción al ajuste mínimos cuadrados y diseño de
redes topográficas.
En el tema 1, se desarrolla la teoría clásica de los errores de observación y su
propagación desde la probabilidad y estadística, tanto para observaciones
independientes como para observaciones correlacionadas.
En el tema 3, se plantea el modelo funcional para redes libres y redes vinculadas a partir
de las ecuaciones de observación. El modelo estocástico se plantea desde la variables
aleatorias multidimensionales con distribución gaussiana. La propagación de los errores
observacionales a los parámetros ajustados, se estima con las elipses de error absolutas a
un cierto nivel de confianza, las que, a su vez, se obtienen de la distribución normal
multivariable.
Se introducen conceptos de fiabilidad interna y externa delineando la teoría de Baarda.
Así, los números de redundancia y los mínimos errores detectables de los observables
contribuyen tanto a efectuar el control de calidad de la red, como a lograr un diseño
satisfactorio de la misma.
En el tema 4, se discute cómo lograr un diseño satisfactorio para una red topográfica
mediante el método”prueba y error”, asistido por computadora. La simulación de la red
y su ajuste, dan una respuesta a priori sobre lo que sucedería con la medición y el ajuste
de la red real.
2
CONTENIDOS
3
Inversión de matrices simétricas ……………………………………………………… 81
Valores propios, vectores propios y diagonalización. Propiedades ………………….. 82
La pseudoinversa de Moore-Penrose y la solución óptima de un sistema lineal
inconsistente con matriz A deficiente de rango ……………………………………… 85
Ejemplos y aplicaciones ……………………………………………………………… 87
Trabajo Practico 2 ……………………………………………………………………. .90
4
Control de los errores groseros……………………………………………………143
El test de Baarda…………………………………………………………………..147
Fiabilidad interna………………………………………………………………….148
Fiabilidad externa………………………………………………………………….149
Trabajo practico 3…………………………………………………………………153
Ejemplo introductorio……………………………………………………………..158
Diseño por computadora: El método “prueba y error”……………………………161
Simulación………………………………………………………………………...164
Ajustes libre y vinculado………………………………………………………….164
La prueba F………………………………………………………………………..173
Aplicaciones a redes planas y altimétricas………………………………………..174
Trabajo práctico 4………………………………………………………………....179
BIBLIOGRAFIA:………………………………………………………………..180
--------------º-------------
5
TEMA 1
6
PARTE 1: TEORIA DE LOS ERRORES DE OBSERVACION
Mediciones repetidas de una dada magnitud por un mismo observador, con un mismo
instrumento y en circunstancias análogas, no conducen siempre a un mismo resultado.
Este hecho muestra que las observaciones están afectadas de errores que es propio
atribuir a los agentes que concurren a la medición; es decir:
i) el observador
ii) el instrumento
iii) las condiciones ambientales
a) errores groseros
b) errores sistemáticos
c) errores accidentales
b) Errores sistemáticos: estos errores afectan a toda una serie de mediciones según
una misma ley y la influencia de ellos varía con las condiciones en que se hacen
las diversas observaciones. Estos errores provienen de la imperfección de las
teorías físicas que sirven de fundamento a las experiencias, de los instrumentos
empleados y de ciertas particularidades del observador.
La teoría de la refracción atmosférica, por ejemplo, solo prevé condiciones
medias de la atmósfera a lo largo del camino de luz, y a veces el rayo luminoso
atraviesa una zona donde la densidad del aire sufre una fuerte discontinuad que
ocasiona una refracción anómala. Todas las observaciones efectuadas en tales
condiciones resultan afectadas de un error sistemático de esta naturaleza.
Cuando se investiga los errores propios de un instrumento para tener en cuenta
su influencia en la reducción de las observaciones, sucede a menudo que la
determinación no es hecha con absoluta exactitud y quedan pequeños errores
residuales que en forma sistemática hacen sentir su influencia en las mediciones.
En una serie de mediciones efectuadas de la misma manera, dichos errores las
afectan siempre con el mismo signo. Se pueden minimizar antes, durante o
después de efectuada la medición:
Antes de la medición se debe ajustar o calibrar cuidadosamente el instrumento,
por ejemplo errores de verticalidad, inclinación y colimación pueden corregirse
con los tornillos calantes y propios del instrumento. Durante la medición,
utilizando métodos tales que al promediar las lecturas se eliminen los errores al
actuar estos con signos opuestos (caso de los errores remanentes de inclinación y
colimación que se eliminan con las lecturas conjugadas, y el error de trazo del
7
círculo que se elimina leyendo en dos o más sectores). Después de la medición,
determinando el valor del error sistemático y luego haciendo la corrección
correspondiente (por ejemplo, es el caso del error de índice en la medición de
ángulos verticales con teodolitos que tienen nivel testigo). Análogo es el caso de
distancias medidas con cintas de acero contrastadas.
En el hecho 2, se observa que una vez descontados los disparos que no dieron en el
blanco y eliminadas las causas de que el centro de simetría no coincida con el centro
del blanco, uno cualquiera de ellos (impactos) a la derecha del centro se corresponde
con otro a igual distancia a la izquierda; a medida que nos alejamos del centro,
disminuye la cantidad (densidad) de impactos. El hecho 2 puede asimilarse a los
errores accidentales puesto que:
i) los impactos a la derecha (del centro) son tan frecuentes como los disparos a
la izquierda.
ii) Las distancias pequeñas (desde el centro) son más frecuentes que las
grandes.
8
El hecho 3 se debe a las siguientes causas:
i) inexperiencia del tirador.
ii) descuido o falta de concentración del tirador.
figura 1
figura 2
9
Consideremos ahora una dirección arbitraria r en el plano x-y y cortemos la superficie
δ = f ( x, y ) con un plano perpendicular al plano x-y:
figura 3
La figura 3 muestra la distribución de los desvíos de los impactos respecto del centro de
gravedad O’ y la función δ = f (r ) es la función de frecuencia o densidad de
probabilidad puesto que los desvíos son de naturaleza estocástica.
X=
[x] (1)
n
10
La media aritmética puede expresarse:
X = xi – ei = xi + vi ; i = 1, n
X = xi - εi = xi + γi ; i = 1, n
Puesto que el verdadero valor (o valor exacto) de una magnitud no se puede conocer, se
lo estima (o aproxima) con la media aritmética de las observaciones afectadas solamente
de los errores accidentales, entonces:
X= X +γ (2)
figura 4
11
figura 5a figura 5b
figura 5c figura 5d
Primera Propiedad: “La suma de los errores aparentes es igual a cero: [e] = 0”
n X = [x] = x1 + x2 +… + xn
x1 + x2 + … + xn – n X = 0
x1 + x2 + … + xn – ( X + X + … + X ) = 0
(x1 - X ) + (x2 - X ) + … + (xn - X ) = 0
Segunda Propiedad: “La suma de los cuadrados de los errores aparentes es mínima:
[e2] = mín.”
12
Sea X la media aritmética y χ un estimador cualquiera del verdadero valor X de una
magnitud dada, tal que χ ≠ X . Llamemos ωi al desvío de una observación xi respecto de
χ:
ei = xi - X Æ xi = ei + X
ωi = xi - χ Æ xi = ωi + χ Æ ωi + χ = ei + X
entonces: ωi = ei + ( X -χ)
elevando al cuadrado ambos miembros: ( ωi)2 = (ei + ( X -χ))2
desarrollando: ωi2 = ei2 + 2 ( X -χ) ei + ( X -χ)2
sumando m.a.m.: [ωi2 ] = [ei2 ] + 2 ( X -χ)[ ei ] + [( X -χ)2]
por la primera propiedad de la media aritmética : [e] = 0, entonces:
puesto que ( X -χ)2 > 0 Æ [ωi2 ] > [ei2 ] Æ [ei2 ] < [ωi2 ] ; es decir que cualquiera sea
el estimador seleccionado se cumplirá siempre [ei2 ] < [ωi2 ]. Se tiene entonces la
segunda propiedad de la media aritmética: [ei2 ] = mínimo.
ωi = xi - χ
ωi2 = (xi - χ)2
n
Sumando m.a.m.: [ωi2] = [(xi - χ)2] = ∑
i =1
(xi -χ)2 = f(χ) = mínimo
χ=
[x ] =X
n
La derivada segunda es: f “(χ) = 2n > 0, entonces para χ = existe mínimo de la
[x ]
n
función f(χ). La condición de “mínimos cuadrados“ conduce entonces a la media
aritmética.
13
Deducción de la curva de Gauss
Sea { x1, x2, …, xn } una serie muy numerosa (nÆ ∞) de observaciones repetidas de una
dada magnitud. El valor más probable es la media aritmética (postulado 1).
La probabilidad a-priori de que se presente el conjunto o sistema de errores aparentes
ei = xi - X ; i = 1, n es la probabilidad conjunta:
Multiplicando y dividiendo cada término del primer miembro de (5) por ei:
[e] = e1 + e2 +… + en = 0 (7)
14
Para el cumplimiento simultáneo de (6) y (7) deberá, necesariamente ocurrir que:
d ln ϕ (e)
=K ≠0 (8)
e de
De la (8):
d ln ϕ ( x) = K x dx
x2
∫ d ln ϕ ( x)dx = K ∫ x dx Æ ln ϕ ( x) = K 2
+C
x2 x2
Hacemos C = ln C1 Æ ln ϕ ( x) = K + ln C1 Æ ln ϕ ( x) − ln C1 = K
2 2
x2
ϕ ( x)x2 ϕ ( x)
K 2
x K
Es decir: ln =K Æ =e 2
Æ ϕ ( x) = C1 e 2
C1 2 C1
K K
Por el postulado 3, < 0 . Haciendo = − h 2 donde h es el módulo de precisión de
2 2
Gauss:
2
x2
ϕ ( x) = C1 e − h (10)
Según el postulado 4:
+∞
−∞
∫ ϕ ( x) dx = p (−∞ ≤ x ≤ +∞) =1
entonces:
+∞
C1 ∫ e − h
2 2
x
dx =1
−∞
15
+∞
C1
∫e
−t 2
dt = 1
h −∞
+∞
∫e
−t 2
Hallaremos el valor de la integral dt . Puesto que la curva de frecuencia o
−∞
densidad de probabilidad (10) es simétrica respecto del eje vertical (postulado 2), resulta
evidente que:
+∞ +∞
∫ e dt = 2 ∫ e dt
2 2
−t −t
−∞ 0
figura 6
2
En el plano VOT, el área comprendida por la curva v = e −t y el eje OT, es:
+∞
A = ∫ e −t dt
2
2
Análogamente, el área comprendida por la curva v = e −t y el eje OU, es:
+∞
A = ∫ e −u du
2
Entonces:
16
+∞ +∞
A2 =∫ ∫
2
+u 2 )
e −( t dt du
0 0
+∞ +∞
VOLUMEN = ∫ 2π r v dr = 2π ∫re
−r 2
dr
0 0
dp
Cambiando de variable: p = − r 2 Æ dp = − 2r dr Æ dr = − , entonces:
2r
+∞ −∞
dp
VOLUMEN = − 2π ∫ r e ∫e
−∞
= −π
p p
dp = − π e p = − π (e −∞ − e 0 ) = π
0
2r 0
0
π π
VOLUMEN = 4 A 2 = π Æ A2 = Æ A= , luego:
4 2
+∞ +∞ +∞
π
∫ e dt = 2 ∫ e dt = 2 A = 2 ∫ e dt = π
2 2 2
−t −t
= π Æ −t
−∞ 0
2 −∞
Se tiene entonces:
+∞
C1 C1 h
∫e
−t 2
dt = π =1 Æ C1 =
h −∞
h π
h 2 2
ϕ ( x) = e −h x
(11)
π
17
h 2 2 h3 2 2
y ' = ϕ ' ( x) = e −h x
( −2 h 2 x ) = − 2 xe − h x
=0
π π
h3 2 2 2 2 h3 2 2
ϕ ' ' ( x) = − 2 (e − h x
− 2h 2 x 2 e − h x
)=− 2 e −h x
(1 − 2h 2 x 2 )
π π
h3
en x = 0 , ϕ ' ' ( x) = − 2 < 0 entonces en x = 0 existe un máximo.
π
h3 2 2 1
ϕ ' ' ( x) = − 2 e −h x
(1 − 2h 2 x 2 ) = 0 Æ (1 − 2h 2 x 2 ) = 0 Æ x 2 =
π 2h 2
1
x=± (12)
h 2
figura 7
18
figura 8
+∞ +∞
h d (h 2 x 2 )
E ( x) = µ = ∫ xϕ ( x) dx = ∫ x e dx ; d (h x ) = 2h x dx Æ x dx =
2 2
−h x 2 2 2
−∞ π −∞ 2h 2
2 2 + ∞
+
h 1 1 1 1
∫e
−h 2 x 2
E ( x) = µ = d (h 2 x 2 ) = − e −h x =− − +∞ = 0
2h 2
π −∞ 2h π −∞ 2h π e +∞
e
la varianza es:
+∞ +∞ +∞
h
Var ( x) = σ 2 = ∫ ( x − µ ) 2 ϕ ( x) dx = ∫ x 2 ϕ ( x) dx = ∫x
2 2
2
e − h x dx
−∞ −∞ π −∞
dt
cambio de variables: t = hx Æ dt = h dx Æ dx =
h
+∞ 2 +∞ +∞
h t −t 2 dt 1 π
∫ ∫t ∫t
−t 2 2
Var ( x) = e = 2 2
e dt , pero 2
e −t dt = , entonces la
π −∞ h 2
h h π −∞ −∞
2
1 π 1 1
varianza es: Var ( x) = σ 2 = = Æ σ2=
h2 π 2 2h 2 2h 2
19
1
La desviación estándar es: σ = ± .
2h
Nótese que ± σ son las abscisas de los puntos de inflexión en la curva de Gauss. Cuanto
mayor es el modulo de precisión h, tanto menor es la desviación estándar σ. La calidad
de una serie de observaciones repetidas de una magnitud dada, depende entonces del
valor de σ. La desviación estándar, es pues, una medida de la precisión.
+∞ +∞ +∞
h 2h
∫ ∫ ∫ x e dx
2 2 2 2
Definición: ea = x ϕ ( x) dx = x e − h x dx = −h x
; x ≥0
−∞ π −∞ π 0
d (h 2 x 2 )
d (h 2 x 2 ) = 2h 2 x dx Æ xdx = , entonces:
2h 2
+∞ +∞ 2 2 +∞
2h 2h − h 2 x 2 d (h x ) 2h
∫e π ∫0 ∫e
−h2 x2 −h2 x2
ea = x dx = e = 2 d (h 2 x 2 )
π 0 2h 2 2h π 0
ea =
h
1
π
[−e ]+∞
0
=−
1 ⎛ 1
−h 2 x 2
⎜
h π ⎝e +∞
⎞
− e0 ⎟ =
1
⎠ h π
Æ ea =
h π
1
1 2
Puesto que h = , se tiene: ea = σ
σ 2 π
ea = 0.798 σ σ =1.253 ea
Para un conjunto finito de observaciones (una muestra de tamaño n), el error medio
aritmético es:
n
∑x i
ea = i =1
El error probable: ep
gráficamente se interpreta:
20
figura 9
dz
Haciendo el cambio de variable: z = h 2 x Æ dz = h 2 dx Æ dx =
h 2
h 2 ep z2 h 2 ep z2 h 2 ep z2
2h −h2 dz 2h − 1 −
0 .5 =
π ∫
0
e 2h2
=
h 2 h 2π ∫
0
e 2
dz Æ
2π ∫
0
e 2
dz = 0.25
De la tabla de áreas bajo la curva normal tipificada, se tiene que al valor del área igual a
0.25, le corresponde el valor de z = 0.673, entonces:
1
z = h 2 e p = 0.673 Æ e p = 0.673 = 0.673σ
h 2
e p = 0.673σ σ =1.486 e p
+∞ +∞
h 1
definición: emc = ∫ x ϕ ( x) dx = ∫ x e dx =σ =
2 2 2
2 2 −h x 2
−∞ π −∞ 2h 2
1
entonces: emc = =σ
h 2
21
determinada serie de observaciones de una magnitud dada. También se lo conoce como
el error estándar de una observación.
+σ +σ
h
p (−σ ≤ x ≤ +σ ) = ∫ ϕ ( x) dx = ∫σ e
−h2 x2
dx
−σ π −
dt
cambio de variable: t = hx Æ dt = h dx Æ dx =
h
1
los límites de integración: t = hx Æ t = h σ ; t = − hσ Æ t = ± , entonces:
2
2 2
+
2 2
h dt 2
∫ ∫ e dt
2 2
p (−σ ≤ x ≤ + σ ) = e −t = −t
π 2
h π 0
−
2
2
Desarrollando e −t en serie de Mc Laurin:
2
y = e −t y ( 0) = 1
2
y ' = − 2t e −t y ' ( 0) = 0
2
y ' ' = − 2 e −t (1 − 2t 2 ) y ' ' ( 0) = − 2
2
y ' ' ' = − 2 e −t (4t 3 − 6t ) y ' ' ' (0) = 0
2
y ' v = − 2 e − t (−8t 4 + 24t 2 − 6) y ' v (0) = 12
2
y v = − 2 e − t (16t 5 − 80t 3 + 60t ) y v ( 0) = 0
2
y v ' = − 2 e − t (−32t 6 + 240t 4 − 360t 2 + 60) y v ' (0) = − 120
………………………………………………………………….
2 t4 t6
entonces: e −t = 1 − t 2 + − +L
2 6
Luego:
2
2 2
⎛ t4 t6 ⎞
p (−σ ≤ x ≤ + σ ) =
π ∫
0
⎜⎜1 − t 2 + − + L⎟⎟ dt
⎝ 2 6 ⎠
22
2
2 ⎡ t3 t5 t7 ⎤ 2
p (−σ ≤ x ≤ + σ ) = ⎢t − + − + L⎥ = 0.6823
π ⎣ 3 10 42 ⎦ 0
π
2 ⎡ t3 t5 t7 ⎤ π
p ( x ≤ ea ) = ⎢t − + − + L⎥ = 0.5750
π ⎣ 3 10 42 ⎦ 0
1 3 10
199 981 42
4888 24420 122077 610359
2 7 32
157 782 3907 19532 97657 488282
5 25 125 625 3125 15625 78125 390625
5 5 5 5 5 5 5
La primera fila son los denominadores de los términos de la serie; la segunda fila son
las diferencias entre dos números consecutivos de la primera. La tercera fila son las
diferencias entre dos números consecutivos de la segunda. La cuarta fila, todos iguales a
5, son los cocientes entre dos números consecutivos: siguiente dividido por anterior.
Con estas reglas, puede extenderse la primera fila en forma indefinida.
Luego el desarrollo en serie de Mc Laurin es:
t3 t5 t7 t9 t 11 t 13 t 15 t 17 t 19
∫ e dt = t −
2
−t
+ − + − + − + − +L
3 10 42 199 981 4888 24420 122077 610359
entonces:
2 ⎡ t3 t5 t7 t9 t 11 t 19 ⎤ 2
p ( x ≤ 2σ ) = ⎢t − + − + − + L − + L⎥ = 0.9571 = 95.71 %
π ⎣ 3 10 42 199 981 610359 ⎦ 0
23
El valor que da la tabla de áreas bajo la curva normal tipificada es igual a 0.9544 (95.44
%). La diferencia se debe, tal vez, a que el número de términos de la serie es
insuficiente.
De la tabla de áreas bajo la curva normal tipificada se obtiene:
p ( x ≤ 3σ ) = 0.9974 = 99.74 %
h 2 2
ϕ ( x )= e −h x
− 3σ − 2σ −σ O σ 2σ 3σ x
6 8 .2 5 %
9 5 .4 4 %
9 9 .7 4 %
figura 10
Puesto que la probabilidad de que un error supere 3σ en valor absoluto es muy baja (≅
0.26 %), podemos considerar como “errores groseros” aquellos cuyos valores absolutos
superen 3σ.
et
= 3.8262
ep
entonces: et = 3.8262 ep
pero: ep = 0.673 σ
24
entonces: et = 3.862 0.673 σ = 2.6 σ
Los errores mayores que et son altamente improbables (sólo el 1%) y si se detectan,
deben ser eliminados de la medición.
Sea el caso en que se tiene un gran número de observaciones de una dada magnitud.
Como es ya costumbre generalizada en las aplicaciones prácticas dar a los errores el
sentido de las correcciones, en lo que sigue formaremos para el cálculo del error medio
cuadrático de una observación, las diferencias:
vi = X − xi i = 1, n
h 2 2
p (v ) = e −h v (13)
π
h 2 2 h 2 2 h 2 2
p (v1 , v 2 , L, v n ) = p (v1 ) p (v 2 ) L p (v n ) = e − h v1 e − h v2 L e − h vn
π π π
hn 2
( v12 + v2 2 + L + vn 2 )
p (v1 , v 2 ,L v n ) = e −h
πn
hn 2
[vv ]
p (v1 , v 2 ,L v n ) = e −h
π n
Puesto que el error medio cuadrático es la desviación estándar, se puede estimar la suma
de los cuadrados de las correcciones por nσ2; es decir:
[vv] = n σ 2
y así resulta:
hn hn
e −(h n ) σ
2 2 2 2
p (v1 , v 2 ,L v n ) = e − h nσ = (14)
πn ( π) n
25
promedio de n observaciones, cuyo módulo de precisión es h n ; mientras que el
módulo de precisión de una observación es h. Es decir, que la precisión aumenta con la
raíz cuadrada del número de observaciones. Habida cuenta que el error medio
cuadrático de una observación es inversamente proporcional al módulo de precisión h,
se tiene:
1
σ=
2h
1
σ X&&& =
2 ( n h)
σ
= n
σX
entonces:
σ
σ X&&& = (15)
n
26
figura 11
σ 6" n 1 6"
≤ σ X&&& Æ ≤ 3" Æ ≥ Æ n≥ =2 Æ n≥4
n n 6" 3" 3"
lim X = X ≡ E ( X ) = µ
n −> ∞
En las aplicaciones prácticas n será tal que X dista de X (verdadero valor) en una
cantidad γ no despreciable; es decir:
γ =X −X
X = X +γ
εi = xi – X = xi – ( X + γ)
27
εi = (xi - X ) - γ
- γi = -vi - γ Æ γi = vi + γ
n σ 2 = (v1 + γ ) 2 + (v 2 + γ ) 2 + L + (v n + γ ) 2
n σ 2 = [vv]+ 2γ [v ]+ n γ 2
n σ 2 = [vv] + n γ 2 (17)
σˆ 2
n σˆ = [vv] + n
2
= [vv] + σˆ 2 Æ n σˆ 2 − σˆ 2 = [vv] Æ σˆ 2 (n − 1) = [vv] , entonces:
n
σˆ 2 =
[vv] (18)
n −1
σˆ =
[vv] (19)
n −1
σ) X =
[vv] (20)
n (n − 1)
28
Ejemplo: Se han efectuado diez observaciones de una distancia:
La muestra original:
1
p ( L I ≤ x i ≤ LS ) = 1 −
2n
LI = X − z c σ̂ LS = X + z c σˆ
figura 12
29
xi(m) vi = X − xi vi
2
σˆ =
[vv] = 1.42510 −4
= 0.00398 m (error estándar de una observación)
n −1 10 − 1
σˆ X =
[vv] 1.42510 −4
= = 0.00126 m (error estándar de la media aritmética)
n (n − 1) 10 (10 − 1)
Aplicamos el criterio de Chauvenet para sanear la muestra:
1 1 19
p ( L I ≤ x i ≤ LS ) = 1 − = 1 − = = 0.95
2n 20 20
30
Criterio de Chauvenet:
1 1 17
p ( L I ≤ x i ≤ LS ) = 1 − = 1 − = = 0.94 Æ zc = 1.91
2n 18 18
LI = 330.267 m LS = 330.276 m
Se aceptan ahora las nueve observaciones y la muestra está saneada con media
aritmética X = 330.2716 m , error estándar de una observación σˆ = 0.0023 m y error
estándar de la media aritmética σˆ X = 0.00077 m .
σˆ
z c σˆ X = z c ≤ 0.0008 m z c =1.96
n
0.0023 1.96 0.0023
1.96 ≤ 0.008 Æ n≥ ≅ 5.64 Æ n ≥ 32
n 0.0008
σˆ 2 =
[vv] Æ [vv ] = (n −1) σˆ 2 Æ
[vv] = (n −1) σˆ 2 = χ 2
n −1 σ2 σ2
31
figura 13
1 σ2 1
< ) < 2
χ 2
ν , 0.975 (n − 1) σ 2
χ ν , 0.0.25
(n −1) σ) 2 (n −1) σ) 2
< σ2 < (21)
χ 2ν , 0.975 χ 2ν , 0.0.25
n = 9 Æ ν = n −1 = 9 −1 = 8 ; σ) 2 = 0.00000529
8 0.00000529 8 0.00000529
< σ 2 < 2.18
17.5 2.18
Intervalo de confianza del 95% para σ2: 0.00000242 < σ 2 < 0.0000194
Intervalo de confianza del 95% para σ: 0.0016 < σ < 0.0044
32
PARTE 2: PROPAGACION DE LOS ERRORES DE OBSERVACION
Propagación de la varianza-covarianza:
U = f ( x, y , z ) (22)
∂f ∂f ∂f
U = f (µ x , µ y , µ z ) + (x − µ x ) + ( y − µ y ) + (z − µ z ) + R
∂x ∂y ∂z
donde R contiene los términos no lineales. Conservando solo la parte lineal del
desarrollo:
∂f ∂f ∂f
U = f (µ x , µ y , µ z ) + (x − µ x ) + ( y − µ y ) + (z − µ z ) (23)
∂x ∂y ∂z
∂U ∂U ∂U
εU = εx + εy + εz (24)
∂x ∂y ∂z
2 2 2
⎛ ∂U ⎞ 2 ⎛ ∂U ⎞ ⎛ ∂U ⎞ ∂U ∂U ∂U ∂U ∂U ∂U
εU 2
=⎜ ⎟ εx + ⎜⎜ ⎟⎟ ε y 2 + ⎜ ⎟ εz +2
2
ε xε y + 2 ε xε z + 2 ε yε z
⎝ ∂x ⎠ ⎝ ∂y ⎠ ⎝ ∂z ⎠ ∂x ∂y ∂x ∂z ∂y ∂z
entonces:
2 2 2
⎛ ∂U ⎞ ⎛ ∂U ⎞ ⎛ ∂U ⎞
E [ε U ] = ⎜ ⎟ E [ε x ] + ⎜⎜ ⎟⎟ E [ε y 2 ] + ⎜ ⎟ E[ ε z ]+
2 2 2
(25)
⎝ ∂x ⎠ ⎝ ∂y ⎠ ⎝ ∂z ⎠
∂U ∂U ∂U ∂U ∂U ∂U
+2 E [ε x ε y ] + 2 E [ε x ε z ] + 2 E [ε y ε z ]
∂x ∂y ∂x ∂z ∂y ∂z
[ ] = E [(U − f (µ , µ , µ ) ]= σ
E εU
2
x y z
2
U
2
Æ varianza de U
E [ε ] = E [( x − µ ) ] = σ
2 2 2
x x x Æ varianza de x
33
[ ] = E [( x − µ ) ] = σ
E εy
2
y
2
y
2
Æ varianza de y
E [ε ] = E [( x − µ ) ] = σ
2 2 2
Æ varianza de z
[ ] [ ]
z z z
E ε x ε y = E ( x − µ x )( y − µ y = σ x y Æ covarianza de x y
E [ε x ε z ] = E [( x − µ x )( z − µ z ] = σ x z Æ covarianza de x z
[ ] [
E ε y ε z = E ( y − µ y )( z − µ z = σ yz ] Æ covarianza de y z
2 2 2
⎛ ∂U ⎞ ⎛ ∂U ⎞ ⎛ ∂U ⎞
σU 2
=⎜ ⎟ σ x + ⎜⎜
2
⎟⎟ σ y 2 + ⎜ ⎟ σz +
2
(26)
⎝ ∂x ⎠ ⎝ ∂y ⎠ ⎝ ∂z ⎠
∂U ∂U ∂U ∂U ∂U ∂U
+2 σ xy + 2 σ xz + 2 σ yz
∂x ∂y ∂x ∂z ∂y ∂z
2 2 2
⎛ ∂U ⎞ ⎛ ∂U ⎞ ⎛ ∂U ⎞
σU 2
=⎜ ⎟ σ x + ⎜⎜
2
⎟⎟ σ y 2 + ⎜ ⎟ σz
2
(27)
⎝ ∂x ⎠ ⎝ ∂y ⎠ ⎝ ∂z ⎠
⎡σ x 2 σ xy σ xz ⎤ ⎡∂U ∂x ⎤
⎡ ∂U ∂U ∂U ⎤ ⎢ ⎥
σU 2 = ⎢ ⎥ ⎢σ yx σ y 2 σ yz ⎥ ⎢⎢∂U ∂y ⎥⎥ = A ∑ AT (28)
⎣ ∂x ∂y ∂Z ⎦ ⎢
σ σ σ 2⎥
⎢⎣ ∂U ∂z ⎥⎦ x, y,z
⎣ zx zy z ⎦
donde:
⎡σ x 2 σ xy σ xz ⎤
⎡ ∂U ∂U ∂U ⎤ ⎢ ⎥
A =⎢
∂Z ⎥⎦
∑ = ⎢σ yx σ y σ yz ⎥
2
⎣ ∂x ∂y x, y , z
⎢σ zx σ zy σ z 2 ⎥
⎣ ⎦
La matriz ∑
x, y, z
es la matriz varianza-covarianza de x, y, z.
34
⎡σ x 2 0 0 ⎤ ⎡∂U ∂x ⎤
⎡ ∂U ∂U ∂U ⎤ ⎢ ⎥
σU 2 = ⎢ 0 σy 0 ⎥ ⎢⎢∂U ∂y ⎥⎥ =
2
⎥ ⎢
⎣ ∂x ∂y ∂Z ⎦ ⎢
0 σ z ⎥⎦ ⎢⎣ ∂U ∂z ⎥⎦
2
⎣ 0
2 2 2
⎛ ∂U ⎞ ⎛ ∂U ⎞ ⎛ ∂U ⎞
⎟ σ x + ⎜⎜ ⎟⎟ σ y 2 + ⎜ ⎟ σz
2 2
=⎜ (29)
⎝ ∂x ⎠ ⎝ ∂y ⎠ ⎝ ∂z ⎠
Ejemplo1: Se han efectuado seis observaciones de una distancia inclinada s y del ángulo
vertical β, para determinar la correspondiente distancia reducida al horizonte. Hallar: a)
la distancia reducida al horizonte y su correspondiente error estándar; b) el error del
95% de confianza; c) el máximo error tolerable; d) el error relativo en partes por millón
(ppm).
figura 14
nº si(m) v i ( m) = s − s i 2
vi (m 2 )
1 125.32 0.002 0.000004
2 125.35 -0.028 0.000784
3 125.29 0.032 0.001024
4 125.30 0.022 0.000484
5 125.33 -0.008 0.000064
6 125.34 -0.018 0.000324
s=
[x] =125.322 m ; [v]= 0.002 m ≅ 0 ; [vv]= 0.002684 m 2
n
σˆ =
[vv] = 0.0232m ; σ σ)
ˆs = = 0.0095m
n −1 n
Criterio de Chauvenet:
1 1 11
p( LI ≤ s ≤ LS ) =1 − =1 − = = 0.92 Æ zc = 1.73
2n 12 12
LI = 125.322 m – 1.73 0.0322 m = 125.282 m
LS = 125.322 m + 1.73 0.0322 m = 125.362 m
No se rechazan observaciones de distancias inclinadas.
35
ángulos verticales:
nº βi vi = β − β i vi
2
X = U ( s, β ) = s cos β
Covarianza de s, β: σsβ:
nº v s = ( s − si )m v β = ( β − β i ) rad (v s v β ) m
1 0.002 0.0000524 0.0000001048
2 -0.028 0.0000766 -0.0000021450
3 0.032 0.00000388 0.0000001242
4 0.022 0.0000281 0.0000006182
5 -0.008 -0.0000446 0.0000003568
6 -0.018 -0.000173 0.0000031140
[v v ]= 0.000002068m
s β
estimación de la covarianza : σˆ sβ =
[v v ] = 0.000002068 = 4.13610
s β −7
m
n −1 6 −1
El error estándar de X, X = U(s, β) = s cosβ:
36
⎡ ∂U ⎤
⎡ ∂U ⎡ ⎤
∂U ⎤ σ s σ sβ ⎢ ∂s ⎥
2
σˆ X 2 = ⎢ ⎢ 2⎥⎢ ⎥
⎣ ∂s ∂β ⎥⎦ ⎣⎢σ βs σ β ⎦⎥ ⎢ ∂U ⎥
⎣⎢ ∂β ⎦⎥
∂U
= cos β = cos(25º 15' 20.8" ) = 0.9044
∂s
∂U
= − s senβ = −125.322m sen(25º 15' 20.8" ) = − 53.470m
∂β
σsβ = σβs = 4.136 10-7 m; σs2 = 0.0005382 m2; σβ2 = 5.0102 10-9
σˆ X = 4.145510 −4 m 2 = 0.020m
σ) X 0.020m
σˆ X = = = 0.0082m
n 6
2 2 2
⎛ ∂U ⎞ ⎛ ∂U ⎞ ⎛ 14.6" ⎞
σˆ X 2
=⎜ ⎟ σˆ s
2
+ ⎜⎜ ⎟⎟ σˆ β = (0.9044) 2 (0.0232) 2 m 2 + (−53.4700m) 2 ⎜
2
⎟
⎝ ∂s ⎠ ⎝ ∂β ⎠ ⎝ 206265 ⎠
σˆ X 2 = 4.545710 −4 m 2 Æ σˆ X = 0.021 m
σˆ X 0.020m
error 95% = z c =1.96 = 0.016 m
n 6
σˆ X 0.0082 m
d) El error relativo: ε r = = = 7.2310 −5 = 72.310 −6 = 72.3 ppm
X 113.343 m
37
Es decir 72.3 mm en un kilómetro (o 7.23 cm en un kilómetro).
Ejemplo 2: Sea la siguiente radiación de ángulos, donde se han observado las siguientes
direcciones horizontales:
figura 15
x1 = 45º 38’ 20”; x2 = 61º 30’ 27”; x3 = 83º 07’ 39”; x4 = 110º 41’ 15”, todas con el
mismo error estándar: σ) x 1 = σ) x 2 = σ) x 3 = σ) x 4 = ± 5" . Hallar: a) los ángulos horizontales
β1, β2, β3. b) los errores estándar de β1, β2, β3. c) las covarianzas σβ1β2, σβ1β3, σβ2β3. d)
los coeficientes de correlación r12, r13, r23.
a) ángulos.
β1 = -x1 + x2
β2 = - x2 + x3
β3 = - x3 + x4
⎡x ⎤
⎡ β 1 ⎤ ⎡− 1 1 0 0⎤ ⎢ 1 ⎥
β = A X = ⎢⎢ β 2 ⎥⎥ = ⎢⎢ 0 − 1 1 0⎥⎥ ⎢ 2 ⎥
x
⎢x ⎥
Æ ∑β = A ∑ AT
⎢⎣ β 3 ⎥⎦ ⎢⎣ 0 0 − 1 1⎥⎦ ⎢ 3 ⎥
X
⎣ x4 ⎦
⎡ 2 0 ⎤ ⎡− 1 0 0 ⎤
⎡σ β 2 σ β 1β 2 σ β 1β 3 ⎤ ⎡− 1 1 0 0⎤ ⎢σ x1 0 0
⎥⎢ ⎥
⎢ 1 ⎥ ⎢ 0 σ x2 0 ⎥ ⎢ 1 −1 0 ⎥
2
⎥ ⎢ 0
∑β ⎢
= σ β2
2
σ =
β 2β 3 ⎥ ⎢ 0 − 1 1 0 ⎥⎢ 0 0 σ x3 2 0 ⎥ ⎢ 0 1 − 1⎥
⎢ σ 2 ⎥
⎢ 0 0 − 1 1 ⎥ ⎢ ⎥⎢ ⎥
⎣ sim β3 ⎦ ⎣ ⎦
⎣⎢ 0 0 0 σ x 4 2 ⎦⎥ ⎣ 0 0 1 ⎦
38
⎡σ β 2 σ β 1β 2 σ β 1β 3 ⎤ ⎡σ x1 2 + σ x 2 2 − σ x2
2
0 ⎤ ⎡ 50 − 25 0 ⎤
⎢ 1 ⎥ ⎢ ⎥ ⎢ ⎥
∑β ⎢ σ β 2 σ β 2β 3 ⎥ = ⎢ − σ x2 σ x 2 + σ x3 − σ x3
2 2 2 2 2
= ⎥ = ⎢− 25 50 − 25⎥
⎢ σ β 3 2 ⎥⎦ ⎢⎣ 0 − σ x3
2
σ x 3 2 + σ x 4 2 ⎥⎦ ⎢⎣ 0 − 25 50 ⎥⎦
⎣ sim
σ β iβ j
c) Coeficientes de correlación: rβiβj =
σ β i σ βj
σ) β 1β 2 − 25 − 25
rβ 1β 2 = ) ) = = = − 0.5
σ β 1 σ β 2 7.07 7.07 50
σ) β 1β 3 0
rβ 1β 3 = ) ) = =0
σ β 1 σ β 3 7.07 7.07
σ) β 2 β 3 − 25 − 25
rβ 2 β 3 = ) ) = = = − 0.5
σ β2 σ β3 7.07 7.07 50
⎡ β1 ⎤ ⎡ σ β 1 2 σ β 1β 2 ⎤ ⎡1⎤
γ 1 = [1 1] ⎢ ⎥ Æ σ γ 1 = [1 1] ⎢
)
2 ⎥ ⎢ ⎥ = σ β 1 + σ β 2 + 2 σ β 1β 2
2 2 2
⎣β 2 ⎦ ⎢⎣σ β 2 β 1 σ β 2 ⎥⎦ ⎣1⎦
σ) γ 1 2 = 50"2 + 50"2 − 2 25"2 = 50"2 Æ σ) γ 1 = 50"2 = 7.07"
39
⎡x ⎤ ⎡ σ x1 2 σ x1x 2 ⎤ ⎡ 1 ⎤
γ 1 = − x1 + x3 = [− 1 1] ⎢ 1 ⎥ Æ σ) γ1
2
= [− 1 1] ⎢ 2 ⎥⎢ ⎥
⎣ x3 ⎦ ⎣σ x 2 x1 σ x 2 ⎦ ⎣− 1⎦
⎡σ 2 0 ⎤⎡ 1 ⎤
σˆ γ 1 2 = [− 1 1] ⎢ x1 2⎥⎢ ⎥ = σ x1 + σ x 3 = 25"2 + 25"2 = 50"2
2 2
⎣ 0 σ x 2 ⎦ ⎣− 1⎦
σˆ γ 1 = 50"2 = 7.07"
10" − 7.07"
100 = 41.4 %
7.07"
En consecuencia, las covarianzas deben ser consideradas toda vez que sea necesario.
La media ponderada:
Sea {x1, x2,…, xn} un conjunto de n observaciones repetidas de una dada magnitud X.
Dicho conjunto es una muestra de tamaño n extraída de una población infinitamente
grande. La media muestral X que estima a la media poblacional µ (verdadero valor de
la magnitud X) es:
n
[x] ∑
xi
X = = i =1 (30)
n n
σ) 2
cuya varianza es: σ) X = y estima a la varianza poblacional σ µ . La muestra se
2 2
n
subdivide en m subconjuntos de tamaños n1, n2,…, nm, tales que:
m
n = n1 + n 2 + L n m = ∑ n j
j =1
( 2) ( 2) ( 2)
+ L + xn 2
x1 + x2 σ2 σ2
; σ) X 2 =
2
X2 = Æ n2 = ) 2
n2 n2 σ X2
………………………………………………………………..
40
(m) ( m) ( m)
x1 + x2 + L + x nm σ 2
σ2
; σ) X m =
2
Xm = Æ nm = ) 2
nm nm σ Xm
De las anteriores:
σ2
∑ 1 = x1 + x2
(1) (1) (1)
+ L + x n1 = n1 X 1 = ) X1
σ X1
2
σ2
∑
( 2) ( 2) ( 2)
2 = x1 + x2 + L + xn2 = n2 X 2 = ) 2 X 2
σ X2
………………………………………………….
σ2
∑ m = x1
(m) (m) ( m)
+ x2 + L + x nm = nm X m = ) Xm
σ Xm
2
m m
1
∑ +∑1 2 + L + ∑ m = nX = ∑ n j X j = σ 2 ∑ )
σ J =1 j =1
2
X j ; es decir:
X j
m
1
n X =σ 2
∑ σ)
j =1
2
Xj
X j
Despejando X :
m
σ 2∑ ) 2 X j
1 σ2 σ2 σ2
X + X + L + Xm
j =1 σ X j σ) X 1 2 σ) X 2 2 σ) X m 2
1 2
X= = (31)
m
1 σ2 σ2 σ2
σ 2
∑ σ)
j =1
2 +
σ) X 1 2 σ) X 2 2
+ L +
σ) X m 2
X j
σ2
La (31) es la expresión de la media ponderada, donde: p j = ) es el peso de la media
σ X j
2
de cada subconjunto.
Entonces la media ponderada o pesada es:
p X + p2 X 2 + L + pm X m
∑p
j =1
j Xj
[p X ]
X= 1 1 = = (32)
p1 + p 2 + L + p m m
[ p]
∑pj =1
j
41
Si cada subconjunto tiene solamente una observación; es decir, n1= n2 =… = nn = 1, el
peso de cada observación es:
σ2
pi = (33)
σ i2
p1 = p2 =…. = pn = 1
entonces:
x1 + x 2 + L + x n [x ]
X= = (34)
n n
Sea {x1, x2,…, xn} una serie de observaciones de una dada magnitud X, con distintos
pesos p1 ≠ p2 ≠ … ≠ pn. La media ponderada es:
p1 x1 + p 2 x 2 + L + p n x n
X=
p1 + p 2 + L + p n
v1 con peso p1
v2 con peso p2
..……………………
vn con peso pn
42
Si j indica la observación ficticia de peso 1 (pj = 1):
2 v2 v
vi = Æ vi = (37)
pi pi
v = vi pi (38)
Para reducir el sistema de correcciones a la unidad de peso (es decir que todas las
observaciones tengan peso 1), se debe multiplicar cada corrección por la raíz cuadrada
de su peso. El sistema de las correcciones con peso 1 es entonces:
v1 p1 con peso 1
v 2 p 2 con peso 1
……………………..
v n p n con peso 1
El error estándar de una observación para n observaciones de igual precisión (todas con
peso 1), se obtiene de:
(
v p
σ) 2 = 1 1
) + (v
2
2 ) 2
p2 + L + vn pn ( )
2
(39)
n −1
p1v1 + p 2 v 2 + L + p n v n [ pvv]
2 2 2
σ) 2 = = (40)
n −1 n −1
σ) =
[ pvv] (41)
n −1
p1 x1 + p 2 x 2 + L + p n x n p1 x1 + p 2 x 2 + L + p n x n
X= =
p1 + p 2 + L + p n [ p]
es decir:
43
p1 p p
X= x1 + 2 x 2 + L + n x n (42)
[ p] [ p] [ p]
Asumiendo que x1, x2,…, xn son variables estocásticas independientes (de hecho lo son,
puesto que el resultado de una observación no influye en resultado de otra), puede
aplicarse a la (42) la ley de Gauss propagación de los errores de observación:
2 2 2
p1 p2 pn
σX2 = σ 12 + σ 2 2 +L+ σ n2 (43)
[ p] 2
[ p] 2
[ p] 2
σ2
Puesto que: pi = , donde σ2 es la varianza de la observación de peso 1, se tiene:
σi 2
σ2
σi2 = . Reemplazando en (43):
pi
2 2 2
p1 σ 2 p 2 σ 2 pn σ 2 p p p
σX2 = + + L + = 12 σ 2 + 22 σ 2 + L + n2 σ 2
[ p] p1 [ p ] p 2
2 2
[ p] pn [ p]
2
[ p] [ p]
σX2 =[
p1
+
p2
+L+
pn
]σ 2 =
[ p] σ 2 = σ 2
[ p]2 [ p ]2 [ p]
2
[ p]2 [ p]
donde el error estándar de la media ponderada es:
σ
σX = (44)
[ p]
Una estimación del error estándar de la media ponderada es:
σˆ X =
[ pvv] (45)
[ p](n −1)
En síntesis se tiene:
44
Primera propiedad de la media ponderada Primera propiedad de la media aritmética
[ pv]= 0 [v] = 0
Segunda propiedad de la media ponderada Segunda propiedad de la media aritmética
[ pvv] = mínimo [vv] = mínimo
Las observaciones de igual precisión, son un caso particular de las observaciones de
distinta precisión.
figura 16
Hallar:
i.- la media ponderada de la cota en F.
ii.- el error estándar de la observación de peso 1.
iii.- el error estándar de la media ponderada.
iv.- un intervalo de confianza del 95% para la media poblacional.
Datos:
45
795.52 0.29 -0.046 -0.0133 0.002120 0.000615
795.44 0.37 0.033 0.0122 0.001090 0.000403
X = 795.473 [ p ]=1.28 [ pi vi ]= 0.00023 2
pi vi = 0.00132 [ ]
[ px]= 0.6055
Media ponderada: X =
[ px] = 0.6055 = 0.473 Æ X = 795.473 m
[ p ] 1.28
σ) 0.018
Error estándar de la media ponderada: σˆ X = = = 0.016 m
[ p] 1.28
Observaciones duplicadas:
Si una magnitud dada es observada dos veces en las mismas condiciones, la diferencia
de los valores obtenidos servirá para la determinación del error estándar del valor más
probable de la magnitud medida. En efecto, sean l1 y l1’ ambas observaciones:
l1 – l1’ = d1 (46)
l1 + l1 '
l1 = (47)
2
d1 d1
v1 = l1 − l1 = − y v 2 = l1 − l '1 = (48)
2 2
46
σ) =
[vv] = d1
2
d d d
+ 1 = 2 1 = 1
2 2
(49)
2 −1 4 4 4 2
d1
σ)
= 2= 1
d
σ) l = (50)
2 2 2
Los dos primeros términos del segundo miembro de (51) son las varianzas de las
observaciones l’i y li, i = 1, n, respectivamente, y puesto que ambas series se consideran
igualmente precisas, ambos errores estándar resultan iguales y los denotamos por σ. El
tercer término es nulo puesto que las observaciones son independientes y la covarianza
[εε '] , resulta igual a cero. Entonces:
n
[dd ] = σ 2 + σ 2 = 2 σ 2 (52)
n
σ) =
[dd ] (53)
2n
σ) l =
σ)
=
1 [dd ] (54)
2 2 n
47
Si las observaciones son de distinta precisión, se tiene:
Ejemplo 4: Una base subdividida en n tramos iguales, ha sido medida en ida y vuelta
(observaciones duplicadas), obteniéndose los siguientes resultados:
l1, l’1, l2, l’2,…, ln, l’n, donde li son las observaciones de ida y l’i son las de la vuelta.
¿Cual es el error estándar de la base medida?
l1 + l '1 d
l1 = σ) l 1 = 1
2 2
l + l '2 d
l2 = 2 σ) l 2 = 2
2 2
…………………………………
l + l 'n d
ln = n σ) ln = n
2 2
d
2
d
2
d
σ) L = σ) l 1 2 + σ) l 2 2 + L + σ) ln 2 = 1 + 2 + L + n =
2
[dd ] = 1 [dd ]
4 4 4 4 2
Considerando ahora que todos los tramos tienen igual peso (puesto que tienen la misma
longitud), hacemos pi = 1, i = n, entonces, de L = l1 + l 2 + L + l n y σ l 1 = σ l 2 = L = σ ln
1 1
σ) L = n σ l = n [dd ] = 1 [dd ]
2 n 2
En la aplicación más simple tenemos dos puntos altimétricos con cotas conocidas y
entre ellos un conjunto de puntos con cotas desconocidas. Mediante la aplicación
repetida de este método de nivelación, se obtienen varias estimaciones de las diferencias
de alturas (desniveles) y las observaciones redundantes o excedentes permiten obtener
48
estimaciones de las varianzas y errores estándar. Sabemos que las varianzas “a-priori”
dependen de las distancias. Si se tienen distancias aproximadamente iguales entre las
miras (atrás y adelante), el desnivel entre los puntos A y B, figura 17, es.
figura 17
La figura 17 muestra el i-ésimo desnivel medido entre los puntos A y B. El plano visual
PV no coincide exactamente con el plano del horizonte PH, luego el error de lectura es
δi, figura 18, tanto para la lectura atrás lati como para la lectura adelante ladi, si el nivel se
coloca en la mitad de la distancia li.
figura 18
El desnivel hi es:
σˆ i 2 = δ i 2 + δ i 2 = 2 δ i 2 (59)
σˆ i = 2 δ i (60)
49
Aplicando la ley de propagación de los errores de observación a la (57):
σˆ hAB 2 = σˆ 1 2 + σˆ 2 2 + L + σˆ n 2 (61)
σˆ 1 2 = σˆ 2 2 = L = σˆ n 2 = σˆ 2
σˆ hAB 2 = n σˆ 2 (62)
L
De la figura 17, L = n l Æ n = , reemplazando en (62) el error estándar del desnivel
l
hAB, es:
σˆ
σˆ hAB = L (63)
l
σˆ
ε km = (64)
l (km)
permite estimar el error estándar del desnivel hAB, correspondiente a una distancia
horizontal L expresada en kilómetros y medido con un nivel de característica ε km .
La varianza es σˆ hAB = ε km L(km) y el peso es inversamente proporcional a la varianza;
2 2
es decir:
1
p≈ (66)
L(km)
Supongamos ahora que se hace nivelación geométrica ida y vuelta; es decir se tiene una
observación duplicada por cada desnivel. En la figura 19 se representa un ejemplo con
cinco desniveles dobles; es decir, cinco tramos de nivelación doble.
50
figura 19
σˆ =
[dd ]
2n
σˆ l =
σˆ
=
1 [dd ]
2 2 n
Supongamos ahora que los tramos de nivelación li no son iguales, hecho este que está
más cerca de la realidad: l1≠ l2 ≠ … ≠ ln . Adoptamos una distancia de referencia l0 con
varianza σ) 0 . Para una distancia li con varianza σ) 2 , podemos escribir:
2
σˆ 0 2 σˆ 2 l0 2
= Æ σˆ 0 2 = σˆ
l0 li li
l 0 [dd ] l 0 ⎡ dd ⎤
σˆ 0 2 = = (67)
l i 2n 2n ⎢⎣ l ⎥⎦
1
Puesto que el peso de un desnivel es pi = , reemplazando en (67):
li
σˆ 0 2 =
l0
[ pdd ] (68)
2n
51
Si la distancia de referencia es l0 =1 km, el error estándar de una observación (desnivel)
simple de un total de n tramos es:
1
σˆ 0 = [ pdd ] (69)
2n
y el error estándar de una observación (desnivel) doble de un total de n tramos es, para
una distancia de referencia l0 = 1 km:
σˆ 0 =
1 [ pdd ] (70)
2 n
mm
La (70) expresa el error estándar de una observación (desnivel) doble en para el i-
km
ésimo tramo. Para L (km), el error propagado al desnivel total hAB, expresado en mm,
es:
Datos:
tramo dist.(km) ida(m) vuelta(m) media(m) dif.(mm)
A-1 0.27 -3.3070 -3.3086 -3.3078 1.6
1-2 029 2.7865 2.7878 1.7872 -1.3
2-3 0.53 6.2735 6.2741 6.2738 -0.6
3-4 0.30 0.8595 0.8598 0.8596 -0.3
4-5 0.32 07122 0.7115 0.7118 0.7
5-6 0.54 3.9840 9.9847 3.9844 -0.7
6-7 0.40 3.1330 3.1310 3.1320 2.0
7-8 0.39 -2.5040 -2.5008 -2.5024 -3.2
8-9 0.48 2.1531 2.1553 2.1542 -2.2
9-10 0.28 -1.3458 -1.3483 -1.3470 2.5
10-11 0.49 -2.9557 -2.9550 -2.9554 -0.7
11-12 0.39 -2.2370 -2.2342 -2.2356 -2.8
12-13 0.36 -1.8665 -1.8632 -1.8648 -3.3
13-14 0.38 3.0875 3.0874 3.0874 0.1
14-B 0.37 -1.6803 -1.6797 -1.6800 -0.6
Σ= 5.79 Σ= 7.0930 Σ=7.1018 Σ= 7.0974 Σ= -8.8
52
Error estándar para un desnivel simple (l0 = 1 km)
1 1 ⎡ dd ⎤ 1 mm 2 mm
σˆ 0 = ⎢ ⎥ = 9 . 32 = 1.53
2 n⎣ l ⎦ 2 km km
mm
σˆ hAB = σˆ 0 L (km) = 1.53 5.79km = 3.68 mm
km
Error de cierre:
Σ(hi + h' i )
ω = HB −HA − = 47.4800 − 40.3900 − 7.0974 = − 0.0074 m = −7.4mm
2
Error máximo tolerable: et = 2.6 σ) hAB = 2.6 3.68 mm = 9.6 mm
figura 20
Se conoce:
53
σR01 : error estándar del rumbo 0-1
σX1, σY1 : errores estándar de las coordenadas del punto 1 en las direcciones de
los ejes coordenados X e Y
β i, s i : ángulos y distancias observadas
σβi, σsi : errores estándar de las observaciones
2 2 2 2 2
⎛ ∂X ⎞ ⎛ ∂X ⎞ ⎛ ∂X ⎞ ⎛ ∂X ⎞ ⎛ ∂X k ⎞
σ Xk 2
= ⎜⎜ k ⎟⎟ σ X 1 2 + ⎜⎜ k ⎟⎟ σ R 01 2 + ⎜⎜ k ⎟⎟ σ β 1 2 + ⎜⎜ k ⎟⎟ σ β 2 2 + L + ⎜⎜ ⎟⎟ σ β k −1 2 +
⎝ ∂X 1 ⎠ ⎝ ∂R01 ⎠ ⎝ ∂β 1 ⎠ ⎝ ∂β 2 ⎠ ∂β
⎝ k −1 ⎠
2 2 2
⎛ ∂X ⎞ ⎛ ∂X ⎞ ⎛ ∂X k ⎞
(76) + ⎜⎜ k ⎟⎟ σ s1 2 + ⎜⎜ k ⎟⎟ σ s 2 2 + L + ⎜ ⎟ σ s k −1 2
⎜ ∂ s k −1 ⎟
⎝ ∂s1 ⎠ ⎝ ∂ s2 ⎠ ⎝ ⎠
2 2 2 2 2
⎛ ∂Y ⎞ ⎛ ∂Y ⎞ ⎛ ∂Y ⎞ ⎛ ∂Y ⎞ ⎛ ∂Yk ⎞
σ Yk 2
= ⎜⎜ k ⎟⎟ σ Y 1 2 + ⎜⎜ k ⎟⎟ σ R 01 2 + ⎜⎜ k ⎟⎟ σ β 1 2 + ⎜⎜ k ⎟⎟ σ β 2 2 + L + ⎜⎜ ⎟⎟ σ β k −1 2 +
⎝ ∂Y1 ⎠ ⎝ ∂R01 ⎠ ⎝ ∂β 1 ⎠ ⎝ ∂β 2 ⎠ ⎝ ∂β k −1 ⎠
2 2 2
⎛ ∂Y ⎞ ⎛ ∂Y ⎞ ⎛ ∂Y ⎞
(77) + ⎜⎜ k ⎟⎟ σ s1 2 + ⎜⎜ k ⎟⎟ σ s 2 2 + L + ⎜ k ⎟ σ s k −1 2
⎜∂ ⎟
⎝ ∂s1 ⎠ ⎝ ∂ s2 ⎠ ⎝ s k −1 ⎠
54
Desarrollando las derivadas parciales en la (76)
∂X k
=1
∂X 1
∂X k k −1
= − s1 senR12 − s 2 senR23 − L − s k −1 senRk −1k = − ∑ ∆Yi = − (Yk − Y1 )
∂R01 i =1
∂X k k −1
= − s1 senR12 − s 2 senR23 − L − s k −1 senRk −1k = − ∑ ∆Yi = − (Yk − Y1 )
∂ β1 i =1
∂X k k −1
= − s 2 senR23 − L − s k −1 senRk −1k = − ∑ ∆Yi = − (Yk − Y2 )
∂β 2 i =2
………………………………………………………………………….
∂X k k −1
= − s k −1 senRk −1k = − ∑ ∆Yi = − (Yk − Yk −1 )
∂β k −1 i = k −1
∂X k X − X1
= cos R12 = 2
∂s1 s1
∂X k X − X2
= cos R23 = 3
∂s 2 s2
………………………….
∂X k X − X k −1
= cos Rk −1 k = k
∂s k −1 s k −1
2
k −1 k −1
⎛ X − Xi ⎞
σ Xk = σ X 1 + (Yk − Y1 ) σ R 01 + ∑ (Yk − Yi ) σ βi
2 2 2 2 2 2
+ ∑ ⎜⎜ i +1 ⎟⎟ σ s i 2 (78)
i =1 i =1 ⎝ si ⎠
∂Yk
=1
∂X 1
∂Yk k −1
= s1 cos R12 + s 2 cos R23 + L + s k −1 cos Rk −1k = ∑ ∆X i = ( X k − X 1 )
∂R01 i =1
∂Yk k −1
= s1 cos R12 + s 2 cos R23 + L + s k −1 cos Rk −1k = ∑ ∆X i = ( X k − X 1 )
∂β1 i =1
∂Yk k −1
= s 2 cos R23 + L + s k −1 cos Rk −1k = ∑ ∆X i = ( X k − X 2 )
∂β 2 i =2
…………………………………………………………………………..
∂Yk k −1
= s k −1 cos Rk −1k = ∑ ∆X i = ( X k − X k −1 )
∂β k −1 i = k −1
∂Yk Y − Y1
= sen R12 = 2
∂s1 s1
55
∂Yk Y − Y2
= sen R23 = 3
∂s 2 s2
………………………….
∂Yk Y − Yk −1
= cos Rk −1 k = k
∂s k −1 s k −1
σ k = σ Xk 2 + σ Yk 2 (80)
La varianza es:
σ k 2 = σ Xk 2 + σ Yk 2 (81)
[ ]
σ k 2 = σ X 1 2 + σ Y 1 2 + (Yk − Y1 )2 + ( X k − X 1 )2 σ R 01 2 + ∑ [(Yk − Yi ) 2 + ( X k − X i ) 2 ]σ βi 2 +
k −1
i =1
k −1 ⎡⎛ Y − Y 2
⎞ ⎛ X i +1 − X i ⎞
2
⎤ 2
(82) + ∑ ⎢⎜⎜ i +1 i
⎟⎟ + ⎜⎜ ⎟⎟ ⎥σ si
i =1 ⎢⎝ s ⎠ ⎝ si ⎠ ⎥⎦
⎣ i
En la (82) se ve que:
σ X 12 + σ Y12 = σ 12
(Xk –X1)2 + (Yk –Y1)2 = ℜ1,k2
(Xk –Xi)2 + (Yk –Yi)2 = ℜi,k2
2 2
⎛ X i +1 − X i ⎞ ⎛ Yi +1 − Yi ⎞
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ = cos 2 Ri , i +1 + sen 2 Ri ,i +1 =1
⎝ si ⎠ ⎝ si ⎠
56
Los valores de ℜik pueden obtenerse en forma grafica de una carta o croquis a escala
adecuada. Los valores de σR01 y σβi deben expresarse en radianes para obtener σk en
unidades lineales (por ejemplo metros).
figura 21
1
Se exige un error relativo de cierre εr, definido por ε r ≤ . Se decide medir las
20000
distancias con un distanciómetro que asegura un error lineal σs ≤ 10 mm y un teodolito
que garantiza un error angular σβ ≤ 3”.
Se desea saber si con dichos instrumentos se satisface la condición de cierre
preestablecida; es decir, cerrar con un error relativo εr ≤ 1/20000.
Adoptamos un sistema de coordenadas planas (local) donde las coordenadas del punto 1
y el rumbo del lado 1-2 se consideran libres de errores.
Por tratarse de una poligonal cerrada, el punto 1 se superpone con el punto k = 7,
entonces:
ℜ1, 7 = 0; σ1 = 0; σR01 = 0
6 6
σ 7 2 = ∑ ℜi62 σβi2 + ∑ σ si 2
i =1 i =1
ℜ11 = 0m s1 = 420 m
ℜ12 = 420 m s2 = 420 m
ℜ13 = 730 m s3 = 640 m
ℜ14 = 1120 m s4 = 460 m
ℜ15 = 800 m s5 = 420 m
57
ℜ16 = 400 m s6 = 420 m
------------------ ----------------
6 6
∑1
ℜ1i2 = 2763700 m2 ∑s 1
i = 2780 m
6 6
---------------º------------------
58
TEMA 1: TRABAJO PRÁCTICO 1
h 2 2
E1: Sea ϕ ( x) = e −h x
la función de frecuencia o densidad de probabilidad de la
π
variable aleatoria respecto de la media; es decir x = X − µ , donde X es la variable
estocástica (aleatoria) que representa a las observaciones y µ es la media poblacional o
verdadero valor de una dada magnitud que ha sido observada repetidamente un número
infinitamente grande de veces. Teniendo en cuenta la relación existente entre el módulo
de precisión h de Gauss y la desviación estándar σ de una observación, demuestre que la
función de frecuencia o densidad de probabilidad de X (las observaciones) es:
1 ( X − µ )2
1 −
ϕ(X ) = e 2 σ2
σ 2π
59
E9: Si µ es la media y σ es la desviación estándar de un conjunto infinitamente grande
de observaciones de una dada magnitud que están normalmente distribuidas, ¿qué
porcentaje de esas observaciones:
i) están dentro del recorrido µ ± 2σ?
ii) están por fuera del recorrido µ ± 1.2σ?
iii) son mayores que µ - 1.5σ?
E11: Si las 300 observaciones repetidas de una dada magnitud están distribuidas
normalmente con media µ = 1.70m y desviación estándar σ = 10cm, ¿Cuántas de esas
observaciones:
i) son mayores que 1.85m?
ii) son menores o iguales que 1.55m?
iii) están entre 1.59m y 1.81m?
E13: En el E12 se desea que el error estándar de la media aritmética sea menor que el
50% del error estándar del distanciómetro utilizado en la medición, ¿que tamaño debería
tener la muestra?
E15: Durante las pruebas realizadas don un geodímetro, una determinada base ha sido
medida 16 veces. Haciendo uso de la tabla siguiente:
60
Ejercicios optativos (*)
E1*: Se obtienen 137 errores de cierre en una determinada triangulación, según la tabla
siguiente:
reg intervalo Marca de clase frecuencia
1 -1.25”, -0.75” -1.0” 9
2 -0.75”, -0.25” -0.5” 32
3 -0.25”, 0.25” 0.0” 45
4 0.25”, 0.75” 0.5” 30
5 0.75”, 1.25” 1.0” 16
6 1.25”, 1.75” 1.5” 5
E2*: En la tabla siguiente se muestran los resultados de las pruebas realizadas con
determinado distanciómetro:
………..º…………..
61
figura
E 2: Con un nivel estacionado entre dos miras colocadas sobre sapos y a igual distancia,
se ha determinado el desnivel h entre sapos. Siendo el error medio de una visual
σ) x = ± 1 mm e igual atrás y adelante ¿cual es el error estándar del desnivel h? (ver
figura).
figura
E 3: Sea L la distancia horizontal entre dos puntos fijos de nivelación de una línea a
nivelar con visuales de longitud uniforme (ver figura)
figura
Si σ̂ es el error de un desnivel parcial ¿cual es el error estándar del desnivel entre los
puntos fijos A y B?
62
figura
1− k 2
E 5: Dado h = D cot g z + D (nivelación trigonométrica), determinar el valor del
2R
desnivel trigonométrico h y su error estándar, siendo:
z = 86º 15’ 42” (distancia cenital); σ) z = ± 3"
D = 5000 m (distancia horizontal); σ) D = ± 0.50 m
k = 0.13 (coeficiente de refracción); σ) k = ± 0.03
R = 6371 km (radio terrestre medio)
p1
E 6: Dado h = 8002 (1 + α t m ) ln (nivelación barométrica) donde:
p2
t1 + t 2
tm = (temperatura media), t1 = 20ºC, t2 = 4ºC, σ) t = ± 0.5º C
2
1
p1 = 722 mm Hg, p2 = 680 mm Hg, σ) p = ± 0.1 mm Hg , α =
273
Hallar el valor del desnivel barométrico h y su error estándar.
figura
figura
a = 405.24 m σˆ = ± 0.05 m
β = 48º 25’ 10” σˆ = ± 10"
γ = 72º 15’ 25” σˆ = ± 10"
63
E 8: Se mide una distancia inclinada de 500 m entre dos puntos con una diferencia de
nivel de 100 m. ¿Cuál es la tolerancia para el error en el desnivel si se desea obtener la
corrección por reducción al horizonte con un error estándar σˆ C RH = ± 1 mm .
h2
La corrección por reducción al horizonte es: C RH = −
2D
figura
figura
figura
X = 253.52 m σˆ X = ± 0.021 m
Y = 289.31 m σˆ Y = ± 0.027 m
64
γ = 57º 15’ 20” σˆ γ = ± 10"
figura
Determinar Z y su error estándar σ̂ Z . Si se fija el error estándar de Z en
σˆ Z ≤ 0.01 m ¿con que precisión deberá medirse X, Y, γ?
figura
est. largo visual (m) cota est.(m) desnivel (m) cota 6 (m)
1(MV) 15290.7 1491.47 93.63 1585.10
2(CºT) 25334.8 1107.77 477.67 1585.44
3(CºPL) 24684.4 1352.20 213.82 1586.32
65
4(CºLM) 12971.2 1989.56 -405.16 1584.40
5(CºÑ) 18724.0 1750.66 -166.27 1584.39
E 16: Desde la estación O, se han medido las distancias OA = x1, OB = x2, OC = x3, OD
= x4, alineadas en la misma dirección (ver figura), con un distanciómetro cuya precisión
estándar es: σ = 5 mm + 5 ppm D (mm).
figura
66
figura
0: X0 = 699.821 m Y0 = 57.542 m
1: X1 = 148.037 m Y1 = 221.253 m
E 18: En la poligonal del ejercicio 17, se desea que el punto 5 tenga un error total
σˆ p ≤ 2.5 cm ¿Cuáles deben ser los errores angular σ̂ β y en distancia σ̂ s ? Indique el
instrumento apropiado para medir la poligonal.
---------------º-------------
-------------
-------
---
-
67
TEMA 2
INCONSISTENTES
68
Sistemas de ecuaciones lineales inconsistentes:
x1 + 2 x 2 = 3
5 x1 + 3 x 2 = 3
4 x1 + 6 x 2 = 4
⎡1 2 ⎤ ⎡ 3⎤
⎢5 3⎥ ⎡ x1 ⎤ = ⎢3⎥
⎢ ⎥ ⎢x ⎥ ⎢ ⎥
⎢⎣4 6⎥⎦ ⎣ 2 ⎦ ⎢⎣4⎥⎦
es decir:
AX=L (1)
⎡1 ⎤ ⎡ 2⎤ ⎡ 3⎤
⎢ ⎥
x1 ⎢5⎥ + x 2 ⎢⎢3⎥⎥ = ⎢⎢3⎥⎥
⎢⎣4⎥⎦ ⎢⎣6⎥⎦ ⎢⎣4⎥⎦
donde:
⎡1 ⎤ ⎡2⎤
A = ⎢⎢5⎥⎥
(1)
y A ( 2)
= ⎢⎢3⎥⎥
⎢⎣4⎥⎦ ⎢⎣6⎥⎦
x1 A (1) + x 2 A ( 2 ) = L
es decir, L puede expresarse como una combinación lineal de los vectores columna A(1)
y A(2) con los escalares x1 y x 2 . Trataremos de hallar la solución del sistema lineal
mediante la eliminación gaussiana:
69
paso 1 paso 2 paso 3
12 3 1 2 3 1 2 3
53 3 Æ 0 -7 -12 Æ 0 -7 -12
32
46 4 0 -2 -8 0 0 −
7
x1 + 2 x 2 = 3
7 x 2 =12
32
0=−
7
⎡1 2⎤ ⎡1 2 3 ⎤
A = ⎢⎢5 3⎥⎥ y A * = ⎢⎢5 3 3⎥⎥
⎢⎣4 6⎥⎦ ⎢⎣4 6 4⎥⎦
figura 1
70
Los vectores columna A(1) y A(2) generan un plano denominado el espacio columna de la
matriz A y denotado por ECA, que contiene todas las posibles combinaciones lineales de
los vectores columna; es decir:
x1 A (1) + x 2 A ( 2 ) ∈ EC A
x1 A (1) + x 2 A ( 2 ) = L + V
o bien:
A X = L +V (2)
3
V = [v1 v3 ] Æ V = V T V = v1 + v 2 + v3 = ∑ vi = mínimo
T 2 2 2 2 2
v2
i =1
⎧⎡ x1 ⎤ ⎡1 ⎤ ⎡2⎤ ⎡ x1 ⎤ ⎫
⎪⎢ ⎥ ⎪
EC A = ⎨⎢ x 2 ⎥ tal que : λ ⎢5⎥ + µ ⎢⎢3⎥⎥ = ⎢⎢ x 2 ⎥⎥ ⎬
⎢ ⎥
⎪⎢ x ⎥ ⎢⎣4⎥⎦ ⎢⎣6⎥⎦ ⎢⎣ x3 ⎥⎦ ⎪⎭
⎩⎣ 3 ⎦
Entonces:
λ + 2 µ = x1
5 λ + 3 µ = x2
4 λ + 6 µ = x3
71
5 ( x1 − 2 µ ) + 3 µ = x 2
4 ( x1 − 2 µ ) + 6 µ = x3
Operando, se llega a:
14 µ = − 2 x 2 + 10 x1
14 µ = − 7 x3 + 28 x1
18 x1 + 2 x 2 − 7 x3 = 0
( A X )T V = 0 (3)
Reemplazando V = AX − L en la (3):
( A X )T ( AX − L ) = 0
X T AT ( AX − L ) = 0
X T AT AX − X T AT L = 0
(
X T AT AX − AT L = 0 )
Dado que X es distinto del vector nulo, X ≠ 0, debe cumplirse:
AT AX − AT L = 0
AT A X = AT L (4)
N = AT A (5)
X = N −1 A T L (6)
72
Para el ejemplo 1, se tiene:
⎡1 2⎤ ⎡ 3⎤
⎡42 41⎤ ⎡34⎤
A = ⎢5 3⎥ ; L = ⎢⎢3⎥⎥ Æ
⎢ ⎥ N = AT A = ⎢ ⎥ ; AT L = ⎢ ⎥
⎢⎣4 6⎥⎦ ⎢⎣4⎥⎦ ⎣ 41 49⎦ ⎣39⎦
⎡ 49 − 41⎤ 1 ⎡ 49 − 41⎤
det ( N ) = 377 ; adj ( N ) = ⎢ ⎥ ; N −1 =
⎣− 41 42 ⎦ 377 ⎢⎣− 41 42 ⎥⎦
⎡ v1 ⎤ ⎡1 2⎤ ⎡3⎤ ⎡ − 1.52780 ⎤
⎡ 0 . 177719 ⎤
V = ⎢⎢v 2 ⎥⎥ = AX − L = ⎢⎢5 3⎥⎥ ⎢ ⎢ ⎥ ⎢ ⎥
⎥ − ⎢3⎥ = ⎢− 0.16976⎥
0 . 647215
⎢⎣v3 ⎥⎦ ⎢⎣4 6⎥⎦ ⎣ ⎦ ⎢4⎥ ⎢ 0.59417 ⎥
⎣ ⎦ ⎣ ⎦
V = V T V = 2.716293 = 1.64804
⎡1 2⎤ ⎡0.177719⎤ ⎡1.472149 ⎤
AX = ⎢⎢5 3⎥⎥ ⎢. ⎥ = ⎢2.830240⎥
⎢ ⎥ ⎢ ⎥
⎢⎣4 6⎥⎦ ⎣0.647215⎦ ⎢⎣4.594166⎥⎦
X =L+λn (7)
donde n = [18, 2, -7]T es un vector normal a ECA que surge de su propia ecuación.
La ecuación vectorial de ECA es:
nT X = 0 (8)
73
X p =L+λn (9)
nT X p = 0 (10)
n T (L + λ n ) = 0
nT L + λ nT n = 0
λ nT n = − nT L
nT L
λ =− T (11)
n n
Entonces:
⎡ 3⎤
[18 2 − 7] ⎢⎢3⎥⎥
⎢⎣4⎥⎦ 32
λ =− =−
⎡ 18 ⎤ 377
⎢
[18 2 − 7] ⎢ 2 ⎥ ⎥
⎢⎣− 7 ⎥⎦
⎡ 3⎤ ⎡ 18 ⎤ ⎡1.472150 ⎤
⎢ ⎥ 32 ⎢ ⎥ ⎢
X p = L + λ n = ⎢ 3⎥ − ⎢ 2 ⎥ = ⎢2.830239⎥⎥
377
⎢⎣4⎥⎦ ⎢⎣− 7⎥⎦ ⎢⎣4.594164⎥⎦
x1 + 2 x 2 = 4
2 x1 + 4 x 2 = 5
3 x1 + 6 x 2 = 8
74
⎡1 2 ⎤ ⎡ 4⎤
⎡ ⎤
AX = L Æ ⎢⎢2 4⎥⎥ ⎢ ⎥ = ⎢⎢5⎥⎥
x 1
1 2 4 1 2 4
2 4 5 Æ 0 0 −3
3 6 8 0 0 −4
El sistema triangular equivalente es:
x1 + 2 x 2 = 4
0=− 3
0=− 4
El sistema es inconsistente. El rango de la matriz A es ℜ(A) = 1; el número de
columnas es m = 2. El defecto de rango de la matriz A es r = m - ℜ(A) = 2 – 1 = 1.
El sistema de las ecuaciones normales es:
14 28 38 14 28 38
28 56 76 Æ 0 0 0
14 x1 + 28 x 2 = 38
19 19
es decir: x1 + 2 x 2 = Æ x1 = − 2 x2
7 7
⎡ x1 ⎤ ⎡19 − 2 x 2 ⎤ ⎡19 ⎤ ⎡− 2⎤
⎢x ⎥ = ⎢ 7 ⎥ = ⎢ 7 ⎥ + x 2 ⎢ 1 ⎥; − ∞ < x2 < + ∞
⎣ 2 ⎦ ⎢⎣ x 2 ⎥⎦ ⎢⎣ 0 ⎥⎦ ⎣ ⎦
T
⎡19 ⎤
donde ⎢ 0⎥ es una solución particular del sistema de las ecuaciones normales que
⎣7 ⎦
denotamos por F, mientras que [− 2 1] es una solución del sistema homogéneo
T
75
asociado que denotamos por N1; entonces podemos expresar la solución general
mínimos cuadrados por:
⎡ x1 ⎤ ⎡19 ⎤ ⎡2.7143⎤
⎢x ⎥ = ⎢ 7 ⎥ = ⎢ 0 ⎥
⎣ 2 ⎦ ⎢⎣ 0 ⎥⎦ ⎣ ⎦
0
⎢⎣3 6⎥⎦ ⎣ ⎦ ⎢8 ⎥ ⎢ 0.1429 ⎥
⎣ ⎦ ⎣ ⎦
⎡ x1 ⎤ ⎡19 ⎤ ⎡− 2⎤ ⎡0.7143⎤
⎢x ⎥ = ⎢ 7 ⎥ + ⎢ 1 ⎥ = ⎢ 1 ⎥
⎣ 2 ⎦ ⎢⎣ 0 ⎥⎦ ⎣ ⎦ ⎣ ⎦
⎡ 1 2⎤ ⎡4⎤ ⎡− 1.2857 ⎤
⎢ ⎥ ⎡0.7143⎤ ⎢ ⎥ ⎢ ⎥
V = AX − L = ⎢ 2 4⎥ ⎢ ⎥ − ⎢5⎥ = ⎢ 0.4286 ⎥ Æ V V = 1.8571; X X = 1.5102
T T
1
⎢⎣36 6⎥⎦ ⎣ ⎦ ⎢8 ⎥ ⎢ 0.1429 ⎥
⎣ ⎦ ⎣ ⎦
Decimos que la solución particular para λ = 1 es “mejor” que la solución particular para
λ = 0, puesto que su norma X T X = 1.5102 = 1.289 es menor que la norma de la
solución particular para λ = 0, X T X = 7.3674 = 2.7143 .
¿Cuál es entonces la “mejor” solución o solución óptima?
Si todas las soluciones son mínimos cuadrados (VTV = mínimo), la solución óptima será
aquella que tenga norma mínima; es decir: X T X = mínimo .
76
figura 2
N 1 Xˆ = 0
T
(13)
N 1 Xˆ = N 1 F + λ N 1 N 1
T T T
de la (13):
N1 F + λ N1 N1 = 0
T T
entonces :
T
N1 F
λ=− T
N1 N1
⎡19 ⎤
[− 2 1] ⎢ 7 ⎥
38
⎢ ⎥ −
⎣ 0 ⎦ = − 7 = 38 = 1.0857
T
N F
λ = − 1T =−
−2
[− 2 1] ⎡⎢ ⎤⎥
N1 N1 5 35
⎣1 ⎦
77
⎡19 ⎤ ⎡− 2⎤ ⎡0.5429⎤
Xˆ = F + λ N 1 = ⎢ 7 ⎥ + 1.0857 ⎢ ⎥ = ⎢ ; Æ Xˆ T Xˆ = 1.4774 = 1.2155
⎢0⎥ ⎣ 1 ⎦ ⎣1.0857 ⎥⎦
⎣ ⎦
X SLHA = λ1 N 1 + λ 2 N 2 + L + λ r N r (14)
Xˆ = F + X SLHA = F + λ1 N 1 + λ 2 N 2 + L + λ r N r (15)
N 1 N 1 λ1 + N 1 N 2 λ 2 + L + N 1 N r λ r = − N 1 F
T T T T
N 2 N 1 λ1 + N 2 N 2 λ 2 + L + N 2 N r λ r = − N 2 F
T T T T
(16)
……………………………………………………
N r N 1 λ1 + N r N 2 λ 2 + L + N r N r λ r = − N r F
T T T T
2 x1 + x 2 + 2 x 4 = 6
x1 + x 4 = 1
x1 + x 2 + x 4 = 3
− x 2 = −2
x1 + x 4 = 1
x1 + 2 x 2 + x 4 = 5
78
⎡2 1 0 2⎤ ⎡6⎤
⎢1 0 1 ⎥⎥ ⎢ ⎥
⎢ 0 ⎡ x1 ⎤ ⎢ 1 ⎥
⎢1 1 0 1⎥ ⎢x ⎥ ⎢ 3 ⎥
⎢ ⎥ ⎢ 2⎥ = ⎢ ⎥
⎢0 − 1 0 0⎥ ⎢ x3 ⎥ ⎢− 2⎥
⎢1 0 ⎢ ⎥ ⎢ ⎥
0 1⎥ ⎣ x4 ⎦ 1
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 ⎦⎥ ⎣⎢ 5 ⎦⎥
⎡2 1 0 2 6 ⎤ ⎡2 1 0 2 6⎤
⎢1 0 0 1 ⎥ ⎢
1 ⎥ ⎢0 − 1 / 2 0 0 − 2⎥⎥
⎢
⎢1 1 0 1 3 ⎥ ⎢0 1 / 2 0 0 0⎥
⎢ ⎥Æ⎢ ⎥Æ
⎢0 − 1 0 0 − 2⎥ ⎢0 − 1 0 0 − 2⎥
⎢1 0 0 1 1 ⎥ ⎢0 − 1 / 2 0 0 − 2⎥
⎢ ⎥ ⎢ ⎥
⎣⎢1 2 0 1 5 ⎦⎥ ⎣⎢0 3 / 2 0 0 2 ⎦⎥
⎡2 1 0 2 6 ⎤ ⎡2 1 0 2 6⎤
⎢0 − 1 0 0 − 4⎥⎥ ⎢⎢0 − 1 0 0 − 4⎥⎥
⎢
⎢0 1 0 0 0 ⎥ ⎢0 0 0 0 − 4⎥
⎢ ⎥Æ⎢ ⎥
⎢0 − 1 0 0 − 2⎥ ⎢0 0 0 0 2⎥
⎢0 − 1 0 0 − 4⎥ ⎢0 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
⎢⎣0 3 0 0 4 ⎥⎦ ⎢⎣0 0 0 0 − 8⎥⎦
⎡8 5 0 8⎤ ⎡ x1 ⎤ ⎡22⎤
⎢5 7 0 5⎥⎥ ⎢ x ⎥ ⎢ 21⎥
⎢ ⎢ 2⎥ = ⎢ ⎥
⎢0 0 0 0⎥ ⎢ x3 ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣8 5 0 8⎦ ⎣ x 4 ⎦ ⎣22⎦
79
⎡8 5 0 8⎤ ⎡22⎤ ⎡8 5 0 8⎤ ⎡ 22 ⎤
⎢5 7 0 5⎥ ⎢ 21⎥ ⎢ 3.875 0 0⎥⎥ ⎢⎢7.25⎥⎥
⎥ ⎢ ⎥ ⎢
⎢ Æ
⎢0 0 0 0⎥ ⎢ 0 ⎥ ⎢ 0 0⎥ ⎢ 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥
⎣8 5 0 8⎦ ⎣22⎦ ⎣ 0⎦ ⎣ 0 ⎦
x1 = 1.58064 – x4
x2 = 1.87097
⎡ x1 ⎤ ⎡1.58064 − x 4 ⎤ ⎡1.58064⎤ ⎡0 ⎤ ⎡− 1⎤
⎢ x ⎥ ⎢1.87097 ⎥ ⎢1.87097⎥ ⎢0 ⎥ ⎢ ⎥
⎢ 2⎥ = ⎢ ⎥=⎢ ⎥ + x3 ⎢ ⎥ + x 4 ⎢ 0 ⎥
⎢ x3 ⎥ ⎢ x3 ⎥ ⎢ 0 ⎥ ⎢1 ⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ x4 ⎦ ⎣ x4 ⎦ ⎣ 0 ⎦ ⎣0 ⎦ ⎣1⎦
i) Xˆ = F + λ1 N 1 + λ 2 N 2 ; ii) N 1 Xˆ = 0 ; iii) N 2 Xˆ = 0
T T
λ1 + 0 λ2 = 0
0 λ1 + 2 λ2 = 1.58064
80
⎡1.58064⎤ ⎡− 1⎤ ⎡0.79032⎤
⎢1.87097⎥ ⎢ 0 ⎥ ⎢1.87097 ⎥
XF = ⎢ ⎥ + 0.79032 ⎢ ⎥ = ⎢ ⎥Æ X = X T X = 2.1795 = mínimo
⎢ 0 ⎥ ⎢ 0 ⎥ ⎢0.00000⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣ 1 ⎦ ⎣0.79032⎦
⎡− 0.9678⎤
⎢ 0.5806 ⎥
⎢ ⎥
⎢ 0.4516 ⎥
V =⎢ ⎥ Æ V = V V = 1.3912 = mínimo
T
⎢ 0.1290 ⎥
⎢ 0.5806 ⎥
⎢ ⎥
⎢⎣ 0.3226 ⎥⎦
AX = λX (17)
Para hallar los valores propios y los correspondientes vectores propios de la matriz
A, se procede como sigue:
(A − λ I ) X =0 (18)
det ( A − λ I ) = 0 (19)
81
La (19) se denomina la ecuación característica de la matriz A y es un polinomio de
grado m en λ. A cada valor propio λj j = 1, m le corresponde un vector propio Xj j =
1, m que se obtiene como solución del sistema homogéneo (18) luego de reemplazar
el correspondiente λj, que es una solución de (19).
Sea como ejemplo la matriz de orden 2x2, siguiente:
⎡a a12 ⎤
A = ⎢ 11
⎣a 21 a 22 ⎥⎦
a11 − λ a12
det ( A − λ I ) = = (a11 − λ ) (a 22 − λ ) − a12 a 21 =
a 21 a 22 − λ
= λ2 − (a11 + a 22 ) λ + (a11 a 22 − a12 a 21 ) = 0
Nos interesa especialmente el caso de las matrices simétricas, puesto que la matriz
normal lo es.
Si, en general, Amxm es simétrica y Xi, Xj son vectores propios correspondientes a
valores propios distintos λi y λj (λi ≠λj), entonces”Xi y Xj son ortogonales (Xi ⊥ Xj)”.
Puesto que λi es un valor propio de la matriz A y Xi es un vector propio
correspondiente:
AX i = λi X i (21)
X i AT = λi X i
T T
transponiendo:
X i A T X j = λi X i X j
T T
(22)
82
AX j = λ j X j
Puesto que A es simétrica: AT X j = λ j X j
X i λ j X j = λi X i X j Æ λ j X i X j = λi X i X j
T T T T
Reemplazando en (22):
λ j X i T X j − λi X i T X j = 0 Æ (λ j − λ i ) X i X j = 0
T
Puesto que λi ≠λj, resulta que XiT Xj = 0, entonces Xi y Xj son ortogonales, dado que Xi
≠ 0 y Xj ≠ 0. Los vectores propios de una matriz simétrica son ortogonales: Xi ⊥ Xj i =
1, m; j =1, m i ≠ j.
AX j = λ j X j
BT B X j = λ j X j (23)
2
BX j
entonces: λj = 2
≥ 0 j = 1, m
Xj
i) Todos los valores propios de una matriz simétrica son números reales y positivos (λj
≥ 0; j = 1, m)
ii) Los vectores propios son mutuamente ortogonales (Xi ⊥ Xj, i = 1, m; j =1, m i ≠ j).
83
⎡ 4 2⎤
Ejemplo4: Sea A = ⎢ ⎥ , hallar sus valores propios y los vectores propios
⎣2 1 ⎦
correspondientes.
⎡4 − λ1 2 ⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡− 1 2 ⎤ ⎡ x1 ⎤ ⎡0⎤
( A − λ1 I ) X = 0 Æ ⎢ 2 ⎥ ⎢ ⎥ =⎢ ⎥ Æ ⎢ ⎥⎢ ⎥=⎢ ⎥
⎣ 1 − λ1 ⎦ ⎣ x 2 ⎦ ⎣0⎦ ⎣ 2 − 4 ⎦ ⎣ x 2 ⎦ ⎣0 ⎦
⎡ x1 ⎤ ⎡2 x 2 ⎤ ⎡ 2⎤
⎢ x ⎥ = ⎢ x ⎥ = x 2 ⎢1 ⎥ ; − ∞ < x2 < + ∞
⎣ 2⎦ ⎣ 2 ⎦ ⎣ ⎦
⎡2⎤
haciendo, por ejemplo, x 2 = 1 , se tiene un vector propio X 1 = ⎢ ⎥ correspondiente al
⎣1 ⎦
valor propio λ1 = 5.
⎡4 − λ 2 2 ⎤ ⎡ x1 ⎤ ⎡0⎤ ⎡4 2⎤ ⎡ x1 ⎤ ⎡0⎤
( A − λ2 I ) X = 0 Æ ⎢ ⎥ ⎢ ⎥ =⎢ ⎥ Æ ⎢ ⎥⎢ ⎥ = ⎢ ⎥
⎣ 2 1 − λ 2 ⎦ ⎣ x 2 ⎦ ⎣0 ⎦ ⎣ 2 1 ⎦ ⎣ x 2 ⎦ ⎣0 ⎦
84
⎡ x1 ⎤ ⎡− 1 x 2 ⎤ ⎡ 1⎤
⎢ x ⎥ = ⎢ 2 ⎥ = x2 ⎢− 2 ⎥ − ∞ < x2 < + ∞
⎣ 2 ⎦ ⎢⎣ x 2 ⎥⎦ ⎢ 1 ⎥
⎣ ⎦
⎡− 1⎤
haciendo, por ejemplo, x 2 = 2 , se tiene un vector propio X 2 = ⎢ ⎥ , correspondiente al
⎣2⎦
valor propio λ2 = 0.
⎡− 1⎤
Los vectores propios X1 y X2 son ortogonales: X 1 X 2 = [2 1] ⎢ ⎥ = 0 Æ X 1 ⊥ X 2
T
⎣2⎦
figura 3
Xj
e( j = ; e( j = 1 j = 1, m (24)
Xj
⎧0 si i ≠ j⎫
donde e(i e( j = ⎨ ⎬
⎩1 si i = j⎭
E-1 = ET (25)
85
Consideremos nuevamente una matriz simétrica Amxm y la respectiva matriz E, cuyas
columnas son los vectores propios normalizados de la matriz simétrica A. El producto
de ambas matrices se expresa por:
⎡λ1 0 L 0⎤
⎢0 λ2 L 0 ⎥⎥
A E = [A e1 , Ae 2 , L , Ae m ] = [λ1 e1 , λ 2 e 2 , L , λ m e m ] = [e1 , e 2 , L , e m ] ⎢
( ( ( ( ( ( ( ( (
⎢M M O 0⎥
⎢ ⎥
⎣0 0 L λm ⎦
es decir:
AE = E D (26)
D es una matriz diagonal, donde los valores propios de A (λj, j = 1, m) son sus
elementos diagonales.
Premultiplicando la (26) por ET y considerando que E es una matriz ortogonal (E-1 =
ET):
ET A E = ET E D = E-1 E D = D
ETAE = D (27)
EETAE = ED
AE = ED
AEET = EDET
A = EDET (28)
A-1 = (EDET)-1
A-1 = (ET)-1D-1E-1
A-1 = (E-1)-1D-1E-1
Si A es no singular (|A| ≠ 0), todos sus valores propios son distintos de cero y existe la
matriz inversa D-1. Entonces, la (29) es la inversa regular de Cayley:
adj ( A)
A −1 = = E D −1 E T (30)
A
Si A es una matriz simétrica singular su determinante es igual a cero ((|A| = 0), resulta
entonces defectuosa de rango, ℜ(A) < m, y presenta tantos valores propios nulos como
su defecto de rango (r = m - ℜ(A)). No existe pues D-1, la inversa de la matriz D. Si
removemos los valores propios nulos de la diagonal de D y al mismo tiempo
86
removemos los vectores propios normalizados correspondientes de la matriz E, la
expresión.
A+ = E D-1 ET (31)
i) V T V = mínimo
ii) X T X = mínimo
La matriz normal N:
⎡8 5 0 8⎤
⎢5 7 0 5⎥⎥
N = AT A = ⎢
⎢0 0 0 0⎥
⎢ ⎥
⎣8 5 0 8⎦
8−λ 5 0 8
5 7−λ 0 5
det ( N − λ I ) = = λ 4 − 23 λ3 + 62 λ 2 = 0
0 0 −λ 0
8 5 0 8−λ
87
⎡− 11.88153 5 0 8 0⎤
⎢ 5 − 12.88153 0 5 0 ⎥⎥
⎢
⎢ 0 00 − 19.88153 0 0⎥
⎢ ⎥
⎢ 8 58 0 − 11.88153 0⎥
⎢ L L L L L L⎥
⎢ ⎥
⎢− 11.88153 5 0 8 0⎥
⎢ 0 − 10.77742 0 8.36657 0⎥
⎢ ⎥
⎢ 0 0 − 19.88153 0 0⎥
⎢ 0 8.366657 0 − 6.49502 0⎥
⎢ ⎥
⎢ L L L L L L⎥
⎢ ⎥
⎢− 11.88153 5 0 8 0⎥
⎢ 0 − 10.77742 0 8.36657 0⎥
⎢ ⎥
⎢ 0 0 − 19.88153 0 0⎥
⎢ 0 0 0 0 0⎥
⎢ ⎥
⎢⎣ L L L L L L⎥⎦
-11.88153 x1 + 5 x2 + 8 x4 = 0
-10.77742 x2 + 8.36657 x4 = 0
-10.88153x3 =0
⎡1.00003 x 4 ⎤ ⎡1.00003 ⎤
⎢0.77630 x ⎥ ⎢0.77630⎥
X1 = ⎢ 4⎥
= x4 ⎢ ⎥
⎢ 0 ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥
⎣ x4 ⎦ ⎣ 1 ⎦
Las matrices E y D, luego de remover los valores propios nulos y sus correspondientes
vectores propios normalizados, son:
88
⎡0.61987 0.342026 ⎤
⎢ ⎥
(e ] = ⎢0.48119 − 0.876610⎥ ⎡λ 0 ⎤ ⎡19.88153 0 ⎤
E = [e(1 D=⎢ 1 ⎥ =⎢
⎢ 0 ⎥ λ2 ⎦ ⎣ 0 3.11847 ⎥⎦
2
0 ⎣0
⎢ ⎥
⎣0.61985 0.340260 ⎦
⎡1 ⎤
⎢λ 0⎥
⎡0.05030 0 ⎤
D −1 =⎢ 1 ⎥=⎢
⎢0 1⎥ ⎣ 0 0.032067 ⎥⎦
⎢⎣ λ 2 ⎥⎦
⎡22⎤
⎢ 21⎥
A L=⎢ ⎥
T
⎢0⎥
⎢ ⎥
⎣22⎦
⎡0.79036⎤
⎢1.87066 ⎥
Xˆ = ( AT A) + AT L = N + AT L = ⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎣0.79036⎦
-------------------º-------------------
89
TRABAJO PRÁCTICO 2
i) x1 + 2 x 2 = 3
5 x1 + 3 x2 = 3
4 x1 + 6 x 2 = 4
⎡1 2 ⎤ ⎡ 4⎤
ii) ⎢2 4⎥ ⎡ x1 ⎤ = ⎢5⎥
⎢ ⎥ ⎢x ⎥ ⎢ ⎥
⎢⎣3 6⎥⎦ ⎣ 2 ⎦ ⎢⎣8⎥⎦
iii) x1 + x2 = 3
2 x1 + 2 x2 = 5
x1 + x2 = 2
usando la pseudoinvrsa M-P.
⎡1 2 − 1⎤ ⎡3⎤
⎢1 2 0⎥⎥ ⎢2⎥
⎡1 2 0⎤ ⎡6 ⎤ ⎢ ⎢ ⎥
⎢0 ⎥ ⎢ 4⎥ ⎢1 2 0⎥ ⎢3⎥
⎢ 0 1⎥ ⎢ ⎥ ⎢ ⎥
⎡ 1⎤ ⎢ ⎥
x ⎢0 0 0 ⎥ ⎡ x1 ⎤ ⎢ 0 ⎥
⎢1 2 0⎥ ⎢ ⎥ ⎢5 ⎥
i) ⎢ ⎥ x2 = ⎢ ⎥ ii) ⎢− 1 − 2 0 ⎥ ⎢⎢ x 2 ⎥⎥ = ⎢− 2⎥
⎢0 0 1 ⎥ ⎢ ⎥ ⎢ 3⎥ ⎢ ⎥ ⎢ ⎥
⎢ x3 ⎥ ⎢1 2 1 ⎥ ⎢⎣ x3 ⎥⎦ ⎢ 5 ⎥
⎢1 2 0⎥ ⎣ ⎦ ⎢6 ⎥
⎢ ⎥ ⎢ ⎥ ⎢1 2 2⎥ ⎢4⎥
⎣⎢0 0 1⎦⎥ ⎣⎢4⎥⎦ ⎢ ⎥ ⎢ ⎥
⎢1 2 3⎥ ⎢4⎥
⎢0 0 1⎦⎥ ⎢1 ⎥
⎣ ⎣ ⎦
-------------------º-------------------
90
TEMA 3
91
Las Redes Topográficas:
figura 1
Y J − YK Y − YK
β = arctg − arctg I (1)
XJ − XK XI − XK
β = f β ( X I , YI , X J , Y J , X K , Y K ) (2)
92
figura 2
La distancia D es entonces:
D = ( X J − X I ) 2 + (YJ − YI ) 2 (3)
D = f D ( X I , YI , X J , Y J ) (4)
l i = f i ( X 1 , Y1 , X 2 , Y2 , L , X j , Y j , L X p , Y p ) (5)
o bien:
⎡ l1 ⎤ ⎡ f 1 ( X 1 , Y1 ,L X j , Y j ,L , X p , Y p ) ⎤
⎢l ⎥ ⎢ f ( X , Y , L X , Y , L , X , Y ) ⎥
⎢ 2⎥ ⎢ 2 1 1 j j p p ⎥
⎢M⎥ ⎢ L ⎥
⎢ ⎥=⎢ ⎥ (6)
⎢ li ⎥ ⎢ f i ( X 1 , Y1 , L X j , Y j ,L, X p , Y p ) ⎥
⎢M⎥ ⎢ L ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣l n ⎥⎦ ⎢⎣ f n ( X 1 , Y1 ,L X j , Y j ,L , X p , Y p )⎥⎦
f i ( X 1 , Y1 , L X j , Y j , L , X p , Y p ) = l i (7)
93
Xj0,Yj0 son coordenadas planas aproximadas tales que, las coordenadas ajustadas
(compensadas) se expresan por:
0
X j = X j + dX j
0
Y j = Y j + dY j j = 1, p (8)
li = lbi + vi i = 1, n (9)
0 0 0 0 0 0
f i ( X 1 + dX 1 , Y1 + dY1 ,L X j + dX j , Y j + dY j , L, X p + dX p , Y p + dY p ) = lb i + vi
i = 1, n
Según (1) y (3), las f i en la (7) no son funciones lineales. Un desarrollo en serie de
0 0
Taylor alrededor de los valores aproximados X j , Y j j = 1, p , y despreciando términos
de mayor orden y grado, nos permite obtener una expresión linealizada para (7). Así,
desarrollando en serie de Taylor:
⎛ ∂f ⎞ ⎛ ⎞
f i (L , X j , Y j , L) + L + ⎜ i
0 0
⎟ 0 dX j + ⎜ ∂f i ⎟ 0 dY j + L = l bi + vi i = 1, n (11)
⎜ ∂X ⎟ ⎜ ∂Y ⎟
⎝ j ⎠ ⎝ j ⎠
0 0 0
donde: f i (L, X j , Y j ,L) = l i es un valor aproximado de la observación (ángulo o
0 0
distancia) que se calcula reemplazando las coordenadas aproximadas X j , Y j en (1) o
(3) según corresponda. El subíndice”0” en las derivadas parciales de la (11) indica que
una vez obtenidas dichas derivadas, debemos transformarlas en coeficientes numéricos
0 0
mediante las coordenadas aproximadas X j , Y j . La (11) adquiere entonces la
siguiente forma:
∂f i ∂f 0
L+ dX j + i dY j + L = lbi − li + vi i = 1, n j = 1, p (12)
∂X j ∂Y j
94
⎡L L L L⎤ ⎡ M ⎤ ⎡M⎤
⎢L L L L⎥⎥ ⎡ M ⎤ ⎢ ⎥ ⎢M⎥
⎢ ∂f i ∂f i ⎢dX ⎥ ⎢ M ⎥ ⎢ ⎥
⎢L L⎥ ⎢ j ⎥ = ⎢lbi − l i ⎥ + ⎢v i ⎥
0
(13)
⎢ ∂X j ∂Y j ⎥ ⎢ dY j ⎥ ⎢ ⎥ ⎢ ⎥
⎢L L L L⎥ ⎢ M ⎥ ⎢ M ⎥ ⎢M⎥
⎢ ⎥⎣ ⎦ ⎢
⎣ M ⎥⎦ ⎢⎣ M ⎥⎦
⎣⎢L L L L⎦⎥
AX = L + V (14)
0
donde Li = lbi − li i = 1, n . La matriz A, denominada la matriz de diseño, es tal que
sus elementos son las derivadas parciales de las funciones explicitas f i respecto de las
coordenadas o parámetros Xj, Yj, evaluadas en las coordenadas aproximadas Xj0, Yj0. El
vector de las incógnitas X, está formado por las correcciones diferenciales dXj, dYj a las
coordenadas aproximadas. El vector V contiene las correcciones o residuos vi. La matriz
A es de orden nxm donde m = 2p siendo en general, n > m. El vector L contiene a las
observaciones lbi y estas a su vez, están afectadas de los inevitables errores de
observación (errores accidentales), en consecuencia, el vector L no pertenece al espacio
columna de la matriz A, ECA, generado por las columnas de A, resultando así
inconsistente el sistema lineal AX = L. Es necesario pues, sumar el vector corrección V
al vector L, de manera que V sea perpendicular al espacio columna de la matriz A,
minimizando su módulo.
Llamemos Lb al vector de las observaciones:
⎡ lb1 ⎤
⎢l ⎥
⎢ b2 ⎥
⎢M⎥
Lb = ⎢ ⎥ (15)
l
⎢ ⎥ bi
⎢M⎥
⎢ ⎥
⎣⎢lbn ⎦⎥
y sean σi los errores estándar de las observaciones. La matriz varianza –covarianza del
vector Lb es:
⎡σ 1 2 σ 12 L σ 1n ⎤
⎢ ⎥
σ 2 2 L σ 2n ⎥
Σ Lb = ⎢ (16)
⎢ O M ⎥
⎢ ⎥
⎢⎣ sim σ n 2 ⎥⎦
La (16) es el modelo estocástico. En la mayoría de los casos las covarianzas σij son
nulas, en consecuencia la (16) es una matriz diagonal donde los elementos de la
diagonal principal son las varianzas de las observaciones. La inversa de la (16) es la
matriz de los pesos de las observaciones; es decir:
95
⎡ 1 ⎤
⎢σ 2 0 L 0 ⎥
⎢ 1 ⎥ ⎡ p1 ⎤
⎢ 0 1 ⎢ ⎥
−1 L 0 ⎥ ⎢ p2 ⎥
Σ Lb =P=⎢ σ 22 ⎥= (17)
⎢ M ⎢ O ⎥
⎢ M O M ⎥⎥ ⎢ ⎥
⎢ 0 1 ⎥ ⎣ pn ⎦
0 L
⎢⎣ σ n 2 ⎥⎦
Para resolver el sistema de las ecuaciones de observación linealizado (14) (el modelo
funcional), es necesario recurrir al principio de los mínimos cuadrados. Puesto que las
observaciones son de distinta precisión, dicho principio se expresa por:
∑pv
2
i i = mínimo (18)
i =1
Vectorialmente es:
⎡ p1 ⎤ ⎡ v1 ⎤
⎢ p2 ⎥ ⎢v ⎥ n
V T PV = [v1 , v 2 ,L, v n ] ⎢ ⎥ ⎢ 2 ⎥ = ∑ p v 2 = mínimo (19)
⎢ O ⎥ ⎢ M ⎥ i =1 i i
⎢ ⎥⎢ ⎥
⎣ p n ⎦ ⎣v n ⎦
2 ATPAX – 2 ATPL = 0
ATPAX – ATPL = 0
X = (ATPA)-1ATPL (22)
N = ATPA (23)
96
entonces la (22) se expresa:
X = N-1ATPL (24)
donde:
∂β 1 YI − Y K 1 YI − Y K
= =
∂X I ⎛ Y − YK ⎞
2
(X I − XK )
2
( X I − X K ) + (YI − YK ) ( X I − X K ) 2
2 2
1 + ⎜⎜ I ⎟⎟
( X I − X K )2
⎝ XI − XK ⎠
∂β ∆YKI ∂β ∆X KI ∂β ∆Y
= . En forma análoga se tiene: =− ; = − KJ2 ;
∂X I DKI 2
∂YI DKI
2
∂X J D KJ
∂β ∆X KJ ∂β ⎛ ∆YKI ∆YKJ ⎞ ∂β ⎛ ∆X KI ∆X KJ ⎞
= = − ⎜ ⎟; ⎜ ⎟
⎜D 2 − D 2 ⎟ ∂Y = ⎜ D 2 − D 2
; ⎟
∂YJ DKJ
2
∂X K ⎝ KI KJ ⎠ K ⎝ KI KJ ⎠
⎡ ∆YKI ∆X KI ∆YKJ ∆X KJ ⎛ ∆Y ∆Y ⎞ ⎛ ∆X KI ∆X KJ ⎞ ⎤
ρ" ⎢ 2
dX I − 2
dYI − 2
dX J + 2
dYJ − ⎜⎜ KI2 − KJ2 ⎟dX K + ⎜
⎟ ⎜D 2 − D 2
⎟dYK ⎥ =
⎟
⎢⎣ DKI DKI DKJ DKJ ⎝ DKI DKJ ⎠ ⎝ KI KJ ⎠ ⎥⎦
= β b − β º + vβ (26)
Si tanto los ángulos observados como los aproximados se expresan en segundos de arco
(“) y también los residuos o correcciones, el primer miembro de la (26) deberá
multiplicarse por ρ = 206265 " para satisfacer la homogeneidad dimensional.
rad
∂D 2(X J − X I ) ∆X IJ
=− =−
∂X I 2 ( X J − X I ) 2 + (YJ − YI ) 2 DIJ
97
∂D ∆Y ∂D ∆X IJ ∂D ∆YIJ
Análogamente: = − IJ ; = ; =
∂YI DIJ ∂X J DIJ ∂YJ DIJ
∆X IJ ∆Y ∆X IJ ∆Y
− dX I − IJ dYI + dX J + IJ dYJ = Db − D º + v D (27)
DIJ DIJ DIJ DIJ
Esta ecuación tiene homogeneidad dimensional, puesto que ambos miembros están
expresados en unidades de longitud.
La principal característica de una red vinculada o ligada es que entre los datos iniciales
(observaciones) se incluye el sistema de referencia en el cual se pretende ajustar la red.
La inclusión del sistema de referencia implica el conocimiento de las coordenadas de al
menos dos puntos de la red, los que definirán la orientación y el factor de escala.
Considerando fijos al menos dos puntos de la red, estamos introduciendo cuatro
constreñimientos: orientación, escala y posición respecto del origen. Una vez fijados
dos puntos de la red, esta se dice mínimamente constreñida y con esto se logra que la
matriz de diseño A sea de rango completo; es decir, ℜ(A) = m, siendo m el número de
parámetros (coordenadas planas) a ajustar. Si se fijan más de dos puntos se tiene una red
sobreconstreñida. Puesto que la matriz de diseño A es de rango completo, también lo es
la matriz normal N, luego la solución mínimos cuadrados dada por la (24) es única,
dado que N es una matriz no singular que admite inversa regular (Cayley) y ésta es,
como se sabe, única.
El cálculo de compensación de la red vinculada con solución determinista, requiere de
la aceptación como exactos de ciertos datos a priori como son las coordenadas de los
puntos fijos o bien la orientación y la escala. Sin embargo estos valores que se han
considerado fijos, están afectados de errores inevitables, de tal forma que dichos errores
serán introducidos en el ajuste o compensación e influirán en los resultados finales.
La consideración de no disponer de datos de partida fijos (las coordenadas de al menos
dos puntos), hace que la red no este sujeta a sistema de referencia alguno predefinido,
por tanto, la solución de la red libre, geométricamente indeterminista, presentará
infinitas soluciones. Esta nueva situación en el ajuste o compensación de la red, hace
que el sistema de las ecuaciones normales (21) en este nuevo planteamiento, presente
una indeterminación ya que la matriz normal N resulta singular, det (N) = 0. La
deficiencia de rango de N se debe a la falta de constreñimientos de la red. Debemos
hallar pues la solución mínimos cuadrados mínima norma; es decir la solución óptima
dada por la pseudoinversa de Moore-Penrose; es decir: X = N+ATPL, tal como se
estudió en el tema 2 anterior (sistemas de ecuaciones lineales inconsistentes).
98
observaciones y plantear las ecuaciones de observación para coordenadas en el j-ésimo
vértice, de la siguiente manera:
X j = X j º + dX j = X jb + v Xj
Y j = Y j º + dY j = Y jb + vYj
o bien:
dX j = X jb − X j º + v Xj
dY j = Y jb − Y j º + vYj
En forma matricial:
⎡1 0⎤ ⎡dX j ⎤ ⎡ X jb − X j º ⎤ ⎡v Xj ⎤
⎢0 1⎥ ⎢ dY ⎥ = ⎢ Y − Y º ⎥ + ⎢ v ⎥ (28)
⎣ ⎦ ⎣ j ⎦ ⎣ jb j ⎦ ⎣ Yj ⎦
Hemos incluido las ecuaciones de observación para coordenadas junto a las ecuaciones
de observación para ángulos y distancias. Las ecuaciones de observación para
coordenadas son linealmente independientes entre si y linealmente independientes de las
restantes. Incluyendo ecuaciones de observación para coordenadas, se supera el defecto
de rango de la matriz de diseño A.
Cuando consideramos dos o más puntos fijos, las correcciones diferenciales a sus
coordenadas son cero. Estamos introduciendo entonces los constreñimientos necesarios
para superar el defecto de rango de la matriz A y no es necesario considerar ecuaciones
de observación para coordenadas. Cuando introducimos las ecuaciones de observación
para coordenadas, como observaciones de gran peso, estamos en presencia de una red
vinculada o ligada, tal como si se tratara de puntos fijos cuasi sin error.
figura 3
99
Datos:
Observaciones:
ángulo error distancia error
β1 = 90º 00’ 10” ± 10” s1 = 707.00 m ± 0.053 m
β2 = 89º 59’ 55” ± 10” s2 = 424.15 m ± 0.041 m
⎡ ∆Y25 ⎤
∆X 25
ρ " ⎢− 2
dX 5 + dY5 ⎥ = β 1b − β 1 º + v β 1
2
⎣ s1 s1 ⎦
⎡ ∆Y ∆X ⎤
ρ " ⎢ 235 dX 5 − 235 dY5 ⎥ = β 2b − β 2 º + v β 2
⎣ s2 s2 ⎦
∆X 25 ∆Y
dX 5 + 25 dY5 = s1b − s1 º + v s1
s1 s1
∆X 53 ∆Y
− dX 5 − 53 dY5 = s 2b − s 2 º + v s 2
s2 s2
Y5 º −Y2 Y − Y2
β1 º = arctg − arctg 1 = 90º 00' 00"
X 5 º− X 2 X1 − X 2
Y4 − Y3 Y º −Y3
β 2 º = arctg − arctg 5 = 90º 00' 00"
X4 − X3 X 5 º− X 3
100
− 343.76 dX 5 − 343.76 dY5 = −5"+ v β 2
0.707 dX 5 + 0.707 dY5 = −0.11 + v s1
0.707 dX 5 − 0.707 dY5 = −0.12 + v s 2
1
pβ1 = = 0.01
10 2
⎡0.01 0 0 0 ⎤
⎢ 0 0.01 0 0 ⎥⎥
1 ⎢
pβ1 = = 0.01 P=
10 2 ⎢ 0 0 356 0 ⎥
⎢ ⎥
⎣ 0 0 0 595⎦
1
p s1 = = 356
(0.053) 2
1
ps2 = = 595
(0.041) 2
⎡− 206.26 206.26 ⎤ ⎡ 10 ⎤
⎢ − 343.76 − 343.76⎥ ⎢ −5 ⎥
A=⎢ ⎥ L=⎢ ⎥
⎢ 0.707 0.707 ⎥ ⎢ − 0.11⎥
⎢ ⎥ ⎢ ⎥
⎣ 0.707 0.707 ⎦ ⎣− 0.12⎦
⎡− 81.6039⎤
Los términos independientes: AT PL = ⎢ ⎥
⎣ 60.6077 ⎦
101
X 5 = X 5 º + dX 5 = 800.00 m − 0.0530 m = 799.947 m
Y5 = Y5 º + dY5 = 1200.00 m + 0.0453 m = 1200.045 m
La varianza a posteriori:
n = 4, m = 2, r = 0 Æ υ = n – m + r = 4 - 2 + 0 = 2, VTPV = 7.0499
V T PV 7.0499
σˆ 0 2 = = = 3.5249
ν 2
Redes Altimétricas: Sean dos puntos I, J del terreno cuyas elevaciones respecto de un
plano de referencia son ZI, ZJ respectivamente, figura 4.
figura 4
h = f (Z I , Z J ) (29)
h = ZJ − ZI (30)
102
Sean ZIº, ZJº las cotas aproximadas y dZI, dZJ sus respectivas correcciones diferenciales.
Los parámetros o cotas ajustadas son:
Z I = Z I º + dZ I
Z J = Z J º + dZ J (31)
h = hb + vh (32)
Reemplazando en (30):
hb + v h = Z J º + dZ J − ( Z I º + dZ I )
− dZ I + dZ J = hb − ( Z J º − Z I º ) + v h
Haciendo hº = Z J º − Z I º , se tiene:
− dZ I + dZ J = hb − hº + v h (33)
Si se trata una red altimétrica formada por más de una figura cerrada, el conjunto de las
ecuaciones lineales (33), una por cada desnivel observado, es el modelo funcional para
este tipo de redes.
figura 5
10 mm
nivelación geométrica: error estándar de un desnivel: σˆ h = L (km)
km
Datos:
103
punto Zº(m) I-J hb(m) L(km) peso
1 100 1-3 40.01 0.3 33333
2 120 1-2 19.97 0.4 25000
3 140 2-3 20.02 0.5 20000
1 1
Los pesos: p h = 2
= 2
⎛ σˆ h ⎞ ⎡10 mm L (km) ⎤
⎜ ⎟ ⎢ ⎥
⎝ 1000 ⎠ ⎢⎣ km 1000 ⎥⎦
⎡33333 ⎤
⎢
La matriz de los pesos: P = ⎢ 25000 ⎥
⎥
⎢⎣ 20000⎥⎦
El modelo funcional:
⎡− 1 0 1⎤ ⎡ dZ1 ⎤ ⎡ 0.01 ⎤ ⎡ v1 ⎤
AX = L+ V Æ ⎢− 1 1 0⎥ ⎢dZ ⎥ = ⎢− 0.03⎥ + ⎢v ⎥
⎢ ⎥⎢ 2⎥ ⎢ ⎥ ⎢ 2⎥
⎢⎣ 0 − 1 1⎥⎦ ⎢⎣ dZ 3 ⎥⎦ ⎢⎣ 0.02 ⎥⎦ ⎢⎣v3 ⎥⎦
⎡ 416.67 ⎤
Los términos independientes: A PL = ⎢⎢− 1150.00⎥⎥
T
⎢⎣ 733.33 ⎥⎦
104
⎡ 58333 − 25000 − 33333⎤ ⎡ dZ 1 ⎤ ⎡ 416.67 ⎤
⎢− 25000 45000 − 20000⎥ ⎢dZ ⎥ = ⎢− 1150.00⎥
⎢ ⎥⎢ 2⎥ ⎢ ⎥
⎢⎣ − 33333 − 20000 53333 ⎥⎦ ⎢⎣ dZ 3 ⎥⎦ ⎢⎣ 733.33 ⎥⎦
λ1 = 6666.7, λ2 = 8999.9, λ3 = 0
Las matrices D y E:
⎡ 0.2673 0.7715 ⎤
⎡6666.7 ⎤
D=⎢ ⎥
⎢
; E = ⎢− 0.8018 − 0.1543⎥⎥
⎣ 8999.9⎦
⎢⎣ 0.5345 − 0.6172⎥⎦
La pseudoinversa de Moore-Penrose:
105
⎡− 1 0 1⎤ ⎡ 0.0061 ⎤ ⎡ 0.01 ⎤ ⎡− 0.0050⎤
V = ⎢⎢− 1 1 0⎥⎥ ⎢⎢− 0.0172⎥⎥ − ⎢⎢− 0.03⎥⎥ = ⎢⎢ 0.0067 ⎥⎥
⎢⎣ 0 − 1 1⎥⎦ ⎢⎣ 0.0111 ⎥⎦ ⎢⎣ 0.02 ⎥⎦ ⎢⎣ 0.0083 ⎥⎦
Desniveles ajustados:
V T PV
La varianza a posteriori: σˆ 0 =
2
υ = n – m + r = 3 – 3 + 1 = 1, V T PV = 3.3333 , σˆ 0 = 3.3333
2
Z I = Z I b + v ZI (34)
Z I = Z I º + dZ I (35)
Z I º + dZ I = Z Ib + v ZI
dZ I = Z Ib − Z I º + v ZI (36)
La (36) es la ecuación de observación para cotas, donde ZIb es el valor de la cota fija
que consideramos como una observación de gran peso.
106
Ejemplo3: Ejecutar el ajuste vinculado de la red altimétrica del ejemplo 2. El punto fijo
es el 1, cuya cota es Zb1 = 100.05 m con un error estándar σˆ Z 1 = ±0.001 m . Una cota
aproximada para 1 es Z1º = 100.00 m.
dZ 1 = Z 1b + v Z 1 = 100.05 − 100.00 + v Z 1
dZ1 = 0.05 + v Z 1
⎡− 1 0 1⎤ ⎡ 0.001 ⎤
⎢ − 1 1 0⎥ ⎢− 0.03⎥
A= ⎢ ⎥ ; L=⎢ ⎥ ℜ(A) = 3; m = 3 Æ r = m - ℜ(A) = 3 – 3 = 0
⎢ 0 − 1 1⎥ ⎢ 0.02 ⎥
⎢ ⎥ ⎢ ⎥
⎣1 0 0⎦ ⎣ 0.05 ⎦
A es ahora de rango completo.
⎡33333 ⎤
⎢ 25000 ⎥
La matriz de los pesos: P = ⎢ ⎥
⎢ 20000 ⎥
⎢ ⎥
⎣ 1000000⎦
Las matrices D y E:
⎡0.0271 ⎤
6⎢ ⎥;
D = 10 ⎢ 0.0695 ⎥
⎢⎣ 1.060⎥⎦
⎡− 0.0393 − 0.0098 − 0.9992⎤
E = ⎢⎢− 0.7693 0.6384 0.0240 ⎥⎥
⎢⎣− 0.6373 − 0.7697 0.0326 ⎥⎦
⎡0.0100 0.0100 0.0100⎤
N −1
= E D E = 10 ⎢⎢0.0100 0.2767 0.1100⎥⎥
−1 T −4
107
⎡0.0100 0.0100 0.0100⎤
N −1 = E D −1 E T = 10 − 4 ⎢⎢0.0100 0.2767 0.1100⎥⎥
⎢⎣0.0100 0.1100 0.2350⎥⎦
Verifique que:
⎡0.0100 0.0100 0.0100⎤
( )
= 10 − 4 ⎢⎢0.0100 0.2767 0.1100⎥⎥
adj N
N −1 = E D −1 E T =
N
⎢⎣0.0100 0.1100 0.2350⎥⎦
⎡ 5.0417 ⎤
A PL = 10 ⎢⎢− 0.1150⎥⎥
T 4
⎢⎣ 0.0733 ⎥⎦
⎡100.050⎤
Las cotas ajustadas: Za = Zº + X = ⎢⎢120.027⎥⎥
⎢⎣140.055⎥⎦
⎡− 0.0050⎤
⎢ 0.0067 ⎥
Las correcciones a los desniveles: V = AX – L = ⎢ ⎥
⎢ 0.0083 ⎥
⎢ ⎥
⎣ 0.0000 ⎦
La corrección a la cota observada del punto fijo 1 es igual a cero debido al gran peso
asignado (pZ1 = 1000000). El punto 1 puede, realmente, considerarse como punto fijo.
⎡40.005⎤
Los desniveles ajustados: La = Lb + V = ⎢⎢19.977 ⎥⎥
⎢⎣20.028⎥⎦
Plantee y resuelva el ajuste altimétrico vinculado, considerando que la cota del punto
fijo 1 no tiene error; es decir, σˆ Z 1 = 0 .
108
Propagación de los errores de los observables a los parámetros ajustados:
1).- f ( x ) ≥ 0 (37)
+∞
2).- ∫
−∞
f ( x) dx = 1 (38)
La integral se toma sobre todo el dominio (población de la variable estocástica X). La
probabilidad de que la variable estocástica X sea menor o igual que un cierto valor x, es:
x
P( X ≤ x) = F ( x) = ∫ f (t ) dt (39)
−∞
+∞
µ X = E ( X ) = ∫ x f ( x) dx (40)
−∞
E [ϕ ( x)] = ∫ ϕ ( x) f ( x) dx
+∞
(41)
−∞
σ X 2 = E [( X − µ X ) 2 ] = ∫ ( x − µ X ) f ( x) dx
+∞ 2
(42)
−∞
109
Ejemplo 4: Sea X una variable aleatoria continua cuya función densidad está definida
por:
⎧ c ⎫
⎪ para 1 ≤ x ≤ e ⎪
f ( x) = ⎨ x ⎬
⎪⎩0 para cualquier otro valor de x ⎪⎭
figura 6
1.- El valor de c:
e1 e
dx = c ∫ dx = c [ln x ] = c (ln e − ln 1) = c = 1 − > c = 1
+∞ e c
∫−∞
f ( x) dx = ∫
1 x 1 x 1
2.- La media de X:
1 e
µ X = E ( X ) = ∫ x f ( x) dx = ∫ x dx = ∫ dx = [x ] = e − 1 = 1.71828...
+∞ e e
−∞ 1 x 1 1
3.- La varianza de X:
110
σ X 2 = E [( X − µ X ) 2 ] = ∫ ( x − µ X ) 2 f ( x) dx = ∫ ( x 2 − 2 µ X x + µ X 2 ) f ( x) dx =
+∞ +∞
−∞ −∞
+∞ +∞ +∞ +∞
= ∫ x 2 f ( x) dx − 2 µ X ∫ x f ( x) dx + µ X ∫ f ( x) dx = ∫ x 2 f ( x) dx − 2 µ X µ X + µ X =
2 2
−∞ −∞ −∞ −∞
+∞ +∞
= ∫ x 2 f ( x) dx − µ X − > σ X = ∫ x 2 f ( x) dx − µ X
2 2 2
−∞ −∞
entonces:
+∞ e 1 e ⎡ x2 ⎤ e 1
∫−∞
x 2 f ( x) dx = ∫ x 2
1 x
dx = ∫ x dx = ⎢ ⎥ = (e 2 − 1)
1
⎣ 2 ⎦1 2
1 1 ⎡1 ⎤
σ X 2 = (e 2 − 1) − (e − 1) 2 = (e − 1)(e + 1) − (e − 1) 2 = (e − 1) ⎢ (e + 1) − (e − 1)⎥ =
2 2 ⎣2 ⎦
⎡1 1 ⎤ ⎡ 1 3⎤ 1
(e − 1) ⎢ e + − e + 1⎥ = (e − 1) ⎢− e + = (e − 1)(3 − e) = 0.2420
⎣2 2 ⎦ ⎣ 2 2 ⎥⎦ 2
1 x
dt = [ln t ] = ln x − ln 1 = ln x
x
F ( x) = ∫ (1 ≤ x ≤ e)
1 t 1
F(X),f(x)
f(x)=1/x
F(x)=ln(x) F(x)=1
1
0 X
1 e
figura 7
p ( X − µ X ≤ σ X ) = p (−σ X ≤ X − µ X ≤ σ X ) = p ( µ X − σ X ≤ X ≤ µ X + σ X ) =
1 2.2102 1
dx = [ln x ] 2.2102 = ln 2.2102 − ln 1.2264 = 0.5891 ≡ 58.91%
µ X +σ X
=∫ dx = ∫
µ X −σ X
x 1 .2264 x 1.2264
111
f(x)
58.91%
f(x)=1/x
0 X
µ x −σx µx µ x +σx
figura 8
Distribución Multivariable:
Sea X = [x1, x2,…, xn]T una variable estocástica multidimensional, donde cada
componente xi (i = 1,n) es una variable aleatoria unidimensional. Cualquier función
f (x1, x2,…, xn) de n variables continuas xi, puede ser una función densidad conjunta si:
1) f ( x1 , x 2 ,L, x n ) ≥ 0
+∞ +∞ +∞ (43)
2) ∫ ∫
−∞ −∞
L ∫ f ( x1 , x 2 , L, x n ) dx1 dx2 L dxn = 1
−∞
x1 x2 xn
p ( X 1 ≤ x1 , X 2 ≤ x 2 , L, X n ≤ x n ) = ∫ ∫
− ∞ −∞
L ∫ f (t1 , t 2 ,L, t n ) dt1 dt 2 L dt n = 1
−∞
(44)
+∞ +∞ +∞
g ( x1 , x 2 ,L, x p ) = ∫ ∫ L ∫ f (x1 , x 2 , L, x n ) dx p +1 dx p + 2 L dxn (45)
−∞ −∞ −∞
Ejemplifiquemos para n = 2:
Sea X = [X1, X2]T y f (X1, X2) una función densidad conjunta si:
1) f ( x1 , x 2 ) ≥ 0
+∞ +∞ (46)
2) ∫ ∫
−∞ −∞
f ( x1 , x 2 ) dx1 dx 2 = 1
112
x1 x2
p ( X 1 ≤ x1 , X 2 ≤ x2 ) = F ( X 1 , X 2 ) = ∫ ∫ f (t1 , t 2 ) dt1 dt 2 (47)
−∞ −∞
+∞ +∞
f1 ( X 1 ) = ∫ f ( x1 , x 2 ) dx 2 y f 2 ( X 2 ) = ∫ f ( x1 , x 2 ) dx1 (48)
−∞ −∞
+∞ +∞ +∞
∫−∞
f1 ( x1 ) dx1 = ∫
−∞ ∫
−∞
f ( x1 , x 2 ) dx2 dx1 =1 − > f1 ( x1 ) es la función densidad de x1.
+∞ +∞ +∞
∫−∞
f 2 ( x 2 ) dx2 = ∫
−∞ ∫ −∞
f ( x1 , x 2 ) dx1 dx2 =1 − > f 2 ( x 2 ) es la función densidad de x2.
f ( x1 , x2 ) = f1 ( x1 ) f 2 ( x2 ) (50)
+∞ +∞ +∞
µ Xi = E ( X i ) = ∫ ∫ L ∫ xi f ( x1 , x 2 ,L, x n ) dx1 dx 2 L dx n (51)
−∞ −∞ −∞
σ X i 2 = E [( Xi − µ Xi ) 2 ] = ∫
+∞ +∞ +∞ 2
∫
−∞ −∞
L ∫ ( xi − µ Xi ) f ( x1 , x 2 , L , x n ) dx1 dx 2 L dx n
−∞
(53)
σ XiXj = E [( Xi − µ Xi )( Xj − µ Xj ] = ∫
+∞ +∞ +∞
∫
−∞ −∞
L ∫ ( xi − µ Xi )( x j − µ Xj ) f ( x1 , x 2 ,L, x n ) dx1 dx2 L dxn
−∞
Mientras que la varianza es siempre mayor o igual que cero, la covarianza puede ser
positiva, negativa o cero.
113
E ⎡⎣( X i − µ Xi )( X j − µ Xj ) ⎤⎦ σ XiXj
ρ XiXj = = (55)
σ Xiσ Xj σ Xiσ Xj
−1 ≤ ρ XiXj ≤ 1 (56)
+∞ +∞
σ XiXj = ∫ ( x1 − µ X 1 ) f1 ( x1 ) dx1 ∫ ( x 2 − µ X 2 ) f 2 ( x 2 ) dx 2
−∞ −∞
⎣ −∞ ∞ ⎦ ⎣ −∞ ∞ ⎦
pero:
+∞ +∞ +∞ +∞
∫−∞
x1 f1 ( x1 ) dx1 = µ X 1 , ∫ −∞
f1 ( x1 ) dx1 = 1, ∫−∞
x2 f 2 ( x2 ) dx2 = µ X 2 , ∫−∞
f 2 ( x2 ) dx2 = 1
entonces:
σ X 1X 2 = (µ X 1 − µ X 1 ) (µ X 2 − µ X 2 ) = 0
⎧c x x si 0 ≤ x1 ≤ 4, 1 ≤ x 2 ≤ 5
f ( x1 , x 2 ) = ⎨ 1 2
⎩ 0 de otra forma
1.- Calcular el valor de c para que f(x1, x2) sea una función densidad conjunta.
2.- Calcular p ( x1 + x2 ≤ 3) .
3.- Hallar las densidades o frecuencias marginales f1 ( x1 ) y f 2 ( x2 ) .
4.- ¿Son X1 y X2 estocasticamente independientes?
1.- El valor de c:
114
f(x1,x2)
x2 X2
5 5
4
3
2
1
0
1
2
3
4
X1
0 4
x1
figura 9 figura 10
⎡x 2 ⎤ 5
c x1 x 2 dx1 dx 2 = c ∫ x1 ⎡ ∫ x 2 dx 2 ⎤ dx1 = c ∫ x1 ⎢ 2 ⎥ dx1 =
+∞ +∞, 4 5 4 5 4
∫ ∫ f ( x1 , x 2 ) dx1 dx 2 = ∫ ∫ ⎢⎣ 1 ⎥⎦
⎣ 2 ⎦1
−∞ −∞ 0 1 0 0
c 4 c 4 ⎡ x1 2 ⎤ 4 1
= ∫ x1 (25 − 1) dx = 24 ∫ x1 dx1 = c 12 ⎢ ⎥ = c 12 8 = 96 c = 1 − > c =
2 0 1 2 0
⎣ 2 ⎦0 96
2.- p ( x1 + x2 ≤ 3) :
X2
4
X 1+X 2=3
2
X 2=1
1
X1
0 1 2 3 4
X 1+X 2<3
figura 11
1 2 ⎡ x2 ⎤ 1
2 3− x
p ( x1 + x 2 ≤ 3) =
1 2 3− x1
96 ∫ ∫ x1 x 2 dx1 dx 2 =
96 ∫ x1 ⎢ ⎥ dx1 =
1 2
∫ [
x1 (3 − x1 ) 2 − x1 dx1 = ]
⎣ 2 ⎦ 1 2 96
0 1 0 0
115
1 2 1 2 1 ⎡ x12 x13 x14 ⎤ 2
2 96 ∫0 2 96 ∫0
= x1 (9 − 6 x1 + x1 − 1) dx1 =
2
(8 x1 − 6 x1 + x1 ) dx1 =
2 3
⎢8 −6 + ⎥ =
2 96 ⎣ 2 3 4 ⎦0
1 ⎡ 2 x14 ⎤ 2 1 ⎡ 16 ⎤ 1 2
= ⎢ 4 x1 − 2 x1 + ⎥ 0 =
3
⎢16 − 16 + ⎥ = 4= = 0.02083 ≡ 2.08%
2 96 ⎣ 4 ⎦ 2 96 ⎣ 4 ⎦ 2 96 96
+∞ 1 5 ⎡ x1 x2 2 ⎤ 5 x 24 1
f1 ( x1 ) = ∫ f ( x1 , x2 ) dx2 = ∫ x1 x2 dx2 = ⎢ ⎥ = 1 (25 − 1) = x1 = x1
−∞ 96 1 ⎣ 96 2 ⎦ 1 96 2 2 96 8
1
f1 ( x1 ) = x1
8
+∞ 1 4 ⎡ x2 x12 ⎤ 4 x 8 x
f 2 ( x2 ) = ∫ f ( x1 , x2 ) dx1 = ∫ x1 x2 dx1 = ⎢ ⎥ = 2 16 = x2 = 2
−∞ 96 0 ⎣ 96 2 ⎦ 0 96 2 96 12
x2
f1 ( x1 ) =
12
1 1 x x
f1 ( x1 ) f 2 ( x2 ) =
x1 x2 = 1 2 = f ( x1 , x2 ) Æ X1, X2 son estocasticamente
8 12 96
independientes.
La matriz varianza-covarianza:
Sea X = [X1, X2,…, Xn]T una variable estocástica multidimensional (conjunta) y sea µX
= E(X) = [µX1, µX2,…, µXn]T el vector de medias. La matriz varianza-covarianza se
define por:
Σ X = E ⎡⎣ ( X − µ X )( X − µ X )T ⎤⎦ (57)
116
⎡ E[( X 1 − µ X 1 ) 2 ] E[( X 1 − µ X 1 )( X 2 − µ X 2 )] L E[( X 1 − µ X 1 )( X n− µ Xn )] ⎤
⎢ ⎥
⎢ E[( X 2 − µ X 2 ) 2 ] L E[( X 2 − µ X 2 )( X n− µ Xn )]⎥
ΣX =
⎢ O M ⎥
⎢ ⎥
⎣⎢ sim. E[( X n − µ Xn ) 2 ] ⎦⎥
⎡σ X 12 σ X 1 X 2 L σ X 1 Xn ⎤
⎢ ⎥
⎢ σ X 2 2 L σ X 2 Xn ⎥
ΣX = (58)
⎢ O M ⎥
⎢ ⎥
⎣⎢ sim. σ Xn 2 ⎦⎥
Propagación:
Y = AX + X º (59)
donde A es una matriz de orden rxn y Xº es un vector constante de orden rx1. El valor
esperado de Y es:
E [Y ] = µY = E [ AX + X º ] = E [ AX ] + E [ X º ] = E [ AX ] + X º = A E [ X ] + X º
µY = A µ X + X º (60)
ΣY = E ⎡⎣(Y − µY )(Y − µY )T ⎤⎦ = E ⎡⎣ ( AX + X º − Aµ X − X º )( AX + X º − Aµ X − X º )T ⎤⎦ =
= E ⎡⎣( AX − Aµ X )( AX − Aµ X )T ⎤⎦ = E ⎡⎣ A( X − µ X )( A( X − µ X ))T ⎤⎦ = E ⎡⎣ A( X − µ X )( X − µ X )T AT ⎤⎦ =
= A E ⎡⎣( X − µ X )( X − µ X )T ⎤⎦ AT = A Σ X AT
entonces:
ΣY = A Σ X AT (61)
117
Distribución normal multivariable conjunta:
La estadística complementa la teoría del ajuste mínimos cuadrados puesto que posibilita
formular sentencias objetivas acerca de los datos. Los requerimientos básicos consisten
en que tanto el modelo funcional como el modelo estocástico sean correctos y que las
observaciones tengan distribución normal multivariable o conjunta. Si bien la estadística
no garantiza una decisión correcta, resulta útil a la hora de tomarla.
Comenzaremos con un hecho muy frecuente en topografía. Se trata pues de obtener las
coordenadas cartesianas X, Y de un punto P mediante la observación de rumbo ϕ y
distancia D, figura 12, Suponemos errores estándar σϕ, σD para los observables rumbo y
distancia respectivamente.
X x
.
. ... .
. .... .. .. . .
. .. ..... .. ... . . .
..................................................... .. y
x . . ...............................................
.. ...... ... ... σ
.. .. . .. ................... .
D
. . . .
σ ϕ .. σ
σϕ
D
D
0 Y
y
figura 12
X = D cos ϕ
(62)
Y = D senϕ
se distribuyen como muestra la figura (12) con gran concentración (densidad) alrededor
de las coordenadas medias X , Y y disminuyendo su concentración en forma radial.
La función densidad conjunta es la distribución normal bivariable f (X, Y) donde X, Y
son variables estocásticas con distribución normal, figura 13. Obsérvese que la densidad
de probabilidad disminuye en forma radial conforme nos alejamos del punto ( X , Y ) .
118
f(x,y)
..
.. . ..
. .. .
......................................
...... . X
.. ... .... ........ .
.. ........................
.. .
. .. .
.. .
figura 13
Sea en general, un vector X de orden nx1 cuyas componentes son variables estocásticas.
El vector de medias es:
E [ X ] = µX (63)
Σ X = E ⎡⎣ ( X − µ X )( X − µ X )T ⎤⎦ (64)
1
1 − ( X − µ X )T Σ X −1 ( X − µ X )
f ( x1 , x2 ,L , xn ) = n 1
e 2
(65)
(2 π ) Σ X 2 2
esta notación significa que X distribuye normal multivariable con media µX y matriz
varianza-covarianza ΣX, siendo n la dimensión de la distribución.
Para n = 1, por ejemplo, se tiene una variable estocástica unidimensional X1x1= [x]. En
este caso:
1
1
ΣX = σ 2; ΣX = σ 2; ΣX 2 = σ ; Σ X −1 =
σ2
119
donde σ2 es la varianza de X y µ es su media. Sustituyendo en (65), se tiene:
1 ( x − µ )2
1 −
f ( x) = e 2 σ2
(67)
σ 2π
⎡σ 12 σ 12 ⎤
X = [ x1 , x2 ] ; E [ X ] = µ X = [ µ1 , µ2 ] ; ΣX = ⎢
T T
2⎥
⎣σ 21 σ 2 ⎦
Σ X = σ 1 σ 2 − σ 12 = σ 1 σ 2 − ρ12 σ 1 σ 2 = σ 1 σ 2 (1 − ρ12 )
2 2 2 2 2 2 2 2 2 2 2
1
= σ 1σ 2 (1 − ρ12
2
entonces: ΣX 2
1 ⎡ σ 22 −σ 12 ⎤
Σ X −1 = ⎢ ⎥
(σ 1σ 2 ) 2 (1 − ρ12 2 ) ⎣ −σ 12 σ 12 ⎦
1
Veamos ahora la expresión: ( X − µ X )T Σ X −1 ( X − µ X ) en la (65); (simplificando la
2
notación ρ12 = ρ)
1 1 ⎡ σ 22 −σ 12 ⎤
( X − µ X )T ⎢ ⎥ ( X − µX ) =
2 (σ 1σ 2 ) 2 (1 − ρ 2 ) ⎣ −σ 12 σ 12 ⎦
1 1 ⎡ σ 2 2 −σ 12 ⎤ ⎡ x1 − µ1 ⎤
= ( x1 − µ1 , x2 − µ2 ) ⎢ ⎥ =
2 (σ 1σ 2 ) 2 (1 − ρ 2 ) ⎣ −σ 12 σ 12 ⎦ ⎢⎣ x2 − µ2 ⎥⎦
1 ⎡x −µ ⎤
= ⎡( x − µ1 ) σ 2 2 − ( x2 − µ2 ) σ 12 , −( x1 − µ1 ) σ 12 + ( x2 − µ2 ) σ 12 ⎤⎦ ⎢ 1 1 ⎥ =
2 ⎣ 1
2(σ 1σ 2 ) (1 − ρ ) ⎣ x2 − µ2 ⎦
2
120
1
= ⎡( x1 − µ1 ) 2 σ 2 2 − ( x1 − µ1 )( x2 − µ2 )σ 12 − ( x1 − µ1 )( x2 − µ2 )σ 12 + ( x2 − µ2 ) 2 σ 12 ⎤⎦ =
2(σ 1σ 2 ) 2 (1 − ρ 2 ) ⎣
1
= ⎡( x − µ1 ) 2 σ 2 2 − 2( x1 − µ1 )( x2 − µ2 )σ 12 + ( x2 − µ2 ) 2 σ 12 ⎤⎦ =
2 ⎣ 1
2(σ 1σ 2 ) (1 − ρ )
2
1 ⎡ ( x1 − µ1 ) 2 ( x1 − µ1 )( x2 − µ2 ) ( x2 − µ2 ) 2 ⎤
= ⎢ − 2 σ + =
2(1 − ρ 2 ) ⎣ σ 12 σ 12σ 2 2 12
σ 2 2 ⎥⎦
1 ⎡ ( x1 − µ1 ) 2 ( x1 − µ1 )( x2 − µ2 ) ( x2 − µ2 ) 2 ⎤
= ⎢ − 2 ρ σ σ + =
2(1 − ρ 2 ) ⎣ σ 12 σ 12σ 2 2 1 2
σ 2 2 ⎥⎦
1 ⎡ ( x1 − µ1 ) 2 ( x1 − µ1 )( x2 − µ2 ) ( x2 − µ2 ) 2 ⎤
= ⎢ −2 ρ+
2(1 − ρ 2 ) ⎣ σ 12 σ 1σ 2 σ 2 2 ⎥⎦
1 ⎡ ( x1 − µ1 )2 ( x − µ )( x − µ ) ( x − µ )2 ⎤
− ⎢ − 2 ρ 1 1 2 2 + 2 22 ⎥
1 2(1− ρ 2 ) ⎢⎣ σ12 σ1σ 2 σ2 ⎥⎦
f ( x1 , x2 ) = e (68)
2πσ 1σ 2 1 − ρ 2
1 ⎡ ( x − µ )2 ( x − µ )2 ⎤
− ⎢ 1 21 + 2 22 ⎥
1 2 ⎢⎣ σ1 σ2 ⎥⎦
f ( x1 , x2 ) = e (69)
2πσ 1σ 2
es decir:
1 ( x1 − µ1 )2 1 ( x2 − µ2 )2
− −
1 2 σ12 1 2 σ 22
f ( x1 , x2 ) = e e (70)
2π σ 1 2π σ 2
donde:
1 ( x1 − µ1 )2 1 ( x2 − µ2 )2
− −
1 2 σ12 1 2 σ 22
f1 ( x1 ) = e ; f 2 ( x2 ) = e
σ 1 2π σ 2 2π
f ( x1 , x2 ) = f1 ( x1 ) f 2 ( x2 )
Concluimos entonces que si X = [x1, x2]T distribuye normal bivariable con media µX y
varianza-covarianza ΣX, entonces:
121
Las elipses de error como regiones de confianza:
Sea una distribución normal conjunta bivariable de las variables estocásticas x1, x2
donde X = [x1, x2]T. Los valores esperados o medias son:
⎡0⎤
E ( x1 ) = E ( x2 ) = 0 Æ µ X = [ µ1 , µ2 ] = ⎢ ⎥
T
⎣0⎦
1 ⎡ x12 xx x2 ⎤
− ⎢ 2 −2 ρ 1 2 + 2 2 ⎥
1 2
2(1− ρ ) ⎣⎢ σ x1 σ x1σ x 2 σ x 2 ⎦⎥
f ( x1 , x2 ) = e (71)
2 π σ x1 σ x2 1 − ρ 2
Hacemos:
1 ⎡ x12 x1 x2 x2 2 ⎤
S =
2
⎢ − 2ρ + (72)
2(1 − ρ 2 ) ⎣ σ x12 σ x1σ x 2 σ x 2 2 ⎥⎦
f(x,y)
f(x,y)=cte
π
X
ϕ
z2
z1
Y
figura 14
122
Rotando el sistema de coordenadas un ángulo ϕ, figura 15, se tiene un nuevo sistema de
coordenadas Oz1z2, respecto del cual se anula el coeficiente de correlación ρ y la
ecuación de la elipse dada en el sistema original Ox1x2 por la (72), se expresa en el
nuevo sistema coordenado Oz1z2:
z12 z2 2
+ = 2S2 (73)
σ z1
2
σ z2 2
X1
Z1
ϕ
Z 1 / σ z21 + Z 2 / σ z22 = 2 .5
2 2 2
X2
0
ϕ
Z2
figura 15
ϕ x1 x2 ⎡ z1 ⎤ ⎡ cos ϕ sen ϕ ⎤ ⎡ x1 ⎤
z1 cosϕ senϕ ⎢ z ⎥ = ⎢− sen ϕ cos ϕ ⎥⎦ ⎢⎣ x 2 ⎥⎦
⎣ 2⎦ ⎣
z2 -senϕ cosϕ
Para calcular la probabilidad de que la variable estocástica conjunta X = [x1, x2]T ocurra
(tome valores) dentro de la región de confianza encerrada por la elipse, figuras 14 y 15,
resulta mas cómodo trabajar con la expresión (73). Llamando ℜ a la región de confianza
encerrada por la elipse (73), se tiene:
1 ⎡ z12 z2 2 ⎤
− ⎢ 2+ 2⎥
1
p [ ( z1 , z2 ) ∈ ℜ ] = ∫∫ f ( z1 , z2 ) dz1dz2 = ∫∫ e ⎢⎣σ z1 σ z 2 ⎥⎦ dz1dz2
2
ℜ ℜ
2π σ z1σ z2
123
z12 z2 2
+ = S2 (74)
( 2 σ z1 ) ( 2 σ z 2 )
2 2
z1 z2
Efectuando el cambio de variables: u = ; v= , se tiene entonces:
2 σ z1 2 σ z2
z1 = 2 σ z1 u − − > dz1 = 2 σ z1 du
z 2 = 2 σ z 2 v − − > dz 2 = 2 σ z 2 dv
luego:
u 2 + v2 = S 2 (75)
La (75) es la ecuación de una circunferencia de radio S, que encierra una región ℜ’; se
tiene entonces:
1
1 − ⎡ 2( u 2 + v 2 ) ⎤
p [ ( z1 , z2 ) ∈ ℜ ] = p [ (u , v) ∈ ℜ '] = ∫∫ e 2⎣ ⎦
2σ z1du 2σ z 2 dv
ℜ'
2πσ z1σ z 2
2 σ z1σ z 2 − ⎡⎣u 2 + v2 ⎤⎦ 1 − ⎡u 2 + v 2 ⎤⎦
p [ (u, v) ∈ℜ '] = ∫∫ e du dv = ∫∫ e ⎣ du dv
ℜ'
2π σ z1σ z 2 π ℜ'
∂u ∂u
⎛ u v ⎞ ∂r ∂θ cos θ − r senθ
transformación es: J ⎜ ⎟= = = r cos 2 θ + r sen 2θ = r
⎝ r θ ⎠ ∂v ∂v senθ r cos θ
∂r ∂θ
entonces:
1 2π
p [ (u , v) ∈ ℜ '] =
S
π∫
dθ ∫ e − r r dr
2
0 0
d (r 2 )
teniendo en cuenta que: d (r 2 ) = 2rdr − − > rdr = , y reemplazando en la
2
anterior:
1 2π dr 2 1 1 S 2 S
p [ (u, v) ∈ℜ '] = ∫ dθ ∫ e = 2π ∫ e− r dr 2 = − ⎡e− r ⎤ = −(e− S − 1) = 1 − e− S
S
−r2 2 2 2
π 0 0 2 π 2 0 ⎣ ⎦0
Puesto que: p [ ( x1 , x2 ) ∈ℜ] = p [ ( z1 , z2 ) ∈ℜ] = p [ (u, v) ∈ℜ '] , entonces:
p [ ( z1 , z2 ) ∈ ℜ ] = 1 − e − S
2
(76)
124
z12 z2 2
+ =1 (77)
( 2 Sσ z 1 ) 2 ( 2 Sσ z 2 ) 2
A = 2 Sσ z1 = cσ z1
(78)
B = 2 Sσ z 2 = cσ z 2
donde c = 2S (79)
1
Para S = − − > c = 1 y se tiene, de la (77), la ecuación de la “elipse de error
2
estándar”:
z12 z2 2
+ =1 (80)
σ z12 σ z 22
con semiejes:
A = σ z1
(81)
B = σ z2
A = c σ z1 y B = c σ z 2
A = 2.448σ Z 1
(82)
B = 2.448σ Z 2
125
Debemos hallar la forma de determinar σz1, σz2 y ϕ para calcular los semiejes A y B de
la elipse de error y su orientación ϕ.
De la expresión:
⎡ z1 ⎤ ⎡ cos ϕ sen ϕ ⎤ ⎡ x1 ⎤
⎢ z ⎥ = ⎢− sen ϕ cos ϕ ⎥ ⎢ x ⎥ Æ Z = EX
⎣ 2⎦ ⎣ ⎦⎣ 2 ⎦
Las (84) permiten calcular σz1 y σz2 en función de σx1, σx2 y σx1x2. Falta determinar ϕ:
Se tiene también:
σx1 x 2 cos 2 ϕ − σx1 x 2 sen 2ϕ + σx 2 2 senϕ cos ϕ − σx1 2 senϕ cos ϕ = 0
σx1 x 2 (cos 2 ϕ − sen 2ϕ ) − (σx1 2 − σx 2 2 ) senϕ cos ϕ = 0
1
σx1 x 2 cos 2ϕ − (σx1 2 − σx 2 2 ) 2 sen 2ϕ = 0
2
sen2ϕ σx1 x 2
= tg 2ϕ = (85)
cos 2ϕ σx1 2 − σx 2 2
Entonces:
1 2 σ x1x 2
ϕ = arctg (86)
2 σ x1 2 − σ x 2 2
La (86) provee la orientación ϕ del semieje mayor de la elipse de error, figura 15.
Téngase en cuenta que la matriz varianza-covarianza de Z, ΣZ, es una matriz diagonal,
cuyos elementos diagonales son los valores propios λ1 y λ2 de la matriz varianza-
covarianza ΣX de la variable aleatoria conjunta X, entonces:
σ z12 = λ1 − − > σ z1 = λ1
(87)
σ z 2 2 = λ2 − − > σ z 2 = λ2
λ 2 − tr (Σ X )λ + det(Σ X ) = 0 (88)
126
cuyas raíces son:
[tr (Σ X )]
2
tr (Σ X ) ± − 4 det(Σ X )
λ1− 2 = (89)
2
A = λ1 ; B = λ2 (90)
Ejemplo 6: Determinar las elipses de error estándar y del 95% para el punto P, siendo el
rumbo ϕ = 30º y la distancia D = 1270 m (valores aproximados de rumbo y distancia) y
σϕ = ±5”, σD = ±0.05 m los errores estándar de rumbo y distancia respectivamente.
X
P
ϕ
Y
0
figura 16
X = D cos ϕ = f ( D, ϕ )
Y = D senϕ = g ( D, ϕ )
donde f y g son funciones no lineales que deben ser linealizadas. Las diferenciales
totales de X e Y, son:
∂f ∂f
dX = dD + dϕ ; dX = X − X º ; dD = D − D º
∂D ∂ϕ
∂g ∂g
dY = dD + dϕ ; dY = Y − Y º ; dϕ = ϕ − ϕ º
∂D ∂ϕ
127
∂f ∂f
X − Xº= ( D − Dº ) + (ϕ − ϕ º )
∂D ∂ϕ
∂g ∂g
Y −Yº = ( D − Dº ) + (ϕ − ϕ º )
∂D ∂ϕ
∂f ∂f ⎛ ∂f ∂f ⎞
X= D+ ϕ −⎜ Dº + ϕº ⎟ + X º
∂D ∂ϕ ⎝ ∂D ∂ϕ ⎠
∂g ∂g ⎛ ∂g ∂g ⎞
Y= D+ ϕ −⎜ Dº + ϕº ⎟ +Y º
∂D ∂ϕ ⎝ ∂D ∂ϕ ⎠
⎡ ∂f ∂f ⎤ ⎡ ∂f ∂f ⎤
⎡ X ⎤ ⎢ ∂D ∂ϕ ⎡ D ⎤ ⎢ ∂D
⎥ ∂ϕ ⎥ ⎡ D º ⎤ ⎡ X º ⎤
⎢ Y ⎥ = ⎢ ∂g ⎥ −⎢
∂g ⎥ ⎢⎣ ϕ ⎥⎦ ⎢ ∂g
⎥ +
∂g ⎥ ⎢⎣ ϕ º ⎥⎦ ⎢⎣ Y º ⎥⎦
− − > X = AL + C
⎣ ⎦ ⎢
⎢ ∂D ∂ϕ ⎥⎦ ⎢ ∂D ∂ϕ ⎥⎦ 0
⎣ ⎣
donde:
⎡ ∂f ∂f ⎤
⎢ ∂D ∂ϕ ⎥ ⎡cos ϕ º − D senϕ º ⎤ ⎡ D⎤
A=⎢ ⎥=⎢ ⎥ ; L=⎢ ⎥
⎢ ∂g ∂g ⎥ ⎣ senϕ º D cos ϕ º ⎦ ⎣ϕ ⎦
⎢⎣ ∂D ∂ϕ ⎥⎦
⎡cos ϕ º − D senϕ º ⎤ ⎡ D º ⎤ ⎡ X º ⎤ ⎡ C1 ⎤
C=⎢ ⎥⎢ ⎥ + ⎢ ⎥ = ⎢ ⎥
⎣ senϕ º D cos ϕ º ⎦ ⎣ ϕ º ⎦ ⎣ Y º ⎦ ⎣C 2 ⎦
Σ X = A Σ L AT
ΣX = ⎢ X 2⎥
=⎢ ⎥ ⎢ 2 ⎥⎢ ⎥
⎣σ XY σ Y ⎦ ⎣ sen ϕ º D cos ϕ º ⎦ ⎣⎢ 0 σ ϕ ⎦⎥ ⎣ − D º sen ϕ º D cos ϕ º ⎦
⎡σ X 2 σ XY ⎤ ⎡0.866 − 635 ⎤ ⎡0.0025 0 ⎤ ⎡0.866 0.5 ⎤
ΣX = ⎢ 2⎥
=⎢ ⎥ ⎢
⎣σ XY σ Y ⎦ ⎣ 0.5 1099.8523⎦ ⎣ 0 5.910 ⎦ ⎣ − 635 1099.8523⎥⎦
−10 ⎥ ⎢
⎡σ X 2 σ XY ⎤ ⎡0.00210 0.00067⎤
ΣX = ⎢ ⎥=⎢ ⎥
⎣σ XY σ Y 2 ⎦ ⎣0.00067 0.00130⎦
traza: tr (ΣX) = σX2 +σY2 = 0.0034; determinante: det (ΣX) = σX2σY2-σXY2= 0.000002281
128
La ecuación característica: λ2-0.0034 λ + 0.000002281 = 0
Lb = [lbi ] ; i = 1, n (91)
el vector de observables que distribuye normal multivariable con media µLb y matriz
varianza-covarianza ΣLb:
⎡σ l12 ⎤
⎢ ⎥
⎢ σl2 2
⎥
Σ Lb = (93)
⎢ O ⎥
⎢ ⎥
⎣⎢ σ ln 2 ⎦⎥
σ 02
pi = (94)
σ li 2
σ 02
σ li 2 =
pi
entonces:
129
⎡σ 02 ⎤ ⎡1 ⎤
⎢ ⎥ ⎢p ⎥
⎢ p1 ⎥ ⎢ 1 ⎥
⎢ σ 02 ⎥ ⎢ 1 ⎥
⎢ ⎥ 2 ⎢ ⎥ = σ 2 P −1
Σ Lb =⎢ p2 ⎥ = σ0 ⎢ p2
⎥ 0 (95)
⎢ O ⎥ ⎢ O ⎥
⎢ ⎥ ⎢ ⎥
⎢ σ 02 ⎥ ⎢ 1 ⎥
⎢ ⎥ ⎢⎣ pn ⎥⎦
⎣ pn ⎦
Σ Lb = σ 0 2 P −1 = σ 0 2 QLb (96)
donde:
QLb = P −1 (97)
X = N −1 AT PL
X j = X j º + dX j
Y j = Y j º + dY j ; j = 1, m
en forma matricial:
Xa = X º + X (98)
Σ X = (N −1 AT P )Σ L (N −1 AT P )
T
Σ X = N −1 AT Pσ 0 P −1 P T ( AT ) T ( N −1 ) T
2
Σ X = σ 0 2 N −1 AT ( PP −1 ) PAN −1 = σ 0 2 N −1 ( AT PA) N −1 = σ 0 2 N −1 N N −1 = σ 0 2 N −1
Σ X = σ 0 2 N −1 = σ 0 2 Q X (99)
130
donde QX = N-1 es la matriz cofactor de los parámetros (coordenadas ajustadas).
En el caso de la red plana libre, la solución mínimos cuadrados, mínima norma es:
X = N + AT PL (100)
i) NN + N = N
ii ) N + NN + = N +
iii ) N + N y NN + son simétricas
iv) X es tal que : V T PV = mínimo (mínimos cuadrados )
v) X es tal que : X T X = mínimo (mínima norma )
vi ) tr (QX ) = mínimo (mínima traza ) : Σ(σ Xj 2 + σ Yj 2 ) = mínimo
entonces de (100):
Σ X = ( N + A T P ) Σ L ( N + AT P ) T
Σ X = ( N + AT P ) σ 0 P −1 ( N + AT P) T
2
Σ X = σ 0 N + AT ( PP −1 ) PAN +
2
Σ X = σ 0 N + ( AT PA) N +
2
ΣX = σ0 N +N N +
2
Σ X = σ 0 N + N N + = σ 0 N + = σ 0 QX
2 2 2
donde:
QX = N + (101)
es la matriz cofactor de las coordenadas planas ajustadas en el caso de una red plana
libre. La matriz varianza-covarianza del vector X, es entonces:
Σ X = σ 0 N + = σ 0 QX
2 2
(102)
σ 02 = 1 (103)
1
pi = (104)
σ li 2
131
La varianza a posteriori o varianza del ajuste, es un estimador de la varianza a priori y
se obtiene por:
σˆ 0 2 =
V T PV
=
[ pvv] (105)
ν ν
donde:
υ = n - ℜ(N) = n- m + r (106)
La prueba chi-cuadrado:
V T PV σˆ 0 2
χ2 = =ν (107)
σ 02 σ 02
El estadístico (107) tiene distribución chi cuadrado con υ grados de libertad. En base a
este estadístico, el test permite establecer si el ajuste está distorsionado o si es correcto.
La formulación de las hipótesis es como sigue:
[ ]
E σˆ 0 = σ 0
2 2
(109)
132
Si se acepta la hipótesis nula, el ajuste se juzga correcto. Llamando χ 2 al estadístico
σˆ 0 2
muestral ν , se tiene:
σ 02
figura 17
De la (110):
σˆ 0 2
χ 2
ν,
α
< ν 2 < χ 2ν ,1− α
2
σ0 2
1 σ 02 1
> > 2 α
χ 2ν , α2 ν σˆ 0 2
χ ν ,1− 2
ν σˆ 0 2 ν σˆ 0 2
>σ0 > 2 α
2
χ 2ν , α2 χ ν ,1− 2
ν σˆ 0 2 ν σˆ 0 2
< σ 0
2
< (111)
χ 2ν ,1− α2 χ 2ν , α2
133
ν σˆ 0 2 ν σˆ 0 2
<1< 2 (112)
χ 2ν , 0.975 χ ν , 0.025
La (112) es la condición que debe cumplirse para aceptar la hipótesis nula y decidir que
el ajuste es correcto. El rechazo de la hipótesis nula puede ser causado por un
inadecuado modelo funcional, modelación incorrecta de errores y pesos o ambos. La
presencia de errores groseros en las observaciones, es también una causa frecuente de
rechazo de la hipótesis nula. La prueba chi cuadrado es un detector eficiente de errores
groseros.
La precisión del posicionamiento de los vértices de una red plana ajustada se describe
por medio de las elipses de error absolutas correspondientes. Para ello es necesario
determinar los parámetros de las elipses en todos y cada uno de los puntos de la red.
La matriz varianza-covarianza del vector solución mínimos cuadrados X de una red
plana de p puntos es:
⎡σ X 1 2 σ X 1Y 1 L σ X 1 Xj σ X 1Yj L σ X 1 Xp σ X 1Yp ⎤
⎢ ⎥
⎢ σ Y 1 2 L σ Y 1 Xj σ Y 1Yj L σ Y 1 Xp σ Y 1Yp ⎥
⎢ O M M L M M ⎥
⎢ ⎥
⎢ σ Xj 2 σ XjYj L σ XjXp σ XjYp ⎥
ΣX = ⎢ (113)
σ Yj 2 L σ YjXp σ YjYp ⎥
⎢ ⎥
⎢ O M M ⎥
⎢
⎢ σ Xp 2 σ XpYp ⎥⎥
⎢⎣ sim. σ Yp 2 ⎥⎦
σ Xj 2 = σˆ 0 2 q XjXj
(115)
σ Yj 2 = σˆ 0 2 qYjYj
Los errores estándar de las coordenadas ajustadas en la dirección de los ejes
coordenados X, Y, son:
σ Xj = σˆ 0 q XjXj
(116)
σ Yj = σˆ 0 qYjYj
Los parámetros de las elipses de error en cada uno de los vértices de la red, se obtienen
de sus correspondientes submatrices diagonales de orden 2x2.
134
El rumbo (orientación) del semieje mayor A es en el j-ésimo punto:
2 q XjYjq 2 q XjYjq
tg (2ϕ ) = Æ 2ϕ = arctg
q XjXj − qYjYj q XjXj − qYjYj
1 2 q XjYj
ϕ= arctg (117)
2 q XjXj − qYjYj
λ2 − tr (Q jj )λ + det(Q jj ) = 0 (118)
tr (Q jj ) ± [tr (Q )] 2
− 4 det(Q jj )
λ1− 2 =
jj
(119)
2
A = σˆ 0 λ1 ; B = σˆ 0 λ2 (120)
tr (Q) = q XX + qYY
2
(121)
det(Q) = q XX qYY − q XY
2
q XX + qYY ± (q XX + qYY ) 2 − 4 (q XX qYY − q XY )
λ1− 2 =
2
2 2 2
q + qYY q XX + qYY + 2 q XX qYY − 4 q XX qYY + 4 q XY
λ1− 2 = XX ±
2 2
2 2 2
q XX + qYY q XX + qYY − 2 q XX qYY + 4 q XY
λ1− 2 = ±
2 4
q XX + qYY (q XX − qYY ) 2
λ1− 2 = ± + q XY
2
2 4
135
q XX + qYY (q XX − qYY )2
A = σˆ 0
2
+ + q XY
2 4
(122)
q XX + qYY (q XX − qYY )2
B = σˆ 0
2
− + q XY
2 4
V T PV
Recordemos que la desviación estándar muestral estima laσˆ 0 =
n − ℜ( A)
desviación estándar poblacional σ 0 . Los semiejes mayor A y menor B, representan el
máximo y el mínimo error de posicionamiento del punto Pj, en las direcciones ϕ y ϕ +
π/2 respectivamente. La figura 18 sintetiza lo expuesto:
X
ϕ
z1
−σx
A
(x ;y )
0
B
Y
σx
F re c u e n c ia
z2 m a rg in a l d e x
ε x ~ (0 , σ x )
2
F re c u e n c ia εx
m a rg in a l d e y
ε y ~ (0 , σ y )
2
−σy 0 σy εy
figura 18
136
X
X
ψ
p 0
A
p
( X j;Y j)
Y
B
C u r v a P o d a r ia
Y
figura 19
Para determinar p en una dirección ψ dada a partir de la dirección del semieje mayor A,
se traza una normal a dicha dirección que sea tangente a la elipse de error en el punto
P0. El error p en la dirección ψ queda definido por el segmento de recta que une el
centro de la elipse (X, Y) j con el punto de intersección de la dirección ψ con la tangente
a la elipse en P0. Se puede demostrar que p está dado por:
137
El mínimo valor de p es igual a B.
probabilidad: 1-α
υ 95% 98% 99%
1 20.00 50.00 100.00
2 6.16 9.90 14.10
3 4.37 6.14 7.85
4 3.73 4.93 6.00
5 3.40 4.35 5.15
6 3.21 4.01 4.67
8 2.99 3.64 4.16
10 2.86 3.44 3.89
12 2.79 3.32 3.72
15 2.71 3.20 3.57
20 2.64 3.09 3.42
30 2.58 2.99 3.28
50 2.52 2.91 3.18
100 2.49 2.85 3.11
∞ 2.45 2.80 3.03
En el caso de una red plana, los parámetros o coordenadas planas X, Y varían en forma
conjunta en una región bidimensional. Si se trata de una red altimétrica, los parámetros
o cotas varían en una sola dirección, la vertical. Interesa entonces conocer la
propagación de los errores de las observaciones (desniveles) a las cotas ajustadas. Del j-
ésimo elemento de la matriz varianza-covarianza, se obtiene el error estándar de la j-
ésima cota ajustada:
σ Z i = σˆ 0 q jj (124)
Fiabilidad:
La teoría aquí delineada sigue a Baarda (Leick, A. 1995; Chueca Pazos, M. 2000) y está
relacionada con la estadística del ajuste.
La configuración apropiada de las figuras geométricas constituyentes de la red, la
pequeñez de los residuos y varianzas, la compatibilidad estadística de los estimadores
de la varianza de la observación de peso 1 a priori y a posteriori, la compatibilidad de la
138
red libre y la sometida a constreñimientos externos y la buena configuración de las
elipses de error, entre otras, son pruebas de buena calidad de una red. Sin embargo
puede no ser suficiente. Así, un error grosero introducido en una observación, influye en
todos los residuos de la red y desequilibra su calidad. Se llama fiabilidad interna de la
red a su capacidad, expresada numéricamente, de control general y especifico de las
observaciones junto con la detección y particularización de posibles errores groseros.
Del mismo modo, es necesario relacionar los posibles errores no eliminados o
remanentes de la red con su influencia en los parámetros ajustados. Se llama entonces
fiabilidad externa a la respuesta y sensibilidad de la red ante un nivel de error cualquiera
en sus observaciones.
Recordando las expresiones de las matrices varianza-covarianza del vector Lb de las
observaciones y del vector X de las incógnitas:
Σ L b = σˆ 0 P −1 = σˆ 0 QL b
2 2
(125)
Σ X = σˆ 0 N + = σˆ 0 Q X
2 2
(126)
V = AX – L
V = A N+ATPL – L
V = (AN+ATP – I) L
ΣV = σˆ 0 (AN+AT- P – 1) (PAN+AT – I)
2
ΣV = σˆ 0 [-AN+AT + P-1]
2
(129)
139
La matriz cofactor del vector de los residuos es:
La = Lb + V = Lb +AX - L
La = Lb + AN+ATPL – L
La = AN+ATPL + Lº (131)
ΣLa = σˆ 0 A (N+NN+) AT
2
ΣLa = σˆ 0 A N+ AT
2
(133)
ΣX = σˆ 0 QX = σˆ 0 N+
2 2
tr(QVP) = n – R (A) = ν
n
tr(QVP) = ∑r
i =1
i = n – R (A) = ν (136)
140
donde ν es la redundancia de la red y ri es el número de redundancia de la i-ésima
observación. El número de redundancia ri, representa la contribución de la i-ésima
observación a la redundancia ν de la red.
De la (136):
ri = qi pi (137)
donde qi, pi son los elementos de orden i de la diagonal principal de las matrices QV y P.
Los elementos de la diagonal principal de QV son todos mayores que cero por tratarse
de una matriz cofactor, lo mismo sucede con los elementos diagonales de QLa y
teniendo en cuenta la (138):
1
0 ≤ qi ≤ (139)
pi
0 ≤ qi pi ≤ 1
0 ≤ ri ≤ 1 (140)
ri ≈ 1 (142)
qi pi ≈ 1 (143)
1
qi ≈ (144)
pi
σˆ a i 2 = σˆ 0 2 q a i ≈ 0 (146)
141
σˆ 0 2 pi −1 = σˆ 0 2 qi (147)
ri ≈ 0 (148)
qi r i ≈ 0 (149)
qi ≈ 0 (150)
σˆ 0 2 qi ≈ 0 (151)
σˆ 0 2 q a i ≈ σˆ 0 2 pi −1 (152)
Σ L b = σˆ 0 P −1
2
σ 02
pi = 2 (153)
σi
σˆ v i = σˆ 0 qi (154)
142
de donde:
ri σ 2
σˆ v i = σˆ 0 = σˆ 0 ri i 2
pi σ0
σi
σˆ v i = σˆ 0 ri (155)
σ0
σˆ v i ≈ σ i (156)
ν n − ℜ( A)
rM = = (157)
n n
V = -QV PL (159)
143
⎡ L1 ⎤ ⎧⎡ L1 ⎤ ⎡0⎤ ⎫
⎢ L ⎥ ⎪⎢ ⎥ ⎢ ⎥ ⎪
⎢ 2 ⎥ ⎪ ⎢ L2 ⎥ ⎢0 ⎥ ⎪
⎢ M ⎥ ⎪⎪⎢ M ⎥ ⎢ M ⎥ ⎪⎪
V = -QV P ⎢ ⎥ = -QV P ⎨⎢ ⎥ − ⎢ ⎥ ∇ i ⎬
⎢ Li + ∇ i ⎥ ⎪⎢ Li ⎥ ⎢1⎥ ⎪
⎢ M ⎥ ⎪⎢ M ⎥ ⎢ M ⎥ ⎪
⎢ ⎥ ⎪⎢ ⎥ ⎢ ⎥ ⎪
⎢⎣ Ln ⎥⎦ ⎪⎩⎢⎣ Ln ⎥⎦ ⎢⎣0⎥⎦ ⎪⎭
V/H1 = QV Pei ∇i – QV PL
Los residuos individuales vi son a su vez, variables estocásticas que distribuyen normal
con media qi pi∇i y varianza σ02qi, es decir:
(v1 / H 1 )
ω1 / H 1 = (166)
σ vi
144
(v i / H 1 ) qi pi ∇ i
ω1 / H 1 = ∼ n( , 1) (167)
σ 0 qi σ 0 qi
qi pi ∇ i
E (ω1 / H 1 ) = (168)
σ0
Entonces:
(v i / H 1 ) qi pi ∇ i
ω1 / H 1 = ∼n( , 1) (169)
σ vi σ0
(v i / H 0 )
H0: ω 0 = ∼ n (0,1) (170)
σ vi
El parámetro de no-centralidad, traslación o desplazamiento; es decir, la media de una
distribución gaussiana no-central, se denota por δi y es:
∇ i p i qi
δi = (171)
σ0
σ 02
Puesto que: pi =
σi2
σ 0 = σ i pi (172)
∇ i pi q i
δi = (173)
σ i pi
∇ i pi pi qi ∇ i pi qi
δi = =
σ i pi σi
∇ i ri
δi = (174)
σi
145
y el error grosero ∇i:
δ iσ i
∇i = (175)
ri
α = 0.001
β = 0.90
146
3.29 1.28
β=0.90
1/2 α=0.0005
δ =4.57
figura 20
1
0.5 − α = 0.5 − 0.0005 = 0.4995
2
obteniéndose:
t = 3.29
Para que el parámetro de desplazamiento δ0 de lugar a β = 0.90, será preciso entrar con
el argumento 0.90 – 0.50 = 0.40, obteniendo t = 1.28.
Con lo que resulta inmediatamente:
δ 0σ i σi
∇0i = ≥ 4.57 (178)
ri ri
147
será rechazado con una fiabilidad de β = 0.90. Podrán deslizarse, por tanto, hasta un
10% de errores iguales o superiores al indicado y será preciso admitir como norma
general los inferiores al valor establecido en (178).
α β δ0
0.050 0.80 2.80
0.025 0.80 3.10
0.001 0.80 4.12
0.050 0.90 3.24
0.025 0.90 3.52
0.001 0.90 4.57
148
Es útil el estudio de homogeneidad de una red comparando las redundancias en
distintas zonas con la redundancia media (157). Las zonas de redundancia promedio
insatisfactorias sugieren su densificación mediante un suficiente incremento de
observaciones. Se utiliza a este efecto el parámetro:
δ0
µ IN i = (179)
ri
∇X = -N+ATPei∇i (181)
∇X 0 i N ∇X 0 i
T
λ0 i =
2
(183)
σ 02
149
( N + AT Pei ∇ 0 i ) T N ( N + AT Pei ∇ 0 i )
λ0 i 2 =
σ 02
∇ 0 i ei PA ( N + NN + ) AT Pei ∇ 0 i
T
λ0 i =
2
σ 02
∇ 0 i ei PA N + AT Pei ∇ 0 i
T
λ0 i =
2
(184)
σ 02
1 1
λ0 i 2 = 2
∇ 0 i (ei Pei − ei PQV Pei ) =
T T 2 2
∇ 0 i ( pi − pi qi )
σ0 2
σ0 2
1
λ0 i 2 = 2
pi ∇ 0 i (1 − ri )
σ0 2
1
λ0 i 2 = δ 0 2σ i 2 pi (1 − ri ) (186)
riσ 0
2
σ 02
De la definición de peso, pi = , sustituyendo en (186):
σi2
1 1
λ0 i 2 = δ 0 2σ i 2σ 0 2 (1 − ri ) = δ 0 (1 − ri )
2
riσ i σ 0
2 2
ri
1 − ri
µ EX i = δ 0 (187)
ri
150
- Los vectores ∇X0i.
- Los parámetros µEXi de homogeneidad de la red.
Síntesis:
Los elementos esenciales del ajuste mínimos cuadrados de una red topográfica son:
i) el modelo funcional
ii) el modelo estocástico
iii) fiabilidad
------------º-----------
151
TRABAJO PRÁCTICO 3: ANALISIS DE REDES TOPOGRAFICAS
500 2
4
1
Y
0 500
Datos:
Coordenadas aproximadas
152
i) Calcular la matriz de los pesos para el ajuste libre.
ii) Escribir la ecuación de observación para el ángulo 2.
iii) Escribir la ecuación de observación para la distancia 3.
iv) Calcular las componentes del vector L correspondientes al ángulo 2 y a la
distancia 3.
E2: Ajustar la red libre del ejercicio 1 con la aplicación MATLAB, REDPLN_ALV1:
E3: Ajustar la red plana del ejercicio 1, vinculada a los puntos 1 y 4 considerados como
puntos fijos (utilice la aplicación MATLAB, REDPLN_ALV1).
E4: Sea la red altimétrica de la figura del E1, que se ha medido con nivelacion
geométrica.
10 mm
Datos: nivelación geométrica: error estándar de un desnivel: σˆ h = L(km)
km
desniv. codif. observ.(m) dist.(m)
1 1-2 10.180 320
2 2-3 5.209 316
3 1-3 15.395 364
4 1-4 18.504 206
5 2-4 8.322 158
6 3-4 3.105 212
5
1 3
4
6
Y
0
153
error estándar de una dirección horizontal: σdh = ± 2”
error estándar en distancia : σD = 5mm +5 ppm D(mm)
Datos:
Coordenadas aproximadas:
punto Xº(m) Yº(m)
1 15000 5000
2 16000 17000
3 3000 20000
4 8000 13000
5 13000 11000
6 7500 2000
7 2000 6000
ángulos
ángulo codif. observación
1 3-4-7 105º 36’ 26”
2 4-6-7 55º 25’ 24”
3 1-6-5 35º 46’ 49”
4 4-2-5 37º 01’ 31”
5 3-2-4 39º 02’ 30”
6 1-5-2 135º 15’ 52”
7 4-7-3 36º 14’ 14”
8 5-3-2 29º 15’ 59”
9 2-1-5 23º 37’ 34”
10 4-1-7 42º 48’ 06”
11 6-4-1 44º 08’ 42”
12 1-7-5 27º 50’ 50”
Distancias
dist. codif. observac.(m)
1 1-0-6 8109.287
2 1-0-2 12061.786
3 2-0-3 13549.871
4 3-0-7 14025.355
5 7-0-6 6915.454
6 1-0-7 13153.408
7 1-0-4 10683.685
8 1-0-5 6171.609
9 5-0-2 6868.418
10 4-0-2 9402.453
11 5-0-3 13636.349
12 5-0-4 5697.620
13 7-0-5 12210.119
14 6-0-4 10890.332
15 7-0-4 8996.876
16 4-0-3 8608.073
17 6-0-5 10529.538
154
i) ejecutar el ajuste libre.
ii) Si se modifican las coordenadas aproximadas sin deformar
significativamente la red ¿cambian los resultados del ajuste libre?
iii) ¿Qué utilidad tiene la ejecución previa del ajuste libre?
iv) Seleccione las coordenadas de dos puntos cualesquiera del ajuste libre,
considérelas como coordenadas de puntos fijos y ejecute el correspondiente
ajuste vinculado. Si se seleccionan otros puntos fijos, ¿qué sucede ahora con
el ajuste vinculado?
1 2
3
4
Datos:
10 mm
Cotas aproximadas error estándar de un desnivel: σˆ h = L(km)
km
Punto Zº(m)
1 100
2 115
3 95
4 113
5 120
155
i) el ajuste libre ¿pasa la prueba chi-cuadrado al 95% de confianza?
ii) Obtener cotas compensadas y sus errores estándar.
iii) Obtener desniveles ajustados y verificación de cierre malla por malla.
iv) Ajuste vinculado: seleccione uno o más puntos altimétricos fijos. Asigne
cotas fijas y sus errores estándar.
-------------º---------------
156
TEMA 4
157
Diseño y simulación de redes topográficas:
30 0 00
2 0 00 0
4
3 2
1 10 0 0 Y
13 0 0 0 2 00 0 0 3 0 00 0
figura 1
Coordenadas aproximadas
⎡1 0 ⎤
ΣX = E = ⎢ ⎥ (1)
⎣0 1 ⎦
158
N = AT PA = Σ X −1 = E (2)
⎡ p1 ⎤
P = ⎢⎢ p2 ⎥
⎥ (4)
⎢⎣ p3 ⎥⎦
⎡ p1 ⎤ ⎡ −0.891 −0.454 ⎤
⎡ −0.891 0.588 0.707 ⎤ ⎢ ⎥ ⎢ 0.588 −0.809 ⎥ = Σ −1 = E = ⎡1 0 ⎤
A PA = ⎢
T
⎥⎢ p2 ⎥⎢ ⎥ ⎢0 1 ⎥
⎣ −0.454 −0.809 0.70 ⎦ ⎢
X
⎣ ⎦
⎣ p3 ⎥⎦ ⎢⎣ 0.707 0.707 ⎥⎦
es decir:
159
Asumiendo que observaciones repetidas no son correlacionadas, la desviación estándar
de la media aritmética es:
σS
σS = (7)
n
su peso es:
σ 02 σ 02 σ 02
pS = = = n (8)
σ S 2 ⎛ σ S ⎞2 σS2
⎜ ⎟
⎝ n⎠
con σ0 = 1 cm, el número necesario de repeticiones n con respecto a los pesos óptimos,
es:
σ S1 1.86
σ S1 = = = 1.32 cm
n1 2
σS2 1.42
σS2 = = = 1.00 cm
n2 2
σ S3 1.19
σS3 = = = 1.19 cm
n3 1
y sus pesos:
σ 02 12
pS 1 = = = 0.57
σ S 1 (1.32 )2
σ 02 12
pS 2 = = = 1.00
σ S 2 (1.00 )2
σ 02 12
pS 3 = = = 0.71
σ S 3 (1.19 )2
160
⎡0.57 ⎤ ⎡ −0.891 −0.454 ⎤
⎡ − 0.891 0.588 0.707 ⎤ ⎢ ⎥ ⎢ 0.588 −0.809 ⎥
N = AT PA = ⎢ ⎥⎢ 1.00 ⎥⎢ ⎥
⎣ −0.454 −0.809 0.707 ⎦⎢
⎣ 0.71⎦ ⎣ 0.707 0.707 ⎥⎦
⎥ ⎢
es decir:
⎡1.153 0.110 ⎤
N =⎢ ⎥
⎣0.110 0.127 ⎦
λ 2 − 1.78 λ + 0.7856 = 0
cuya solución λ1 = 0.97, λ2 = 0.81conduce a los semiejes mayor y menor de la elipse
estándar:
A = λ1 = 0.98 cm B = λ2 = 0.90 cm
1 2 (−0.08)
ϕ = arctg = 41.44º
2 0.88 − 0.90
Existen dos métodos que pueden usarse para resolver los problemas de diseño,
denominados el método “prueba y error” y el método “analítico”. El método prueba y
error se lleva a cabo por simulación en computadora y conduce a un diseño
satisfactorio, mientras que el método analítico produce la red de diseño óptimo. Aquí
delinearemos solamente el método”prueba y error” por simulación en computadora que
si bien conduce a un diseño satisfactorio, la red óptima en sentido matemático, puede
lograrse solamente con métodos analíticos.
El proceso prueba y error puede sintetizarse en los siguientes pasos (Shanlong
Kuang,1996):
161
iii) Computar los valores de las cantidades especificadas como criterios de
precisión y fiabilidad
iv) Si los valores calculados no están próximos a aquellos especificados en i),
modificar el esquema de observación agregando o removiendo
observaciones, o incrementando o disminuyendo los pesos de las
observaciones. Regresar a iii).
v) Computar el costo de la red y recomenzar en ii) con un esquema
completamente diferente (por ejemplo trilateración en lugar de
triangulación). Detenerse cuando se haya alcanzado una red satisfactoria, es
decir, mínimo costo y precisión aceptable.
La principal ventaja del método prueba y error consiste en que cualquier criterio
arbitrario de precisión y fiabilidad, puede usarse para lograr un diseño satisfactorio.
No es necesario encuadrar estos criterios en formas matemáticas complejas,
indispensables si se utilizan métodos analíticos.
Fiabilidad interna:
Índices de sensibilidad: α = 0.05, β= 0.80; δ0 = 2.80
Obs. ri ⎜∇0i⎜(m)
1 0.5912 0.068
2 0.1604 0.099
3 0.2442 0.068
Fiabilidad externa:
Transferencia a coordenadas: Vectores de fiabilidad externa:
162
Observable 2 (distancia 2-4):
Punto 4: ISX = 0.072 m ISY = -0.044 m
ISX y ISY son las influencias sobre las coordenadas compensadas del punto 4 de los
errores no detectados por el ω-test de Baarda; es decir aquellos que se mantendrían por
debajo de los mínimos errores detectados ⎜∇0i⎜.
1 1
σS = σS = (5 mm + 1 ppm S (mm)) = 3.53 + 0.71 ppm S (mm)
2 2
La elipse estándar del punto 4 entra ahora dentro de las especificaciones de precisión
postuladas; es decir, está contenida dentro del círculo de radio igual a 1 cm.
Fiabilidad interna:
Índices de sensibilidad: α = 0.05, β= 0.80; δ0 = 2.80
Obs. ri ⎜∇0i⎜(m)
1 0.5890 0.048
2 0.1597 0.070
3 0.2429 0.048
Fiabilidad externa:
Transferencia a coordenadas: Vectores de fiabilidad externa:
163
En el diseño prueba y error de redes altimétricas se procede siguiendo los cinco pasos
anteriores, salvo que las precisiones se especifican para los errores estándar de las cotas,
ya que las elipses de error son propias de las redes planas exclusivamente.
Simulación:
Una vez obtenido el diseño satisfactorio por prueba y error, en ciertos casos resulta
conveniente efectuar la simulación de la red, es decir, simular las observaciones y
ajustar la red con las observaciones simuladas para tener una respuesta a priori del
ajuste de la red real. Para ello se definen parámetros (coordenadas o cotas) exactos con
lo que se logra una red ideal calculando observables también ideales (sin errores). Si
ahora se “descorrigen” los observables ideales o exactos afectándolos de los errores
adoptados en la etapa de diseño, se obtienen las observaciones simuladas. Los errores
introducidos deberán estar comprendidos en el rango -2.5σ y +2.5σ y sus magnitudes y
signos tendrán que ser tales que los errores distribuyan según la ley normal de Gauss,
donde σ es la desviación estándar adoptada para las observaciones en el diseño de la
red. Luego se procede a efectuar el ajuste mínimos cuadrados como si se tratase de una
red observada realmente.
Ejemplo 1: Sean cuatro puntos del terreno cuyas coordenadas planas aproximadas están
dadas en la siguiente tabla:
Vamos a diseñar una red plana libre de la influencia de constreñimientos externos, que
satisfaga el siguiente postulado de precisión:
El semeje mayor A de las elipses de error del 95% de confianza, no debe superar el
valor de dos centímetros, es decir: A ≤ 2 cm.
164
dist. códigos distancias
1 1-0-3
2 2-0-4
Fiabilidad:
Índices de sensibilidad de la red: α = 0.05, β = 0.80, δ0 = 2.80
165
Transferencia a coordenadas. Vectores de fiabilidad externa:
166
y el número de grados de libertad es r = 3, entonces la redundancia de la red es υ = n –
m + r = 10 – 8 + 3 = 5. Los resultados son los siguientes:
El nuevo diseño cumple con el postulado de precisión, puesto que los semiejes mayores
de las elipses de todos los puntos son ahora menores o iguales que 2 cm. Si bien la suma
de las excentricidades de las elipses es ahora levemente mayor que en el diseño anterior,
la suma de áreas de incertidumbre resulta mucho menor en el diseño 2.
Fiabilidad:
Se observa que han aumentado los números de redundancia y han disminuido los
mínimos errores detectables, respecto del diseño anterior. Los parámetros de
homogeneidad interna y externa indican que la red es homogénea en toda su extensión.
167
Transferencia a coordenadas: Vectores de fiabilidad externa:
168
Observable 10: (distancia 1-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 -0.001 0.004 -0.005
ISY (m): -0.011 0.000 0.011 0.004
Solamente el observable 7 (distancia 2-0-1) tiene sobre el punto 2 una influencia total
IT, mayor que 2EPM ( IT = ISX 2 + ISY 2 > 2 EPM ). El diseño es satisfactorio.
169
La varianza a posteriori σˆ 0 2 = 0.8619 supera la prueba chi-cuadrado en la tercera
iteración, χ25, 0.025 = 0.831, χ25, 0.975 = 12.8.
Fiabilidad:
Índices de sensibilidad de la red: α = 0.05, β = 0.80, δ0 = 2.80
Σri = 5
rm = 0.5
De la tabla “t” de Student: t 5, 0.975 = 2.57. Los parámetros de Baarda se mantienen por
debajo de este valor para todas las observaciones; es decir ⎜ωi⎜< t 5, 0.975 = 2.57. El ω-
170
test de Baarda no ha detectado errores groseros en las “observaciones”, en consecuencia
no se rechaza ninguna de ellas.
171
Observable 9: (distancia 2-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 0.005 -0.006 0.000
ISY (m): -0.001 -0.007 0.005 0.002
El ajuste libre de la red simulada acuerda sensiblemente con los resultados del diseño.
Esta es la respuesta esperada en el ajuste libre de la red real.
En el ajuste vinculado, fijamos las coordenadas de los puntos 1 y 3 del ajuste libre con
sus errores estándar:
172
Coordenadas ajustadas y sus errores estándar:
Las elipses de error del ajuste vinculado difieren significativamente de las elipses del
ajuste libre puesto que las primeras están influenciadas por los constreñimientos
externos (puntos fijos). Si cambiamos los puntos fijos, cambian los parámetros de las
elipses de error, es decir que son dependientes del datum. El tamaño de las elipses de
error depende de la proximidad a los puntos fijos. En cambio las elipses del ajuste libre
son invariantes respecto del datum creado por los puntos fijos y reflejan en forma
confiable la precisión interna de la red.
La prueba F:
Interesa saber si las varianzas a posteriori σˆ12 y σˆ 2 2 de los ajustes libre y vinculado
respectivamente, difieren o no significativamente
σˆ 2
El cociente de varianzas: F = 1 2 distribuye F con υ1 y υ2 grados de libertad.
σˆ 2
Si 0 < F < F αν 1 ,ν 2 donde F αν 1 ,ν 2 es el valor crítico para ν 1 y ν 2 grados de libertad y
para el nivel de significación α, se acepta al nivel de confianza 1 - α que ambas
muestras no difieren significativamente y pertenecen a la misma población.
Para nuestro ejemplo 1 se tiene:
0.8619
El estadístico F es: F = = 1.1974 y el valor crítico: F 0.05ν 1 ,ν 2 = 4.39
0.7198
Puesto que F < F ν 1 ,ν 2 , no existe diferencia significativa entre ambas varianzas
0.05
173
Ejemplo2: Vamos a diseñar una red altimétrica donde nos imponemos el siguiente
postulado de precisión: los errores estándar de las cotas ajustadas debe ser menor o igual
que 4 mm. En la figura siguiente, las flechas apuntan hacia el punto del terreno de
mayor cota. 2
figura
punto 1 2 3 4
σZ (mm) 3.2 2.7 3.1 2.5
Fiabilidad:
Índices de sensibilidad de la red: α = 0, β = 0; δ0 = 2.80
desnivel ri ⎜∇0i⎜(m) µINi µExi
1-2 0.3847 27.1 4.5144 3.5411
4-2 0.5573 24.3 3.7507 2.4956
3-2 0.4428 26.8 4.2078 3.1409
1-4 0.3419 27.1 4.7886 3.8847
3-4 0.2733 26.8 5.3560 4.5658
Σri = 2
rm = 0.4
174
Transferencias a cotas: Vectores de fiabilidad externa:
3 mm
σh = L (km)
km
Los resultados son en este caso:
punto 1 2 3 4
σZ (mm) 1.0 0.8 0.9 0.7
Fiabilidad:
Índices de sensibilidad de la red: α = 0, β = 0; δ0 = 2.80
175
Transferencias a cotas: Vectores de fiabilidad externa:
Las influencias de los errores no detectados por el ω-test de Baarda sobre las cotas, no
superan al error postulado (4 mm). Este diseño es satisfactorio.
Vamos a simular los desniveles de la red aceptando que el máximo error tolerable es:
T = 2.5 σh
punto 1 2 3 4
Z(m) 98.102 117.221 103.890 111.628
Se tiene:
tramo 1-2 4-2 3-2 1-4 3-4
desnivel exacto(m) 19.119 5.593 13.331 13.526 7.738
Desnivel simulado(m) 19.121 5.591 13.332 13.528 7.736
En ambas mallas los errores de cierre altimétricos están por debajo de la tolerancia,
podemos entonces comenzar con el ajuste libre de la red simulada que se ejecuta con la
aplicación MATLAB, REDALT_A, siguiendo el diseño satisfactorio.
176
La varianza a posteriori σˆ 0 2 = 1.2921 del ajuste libre supera la prueba chi-cuadrado en
tres iteraciones, χ2 2, 0.025 = 0.0506, χ2 2, 0.975 = 7.38.
punto 1 2 3 4
Z(m) 97.8900 117.0110 103.6809 111.4181
σZ(mm) 1.1 0.9 1.01 0.8
Fiabilidad:
Índices de sensibilidad de la red: α = 0, β = 0; δ0 = 2.80
177
El ajuste libre de la red simulada concuerda sensiblemente con el diseño satisfactorio.
PF Z(m) σZ(mm)
1 98.0102 1
punto 1 2 3 4
Z(m) 98.0102 117.1312 103.8011 111.8382
σZ(mm) 1.1 2.0 2.3 1.9
------------------º-------------------
178
TRABAJO PRÁCTICO 4: DISEÑO, SIMULACION Y AJUSTE DE REDES
TOPOGRAFICAS.
E1. En el j-ésimo vértice de una red plana se observan n direcciones horizontales según
la figura siguiente:
d1
βj 1 -2
j d2
β
j 1 - (n -1 )
d n -1
βj 1 -n
dn
Las direcciones horizontales dj1, dj2, dj(n-1), djn, son observaciones independientes con
error estándar σdh, que generan un conjunto βj 1-2, βj 1-3, βj 1-(n-1), βj 1-n de ángulos
correlacionados. Hallar la matriz varianza-covarianza Σβ del vector β = [βj 1-2, βj 1-3, βj 1-
T
(n-1), βj 1-n] y la matriz de los pesos Pβ, si los ángulos se definen como:
Construya la matriz P delos pesos para una red plana de trilateración con p puntos, si
los ángulos en cada estación se diseñan según la figura anterior. Considere que las
distancias son independientes.
E2: Diseñe, simule y ajuste sus propias redes topográficas: planas y altimétricas. En el
caso de las redes planas, considere las correlaciones entre los ángulos horizontales.
Hágalo ahora sin considerar las correlaciones entre ángulos y establezca las diferencias.
---------------º--------------------
179
BIBLOGRAFIA
Berné Valero, Jose Luis (2001). “Microgeodesia y Redes de Alta Precisión. Proyecto
Práctico 2001”. Universidad Politecnica de Valencia.
Chueca Pazos, Manuel, Herraez Boquera, José, Berné Valero, José Luis (1996). “Redes
Topográficas y Locales. Microgeodesia”. Escuela Técnica Superior de Ingeniería
Geodésica, Cartografía y Topografía. Universidad Politecnica de Valencia. Editorial
Paraninfo.
Kuang, Shanlong (1996). “Geodetic Network Analysis and Optimal Design: Concepts
and Aplications”. Ann Arbor Press, Inc. Chelsea, Michigan
-----------------º---------------
180