Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FACULTAD DE INGENIERÍA,
Departamento de Agrimensura
INDICE
Parte 1 ..............................................................................................................................
Parte 2..................................................................................................................................
Parte 3..................................................................................................................................
PARTE I
Expectativas:
Alcances:
introducción, no es alcance del presente trabajo un análisis más exhaustivo de cada una de
las mismas.
Marco Teórico
Fotogrametría. Introducción
“Cualquier equipo capaz de transformar alguna forma de energía en una señal a partir de la
cual se pueda obtener información de objetos sin contacto físico entre el sensor y los
mismos. El ejemplo más sencillo de este tipo de sensor es la cámara fotográfica analógica.
También entran en esta categoría diferentes tipos de cámaras digitales y sensores de
Matías Williams 63678/9
Guillermo Valisena 62660/5 8
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
barrido, que utilizan detectores CCD (Charge Coupled Devices) para convertir energía
electromagnética en energía eléctrica.”
Si disponemos de dos (o más) fotografías del mismo objeto tomadas desde puntos de vista
significativamente diferentes, podremos obtener de forma sencilla coordenadas
tridimensionales de cualquier punto del objeto presente en las dos imágenes.
En cada una de las imágenes del espacio imagen se definirá un sistema de coordenadas
bidimensional (sistema de referencia imagen), mientras que en el espacio objeto se definirá
un sistema de coordenadas tridimensional (sistema de referencia objeto).
La correcta definición de los sistemas de referencia imagen pasa por recuperar la geometría
de cada una de las tomas fotogramétricas, este proceso se conoce como orientación interna.
Cada uno de los rayos del haz proyectivo queda definido por el centro proyectivo y el punto
de imagen correspondiente al rayo proyectivo.
Entonces, la definición analítica de un rayo proyectivo pasa por dotar de posición al punto
de la imagen en un determinado sistema de coordenadas definido en la imagen, y conocer la
posición del centro de proyección respecto de ese sistema de coordenadas.
El concepto estudiado cambia en fotogrametría digital según la imagen tratada proceda del
escaneo de una imagen analógica o se haya adquirido directamente con una cámara digital.
A efectos del presente trabajo nos centraremos en la segunda opción.
Correlación de imágenes
Para ello, se define una matriz de píxeles, que tiene como píxel central el punto en cuestión,
y sus vecinos serán los píxeles que lo rodean. En rigor, cada celda tendrá el valor digital del
píxel correspondiente en la imagen.
Existen métodos para conocer la posición aproximada del punto homólogo sobre la imagen
de búsqueda, lo cual acortará los tiempos de búsqueda de forma significativa.
Orientación externa
Etapas de la fotogrametría
La fotogrametría tuvo en su historia, tres grandes etapas bien diferenciadas entre sí:
Matías Williams 63678/9
Guillermo Valisena 62660/5 14
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Aplicaciones de la fotogrametría
En primer lugar, se debe destacar que posee una gran cantidad de aplicaciones, ya que
existen muchos tipos de sensores, desde cámaras fotográficas terrestres hasta sensores
montados en satélites, que nos pueden dar un nivel de detalle muy distinto de lo que se
quiere analizar.
Al fin del presente trabajo, se mencionarán las aplicaciones más comunes en el campo de la
agrimensura.
Ortofotografías: Una ortofoto es una imagen corregida de los efectos producidos por
las irregularidades y pendientes de la superficie del terreno, y por la inclinación de la
cámara que ha tomado la imagen respecto al plano de referencia. Una ortofotografía es una
imagen transformada de perspectiva central a ortogonal.
Radiación electromagnética.
Esta radiación, vista como una onda, posee un espectro de períodos de onda y,
consecuentemente, de frecuencia distintos. Como ejemplos se encuentra la luz visible, la
región del infrarrojo, del ultravioleta, entre tantas otras.
Entonces, por ejemplo, una cámara fotográfica estándar y clásica, es un sensor que capta y
registra sólo la pequeña parte del espectro electromagnético correspondiente al visible. Ésta
se ubica aproximadamente en una longitud de onda de entre 400 nm y 700 nm. (Lo mismo
podríamos decir del ojo humano).
V= e/t
C= λ * f (Donde f es la frecuencia)
Entonces, vemos que a mayor frecuencia se emitirá una mayor cantidad de energía, siendo
así más fácil de detectar, al menos en teoría.
La ley de Stefan Boltzmann expresa que un cuerpo cualquiera, emite energía en forma
proporcional a la cuarta potencia de su temperatura.
Su expresión es:
En rigor de verdad, esta ley se cumple para un cuerpo ideal denominado cuerpo negro, pero
puede aplicarse con una precisión aceptable al resto de los cuerpos.
Como consecuencia directa de esta ley, vemos que, mientras mayor sea la temperatura de
un cuerpo, mayor energía emitirá.
Ley de Wien
La ley de Wien establece que existe una relación proporcional inversa entre la temperatura
de un cuerpo y la longitud de onda en el que existe un pico de radiación.
Su expresión es:
Esta ecuación significa que dependiendo de la temperatura del cuerpo, emitirá radiación
para diferentes zonas del espectro electromagnético. Como un ejemplo, tomemos al sol, que
ronda los 5700 grados Kelvin.
Los cuerpos responden a la energía electromagnética que reciben de tres maneras básicas:
absorbiéndola, transmitiéndola, o reflejándola, de manera selectiva con respecto a la
longitud de onda.
La reflexión puede ser de dos tipos: especular o difusa. En la reflexión especular, toda la
energía se refleja en una sola dirección, mientras que en la difusa se refleja uniformemente
en todas las direcciones. Esto depende de la rugosidad que presente la superficie en
cuestión.
Entonces, como resumen, cada cuerpo emite y refleja una radiación diferente en función de
su naturaleza y de la luz que incide sobre él. Gracias a esto se aprecia el color de los
objetos, de forma que se verá verde si emite y/o refleja radiación en esa banda del espectro
Matías Williams 63678/9
Guillermo Valisena 62660/5 19
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
visible. Para cada cuerpo se puede obtener su patrón de respuesta espectral o firma
espectral, utilizada en varios procesos de teledetección.
Vemos en este ejemplo, que la vegetación vigorosa tiene un pico pequeño de reflectancia
en el visible en una longitud de onda que corresponde al color verde, lo que explica porque
la vemos de ese color. Sin embargo, es más notorio aún que tiene un pico mucho mayor en
el infrarrojo cercano, entonces será aún más fácil de detectar la vegetación vigorosa con un
sensor que detecte esa parte del espectro, invisible para el ojo humano.
Recordemos que el espectro visible es la única región del espectro electromagnético al que
es sensible el sistema de visión humana. El ojo humano es sensible a la luz en tres colores
básicos: rojo, verde y azul. Estos colores se denominan primarios y por combinación de
ellos se puede obtener cualquier otro.
De hecho, el sistema RGB (utilizado en monitores y televisores) combina estos tres colores
en distintas proporciones para obtener algún otro color deseado.
Por otra parte, los colores complementarios son el amarillo, magenta y cian, y se forman
por la sustracción al color blanco de los tres colores primarios. Entonces, los colores
pueden formarse por combinación de complementarios.
La cámara oscura no es sino un recipiente cerrado, con un pequeño orificio por donde pasa
la luz, y con las paredes oscuras, colocándose en la pared opuesta al orificio un dispositivo
sensible a la luz. El plano donde se registra la imagen se denomina plano focal. La cámara
se orienta al objeto a fotografiar y se recoge su imagen invertida, a una distancia que será
función de la distancia entre el objeto y el orificio de la cámara oscura.
Desde este principio básico se han ido mejorando los procesos para obtener fotografías,
mejorando, por ejemplo, el tiempo de exposición por la presencia de lentes en el sistema.
Se ha estudiado mucho desde entonces, parámetros como la sensibilidad de las películas
fotográficas, la velocidad de obturación, el enfoque, etc.
Lo particular de las cámaras digitales, es que la película se sustituye por una matriz de
sensores CCD que son sensibles a la luz.
Resoluciones
Toda imagen posee cuatro resoluciones básicas, que se deben estudiar con seriedad y
esmero:
Resolución geométrica: Ésta resolución está directamente relacionada con el tamaño del
menor objeto identificable en la imagen. Como ejemplo, podemos decir que una imagen
con resolución geométrica de 1 m significa que el menor objeto identificable será de ese
Matías Williams 63678/9
Guillermo Valisena 62660/5 21
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
tamaño. Objetos menores no se podrán distinguir. Con las imágenes analógicas este
parámetro depende de características de la película y del tiempo de exposición.
Resolución radiométrica: Ésta resolución está relacionada con los menores valores de
energía que son detectables. De este modo, por ejemplo, se podrían identificar para una
imagen de la misma zona, con distinta resolución radiométrica, distintas cantidades de
tonalidades de grises.
Resolución espectral: Ésta se relaciona con las bandas del espectro electromagnético que es
capaz de registrar. Una película pancromática, por ejemplo, registra valores dentro de la
faja del visible.
Una imagen digital en niveles de gris es una matriz bidimensional compuesta por celdas
cuadradas, denominadas píxeles. Dentro de cada pixel hay una coloración sólida, definida
por un número digital. Cada número digital se corresponde, en principio, con un nivel de
gris. Una imagen digital en color tendrá las tres matrices correspondientes a los colores
primarios y el color de un pixel se determinará por la combinación de los valores del mismo
píxel en cada una de las matrices.
Las resoluciones espectral y temporal, para las imágenes digitales, tienen el mismo
significado básico que en las fotografías analógicas.
Errores en la fotogrametría
A continuación, nos centraremos en los errores básicos que afectan al presente trabajo.
Existen diferentes causas que provocan que la toma de una imagen fotogramétrica no
Matías Williams 63678/9
Guillermo Valisena 62660/5 23
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
coincida con el modelo teórico, introduciéndose errores sistemáticos que en algún caso
deben ser eliminados o minimizados.
A pesar de la alta calidad muchas veces alcanzada en la construcción de las lentes del
sistema objetivo de una cámara fotogramétrica, éstas no son perfectas, produciéndose una
serie de errores o aberraciones que provocan que la imagen resultante no sigo exactamente
las leyes de la óptica.
La distorsión radial se debe a la refracción sufrida por un rayo de luz al atravesar el sistema
óptico, produciéndose dos tipos de distorsión, de barril o de corsé, según la distorsión sea
positiva o negativa, respectivamente.
La distorsión tangencial se debe a la incorrecta alineación de los ejes ópticos de las lentes
que integran el sistema objetivo. No es significativo frente a la distorsión radial.
El principal problema que afecta a las imágenes digitales es el inmenso tamaño de las
mismas. Este problema ha dado lugar a dos líneas de trabajo: una relacionada con la
compresión de datos y otra con las imágenes piramidales
Compresión
Es de destacar que el acceso a los datos, la carga de los ficheros y su transmisión, tanto
como el tiempo invertido en cada proceso sobre la imagen y la visualización son
proporcionales al tamaño de la misma.
la imagen. Los métodos para comprimir sin perder información logran una compresión muy
baja con respecto a los métodos que implican una pérdida de información.
Se puede decir que las imágenes presentan, por lo general, redundancias espaciales,
espectrales, y temporales. Las técnicas de compresión, generalmente, se encargan de
generar una nueva imagen que no posea dichas redundancias, con lo cual disminuirá el
tamaño del fichero. Si no existe redundancia de información, no hay forma de comprimir
sin pérdida de resolución.
Imágenes piramidales
En resumen, una manipulación rápida y eficiente de una imagen pasa por utilizar la
oportuna técnica de compresión, y un desplazamiento por los niveles de una estructura
piramidal y por los sectores o fragmentos de imágenes que constituyen el nivel.
Lo anterior, nos dará como resultado una cantidad de parámetros que ayudarán a planificar
el vuelo (ya que, por ejemplo, no es lo mismo idear un vuelo para un equipo capaz de
procesar cien fotos, que para uno capaz de procesar trescientas).
El software utilizado fue Agisoft Photoscan, de origen ruso. El mismo posee un flujo de
trabajo claramente ordenado el cual consiste:
Carga de fotos
Orientación de las fotos
Creación de una nube de puntos densa
Creación de una malla
Creación de texturas
Creación del modelo de teselas
Crear modelo digital de elevaciones
Crear ortomosaico
En un primer momento, se decidió realizar una prueba piloto para verificar las capacidades
del software y del hardware disponibles. Con ello, se tendrá una idea de la cantidad de
datos que podrán ser usados para un procesamiento razonable (en tiempo y recursos) del
actual trabajo.
Del análisis de la ayuda provista por el fabricante del software, obtuvimos como conclusión
que la primera etapa, genera como producto visual sobre el modelo la orientación interna de
las fotos, lo que conlleva a una obtención de una nube de puntos dispersa.
Lo tenido en cuenta por el programa para los productos 3D a posteriori, es, básicamente la
orientación interna. Con ello, luego podemos generar tanto la nube de puntos densa como
las mallas para posteriormente colocar texturas y obtener un resultado visualmente más
elegante.
(Vista en detalle)
(Vista en perspectiva)
Una de las opciones que tiene el software consiste en la clasificación de puntos en la nube
densa. Utilizando la nube ya generada, se buscó aislar los puntos correspondientes al
terreno natural. Tomando la consideración de que el terreno de la zona de trabajo es más
bien llano, y sus variaciones grandes de elevación son construcciones o árboles, se setearon
parámetros de ángulo de inclinación máximo en 5° (ángulo máximo que se puede formar
entre la línea que conecta dos puntos y el modelo de terreno) y distancia máxima en 10cm
(diferencia máxima de elevación entre dos puntos contiguos de terreno). Se llegó a un
resultado aceptable, pudiéndose verificar de un golpe de vista que la clasificación era
coherente al no incluir edificaciones o vegetación de altura significativa. Estos puntos,
luego, podrían usarse para generar productos que modelen únicamente el terreno.
Luego, generamos una malla en calidad media (sobre la misma prueba) y el resultado
sorprendentemente fue muy rápido, tardando menos de un minuto en completarse. Se pudo
comprobar tras varios cálculos para distintas calidades de mallas, que la opción de
Matías Williams 63678/9
Guillermo Valisena 62660/5 31
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
interpolación produce un resultado más visual al relleno de cualquier tipo de agujero que
posea el modelo (por ejemplo, si se quiere generar una malla a partir de los puntos del
terreno sin tener en cuenta las construcciones).
Se generó también una textura en modo estándar, que tardó unos minutos en completar. Los
resultados fueron muy buenos para la calidad general en que se realizó el primer proceso
(mínima/baja).
(Malla con texturas pegadas- vemos que genera un aspecto mucho más estético)
Tras realizar un primer intento en mínima calidad y comprobar que los resultados fueron
rápidos y eficaces, el grupo decidió realizar un nuevo procesamiento, esta vez con una
calidad general media.
Cabe destacar a esta altura, que, a medida que se aumenta la calidad del modelo, el
software aumenta su tiempo de procesamiento de forma exponencial, ya que los puntos
generados aumentan de esta forma.
El procesamiento tardó en completar unas dos horas y fracción, con lo que todavía se
considera un tiempo razonable de procesamiento. El proceso que más tiempo consume en
este caso es la construcción de la nube de puntos densa, y el proceso que más refleja el
cambio de calidad del producto es la orientación interna.
En primer lugar, se colocarán marcadores en dos fotos donde se ubique el punto de apoyo a
utilizar y luego se filtra por foto, con lo cual el software mostrará las fotografías en las que
aparezca el punto en cuestión.
En cada una de las fotografías tendremos que verificar que el marcador se encuentre en la
ubicación correcta, y en caso que no lo esté, indicarla manualmente. Este último paso se
verá reflejado en la ventana donde aparecen los marcadores en la columna de error por
píxel, viéndose éstos modificados (en caso de no alterar las ubicaciones propuestas por
software, el error será cero). A los marcadores se les deberá cargar el valor del dato
medido, y luego optimizar el modelo tomando como referencia estos nuevos valores.
Conclusiones de la prueba
La idea de realizar una prueba piloto sobre el equipo, era tomar nota de la cantidad de
tiempo que tardan los procesamientos en calidades habituales, tanto como de la capacidad
límite del equipo con el que se contaba.
Por otro lado, la capacidad del software de clasificar puntos del terreno puede ser muy útil
dependiendo el tipo de producto que se quiera obtener. También es llamativa la creación no
tan compleja del modelo de mallas combinado con texturas. Se obtiene así un producto
extremadamente visual, que de seguro impactará positivamente a cualquier comitente que
nos pueda encargar un trabajo en un futuro.
Si bien no forma parte del objetivo de la prueba, se debe tener en cuenta que la utilización
de los puntos de control es realmente importante, ya que así comprobaremos si la precisión
informada por el software se asemeja a la precisión real del trabajo realizado.
A continuación se expondrán los parámetros que son importantes dentro los dos
componentes elegidos y se explicará como ellos repercuten en la fotogrametría digital.
El sensor:
El sensor en las cámaras digitales remplaza lo que en las cámaras analógicas eran las
películas de emulsión y ya no se trata de granos de sales de plata sino de píxeles. Éstos no
derivan de la sensibilización de sales de plata (negativo fotoquímico), sino de un análisis
numérico de la luz, generado partiendo de las señales eléctricas de un sensor del tipo CCD
o CMOS (fotoeléctrico).
Se puede definir al sensor como una plaqueta que cuenta con un conjunto de fotocélulas,
compuestos por una celdilla que contiene componentes electrónicos (entre otros un
fotodiodo), que permite, mediante la utilización del efecto fotoeléctrico, la conversión
espontánea de algunos materiales de luz recibida en corriente eléctrica. La sensibilidad
(ISO) del detector CCD/CMOS depende de la eficiencia cuántica del chip. El número de
Matías Williams 63678/9
Guillermo Valisena 62660/5 38
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Los sensores suelen tener más de una fotocélula para construir un píxel, que es el punto que
finalmente vemos en la pantalla de nuestro ordenador o en el papel impreso. Sin embargo,
cuando no haya ambigüedad, usaremos a menudo el término más común de „píxel‟ para
referirnos a la (las) fotocélula(s) empleadas en la construcción de un píxel, si bien
entrecomillado, para atenuar así el uso un tanto impropio que estamos dando al término.
Está claro que un píxel no tiene dimensiones físicas, pero un „píxel‟ sí. En cualquier caso,
en la inmensa mayoría de los sensores un píxel se corresponde a un „píxel‟, y resulta
intuitivo referirse a uno y otro concepto con términos parecidos.
Los “pixeles” del CCD/CMOS registran tres colores diferentes: rojo, verde y azul
(abreviado "RGB", del inglés Red, Green, Blue), por lo cual tres píxeles, uno para cada
color, forman un conjunto de células fotoeléctricas capaz de captar cualquier color en la
imagen.
En realidad, un sensor digital no es sensible al color; para conseguir esta separación en
colores la mayoría de cámaras CCD/CMOS utilizan una máscara de Bayer que proporciona
una trama para cada conjunto de cuatro píxeles de forma que un pixel registra luz roja, otro
luz azul y dos píxeles se reservan para la luz verde (ya que el ojo humano es más sensible a
la luz verde que a los colores rojo o azul). El mosaico de Bayer se forma por un 50% de
filtros verdes, un 25% de rojos y un 25% de azules, interpolando dos muestras verdes, una
roja, y una azul se obtiene un pixel de color.
El objetivo:
Por su parte, las aberraciones (del latín ab errare, fuera, errare, errar, es decir, apartarse del
camino, desviarse) provocan alteraciones diversas en el círculo o el halo, entre ellas la de
esfericidad, de coma, de curvatura de campo, de astigmatismo y de distorsión –aberraciones
monocromáticas o geométricas–, más las aberraciones cromáticas.
De la última columna se puede apreciar que mientras mayor superficie se quiera tomar en
una fotografía mayores complicaciones se tendrán para corregir las aberraciones.
Si el radio del diafragma se duplica, la aberración esférica se multiplica por 8 (= ). La
misma relación hay entre la distorsión y el ángulo visual. Cuanto más luminoso es un
objetivo, y menor su distancia focal, más difícil es corregir las aberraciones, que se
multiplican.
Aberraciones de esfericidad
Estas provocan lo que se conoce como una desviación del enfoque desplazando el plano
focal con la apertura del diafragma.
En el grafico se puede apreciar como los haces de luz que pasan por una lente esférica no
convergen en el mismo punto. Mientas que los que inciden por el centro convergen en un
punto “c”, los que lo hacen por los extremos de la misma convergen en un punto “a”. Sin
embargo el plano de enfoque óptimo no es ninguno de los dos, si no que es en “b”. Si
delante este tipo de lentes colocamos un diafragma, al cerrar no permitirá que la luz incida
por los bordes, por lo que los rayos irán aproximándose al plano óptimo de enfoque.
Existe un tipo lente con superficies asféricas, que, como lo indica el nombre, no es esférica,
sino que es parabólica o elíptica, y ayuda a reducir las aberraciones de esfericidad.
Aberraciones de coma
Estas dos aberraciones si bien no son las mismas están íntimamente relacionadas, ya que
una es consecuencia directa de la otra. La llamada curvatura de campo se da justamente
cuando el plano focal de la imagen se curva y solo coincide parcialmente una parte central.
El radio de esta curva se corresponde aproximadamente con la distancia focal del objetivo.
Por otro lado el astigmatismo es justamente la diferencia entre las superficies curvas
correspondientes a detalles sagitales (líneas orientadas hacia el centro de la imagen) y
tangenciales (líneas perpendiculares a las anteriores).
Conforme nos alejamos del centro de la imagen, ésta va apareciendo más y más
desenfocada (curvatura de campo) y quedando así más afectados los detalles tangenciales
que los sagitales (astigmatismo).
Para solucionar estos problemas se puede jugar con la posición del diafragma y con los
vidrios que componen las lentes del objetivo para acercar la superficie que contiene los
errores tangenciales (T) y con la que contiene los sagitales (S) (reducir el astigmatismo
hasta conseguir una imagen perfectamente estigmática, en la que T=S) o reducir también la
curvatura que afecta a ambas (y conseguir una imagen anastigmática, sin curvatura de
campo ni astigmatismo).
Aberraciones Cromáticas
a él y la roja después del mismo. Esta la razón porque los sensores denominados Bayer
tengan 2 pixeles verdes y uno de cada uno de las otras.
En el caso de las laterales convergen en el mismo plano pero desviadas del eje.
Los dos tipos de aberraciones cromáticas se dan a la vez, degradan la resolución y contraste
de un objetivo y son uno de los causantes de esa coloración en los bordes de los objetos en
presencia de marcados contrastes de luz (halos), pero con algunas diferencias: la aberración
longitudinal o axial afecta todo el perímetro de los objetos, los tiñe de un solo color, ocurre
en cualquier parte de la imagen y se reduce cerrando el diafragma; la aberración lateral, por
el contrario, sólo afecta tangencialmente a la imagen, modifica la coloración según el orden
de la secuencia oscuro-claro o claro-oscuro, empeora sus efectos al acercarnos a las
esquinas y no depende de la apertura.
Distorsión óptica
Distorsiona las líneas rectas, que se curvan, adoptando forma de barril (y>h) -ver gráficos
debajo- o de acerico (pincushion, y<h). El objetivo que no distorsiona la imagen se llama
ortoscópico, que significa “visión correcta”. La razón h/y se conoce como magnificación de
la imagen, y estaremos en presencia de una distorsión cuando dicha variable dependa de la
distancia al centro de la imagen. Si la relación h/y se reduce conforme nos alejamos del eje,
la distorsión será de barril, y si aumenta será de acerico. Como puede verse, es la posición
relativa del diafragma lo que provoca el problema. Un objetivo gran angular de tipo
retrofoco tiende a mostrar distorsión de barri. Los teleobjetivos son el caso contrario y
tienden a provocar distorsión de acerico. En cambio, los diseños simétricos son casi
ortoscópicos. No hay que confundir las distorsiones ópticas con lo que se conoce como
distorsiones de la perspectiva, y que no son realmente distorsiones.
Triángulo de la exposición.
Ahora que hemos definido los errores que afectan a la imagen y los componentes que
pueden corregirlos pasaremos a explicar brevemente lo que es el triángulo de la exposición.
El mismo está compuesto por la sensibilidad del sensor (ISO), la apertura del diafragma y
velocidad de obturación. Ellos serán cruciales a la hora determinar la calidad de la imagen.
Por un lado la sensibilidad del sensor lo que hace es amplificar digitalmente la señal,
haciéndonos ganar más luz, pero a costa de perder calidad en la imagen, razón por lo que lo
más recomendable que este valor sea lo más chico posible. Por otro lado el diagrama
cumple la función de regular la cantidad de luz que llegara al sensor mientras que el
obturador nos permitirá elegir el intervalo de tiempo que el sensor estará expuesto esa
determinada cantidad de luz que entra.
Aplicaciones a la fotogrametría
Como podemos analizar lo comentado hasta ahora, las fotografías cuentan con gran
cantidad de distorsiones. Alguna de ellas irreversibles como lo es la difracción y otras, que
se pueden reducir mediante la combinación y manipulación de los elementos propios de los
componentes de las cámaras.
Como el objetivo de la fotogrametría es generar una imagen sobra la cual se pueda realizar
mediciones e interpretación de las mismas, se busca que los errores a la hora de la captura
sean lo menor posibles, lo que hace que las correcciones realizadas con los componentes de
la cámara no sean suficientes. Como la mayoría de las aberraciones afectan en mayor
medida a los puntos que más se alejan del centro de toma, la superposición de las imágenes
tanto longitudinal como trasversalmente, brinda una solución a dichas aberraciones, que de
otra manera, serían complicadas de eliminar sin provocar otras en el trayecto.
Si no fuera por esta metodología, dichos errores deberían ser eliminados en gran parte
mediante la modificación de la apertura del diafragma que modifica la cantidad de luz, el
ángulo de incidencia de los haces de luz y la superficie que atraviesa del lente.
Por otro lado, tanto la apertura del diafragma y la sensibilidad del sensor, son elementos
que se usan en el área de la fotografía para adaptarse a la luz que haya en un determinado
momento en el que hay que realizar la toma. Distinto es el caso de la fotogrametría, donde
habrá que adaptarse y buscar un momento en el que la luz sea la mayor posible, en vez de
verse obligados a realizar la captura en un momento dado con la luz disponible, como en el
caso anterior.
Como se explicó anteriormente, debe existir una cierta relación entre tres componentes de
la cámara, llamada triángulo de la exposición. Entonces, considerando que dos elementos
del mismo (ISO y apertura del diafragma) dependen principalmente de la cantidad de luz
disponible para un mejor funcionamiento del sistema, y que esa cantidad en estos casos es
siempre favorable, podremos centrarnos en ajustar el elemento restante, la velocidad del
obturador. En la fotogrametría tradicional desde aeronaves no toma gran importancia, ya
que las alturas de vuelo eran muy elevadas y durante el tiempo de obturación, la superficie
a fotografiar no variaba significativamente, pero con el advenimiento de los drones, la
captura se hace a alturas considerablemente más bajas, próximas a la superficie a
fotografiar, y cuando la velocidad del VAN es muy elevada, ésta provoca el arrastre de la
imagen generando distorsiones. Es aquí donde juega la velocidad de obturación para
congelar la imagen y no permitir que se produzca dicho desplazamiento, y al tener cierto
grado de libertad con los otros 2 elementos del triángulo, este podría modificarse y
corregirse notablemente lo que conllevaría a poder volar a menor altura teniendo cada vez
menores GSD (píxel proyectado en el terreno) y sin tener errores de arrastre que sean
significativos en las fotografías.
PARTE II
Recopilación de antecedentes
Otra fuente de información consultada fueron imágenes satelitales de Landsat 8. Como las
mismas poseen una resolución muy pequeña, del orden de 30m, realmente no se pudo
extraer mucha información de ellas.
La misma, fue utilizada para consultar información altimétrica por medio de la lectura de
las curvas de nivel de la carta en cuestión. Esta información nos brindará una idea
aproximada de la forma del terreno, sus variaciones y pendientes, aunque no sea de utilidad
Otra información valiosa de la que se vale el grupo de trabajo es también proveniente del
IGN. En este caso, la ubicación de puntos de la Red de Nivelación, tanto vieja como nueva.
Estos puntos pueden ser utilizados para vincular y controlar la altimetría.
Otra fuente de información es ARBA, que nos provee a través de su GIS web, URBASig,
información de la conformación catastral y parcelaria del lugar.
Si bien esta información no va a ser utilizada por los objetivos planteados para la
realización del presente trabajo, puede ser muy valiosa y sumamente útil en otros casos, y
es por eso que se la añade a continuación.
Para todo trabajo de agrimensura es necesario conocer a los instrumentos con los que se irá
a efectuar la medición. Una vez conocidos los instrumentos podremos decidir el método
que aplicaremos para lograr la precisión esperada para el trabajo.
GNSS: Trimble R4
– SBAS: L1C/A
RENDIMIENTO DE POSICIONAMIENTO
Vemos que este instrumental destaca por su buena precisión tanto en modo estático como
en cinemático. Si calculamos un aproximado de 800 metros como distancia promedio,
utilizando el método cinemático tendríamos un error medio cuadrático de 9mm en
horizontal y 16 mm en vertical.
Drone: eBee
Cámara 18,2 MP RGB, con geoetiquetado automático. Posee una resolución de 2,75
cm de píxel a 100m de altura.
Es un receptor GNSS de Topcon, que al igual que los otros utilizados en el presente trabajo,
capta señales de GPS, GLONASS y SBAS.
Vertical: 4 mm + 1 ppm
RTK
Horizontal: 10 mm + 1 ppm
Vertical: 15 mm + 1 ppm
Adoptando una distancia promedio de 800m, el fabricante nos asegura una precisión de 10
mm en horizontal y 16 mm en vertical de error medio cuadrático en modalidad RTK.
Estático
RTK
Horizontal: 10 mm + 1 ppm
Vertical: 15 mm + 1 ppm
Matías Williams 63678/9
Guillermo Valisena 62660/5 56
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Por lo cual para una distancia promedio de 800m tendremos una precisión esperada de 10
mm en horizontal y 16 mm en vertical de error medio cuadrático.
Cabe destacar que este es el receptor que se vinculará con las mediciones tomadas por la
antena GNSS a bordo del drone.
A continuación se explicará la deducción del valor de la focal del sensor del drone EBee a
partir de los datos brindados por el fabricante, como así también la deducción de otros
parámetros que hacen al presente trabajo.
Estos datos son más bien incompletos, pero igualmente podremos utilizarlos para calcular
los parámetros del sensor que utilizaremos más adelante.
Una primera cuenta o cálculo qué puede realizarse con estos datos arroja una distancia focal
de 4,58 milímetros.
El primer triángulo de la parte superior está formado por el tamaño del sensor como base
del triángulo y la distancia focal que no conocemos como altura del triángulo.
Así, por semejanza de triángulos podemos plantear una igualdad entre la relación base
altura de ambos triángulos.
Entonces vemos que es posible plantear la distancia focal como una incógnita en función de
la altura de vuelo, la resolución de píxel en el terreno y el tamaño de píxel en el sensor. De
esta manera surge, como dijimos anteriormente, una focal de 4,58 mm.
Para ello tomaremos en cuenta que el formato de imagen informado por el fabricante es de
4 tercios (relación ancho/alto de la imagen), entonces podremos relacionar el formato con la
cantidad de megapíxeles también informado por el fabricante, para calcular el tamaño de
imagen en píxeles. Ese tamaño será comparado posteriormente con el tamaño de las
fotografías
Eso significa qué 4 veces una unidad básica por 3 veces esa misma unidad deberá dar por
resultado el número total de píxeles del que se compone la imagen, en nuestro caso ese
número total informado por el fabricante cómo expresamos anteriormente es de 18, 2
megapíxeles. Se puede agregar, además, que la ecuación da solamente números enteros (no
fracciones) por tratarse de tamaño de imagen en píxeles.
Esta ecuación da como resultado que la unidad básica es de 1231 píxeles con lo cual habría
que multiplicar esta unidad por 4 y por 3 para obtener el largo y el ancho de la fotografía en
píxeles respectivamente. Los mismos dan como resultado que cada imagen tomada por el
sensor será de 4920 por 3690 píxeles.
Para realizar el cálculo del Field of View, más conocido como FOV o campo de visión del
sensor, que no es más que el ángulo que se forma entre los extremos de la fotografía y el
plano focal del sensor. Podremos apreciarlo en la siguiente ilustración:
Opción numero 1
Estabilizador:
Cámara
Sensor 1/2.3 ‟‟
Opción numero 2
Posicionamiento RTK
Cámara
Resolución 18,2 mp
Basándonos en los esquemas tradicionales de los triángulos semejantes para calcular las
medias que representan las fotografías, lo utilizamos para calcular cuánto será la medida de
terreno que representa la mínima unidad del en el sensor.
Para 4 cm en el terreno
H de vuelo=
H de vuelo =
H de vuelo= 93 m
Base de toma
Bt= 32 m
La mayor distancia con la que contamos que es en el sentido que serán las líneas de vuelo
es de 1500m.
Fv=1500m/ 32m
Slv= 48m
Líneas de vuelo
Lv= 23
Total de fotos
TF= 1104
Colocando factores de seguridad de cuatro fotos más por línea de vuelo y 2 líneas de vuelo
más nos da un valor de 1275 fotos para cubrir la totalidad del área de trabajo. Según las
pruebas que realizamos del equipamiento que contamos esta cantidad fotos nos podría traer
complicaciones a la hora de procesarlas. Por lo que realizara un cálculo de otra para reducir
el número de fotos y asegurar poder procesar las fotografías correctamente.
H de vuelo=
H de vuelo =
H de vuelo= 125 m
Base de toma
Bt= 45 m
La mayor distancia con la que contamos que es ene le sentido que serán las líneas de vuelo
es de 1500m.
Fv=1500m/ 32m
Slv= 67m
Líneas de vuelo
Lv= 17
Total de fotos
TF= 578
Colocando factores de seguridad de cuatro fotos más por línea de vuelo y 2 líneas de vuelo
más nos da un valor de 722 fotos para cubrir la totalidad del área de trabajo. Este es
número de fotos es un valor que podremos manipular y hacer pruebas de procesamiento
correctamente.
H de vuelo = 0.0045mx0.059m/0.00000126
H de vuelo= 165
Base de toma
Bt= 44 m
La mayor distancia con la que contamos que es ene le sentido que serán las líneas de vuelo
es de 1500m.
Fv=1500m/ 44m
Slv= 66m
Líneas de vuelo
Lv= 17
Total de fotos
TF= 595
Matías Williams 63678/9
Guillermo Valisena 62660/5 68
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Colocando factores de seguridad de cuatro fotos más por línea de vuelo y 2 líneas de vuelo
más nos da un valor de 741 fotos para cubrir la totalidad del área de trabajo. Este es
número de fotos es un valor que podremos manipular y hacer pruebas de procesamiento
correctamente.
Para 6 cm en el terreno
H de vuelo = 0.0045mx0.059m/0.00000126
H de vuelo= 210
Base de toma
Bt= 58 m
La mayor distancia con la que contamos que es ene le sentido que serán las líneas de vuelo
es de 1500m.
Fv=1500m/ 58m
Slv= 87 m
Líneas de vuelo
Lv= 13
Total de fotos
TF= 351
Colocando factores de seguridad de cuatro fotos más por línea de vuelo y 2 líneas de vuelo
más nos da un valor de 465 fotos para cubrir la totalidad del área de trabajo. Este es
número de fotos es un valor que podremos manipular y hacer pruebas de procesamiento
correctamente.
Las ubicaciones ideales de los puntos de apoyo fotogramétricos y de los puntos de control.
Antes de contar con cualquier información de campo, se planificaron ubicaciones ideales
para los puntos de apoyo y para los puntos de control. Los mismos en una situación
perfecta conformarían una cuadrícula totalmente regular y cubriendo todo el área a relevar.
Para ello, se confeccionó un diagrama/croquis con las localizaciones de los puntos a
utilizar.
Una vez realizado el análisis preliminar con los antecedentes disponibles, se pasa a la
siguiente fase que es el reconocimiento en campo de la zona de trabajo. Ello será
importante pues se pueden detectar situaciones que entorpecerán o facilitarán el trabajo,
que no se detectaron con anterioridad.
De la misma manera, se puede analizar la actualidad del lugar, ya que los antecedentes, al
tratarse de imágenes y planos de cierta data, podrían no reflejar fielmente la realidad actual.
De ello se desprende también la posibilidad de realizar un análisis multi-temporal.
En el reconocimiento de campo inicial se determinó que los lugares indicados como ideales
para el emplazamiento de puntos eran, en muchos casos, impracticables debido a la
restricción de la propiedad privada, a la obstrucción por vegetación, u otras. Sin embargo,
se realizó el mayor esfuerzo para colocar puntos uniformemente distribuidos en la medida
de lo posible.
Se deben tener en cuenta ciertos parámetros del vuelo a realizar a la hora de realizar la
campaña. Esto debe destacarse, debido a que la altura de vuelo, y por consiguiente el
tamaño del pixel en el terreno, limitarán la mínima dimensión con la que serán detectados
en las fotografías generadas por el vuelo los hechos existentes o la señalización que se
genere.
A partir de esta premisa, se buscaron en campo hechos existentes que podrían ser utilizados
como puntos de control o de apoyo. Los fenómenos ideales (y los más utilizados en el
trabajo) para que quede claramente representado un punto es un cruce de dos líneas
definidas por distintos materiales. Ello provoca un contraste que es fácilmente detectable
en las fotografías.
Con este criterio, se utilizaron como puntos de referencia aquellos que representaban el
corte de dos líneas materializadas como una flecha en la señalización de la Ruta Provincial
215. Así también se utilizaron líneas materializadas por distintos tipos de suelo (hormigón,
pasto, tierra, etc.) tanto como umbrales, presentes y muy comunes en la zona de entrada a
viviendas.
A esta altura, se debe destacar la importancia que conlleva una buena distribución de
puntos de apoyo a la hora de asegurar la máxima calidad posible para los productos
generados a posteriori con esos datos, tanto como la buena distribución de puntos de
control generará una mejor estimación de los errores con los que se está trabajando.
Por ello, se decidió realizar una pre- señalización que materializaría distintos puntos, con el
objetivo primordial de mejorar la distribución de los mismos. Para este fin se utilizaron
materiales como pintura en aerosol para señalizar un tramo de la Ruta Provincial 215, o
como cintas rojas de 5 cm de espesor para la zona netamente urbana.
PARTE III
El vuelo con el drone de ala fija EBee, cubriendo la zona dos veces mediante una
pasada longitudinal y otra transversal, teniendo así gran recubrimiento del área a trabajar.
La medición de los puntos de apoyo y de control con el instrumental GNSS, tanto con
métodos Stop & Go como RTK, fue realizada antes, durante, y después de la realización
del vuelo. Se registraron varios puntos de forma de poder contar con ellos a la hora de
controlar la precisión del modelo resultante del vuelo con el drone (de control), y de utilizar
algunos de ellos como ajuste para ese modelo (de apoyo).
La medición con el método GNSS Stop & Go fue realizada durante la semana anterior al
relevamiento. En la misma, se relevaron hechos existentes que conformaban gran parte de
los puntos tratados en el párrafo precedente.
El día del vuelo se pre señalizaron los puntos restantes. De esta manera, se aseguró la
visibilidad y permanencia de los mismos durante el vuelo. Fueron relevados con el método
GNSS RTK.
No es menor recordar, a esta altura, que el eBee posee un receptor GNSS que trabaja por el
método RTK. De esta forma, se debió colocar un receptor base en un punto del terreno, y
fue de vital importancia medirlo en alguno de los otros relevamientos con el fin de
compatibilizar los sistemas de coordenadas utilizados.
Debido a la poca visibilidad y difícil interpretación visual de algunos de los puntos (en
especial de algunos pre-señalizados), se decidió relevar puntos con fecha posterior al vuelo
realizado. Para ello, el grupo se valió de puntos fácilmente reconocibles sobre el terreno
identificados desde el ortomosaico.
A la hora de realizar el vuelo, se estacionó el equipo base RTK en un punto del terreno, tal
y como se dijo con anterioridad. Dicho punto fue materializado en un lugar con
características de buena accesibilidad. También se tuvo en cuenta que la ubicación del
punto debía ser cercana al centro del relevamiento para evitar problemas con el alcance del
radiotransmisor del equipo RTK.
PUNTO BASE
Luego, tras varios chequeos previos (tanto del aparato como del plan de vuelo) para
comprobar que todo se encontraba en orden, se pudo despegar el drone y comenzar el
relevamiento.
A pesar de este inconveniente, el vuelo con el eBee se pudo completar. Si bien las
condiciones de viento no fueron las óptimas para el relevamiento, la doble cobertura que se
le dio a la zona de trabajo hizo que en el producto final se obtuviera un resultado aceptable.
Como se dijo con anterioridad, el vuelo con el eBee se vio afectado por los intensos vientos
que afectaban la zona de trabajo. Se esperaba que esta condición no afecte tanto al Phantom
4, ya que por definición es más pesado y maniobrable a partir de las hélices que posee.
Sin embargo, sucedió todo lo contrario. Al drone, le resultó muy difícil poder volar, al
punto de gastar dos baterías enteras antes de haber completado una sola línea de vuelo, lo
cual hizo que haya que abortar la misión y el plan de vuelo. De esta forma, los datos del
Phantom 4 servirán para analizar algunas cuestiones relativas a la focal y el recubrimiento,
pero no para la realización del trabajo en sí.
Una segunda opción analizada en cuanto al problema de vuelo del Phantom, fue la
existencia de un error en el software utilizado.
Para este caso caben las mismas limitantes con respecto al eBee en cuanto a disponibilidad
e imposibilidad de realizar un segundo vuelo. Desventaja fundamental de tener un
instrumental que no es propio.
Compatibilización de mediciones
Puntos obtenidos mediante el método GNSS Stop & Go, relevado con un Trimble
R4.
Puntos obtenidos mediante el método RTK, relevados con un Topcon Hyper V.
Puntos obtenidos mediante el método RTK e interpolados mediante software,
relevados con un equipo Topcon GR5.
Para ello, y a forma de introducción en esta temática, se explicarán los dos métodos
utilizados:
Es importante destacar que las distancias y orientaciones relativas entre puntos del mismo
relevamiento estarán dentro del error tolerable para este caso, pero que hasta tanto no se
vincule un punto de ese relevamiento con alguna red Geodésica, el mismo carecerá de
validez para la georreferenciación.
Entonces, si bien los tres relevamientos serán coherentes entre sí, no son aptos para ser
comparados ni compatibles sin algún proceso en gabinete como podría ser la vinculación de
los mismos a la Red Nacional Geodésica (POSGAR 2007).
y²
m 1 ...
2.R ²
Uno de los objetivos del presente trabajo es poder realizar mediciones sobre el producto
obtenido, con lo cual una deformación de 32cm por kilómetro es inaceptable.
Para ello, se propuso como solución trabajar con una proyección transversa mercator
centrada en una faja local. Ello conlleva la ventaja de evitar deformaciones grandes que se
podrían tener trabajando con Gauss Kruger sobre el borde de faja. La misma, es una
proyección cilíndrica transversa que se hace tangente por definición sobre un meridiano (en
este caso, perteneciente a la zona de trabajo del vuelo), y tiene la propiedad de ir
deformando más mientras más lejos se trabaje del meridiano central.
y²
m 1 ...
2.R ²
Se visualiza de forma muy clara que se puede trabajar en un radio de 10km alrededor del
meridiano central sin que haya deformaciones que entorpezcan el trabajo. (Se ve en la
fórmula que se obtiene una deformación de 5mm por kilómetro)
Entonces, el trabajo realizado para compatibilizar las mediciones GNSS y trabajar en una
proyección local fueron las siguientes:
Por ello, se tuvieron que homologar dichas mediciones en un solo sistema, para lo cual, se
georreferenció un punto a partir de la estación permanente LPGS, a partir del cual se
ajustaron todas las mediciones realizadas.
Una vez realizada la georreferenciación de los levantamientos, se diseñó una faja local
(mercator transversa) para realizar mediciones sin deformaciones. La misma tiene como
características:
Falso Norte: 0
Factor de escala: 1
Metodología de procesamiento
Antes que nada, se deben importar las posiciones de las fotografías en el sistema de
coordenadas a utilizar. Para el caso del presente trabajo, se trata de un sistema local qué
tiene el objetivo de minimizar cualquier deformación posible. De esta forma, se podrán
medir distancias confiables sobre la ortofotografía sin problema alguno.
Una vez que se ha orientado el modelo, se puede proceder a marcar los puntos de control
con mayor facilidad, ya que el software detecta por medio del uso de un sistema de
coordenadas determinado, en qué fotografías se encuentra cada punto. Además, arroja una
posición aproximada de la ubicación teórica del punto. El profesional, deberá corregir cada
ubicación del punto en cuestión en todas las fotografías posibles. Luego, se le deberá
asignar coordenadas a cada punto. Dichas coordenadas son las obtenidas con metodología
GNSS.
Una vez marcados los puntos de control y de apoyo a utilizar, se procede a la optimización
del modelo, de los parámetros de las cámaras, y de los coeficientes de ajuste, cuyo
tratamiento será explicado más adelante.
Aclaración: los decimales expresados en la tabla anterior, así como en las tablas siguientes,
son producto de un resultado estricto de cálculo por software, pero no refieren a la cantidad
de cifras significativas obtenidas, que serían hasta el centímetro. El total de la tabla surge
de la propagación de errores de la forma: raíz de la suma de los cuadrados.
Estas precisiones no son ni más ni menos que la diferencia entre las coordenadas dadas por
el usuario obtenidas vía GNSS. y las coordenadas qué el software atribuye a los puntos
determinados según su modelo. Una buena precisión general en los puntos de control se
traduce en una mejor representación de la realidad por parte del modelo.
En este caso, si bien cabe la misma definición anterior, se debe remarcar qué estas
precisiones son producto de los residuos resultantes por un ajuste. Por lo tanto, es de
esperar que estás diferencias sean muy cercanas a cero. Valores altos en estos ajustes
residuales, indicarían desajustes que podrían ser inadmisibles / superiores a las tolerancias
establecidas.
Dificultades en el procesamiento
Durante el procesamiento se dieron una serie de dificultades que pudieron solucionar se con
un buen análisis y selección de criterios.
Si bien el objetivo del trabajo es, justamente, contrastar la precisión obtenida con la
precisión esperada, se puede utilizar un margen de diferencia amplio para determinar
errores groseros. Entonces si por ejemplo, la precisión esperada es de 24 centímetros y la
precisión obtenida es de un metro, sabremos que es extremadamente probable que se haya
cometido un error grosero, con lo cual habría que revisar el trabajo y los procedimientos
hechos hasta el momento.
A este punto debemos destacar que es de notoria importancia realizar una monografía de
los puntos levantados con metodología GNSS.Y más aún, cuando el punto en cuestión
puede ser confundido o difuso si se lo mira desde la fotografía.
Un error de esta índole fue cometido por el grupo de trabajo. La primera dificultad surgida
en el procesamiento y con la que se comprobó que existía muy probablemente un error
grosero, fue contrastar la precisión obtenida utilizando distintos puntos de apoyo. Esto
quiere decir, que en un primer procesamiento se utilizaron 5 puntos de prueba piloto. Más
tarde, se utilizaron 7 u 8 puntos, es decir más cantidad, y además mejor distribuidos que en
el caso anterior.
Matías Williams 63678/9
Guillermo Valisena 62660/5 85
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Si bien no se descartaba que los resultados podrían arrojar una peor precisión, debido a que
la segunda tanda de puntos representaban más fielmente la zona de trabajo a estudiar, el
resultado del segundo procesamiento Fue totalmente dispar con el anterior.
haber sido solucionado fácilmente con una buena monografía de vértice realizada
oportunamente.
Se llega a esta conclusión tras realizar el vuelo y encontrar la desagradable sorpresa que
algunos puntos que se encontraban pre señalizados, eran poco identificables o difusos en
varias fotografías, resultando de esta manera inutilizables
Una vez marcados los puntos de control en las fotografías correspondientes, el software
permite, además de ajustar el modelo existente, cambiar la configuración de los parámetros
de la cámara y determinar algunos coeficientes de ajuste.
En principio el software pide al usuario que indique que parámetros se van a determinar.
En un primer momento fueron marcados todos los parámetros existentes. Un primer ajuste
de los mismos arrojó la siguiente matriz de varianza covarianza
En la misma, observamos que existen parámetros muy correlacionados. Por ejemplo k1 con
k2, k3 y k4 sucesivamente.
Que estos parámetros sean altamente correlacionados, quiere decir que una pequeña
variabilidad o error en la determinación de uno de ellos afectará en una medida significativa
al otro. Lo más sensato es, entonces, eliminar de el ajuste a los parámetros que se
encuentren en estas condiciones.
Una vez marcados los parámetros que no presentaban una correlación muy alta se obtuvo el
siguiente resultado
Si bien el grupo de trabajo materializó y relevo en el terreno una gran cantidad de puntos de
control y de apoyo, el modelo generado por el software puede seguir teniendo algunas
falencias en cuanto a la identificación de un píxel homólogo en varias fotografías.
Por eso, se decidió marcar varios puntos identificables sobre la fotografía que sin embargo
no fueron relevados. A los mismos, se les fueron otorgadas las mismas coordenadas que las
estimadas por el software. De esta manera, no se agrega información de posición a la ya
existente, sino que sólo se agrega información para mejorar la configuración del modelo.
Esto, al menos en teoría, se debería reflejar en un menor error de pixel global sobre la zona
de trabajo.
Este procedimiento podría ser especialmente útil para trabajos que requieran un detalle
visual importante. Por ejemplo, en caso de relevar la fachada de un edificio utilizando
rango cercano.
Tratamiento de errores
La primera tarea a realizar fue la exportación de los datos de puntos de control mediante el
software hacia una tabla de datos en formato csv, esto es, una tabla de datos delimitado por
comas.
De todos estos datos serán utilizados solamente los errores en la posición estimada por el
software. Los dos previos sirven para calcular dicho error y el error total en metros se
considera no representativo de la precisión del trabajo por el grupo de estudio, ya que en
primer lugar no separa las precisiones planimétricas y altimétricas, y, en segundo lugar es
una propagación simple de los errores obtenidos.
Una vez exportados los datos, se procede a eliminar los datos no útiles, como ser puntos de
apoyo, que no reflejan la calidad del trabajo en sí, o puntos que no se encuentran por alguna
causa específica bien determinados (por ejemplo, puntos que no se pueden identificar en la
fotografía exactamente), lo que puede conllevar errores o precisiones calculadas no reales.
∑ ̅
Si bien los dos parámetros anteriores son medidas de dispersión de la muestra provista, la
desviación estándar tiene un significado geométrico importante: es la medida sobre la que
típicamente se encuentran el 68% de los errores aleatorios involucrados.
Por eso ésta es la precisión qué se debe informar al cliente, ya que refleja, según las
medidas y los controles realizados, los errores con los que se trabaja.
Es válido afirmar que el error obtenido mencionado en el párrafo precedente obedece por
definición al máximo error obtenido en planimetría. Es decir, sea cual sea el sistema de
coordenadas utilizado el error planimétrico nunca superará dicho valor, o eso es lo que se
esperaría tras la utilización de la teoría de errores aplicada a este caso.
Misma situación anterior, pero vemos que en este caso los errores medidos en el sistema de
coordenadas rojo, y en el sistema de coordenadas verde coincidirán.
Así es que obtendremos una cota para el error planimétrico y una cota para el error
altimétrico. La palabra cota es utilizada especialmente porque lo que se obtiene es el
máximo error esperable en cierta dirección. Dicho esto, los errores típicos esperables son
bastante menores. En el anexo, se adjunta la planilla de cálculos utilizada.
A los efectos del presente trabajo, es importante destacar las diferencias encontradas que
surgen del vuelo realizado y los parámetros calculados a priori por el grupo de trabajo.
De la misma manera, será importante para el grupo de trabajo, analizar si dichas diferencias
son significativas a la hora de obtener un resultado o producto final, y, en caso que lo sean,
encontrar la manera de avanzar a pesar de ellas.
1° línea: 25 fotos
2° línea: 26 fotos
3° línea: 26 fotos
4° línea: 25 fotos
5° línea: 21 fotos
6° línea: 21 fotos
7° línea: 21 fotos
8° línea: 22 fotos
9° línea: 21 fotos
Esta diferencia puede deberse a la inclinación del sensor al tomar las fotos, principalmente
causada por el viento (inconveniente que se menciono anteriormente). Ya que las distancias
máximas obtenidas cambiaban foto a foto e incluso en cada uno de los extremos de las
fotos teniendo diferencias, en algunos casos, de más 60 metros entre ellos.
Base toma
Tras un detallado análisis de la situación del vuelo, se encontró que existen marcadas
diferencias entre la base de toma de un primer grupo de fotos pertenecientes al primer plan
de vuelo (con una base de toma de alrededor de 57m, es decir, igual a la calculada a priori),
y un segundo grupo también pertenecientes al primer plan de vuelo (con una base de toma
de alrededor de 67m).
Este plan de vuelo fue realizado en dos tandas o grupos de fotografías debido a las
condiciones inusuales de viento, que provocaron un rápido agotamiento de las baterías.
Por algún motivo, la superposición longitudinal cambió entre el primer grupo y el segundo.
Se pudo identificar dicho fenómeno por el análisis mencionado en los párrafos precedentes.
La superposición mencionada varía de 80% en el primer grupo, a 75% en el segundo.
Además, por efecto del viento se puede ver cambios importantes aunque discretos sobre
algunas líneas de vuelo.
Éste ítem está íntimamente ligado a lo explicado anteriormente, ya que las fotos por líneas
de vuelo dependen de la base de toma. Se puede mencionar que en el primer grupo de
fotografías la cantidad de fotos era de 26 en promedio, y en la segunda disminuyó a 21 en
promedio.
En este rubro, se puede apreciar una notable diferencia, la cual se puede adjudicar a un
error grosero al configurar la superposición deseada, o a un error del software en el guiado
del vuelo.
La distancia entre líneas de vuelo calculada fue de 86m para 60% de superposición
transversal. La distancia obtenida tras el vuelo realizado, oscilaba los 116m. La misma se
corresponde con una superposición de 45%.
Líneas de vuelo
Éste ítem, está íntimamente ligado con el anterior, y debe sus diferencias al cambio en la
superposición transversal del vuelo con respecto al calculado a priori.
Si bien en lo explicado anteriormente existe una pobre superposición para algunos casos
(por ejemplo, en el sentido transversal del vuelo), y esto podría generar algún problema a la
hora de procesar las fotografías obtenidas del vuelo en cuestión, en el caso particular del
presente trabajo no afectó significativamente debido a que se realizó un vuelo en otro
sentido para tener superabundancia de datos y así evitar huecos de información.
Esta diferencia en el tamaño del pixel se puede adjudicar a la variación de altura del drone a
lo largo del vuelo. Cabe aclarar que el vuelo es guiado por un GPS navegador que como
sabemos no cuenta con gran precisión y, además, su mayor error es en altura. Entonces
promediando todas las fotografías el software calcula un pixel de 6.45 que realizando
nuevos cálculos, da por resultado que la altura verdadera promedio en la que se realizó el
vuelo fue de 230 metros.
También debe tenerse en cuenta, que un mínimo error en el cálculo de los parámetros de la
cámara, así como distancia focal o tamaño del sensor, repercute significativamente en el
cálculo del píxel en el terreno o GSD. Dichos datos, además, son brindados por el
fabricante, y pueden no tener la exactitud requerida para el nivel de precisión que se espera
de los cálculos realizados.
Distancia focal
Ortofotomosaico
A continuación vemos un ejemplo, en el cual, a pesar de ser de obvia notoriedad que está
formado por varias imágenes, también se puede apreciar que se forma un continuo al
acomodarlas de forma correcta.
Se ha hablado en informes anteriores que las fotografías tomadas por el sensor del drone
poseen como característica lo que se denomina proyección central. En ella cada haz
proyectado se dirige hacia el centro de proyección de la fotografía. Esto genera
deformaciones que se magnifican a medida que nos acercamos a los bordes de la fotografía.
Este producto es sumamente útil pues al poseer calidad geométrica, puede ser utilizado para
generar mapas tanto temáticos como de carácter cuantitativo. También para medir
distancias o superficies sobre el mismo.
Si bien se han enumerado las ventajas del ortofotomosaico, no puede ser utilizado como
única fuente de información. Esto se debe a que sólo nos brinda datos en dos dimensiones:
norte y este.
Por ello, se han de buscar alternativas para visualizar la tercera componente: elevación. Ya
se ha destacado en informes anteriores que la precisión obtenida para la elevación a partir
de fotogrametría es notoriamente peor que en planimetría. Aún así, la misma es suficiente
para muchos usos y trabajos específicos.
Vemos en la imagen de ejemplo anterior que cada píxel tiene un valor (en este caso,
cualitativo). La combinación de todos los píxeles, cada uno con un color determinado,
forma la imagen que se ve en pantalla. También se puede apreciar que para aumentar la
definición en una imagen es necesario aumentar la cantidad de píxeles, con lo cual el
Matías Williams 63678/9
Guillermo Valisena 62660/5 104
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Un DEM consiste en una imagen en la cual cada píxel tiene un valor numérico que se
corresponde con la elevación promedio en ese píxel. Entonces, con algún software se podrá
visualizar de distintas maneras, por ejemplo mediante la escala blanco-negro o marrón-
verde-azul, etc. para la correcta interpretación de puntos bajos/altos y pendientes
altas/bajas.
Si bien esto es útil para algunos fines, lo más interesante para la agrimensura es generar un
modelo del terreno en sí, es decir, del suelo, pero no de los techos de los edificios, o de la
copa de los árboles, etc. Por ello existe el concepto de modelo digital de terreno o MDT. Su
concepción es similar a la anterior pero cada valor del píxel representa la elevación del
terreno (puede ser interpolada o directa desde el modelo fotogramétrico).
Una construcción de calidad para un MDT depende de que no existan huecos grandes sobre
los que interpolar puntos de terreno natural. Por ello, una gran cantidad de construcciones o
vegetación densa dificultarían esa tarea.
La situación del presente trabajo, con una gran cantidad de vegetación y construcciones en
la zona, presentan un extenso trabajo a la hora de reducir e interpolar solo el terreno natural,
lo cual conlleva un trabajo manual pesado y de larga extensión (aunque podría realizarse en
caso de ser necesario).
Curvas de nivel
Las curvas de nivel son líneas que conectan puntos de igual cota o altura. Se representan
cada cierta variación de altura, cuyo nombre es la equidistancia.
Por ello, la variación en planimetría del alejamiento o acercamiento de las curvas de nivel
indican distintas pendientes: curvas de nivel más cercanas indicarán pendientes mayores, y
pendientes menores se representarán por curvas de nivel más alejadas.
También a partir de ellas, con una equidistancia apropiada, se puede obtener una buena
representación del terreno. Se pueden visualizar montanas, lomas, mesetas, ollas, etc.
Nube de puntos
El software fotogramétrico presenta una gran variedad de opciones en las cuales se busca
densificar la cantidad de información que se obtiene. Con ello, se obtienen nubes de puntos
muy grandes (del orden de millones de puntos) que representan el terreno.
En el ejemplo vemos una nube de puntos visualizada por un software en escala de colores.
Ésta es una herramienta muy útil porque nos permite determinar visuales y pendientes
sobre una línea especificada por el usuario.
Matías Williams 63678/9
Guillermo Valisena 62660/5 109
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Las tres imágenes anteriores corresponden a perfiles transversales obtenidos de la ruta 215.
Los mismos fueron realizados con el software GlobalMapper.
Los perfiles tienen como ventaja que nos permiten la rápida determinación de la altura
aproximada del terreno en una dirección deseada. En casos de existir vegetación y
construcciones se podrá interpolar gráficamente de forma sencilla.
Horas trabajadas: es sabido que un trabajo que conlleva mayor tiempo, será más
costoso para el profesional. Por lo tanto, se adoptó el criterio de tener en cuenta las horas de
trabajo para determinar el presupuesto.
Valor de la hora según distintos criterios adoptados: existen distintos criterios para
dar un valor determinado a la hora de trabajo. El grupo de estudio estimó de alto valor las
horas pertenecientes a partes del trabajo que requieran un elevado grado de especialización
y conocimientos técnicos, ya sea en el área de la fotogrametría o de la agrimensura
convencional. Entonces, se considera que las horas de máximo valor refieren
necesariamente a la intervención del profesional de la Agrimensura, mientras que las otras
pueden ser realizadas por personas capacitadas sin necesidad de poseer todos los
conocimientos que se mencionaron anteriormente.
Además, en el cómputo de los ítems, el grupo clasifica el trabajo a realizar en tres etapas
principales:
llevada a cabo de manera competente; ya que de eso depende, en gran parte, la realización
de un buen producto final.
Se debe aclarar que para el presente cálculo de presupuesto y cómputo de ítems, se analizó
el trabajo con una visión de un trabajo profesional concreto. El mismo, por razones obvias,
no tiene en cuenta las horas de estudio sobre el tema fotogramétrico, ni las deducciones
llevadas a cabo en el presente trabajo, como tampoco las pruebas y recolecciones de datos
por demás que se utilizaron para el estudio de las precisiones obtenidas con un detalle
superior al necesario para un trabajo estándar. Debido a eso, las horas computadas para el
presupuesto no coinciden con las horas computadas para el trabajo final como asignatura.
Conclusiones
A continuación, se expondrán las principales conclusiones del actual trabajo. Si bien siguen
un orden lógico, no debe interpretarse como que una es más importante o de mayor
jerarquía que la otra, sino que deben ser tenidas todas ellas en cuenta para un completo
entendimiento del trabajo realizado.
Con ello, pueden preverse futuros problemas que pudieran llegar a ocurrir, así cómo
ventajas y fortalezas que podrán ser utilizadas tales como ubicaciones óptimas para el
emplazamiento de una base gnss, de un equipo de estación total, un sitio de aterrizaje y o
despegue, etcétera.
En el transcurso del trabajo, se ha hablado y hecho hincapié en los fundamentos tanto de las
cámaras digitales y la fotogrametría como en el funcionamiento del software o la
corrección de errores que pueden surgir.
También, si bien escapa a los alcances del presente trabajo, es importante conocer los
fundamentos de gnss para asegurar un trabajo óptimo con este método.
De todo esto, surge de inmediato que es muy importante que un agrimensor sea el
responsable de un trabajo de este tipo, pues posee la capacidad y el conocimiento
necesarios para afrontar dicha tarea.
Si bien todo profesional en la agrimensura debe realizar un cálculo previo basado en varias
hipótesis para predecir con que precisión y o errores está trabajando, es importante que esta
precisión se respete en la práctica sobre el campo.
Así es que el grupo de trabajo propuso una variedad de puntos de control bien distribuidos
cuyo efecto es tener una muy buena aproximación a la verdadera magnitud del error
obtenido.
Para dicha tarea es preciso remarcar que la profesión indicada y que tiene una preparación
apta para tal fin es la del ingeniero agrimensor. Parte de este fundamento se encuentra sobre
la elección y la medición de los puntos de apoyo y de control a utilizar. También en el
análisis de errores, en la elección de los métodos de procesamiento por software, etcétera.
Esto se refleja por primera vez en los contenidos de la resolución del Ministerio de
Educación 432/87, donde se establecen las incumbencias para el título de ingeniero
Agrimensor, a saber:
Entre otras. Luego, la resolución del Ministerio de Educación 1054/02 las reafirma, y
agrega estos mismos ítems como actividades reservadas del Ingeniero Agrimensor.
Es sabido que la fotogrametría presenta ventajas con respecto a otras técnicas o métodos de
medición, no por ser más preciso qué otros métodos, sino por brindar gran cantidad de
información (casi un continuo) sobre la zona de trabajo con una precisión más que
aceptable y tiempos de trabajo considerablemente más bajos. De esta forma, y como
complemento, podemos obtener información de zonas de interés de difícil acceso.
Matías Williams 63678/9
Guillermo Valisena 62660/5 115
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Por eso deben estudiarse cuidadosamente las tolerancias para cada trabajo, ya que, si la
tolerancia permite trabajar con fotogrametría, se podría ahorrar en tiempo y en cantidad de
personal, lo cual se traduce en mayores beneficios económicos para el profesional actuante.
En cambio, los instrumentos tradicionales, nos brindan información más precisa pero
mucho más discretizada.
La etapa del procesamiento demoró dos jornadas de trabajo completas. Sin embargo, al
igual que en la etapa del relevamiento, el grupo fue minucioso y cuidadoso en el estudio,
tanto de los resultados obtenidos como del software utilizado. Esto se debe a que uno de los
objetivos del trabajo es analizar diferentes resultados que responden a factores específicos,
tanto de campo como de procesamiento. Este estudio realizado llevó al grupo a demorar al
menos 10 jornadas completas.
Estos tiempos no tienen en cuenta la elaboración de un producto final, como podría ser
cartografía o curvas de nivel.
Además puede tomarse como conclusión el hecho de que sin los puntos de apoyo ni los
puntos de control y el conocimiento de su grado de precisión, no podremos conocer la
calidad final del trabajo en cuestión.
Al mismo tiempo, realizar un trabajo de este tipo y certificar o informar una precisión que
no es tal en la realidad difama a la fotogrametría con drones como una técnica o método
aceptable.
Por todo ello, y en vista de las resoluciones ministeriales antes mencionadas, es muy
importante que un agrimensor certifique la calidad métrica de cualquier trabajo en el que
intervenga la fotogrametría.
Aquí se exponen las conclusiones obtenidas del Trabajo Final como asignatura específica.
Se enuncian a continuación.
El trabajo final obliga al alumno a repasar, asentar y utilizar los conocimientos adquiridos
en diversas materias de la carrera de Ingeniero Agrimensor. Tal es el caso que en el
presente trabajo se han precisado conocimientos de las siguientes materias:
Anexos
Cálculo de errores
Cálculo de honorarios
Amortización Amortización
Instrumental Valor (U$S) (AR$)
GNSS/GPS Trimble R4 15000 300 5400
GNSS/GPS Hiper V 20000 400 7200
Drone E-bee 30000 600 10800
Computadora 1600 32 576
Total parcial 23976
Seguros de instrumental 4000
TOTAL INSTRUMENTAL 27976
Gastos de movilidad
Km considerados= 300
Gastos de personal
Ayudantes 2
Jornadas 4
Precio por jornada 1500
Total parcial 12000
Seguros 400
TOTAL PERSONAL 12400
Presupuesto
TOTAL 280016 $
Informe
Informe de
procesamiento con
PAF 2 10 mayo 2018
500 m
Calibración de cámara
1 pix
Fig. 2. Gráfico de residuales para DSC-WX220 (4.45 mm).
Valor Error F Cx Cy B1 B2 K1 P1 P2 P3
K2 -0.0567256
K3 0.0792593
K4 -0.0302385
P4 -0.111399
F 3631.02 0.87 1.00 0.50 -0.20 0.12 -0.06 -0.10 0.56 0.03 -0.03
Cx 209.494 0.49 1.00 -0.15 0.28 0.01 0.06 0.76 0.04 0.56
point 11
57 point 16
55
Número Error X (cm) Error Y (cm) Error Z (cm) Error XY (cm) Total (cm)
21 0.287493 0.717054 0.252958 0.77254 0.8129
Tabla 3. ECM de puntos de apoyo.
Número Error X (cm) Error Y (cm) Error Z (cm) Error XY (cm) Total (cm)
17 11.1601 8.84097 22.1322 14.2377 26.3162
Tabla 4. ECM de puntos de control de calidad.
Matías Williams 63678/9
Guillermo Valisena 62660/5 128
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Nombre Error X (cm) Error Y (cm) Error Z (cm) Total (cm) Imagen (pix)
2 0.708095 0.271793 0.482546 0.898956 0.335 (18)
26 -0.277515 -0.124524 0.13089 0.331138 0.270 (9)
30 0.0779948 0.117924 -0.0843705 0.164644 0.223 (16)
34 0.0486035 -0.0449535 0.035674 0.0752048 0.172 (9)
42 0.148625 -0.0174567 0.248012 0.289662 0.343 (15)
55 -0.0749407 0.0385819 -0.0357661 0.0915636 0.133 (13)
point 2 -0.0118828 0.293765 -0.0120566 0.294252 0.172 (18)
point 3 0.146115 -0.253604 0.0423486 0.295733 0.139 (17)
point 4 -0.626359 1.68836 -0.758203 1.9539 0.476 (19)
point 5 -0.54608 0.0342501 -0.024341 0.547694 0.118 (17)
point 6 -0.0531251 -0.0685568 0.116651 0.145361 0.286 (17)
point 7 0.300982 0.33545 -0.0545676 0.453976 0.121 (20)
point 8 0.248809 -0.0182576 -0.277771 0.373358 0.092 (18)
point 9 0.342501 -0.16324 0.423264 0.568424 0.162 (21)
point 11 -0.102252 -0.226261 -0.153653 0.291991 0.347 (19)
point 12 -0.186048 -2.43575 -0.110176 2.44533 0.430 (17)
point 13 -0.225043 0.329054 -0.0466749 0.401372 0.217 (18)
point 14 -0.000563287 -0.889143 0.3017 0.938934 0.388 (16)
point 15 0.160012 0.257221 -0.203518 0.364947 0.269 (19)
point 16 0.0127804 0.0693056 0.043653 0.0828987 0.068 (14)
point 17 -0.122519 0.768077 0.00216228 0.77779 0.183 (20)
Total 0.287493 0.717054 0.252958 0.8129 0.264
Tabla 5. Puntos de apoyo.
Nombre Error X (cm) Error Y (cm) Error Z (cm) Total (cm) Imagen (pix)
4 -0.710943 9.21243 13.3833 16.263 0.246 (18)
25 5.53051 5.43509 -5.54695 9.53391 0.303 (11)
29 -3.02385 3.41754 -10.2002 11.1744 0.208 (14)
43 -0.595253 1.73334 15.79 15.896 0.224 (9)
44 -1.1736 4.01368 3.11294 5.21319 0.103 (15)
49 1.31525 -10.0317 4.3399 11.0091 0.180 (9)
Matías Williams 63678/9
Guillermo Valisena 62660/5 129
Estudio de precisiones utilizando un drone, aplicaciones para Agrimensura.
Nombre Error X (cm) Error Y (cm) Error Z (cm) Total (cm) Imagen (pix)
50 -13.1248 -4.23651 -29.9479 32.971 0.108 (10)
53 5.05485 -19.2202 -12.6547 23.5608 0.200 (15)
57 -7.67991 5.69222 -17.2714 19.7404 0.229 (13)
60 -19.5041 -15.2188 -17.4074 30.2496 2.071 (14)
62 -8.9664 -10.3855 -21.3 25.3366 0.707 (14)
65 -26.4418 -0.716839 -22.7178 34.868 1.967 (16)
66 -5.69761 -2.65155 -25.1832 25.9555 0.687 (13)
67 -5.22541 -0.484916 -20.0964 20.7703 0.457 (13)
68 2.59136 10.0278 21.618 23.9711 1.187 (18)
70 -12.3034 4.72112 59.4052 60.8493 0.918 (16)
72 20.9523 -13.8949 8.53649 26.5507 0.782 (14)
Total 11.1601 8.84097 22.1322 26.3162 0.906
Tabla 6. Puntos de control de calidad.
-29 m
500 m
Parámetros de procesamiento
Generales
Cámaras 456
Cámaras orientadas 456
Marcadores 80
Sistema de coordenadas Local Coordinates (m)
Ángulo de rotación Guiñada, cabeceo, alabeo
Nube de puntos
Puntos 475,266 de 521,344
RMS error de reproyección 0.215735 (1.56364 pix)
Error de reproyección máximo 2.43979 (37.6566 pix)
Tamaño promedio de puntos característicos 5.93598 pix
Superposición efectiva 3.0626
Parámetros de orientación
Precisión Máxima
Pre-selección genérica Sí
Pre-selección de referencia Sí
Puntos claves por foto 40,000
Puntos de enlace por foto 0
Tiempo búsqueda de puntos homólogos 1 hora 33 minutos
Parámetros de optimización
Parámetros f, b1, b2, cx, cy, k1, p1-p3
Compensar rolling-shutter Sí
Tiempo de optimización 2 minutos 12 segundos
Nube de puntos densa
Puntos 51,257,974
Parámetros de reconstrucción
Calidad Media
Filtrado de profundidad Agresivo
Tiempo de generación de mapas de profundidad 8 horas 32 minutos
Tiempo de generación de nube de puntos densa 49 minutos 56 segundos
DEM
Tamaño 11,897 x 12,188
Sistema de coordenadas Local Coordinates (m)
Parámetros de reconstrucción
Datos fuente Nube de puntos densa
Interpolación Habilitada
Duración del procesamiento 1 minuto 0 segundos
Software
Versión 1.4.0 build 5076
Plataforma Windows 64
Apéndice
S………………../……………………D
De mi mayor consideración:
Asimismo expreso mi conformidad con el tema elegido y con el Plan de Trabajo que presentan.
De igual modo me notifico que el director es el responsable de orientar a los alumnos en las
cuestiones teóricas y técnicas para el desarrollo del trabajo final, de evaluar si se han cumplido con
los objetivos propuestos y de corregir la totalidad de los contenidos, a fin de evitar vicios de
redacción y errores de ortografía.
S………………../……………………D
De mi mayor consideración:
Tengo el agrado de dirigirme a usted a fin de solicitar la inscripción para iniciar la realización del
TRABAJO FINAL (G429).
Así mismo le hago saber que he aprobado 30 materias correspondientes al Plan de Estudios 2002.
Adjunto el presente certificado analítico con las materias aprobadas y sus correspondientes notas,
y el Plan de Trabajos correspondiente.
Elevo también las correspondientes notas de aceptación al cargo de Director y Codirector del
presente trabajo por parte del Dr. Agrim. e Ing. Jorge Sisti, y el Ing. Agrim Maximiliano Lucangioli.
Recibí de parte del alumno su Planilla de Inscripción en el Trabajo Final, conjuntamente con las
correspondientes notas de aceptación del cargo de Director por parte del Dr. Agrim. e Ing. Jorge
Sisti, y de Codirector por parte del Ing. Agrim. Maximiliano Lucangioli, el plan de trabajo, un
cronograma detallado del mismo y un Certificado Analítico de materias aprobadas a la fecha.
S………………../……………………D
De mi mayor consideración:
Tengo el agrado de dirigirme a usted a fin de solicitar la inscripción para iniciar la realización del
TRABAJO FINAL (G429).
Así mismo le hago saber que he aprobado 30 materias correspondientes al Plan de Estudios 2002.
Adjunto el presente certificado analítico con las materias aprobadas y sus correspondientes notas,
y el Plan de Trabajos correspondiente.
Elevo también las correspondientes notas de aceptación al cargo de Director y Codirector del
presente trabajo por parte del Dr. Agrim. e Ing. Jorge Sisti, y el Ing. Agrim Maximiliano Lucangioli.
Recibí de parte del alumno su Planilla de Inscripción en el Trabajo Final, conjuntamente con las
correspondientes notas de aceptación del cargo de Director por parte del Dr. Agrim. e Ing. Jorge
Sisti, y de Codirector por parte del Ing. Agrim. Maximiliano Lucangioli, el plan de trabajo, un
cronograma detallado del mismo y un Certificado Analítico de materias aprobadas a la fecha.
Plan de estudios
Alumno: GUILLERMO HERNAN VALISENA
Legajo: 62660/5
Carrera: Ingeniería en Agrimensura
Plan: 2002
Plan de estudios
Plan: 2002
Bibliografía
Pag. 24
Se comienza a desarrollar el concepto de orientación interna, sin dejar contextualizado el
objetivo, si se relaciona al método basado en la medida de paralaje o no, y por qué se
desarrolla.
Para contextualizar la explicación de orientación interna digital, se alteró el orden del texto,
ubicándolo a continuación de la explicación del método general de la fotogrametría (donde
se menciona brevemente la orientación interna y sus generalidades).
Pag. 30
En las referencias de las im genes, revisar o aclarar el concepto de “Vista a gran escala y
a menor escala”.
Se cambiaron las palabras “vista a gran escala” por “vista general” y “vista a menor escala”
por “vista en detalle”, para evitar la dudosa interpretación de los términos.
Pag. 31
“… Luego de ajustar algunos par metros, se lleg a un resultado aceptable, ..”
Sería conveniente una breve reseña de los parámetros ajustados y en base a que criterios
se realizó dicho ajuste.
Se aclararon cuáles son los parámetros y en base a qué se ajustaron. También se cambió la
palabra “ajustar” por “setear” ya que se consideró más apropiada para el caso.
Pag 37
“ .. La utilizaci n de los puntos de control es realmente importante, ya que as
comprobaremos si la precisión informada por el software se asemeja a la precisión real
del trabajo realizado. ”
¿Cuáles son los valores de precisiones esperados y obtenidos para esta prueba?
La idea del grupo es tratar los valores de precisiones a obtener más adelante, y la intención
del párrafo citado era dejar en claro la importancia de los puntos de control como
validación de la precisión del producto final.
Pag. 42
“.. Mientas que los que inciden por el centro convergen en un punto “a”, los que lo hacen
por los extremos de la misma convergen en un punto c ..”
Revisar referencias del grafico respecto a los puntos a y c.
Se corrigió el error.
Pag. 45
Los esquemas de los rayos no coinciden con los esquemas de las distorsiones.
Se corrigió el error observado.
Pag. 46
“.. Este planteo nos genera mayor libertad a la hora de la manipulaci n de los tres
elementos del tri ngulo de la exposici n ..”
Pag. 48
“.. La fue utilizada para consultar informaci n altimétrica.” revisar redacci n.
“.. fue utilizada para consultar información altimétrica por medio de la lectura de las
curvas de nivel de la carta en cuestión. La misma es de gran utilidad, ya que puede ser
comparada con la informaci n a posteriori generada por el trabajo, una vez realizado ..”
No creo que sea conveniente referenciar el uso de curvas IGN 1:50.000 como elemento de
validación de un producto del cual se esperan ordenes de precisión mucho mayor. (De
hecho, estas comprobaciones si se hicieron, no se citan en el trabajo)
Se corrigió la redacción del texto, y se aclara que las curvas de nivel no sirven como
validación del método de fotogrametría con drones.
Pag. 82
“A partir de la medici n, se obtuvieron tres mediciones con distintos sistemas de
coordenadas, debido a la utilización de distintos equipos en distintos días de trabajo. Sin
embargo, a la hora de realizar el levantamiento se tomó la precaución de tomar un punto
común para realizar las traslaciones correspondientes al transformar sistemas de
coordenadas.”
No es metodológicamente correcto, trabajar con posicionamiento diferencial GNSS, sin
utilizar un punto de la Red Geodésica como base de referencia, por lo cual, no sé entiende
la necesidad de realizar „traslaciones' para el ajuste/compatibilizaci n de relevamientos
GNSS.
Se aclara en la hoja citada, que se realizó un posicionamiento diferencial entre la estación
permanente LPGS y el punto utilizado como base. Ello fue posterior a dos de los tres
relevamientos realizados, de forma que dichos relevamientos se encontraban en sistemas de
coordenadas distintos entre sí, dado que los primeros dos relevamientos fueron realizados
con el método RTK, y la posición obtenida en tiempo real arrastraba el error en el
posicionamiento absoluto de la base, generando una traslación de los puntos relevados con
respecto al sistema georreferenciado finalmente utilizado.
Pag. 84
¿A qué indicador estadístico se refiere como 'Total' en la Tabla 6? .
Aclarar a que error se refiere con ECM de la Tabla 3 (Error cuadrático medio? ). Revisar
correlatividad en la numeración de tablas.
Se eliminó la numeración de las tablas, se explicó brevemente como surge el error Total
informado por el software, y se eliminó el término ECM ya que más adelante se da una
explicación más detallada del tratamiento de errores realizado.
Pag. 93
“.. los errores obtenidos en X e Y dependen plenamente del sistema de coordenadas
utilizado ..”