Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aporte de lA IngenIeríA en
AgrimensurA A lA AgriculturA de
Precisión
UNIVERSIDAD NACIONAL DE ROSARIO
FACULTAD DE CIENCIAS EXACTAS INGENIERÍA Y AGRIMENSURA
INGENIERÍA EN AGRIMENSURA
TRABAJO FINAL
Agradecemos por sobre todo, a nuestros padres y hermanos por el esfuerzo realizado y
el continuo acompañamiento a lo largo de estos años, a nuestros compañeros de
estudios por los buenos momentos compartidos, a los profesores por las enseñanzas
brindadas, a nuestro amigos y compañeros de trabajo, a los profesionales que nos
brindaron su tiempo y conocimientos incondicionalmente; y a nuestra Universidad que
a pesar de las adversidades nos siguen ofreciendo una educación libre y gratuita,
manteniendo un nivel de jerarquía.
Índice
CAPITULO I.
Introducción…………………...………………………………………………....Página 2
Agricultura de Transición…………………………………………………….….Página 7
Consideraciones de la temática Agricultura de Precisión…………...………… Página 10
Las tres Columnas…………………………………………………...………… Página 12
CAPITULO II.
CAPITULO III.
Simples diferencias…………………..…………………………………………Página 63
Dobles diferencias…………………….…………………………………...….. Página 64
Triples diferencias………………………………………………………….…. Página 65
Resolución de ambigüedades……………………………………………….… Página 67
Precisiones………………………………………………………………….… Página 70
Georreferenciación……………………………………………………………. Página 72
CAPITULO IV.
La agricultura de precisión……………………………………………….…… Página 75
¿A qué se le llama AP?....................................................................................... Página 76
¿Porqué hace 20 años no se podía hacer AP y ahora sí?.................................... Página 79
¿Cuáles son las tareas agrícolas vinculadas a la AP?......................................... Página 80
¿Cuál es la precisión necesaria en cada una de ellas y como se obtiene
esaprecisión?....................................................................................................... Página 81
CAPITULO V.
Etapas de la Agricultura de Precisión…………………………………………. Página 83
Primera Etapa: “Determinación o Recolección”…………………………….... Página 85
Topografía……………………………………………….………………..…….Página 85
Monitoreo de rendimiento…………………………….………………….…….Página 88
Análisis de suelo………………………………………………… …………….Página 90
Malezas, plagas y enfermedades…………………………………………….… Página 92
Mapas de suelo, Mapa de napa y Mapa de tosca……………………………… Página 92
Sensoramiento remoto del suelo y cultivo………………...…………………... Página 93
Segunda Etapa: “Análisis de datos”………………………………..…………. Página 95
Zonas de manejo……………………………….……………………………… Página 96
Geostadística………………………………………...………………………… Página 97
Tercera Etapa: “Actuar”………………………………………………………. Página 99
Siembra variable…………………………………………...………………… Página 100
Fertilización varible………………………………………………….……… Página 101
Tecnología de riego varible…………………………………………..……… Página 101
Control de Malezas, Plagas y Enfermedades con Dosis Variable…………… Página 102
Sistemas de guiado………………………………………………...………… Página 104
CAPITULO VI.
Desarrollo práctico……………………………………………………….……Página 111
CAPITULO VII.
Estandarización de la información…………………………………………… Página 119
Dificultades concretas presentadas a un profesional de la Agrimensura.……..Página 122
Modelo de Información Final…………………………………………...…… Página 123
Cuestiones a considerar para el modelo estandarizado de información………Página 124
CAPITULO VIII.
Perspectiva y futuro de la Agricultura de Precisión en Argentina…………… Página 127
¿Por qué es necesaria la agricultura de precisión en nuestro país?…………....Página 128
Limitantes e incentivos para la adopción……………………………………...Página 132
Experiencias del 8° Curso de Agricultura de Precisión…………………….…Página 133
Conclusión………………………………………….…………………………Página 136
Anexos………………………………………………...………………………Página 140
Bibliografía……………………………………………………………………Página 161
CAPÍTULO I
1
Introducción
“La prosperidad de una Nación no depende tanto de la posesión de ricas minas de oro
cuanto de la formación de ciudadanos inteligentes y virtuosos, capaces de darse cuenta
de que no sólo labran su dicha personal, sino también la de sus compatriotas y
semejantes”
Joaquín V. González
2
Tesis: conclusión o proposición que se mantiene con razonamientos // Trabajo inédito y
original que se presenta para la obtención del doctorado universitario
Tesina: disertación escrita que se exige para obtener una licenciatura universitaria
***
Esto no debe tomarse como una afirmación que englobe a todos en todos los tiempos;
sino que creemos, que en la mayoría de los casos está presente el resultado de la
decadencia educacional impregnada en el ámbito pedagógico, sumada a una errónea
política universitaria que desvaloriza la importancia del docente como elemento esencial
de formación, considerando así también el retroceso social que azota aún hoy, a nuestro
país.
3
Si bien es cierto también que hacen posible tal producción a través de inversiones de
parte de ellas mismas; pero de ahí a que consideremos ser subyugados a la voluntad de
éstas por tales inversiones, ese será siempre el peor pecado que podríamos cometer
como una Nación soberana.
Por todo lo dicho, el fututo profesional debe considerar y tener siempre en cuenta
su verdadera misión y responsabilidad hacia la sociedad ante todo, la honradez
para con el mismo y el deber para con la profesión, de la cual él se sirve.
Para esto la universidad debe ser el lugar del cual su máxima finalidad será, formar
individuos que puedan desarrollar criterios propios, apuntando siempre objetivamente a
la realización de tareas que puedan mejorar la calidad de vida de la población, siendo
este el único fin que corresponderá alcanzar todo profesional en actividad.
***
A esta altura creemos que será reiterativa pero no menos importante recordar que no es
nuestra idea la de hacer de este un trabajo con rasgos políticos, solo que todo lo dicho
anteriormente encierra para nosotros un significado altamente relevante dentro de lo que
constituye nuestra vida académica.
El hecho de que todos y cada uno de nosotros pensamos muchas veces en que la
facilidad y el menor esfuerzo sea la respuesta para todos los obstáculos que se nos
presentan a diario, deja mucho que desear, siendo esta una costumbre que va mas allá de
la vida universitaria.
Aún menor valor le adjudicamos a la formación del carácter del individuo y mucho
menor todavía a la labor de fomentar el sentimiento de la satisfacción en la
responsabilidad; siendo así, casi nula la importancia dada a la educación de la voluntad
y del espíritu de decisión.
Debería ser la confianza el motor que mueva las relaciones entre alumno y
profesor, donde el sacrificio diario deberá ser la llave para alcanzar la meta en
cada materia, que no es solo la de aprobarla, sino también la de entenderla y
elaborar conclusiones propias de la misma.
4
Porque no existe la necesidad de parte del alumno, la de conocer una materia de la A a
la Z, ni la de memorizar conceptos sin validez práctica inmediata; con que el alumno
haya entendido y adherido a él la idea de la aplicación para la cual la materia está dada
como así también su fundamentación teórica y practica, será más que suficiente.
El drama que surge en la escena de la realidad, por dar un ejemplo, yace en ambas
partes (alumno y profesor).
El primero por el escaso tiempo y abaratado estilo de vida que pueda tener un
estudiante, que en la generalidad de los casos se da, por pertenecer a otros lugares o
regiones que nada tienen que ver con las grandes ciudades donde se asientan las
universidades, y de ahí el ineficiente rendimiento para con la facultad.
Aunque no siendo ésta la justificación de tal ineficiencia, ya que el problema originario
radica desde luego en la formación personal incompleta consolidada en él y la
influencia de un sistema educacional en declinación radicado en nuestro país.
En segundo lugar, por la falta de mérito de algunos docentes que consideran su trabajo
como el sacrificio diario que deben cumplir y posicionan tales actividades académicas a
la altura de otros compromisos personales, malinterpretando y menospreciando el lugar
que ocupan en la universidad.
Cuando todo esto se vuelve corriente, el tiempo transcurre imperturbable, hasta que un
día llega el momento de realizar el tan esperado trabajo final, con el cual el alumno
demostrará que con las herramientas adquiridas a través de todo el cursado, podrá
desarrollar y concluir un trabajo inédito que podrá servir de base para que otros puedan
seguir optimizando el mismo y utilizarlo para diferentes fines prácticos.
Las causas ya las explicamos a grandes rasgos y seria reiterativo seguir mencionándolas
o indagar más en ellas. Lo que sí es imprescindible decir, es que aparentemente no hay
culpables ni víctimas en todo esto, por lo menos nunca llegaremos a ver cuales son cada
uno de ellos y diferenciarlos bien.
No hay respuestas a lo mejor para esto; y si las hay, serán explicadas con ideas
filosóficas más profundas y de un orden mayor de investigación que cualquier
palabrerío redundante.
5
Entender de una vez por todas que el título no nos dará la grandeza de ser
profesionales, perteneciendo así a una casta diferentes de otros que se someterán a
nosotros, sino que la grandeza misma recaerá en que tan digno y responsable
seremos como tales y que tan útil llegaremos a ser para la sociedad a la cual
serviremos.
Es así, que una tesis final debe apuntar a dos objetivos primordiales; el primero será el
de que a través de teorías y técnicas propias de cada profesión, se deberá apuntar a
satisfacer o resolver un problema que afecte a la sociedad o a una parte de ella, logrando
desarrollar un resultado aplicable y práctico, comprobando y/o demostrando el mismo;
y segundo, se debe apuntar al reconocimiento de la carrera, como aporte activo y
verdadero para la solución del problema, haciendo valer su intervención sin desmedro
de otras profesiones que pudiesen interactuar con la misma.
Por lo tanto, no bastará con cumplir alguna de ellas, o a medias una y otra, el fin debe
ser el cumplimiento de ambos objetivos.
6
Agricultura de Transición
La agricultura, según entendemos; fue una de las principales actividades productivas por
excelencia con las que contó y cuenta el hombre, o lo que es lo mismo, junto a la
ganadería, la minería y la pesca, la agricultura fue una de las primordiales fuentes de
riquezas y abastecimiento para la humanidad y representan el sector primario de la
economía.
Si buscamos en los diccionarios, estos nos dirán que la agricultura es el arte de cultivar
la tierra y que fue una de las actividades del hombre prehistórico, donde la producción
de alimentos conllevó a asentamientos en poblados (sedentarización) y la acumulación
de excedentes, donde la agricultura primitiva ocupaba los suelos temporalmente, hasta
que se empezaron a cultivar los fértiles valles aluviales de los grandes ríos
(Mesopotamia, Egipto).
Parece ser que la idea de producir en nuestro país nace en sembrar una semilla y
muere cuando se cosecha y se vende el fruto de esa semilla, dejando de lados otras
oportunidades verdaderamente rentables para el productor y al Estado al cual le
pertenece.
“Si bien resulta válida la necesidad de una Nación industrializada, lo que no resulta
lógico es contraponer una visión a la otra. Sobretodo en la actualidad, el agro es
generador de industria y al contar con nuevas tecnologías posibilita un crecimiento de
la producción y las exportaciones”. (*)
7
En rigor, lo que tratamos de decir es no industrializar por industrializar, sino que el
sector agrícola evolucione cada vez más y pueda diferenciar sus productos, porque
entendemos que la diferenciación hace a la especialización y está solo es lograda con
educación, innovación e inversión. Todo esto en suma logrará darle un valor adicional
al producto agrícola, denominado “valor agregado”.
Tampoco queremos generalizar con lo dicho hasta ahora, si bien, igualmente existieron
y existen productores que se atrevieron a dar un paso más adelante, lo que aquí
pretendemos exponer es la falta de políticas de parte de los gobiernos para llevar a la
Argentina a un nivel de industrialización y menor dependencia de los mercados
internacionales respecto a determinados productos.
***
Debido a los ya conocidos avances tecnológicos y la globalización que ellos alcanzaron
en todo el mundo ocurriendo esto a una velocidad sustancial (porque si la historia
misma se estudia en grandes lapsos de tiempos podemos decir que cincuenta años
realmente es muy poco) sobre todo si a agricultura nos referimos; esta actividad, en tan
solo medio siglo logró transformar sus antiguas herramientas en maquinarias de mayor
inversión pero de mayor productividad, logrando así optimizar los rendimientos de los
suelos agrícolas con menor esfuerzo humano. Aún en nuestros días, todo apunta a que la
tecnología se seguirá renovando y trayendo consigo nuevos avances que podrán ayudar
al productor, a abaratar cada vez más lo costos y los tiempos, obteniendo así aun más
rentabilidad.
Es por esto, que realmente estamos viendo como se desarrolla en estos días una
verdadera Agricultura de Transición, porque el advenimiento de todas estas nuevas
tecnologías en algún momento llegará a su máximo potencial, para que en un futuro
queden relegadas, dando paso a una nueva teoría y técnica de agricultura que se apoyará
en tecnologías y maquinarias aún más avanzadas. Y esto está bien y es lógico que
suceda, porque la realidad apunta a optimizar de alguna manera la producción de
alimentos para nuevas generaciones que pertenecerán a una mayor población mundial y
con todo lo que ello implica, considerando los altos índices de contaminación y de
nuevas enfermedades que surgen en todo el planeta, como así también los cambios
climáticos que a esta altura ya no pueden seguir subestimándose. Todas estas nuevas
tecnologías jamás deberán perder de vista la sustentabilidad productiva del suelo ya que
por todo lo dicho anteriormente se busca maximizar la producción de alimentos sin
considerar el impacto negativo que ocasiona la falta de realización de prácticas
conservacionistas. Debido a que el suelo es un recurso no renovable.
(*) Autores: Ing Agr MSc Mario Bragachini,Ing Agr Andrés Méndez.Proyecto Agricultura de Precisión
– INTA Manfredi (Octubre de 2003)
8
También es importante considerar, la inminente necesidad de los llamados
biocombustibles, que en la actualidad recién empezamos a adoptar y entender sus
ventajas y desventajas.
La transición que se desarrolla, a lo mejor sólo la podamos contemplar en retrospectiva
de aquí a algunos años, pero lo que sí podemos ver concretamente es la razón en la cual
se apoya dicha transición, y es la de la precisión.
Desde el punto de vista de la Agrimensura, la precisión tiene un significado
verdaderamente primordial, ya que calcular y poder estimar la precisión de una
determinada tarea que nos incumbe, es poder conocer cual es la calidad del trabajo o
cuantificación que se ha realizado.
A menudo se dice y se cree que la finalidad del Agrimensor es la de medir;
solamente eso, obtener la medida de un objeto o cosa.
Si hablamos de finalidades, medir es simplemente una herramienta, como lo es la
de representar por ejemplo, de la cual el Agrimensor se vale para lograr una
misión mayor, que es la de organizar territorialmente una región, un continente e
incluso hasta el planeta mismo y poder así orientar e informar a la humanidad
cual es el lugar que ocupa dentro de su territorio, cuales son sus límites, adonde
terminan sus derechos territoriales y adonde empiezan los de los demás, haciendo
esto siempre con la precisión adecuada y necesaria según el caso. Pero la
Agrimensura va más allá de esto, ya que es una profesión altamente calificada
para el manejo de toda información territorial, cualquiera sea su naturaleza,
pudiendo interpretarla y representarla en el espacio infinito.
La agrimensura ha sido un elemento esencial en el desarrollo del entorno humano,
desde el comienzo de la historia registrada (en el 5000 A. C.); es un requisito en la
planificación y ejecución de casi toda forma de la construcción. Sus aplicaciones,
actuales, más conocidas son en el transporte, edificación y construcción,
comunicaciones, cartografía, y la definición de los límites legales de la propiedad de
terrenos.(**)
Lo que en la agricultura se está gestando, es la idea de hacer cada vez más precisa la
determinación de los diferentes ambientes productivos que pudiesen existir en un
terreno o hacienda, o sea, que el productor pueda conocer realmente cual es la situación
de sus tierras, ya no a “ojo” como se decía antes, tampoco a nivel promedio, sino poder
recibir la información precisa de, por ejemplo, que parte de su terreno es más productivo
que otro y cual es la problemática que presentan éstos, así en vez de invertir en
nutrientes para todo el campo, solo deberá comprar y aplicarlo sobre aquellas zonas que
realmente lo necesiten en su medida justa, logrando así la reducción en insumos.
Si bien este ejemplo parece demasiado ingenuo, dado que esto se viene haciendo desde
siempre, ya que el productor ha persistido desde hace mucho tiempo en ser lo más
preciso en cuanto a sus conocimientos del terreno, contando con las herramientas y
tecnologías que pudieran estar al alcance de su mano; jamás, hasta hace unos años,
había contado con una herramienta tan poderosa e importante como lo son los Sistemas
de Posicionamiento Satelital GNSS (Global Navigation Satellite System) que incluye el
GPS, GLONASS y muy pronto Galileo que permiten posicionar espacialmente
cualquier punto del planeta respecto de un sistema único mundial, lo que se conoce
como georreferenciación.
Es así que llegamos hoy en día, a estar hablando de la Agricultura de Precisión.
9
Consideraciones de la temática Agricultura de Precisión
A pesar de todo esto, pronto caímos sobre la verdadera problemática que nos llevaría a
dudar de lo que estamos haciendo y era, la de que si realmente este tema podría abarcar
o representar un verdadero trabajo final, esto debido a la cuantiosa información de
Internet y otros medios, que se encargan de relacionar a la AP con la compra de
modernos aparatos, como lo son los monitores de rendimiento, por ejemplo, y también
por la opinión de algunos profesionales y docentes que coincidían en sus opiniones,
sugiriendo que todo lo relacionado a ese tema ya estaba completamente estudiado y que
no había nada nuevo por decir ni proponer, ya que la AP (una vez más) solo se trataba
de la adquisición de tecnología que podía georreferenciar toda la información,
procesarla obteniendo resultados con tan sólo conocer algunos comandos u órdenes de
dichos aparatos y punto.
Lo que nos llevó verdaderamente a seguir adelante con la investigación tal como la
habíamos planteado, fue antes que nada, la curiosidad que nos despertaban ciertas
preguntas:
¿Cómo esta cuestión, aparentemente nueva como la AP, podía estar a la vez,
absolutamente descubierta y estudiada?
¿Cuáles eran realmente las precisiones que alcanza la tan mencionada Agricultura de
Precisión?
10
Todos estos interrogantes fueron solo guías que nos sirvieron y ayudaron a realizar la
pregunta más importante y en la cual se basa todo este trabajo:
El poder contestarla será para nosotros alcanzar nuestro cometido como alumnos de una
carrera que llegamos a respetar y valorar, y también posicionarnos como futuros
profesionales de la Agrimensura, abriéndonos paso a toda una actividad lista para ser
explorada y estudiada.
Los objetivos primordiales de un trabajo final se alcanzarán al demostrar que
beneficioso será para la sociedad el poder aportar las técnicas y los conocimientos de la
Agrimensura, para que la AP pueda perfeccionarse, trayendo consigo una mayor
producción de alimentos y una reducción de costos en los insumos para los productores
de todo el país, y como último objetivo permitiremos dar a conocer otra faceta más de la
actividad de la Agrimensura, como un servidor activo a la producción de la agricultura.
Será sólo nuestra la tarea y responsabilidad de advertir, que dificultades se les puedan
presentar a otros profesionales y como desde la Agrimensura poder aportar con nuestras
técnicas y herramientas las soluciones a éstas, para que todos formando y perteneciendo
a una actividad interdisciplinaria, consigamos llegar al objetivo común.
11
Las Tres Columnas
Nuestro trabajo se apoyará siempre bajo conceptos y concepciones propias, sin perder
nunca el punto de vista obtenido a través del estudio de las ciencias que forman parte de
la Agrimensura, más allá de las lógicas diferencias conceptuales que existen entre
diferentes profesiones para determinados temas, como ser el tratamiento que se da al
término precisión, por dar un ejemplo.
El título AP es muy abarcativo y da lugar a diferentes interpretaciones, por ser ésta una
tarea interdisciplinaria, la precisión buscada será una sumatoria de soluciones otorgadas
por cada profesión según sea su punto de vista.
Mencionamos ya, que ésta actividad será considerada precisa, en el momento en que
cada una de las partes obtenga su cometido.
Por todo esto vemos que sería lógica la intervención de la Agrimensura, ya que para la
misma, una agricultura precisa sería aquella que se encuentre apoyada sobre
información territorial igualmente precisa.
Como es sabido, la interpretación del término precisión no es necesariamente la misma
para un agrónomo que para un agrimensor en un supuesto trabajo, ya que la Agronomía
se ajusta a la condición relativa del comportamiento de la naturaleza para determinar
cierto diagnóstico a elaborar en un futuro cultivo, y esta determinación la hace siempre
con una precisión igualmente relativa y jamás absoluta, porque según su lógica no
existe una receta justa y única para elaborar un resultado, puesto que los elementos que
forman parte de su estudio no actúan siguiendo pautas de una sola circunstancia, sino
que lo hacen obedeciendo siempre a innumerables factores que interactúan en su
desarrollo.
Por otro lado, la Agrimensura administra y elabora información territorial y la
representa, siempre con una precisión cuantificada y/o estimada de carácter absoluto
(*), de los distintos elementos que forman parte de la naturaleza, pudiendo ser estos
naturales o insertados sobre ella, como lo son todas aquellas cosas culturales que el
hombre ha creado y ha adherido a la misma.
(*) Cuando decimos absoluto, nos referimos a expresar un resultado sin contradicciones y
ambigüedades.
12
En rigor, existen también confusiones en relación a términos usados en esta temática,
como ser exactitud y precisión. Términos que para el común de la gente llegan a ser
semejantes o hasta incluso sinónimos, siendo que ambos expresan concepciones
diferentes.
“La precisión es un parámetro estadístico que expresa la calidad del resultado de una
experiencia en relación a otras realizadas en igualdad de condiciones”
La información que emerja de nuestro aporte deberá ser entendida bajo una idea única y
no prestarse a confusiones.
Al considerar esto, alcanzaremos encarar la problemática observándola desde nuestra
posición como futuros profesionales.
Entonces podemos decir que el primer escalón o la primera columna a la cual
deberemos apoyarnos al construir este trabajo será:
13
Es aquí donde empieza a mostrarse y a ser visible la segunda columna que nos valdrá de
sostén en el aporte puntual de la Agrimensura, porque si de posicionamiento hablamos
entonces directamente estaremos tocando la idea de coordenada, y es en este concepto
donde nuestros conocimientos se encuentran altamente calificados.
Entonces queda así establecido el segundo escalón de nuestro trabajo práctico, que será
el encargado de contestar la principal pregunta que enclaustra el cometido por el que
desarrollamos esta tesis.
14
CAPÍTULO II
15
Conceptos Aplicados
16
Creemos importante que los siguientes conceptos, en la forma y orden en que están
presentados, pueden servir de guía para que el lector o la persona que se introduzca en
la temática, sepa comprender de forma amena y sencilla los términos o conceptos
utilizados.
Es decir, el orden es importante dada la intención de poder explicar, primero, aquellos
conceptos generales para llegar luego a desarrollar los conceptos más complejos.
Es por esto, que vemos oportuno antes que nada, definir las ciencias que pertenecen a la
Agrimensura y que forman parte de la AP, como ser la Topografía, la Geodesia y la
Cartografía, por mencionar a aquellas que consideramos, tienen mayor peso.
Por lo que se refiere a la Geodesia y a la Cartografía, forman con la Topografía tres
ciencias tan íntimamente relacionadas, que no es posible en el estudio de esta última
prescindir de su conexión con las primeras:
Topografía:
17
El problema planteado queda resuelto si determinamos las coordenadas espaciales de
los puntos correspondientes; que pueden ser coordenadas cartesianas ortogonales x,y,z o
coordenadas polares ρ,λ,β; respecto a un cierto sistema de referencia.
Geodesia
Friedrich Robert Helmert (1880) define la Geodesia como “la ciencia encargada de la
medición y representación cartográfica de la superficie terrestre”. Su definición,
implica, llegar al conocimiento de la forma y dimensiones de la Tierra, a la
determinación de coordenadas para cada punto de su superficie (incluida la superficie de
los océanos), lo que resulta imprescindible para una correcta representación. Constituye,
además, un tema importante de la geodesia moderna, el estudio de las variaciones
temporales, tanto de las coordenadas de los puntos fijos como del campo de gravedad.
La Tierra es un planeta inmerso en el sistema solar, que se encuentra sometido a su
rotación diurna y a las atracciones del Sol y de los demás cuerpos del sistema solar. En
tales condiciones, la Tierra describe una órbita que compensa tales atracciones, de
manera tal que un punto sobre su superficie queda sometido a la atracción de nuestro
planeta y a la fuerza centrífuga derivada de su rotación.
(*) Es el posicionamiento espacial de cualquier punto del planeta respecto de un sistema de referencia
único.
18
Estas conclusiones, sumadas al hecho de que una pequeña rotación produce un
achatamiento sobre la forma esférica, nos lleva a considerar que la Tierra es
aproximadamente un elipsoide achatado de revolución que gira con movimiento
uniforme alrededor de su eje menor o polar.
Es necesario aclarar que la Tierra no es un cuerpo rígido homogéneo, sino un planeta
compuesto por una parte más o menos sólida, una parte líquida u oceánica, y una
atmósfera que la rodea en su totalidad.
Desde otro punto de vista, la superficie equipotencial o de nivel, que determinan los
océanos cuando se prescinde del efecto perturbador de las mareas, se denomina geoide y
es esta superficie física real la que sirve de referencia a la definición de una tercera
coordenada, llamada altitud.
Nos encontramos con dos superficies fundamentales de referencia, el elipsoide y el
geoide, que provienen de concepciones distintas y determinan la división clásica de la
Geodesia en sus ramas de:
19
Reseña Histórica
La humanidad requirió muchos siglos del tiempo histórico para quedar de acuerdo en
que la Tierra es casi redonda.
Fue Pitágoras (550 a.c.) el primero en admitir la esfericidad de la Tierra. Tres siglos
después, Eratóstenes se propuso, por primera vez, determinar las dimensiones de una
esfera, ya que también suponía que la Tierra era esférica. Realizó una medición bastante
aproximada del tamaño de la Tierra, utilizando la diferencia entre las longitudes de las
sombras proyectadas por el Sol en Alejandría y en un punto situado a algunos
centenares de kilómetros.
La experiencia se puede describir con más detalle, es decir, en el momento en que el Sol
estaba sobre Siena de modo que el fondo de un pozo sea iluminado totalmente por los
rayos solares, en Alejandría se realizó la medición de la sombra proyectada por una
varilla vertical, denominada “s” y de altura conocida llamada “h”.
La distancia entre ambas ciudades “d” fue estimada en 5.000 estadios, a partir del
tiempo que demandó el viaje entre ambas poblaciones (50 días en camello). Por lo que
Eratóstenes, a partir de la relación s/h multiplicada por la distancia “d” calculó el radio
de la circunferencia de la Tierra, que fue bastante aceptable si se consideran los medios
de aquella época. La discrepancia no llegó a ser más de 600 km en la longitud de
circunferencia, que es de unos 40.000 km.
Hasta principios del siglo XVII no se mejoraron los resultados de Eratóstenes.
Todos sabemos que la Tierra atrae cualquier objeto con una aceleración que es igual
para todos (*). Esa aceleración es lo que llamamos “gravedad”.
(*) Nota: La gravedad actúa de la misma manera en cualquier objeto en un mismo lugar,
no se está expresando que la gravedad es constante en todo el globo.
20
La ley de gravitación universal dice que todo pasa como si dos partículas materiales se
atrajeran con una fuerza de dirección coincidente con la de la recta que las une y de
intensidad inversamente proporcional al cuadrado de la distancia que las separa.
mm
F G
r2
Si la Tierra fuera fluida y sólo se aplicara la ley de la atracción gravitacional, sería una
esfera perfecta. Si embargo, desde la época de Newton, se han deducido muchos
elementos sobre su forma. Newton añadió el elemento de la fuerza centrífuga: cuando
un cuerpo gira, tiende a lanzar todo hacia fuera, en dirección contraria a la atracción
centrípeta de la gravitación.
mv 2
Fc
r
Como esta fuerza hacia fuera es mayor en el ecuador terrestre que en los polos, la Tierra
se ensancha hacia fuera en el ecuador y tiene una forma aplanada.
Por otra parte, en el siglo XVII, Cassini conduce equivocadamente a la conclusión de
que la Tierra es un elipsoide alargado de revolución. Se produce entonces una fuerte
controversia entre ambos científicos.
21
También se han hecho grandes esfuerzos para medir la aceleración de la gravedad por
medio de péndulos y balanzas de resorte refinadas.
Con esos sistemas de medición hemos deducido muchos datos sobre la forma de la
Tierra, además del hecho de que sea sencillamente el elipsoide de revolución que
Newton dedujo que sería la forma de un cuerpo fluido bajo las influencias combinadas
de la atracción gravitacional y de la fuerza centrífuga debida a la rotación.
Por consiguiente, es muy apropiado definir más precisamente lo que se quiere decir con
su forma.
Geoide: La Tierra tiene un límite exterior bastante vago y, si queremos una forma
definida que sea razonablemente precisa, no tendremos en cuenta su atmósfera. Esto nos
deja dos alternativas evidentes para el límite terrestre exterior: la superficie de las rocas
y la superficie del mar, llamadas litosfera e hidrósfera. Ordinariamente consideramos las
alturas de las montañas como un exceso o sobrante de materia y las profundidades de
los océanos como una deficiencia de ella, pero en el siglo XIX, mientras se hacía un
mayor número de medidas de la dirección de la gravedad, con ayuda de la triangulación
y de las observaciones astronómicas, y de la intensidad de la gravedad, con mediciones
de péndulos, se comprobó que el efecto de las montañas sobre la dirección e intensidad
de la gravedad, no era tan grande como se creía por el tamaño y forma de las montañas
y la densidad de las rocas.
El geodesta francés Pierre Bouguer observó ese fenómeno en el siglo XVIII, y desde
entonces, casi en todo el mundo se ha comprobado que, cuando hay un gran exceso de
materia en la superficie terrestre, parece quedar compensado con una deficiencia de
masa en alguna gran profundidad de la misma. Parece que esa “compensación” ocurre a
profundidades del orden de unas cuantas decenas de kilómetros. La disposición de la
corteza sugiere aproximadamente, la situación de un témpano flotante de hielo: ese
témpano tiene una deficiencia de masa en la porción que queda debajo del agua, que
corresponde exactamente a la masa de la pequeña parte que sobresale de ella. Ese
equilibrio de excesos y deficiencias se conoce con el nombre de isostasia y es una
característica fundamental de la corteza terrestre.
Por consiguiente, debido a la existencia de la isostasia, es más significativo escoger o
definir como forma externa de la Tierra, no a la superficie de las rocas, sino algo que
exprese mejor la distribución de la materia o de la masa: en otras palabras, una
superficie definida por una atracción gravitacional.
Esa superficie sube y baja debido a las mareas producidas por el Sol y la Luna, así que
escogemos el nivel intermedio del mar. Manifiestamente, la gravedad no cesa a la orilla
del océano, sino que continúa en la Tierra y, por consiguiente, continuamos tierra
adentro esa misma superficie intermedia del nivel del mar normal con la aceleración
gravitacional.
Cuando empleamos de ese modo el promedio del nivel del mar, normalmente se le
llama “geoide”.
22
A medida que extendemos el geoide a través de los continentes, encontramos el
problema de que hay algunas masas que quedan fuera del mismo: la tierra que queda
sobre el nivel del mar. Esa masa afectaría la aceleración de la gravedad y, a su vez ésta
afectaría el geoide. Como no se conoce exactamente la densidad de las rocas, no
podemos determinar con precisión el geoide. El refinamiento de la definición del geoide
requerido por ese problema es un tema de gran controversia entre los geólogos más
inclinados a las matemáticas. El hecho importante es que si pudiéramos extrapolar las
distancias relativamente cortas del geoide a un equipotencial que cubriera por completo
la masa significativa de la Tierra, y luego definir completamente la forma de ese
equipotencial que la envuelve, de ese modo conoceríamos completa y exactamente la
atracción gravitacional de la Tierra en cada punto que queda fuera de ella a través del
espacio.
Se necesitaba alguna forma de alejarse de la Tierra para echar una ojeada general, una
manera de deducir esas variaciones mejor que el análisis de las mediciones
gravimétricas, las cuales incluyen muchos estorbos debidos a variaciones locales, como
son las altas y bajas causadas por las montañas y otros pequeños accidentes.
El instrumento evidente se encontró hace algunos años, en forma de satélites artificiales,
que giran alrededor de la Tierra en órbitas determinadas por su campo de gravedad.
Naturalmente, las órbitas de los planetas y satélites fueron los datos principales que
hicieron que Newton formulara su ley de la atracción gravitacional.
Para la geodesia, los satélites pueden considerarse como objetos que caen y cuyas rutas
de caída se emplean para medir el campo de gravedad de la Tierra.
El interés científico de esa imagen del geoide es que las variaciones correspondientes de
la atracción gravitacional significan que, en alguna parte del interior terrestre, tiene que
haber variaciones de densidad, que a su vez, indican cierto tipo de diferencias de
tensión.
Las irregularidades de densidad causan variaciones en la atracción de la masa terrestre,
porque a su vez, esas irregularidades causan variaciones en la atracción de las rocas que
tiende a partirlas. La figura a la que referimos nuestro geoide fue la de un elipsoide de
revolución bien ajustado, es decir una ficción matemática muy conveniente para los
cálculos. Si tuviéramos que escoger una figura de referencia más geodésicamente
23
significativa, sería la forma de un fluido giratorio con la misma masa, radio, momento
de inercia y proporción de rotación que la Tierra. Esa forma difiere de la que se ajusta
mejor a la Tierra en sentido matemático, más o menos en un orden del doble de
cualquiera otra variación del campo de gravitación.
***
Cartografía
Es decir que además del elipsoide de referencia sobre el que se proyectaban los puntos
del terreno y se calculaban sus coordenadas geodésicas, para poder representar esos
puntos sobre un plano necesitamos otra superficie de referencia desarrollable sobre la
que a su vez se proyectarán los puntos del elipsoide, siguiendo una determinada relación
matemática bien definida por el sistema de proyección cartográfico elegido.
Se distinguen tres superficies sobre las cuales se realizan las proyecciones cartográficas,
ellas son:
Proyecciones Cónicas.
Proyecciones Desarrollables
Proyecciones Cilíndricas.
24
Proyecciones Acimutales:
Se coloca un plano tangente al elipsoide, y se hace incidir una fuente luz desde el
interior del elipsoide sobre la retícula de meridianos y paralelos, y ésta será proyectada
sobre el plano dando lugar a alguno de los tipos de proyecciones acimutales, en función
de la ubicación del haz de luz.
Proyecciones Desarrollables:
Las proyecciones desarrollables son aquellas que se realizan sobre la superficie de un
cono o cilindro y luego se procede a “cortarlos por su generatriz dando lugar a un
plano.”
Las cilíndricas se efectúan sobre un cilindro tangente (o secante) al elipsoide, puede ser
tangente al ecuador, en este caso se denomina proyección cilíndrica normal (el eje del
cilindro coincide con el eje de rotación terrestre) o puede ser tangente a un meridiano, se
denomina proyección cilíndrica Transversa (el eje del cilindro es perpendicular al eje de
rotación terrestre).
Según la ubicación del cilindro se obtendrán diversas variantes de la proyección.
25
Al realizar cualquiera de estas proyecciones desde el elipsoide a un plano,
inevitablemente se están cometiendo deformaciones, el tipo de deformación que se
comete también es motivo de una clasificación:
Proyecciones Conformes:
En este tipo de proyección se busca conservar los ángulos (las formas), las áreas se
agrandan proporcionalmente con la superficie.
Proyecciones Equivalentes:
En este tipo de proyección se conserva la superficie de la figura, pero se pierde la forma
de la misma.
Proyecciones Equidistantes:
La propiedad que tiene esta proyección es preservar las distancias de un punto a otro,
pero no entre todos los puntos entre si. Ejemplo podría mantenerse la distancia sobre un
paralelo.
Nota de importancia:
En la mayor parte de los casos se ha decidido por las proyecciones conformes y existe
una tendencia mundial por la conocida como transversa de Mercator. De ésta,
básicamente encontramos dos tipos la UTM (Universal Transversa Mercator) y Gauss
Krüger como se la denomina en la Argentina.
26
Las proyecciones UTM y la Gauss Krüger toman como base a la Proyección
conforme Mercator, es decir que mantienen las formas, pero producen
deformaciones lineales que aumentan rápidamente con la distancia al meridiano
de contacto entre el elipsoide y el plano de proyección (en UTM el contacto se
efectúa en dos rectas ya que el cilindro es secante, y en Gauss Krüger en una recta
debido a que el cilindro es tangente).
Debido a este problema y con el propósito de limitar las deformaciones, se crearon fajas
con extensión de 6 grados sexagesimales para UTM y de 3 grados sexagesimales para
Gauss Krüger. Para cada una de ellas se utiliza un cilindro diferente, de esta manera las
distancias a representar se acotan y con ellas las deformaciones.
***
UTM (Universal Transversa Mercator):
Gauss Krüger
Esta proyección al igual que UTM es “cilíndrica conforme”, en este caso el cilindro es
tangente a la superficie de la tierra. La tangencia se produce en el meridiano central,
sobre éste no hay deformación lineal, pero ella aumenta a medida que se aleja de éste.
En Gauss Krüger se divide la superficie elipsoidica en ciento veinte (120) fajas,
equiespaciadas en tres grados (3º) sexagesimales.
En particular, en la República Argentina se divide en siete (7) fajas meridianas de tres
grados (3º) de ancho cada una, con meridianos centrales en las longitudes 72º, 69º, 66º,
63º, 60º, 57º, 54º al oeste Greenwich.
***
27
Luego de haber definido estas ciencias, procederemos a definir aquellos conceptos
que consideramos de importancia, para entender e interpretar las temáticas
desarrolladas más adelante.
***
Coordenadas
Las coordenadas son valores numéricos que permiten ubicar una entidad en un espacio
dado (lineal, planimétrico, espacial, etc.) y poder vincularlas con otras entidades. Los
diferentes sistemas de referencia asignarán distintos tipos de coordenadas.
28
Ondulación del geoide: la diferencia entre la altura elipsoidal (h) y la altura ortométrica
(H) se denomina altura geoidal (N) u ondulación del geoide.
N=h–H
Nota importante:
***
En los levantamientos topográficos son utilizados estos tipos de sistemas, que consisten
en una terna ordenada de ejes cartesianos con origen planimétrico en un punto arbitrario
de la superficie terrestre.
El eje Z coincidente con la dirección de la vertical del lugar, es decir, normal a la
superficie de nivel que pasa por el instrumento. El eje X orientado hacia el Norte y el
eje Y normal respecto al anterior.
Al estacionar y verticalizar el instrumento, la dirección de la plomada materializa la
vertical del lugar, coincidente con la dirección de la fuerza de atracción de la gravedad
en dicho punto. De esta manera queda materializado un plano horizontal de referencia,
el cual es perpendicular al eje vertical y tangente a la superficie de nivel que pasa por el
instrumento.
Se debe recalcar que estos sistemas solo tienen alcance dentro de un espacio geográfico
o región, ya que son homogéneos solamente en las proximidades del punto
fundamental, en donde el Geoide y Elipsoide son tangentes o paralelos, pero a medida
29
que nos alejamos de dicho punto, aumenta o disminuye considerablemente la separación
entre ambas superficies de referencia.
Por esta razón, los sistemas así definidos fueron utilizados por países permitiendo
llevar adelante todos los proyectos en sus territorios pero sin poder vincularlo con los
proyectos de los demás países.
Dicho de otra manera, está definido por la elección de un elipsoide de referencia y por
un punto origen (datum) en el cual se establece su ubicación en relación con la forma
física de la tierra (geoide). El punto datum es aquel que hace coincidir la vertical del
lugar con la normal al elipsoide, esto significa que existe una desviación de la vertical
nula y generalmente se establece la condición de tangencia entre el elipsoide y el
geoide.
***
Sistemas de Referencia Globales
Nota: por parte nuestra creemos importante mencionar que en varios informes o notas,
la definición de marco de referencia hace mención a que éste es la materialización del
sistema de referencia, concepto que es errado o en todo caso contradictorio, ya que lo
que se materializa no es el sistema en sí, sino algunos puntos representativos y/o
pertenecientes al mismo.
30
Sigue la elección de una estructura física; ello consiste en identificar al conjunto físico
que verifica la definición ideal. La propiedad general enunciada para el sistema de
referencia ideal debe verificarse con la mayor aproximación posible. En esta etapa
hablamos de sistema de referencia propiamente dicho.
Una vez identificada la estructura, es necesario modelizarla; ello se logra asociando un
cierto número de parámetros que permitan modelizar matemáticamente las propiedades
físicas de la estructura. En general estos parámetros se ajustan para los objetos de una
estructura física particular, y de alguna manera, sus valores en el modelo son arbitrarios.
Ahora tenemos al sistema de referencia convencional.
Finalmente, se llega a la necesidad de acceder al sistema mediante su materialización o
realización. Ajustando los parámetros del modelo a las observaciones, se obtienen las
posiciones y los movimientos de un conjunto de puntos del modelo. Las posiciones así
determinadas en función del tiempo constituyen el marco de referencia donde en cada
instante se conocen las coordenadas en el sistema de referencia convencional. La
posición y movimiento de cualquier otro objeto se determinara utilizando como
referencia las posiciones de puntos conocidos del marco de referencia. Ahora se tiene al
marco de referencia convencional.
Puede suceder que el número de puntos de este último marco no sea suficiente o que no
tenga la distribución adecuada para todas las aplicaciones prácticas. El marco de
referencia puede no ser accesible a todo tipo de instrumento. Se requiere entonces de
extensiones del marco de referencia convencional, para lo cual deben determinarse las
posiciones en función del tiempo de nuevos puntos con respecto a los del marco de
referencia convencional. Se trata de marcos de referencia secundarios, que según las
necesidades pueden ser de tipos variados.
***
Tipos de coordenadas:
31
Además, ellas pueden estar expresadas en un determinado marco de referencia, también
hemos mencionado que existen otros tipos de coordenadas las utilizadas por la
cartografía que nos permiten plasmar en una carta o mapa un sector de la superficie de
la tierra.
El hecho de contar con esta información hace posible utilizar parámetros matemáticos
que nos permitan pasar de coordenadas cartesianas geocéntricas a elipsóidicas, o bien
pasar de coordenadas cartesianas en el marco CAI 69 a coordenadas cartesianas en el
marco POSGAR 94 y de esta manera poder vincular información.
***
***
32
Si las coordenadas pertenecen a distintos marcos de referencia se necesitan de siete
(7) parámetros que nos permiten pasar de un marco al otro, ellos son:
Creemos que este tema es muy importante, debido a que la agricultura de precisión se
trata de vincular información y ello será posible sólo mediante un adecuado manejo de
las coordenadas.
En este trabajo solo hacemos mención de la manera en que pueden aparecer las
coordenadas y que se puede ir de un lado a otro mediante el uso de transformaciones,
pensamos que no vale la pena ahondar en el tema, es decir realizar las justificaciones
matemáticas que nos permiten pasar de un marco a otro, o pasar de coordenadas planas
como podría ser Gauss Krüger a coordenadas cartesianas geocéntricas, ya que de
realizar la justificación pertinente nos haría perder el foco del trabajo, quizás
desarrollando conceptos matemáticos que no tienen relevancia para este trabajo.
***
Teledetección:
33
Usuario final: encargado de analizar el documento fruto de la interpretación así
como dictaminar sobre las consecuencias que de él deriven.
c= λ ν
Q=hν
Q= h (c/ λ)
34
Onda electromagnética.
El ojo humano sólo es capaz de detectar sólo las ondas que pertenecen al denominado
“espectro visible”, esta es la región comprendida por las longitudes de ondas en donde
es máxima la radiación solar, en esta región suelen distinguirse 3 bandas:
Pero la teledetección nos permite “ver cosas” que nuestros ojos no son capaces de ver,
haciendo una analogía a nuestra capacidad visual, la teledetección posee ojos con una
“capacidad visual” o “un espectro visible” que le permiten detectar las siguientes
longitudes de onda:
Según lo que se desee estudiar será la parte del espectro a utilizar ya que los distintos
tipos de cubierta terrestres tienen un comportamiento diferenciado en cada una de las
bandas. Es preciso conocer estos comportamientos para realizar una adecuada elección
de bandas según sea el fin del trabajo a realizar.
35
CAPÍTULO III
36
G.N.S.S
“¿Por qué esta magnífica tecnología científica, que ahorra trabajo y nos hace la vida
más fácil, nos aporta tan poca felicidad? La repuesta es está, simplemente: porque aún
no hemos aprendido a usarla con tino”.
37
Un Sistema Global de Navegación por Satélite es una constelación de satélites
artificiales que transmite rangos de señales utilizados para el posicionamiento y
localización en cualquier parte del globo terrestre, ya sea en tierra, mar o aire. Éstos
permiten determinar las coordenadas geográficas y la altitud de un punto dado como
resultado de la recepción de señales provenientes de constelaciones de satélites
artificiales de la Tierra para fines de navegación, transporte, geodésicos, hidrográficos,
agrícolas y otras actividades afines.
***
NAVSTAR-GPS
38
denominado mensaje de navegación, limitando el acceso a uno o más componentes de la
señal, alterando el estado de los relojes, degradando la precisión.
De todas maneras el acceso a las señales que emiten los satélites es de carácter público,
no requiriéndose licencia o autorización alguna.
El tiempo GPS está definido por el reloj atómico de Cesio de la estación de control
Maestra. El origen de la escala de tiempo GPS se fijó coincidente con el UTC (Tiempo
Universal Coordinado), a las 0 hora del 6 de Enero de 1980, la unidad del UTC es el
segundo atómico, pero está sometido a periódicos reajustes a causa del movimiento
irregular de la tierra, razón por la cual la diferencia entre tiempo GPS y UTC, que se fijó
en 0 segundos en 1980, se fue modificando siendo en enero de 2005 de 13 segundos.
Una unidad de tiempo utilizada por el sistema es el número de semanas GPS (NSGPS)
equivalente a 604800 segundos. La cuenta de la semana GPS comenzó con el origen de
la escala de tiempo GPS. Cuando se completó la semana 1023 la NSGPS se reinicializó,
es decir, la medianoche del 21 de agosto de 1999 se comenzó a contar nuevamente
desde 0.
Segmento control
Las funciones principales del segmento control, denominado internacionalmente con las
siglas OCS (Operational Control Segement) son:
Las estaciones de monitoreo tienen coordenadas conocidas con gran precisión y están
equipadas con receptores GPS de doble frecuencia L1/L2 y un reloj de cesio. Su función
39
es determinar las distancias a cada uno de los satélites visibles y transmitirlas a la
estación de control maestra junto con los datos meteorológicos de cada estación.
Con los datos recibidos de las estaciones monitoras, la estación maestra ubicada en la
base de la fuerza aérea Schriever en el estado de Colorado, calcula los parámetros
orbitales y los de los relojes y posteriormente los transmite a las antenas terrestres que
los transfieren a los satélites a través de un enlace vía banda S.
Segmento usuario
Está constituído por los instrumentos utilizados para recepcionar y procesar la señal
emitida por los satélites. Estos instrumentos están integrados esencialmente por una
antena y un receptor, un equipo complementario es utilizado en ocasiones para transferir
datos entre receptores. Posee además un oscilador de cuarzo que permite generar la
frecuencia de referencia para realizar la observación. Cuenta con un microprocesador
interno con un software correspondiente que calcula las coordenadas de la antena y la
velocidad y acimut si el aparato esta en movimiento. Los equipos están en continuo
desarrollo y su evolución es comparable a la experimentada en informática durante las
últimas décadas para los ordenadores personales.
Información que brinda el receptor:
Satélites localizados.
Satélites en seguimiento.
Según la precisión con que se pueden obtener los resultados, podemos clasificarlos en
receptores: GEODESICOS - TOPOGRAFICOS – NAVEGADORES.
***
40
GLONASS
El sistema Ruso GLONASS fue desarrollado desde principios de los años 70 por el
entonces Ministerio de Defensa Soviético. Es similar en muchos aspectos al GPS,
también presenta diferencias. Los planes de GLONASS permiten proporcionar dos
servicios: el CSA (Channel of Standard Accuracy) disponible para uso civil y el CHA
(Channel of High Accuracy) para uso autorizados.
El GLONASS CSA fue aceptado desde 1996 por la Organización Nacional de Aviación
Civil.
Sector control: la central se encuentra en Moscú y tiene una red de seguimiento
y control ubicada en todo el territorio Ruso. Las mismas, como en GPS deben
seguir y vigilar el estado de los satélites, determinar efemérides y errores de los
relojes.
La información de las efemérides no reúne las condiciones adecuadas para los trabajos
de gran precisión. Esto y la cantidad de satélites, es la principal limitante de este sistema
respecto a GPS.
Sector usuario: los receptores tienen características similares a los de GPS. En el
mercado existen marcas y modelos con capacidad de recibir señales de ambos
sistemas. Así el usuario podrá tener acceso a un sistema combinado con mayor
cantidad de satélites, para ello es necesario conocer sus posiciones en el mismo
sistema de referencia y establecer la relación entre las dos escalas de tiempo.
41
Actualidad: En el 2009 concluirá el despliegue del Sistema Global de Navegación por
Satélite (GLONASS) desarrollado por Rusia, y a partir de entonces los usuarios del
mundo entero tendrán acceso gratuito a los datos que proporcionarán los 24 satélites
de navegación.
***
SISTEMA EUROPEOS
Según la comisión Europea los sistemas GPS y GLONASS presentan una serie de
limitaciones técnicas e institucionales que se pueden resumir en:
a) No satisfacen todos los requisitos de navegación exigidos por la Aviación Civil,
y como consecuencia de ello, su uso adolece de una serie de restricciones y en
la práctica se limita a las fases de vuelo menos exigentes
b) Están bajo control militar por lo que, en conflicto bélico la disponibilidad del
servicio no está asegurada.
c) No existe ningún tipo de garantía legal o de seguridad sobre el funcionamiento
de los sistemas.
Siguiendo las recomendaciones emitidas en 1992 por el comité FANS (Future Air
Navigation Systems) de la OACI, la implantación del GNSS se aborda en dos etapas,
que se denominan GNSS-1 y GNSS-2.
GNSS-1: las aumentaciones tiene un objetivo doble: en primer lugar mejorar las
prestaciones de GPS y/o GLONASS y, en segundo lugar, posibilitar la definición de un
marco legal e institucional de uso del que carecen hoy día. Se han contemplado tres
posibles tipos. Uno de estos es SBAS (Satellite Based Augmentation System) definida
como “sistema de aumentación de cobertura amplia en los cuales el usuario recibe la
información de aumentación a través de un transmisor embarcado en un satélite”, que
proporciona importantes servicios, por ejemplo información relativa al estado de
42
funcionamiento y calidad de las señales emitidas por todos los satélites GNSS-1. En la
actualidad existen tres iniciativas a nivel mundial de implantación de sistemas SBAS:
EGNOS en Europa, WAAS en Estados Unidos y MSAS en Japón.
***
GALILEO
Galileo es la iniciativa de la Unión Europea y la Agencia Espacial Europea, que
acordaron desarrollar un sistema de radionavegación por satélite de última generación y
de alcance mundial propio, que brindara un servicio de ubicación en el espacio preciso y
garantizado, bajo control civil.
43
BEIDOU
Beidou es el nombre del GNSS desarrollado por China para su propio sistema de
navegación. Actualmente está en fase de proyecto.
IRNSS
***
44
GPS (Posicionamiento Satelital)
Obtención de coordenadas
El problema de la pirámide
Para determinar la posición de un punto en el espacio, es suficiente conocer las
distancias a tres puntos de coordenadas conocidas. Se trata de una intersección espacial
inversa. Es un problema geométrico relativamente simple, más allá de las dificultades
que su cálculo suponga. Se trata en definitiva de una pirámide de base triangular.
Desde el punto de vista geométrico el problema tiene dos soluciones, pero es fácil elegir
la correcta, puesto que la otra esta ubicada a unos 40000 km de la superficie terrestre.
El punto P se corresponde con la intersección entre las tres esferas que tienen por radios,
respectivamente, las distancias entre cada satélite y el punto P
Posicionamiento mediante código C/A
Cuando se diseñó GPS se estableció que el código C/A (código de adquisición común)
fuera de libre adquisición, es decir no reservado para uso militar.
El problema a resolver es MEDIR LAS DISTANCIAS entre satélites y receptor. Para
ello vamos a utilizar el llamado código C/A.
Recordemos el método aplicado en los distanciómetros electrónicos: el aparato emite
una onda homogénea de frecuencia conocida, la cual se refleja en un prisma colocado
en el otro extremo del segmento a medir; el rebote es recibido por el aparato, el cual
mide el desfasaje, lo convierte en tiempo y por lo tanto en distancia equivalente.
Dejamos de lado aspectos particulares de la distanciometría electrónica que no vienen al
caso.
En GPS la medición es de vía única, es decir no hay reflexión. Debe medirse el tiempo
necesario para que la señal recorra la distancia satélite-receptor. Puesto que se trata de
medir tiempos es necesario contar con “relojes” adecuados tanto en los satélites como
en el receptor.
En realidad son instrumentos que distan mucho de la noción usual de un reloj. Se trata
de osciladores de frecuencias muy estables capaces de señalar medidas de tiempo del
orden de 10-13 segundos (o 10-14) en los satélites y 10-8 segundos en los receptores.
45
Supongamos un satélite en particular:
Al código lo podemos imaginar como una serie de ceros y unos, o bien de (+1) y (-1),
en un cierto orden. Al multiplicar la onda portadora por el código, aquella no se altera
cuando se encuentra con los (+1), pero se invierte donde aparecen los (-1). Todo ello da
como resultado una onda deformada, un seudo ruido aparentemente aleatorio, que es lo
que llega al receptor.
Cada satélite cuenta con un código C/A diferente, lo que genera una modulación
especifica de la señal, propia y exclusiva de ese satélite
De tal modo se obtiene un PRN (ruido seudo aleatorio) distintivo de ese satélite
Si queremos hacer analogía gráfica podríamos decir que es un “dibujo”
característico de ese satélite.
Pero además, ese “dibujo”, va asociado al tiempo; se repite cada milisegundo y le
corresponde un instante determinado para comenzar cada repetición; ese instante no
puede ser cualquiera, debe ser común a todo el sistema.
Medición de la distancia
Cada receptor tiene almacenada en su memoria las replicas de todos los PRN. Así
cuando recibe la emisión satelital puede efectuar el reconocimiento del satélite
correspondiente. A continuación, procesando la señal, recupera el código con el que fue
modulada y, a la vez, genera interiormente una replica del código recibido, pero
obviamente desfasado, puesto que el recibido debió “viajar” por el espacio, siendo
recibido como un “retardo”.
Código Transmitido
Código Recibido
Retardo
Código Local
Tiempo
TUC o TGPS
46
Relación entre código C/A, tiempo y distancia
Código completo 1 milisegundo = 10-3 segundos 300000 m
Un elemento (*) 1 microsegundo =10-6 segundos 300 m
Apreciación (**) 10 nanosegundos = 10-8 segundos 3 m
(*) Es la milésima parte del código completo.
(**) En la correlación entre el código recibido y el código local, se puede apreciar una
centésima parte de un elemento.
Pero se miden SEUDODISTANCIAS
Y ello es lógico porque la sincronización de los relojes (el del satélite y el receptor) no
puede ser perfecta. Para comprenderlo bastaría tan solo tener en cuenta la diferencia
existente entre la precisión que caracteriza al reloj del satélite y la del reloj del receptor.
La consecuencia de ello es que la distancia observada no es la real, sino un valor
próximo que difiere en una longitud d = c. (R) (donde c = es la velocidad de la luz).
δR Código Transmitido
Código Recibido
Range
Retardo
Código Local
Tiempo
TUC o TGPS
47
Ecuaciones de observación
Surge inmediatamente la ecuación posterior
S (satélite)
sd
δ
ρ
(posición) P
-Observación:
Para trabajar en 3 dimensiones (basta con) sistema de 4 ecuaciones
con 4 incógnitas.
Para trabajar en 2 dimensiones (basta con) sistema de 3 ecuaciones
con 3 incógnitas.
Precisión del posicionamiento
(sd + d)2 = (xs - xp)2 + (ys – yp)2 + (zs- zp)2 (III-1)
d
xp Incógnitas
yp
zp
xs
ys Datos
zs
sd Observación
48
Si tenemos en cuenta que:
a. La distancia que observa el aparato es en realidad la seudodistancia, pero
afectada por una serie de errores (cuyas causas se analizaran de inmediato)
Seudo distancia = distancia observada menos una sumatoria de errores
Sd = dobs - e
b. Los datos que tenemos sobre las coordenadas de los satélites (a través de las
efemérides) también están afectados por errores, puesto que las órbitas surgen de
mediciones y extrapolaciones.
xs = xst – exs donde xst significa coordenada transmitida
y exs el error de la misma
Reemplazando en (III-1), podemos expresar:
(dobs - e + d)2 = (xst – exs - xp)2 + (yst – eys – yp)2 + (zst – ezs - zp)2 (III-2)
Errores accidentales
En este caso surgen al medir mediante la técnica de correlación de los códigos. El
“ruido” propio de la medición es aquel medido por debajo del cual el instrumental no
puede efectuar determinaciones certeras, es decir expresa la incertidumbre propia de la
medición. Su tratamiento responde a los cánones clásicos; apelar a la “sobreabundancia”
de observaciones y a la búsqueda del valor más “probable”, mediante el cálculo llamado
49
de compensaciones o ajustes. La suma de (si se permite) “electrónica + informática”,
facilita efectuar y acumular un gran número de observaciones. Ello explica la
conveniencia de prolongar la medición por cierto lapso de tiempo a los efectos de
mejorar la precisión.
Factor de configuración
Recordamos que estamos tratando una intersección espacial. La precisión de la misma
depende tanto de la calidad de la medición como también de la configuración del
sistema. Veamos un ejemplo en intersección plana desde dos puntos. Midiendo las
distancias a dos referencias (puntos de coordenadas conocidas), podemos calcular la
posición del punto P en el plano.
A, B, C y D son puntos de coordenadas conocidas
B
P D
Es fácil ver, intuitivamente, que según sea el par de puntos elegidos para referenciar la
intersección, obtendremos resultados de diferente precisión. Es evidente que cuando los
puntos de referencia están muy próximos entre si (Ej. C y D) se obtiene una intersección
en P poco confiable.
En GPS, para efectuar la intersección espacial que nos brinda las coordenadas de la
antena del receptor, nos apoyamos en un grupo de satélites (en general 4 como mínimo),
lo que llamamos “la constelación”. Esos satélites están distribuidos en el espacio, en el
momento de la medición, de una determinada forma, que es lo que llamamos
“configuración”.
Si apelamos a la analogía con las mediciones terrestres, los satélites juegan el papel
tradicionalmente desempeñado por los “puntos fijos”, lo que resulta paradojal, pues si
algo caracteriza los satélites es su movilidad permanente, es decir la incesante e
instantánea variación de coordenadas.
50
Pero eso explica porqué es conveniente prolongar las observaciones durante cierto
tiempo. De ese modo, manteniendo la constelación, cambia la configuración, es decir no
estamos tan solo reiterando la medición anterior, sino efectuando una medición distinta,
con “otros puntos fijos”, lo cual es muy importante para mejorar la precisión de los
resultados.
En GPS la influencia de la configuración se expresa matemáticamente mediante un
factor, del siguiente modo:
σP = σd . DOP
Donde: σP: desvío estándar en la posición obtenida.
σd: desvío estándar en la medición de las distancias.
DOP: factor de dilución de la precisión.
“En definitiva, se puede obtener una precisión del orden de los 15 metros, con un
solo receptor, efectuando una sola observación, con resultado instantáneo y en el
95% de los casos”.
***
51
Maneras de posicionamiento (autónomo estático, móvil; fase, estático, móvil) cada
uno con sus precisiones
Posicionamiento con código C/A:
Posicionamiento absoluto: cuando hablamos de posicionamiento absoluto nos referimos
al caso de un solo receptor operando en modo autónomo, es decir, la función típica de
navegación, calculando las coordenadas del receptor sobre la superficie terrestre en base
a las mediciones de distancia que realiza a los satélites visibles y mostrando estas
coordenadas sin ningún tipo de corrección, en el display del receptor (con un intervalo
de actualización que se puede prefijar)
Podemos distinguir dos modos de operación estático y móvil:
Estático: el modo estático significa que el receptor permanece estacionado sobre
el punto del que se quieren conocer las coordenadas durante un lapso de tiempo,
que pueden ser algunos minutos; si este receptor se encuentra calculando
posiciones (coordenadas) tendremos, para la solución en tres dimensiones, un
sistema de 4 ecuaciones con 4 incógnitas por cada instante de actualización en la
toma de datos, (si se observaran mas de 4 satélites, tendremos sobreabundancia
de observaciones). La posición final, coordenadas del punto estación,
corresponde al promedio de todas las posiciones calculadas.
Móvil: el modo móvil está relacionado con el uso del receptor en movimiento,
en este caso tendremos soluciones instantáneas en tres dimensiones para cada
momento de toma, que no corresponden al mismo punto (el receptor se está
moviendo). Tendremos formado un sistema de 4 ecuaciones con cuatro
incógnitas por cada toma (y sobreabundancia si se observaran más de 4
satélites), que nos dará las coordenadas del punto en que se ubica el receptor a
cada instante, siendo esta la solución típica de navegación, de modo que esta
sucesión de puntos describe la trayectoria seguida por el receptor.
Precisiones
Con estos métodos de operación la precisión general alcanzable en las coordenadas de
los puntos será mejor que 10 metros en horizontal y 15 metros en vertical, en el 95% de
los casos (que es la caracterización oficial del Servicio de Posicionamiento Standard).
Esta precisión se alcanzaba desde el origen del sistema, hasta que fue implementada la
SA (Selective Avaliability), en marzo de 1990 cuando deliberadamente se degradó la
precisión, hasta su desactivación el 1 de mayo del 2000.
Durante el período que estuvo activada la SA se lograba una precisión en la posición
horizontal (bidimensional) del orden de 100 metros, para un usuario aislado, en el 95%
de los casos.
Posicionamiento diferencial:
Se colocan dos receptores no muy alejados entre si, de manera tal que ambos realicen
observaciones a los mismos satélites. El principio de la técnica de posicionamiento
diferencial se basa en que los errores en la propagación de la señal (ionósfera,
tropósfera) afectan de manera similar a las dos estaciones, esto es así porque la distancia
entre receptores es muy inferior a la distancia satélite-receptor.
Los errores en cada satélite (reloj, órbita) son comunes para ambas estaciones.
52
La técnica de corrección diferencial utiliza estas características para eliminar las
influencias de estos errores en el cálculo de las coordenadas de la segunda estación
(remota) a partir de conocerlos en la primer estación (base), de la que se conocen sus
coordenadas.
De modo que, si para cada posición calculada por la estación base asignamos un vector
error y luego lo aplicamos, cambiado de signo, a la posición calculada en la estación
remota, tendremos las posiciones corregidas.
Debe tenerse en cuenta que esta técnica no elimina todos los errores que influyen en el
posicionamiento satelital, ya que quedan los errores propios de cada estación, el
Multipath y la propia correlación de cada receptor. Y, disminuyendo la precisión
general del posicionamiento, nos afectará el PDOP de la configuración utilizada, que
incluye constelación y estación
Esta técnica de corrección diferencial puede aplicarse de varias formas:
Corrección de la posición (o diferencias de coordenadas): en este caso cada
posición calculada por el receptor base en función de la medición de distancia a
4 satélites y señalada en el tiempo GPS, es comparada con las coordenadas,
conocidas de antemano, de la estación base.
Para cada una de las posiciones se calcula el vector error y se aplica, con signo opuesto,
a la posición correspondiente al mismo tiempo GPS, calculada por el receptor remoto.
Como restricción de este método establecemos la necesidad de observar los mismos
satélites en ambas estaciones, ya que el cálculo de la posición estará influido por los
errores correspondientes a cada satélite y para que se eliminen diferenciando deben ser
los mismos en ambas estaciones.
Corrección de distancias: otra forma de aplicación es la corrección de distancias
a los satélites (o corrección de las observaciones) en este caso se identifica en el
tiempo GPS, cada distancia calculada por el receptor base a cada satélite en
forma independiente.
Teniendo las coordenadas de la estación base conocidas, puede calcularse la distancia
“verdadera” entre el receptor y cada satélite en cada instante. Esta distancia “verdadera”
es comparada con la distancia calculada y la diferencia entre ambas corresponde al error
para ese satélite en ese instante, valor que cambiado de signo es aplicado a la distancia
calculada por el receptor remoto a ese satélite en ese instante.
Para cada juego de distancias corregidas, se calcula en el receptor remoto, una posición
correspondiente a ese instante.
Este método resulta más flexible respecto de los satélites que utiliza cada receptor, ya
que al separar el cálculo de las correcciones para cada satélite, no es necesario que sean
estrictamente los mismos los que observan el base y el remoto, pero si debe haber por lo
menos 4 satélites comunes entre ambos.
53
Este es el método que se usa cuando se transmite la corrección en tiempo real.
Métodos de operación:
De esta manera y análogamente al posicionamiento absoluto encontramos dos métodos
de operación: estático y móvil
Modo estático: en este modo el receptor remoto es estacionando algunos minutos sobre
el punto que nos interesa relevar, haciendo mediciones de distancias a los satélites y/ o
calculando posiciones, almacenando estos datos en su memoria interna. Al cabo del
relevamiento de todos los puntos que interesan, se bajan los datos del receptor base y
del remoto a una computadora para realizar el post-procesamiento de las mediciones de
ambos y aplicar alguno de los métodos de corrección diferencial que permiten obtener
las coordenadas de los puntos relevados.
Como en todo posicionamiento estático es importante ya que podemos realizarlo,
trabajar con un PDOP bajo.
Modo móvil: el receptor remoto está en movimiento, calculando y almacenando
distancias y/o posiciones en su memoria interna.
Luego de terminado el proyecto a medir se bajan los datos y se efectúa el post-
procesamiento aplicando la corrección diferencial (posición o distancias), se obtiene
cada posición instantánea corregida, de esta forma, las coordenadas de la trayectoria del
receptor remoto constituirán la solución final.
Estas dos alternativas también pueden aplicarse en tiempo real contando con el
equipamiento adecuado.
Precisiones:
Las precisiones que caracterizan las mediciones con GPS en modo diferencial, en
función de las distancias entre las estaciones pueden verse en el cuadro que se adjunta.
Debe aclararse que en la actualidad y debido a las mejoras en los receptores y software
de post-procesamiento, los resultados que se obtiene pueden mejorar en algunos casos.
54
Aplicación de la corrección diferencial
Post-procesamiento
Este es el caso más simple de aplicación, es el ejemplo visto anteriormente, hablamos de
bajar los datos a una computadora y enfrentar las mediciones de ambos receptores,
realizando el post-procesamiento; vemos que los resultados se obtienen a posteriori de
un procesamiento en gabinete.
Este método puede aplicarse en forma “particular”, es decir un usuario que cuente con
sus dos o más receptores dejará uno estacionado en un punto de coordenadas conocidas
que actuará como “base” y otro (o los otros) recorrerán los puntos que interesan relevar.
Una alternativa se presenta a este método a través de la instalación de una Estación
Permanente GPS, esto es, un receptor GPS sobre un punto de coordenadas conocidas.
Esta estación almacena los datos de los satélites GPS durante las 24 horas y los pone a
disposición de los usuarios en forma de archivos por el lapso de tiempo que cada
usuario estuvo realizando mediciones, de esta manera cada usuario utiliza los archivos
del receptor base para aplicar la corrección diferencial a sus archivos tomados con su
receptor remoto.
Como ventaja de este sistema podemos enunciar la independencia de la estación base de
su estacionamiento y sus cuidados. Así también que el usuario necesita un equipamiento
mínimo compuesto por un solo receptor y en el caso de que contara con más receptores
todos actúan como remotos, aumentando la eficiencia del equipo de medición.
En este caso, de la utilización del sistema de estación permanente debe tenerse en
cuenta que se produce una pérdida de precisión en función de la distancia que separa el
receptor remoto de la estación base, cuando esta pasa a ser mayor de 100 Km
aproximadamente.
WADGPS
Esta es la sigla que corresponde al sistema Wide Area Diferencial GPS (GPS
diferencial de área amplia).
55
La idea básica de este sistema es la limitante principal de un sistema convencional
DGPS, que es la pérdida de precisión a medida que el usuario se aleja de la estación de
referencia; ya que los “errores” asumidos como iguales para la estación base y para el
usuario remoto dejan de serlo invalidando el razonamiento que nos permitía aplicar la
“corrección diferencial” generada en una única estación de coordenadas conocidas antes
mencionada.
La cuestión inmediata es que para hacer funcionar un sistema DGPS de área amplia
(WADGPS), será necesario incrementar el número de estaciones de referencias,
manteniendo una densidad suficiente para evitar la pérdida de precisión. En cuanto al
diseño del sistema y la transmisión de la corrección podemos definir básicamente dos
tipos de sistemas WADGPS:
Vía transmisión radial: estos sistemas operan transmitiendo las correcciones
diferenciales implementado de dos formas: a través de las redes de FM o bien utilizando
las señales de radio-faros de navegación.
En el caso de la transmisión vía FM, la modulación de las correcciones es producida en
sub-carriers de la onda de FM que transmiten las emisoras de radio de cada localidad y
permiten al usuario autorizado acceder a las correcciones a través de receptores tipo
pagers.
El formato utilizado para transmitir las correcciones es el RTCM-104.
Por detrás del conjunto de las estaciones radiales, está una red de estaciones de
referencia, encargadas de computar, validar, calcular correcciones y determinar los
parámetros que serán difundidos para las emisoras radiales.
DCI y ACCQPOINT ofrecen estos sistemas para el usuario en América del Norte y en
algunos otros lugares del planeta a través de una red de 450 estaciones FM.
Como vemos este sistema necesita una gran cantidad de antenas distribuidas por todo el
territorio al que se quiere brindar corrección diferencial, ya que el alcance de la
corrección FM está limitado a los 60-80 Km aproximadamente.
En este sistema el receptor de la corrección elige automáticamente la transmisión
correspondiente a la antena más cercana.
En el caso de los radio-faros las correcciones son moduladas sobre la misma señal que
es emitida por los radio-faros de navegación, fundamentalmente para los barcos que
navegan en zonas costeras, pero también pueden ser utilizados por otros usuarios en la
zona de cobertura.
En Argentina existe en funcionamiento comercial un sistema de este tipo, con dos
estaciones de transmisión (ubicadas en San Carlos Pcia. Santa Fe y Bolívar Pcia.
De Buenos Aires) dando cobertura a la zona agrícola, especialmente para la
aplicación de técnicas de “Agricultura de Precisión”
VIA INMARSAT
Para resolver el problema de la cobertura en la transmisión en los parámetros de
corrección en un sistema WADGPS se utilizan los satélites de comunicación
INMARSAT distribuidos de forma de permanecer geoestacionarios sobre el Ecuador
logrando una cobertura mundial con solo 4 o 5 satélites.
56
Este sistema permite a la vez otra ventaja y es la de necesitar de un pequeño número de
estaciones de referencia sobre puntos de coordenadas distribuidas geográficamente en el
área a ser cubierta pudiendo mantener la precisión en el posicionamiento.
Las experiencias que citan diferentes autores indican como suficiente un número de 3 a
4 estaciones de referencia en área de extensión como Estados Unidos y Europa.
Estas estaciones deben operar en forma permanente siendo una de ellas la que funciona
como Master recibiendo y procesando los datos de las demás.
De este modo los errores (error del reloj del satélite, error orbital, errores debidos al
atraso ionosférico) son modelados y la estación master transmite las correcciones en
tiempo real.
Los satélites de comunicación INMARSAT se utilizan para transmitir la corrección a
los usuarios y transmitir los datos entre las estaciones de referencia.
Podemos describir dos tendencias en cuanto a los métodos de modelar los errores en los
sistemas WADGPS. Por ejemplo en Nottingham (Inglaterra), los errores orbitales son
tratados a través de la sustitución de las efemérides transmitidas por los satélites GPS
por una nueva orbita computada a partir de técnicas de integración orbital
Y en Stanford (Estados Unidos), una de las estrategias adoptadas es la de invertir
geométricamente la solución de posicionamiento por satélites artificiales, computándose
correcciones tridimensionales a las posiciones de los satélites, a través del conocimiento
de las coordenadas precisas de las estaciones de referencia.
***
Las señales emitidas por los vehículos espaciales están caracterizadas por un cierto
número de componentes todas basadas en una frecuencia fundamental fo igual a 10,23
Mhz controlada por los osciladores atómicos que se encuentran abordo. Los satélites
trasmiten dos señales portadoras en la banda L, denominadas L1 y L2, las que son
generadas multiplicando a la frecuencia fundamental por un número entero, resultando
respectivamente las siguientes frecuencias
f1 =154 . 10.23 = 1575.45 Mhz
f2 = 120 . 10.23 =1227.60 Mhz
Las longitudes de ondas de estas portadoras serán respectivamente 19.05 cm. y 24.45
cm. Sobre las portadoras se sobreponen distintas modulaciones, por lo que las señales
integran un conjunto de componentes pudiéndose expresar por las siguientes ecuaciones
(Spilker, 1980).
L1 (t) = ap Pj (t) Dj (t) cos (f 1t) + ac Gj(t) Dj (t) sen (f1t) (v-1)
L2 (t) = bp Pj (t) Dj (t) cos (f2t)
En las expresiones (v-1), la fase cosenoidal de ambas portadoras es modulada por una
secuencia de pulsos conocida como código P y representada en la ecuaciones anteriores
con Pj(t), donde el subíndice j se refiere al satélite j-esimo. El código P genera un
algoritmo que se repite cada 267 días. Observado a lo largo de este período la secuencia
57
no presenta ninguna simetría, razón por la cual se denomina seudoaleatoria. La
frecuencia del código P es de 10,23 Mhz.
La fase senoidal de la portadora L1 es modulada por una secuencia de pulsos llamada
código C/A representada en la segunda ecuación por Gj(t). Este se repite cada un
milisegundo y tiene una frecuencia de 1,023 Mhz.
Los coeficientes ap , ac , bp , representan las amplitudes de los códigos P y C/A.
Además de los dos códigos, ambas fases de la portadora L1 y L2 son moduladas por una
secuencia de baja frecuencia representada en las ecuaciones por Dj (t). Esta contiene un
conjunto de informaciones necesarias para el usuario, conocido con el nombre de
mensaje de navegación.
Una vez que las señales llegan a los receptores GPS, son procesadas con el objetivo de
recuperar sus componentes. Dependiendo del tipo de receptor, estos podrán llegar a
reconstruir las ondas portadoras y extraer los códigos y el mensaje de navegación.
Observable ideal: en primer lugar se plantea idealmente que la portadora emitida por el
satélite y su réplica están perfectamente sincronizadas.
Si en un instante determinado se considera un satélite y un receptor GPS, la señal
emitida por el satélite llegará a la estación alterada por el efecto Doppler, es decir, la
frecuencia recibida en el receptor difiere de la frecuencia emitida en un monto que es
proporcional a la velocidad radial del satélite ρ’:
f (1- ρ’/c) = f – f ρ’/c = f - ρ’/ (V-5)
ρ: distancia geométrica entre el receptor y el satélite. ρ’: derivada de la distancia
geométrica respecto al tiempo.
f : frecuencia emitida por el satélite.
λ : longitud de onda.
58
Una interpretación geométrica de la medición con fase se muestra en la siguiente figura
donde Φ1 n2+ Φ2 y n3+ Φ3 son las cantidades medidas por el receptor (observables) en
la época t1 y t2 respectivamente.
S(t2)
S(t3)
S(t1)
N?
N?
N?
)
(t2
)
(t3
+
n2+
f(t1) n3
E1
Se tendrá entonces:
luego
' t0 )
t dt n (t0 )
0
y
(t0 )
n (t0 ) (V-7)
(t0 )
N (t0 )
59
Resulta
N n
Efectuando el reemplazo
n
Se obtiene la ecuación
N (V-8)
Donde:
N: es la ambigüedad correspondiente a un satélite observado desde una estación a
partir de una época.
Φ: el observable de fase
( x j xi )2 ( y j yi )2 ( z j zi ) 2
Donde las coordenadas del satélite j-esimo (xj , yj, zj) son valores datos que los provee
el sistema a través del mensaje de navegación.
Luego, la ecuación (V-8) contendrá para una época, un receptor y un satélite, cuatro (4)
incógnitas: las coordenadas del receptor i-esimo (xi , yi, zi) y la ambigüedad inicial
correspondiente al satélite mencionado N.
Resulta fácil deducir que en el caso de fase, a diferencia de lo que ocurre con código, si
se observa simultáneamente otro satélite se agregará una ecuación pero también se
adicionará otra incógnita: la ambigüedad correspondiente a ese satélite.
Por lo tanto para conformar un sistema donde el número de ecuaciones sea mayor o
igual al número de incógnitas, se tendrán que realizar observaciones que contemplen
más de una época. En general será valido que siendo
nj: número de satélites
nt: número de épocas
60
la ambigüedad inicial es provista por procedimientos de inicialización y esta
ambigüedad se mantiene para toda la sesión mientras el receptor ocupa diferentes
puntos.
Observable real
Como en toda medición de una magnitud física la medida de la distancia satélite-
receptor es influenciada por errores accidentales y sistemáticos que dependen de la
precisión con que se correlacionan las portadoras del satélite y el receptor (ruido), de
cierta imprecisión en las coordenadas de los satélites, de la desincronización de los
relojes del satélite y del receptor respecto del tiempo GPS, de los efectos de la
refracción en las capas atmosféricas que las señales de los satélites atraviesan, etc. Por
lo tanto a la ecuación ideal deberán adicionarse los términos que representen los errores.
Error de correlación o ruido: es el error de carácter accidental originado en el receptor al
producir la correlación o alineación de fases, más precisamente se puede decir que dicho
error dependerá de la precisión con que el receptor es capaz de determinar Φ. Teniendo
en cuenta que el error mencionado es del 1% de la longitud de onda y que la longitud de
las ondas de las portadoras son del orden de los 20 cm. tendremos que la potencialidad
de precisión del método es muy alta ya que en principio se puede hablar de precisiones
milimétricas.
Error en los relojes: el reloj del receptor y en menor medida el del satélite tienen una
diferencia respecto del tiempo GPS que se denominan respectivamente δ i y δj.
c
Como f Resulta:
N f f (V-11)
La ecuación de observación anterior incluye los términos correspondientes a los efectos
producidos por los errores en los relojes (satélite y receptor) y las alteraciones que se
producen en los tiempos de recorrido de la señal al atravesar la atmósfera. Aunque en la
ecuación (v-11) no se explicitan los errores orbitales, debe tenerse en cuenta que están
implícitos en ρ.
61
Posicionando puntos con fases de la portadora:
Adecuando la ecuación de observación (v-11) para el caso del satélite j-esimo, el
receptor i-esimo y el instante t se obtiene:
1
i , j (t ) N i , j i , j (t ) f j i , j (t ) f j i , j (t ) (V-12)
xB xA x AB
AB y B y A y AB
z B z A z AB
xB x A x AB
y y y (V-16)
B A AB
z B z A z AB
62
Diferencias de fase
Asumiendo entonces que se realizan observaciones simultáneas en dos puntos A y B a
dos satélites j y k, se pueden formar nuevas ecuaciones como combinación lineal de las
anteriores. A estás se las denomina simples diferencias, dobles diferencias y triples
diferencias de fase.
Los errores sistemáticos incluidos en la ecuación de observación original presentan una
fuerte correlación con las señales recibidas simultáneamente por diferentes receptores
desde distintos satélites. La utilización de las ecuaciones de diferencias de fases
mencionadas anteriormente utilizan estas correlaciones con el fin de lograr un aumento
en las precisiones, posibilitando en algunos casos la eliminación y en otros la reducción
de dichos efectos.
Simples diferencias
Se consideran dos receptores RA y RB ubicados respectivamente en los puntos A y B los
que en la época t reciben la señal proveniente de un satélite j
63
Donde:
AB , j (t ) B , j (t ) A, j (t )
AB , j (t ) B , j (t ) A , j (t )
N AB , j N B , j N A, j
AB (t ) B (t ) A (t )
AAB , j (t ) AAB , j (t ) AB , j (t )
64
La ecuación de simple diferencias para el satélite k será:
1
AB , K (t ) AB , K (t ) N AB , K f j AB (t ) f j AAB , K (t )
La diferencia de ambas ecuaciones utilizando además la notación abreviada
proporcionara la ecuación correspondiente de dobles diferencias.
1
AB , jk (t ) AB , jk (t ) N AB , jk f j AAB , j (t ) (V-18)
Donde:
AB , jk (t ) B , jk (t ) A , jk (t )
AB , jk (t ) B , jk (t ) A , jk (t )
N AB , jk N B , jk N A, jk
AB (t ) B (t ) A (t )
AAB , j (t ) AAB , j (t ) AB , k (t )
En este modelo se observa claramente que se han removido los errores provenientes de
los relojes de los receptores.
Teniendo en cuenta que las dobles diferencias se construyen a partir de simples
diferencias de fase, debe considerarse que ya se han eliminado los errores en los relojes
de los satélites y reducidos los efectos causados por la refracción atmosférica y los
errores de los parámetros orbitales, pudiendo considerarse que para bases pequeñas (por
ejemplo: < 25 km), los errores mencionados son virtualmente eliminados.
El número de incógnitas en el procesamiento de dobles diferencias son:
3 coordenadas
nj ambigüedades
Triples diferencias
Hasta ahora solo se ha considerado una época t. para eliminar la ambigüedad, que es
independiente del tiempo, Remondi (1984) propuso diferenciar las dobles diferencias
entre dos épocas t1 y t2 .
65
La ecuación de dobles diferencias (v-18) para la época t1 será:
1
AB , jk (t1 ) AB , jk (t1 ) N AB , jk f j AAB , jk (t1 )
La que corresponde a la época t 2 será:
1
AB , jk (t2 ) AB , jk (t 2 ) N AB , jk f j AAB , jk (t 2 )
Haciendo la diferencia de ambas ecuaciones se obtendrá la ecuación de triple
diferencias.
1
AB , jk (t1t2 ) AB , jk (t1t 2 ) f j AAB , jk (t1t2 ) (V-19)
Donde:
66
Resolución de las ambigüedades
En resumen, se puede decir que cuando se utiliza el observable de fase la precisión que
se pueda lograr es mucho mejor que lo que se logra con el uso de los códigos, pero
aparece el problema de las ambigüedades cuya resolución requerirá de tiempos de
observación mucho más prolongados y de procedimientos de medición y de cálculo
considerablemente más complejos.
Es importante en este punto tener en cuenta que la ambigüedad inicial inherente a la
medición con fase es un número entero y depende del par receptor-satélite. No habrá
dependencia del tiempo siempre que no haya pérdida de señal durante la sesión.
Dependiendo del tipo de ecuación de observación utilizada, en primer término, las
incógnitas (coordenadas, parámetros de los relojes, errores orbitales, etc.) son estimadas
junto con las ambigüedades en un ajuste común. En esta aproximación los errores no
considerados o defectuosamente modelados afectan a todas las incógnitas calculadas.
Por eso es que en la primera aproximación las ambigüedades resultantes no serán
enteros sino que resultaran números reales, por lo tanto las coordenadas obtenidas
constituyen lo que se denomina solución flotante.
A modo de ejemplo mencionamos un conjunto de pasos sucesivos necesarios para
resolver las ambigüedades:
1) Si a priori se determinan los valores aproximados de las coordenadas del
punto (triples diferencias, código P, etc.), se podrá definir una esfera alrededor
del mismo cuyo radio se trata de determinar de tal manera de garantizar que
todas las soluciones posibles caigan dentro de ella.
2) Para lograr soluciones basadas en ambigüedades enteras será necesario
realizar ajustes secuenciales tendientes a lograr estimaciones cada vez más
cercanas a números enteros.
3) Así todos los grupos de ambigüedades enteras que proporcionen soluciones
que caen dentro de la esfera serán válidos. Se obtendrá entonces un conjunto
de soluciones posibles denominadas soluciones candidatas entre las cuales se
elige la mejor.
67
Para que este método resulte exitoso se tienen que cumplir dos condiciones
a) Se debe realizar un proceso de inicialización, es decir, calcular las ambigüedades
iniciales antes de comenzar el movimiento. Esto se puede lograr, por ejemplo,
mediante una determinación estática ordinaria.
b) Sin apagar el receptor, se efectúa el recorrido correspondiente, debiéndose
mantener las señales provenientes de al menos cuatro satélites sin pérdida de
ciclos. Esto permitirá utilizar las ambigüedades iniciales previamente obtenidas,
en el cálculo de los puntos sucesivos.
Si durante el recorrido una o más veces, por algún tipo de obstrucción, se pierde la
comunicación será necesario realizar nuevamente una inicialización.
Método Stop & Go
El objetivo de este método es la determinación de coordenadas de puntos discretos con
gran rapidez.
El mismo consiste en estacionar un receptor en la base mientras que el otro se va
trasladando de punto en punto con la particularidad de que se detiene en cada uno
durante un tiempo muy breve (segundos o a lo sumo algunos minutos).
En este método también se debe mantener la recepción continua de la señal, luego de
determinar las ambigüedades iniciales.
En caso que la recepción se interrumpa se pueden recuperar las ambigüedades
retornando al punto anteriormente ocupado, evitando así la reinicialización.
Se recuerda que cuando se utilizan las dobles diferencias de fase las incógnitas
presentes son las ambigüedades iniciales y las coordenadas del receptor remoto, por lo
tanto si previamente se resuelven las ambigüedades el cálculo de las coordenadas será
inmediato (similar al caso código).
Método OTF
La aplicabilidad de los métodos cinemático puro y Stop & Go está limitada por la
existencia de obstáculos como túneles, densa arboleda, puentes, etc., ya que producen
cortes en las señales recibidas y por lo tanto se pierden las ambigüedades iniciales,
siendo necesario en estos casos volver a determinarlas.
Dentro de los métodos dinámicos el más potente en la actualidad, es sin duda, el
denominado OTF (on the fly) que permite la resolución de ambigüedades en
movimiento.
Este método ha surgido como consecuencia del gran a avance que en los últimos
tiempos han experimentado las técnicas de procesamiento dinámico. Esta técnica,
originalmente fue aplicada exclusivamente a cálculos de alta precisión a partir de datos
obtenidos de receptores de doble frecuencia y código P.
La principal diferencia con los métodos de procesamiento tradicional estriba en que el
método OTF utiliza el denominado filtro Kalman. El filtro Kalman permite estimar
posiciones con precisión creciente, mientras el receptor está en movimiento, hasta que la
precisión lograda es tal que permite calcular las ambigüedades y de esa manera poder
computar las coordenadas definitivas. El tiempo necesario para lograr determinar las
ambigüedades se denomina tiempo de refinamiento o de convergencia.
Cuando el procesamiento se realiza con datos provenientes de receptores L1/L2/P, se
obtiene los mayores rendimientos, ya que ante eventuales perdidas de ciclos es posible
68
recuperar las ambigüedades rápidamente. Por ejemplo, para una base corta es posible
fijarlas en menos de dos minutos.
El método OTF también es aplicable a datos provenientes de receptores L1. El
inconveniente que tiene es que los tiempos de refinamiento deberán ser mayores. En
estos casos se logra determinar ambigüedades, por ejemplo, en un tiempo 10 veces
mayor que con L1/L2/P. Esto se debe fundamental mente a que el disponer solamente
de L1 no es posible realizar combinaciones lineales tales como Wide Lane (se verá más
adelanté). Además el nivel de ruido es mayor ya que tampoco puede suprimirse
totalmente el efecto ionosférico.
Φi = f i t
Reemplazando en (V-20) se tiene:
Φ = n1 f1 t + n2 f2 t = f t
De donde resulta que
c
f = n1 f1 + n2 f2 y (V-21)
f
Son respectivamente la frecuencia y la longitud de onda correspondiente a la
combinación lineal.
Eligiendo adecuadamente los valores de los coeficientes n1 y n2 se pueden lograr nuevas
ecuaciones con portadoras equivalentes de características particulares que permitan la
resolución de problemas específicos.
Por ejemplo adoptando n1=1 y n2 =-1 se obtendrá la combinación denominada wide
Lane (banda ancha) cuya longitud de onda equivalente será:
c
86.2cm
f1 f 2
Esta combinación lineal denominada LL1-L2, al disponer de una longitud de onda mayor,
se utiliza para lograr una disminución de las soluciones candidatas posibilitando así
determinaciones de ambigüedades más eficientes ya que requieren períodos de
observación sustancialmente más cortos.
Como contrapartida es posible demostrar que esta combinación lineal producirá un
ruido de observación y un efecto ionosférico mayor, por lo tanto deberá tenerse en
cuenta que la precisión obtenida con LL1-L2, será menor que la que se obtendría con L1,
no siendo conveniente utilizarla en vectores largos debido fundamentalmente al efecto
de la ionósfera.
69
Luego de la solución obtenida con wide Lane generalmente se intenta calcular las
ambigüedades sobre otra combinación lineal denominada narrow Lane o LL1+L2 (banda
angosta) que se obtiene con n1= n2=1 lo que proporcionan una longitud de onda
c
10.7cm
f1 f 2
La solución que se logra con esta combinación lineal tienen un bajo nivel de ruido pero
el efecto ionosférico tiene las misma magnitud que en la anterior, lo que también limita
su utilización a vectores cortos.
Precisiones
Posicionamiento estático
Según se ha señalado, al utilizar como observable la fase de la portadora, un ciclo o fase
completa equivale a una longitud de onda, que en GPS es de 19.05 cm (L1) o de 24.45
cm (L2). La tecnología disponible cuando mide el observable de fase, está en
condiciones de apreciar la centésima parte de la fase completa, esto significa que si se
dispusieran de métodos de observación y cálculo adecuados para eliminar todas las otras
fuentes de error que influyen en la medición se podría llegar a determinar la distancia
satélite-receptor con una precisión del orden de los 2 mm.
Lo planteado en el párrafo anterior responde a una situación ideal, ya que es imposible
eliminar totalmente la influencia de todas las causas de error sistemáticos. No obstante,
si de alguna manera queremos tipificar la precisión propia de GPS con fases de la
portadora podríamos utilizar la expresión:
Posicionamiento Dinámico
En la búsqueda por mejorar el rendimiento de los trabajos realizado con GPS
manteniendo el orden de las precisiones que posibilita la medición con fase, se han
desarrollado métodos dinámicos de medición, dentro de los cuales existen las siguientes
variantes ya descriptas:
Método cinemático puro
Método Stop & Go
Método OTF
70
Las precisiones obtenibles con los métodos dinámicos en función del tipo de receptor,
para distancias cortas, PDOP < 4, 6 Satélites visibles y efecto multipath mínimo puede
estimarse en:
Método Receptor Precisión Observaciones
Cinemático puro L1 < 4cm Limitaciones operativas
importantes
Stop & Go L1 < 4cm Limitaciones operativas
intermedias
OTF L1 < 10cm Productividad máxima
OTF L1/L2/P < 4cm Productividad máxima
Se cuenta con un modelo de ionosfera provisto por el sistema, que elimina en parte la
influencia del retardo atmosférico en la determinación de coordenadas.
Actualmente, a partir de datos provenientes de estaciones permanentes GPS es posible
calcular correcciones ionosféricas regionales y ponerlas a disposición de los usuarios
para aplicarlas a las observaciones. Este tipo de correcciones tiene gran importancia
cuando se utilizan receptores L1 ya que de esta manera permiten ampliar el rango de
medición.
En el caso de disponer de receptores de doble frecuencia (L1 y L2) es posible,
utilizando la combinación lineal de fases adecuada eliminar el efecto ionosférico que
permite extender la longitud del vector a centenares de kilómetros.
Efectos orbitales
71
En este caso el equipo ubicado en la base debe transmitir al remoto los archivos de
observaciones y el equipo remoto deberá poseer la capacidad de procesar sus propias
observaciones con la información recibida determinando así la posición relativa entre
ambos.
Es conocido que la posibilidad de obtener las posiciones precisas en el momento de la
observación resulta ventajosa en tareas de relevamiento, pero es esencial cuando se trata
de replanteos.
En el caso de observaciones de fase podrán efectuarse replanteos con precisión
centimétrica. La principal limitante de esta metodología de medición constituye el
alcance de la necesaria conexión radial entre la base y remoto, acotando la longitud del
vector, al menos por ahora, a un radio del orden de 10 km.
Es habitual denominar con RTK (Real Time Kinematics) a los sistemas de tiempo real
que utilizan observaciones de fase.
***
Georreferenciación
Conceptos básicos
72
La implementación de la georreferenciación requiere ciertas normativas. No se debe
olvidar que se pretende correlacionar información procedente de distintas fuentes, lo
que requiere criterios compatibles y el uso de un lenguaje común.
73
CAPÍTULO IV
74
La Agricultura de precisión
75
Cuestionario
***
Conceptos:
“Es la acción de manejar una chacra a una escala espacial menor a la superficie
de la misma”.
76
“Es la utilización de modernas herramientas capaces de facilitar la obtención y
análisis de datos georreferenciados, mejorando el diagnóstico, la toma de
decisiones y la eficiencia en el uso de insumos. Mayor producción con
sostenibilidad del ambiente productivo”.
Autores: Ing. Agr. Mario Bragachini, Ing. Agr. Axel von Martín, Ing. Agr. Andrés Méndez-(Proyecto
Agricultura de Precisión INTA Manfredi).
Por dar un ejemplo, podemos citar palabras pertenecientes a un libro “tan antiguo”
como la Biblia donde en la parábola del sembrador (Mateo 13 y 8) en la cual se remarca
77
la importancia de la ubicación o sector en donde la semilla debería ser sembrada
manifestando así las consecuencias de la variabilidad espacial en los rendimientos del
cultivo.
Es más, el labrador que ciertamente trabajaba la tierra con su buey, lo hacía caminando
sobre toda su propiedad, obteniendo así la información por apreciación propia acerca de
las cualidades y potencial de sus tierras tomando las decisiones en el momento
partiendo de una base constituida por su valoración o cálculo respecto de la producción
espaciada sobre su terreno. En aquella época, esto fue hacer Agricultura de Precisión.
La limitante que presentaba esta manera de trabajo fueron las reducidas extensiones de
aplicación de aquellas herramientas (hoy en día consideradas rudimentarias) y el alto
costo del esfuerzo humano que conllevaba el manejo de las mismas.
Una vez aclarado esto podemos ir dando una primera definición o un primer punto de
vista en cuanto al concepto de Agricultura de Precisión (AP).
Lo que hoy en día se conoce como AP es una actividad que tiene como principales
objetivos conocer con una determinada precisión la variabilidad del suelo sin
disminuir la superficie de trabajo, vinculando unívocamente las variables que
intervienen en la parcela, logrando la sustentabilidad productiva del suelo,
regulando el impacto ambiental promoviendo la conservación del recurso suelo y
por último obteniendo un aumento en la rentabilidad económica del productor.
Esta definición, que en si misma no aporta nada nuevo, engloba todos aquellas
parámetros relacionados con la agricultura de precisión. Efectuar la intervención
significa aportar la dosis de nitrógeno adecuada, depositar la cantidad de semilla
necesaria o distribuir la cantidad de fitosanitario requerida, el momento adecuado está
78
relacionado con la mayor o menor automatización de la acción, es decir, el poder
modificar las cantidades de producto anteriormente relacionadas en el instante que ello
sea necesario, y no únicamente al inicio de la labor, y si todo ello se realiza en el lugar
preciso, teniendo en cuenta no solo la variabilidad entre parcelas, sino también la
variabilidad intraparcelaria, de más difícil gestión, estamos consiguiendo los objetivos
que implícitamente aparecen en la definición.
Queremos recalcar nuevamente que hacer AP va más allá de contar con una
tecnología moderna; sino la de usar está como una herramienta más para que con
su aporte podamos vincular su aplicación con las demás tareas propias de la
actividad agronómica.
“La AP que algunos autores definen como agricultura satelital, otros como la agricultura
del futuro, otros como la agricultura de máquinas precisas, otros más abarcativamente
como la agricultura por ambientes o el manejo sitio específicos de los insumos y
factores que manejan la productividad y calidad de los cultivos. Otros indican que es la
tecnología que permite avanzar en los procesos de trazabilidad de los productos;
algunos técnicos ven a la agricultura de precisión como un gran aporte para la gestión
ambiental, otros ven esta tecnología como apta para el manejo de gestión empresarial y
la gran mayoría ve a la agricultura de precisión como una herramienta para incrementar
las ganancias de su empresa”.
Ing. Agrónomo Mario Bragachini “8º Curso Internacional de Agricultura de Precisión y 3º Expo de
maquinas precisas”
***
79
Se relaciona entonces la nueva tecnología de posicionamiento con las modernas
maquinarias agrícolas, convirtiéndolas en un todo que proporciona una nueva forma de
producción.
***
80
Estas palabras, citadas por el Ingeniero Bragachini, detallan como la AP va
evolucionando día a día, incorporando gradualmente a ella todas las tareas agrícolas
tradicionales: cosecha, pulverización, fertilización, fumigación, siembra, detección de
plagas, muestreos de suelos, etc.
Es decir, las tareas agrícolas vinculadas a la AP están siendo paulatinamente levantadas,
analizadas y ejecutadas por está, y en un tiempo no muy lejano sería extraño que alguna
tarea agrícola no esté incluida en esta actividad.
***
Todas las tareas agrícolas requieren una precisión acorde a sus necesidades.
Otro ejemplo podría ser la etapa de siembra, en este caso si tenemos en cuenta que; si se
dispone de un mapa de prescripción, es decir, un mapa en el cual el lote esta
diferenciado por ambientes y a cada uno de los cuales se les asigna una determinada
cantidad de semilla y fertilizante, considerando que las pasadas contiguas de la
sembradora no deben superponerse o dejar espacios ("chanchos") en el lote, ya que esto
jugaría en contra económicamente debido al mal uso o "replanteo de los insumos". Por
todo esto se puede evidenciar que la precisión buscada será distinta a la anterior,
llegando a precisiones más exigentes, o hablando técnicamente, se requerirán
precisiones centimétricas.
81
CAPÍTULO V
82
Etapas de la Agricultura de Precisión
83
El principio de actuación en el que se fundamenta la agricultura de precisión es
perfectamente adaptable a cualquier otra actividad tras una primera fase de
determinación de las necesidades, o lo que es lo mismo toma de datos y acopio de
información, se pasa a una segunda fase de análisis e interpretación de los datos
obtenidos para, a partir de ellos, establecer un procedimiento de actuación de acuerdo
con las necesidades cambiantes en el tiempo y en el espacio.
84
Primera Etapa
Determinación o Recolección:
En esta etapa nos limitaremos a tratar sólo las variables o aquel tipo de información que
pueda ser georreferenciada con instrumental propio de la agrimensura y con la precisión
adecuada de cada actividad, ya que toda información no georreferenciada escapa a
nuestro propósito. De todas maneras, en el futuro se apunta a que toda información
agronómica quede plasmada en un SIG.
Actividades:
85
a) Por topografía tradicional con Estación Total (ET)
Metodología: si se da el caso de contar sólo con una ET, la forma más adecuada de
realizar el relevamiento será a través de la radiación; es decir, estacionar en algún lugar
del lote que sea lo más alto posible para tener una mejor visibilidad para poder cubrir
mayores extensiones y así reducir la cantidad de cambios de estaciones a realizar, ya
que cada estacionamiento del instrumental producirá inevitablemente una propagación
de errores. La forma de medición sobre el terreno tomará una forma de cuadrícula, con
un espaciado homogéneo a criterio del Agrimensor según las características del lote, sin
dejar de lado los accidentes topográficos relevantes, como ser cambios bruscos de
pendientes (quiebres), arroyos, depresiones, cárcavas, etc., en los cuales se densificarán
los puntos a medir, teniendo en cuenta los puntos bajos, altos, comienzo, fin, curvas,
intersecciones, de modo de poder representar de la mejor manera esta realidad en el
modelo digital final. Considerar desde luego, todos aquellos aspectos culturales
existentes en el predio (caminos, alambrados, desagües, construcciones, molinos, etc.).
Las precisiones para cada uno de estos aspectos serán, desde luego, determinados por el
profesional a cargo. A nuestro criterio las precisiones del relevamiento no pueden
excederse de los 5 cm a 10 cm, o sea, carecería de sentido buscar una mejor precisión
que los 5 cm para esta actividad, debido a las características propias de la superficie
topográfica al ser esta irregular, por ejemplo medir al centímetro un poste de alambrado
es irrevocablemente absurdo.
Una precisión inferior a los 10cm podría no informar adecuadamente de aquellas
pendientes existentes en el terreno.
Para lograr que la información sea georreferenciada deberá vincularse el relevamiento a
un punto perteneciente a algún marco de referencia. Este trabajo se puede realizar
mediante una poligonal que permita transformar las coordenadas locales a coordenadas
globales. Esto nos permitirá sentar las bases de un futuro Sistema de Información
Geográfico (SIG).
Este vínculo al marco de referencia trae aparejado una degradación de la precisión del
MDT debido a dos cosas, por un lado el error propio del punto del marco de referencia y
por otro lado el error que se producirá en la medición o armado de la poligonal, este será
mayor cuanto más estaciones deban realizarse para lograr el propósito.
86
Suponemos que se cuenta con un receptor que se utilizar como base y otro como
remoto. La metodología a seguir será: primero ubicar el receptor base en un lugar
despejado de árboles u otras interferencias que nos garantice una adecuada recepción y
configuración de satélites. Con el receptor remoto se recorrerá el predio levantando
puntos distribuidos sobre éste adecuadamente, sin perder de vista obviamente los
accidentes topográficos.
Las precisiones que se obtienen con L1 con la metodología en post-proceso son de, a lo
sumo 4cm, pero hay que considerar que este método presenta limitaciones operativas
intermedias.
Si contamos con instrumentos con L1/L2 y también con antes o estaciones permanentes,
podremos garantizar que las precisiones pueden alcanzar el centímetro,
c) Sistema LIDAR
Este es un sistema de escaneo láser que permite obtener con la pasada de un avión, que
cuente con este sistema, por encima del establecimiento y realizar un “barrido” de la
topografía del predio. El posicionamiento se logra ya que el avión cuenta con un sistema
de GNSS.
Queremos recordar que las cartas topográficas generadas por el IGM en la década del
‘60 están expresadas en coordenadas Gauss-Krüger y que el marco de referencia de las
mismas es CAI 69. Esto implica que además de que el marco en el que están expresadas
no es el actualmente oficial, el sistema de proyección traerá aparejado una inevitable
deformación que se incrementa a medida que se aleja del meridiano central de la faja a
la que pertenezca. Por otro lado, debido a que la superficie topográfica es dinámica, la
información representada puede estar desactualizada. Por todo esto, no creemos
adecuado trabajar sólo con este tipo de información; recalcamos que nos parece de gran
importancia contar con un Modelo Digital de Terreno.
Quizás, desde nuestro punto de vista, atribuimos que la topografía permite conocer
hacia donde escurren las aguas superficiales; conocer sectores altos y bajos del predio y
vincular esta información con la erosión que podría generarse en el predio, entre otras
cosas.
Desde el punto de vista agronómico, esta información cobra relevancia en factores muy
importantes, como por ejemplo el rendimiento: sectores bajos o con bajas pendientes
tienen la capacidad de acumular más agua, que las lomas o pendientes pronunciadas, la
presencia de agua en el perfil en determinados momentos del cultivo, son primordiales
para obtener un buen rendimiento del mismo. La topografía tiene gran influencia sobre
algunas propiedades de los suelos, por el simple hecho de que la misma es uno de los
cinco factores de formación de suelo.
El suelo puede ser considerado como una determinada combinación de sus factores
formadores. Esta concepción del suelo fue expresada por primera vez por Jenny en 1940
según la siguiente ecuación:
S = f (cl, o, r, p, t).
Representando "S" al suelo, "f" es una función, "cl" al clima, "o" a los organismos, "r"
al relieve (Topografía), "p" a la roca madre y "t" al tiempo.
87
No queremos destacar a la topografía por sobre las demás variables, sino que creemos
que es un elemento de gran importancia e imprescindible para la toma de decisiones.
***
2) Monitoreo de rendimiento.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
88
posicionamiento con código C/A, que si se realiza una corrección con DGPS, se obtiene
una precisión de 0.4 m a 1m.
Al ubicarnos en el contexto de que el receptor se encuentra sobre una cosechadora que
avanza en un terreno irregular, a una velocidad que no es constante, que tiene un ancho
de trabajo mínimo de 6 metros, etc., vemos que la precisión mencionada es suficiente.
¿Por qué no ser más preciso desde el punto de vista del posicionamiento?
En esta variable, tiene mayor importancia la precisión que puedan tener los sensores de
rendimientos, estos nos brindarán un valor de rendimiento que representarán un área, es
decir, las coordenadas del punto caerán dentro de ese área y por lo tanto mayor
precisión seria en vano, no seria aprovechada, ya que esas coordenadas estarán
vinculadas con un único valor de rendimiento y mientras el valor coordenadas sea
interno a la región con ese rendimiento se satisface la precisión. De todos modos, deberá
adoptarse un criterio para la ubicación de las coordenadas, es aconsejable que las
coordenadas sean las del centroide del área cosechada.
89
Las coordenadas a las que se le asignarán los rendimientos, son coordenadas del tipo
geográficas o elipsóidicas, debido a que ellas, según nuestro criterio, nos permiten una
mejor y rápida manera de interpretar los datos.
***
Este tipo de muestreo es discreto, es decir, tomamos muestras puntuales en las que se
evaluarán distintas propiedades del suelo, con el fin de asignar una continuidad de las
mismas a una región o extensión determinada, por algún método de interpolación.
En este punto se busca determinar la variabilidad de las características físicas, químicas
y biológicas que se puedan presentar en un predio. La implementación de esta técnica
no es reciente sino que proviene desde tiempo atrás; en la cual la modalidad de trabajo
era realizar varias muestras en lotes tomando distintos criterios, como ser realizar un
grillado, tomar muestras al azar, o bien intentar tomar muestras representativas de un
lote. Luego con los resultados obtenidos se realizaban promedios.
En la actualidad, esta modalidad ha cambiado en algunos aspectos, uno de los cuales es
la posibilidad de asignar coordenadas al muestreo realizado (mediante el uso de
navegadores GPS) y el otro aspecto es la posibilidad de realizar el muestreo contando
previamente con alguna información, como podría ser un mapa de rendimiento, alguna
imagen satelital, etc.; lo que le permitirá al productor determinar de antemano los
lugares en los cuales realizar las muestras.
90
Hemos encontrado algunos métodos que mencionaremos a continuación:
Muestreo al azar simple.
Muestreo al azar estratificado (sería el caso de contar con alguna división
previa en sitio-especifico, y dentro de cada región realizar muestras al azar).
Muestreo en grillas sistemáticas.
Muestreo sistemático estratificado desalineado.
Muestreo por juzgamiento (en este caso seria a criterio del evaluador)
Muestreo adaptativo (se realiza en grillas y se densifica en sectores que se
crean necesarios).
El objetivo solo es mencionar algunos métodos utilizados sin dar detalles de cómo se
llevan acabo; sin embargo, se debe tener en cuenta que la elección del mismo es muy
importante, ya que las coordenadas de los lugares de muestra serán la base de la futura
interpolación a realizar, con el objetivo de obtener el mapa de suelo.
Las variables analizadas a través de un muestreo de suelo son numerosas:
Nitrógeno (N)
Potasio (K)
Fósforo (P)
PH
Materia Orgánica (MO)
Profundidad de tosca
Nivel de capa freática, entre otros
Las precisiones logradas en el posicionamiento de los muestreos son las que brindan los
navegadores, que variarán entre los 5 metros (navegadores modernos, en condiciones
óptimas) hasta los 15 metros. Desde nuestro punto de vista, esta precisión es suficiente,
ya que la variabilidad de un suelo depende de muchos factores agronómicos y se da en
regiones más amplias que estas precisiones.
Cabe aclarar, que las coordenadas de los puntos estarán expresadas en coordenadas
geográficas o elipsóidicas, debido a que permiten una mejor y rápida interpretación de
los datos, que como mencionáramos anteriormente, este sería nuestro criterio, ya que las
coordenadas podrían expresarse de cualquier otra forma. También deberá tenerse en
cuenta que al momento de realizar la cartografía será necesario hacer una
transformación al plano.
***
91
4) Malezas, plagas y enfermedades.
***
El INTA, allá por la década del ’60, ha realizado un gran trabajo denominado Plan
Mapa de suelos de la Región Pampeana. En ese entonces se utilizaron fotografías aéreas
y la división de los suelos se realizó basándose en la 7ª aproximación de la taxonomía
norteamericana de suelos (Soil Survey Staff, 1960) y la Clasificación de las Tierras por
Capacidad de Uso (Klingebiel and Montgomery, 1966) como sistema interpretativo.
Con toda esa información y siguiendo los tratados mencionados se realizó la división de
los distintos tipos de suelos del país.
Toda esta información fue plasmada en mapas temáticos, los cuales se apoyaron en el
entonces marco de referencia oficial del país (CAI 69).
92
Esta cartografía es actualmente utilizada y consultada por productores y agrónomos, y
no debe perderse de vista, que la información obtenida de estas cartas está
desactualizada y en coordenadas planas (se ha utilizado la proyección Gauss-Krüger), y
que además están expresadas en un Marco de Referencia que, en la actualidad, no es el
Oficial. Por ello, vincular esta información con la obtenida de algún instrumento actual
de posicionamiento requiere de un adecuado manejo de las coordenadas.
Hoy día es muy común, generar gran variedad de mapas temáticos, por citar algunos
ejemplos Mapa de Napa, Mapa de tosca, entre otros. Es importante dejar en claro que,
para realizar un mapa georreferenciado es imprescindible tomar muestras a campo de la
variable a determinar y posicionarse con el instrumental adecuado (según la precisión
buscada); luego con dichas muestras se procederá a adoptar un método de interpolación
que muestre, de manera continua, la variabilidad espacial del lote. Y como el objetivo es
generar cartografía se utilizará una proyección (en argentina Gauss-Krüger) para dejar
expresada dicha variabilidad sobre un plano.
Los avances tecnológicos en los últimos tiempos han sido muy variados, en el área de
sensoramiento remoto se ha avanzado mucho en estos tiempos y obviamente como era
de esperarse la AP se vale de estas técnicas y hace uso de ellas.
93
contexto de producción, forman unidades individuales. En ese caso, el uso de imágenes
de satélites de baja y mediana resolución espacial, tiene el inconveniente de presentar
resolución espacial mucho mayor que el de aquellas consideradas en el manejo del área.
Se entiende por resolución espacial el área menor “vista” por esos sensores, que en las
imágenes se denomina píxel (del inglés, Picture elements). En los sensores de mediana
resolución espacial, los píxeles de las imágenes son en promedio de 20m x 20m, o sea,
un área de 400 m2. Por ejemplo, una imagen del sensor TM del Landsat-5 presenta un
píxel de 30m x 30m (900 m2).
Uno de los aspectos de gran importancia en AP es la determinación de zonas
homogéneas de manejo. Sólo a partir de esta zonificación se puede tener una idea clara
de los matices del terreno y, consecuentemente, de las necesidades de cada punto del
campo de cultivo. En este sentido, la aparición de satélites de alta resolución espacial y
de satélites con sensores hiperespectrales presenta una perspectiva altamente promisoria
de la utilización de tecnología de teledetección en agricultura de precisión, puesto que la
mayoría de las técnicas utilizadas en este sistema requieren imágenes con alto nivel de
detalle. Sin embargo, los problemas encontrados actualmente en el uso de datos
obtenidos por estos sensores son el elevado costo de adquisición de estas imágenes y la
pequeña área de cobertura de los satélites de alta resolución (11 x 11 km, Ikonos 16 x16
km Quickbird, 60 x 60 km Spot5, por ejemplo).
La potencialidad de esta tecnología podrá ser utilizada siempre y cuando se logre una
buena georreferenciación de la imagen con la que se trabaje. Será necesario para lograr
este objetivo, la identificación en la imagen de puntos que cuenten con sus coordenadas
globales conocidas o sea posible determinarlas, para luego, mediante el uso de algún
software se pueda asignar la correcta ubicación de dicha imagen.
Es muy importante tener en cuenta en la etapa de georreferenciación de la imagen, la
precisión con la que se obtendrán los puntos de ajuste, ya que ella será función de la
resolución de la imagen.
Una vez logrado esto, la imagen quedará escalada y podrá cargarse al SIG para ser
vinculada al resto de la información con la que se cuente.
En resumen:
Las tareas mencionadas son algunas de las que se utilizan en la etapa de recolección. El
hecho de mencionemos estas variables no implica que sean las primordiales, solo que en
ellas el geoposicionamiento es de vital importancia. Por ejemplo el clima, las
temperaturas y las precipitaciones, entre otras, son variables agronómicas que no
pueden obviarse pero ellas escapan a nuestros propósitos.
Todas las tareas persiguen un mismo fin que es proveer información georreferenciada
del lote en estudio. El hecho de que sean georreferenciadas es lo que hace posible el
consiguiente armado de un SIG.
Luego de esta etapa sigue la de analizar, a continuación intentaremos dar detalles de la
misma.
94
Segunda Etapa:
Análisis de Datos:
Los SIG permiten superponer información obtenida a escalas diferentes de forma que la
información correspondiente a una posición determinada de una parcela está formada
por múltiples capas informativas superpuestas e interrelacionadas entre sí. Por ejemplo,
el sistema posibilita el establecimiento de relaciones entre mapas de rendimientos
elaborados en años diferentes a una escala determinada, con los datos obtenidos en la
misma parcela en cuanto a profundidad del suelo y contenido de materia orgánica a otra
escala diferente. En general, estos sistemas aglutinadores de información suelen
comercializarse incorporados con los equipos receptores de la señal de satélite.
95
Del correcto análisis de datos, se garantizan dos cosas:
En definitiva, esta etapa será realizada, desde luego, como una tarea multidisciplinaria,
porque el fin de la misma es organizar todas las variables que interactúan y hacen a la
situación del predio. Yendo de lo biológico a lo agronómico, de lo informático a lo
económico, etc.
***
Zonas de manejo:
El análisis de datos apunta sobre todo a determinar las zonas de manejo a realizar sobre
el terreno, debido a que las variables agronómicas y ambientales son espacialmente
heterogéneas, la agricultura de precisión ha evolucionado como un método de
producción en el que la variabilidad es identificada, cuantificada y manejada. Una vez
que las causas de variación de productividad de una chacra han sido identificadas es
necesario tomar las decisiones de manejo adecuadas. En algunos casos, la decisión de
manejo no implica necesariamente la variación de un insumo a través de la chacra, sino
sólo de un ajuste de la cantidad aplicada del mismo para mejorar la eficiencia en todo el
cultivo. En otras situaciones puede darse que la variación de rendimiento de un cultivo
esté asociada a un solo factor limitante principal, como en el caso de algún nutriente
esencial para el cultivo que puede ser ajustado mediante alguna técnica de aplicación
variable.
Sin embargo, la formación del rendimiento de los cultivos es un proceso
extremadamente complejo que involucra la interacción de varios factores bióticos y
abióticos. En los casos en que más de un factor esté influenciando el rendimiento, o que
diferentes factores influencien el rendimiento en distintas partes de la chacra, la
situación es más compleja. La estrategia para enfrentar y superar este tipo de
complejidad es encontrar los factores dominantes que limitan el rendimiento en
determinadas zonas de la chacra.
96
bastantes diferentes dependiendo de las condiciones ambientales, el cultivo y el manejo
de suelos utilizados. Por tanto, las zonas de manejo deberán ser analizadas, evaluadas y
ajustadas en el tiempo, ya que las mismas no son necesariamente estáticas y
posiblemente varíen ante cambios en las prácticas de manejo general de los productores.
Pueden ser necesarios muchos años de datos para entender completamente las
interacciones entre la variabilidad espacial y temporal en las propiedades de los
suelos y la productividad de los cultivos.
***
Geoestadística:
Los datos a ser representados en un mapa pueden variar en su densidad de muestreo. Tal
es el caso de los datos que son tomados en terreno para análisis de propiedades físicas
de suelo o de concentraciones de fósforo, por ejemplo, en donde la captura se realiza
considerando distintos tipos de grillas en el terreno. Tomando en consideración que
dichos muestreos son puntuales dentro del terreno, por lo tanto discretos, el tipo de
grilla puede variar en cuanto a su forma, siendo unas más útiles que otras. A este
respecto, se ha señalado a los tipos de muestreo de grilla regular y al muestreo aleatorio
como los menos adecuados para obtener un mapa de la o las variables bajo estudio.
97
Para representar las variables de interés y cuyos datos han sido obtenidos en una forma
tal, es necesario llenar los espacios que no contienen información con datos estimados o
también llamados “interpolados”.
No siempre es tan evidente obtener una relación entre una variable explicativa y las
variables de rendimiento y calidad y es necesario usar metodologías geoestadísticas
sofisticadas para poder apreciar estas asociaciones.
Se debe señalar que hay dos condiciones fundamentales para que cualquier paquete
computacional sea capaz de realizar un análisis de los datos:
a) las que corresponden a una estructura consistente de datos, esto significa una
organización de los mismos que permita su análisis sistemáticamente
b) y a un ambiente de procesamiento interactivo, lo que se traduce en operaciones de
análisis de mapas lógicamente secuenciadas, e involucra cuatro operaciones
principales:
Recuperación de una o más capas de mapa desde una base de datos;
Procesamiento de los datos, según especificaciones del usuario;
Creación de un nuevo mapa conteniendo los resultados del proceso; y
Almacenaje del nuevo mapa en una base de datos para mapas posteriores.
Es necesario remarcar que los datos que exhiben una alta dependencia espacial, y que
son representados en los mapas, sirven para crear funciones de predicción robustas, lo
cual, a su vez es necesario para predecir la rentabilidad del cultivo o establecer las
medidas de manejo necesarias.
Lo anterior, a diferencia de la estadística tradicional, hace posible localizar los lugares
en donde se optimicen los manejos y con ello, la rentabilidad.
98
Tercera Etapa
Actuar:
Esta es la última etapa que hemos considerado, es la etapa en la que se toman las
decisiones en base a toda la información que se pudo recabar.
No está demás mencionar una variable que consideramos muy importante en la AP, que
es el “tiempo”, ya que no es lo mismo un establecimiento que se inicia en la técnica de
AP, a otro que tiene ya una historia en ella. La diferencia que encontramos entre estos
establecimientos es que, los establecimientos que cuentan con varios años aplicando
estas técnicas se basarán en experiencias propias de tomas de decisiones, y podrán sacar
conclusiones sobre ellas que les servirán para las futuras.
Hacer dosis variable sin tener en claro un objetivo podría llevar al fracaso de la
tecnología.
Todas las etapas son importantes, ya que las eventuales recolecciones de datos nos
harán realizar un determinado análisis, y en base a él se realizará la toma de decisiones.
Un error en la recolección, o un mal análisis nos haría llegar a malas decisiones. Por ello
es importante trabajar con seriedad en cada una de ellas, pero no podemos perder de
vista que está, la tercer etapa, es en la que se trabaja con los insumos (semillas,
fertilizantes, fungicidas, herbicidas, etc.), y hoy día, el hecho de la desvalorización de
nuestra moneda hace que se deba tener especial cuidado en la aplicación de los mismos.
Por ello veremos en este capítulo que en el posicionamiento para la siembra, o las
pulverizaciones se trabaja con precisiones más elevadas que en las tareas de
recolección.
99
1. Siembra variable.
Como está determinado, la siembra pertenece a la última etapa cíclica de la AP, siendo
esto obvio ya que si fuese la primer etapa, lejos estaríamos de poder realizar una
siembra precisa ya que no se contaría con información apropiada. Vimos que en las
definiciones de AP se hace referencia a realizar un manejo diferenciado por ambientes
dentro de un mismo lote, es decir definir subparcelas dentro del lote y en cada una de
ellas realizar el manejo que corresponda. La división de las subparcelas proviene de las
etapas de recolección y análisis, ahora en la tercera etapa es necesario poder realmente
lograr ese manejo diferenciado. Ello se logra con la utilización de nuevas sembradoras
que cuentan con un equipo de guiado GPS, y con los llamados mapas de siembra o
prescripción. Los mapas de siembra contendrán las subparcelas y cada una de ellas se
caracterizará por las cantidades de semillas y fertilizantes a aplicar. Lo que realizan las
sembradoras de dosis variables, haciendo uso de las tecnologías con la que cuentan
(software específicos, motores hidráulicos, equipo de posicionamiento, etc.) es
interpretar el mapa según la ubicación que va ocupando la máquina y realizar las
aplicaciones correspondientes
A modo de ejemplo, el siguiente podría ser el mapa de prescripción de un lote, en el que
claramente las diferencias de colores están indicando las subparcelas y un determinado
manejo especifico.
Cabe aclarar que la determinación de los ambientes deberá ser una recomendación que
realizará un profesional idóneo en el tema, conjuntamente con el productor con el fin de
estudiar los costos de siembra, y obviamente las decisiones las harán basándose en toda
la información disponible. En esta actividad, lo que requiere mayor precisión es el
guiado de la maquinaria durante la siembra para evitar imperfecciones en el trazado de
los surcos (sobre aplicaciones o chanchos). En función de nuestro criterio, la precisión
variará entre los 5 a 30 cm, en función del cultivo o actividad que se quiera realizar y
también por las características o alcance del instrumental a utilizar.
100
2. Fertilización variable
Sistema de aplicación
101
4. Control de Malezas, Plagas y Enfermedades con Dosis Variable
4.1. Terrestre
Las pestes relacionadas con la producción agrícola incluyen las malezas, los insectos y
las enfermedades, aunque la mayor proporción de pesticidas aplicados en agricultura es
para el control de malezas. Los principales problemas ambientales que enfrenta la
agricultura por el uso de herbicidas tienen que ver principalmente con la contaminación
del agua superficial y sub-superficial.
Mortensen (1999) indica que la población de malezas presenta variabilidad espacial a lo
largo y a lo ancho de los lotes debido a la variabilidad en materia orgánica, textura del
suelo, topografía y la interacción de todos estos factores con el manejo del cultivo, el
tipo de cultivar sembrado y otras interacciones que existen dentro de un lote.
La agricultura de precisión tiene el potencial de ser un sistema que no sólo protege el
ambiente, sino que también es económicamente viable. Si aceptamos que el campo
necesita insumos externos, también tenemos que estar dispuestos a aceptar que un
insumo importante es la información. Esta actividad puede contribuir de muchas
maneras a la agricultura sustentable a largo plazo, confirmando la idea intuitiva de que
reduce la carga de agroquímicos sobre el ambiente, aplicando pesticidas solamente
dónde y cuando se los necesita.
La aplicación sitio-específica de los herbicidas es una necesidad obvia, ya que las dosis
dependen de un conjunto de características del suelo que son variables, como ser la
textura, materia orgánica, pH y capacidad de intercambio catiónico. Dado que cada
familia de herbicidas tiene diferentes características químicas, el cambio en las
características del suelo puede tener un efecto mínimo o pronunciado sobre el cambio
en la dosis de herbicida.
El objetivo de esta aplicación es "reducir la dosis en algunas áreas y aumentar la dosis
en otras, según sea necesario" aunque hay que tener en cuenta que todo el lote recibe
una aplicación de herbicidas.
102
Para realizar dosis variable de herbicidas post emergentes es fundamental realizar una
identificación correcta de la infestación y de los manchones de malezas distribuidos en
el lote. Para esta tarea se pueden recurrir a diferentes métodos.
El método más usado en cultivos tradicionales es, probablemente, el uso de un monitor
de rendimiento conectado con GPS, equipado con un "marcador", para mapear las áreas
enmalezadas. Esta información se puede analizar posteriormente en un SIG y tomar
decisiones sobre su manejo para el año siguiente.
Una de las formas de relevar la mayor cantidad posible de información con el menor
costo sería a través del uso de fotos aéreas. El primer paso consiste en identificar los
manchones de malezas en la fotografía aérea georreferenciada. Luego, se corrobora que
el manchón se corresponda con la maleza problema, a través de la "verdad de campo",
es decir, la visitia al sitio infectado. Por último, se elabora un mapa de aplicación
binario, que consiste en zonas de aplicación y no aplicación, para de esta forma ahorrar
herbicida en aquellas zonas que no requieren tratamiento.
Los beneficios potenciales de implementar un sistema de identificación
georreferenciada de malezas son tres:
4.2. Aéreo
Para aviones fumigadores existen dos tipos de equipos, siendo las prestaciones muy
similares a los equipos terrestres, con la única diferencia en que las antenas son de uso
aéreo debido a la velocidad de aplicación.
Además del sistema de guía de luces se puede adquirir un monitor que indica al piloto el
lugar donde se encuentra el avión, y una brújula circular orienta al mismo hacia dónde
debe dirigirse, esto encarece un poco el equipo.
Esta pantalla display va marcando y grabando el recorrido del avión visto en planta,
relacionado con las coordenadas geográficas y también con un mapa de base
georreferenciado del campo o lote que se debe ingresar al monitor.
Esto ayuda al piloto a encontrar el lugar en el lote donde debe comenzar la pasada
sucesiva, operación que se hace más dificultosa si solamente tuviera la barra de luces,
debido a las distancias de giro y a la gran velocidad que se desplazan.
Además el hecho de que se graben los recorridos brinda un archivo para verificar y
documentar las aplicaciones. En el caso de las pulverizaciones aéreas se recomienda
trabajar con 2 m de traslape entre las sucesivas pasadas, en un principio, y a medida que
103
el piloto gana experiencia con este sistema de guía se puede reducir esta distancia a 1 m.
Al igual que en las pulverizadoras terrestres el traslape se logra indicando un ancho de
faja tanto menor como se quiera superponer las pasadas.
***
Sistemas de Guiado
El guiado de las pulverizadoras se realiza de dos maneras diferentes:
1) mediante dos personas que contando pasos entre una pasada y otra se posicionan para
que el operario de la maquinaria los utilice como guía, esta manera de trabajar, no
brinda una gran precisión, además implica un riesgo de contaminación crónica con
agroquímicos por estar permanentemente expuesto a la acción nociva de los mismos.
Otro problema, es la imposibilidad de marcar en trabajos nocturnos, falta de visión
cuando se trabaja en tiradas largas y con cultivos altos.
2 ) mediante el uso de marcadores de espuma, sistema que presenta el problema de falta
de precisión, ya que este marca dónde termina la aplicación anterior y no representa una
guía perfecta para el operario ya que siempre tendrá que calcular la dirección, además
presenta como desventaja la dificultad de ver la espuma en cultivos altos o rastrojos en
pie.
Los dos sistemas mencionados presentan como desventaja, que los errores cometidos en
las sucesivas pasadas son acumulativos, lo que causaría una merma importante en la
eficiencia, sobre todo en lotes grandes.
Considerando el costo del agroquímico, o bien el daño por un mal control ocasionado
por solapamiento o áreas sin aplicar, sumado al efecto de fitotoxicidad por sobredosis,
indican la necesidad de marcadores más eficientes.
En nuestro país los sistemas de guía satelital para ser utilizados en pulverización,
fertilización o en sembradoras de grano fino de gran ancho de labor ya son una
realidad.
Piloto Automático:
Es una herramienta que reemplaza al conductor de la maquinaria, guiando a la misma de
manera automática sobre una trayectoria de trabajo predeterminada.
104
agrícola, consideramos que el uso de esta tecnología se justifica para la siembra en
particular, ya que las demás tareas requieren precisiones menores.
Existen dos sistemas de dirección automatizada:
1) reciben señales de corrección DGPS de diversas fuentes de satélites o antenas
correctoras para proveer una precisión que ronda de 10 a 30 cm.
2) Recibe las señales de corrección de una estación base GPS en tiempo real (RTK)
local para proveer precisiones de dirección que van desde los 2 a los 5 cm.
Banderillero Satelital:
Son antenas fijas de coordenadas conocidas (bases GPS) correctoras de la señal de los
satélites. A las correcciones las realizan mediante radio transmisión (onda FM) en la
banda de los 200 Mhz a los 500 Mhz. En nuestro país hay tres antenas, dos de ellas San
Carlos (Santa Fe) y Bolivar (Buenos Aires) cubren un radio de acción de 450 Km y la
restante se encuentra en Las Lajitas (Salta) con aproximadamente 350 Km de radio de
acción.
105
Racal u Omnistar.
Los satélites GPS envían las señales, y son recibidas por estaciones de referencia
OMNISTAR, estas estaciones se encargan de calcular correcciones de los mensajes
recibidos y luego las envían a las redes de monitorización GPS donde se verifican y se
empaquetan las correcciones de los datos para luego ser transmitidas a los satélites
geoestacionarios (trabajan en la banda L). Luego, estos satélites transmiten las señales a
la tierra, donde se reciben los datos de corrección y se aplican en tiempo real.
Un satélite geoestacionario tiene una órbita circular en el plano ecuatorial con un
periodo igual al de la rotación de la Tierra por lo que desde ésta se lo verá siempre en la
misma posición.
Se caracterizan por permanecer sobre un punto fijo con respecto a la superficie terrestre
y una distancia aproximada de 36000 Km de altura.
106
E- Dif
El modo de corrección DGPS utilizado para este sistema e-Dif, es una técnica nueva
patentada por Satloc USA y su funcionamiento se basa en corregir el error generado por
la ionosfera, además el GPS genera las mismas correcciones DGPS que genera una
estación base (como Beacon) pero internamente y en el mismo receptor.
Esta corrección es utilizada tanto para la fumigación aérea como terrestre
El modo operativo de E-Dif es generar y calcular correcciones diferenciales GPS en
forma interna basándose en una posición de inicio. La corrección es modelada a medida
que pasa y tiempo y aplicada a los datos GPS con el fin de mantener una consistente y
relativa posición.
Mediante los sistemas de corrección Beacon y Omnistar (DGPS) se logran precisiones
submétricas, que oscilan los 30 cm. Esta precisión ya es suficiente para la aplicación
en la agricultura de precisión.
Sistemas de aumentación de la señal GPS en otros países:
Waas (EE.UU) trabaja con estaciones de referencias terrestres y satélites
geoestacionarios.
Egnos (Europa)
Msas (Japón)
Glonass (Rusia)
107
Cuadro resumen de las distintas actividades de la AP:
GPSL1/L2 (relativo)
108
CAPÍTULO VI
109
Desarrollo Práctico
Ernst Mach. (18 de febrero, 1838 - 19 de febrero, 1916 físico y filósofo austriaco).
110
Práctica:
Existen en el mercado una gran variedad de maquinarias con las tecnologías de la AP,
hay marcas internacionales con una importante trayectoria y marcas nacionales que se
han adaptado de gran manera a los avances que se suceden año a año en este rubro, y de
esa forma poder cubrir los requerimientos del productor local.
De todas maneras, hay empresas que no realizan los software y las máquinas trabajan en
extensiones propias de software de otras empresas, existen programas que permiten
levantar los datos en múltiples extensiones, en nuestro caso utilizamos el Software AFS
de la empresa CASE, sólo por una cuestión de que tuvimos acceso a él. Este programa
permite bajar datos de cosechadoras CASE IH, JHON DEER, NEW HOLLAND, entre
otras.
Si hablamos de una cosecha, los datos que se almacenan en las tarjetas y que nos
permitirán generar los mapas de rendimiento serán los siguientes:
Coordenadas (B, L, h) otorgadas por el GPS.
Velocidad en Km./h. (dada por un sensor).
Flujo de grano ton/Ha (información suministrada por un sensor).
Porcentaje de humedad (información suministrada por un sensor).
Rendimiento húmedo Kg./Ha (calculado).
Rendimiento seco Kg./Ha (calculado).
Entre otros.
Hay monitores que permiten registrar más datos, pero los más importantes para el fin
que se persigue son los mencionados.
111
apropiadamente por el monitor para producir el dato final en unidades de kilogramos
por hectárea. Antes de comenzar a cosechar con el monitor, este debe calibrarse
correctamente para que los datos entregados y grabados sean precisos y confiables. La
calibración comprende la selección de constantes y procedimientos para determinar
coeficientes de calibración y convertir las señales eléctricas medidas en parámetros
deseados.
Calibración por vibración (hay que controlarla cada vez que se repare o
modifique la máquina pero básicamente es una vez por campaña).
Calibración de distancia (cuando se cambia el rodado o bien cuando las
condiciones de piso de cosecha cambian bruscamente, pero por lo general es una
vez en la campaña).
Calibraciones durante la cosecha
Calibración del sensor de altura del cabezal (cada vez que se cambia de cultivo).
Calibración de humedad de grano.
Se debe comparar la medida determinada por el monitor de rendimiento con respecto a
determinaciones de otro medidor externo de humedad cuyas medidas hayan sido
verificadas en su precisión. Se controla cuando varía mucho la humedad del grano.
Calibración del peso del grano.
Antes de realizar esta operación se debe haber realizado la calibración de humedad. El
monitor se calibra sobre la base de pesos actuales que se le ingresan, estos se obtienen
pesando el grano cosechado en una carga, en una balanza precisa.
Para realizar la calibración de peso son de suma utilidad las tolvas autodescargables con
balanza electrónica, de esta manera se independiza de la existencia de una báscula
cercana al lugar de cosecha. Si todos estos pasos son realizados correctamente
estaremos en un nivel de precisión del rendimiento corregido por humedad menor al
2%, lo que ubica a los datos obtenidos como muy útiles para ser utilizados en el
diagnóstico del gran cultivo. Se considera aceptable una precisión del monitor de hasta
el 5%. Esta calibración debe realizarse cada vez que se cambia de cultivo, cuando el
cultivo varía mucho en la humedad del grano (sale de lo normal, o sea que esta por
arriba del 20 o 25%).
Datos extraídos de la pagina www.agriculturadeprecision.org Ing. Agr. Mario Bragachini, Ing. Agr.
Andrés Méndez, Ing. Agr. Fernando Scaramuzza.
112
Existen diferentes marcas y modelos de monitores de rendimiento, y entre los mismos
varían los sistemas de medición de flujo, la forma y lugar de medir la humedad, la
interfase con el operador en la consola, la manera de calibrar, etc., pero los principios y
el objetivo son coincidentes para todas las opciones del mercado.
Además se debe chequear el normal funcionamiento de:
El programa requiere realizar una serie de pasos para la visualización de los datos,
primero se deberá bajar el archivo de la tarjeta a una PC, luego dentro del Software se
selecciona la marca de cosechadora utilizada y la extensión correspondiente del archivo
a utilizar. En nuestro caso, la cosechadora es una CASE y la extensión del archivo .yld.
Los siguientes datos deben ser cargados al momento de la realización del trabajo en el
campo ejemplo:
Labor: cosecha de trigo.
Fecha: 17 diciembre de 2005
Establecimiento: Los Naranjos
Lote: 24.
Al abrir el archivo lo primero que se puede observar es una tabla que tiene la
información de los puntos relevados:
Masa
Volumen
Longitud Latitud Elevación Fecha de Humedad rendimiento
estimado
(grados) (grados) (m) cosecha (%) Seco
seco (L/Ha)
(Tn/Ha)
1 -63,05096 -35,2803 124,60 17/12/2005 15,10 0,810 1048,7
2 -63,05097 -35,2803 124,60 17/12/2005 15,10 3,085 3994,5
3 -63,05098 -35,2802 124,50 17/12/2005 14,60 4,997 6470,6
4 -63,05098 -35,2802 124,50 17/12/2005 14,00 3,685 4770,9
5 -63,05099 -35,2802 124,40 17/12/2005 13,90 3,079 3986,8
6 -63,05100 -35,2802 124,40 17/12/2005 14,20 3,388 4386,3
7 -63,05101 -35,2802 124,40 17/12/2005 14,60 2,348 3040,0
8 -63,05102 -35,2802 124,40 17/12/2005 14,80 2,116 2740,2
9 -63,05103 -35,2801 124,50 17/12/2005 15,10 2,250 2913,0
10 -63,05104 -35,2801 124,30 17/12/2005 15,20 2,712 3511,0
113
La idea es visualizarlos solamente, por ello adjuntamos sólo 10 puntos de la tabla, con
la información que trae cada uno. El archivo del lote en estudio cuenta con una cantidad
de 36881 registros espaciales, como el lote tiene aproximadamente 25 Ha, la cantidad
de registros por Ha son alrededor de 1440, aproximadamente un registro cada 7 metros
cuadrados.
Agricultura de
Agricultor:
Precision TP
Año: 2005
Cosecha de
Operación:
granos
Producto: TRIGO
Granja Lote Carga / Área Humedad Peso estimado Masa de rendimiento Cargas
Región(es) promedio (húmedo) est. (en seco) de cal.
Ha % toneladas toneladas/ha
Los Naranjos F24 1 26,35 12,40 63,68 2,417 0
114
Los siguientes son mapas temáticos, que cuentan con sus correspondientes referencias.
Cada uno de ellos está generado tomando como criterio algunos de los atributos
relevados por los sensores en el momento de la cosecha.
115
Todos estos datos, visualizados tanto en tablas, como en resúmenes informativos y en
mapas permitirán realizar un estudio adecuado de la campaña. Pero este estudio, como
se mencionó durante todo el trabajo forma parte sólo de un cultivo, y para lograr tomar
buenas decisiones es necesario poder vincularlo con cultivos y campañas anteriores, con
datos de muestreos de suelos, con mapas de suelo, con fotografías e imágenes aéreas
etc.
Para poder vincular la información de distintos años de trabajo, como así también poder
vincular distintos tipos de información es necesario la realización de un Sistema de
Información geográfico. El objetivo de este trabajo Final, fue ver de que manera la
Agrimensura puede colaborar con las técnicas de Agricultura de Precisión, es decir no
tenemos como objetivo realizar un SIG, pero creímos apropiado, en este capítulo,
utilizar el Software ArcView, y armar una pequeña base de datos en la que vinculamos
superficies de lotes, alambrados, altimetría, y también agregamos el mapa de
rendimiento de maíz de uno de los lotes.
A continuación adjuntamos algunas de las vistas generadas en dicho Software.
Establecimiento La Josefina
Referencias (Ha)
0 - 40
40 - 100
100 - 200
200 - 280
W E
Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco 116
(En el segundo mapa se
Indica el lote en estudio, y luego
Se indica el mapa de rendimiento
De la cosecha de maíz de la campaña
2007/2008)
Lote en Estudio
Referencia
Lote 32
W E
Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco
Referencias
Rinde (Kg/Ha)
3.23 - 5.21
5.21 - 8.53
8.53 - 11.19
11.19 - 13.71
W E
Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco
117
CAPÍTULO VII
118
Estandarización de la información
119
La normalización o estandarización es la redacción y aprobación de normas que se
establecen para garantizar el acoplamiento de elementos construidos
independientemente. La asociación estadounidense para pruebas de materiales (ASTM),
define la normalización como el proceso de formular y aplicar reglas para una
aproximación ordenada a una actividad específica para el beneficio y con la cooperación
de todos los involucrados. Según la ISO (International Organization for Standarization)
la Normalización es la actividad que tiene por objeto establecer, ante problemas reales o
potenciales, disposiciones destinadas a usos comunes y repetidos, con el fin de obtener
un nivel de ordenamiento óptimo en un contexto dado, que puede ser tecnológico,
político o económico.
La normalización persigue fundamentalmente tres objetivos:
Simplificación: Se trata de reducir los modelos quedándose únicamente con los
más necesarios.
Unificación: Para permitir la intercambiabilidad a nivel internacional.
Especificación: Se persigue evitar errores de identificación creando un lenguaje
claro y preciso
Las elevadas sumas de dinero que los países desarrollados invierten en los organismos
normalizadores, tanto nacionales como internacionales, es una prueba de la importancia
que se da a la normalización.
Nuestro propósito es dar una recomendación, desde nuestro punto de vista, de cómo
creemos que podría ser un modelo para el manejo de información georreferenciada,
que facilite la obtención de los siguientes objetivos:
Fluidez de información
Interpretación adecuada
Vinculación rápida y precisa
Gestionamiento de información confiable.
Para ello, creemos que debemos antes que nada, determinar el tratamiento a aplicar a
cada uno de los datos con los que se cuenta.
Por ejemplo, las coordenadas son las entidades básicas a conocer para relacionar toda
aquella información con la que se cuenta; si éstas se obtienen sin considerar el sistema
de referencia al cual pertenecen, y su fin sea sólo servir de apoyo a la representación de
alguna característica del lote en forma eventual, entonces podríamos estar ante el
peligro de perder esta información a futuro, es decir, la utilidad del punto levantado
quedaría restringido a un sólo uso que desaprovecharía cualquier relación futura, con
otros datos actualizados.
120
Si tan sólo se especificaran las características del punto (tipo de coordenada, sistema de
referencia, marco de referencia, proyección cartográfica, precisión absoluta del punto,
etc.) nos estaríamos asegurando mas tarde, que dicha información no quedaría atrapada
en el tiempo, ya que tendríamos la opción de manejar a la misma de manera confiable,
correlacionándola con otras bases de datos georreferenciada y aportando al estudio
estadístico del predio o el lote, estimando el comportamiento natural de esté en distintos
lapsos de tiempo, contribuyendo a ajustar un mejor diagnóstico por parte de los
agrónomos.
La idea recae en, no sólo asegurarnos relacionar la abundante información para una
época determinada, sino poder construir en el tiempo, una correcta y actualizada base de
datos que sirva de apoyo a las futuras decisiones que puedan tomarse sobre el lote.
Para que todo esto sea posible, se hace evidente una necesaria forma o modelo de
información georreferenciada a seguir.
Cabe aclarar, que no es nuestra intención "reglamentar" la captura de datos, ya que
justamente radica ahí el potencial de la agrimensura, de poder interpretar, determinar y
vincular toda información territorial, pudiendo provenir de los más variados orígenes.
En rigor, lo que planteamos acá es, como toda esta información podría expresarse de
una sola forma, es decir, el resultado final tendría que contar con unos requisitos que
puedan asegurar todas las ventajas antes mencionadas.
Tratar de determinar este modelo será el objetivo de este capítulo.
***
Citando nuevamente a Emilio Gil, sus palabras recaen sobre los problemas con los que
en la actualidad se encuentra la AP:
La agricultura de precisión se muestra como una de las mejores herramientas a utilizar
en los sistemas productivos del tercer milenio como consecuencia de la optimización de
los inputs (*), la reducción de costes medioambientales, el incremento de la precisión
en la producción y la incorporación de la trazabilidad en el proceso, término de
creciente demanda por parte del consumidor y la legislación en general. Sin embargo
existen tres barreras importantes que deben ser solucionadas antes de su plena
implementación:
1. La agricultura de precisión implica "intensidad de información". La elaboración de
mapas de suelos, cultivos, rendimientos y factores ambientales que afectan a la
producción final genera un elevado volumen de información que junto con los
conocimientos propios derivados de la experiencia, las variabilidades climáticas y
las exigencias del mercado hacen imprescindible el desarrollo de herramientas de
integración de la información y sistemas expertos de soporte a las decisiones,
debiendo estos en cualquier caso presentar unas condiciones de estandarización
de datos y transferencia de información adecuados.
2. Se observa actualmente un déficit en cuanto a los criterios de selección de los
procedimientos racionales a aplicar y las estrategias a seguir para la
determinación de las necesidades basadas en la variabilidad intraparcelaria, así
como una ausencia de validaciones científicas en cuanto a los beneficios generados.
Estas deficiencias deben subsanarse apoyándose irremediablemente en análisis
detallados del suelo y del cultivo, así como en trabajos de investigación y
experimentación agronómica.
(*)Sistema de entrada de información. Económicamente hablando es un elemento que participa en un
determinado proceso productivo
121
3. La obtención de datos relativos al suelo, cultivo y condiciones ambientales en
general resulta todavía una labor costosa en tiempo e inversión. Es preciso el
desarrollo de sistemas de sensores capaces de generar de forma precisa, rápida y
barata la información necesaria. Hasta no se solucione el problema de la
adquisición de datos, la agricultura de precisión no podrá practicarse de forma
generalizada.
Se trata por tanto de una actuación multidisciplinar que involucra sectores como el
agronómico, el informático, el mecánico y el electrónico. Es preciso pues el desarrollo
de actividades de investigación de este nuevo, y al mismo tiempo antiguo, sistema de
producción.
Si esta actividad logra acaparar la atención, no solo de todos los productores del país
sino también del mismo Estado (como está sucediendo en Brasil), entonces la AP podría
presentarse como una poderosa herramienta que permita perfeccionar la actividad
agrícola nacional.
Si esto sucediese, entonces no es descabellado que empecemos cuanto antes a tratar de
juntar toda la información que hoy nos proporciona la AP, ubicándola en un modelo
único.
***
Dificultades concretas presentadas a un profesional de la Agrimensura:
122
Una situación que refleja lo anterior es utilizar un navegador para encontrar un punto
cuyas coordenadas fueron extraídas de una carta del IGM (marco de referencia CAI69),
sin tener en cuenta que superficie de referencia esta seleccionada en ese momento en el
instrumento, por ejemplo: si estuviese en WGS ´84, representaría una diferencia de
aproximadamente 200 metros, lo cual probablemente nos estaría situando el punto
fuera de la propiedad.
Para la elaboración del modelo final, es necesario que toda aquella información a
vincular, cuente o se conozcan por lo menos las siguientes características:
1. Si son coordenadas:
Tipo de coordenada y sistema de referencia al cual pertenece.
Precisión estimada con la que se obtuvo.
Instrumental utilizado en el relevamiento.
Época de medición.
Metodología aplicada para su levantamiento.
123
Una vez conocidos estos elementos básicos, se procederá al armado y proceso de llevar
todo a un único Sistema de Referencia, apoyando toda la información bajo el actual
Marco de Referencia oficial existente del país.
Para ello, las coordenadas serán transformadas al sistema que corresponda.
Las fotografías e imágenes satelitales serán georreferenciadas en el mismo sistema de
referencia establecido, mientras que la cartografía se llevará toda a una proyección
determinada.
***
Creemos que la mejor opción es apoyarse sobre el marco oficial que hoy tiene nuestro
país, POSGAR´94, que como se determinó en el Capítulo Conceptos Aplicados, no
necesariamente es el marco mas preciso, simplemente se debe a que actualmente se
vinculan todos los trabajos topográficos y geodésicos a nivel nacional a este por una
necesidad de cumplir las normas vigentes.
Dado el mayor uso de la proyección Gauss Krüger en nuestro país, para la generalidad
de los casos, se aconseja el empleo preferencial del ella, en la faja correspondiente.
Solo en el improbable caso de una extensión preponderante en dirección E-W que pueda
tener un lote, aconsejamos el empleo de UTM.
124
¿Qué otros datos serán necesarios considerar?
Considerando también, todos aquellos datos que faciliten una perfecta ubicación del
lugar, del tiempo o época e que se trabajo, de las personas actuantes, etc.
***
Interrogantes a futuro:
Casi toda la información que se recolecta hoy en día, tiene ciertas características que
surgen por su utilización, es limitada a un uso particular y muchas veces se confina a
una solución determinada.
Desde nuestra posición, creemos que la tendencia de esta actividad no podrá quedar
limitada al uso de particulares (empresas privadas, pooles de siembra, etc.), sino que en
un futuro todo este volumen de información podría ser usado a nivel Estado, para el
mejor entendimiento de la productividad de sus suelos y una correcta planificación
agrícola.
125
CAPÍTULO VIII
126
Perspectiva y futuro de la Agricultura de Precisión en Argentina
127
¿Por qué es necesaria la agricultura de precisión en nuestro país?
O bien
“Los gobernantes son todos ladrones, el mercado debería ser libre sin control alguno del
Estado y estamos perdiendo una oportunidad única”
Estos son solo algunos ejemplos de muchos que cotidianamente manejan la información
y opinión pública, que si analizamos bien por los menos a estas dos ejemplos nos damos
cuenta enseguida de la deformación y aberración que se hace sobre las instituciones y el
prestigio de cada una de ellas. La facilidad con la que se encuadra a cada parte del
conflicto es, por lo menos alarmante, al decir por ejemplo “El campo miente…..”,
¿Qué clase de frase u opinión es esa?
¿Quiénes son los que mienten y hasta donde llega esa acusación tan peligrosa como
vulgar?
128
Queremos creer que el futuro y desarrollo de un país no puede nunca ajustarse
solamente a una situación mundial determinada, porque entraríamos en el plano
del oportunismo y el cortoplacismo, dejando de lado proyectos a nivel nacional con
rentabilidades a largo plazo.
Como decíamos anteriormente, al hablar del Estado parece ser que nos referimos a un
ente que quiere aprisionarnos a su voluntad, a través del pago de impuestos y el
cumplimiento de las reglas que de él surjan, haciendo esto siempre como una mera
obligación, sin tener en cuenta las responsabilidades y derechos civiles que nos
pertenecen y que hacen que el Estado solo sea posible con la cotidiana participación de
todos.
Se ha perdido aparentemente la memoria colectiva y en cambio sólo existe el facilismo
de opiniones sin sustento alguno, pero con mayor impacto.
Es evidente que existen conveniencias particulares y que de ahí nacen las opiniones mal
intencionadas, relatadas como verdades únicas. La masa receptora de tales opiniones no
tiene otra salida que hacer de ellas sus opiniones irrefutables, llegando a ser manipulable
por cualquier “payaso” informativo, que solo Dios sabrá que fines acarrea al hacer esto.
La única verdad, es que dicho conflicto tal como está presentado no logrará hacer
ningún bien ni a corto ni mediano plazo para solucionar los problemas que enfrenta hoy
nuestro país. Mucho menos bien hará a largo plazo si la problemática como está
planteada la consiguiera ganar alguno de los aparentes “sectores” que hoy en día se
presentan como blanco y otro negro. El daño seria irreparable a futuro porque al final de
cuentas no se alcanzaría a ver en su total magnitud el problema más grande que acarrea
la Nación Argentina y es el de la desaparición del Estado y sus instituciones como
elementos fundamentales de desarrollo, la desconfianza en cada una de ellas crecerá
cada día mas y será inevitable la perdida de credibilidad no solo en las instituciones sino
también de cualquier ideología que apunte a fortalecer la Nación.
Somos todos responsables de lo que pueda suceder y no hay lugar a dudas que el fin sea
el de fortalecer al Estado y a la Nación mediante la participación civil que nos atañe.
129
Parece imposible por todo lo dicho, que en la actualidad y a mediano plazo surjan del
Estado normas y leyes que promuevan al nacimiento de instituciones dedicadas a la
investigación y desarrollo de la agricultura de precisión, presentándola como una
herramienta fundamental para la optimización en el uso del suelo, su cuidado y su
sustentabilidad productiva a futuro.
Citando a Otto Solbrig (*), en donde sus palabras detallan el cuidado de la economía
agrícola para el entendimiento de la necesidad de tomar medidas urgentes:
“Sin lugar a dudas uno de los mayores problemas es el que resulta casi invisible y del
que se habla poco: la erosión de los suelos agrícolas. A través de los siglos, las
montañas son niveladas y de la deposición de sedimentos crea nuevas tierras. La
pampa argentina es el resultado de la erosión de las sierras pampeanas y de la
cordillera, y del arrastre de esos sedimentos por agua y por el viento. Basta solo
observar cómo el delta del Paraná se va extendiendo constantemente hacia el Río de
La Plata para tener conciencia de la fuerza de la erosión.
La agricultura, sobre todo la agricultura convencional, incrementa la erosión de los
suelos enormemente, entre 10 y 15 veces la tasa natural dependiendo de la pendiente.
Aun con agricultura conservacionista, como la siembra directa, la tasa de erosión es
mayor que la natural. En todos los suelos con una pendiente mayor a cinco grados, la
tasa de erosión –incluso con siembra directa- es mayor que la tasa de formación de
nuevos suelos, lo que significa que eventualmente las tierras con pendientes mayores a
los cinco grados –que son el 70% de la tierra arable del planeta- se degradaran y
deberán ser abandonadas. Los suelos erosionados pierden productividad hasta que
eventualmente deben ser abandonados por improductivos. Se calcula que entre uno y
tres millones de hectáreas se abandonan anualmente debido a la erosión.
La falta de conciencia sobre este problema se debe a que se puede reemplazar la
productividad perdida mediante el uso de fertilizantes químicos. Pero el uso masivo de
fertilizantes crea problemas de contaminación y aumenta los costos de producción.
En Europa, donde muchos suelos están erosionados, se utiliza en promedio diez veces
mas fertilizante que en la Argentina. Sin los subsidios que reciben los productores,
muchas tierras en Europa se abandonarían, porque los costos de producción sin
subsidios no serían competitivos.
La Argentina ha perdido muchas tierras en la Patagonia, degradadas debido a la
erosión causada por el sobrepastoreo que expone los suelos a la acción del viento. Lo
mismo en el monte y en la zona oeste de la pampa. En la pampa ondulada se pierden
suelos debido a la erosión hídrica.
La siembra directa es una técnica muy importante para combatir la erosión de los
suelos y la Argentina es un líder mundial en el uso de esta técnica. Pero no es
suficiente con siembra directa. Hay que adoptar un paquete de medidas que incluyan la
rotación de cultivos, cultivar de acuerdo con curvas de nivel y, en tierras con pendiente
como la pampa ondulada, hay que hacer camellones y terrazas. De no tomar medidas
contra este flagelo, un día nos quedaremos sin lo más precioso que tenemos: la tierra
agrícola.”
130
No es de nuestro interés hacer publicidad de las tecnologías y herramientas que usa en
la actualidad la agricultura de precisión, menos aún de las empresas que ofrecen
determinados servicios.
Una de las decisiones claves que tienen que tomar los productores que quieran adoptar
la AP es si van a contratar los servicios, o si se van a capacitar para desarrollar por sí
mismos las habilidades necesarias para la recolección de datos, análisis y manejo de la
variabilidad. En ciertos casos, los contratistas pueden ofrecer el servicio en forma más
económica, como ser cuando se exige una gran inversión de capital que debe
distribuirse sobre varios campos para que sea rentable. Ej.: una cosechadora con
monitor de rendimiento y GPS.
En otros casos, la decisión es una cuestión de tiempo disponible, y como todo productor
ya sabe, el tiempo es dinero.
Hay dos factores principales a considerar: ¿hay contratistas en tiempo y forma?; ¿se
cuenta con la mano de obra necesaria para hacer el trabajo extra que requiere la AP?
Por lo general, se limita a una elección entre dos opciones, una de bajo nivel
tecnológico que requiere más tiempo, y otra de alto nivel tecnológico que es más
rápida, pero más cara. También se debe tener en cuenta la calidad y la confiabilidad del
trabajo realizado.
El tiempo también tiene un costo de oportunidad asociado, como lo es en el caso del
capital. En el momento de la siembra y de la cosecha el costo de oportunidad del
tiempo es muy elevado, mientras que en el resto del año es mucho menor.
131
Limitantes para la adopción
Griffin et al. (2004) identificaron algunas limitantes claves para la adopción de la AP,
comparando el caso de la biotecnología y el de la AP. La pregunta clave que los
usuarios actuales y potenciales se formulan es si las estrategias de manejo basadas en el
“conocimiento intensivo” son rentables, o si es mejor continuar con la estrategia de usar
el “conocimiento empaquetado”.
El “conocimiento intensivo” se refiere a las estrategias de manejo que dependen de
datos a nivel del lote y del establecimiento para tomar decisiones sobre aplicación de
insumos y prácticas de cultivo. Esos datos pueden ser obtenidos manualmente o
electrónicamente. Ejemplos del uso del “conocimiento intensivo” son la dosis variable
de fertilizantes y la densidad de siembra variable.
Por otra parte, en las estrategias de “conocimiento empaquetado”, la información se
compra en forma de insumo, y el usuario (productor) requiere una cantidad mínima de
datos adicionales, como por ejemplo, el maíz Bt y la soja Round-up Ready. Para aplicar
exitosamente estas nuevas tecnologías se necesitan relativamente pocas habilidades,
porque la tecnología viene en forma de “conocimiento empaquetado”, y no requiere la
compra de nuevos equipos ni de conocimientos adicionales para el manejo del cultivo.
Hay muchos estudios que dan razones para no adoptar la AP y son pocos los que la
incentivan (Griffin et al., 2004). Sin embargo, hay que tener en cuenta que los costos de
la tecnología de la información (hardware y software) están en constante disminución, a
la vez que su capacidad está en aumento. En el mundo actual, la gente incorpora cada
vez más la tecnología de información a sus vidas cotidianas, como ser las
computadoras, el GPS y los teléfonos celulares.
En los países del Cono Sur de América, los incentivos para adoptar la AP vienen más
por el lado del monitoreo y gerenciamiento de la producción y de los operarios, que por
el lado de la dosis variable. Por ejemplo, en Argentina, la alta adopción del monitor de
rendimiento antes que de la dosis variable, se debe a que ha probado ser una excelente
herramienta de diagnóstico agronómico y de administración de la maquinaria agrícola.
Además, los beneficios de los sistemas de guía por GPS con respecto a la reducción de
superposiciones y de áreas mal aplicadas son claros en Argentina y Brasil, donde se
aplican grandes superficies.
***
132
Experiencias del 8° Curso de Agricultura de Precisión
Desde un principio, nuestro interés por dicho curso, se basó en la idea de poder estar en
contacto directo con personas dedicadas completamente a esta actividad, hablar con
profesionales y técnicos altamente capacitados y autorizados para discutir de la
temática. Lograr esto, nos demostró de forma contundente, que el nivel de
conocimientos adquiridos en todo este tiempo que llevábamos estudiando esta actividad,
fué altamente superior a lo que esperábamos.
Tenemos que mencionar desde luego, que muchas preguntas encontraron respuestas
inmediatamente, no así con otras, ya que nos topamos con cuestiones que creíamos
conocidas o completamente estudiadas, pero al estar allí, eran diametralmente opuestas
a nuestros conocimientos previos.
Es decir, el curso fue positivo en todos sus aspectos, mas allá de las nuevas dudas
generadas por sobreentendimiento de algunas cosas, como ser el verdadero objetivo que
perseguía la Agricultura de Precisión (AP) en nuestro país actualmente.
De todas maneras creemos que la finalidad por la que fuimos al curso, fué lograda en su
generalidad.
Cuestiones como:
Según nuestra experiencia, creemos que no; que la AP es una actividad en constante
crecimiento y perfeccionamiento, sucediendo esto en cada vez más países del planeta.
Que en la actualidad, en nuestro país se desarrolla a paso firme y en continua evolución,
no sólo en la ventaja de maquinarias modernas (en calidad y cantidad) con las que se
cuentan sino también a través del conocimiento que crece día a día, en la sociedad y
especialmente en los productores.
En rigor, creemos que en cualquier actividad que se desarrolla y crece, no puede ser
posible que todo lo que incumbe a está, esté completamente concluido, sino todo lo
contrario, se apuntará a perfeccionar a la misma, tendiendo a su evolución permanente.
¿El cuidado del recurso suelo, su sustentabilidad y el beneficio económico, son los fines
de la AP?
133
prioridad número uno, debido al laboreo extensivo y pequeñas superficies agrícolas con
las que cuentan.
En cambio, en otras regiones como la nuestra, países como Brasil, Paraguay, Chile,
Uruguay y Argentina, adoptaron esta actividad para mejorar la relación costo-beneficio
en el uso de los distintos insumos para la producción; siendo en estos días la finalidad
en la que se enfoca la AP en nuestro país.
En conclusión
La experiencia de haber Participado del octavo curso de agricultura de precisión y el
tercero de maquinas precisas, desarrollado en el INTA Manfredi fue sumamente
positiva teniendo en cuenta que somos alumnos de Ingeniería en Agrimensura y
estábamos en un ámbito quizás propio de la Agronomía.
Durante tres días estuvimos involucrados en la realidad actual de la Agricultura de
Precisión en Argentina, interactuando con compañeros del curso, con el personal de
empresas prestadoras de servicios específicos de AP, con productores y hasta con Mario
Bragachini. Además fue muy importante haber presenciado cada una de las
disertaciones y poder sacar algún provecho de cada una de ellas.
El haber realizado este curso nos sirvió para ver realmente donde estamos ubicados, y si
estamos encaminados o no.
Claro está que la técnica AP aplica muchas herramientas que son más cercanas o
utilizadas por Ingenieros Agrimensores que por Ingenieros Agrónomos, pero el fin de
esa utilización es especifico de la Agronomía o mas precisamente de la Agricultura. Es
por ello que quienes hoy se dedican a la AP son mayormente Agrónomos pero
necesariamente debieron adquirir los conceptos de algunas herramientas como los
sistemas de posicionamiento globales, el manejo de coordenadas, manejo de imágenes
(satelitales o aerofotografías), software gráficos ( programas CAD), manejos de
modelos digitales de terreno, etc.
Al hablar con el personal de empresas prestadoras de servicios vimos quienes
manejaban muy bien los conceptos del funcionamiento de cada una de esas
herramientas, pero la mayoría conocía específicamente alguna de las herramientas y que
cada empresa presta algún servicio diferenciado de la empresa vecina, es decir hay
pocas empresas equipos.
La realidad es que la AP es una tarea multifinalitaria, que tiene como fin trabajar
un lote de manera diferenciada, estableciendo ambientes de trabajo (o sub-lotes),
esto es posible debido a la recopilación de información geoposicionada que se hace
en dicho lote y el fin esencial
134
tecnologías disponibles. En este último caso, existen numerosos ejemplos en los cuales
se ha realizado el manejo de los lotes de cultivos sobre la base de las tecnologías
disponibles, que van desde la medición de la ubicación sin uso de GPS (ubicación
relativa), uso de los registros históricos, hasta la aplicación manual de los insumos; lo
importante en este caso, es “hacer lo adecuado, en el momento indicado y en el sitio
correcto”.
135
Conclusión
136
La forma en la que vamos a concluir este trabajo, será mediante reflexiones y
razonamientos tanto técnicos como personales:
Conclusiones Técnicas:
Dejaremos plasmado las experiencias que como futuros profesionales pudimos obtener
en el tiempo que estuvimos estudiando esta actividad, contactándonos con otros
profesionales y estudiantes que estaban en menor o mayor medida "metidos" en esta
temática.
Vale recordar que nuestro trabajo se fundamentó siempre en la idea de sentar los
basamentos necesarios para marcar un importante antecedente dentro de esta actividad,
con la esperanza de que pueda perfeccionarse e interiorizarse cada vez más por otros
que sientan la misma voluntad y curiosidad en sumergirse en algo tan nuevo como
desconocido como lo es la AP.
Creo que con esto dejamos claro que todo lo que la Agrimensura pueda hacer en ésta
actividad sobrepasa cualquier tesis o trabajo final, dado que la misma está en continua
evolución y se hace imposible en la actualidad marcar un techo para su alcance.
Esto demuestra un gran campo de acción dentro de nuestra profesión por la inmensidad
de temas importantes que abarca esta nueva actividad agrícola.
La Agrimensura fue, es y deberá ser por sobre todo, una profesión con alcance
productivo, un actor importante en el bienestar social, un profesional capacitado para
contribuir a los distintos sectores productivos del país, como ser en la industria, el agro,
la minería, etc., para esto debemos desde ahora cambiar nuestra mentalidad e innovar
hacia el futuro.
La AP nos ha mostrado un nuevo campo de acción en el que se utilizan herramientas
propias de nuestra profesión.
137
Estamos entonces, capacitados para mencionar algunos temas que realmente podrían
considerarse por todos aquellos que quieran meterse en esto, como ser:
Estas pueden ser algunas propuestas que creemos válidas mencionar, en cada una de
ellas la Agrimensura puede jugar un rol importante.
***
138
Conclusiones Personales:
Por último creemos oportuno realizar un análisis crítico, sobre diversos conceptos que
se basan en mejorar la calidad de la formación profesional, que dentro de las
posibilidades deberían estar más desarrollados y actualizados como ser:
Dentro de la ciencia Topografía se podría considerar más tempranamente el estudio
de la compensación de errores, como así también el manejo digital de la
información.
Dentro de la Geodesia creemos conveniente dedicar más tiempo, y priorizar los
conceptos respecto de los GNSS y de esta manera tomar conciencia de la
importancia del avance y la aplicación de esta tecnología.
En Cartografía sería lógico interiorizarse en los aspectos matemáticos, precisiones y
el adecuado manejo de la cartografía digital, de esta manera servirán de base para un
correcto desarrollo de los SIG.
En cuanto a la Teledetección sería importante su estudio como una ciencia que
forme parte desde los inicios de la formación del alumno y que su conocimiento se
vaya perfeccionando en el transcurso de la carrera.
Es menester aclarar que todo lo mencionado sea tomado como algo constructivo y no
como una crítica vacía de ideas, ya que es muy fácil atacar lo que esta construido y es
muy difícil proponer ideas nuevas que ayuden a mejorar el nivel establecido. Sabemos
desde luego que todo puede ser mejorado y que para que esto suceda el único secreto es
trabajar a conciencia.
Para terminar, recordaremos que al comienzo de este trabajo, mencionamos la
generalidad de la falta de compromiso, mostrando una actualidad decadente no sólo en
el ámbito educativo sino en la sociedad misma, dejando así mismo un panorama
sombrío; sin embargo quisiéramos mostrar también la otra realidad, que tiene que ver
con el recurso humano con el que hoy en día sigue contando nuestra Universidad, yendo
desde el alumnado hasta los profesores, que día a día construyen dentro de sus
posibilidades, un contexto adecuado para el continuo desarrollo de las actividades
académicas. Mientras siga existiendo este recurso, podremos esperar siempre un futuro
promisorio.
139
Anexos
140
Contribución a la Geodesia en la Argentina de fines del siglo XX
"Homenaje a Oscar Parachu"
Campo Inchauspe
El sitio fue elegido en base a los análisis de la desviación posible de la vertical estudiada
por el doctor Guillermo Schulz y el ingeniero Guillermo Riggi O´Dwyer y se le asignó
la característica dominante en la época para un punto datum: coordenadas elipsóidicas,
latitud, longitud y acimut, iguales a las astronómicas y tangencia entre el elipsoide y el
geoide, es decir ondulación igual a cero. La decisión oficial se materializó mediante la
Disposición Permanente Nº 440 (30 de noviembre de 1946) del Instituto Geográfico
Militar.
***
En la época, la computación electrónica resolvía problemas de cálculo complejos y la
metodología había evolucionado desde ecuaciones de condición a la variación de
coordenadas, geodésicas en este caso.
El error medio de la unidad de peso del ajuste fue 0.42” y a la compensación de la red
fundamental siguieron las compensaciones de las redes de densificación de primero y
segundo orden medidas para la época. Esta red y sus coordenadas recibieron el nombre
de Campo Inchauspe 1969.
A continuación, y a medida que se cerraban polígonos o se completaban las redes de
densificación se realizaba su compensación. Dentro del marco rígido de cada orden
superior se calcularon y se ajustaron las redes de tercero y cuarto orden y también se
produjeron al mismo sistema los trabajos previos existentes en el país.
141
La precisión de la red puede considerarse comprendida entre 3 y 10 ppm (partes por
millón) en base a los resultados estadísticos de las compensaciones parciales.
También puede analizarse a partir de su comparación con patrones externos. Al
respecto existen dos principales: la red Doppler 1978 y la red POSGAR 94.
La comparación de una decena de vectores (cuerdas) entre la red Doppler y la red
Inchauspe presentó una discrepancia media de 2.7 ppm.
Al hacer un análisis similar respecto de la red POSGAR, esta vez cotejando 30 líneas
geodésicas, la disparidad fue de 3.3 ppm.
La generación de POSGAR
Era evidente que someter las mediciones GPS al marco Inchauspe involucraba una
degradación de la precisión de las nuevas mediciones satelitarias y en consecuencia era
imprescindible disponer de una red que cubriera la totalidad del país.
La cual estuvo signada por la difusión masiva de los sistemas de información geográfica
y territorial y la adopción de la tecnología de posicionamiento GPS como herramienta
casi excluyente para el posicionamiento geodésico.
La demanda ejercida desde un mundo cada vez más tecnificado sobre los recursos
naturales y el medio ambiente fue creciendo en forma sostenida, acrecentando
paralelamente la demanda de información territorial precisa y actualizada.
La decisión de desarrollar la red fue tomada por el Instituto Geográfico Militar (I.G.M.)
y tuvo el apoyo expresamente manifestado del VIII Congreso Nacional de Cartografía y
del VIII Congreso Nacional de Agrimensura así como de la comunidad geodésica
nacional.
El I.G.M. dio a conocer las coordenadas de la red en 1995 bajo el nombre de
POSGAR’94 y el 9 de mayo de 1997 definió a POSGAR 94 como marco de referencia
geodésico nacional (Resolución 13/97).
142
Consecuencias e impacto de POSGAR 94(Para su época)
Una ventaja adicional de POSGAR 94 será que frente una evolución hacia
POSGAR 98 (u otro) la transformación será simple y mínima pues se tratará de
sistemas concéntricos y con el mismo elipsoide de referencia.
***
143
El sistema POSGAR 98 (Situación)
Mientras que una red de alta precisión puede satisfacer las necesidades de los usuarios
que sólo requieren baja precisión, la inversa es a todas luces falso. Si bien la diferencia
entre los sistemas POSGAR 94 y POSGAR 98 serán imperceptibles para la mayoría de
los usuarios, el refinamiento del sistema permitirá su uso en aplicaciones más exigentes.
Experiencia concreta
Con el objeto de realizar una experiencia concreta de integración de una red geodésica a
un marco de primer orden, se trabajó con información correspondiente a una de las
subredes del Programa de Asistencia Técnica al Sector Minero Argentino (PASMA),
llevada a cabo en las provincias de Salta, Catamarca, La Rioja y San Juan.
Esta red de vectores GPS fue medida entre los meses de julio y agosto de 1997, por la
Unión Transitoria de Empresas Esteio-IFTA, dentro del marco del PASMA, financiado
por el Banco Mundial y auspiciado por el Programa Naciones Unidas para el Desarrollo
(PNUD). Esta red fue procesada y ajustada en 1997, apoyándose en POSGAR 94.
144
Resultados
Se consideraron las siguientes alternativas:
ITRF 97. Se consideraría esta opción ya que sus coordenadas han sido definidas para
1997.0, época más próxima a la de la campaña del PASMA. En este caso si bien se
debían aplicar también velocidades, la propagación del error no resultaría tan
significativa como en el caso anterior.
POSGAR 98. En esta realización si bien sus coordenadas están referidas al marco
ITRF94, tienen menor precisión que los puntos de la misma. El interés por utilizar este
marco se fundó en la hipótesis de que una mejor distribución y una mayor cantidad de
puntos de control, podría resultar en una mejor solución.
POSGAR 94. Por tratarse del marco de referencia oficial del país y además permitiría
evaluar las mejoras debidas al procesamiento científico.
El datum geodésico SIRGAS está definido por el origen, la orientación y la escala del
sistema SIRGAS, éste, en combinación con los parámetros del elipsoide GRS80,
permite la conversión de coordenadas geocéntricas a coordenadas geográficas.
145
La extensión del marco de referencia SIRGAS está dada a través de densificaciones
nacionales, las cuales a su vez sirven de marcos de referencia local.
***
SIRGAS 95
146
para toda la red. Las mediciones fueron procesadas independientemente por el DGFI
(Deutsches Geodätisches Forschungsinstitut) y NIMA (US National Imagery and
Mapping Agency, actualmente NGA: National Geospatial-Intelligence Agency). DGFI
utilizó el software Bernese, v. 3.4 con algunas modificaciones implementadas por ese
Instituto, mientras que NIMA trabajó con el software GIPSY/OASIS II. La
comparación de las soluciones a través de una transformación de similitud de siete
parámetros (transformación de Helmert) arrojó como máxima diferencia 3,5 cm con
RMS de ±1,0 cm en X, ±1,4 cm en Y y ±0,7 cm en Z. Las principales causas de estas
discrepancias se basan en que se utilizaron diferentes efemérides satélitales en los
procesamientos individuales y en que la dependencia de las variaciones de los centros
de fase con respecto al ángulo de elevación no fueron tenidos en cuenta en la solución
de NIMA. La solución final combinada de SIRGAS95 está referida al ITRF94, época
1995.4.
147
SIRGAS 2000
***
148
REDES NACIONALES
149
Densificación ITRF/SIRGAS
Marco de
Estaciones Referencia
Nombre pasivas/ Oficial
continuas
POSGAR98: Posiciones Geodésicas
Argentinas, 1998 (SIRGAS95, epoch POSGAR94
Argentina 1995.4) 139 / 25 (WGS84, época
CON*:RAMSAC: Red Argentina de 1993.8)
Monitoreo Satelital Contínuo
MARGEN: Marco Geodésico Nacional
CON*: Red de estaciones GPS SIRGAS95,
Bolivia 125 / 8
continuas (not included in SIRGAS- época 1995.4
CON)
SIRGAS2000
SIRGAS2000,
Brazil CON*: RBMC (Red Brasileira de 1903 / 61
época 2000.4
Monitoramento Contínuo)
SIRGAS-CHILE
SIRGAS2000,
Chile CON*: Red de estaciones activas fijas 269 / 13
época 2002.0
(9 incluided in SIRGAS-CON)
MAGNA-SIRGAS: Marco Geocéntrico
Nacional de Referencia SIRGAS95,
Colombia 70 / 35
CON*: MAGNA-ECO (MAGNA época 1995.4
Estaciones Continuas)
CR05: Sistema de Referencia Costa ITRF2000,
Costa Rica 34 / 1
Rica 2005 época 2005.8
Red básica GPS
SIRGAS95,
Ecuador Red CON*: REGME (Red GNSS de 135 / 7
época 1995.4
Monitoreo Contínuo de Ecuador)
French RGFG: Réseau Géodésique Français de ITRF93, época
7/1
Guyana Guyane 1995.0
RGNA: Red Geodésica Nacional Activa ITRF92, época
Mexico 0 / 17
(CON*) 1988.0
Sistema Geodésico Nacional ITRF2000,
Panama 20 / 3
MACARIO SOLIS época 2000.0
SIRGAS95,
Peru PERU96: Sistema Geodésico Nacional 47 / 1
época 1995.4
SIRGAS-ROU98
SIRGAS95,
Uruguay CON*: Red de estaciones permanentes 17 / 3
época 1995.4
de referencia
SIRGAS-REGVEN: Red Geocéntrica
Venezolana SIRGAS95,
Venezuela 156 / 4
CON*: REMOS (Red de estaciones de época 1995.4
monitoreo satelital GPS)
150
El SIRGAS-GTII (Datum Geocéntrico) fue creado en 1993 con el propósito de
establecer un datum geocéntrico para América del Sur. Además de la definición del
datum, el SIRGAS-GTII se ocupó de adelantar un diagnóstico sobre el estado de los
sistemas de referencia locales existentes en América del Sur, con el objetivo de diseñar
una estrategia para su integración (o modernización) en el nuevo sistema SIRGAS.
Después de un censo detallado sobre los intereses particulares de cada país, se concluyó
que cada uno de ellos debía adelantar individualmente dicha integración, pero siguiendo
las recomendaciones formuladas por este grupo de trabajo. Desde febrero de 2001,
cuando SIRGAS fue extendido a todo el continente, el SIRGAS-GTII se ocupa
igualmente de los países centro americanos y del Caribe.
La estrategia general utilizada para integrar los datum geodésicos locales en SIRGAS se
basa en:
i) Establecimiento de una red nacional GNSS de primer orden (con estaciones pasivas o
de funcionamiento continuo).
ii) Determinación de los parámetros de transformación entre los sistemas locales y
SIRGAS.
iii) Adopción de SIRGAS como marco de referencia oficial en cada país.
VELOCIDADES
X (t) = X (t0) + (t - t 0) * Vx
Y (t) = Y (t0) + (t - t 0) * Vy
Z (t) = Z (t0) + (t - t0) * Vz
Siendo X(t), Y(t), Z(t) las coordenadas en la época deseada, X(t0), Y(t0), Z(t0) las
coordenadas en la época de referencia, (t - t0) el intervalo de tiempo transcurrido entre la
151
realización del sistema de referencia y el levantamiento GNSS y Vx, Vy, Vz las
velocidades de las estación de referencia.
3. Vx, Vy, Vz deben tomarse de las soluciones multi anuales de la red SIRGAS-CON
generadas por el IGS-RNAAC-SIR. Si la estación de referencia no está inlcuida en
dichas soluciones, Vx, Vy, Vz pueden tomarse del modelo VEMOS. Este modelo
corresponde a una cuadrícula de 1° x 1° con velocidades horizontales.
***
152
Red Argentina de Monitoreo Satelital Continuo
PROYECTO RAMSAC
El Marco de Referencia Geodésico Nacional constituye la base fundamental sobre la
que se apoya toda la cartografía del País. Sin marco de referencia no hay cartografía
posible.
Sobre este marco de referencia desarrollan sus tareas las Provincias, Municipios,
Catastros, empresas públicas y privadas y usuarios particulares.
En el año 1997, empleando la tecnología satelital (GPS), y por disposición del IGM, se
produce el cambio al nuevo Marco de Referencia POSGAR 94 constituido por 127
puntos distribuidos homogéneamente a lo largo y ancho del País.
• Satisfacer requerimientos de orden técnico por parte de los usuarios de las modernas
técnicas de posicionamiento satelital.
• Asesorar y colaborar en la instalación de nuevas estaciones GPS permanentes a todas
las Instituciones que deseen incorporarse a la Red RAMSAC, para que los datos sean
publicados en Internet y puedan ser accesibles en forma libre y gratuita.
• Contribuir al perfeccionamiento y mantenimiento del Marco de Referencia Geodésico
Nacional (responsabilidad del Instituto Geográfico Militar).
1. El creciente y cada vez más accesible empleo de la moderna técnica de medición por
parte de los usuarios.
2. El interés de las organizaciones estatales y privadas, organismos e instituciones
científicas por participar del proyecto
3. La definida tendencia mundial a un nuevo concepto en el establecimiento de los
modernos marcos de referencia: Los definidos por las redes de estaciones GPS
permanentes.
153
datos en servidores internacionales de acceso gratuito, a partir de ese año y por
iniciativa del IGM los datos de las estaciones por primera vez fueron publicados en un
servidor Nacional de acceso público y gratuito, materializando la creación de la Red
RAMSAC.
154
procesamiento de los datos.
Este usuario está limitado en cuanto a la distancia entre los puntos para obtener un
resultado preciso, debido a que para distancias mayores a 25 Km., la precisión de las
mediciones comienza a decaer.
Para los usuarios de receptores que operan con doble frecuencia, el problema está
minimizado. Luego de un exhaustivo estudio acerca de los radios de cobertura que
podrían abarcar las estaciones, se llegó a la conclusión que para una distancia de 300
Km., procesando en una sola frecuencia se puede trasladar una coordenada con un error
menor al metro en las tres componentes (Latitud, Longitud y Altura Elipsoidal). Este
estudio se realizó sobre observaciones de la Red POSGAR de 6 horas de duración, cuyo
detalle se encuentra publicado en la Revista Cartográfica Número 68 (Junio 1999), del
Instituto Panamericano de Geografía e Historia. Posteriormente se realizaron nuevos
estudios, luego de la desactivación del S/A (Selective Availability, 1 de mayo de 2000),
en este caso se utilizaron observaciones de 3 horas de duración, es decir la mitad del
tiempo del primer estudio y los resultados se mantuvieron en el orden de los 0.50 m.
para las diferencias de procesamiento entre L1 y L1c en vectores de 300 km.
aproximadamente.
Las coordenadas de las estaciones están expresadas en el Sistema de Referencia
POSGAR 94, por ser el Sistema oficial de la República Argentina definido como tal en
el año 1997.
Antecedentes de la Red Argentina de Monitoreo Satelital Continuo
Durante los años 1993 y 1994, el Instituto Geográfico Militar (IGM), en un trabajo
conjunto con el Consorcio de Universidades Americanas (UNAVCO), midió la Red
POSGAR 94, encomendando el procesamiento de la misma a la Universidad Nacional
de La Plata (UNLP).
La Red POSGAR 94, debido a las grandes ventajas de la tecnología GPS, empezó a
extender su uso a todos los ámbitos de la Agrimensura y Topografía, de esta manera las
coordenadas de los puntos de la Red se hicieron cada vez más imprescindibles para las
distintas aplicaciones de precisión.
En el año 1997 el IGM adopta POSGAR 94 como Marco de Referencia Geodésico
Nacional para la República Argentina en forma oficial. Se tomó esta resolución
apoyados en los distintos estudios que se realizaron, de los mismos se concluyó que las
coordenadas del Sistema POSGAR 94 se adaptan mucho mejor a las necesidades de
precisión actuales, en vista del uso de las nuevas técnicas de medición GPS y con la
necesidad de acompañar el proceso de cambio emergente a nivel mundial. En ese
Marco, el punto IGM0, integrante de POSGAR 94 toma trascendencia para la
comunidad geodésica al constituir el único punto de la Red ubicado en la Ciudad
Autónoma de Buenos Aires. La necesidad de contar con datos provenientes del mismo,
ya sea con carácter comercial, científico o educativo, transforma en frecuentes las
consultas de los usuarios y las solicitudes de autorización para su ocupación temporal.
En el año 1998, se decide emplazar un nuevo punto en las instalaciones del Servicio
Internacional de la Hora (dependientes del IGM), predio ubicado cercano a la estación
Migueletes del FFCC. Gral. Bartolomé Mitre, Partido de San Martín en la Provincia de
Buenos Aires con el fin de facilitar a los usuarios su utilización para las actividades
propias de cada uno. Dicho punto es vinculado a la Red en forma precisa, e incorporado
al cálculo de POSGAR 98, constituyendo así un punto de la misma calidad que IGM0.
155
Concretada esta actividad, se instala en el punto IGM0 un receptor GPS Geodésico con
la idea de recoger datos en forma permanente y ponerlos a disposición del público
usuario brindando un servicio de gran importancia, porque facilita la vinculación de los
trabajos realizados por profesionales independientes al Marco de Referencia Nacional.
De esta manera se crea en agosto del año 1998, la Primer Estación Permanente de la
Red POSGAR 94 operada en su totalidad por profesionales y técnicos del IGM. En
base a esta experiencia, surge la propuesta de plasmar una Red de estaciones
permanentes, en condiciones de brindar este servicio en todo el territorio nacional,
aprovechando las facilidades técnicas y el exitoso desarrollo del Proyecto CAP (Central
Andes Project).
En el mes de octubre de 1998, el proyecto es presentado ante el Gabinete de Ciencia y
Técnica de la Nación (GATEC), para su inclusión en el Plan Plurianual de Ciencia,
Tecnología e Innovación 1999/2001. En el mes de diciembre de 1998 se expone el
proyecto en las jornadas “Presente y Futuro de la Geodesia” organizadas por el IGM y
la UNLP.
Durante el mes de enero de 1999, a través del Instituto de Investigaciones Geodésicas y
Geofísicas de Alemania (DFGZ), la estación IGM0 comienza a remitir diariamente los
datos de su medición al International Geodetic Service (IGS), pasando así a conformar
el conjunto de estaciones que determinan el Marco de Referencia Terrestre
Internacional (International Terrestrial Reference Frame - ITRF).
Fuente: “www.igm.gov.ar”
156
Mapa de la Red Argentina de Monitoreo Satelital Continuo
***
157
Aumentación
SBAS (Aumentación)
Sin lugar a dudas el futuro de los GNSS apunta directamente al perfeccionamiento de
su disponibilidad y precisión, es por ello que en la actualidad el término Aumentación
esta resonando entre los profesionales que hacen uso de los sistemas de posicionamiento
global, siendo esta una nueva actividad que asegura una mejor determinación en las
mediciones hechas por satélites, en lo que refiere a posicionamiento absoluto. En la
AP, como veremos mas adelante, el geopocisionamiento juega un rol primordial, y al
ser una actividad en continuo crecimiento creemos que en un tiempo no tan lejano,
ambos conceptos deberán cruzarse.
SBAS, abreviatura inglesa de Satellite Based Augmentation System (Sistema de
Aumentación Basado en Satélites), es un sistema de corrección de las señales que los
Sistemas Globales de Navegación por Satélite (GNSS) transmiten al receptor GPS del
usuario. Los sistemas SBAS mejoran el posicionamiento absoluto del receptor y dan
información sobre la calidad de las señales. Aunque inicialmente fue desarrollado para
dar una precisión mayor a la navegación aérea, cada vez se está generalizando más su
uso en otro tipo de actividades que requieren de un uso sensible de la señal GPS. Equipo
de campo realizando levantamiento de información sísmica usando un receptor GPS
Navcom SF-2040G StarFire montado sobre un mástil.
Actualmente están desarrollados o en fase de implementación los siguientes sistemas
SBAS:
WAAS (Wide Area Augmentation System), gestionado por el Departamento de
Defensa de los Estados Unidos.
158
Incrementar la exactitud del sistema GPS para cumplir con los requisitos
de un medio único de navegación para aproximaciones de precisión. Sin
aumentación de ningún tipo, el NAVSTAR-GPS o GLONASS pueden ser
utilizados únicamente para aproximaciones de no-precisión (NPA).
Funcionamiento
159
interpola entre los puntos de la cuadrícula para calcular la corrección ionosférica a lo
largo de su línea de alcance óptico a cada satélite.
Además de correcciones de reloj, efemérides e ionosféricas, el SBAS evalúa y transmite
parámetros que limitan la incertidumbre en las correcciones. Combinando estos cálculos
de incertidumbre en las correcciones con cálculos de las incertidumbres en su propia
exactitud de mediciones de pseudodistancia, el receptor SBAS de usuario modela un
error para su solución de navegación propia.
Es importante distinguir entre las zonas de cobertura y las zonas de servicio SBAS. La
zona de cobertura se define por las huellas en tierra (foot prints) de las señales de los
satélites geoestacionarios. Las zonas de servicio para un SBAS determinado se
establecen por el estado dentro de la zona de cobertura SBAS. El estado es el
responsable de designar los tipos de operaciones que pueden apoyarse dentro de una
zona de servicio determinada.
160
Bibliografía
www.agriculturadeprecision.org
www.cosechayposcosecha.org
www.upcommons.upc.edu
www.aagg.org.ar
www.agrimensoft.com.ar
www.igm.gov.ar
www.topografíaglobal.com
www.sirgas.org
www.agrimensores.org.ar
www.efn.uncor.edu
www.cplat.fcaglp.unlp.edu.ar
www.ez-guide.com
161