Está en la página 1de 166

Edmundo FEdErico Burgos

Silvina laura Ferri


José Francisco Malacrida

Aporte de lA IngenIeríA en
AgrimensurA A lA AgriculturA de
Precisión
UNIVERSIDAD NACIONAL DE ROSARIO
FACULTAD DE CIENCIAS EXACTAS INGENIERÍA Y AGRIMENSURA

INGENIERÍA EN AGRIMENSURA

TRABAJO FINAL

Aporte de lA IngenIeríA en AgrImensurA A lA


AgriculturA de Precisión

DIRECTOR A CARGO: ING. ALDO MANGIATERRA


Este trabajo está dedicado
a aquellas personas que hacen
de la responsabilidad
y el trabajo productivo
su labor diario.

Agradecemos por sobre todo, a nuestros padres y hermanos por el esfuerzo realizado y
el continuo acompañamiento a lo largo de estos años, a nuestros compañeros de
estudios por los buenos momentos compartidos, a los profesores por las enseñanzas
brindadas, a nuestro amigos y compañeros de trabajo, a los profesionales que nos
brindaron su tiempo y conocimientos incondicionalmente; y a nuestra Universidad que
a pesar de las adversidades nos siguen ofreciendo una educación libre y gratuita,
manteniendo un nivel de jerarquía.
Índice

CAPITULO I.

Introducción…………………...………………………………………………....Página 2
Agricultura de Transición…………………………………………………….….Página 7
Consideraciones de la temática Agricultura de Precisión…………...………… Página 10
Las tres Columnas…………………………………………………...………… Página 12

CAPITULO II.

Conceptos Aplicados……………………………………………….…………. Página 16


Topografía…………………………………………………………..…………. Página17
Geodesia………………………………………………………………………. Página 18
Cartografía………………………………………………………….………......Página 24
Coordenadas………………………………………………………...………….Página 28
Sistemas de Referencias…………………………………………….…..……...Página 29
Tipos de Coordenadas……..…….......................................................................Página 31
Coordenadas planas Gauss Krüger……..……………………………………...Página 32
Teledetección………………………………………………………………….. Página 33

CAPITULO III.

GNSS (Sistema Satelital de Navegación Global)……………………..……...Página 37


NAVSTAR-GPS………………………………………………………………. Página 38
GLONASS…………………………………………………………..…………Página 41
GALILEO…………………………………………………………..…………. Página 43
GPS (Posicionamiento Global)……………………………………...…..……...Página 45
Ecuaciones de observación…………………………………………..…………Página 48
Consideraciones de los errores……………………………………..…………..Página 49
Posicionamiento con código C/A…………………………………..…………. Página 52
Posicionamiento diferencial………………………………………..…………..Página 52
Precisiones…………………………………………………………..………… Página 54
Aplicación de la corrección diferencial……………………………..………… Página 55
WADGPS…………………………………………………………..…………. Página 55
VIA INMARSAT…………………………………………………..…………. Página 56
Posicionamiento con fase…………………………………………..…………..Página 57
Posicionamiento relativo estático………………….…………………………...Página.62

Simples diferencias…………………..…………………………………………Página 63
Dobles diferencias…………………….…………………………………...….. Página 64
Triples diferencias………………………………………………………….…. Página 65
Resolución de ambigüedades……………………………………………….… Página 67
Precisiones………………………………………………………………….… Página 70
Georreferenciación……………………………………………………………. Página 72
CAPITULO IV.
La agricultura de precisión……………………………………………….…… Página 75
¿A qué se le llama AP?....................................................................................... Página 76
¿Porqué hace 20 años no se podía hacer AP y ahora sí?.................................... Página 79
¿Cuáles son las tareas agrícolas vinculadas a la AP?......................................... Página 80
¿Cuál es la precisión necesaria en cada una de ellas y como se obtiene
esaprecisión?....................................................................................................... Página 81

CAPITULO V.
Etapas de la Agricultura de Precisión…………………………………………. Página 83
Primera Etapa: “Determinación o Recolección”…………………………….... Página 85
Topografía……………………………………………….………………..…….Página 85
Monitoreo de rendimiento…………………………….………………….…….Página 88
Análisis de suelo………………………………………………… …………….Página 90
Malezas, plagas y enfermedades…………………………………………….… Página 92
Mapas de suelo, Mapa de napa y Mapa de tosca……………………………… Página 92
Sensoramiento remoto del suelo y cultivo………………...…………………... Página 93
Segunda Etapa: “Análisis de datos”………………………………..…………. Página 95
Zonas de manejo……………………………….……………………………… Página 96
Geostadística………………………………………...………………………… Página 97
Tercera Etapa: “Actuar”………………………………………………………. Página 99
Siembra variable…………………………………………...………………… Página 100
Fertilización varible………………………………………………….……… Página 101
Tecnología de riego varible…………………………………………..……… Página 101
Control de Malezas, Plagas y Enfermedades con Dosis Variable…………… Página 102
Sistemas de guiado………………………………………………...………… Página 104

CAPITULO VI.
Desarrollo práctico……………………………………………………….……Página 111

CAPITULO VII.
Estandarización de la información…………………………………………… Página 119
Dificultades concretas presentadas a un profesional de la Agrimensura.……..Página 122
Modelo de Información Final…………………………………………...…… Página 123
Cuestiones a considerar para el modelo estandarizado de información………Página 124

CAPITULO VIII.
Perspectiva y futuro de la Agricultura de Precisión en Argentina…………… Página 127
¿Por qué es necesaria la agricultura de precisión en nuestro país?…………....Página 128
Limitantes e incentivos para la adopción……………………………………...Página 132
Experiencias del 8° Curso de Agricultura de Precisión…………………….…Página 133

Conclusión………………………………………….…………………………Página 136

Anexos………………………………………………...………………………Página 140

Bibliografía……………………………………………………………………Página 161
CAPÍTULO I

1
Introducción

“La prosperidad de una Nación no depende tanto de la posesión de ricas minas de oro
cuanto de la formación de ciudadanos inteligentes y virtuosos, capaces de darse cuenta
de que no sólo labran su dicha personal, sino también la de sus compatriotas y
semejantes”
Joaquín V. González

2
Tesis: conclusión o proposición que se mantiene con razonamientos // Trabajo inédito y
original que se presenta para la obtención del doctorado universitario

Tesina: disertación escrita que se exige para obtener una licenciatura universitaria

***

Trabajo Final (Concepciones)

La realización de un trabajo o tesis final de una carrera, numerosas veces es considerada


como la última materia a rendir o particularmente, como el último obstáculo que impide
el cierre absoluto de una etapa que se desea terminar.
Incontables veces por la necesidad real que surge por una determinada situación
económica, otras por el solo hecho de hacerlo cuanto antes y “como sea”. También
existen aquellos casos en que dicha tesis es rebajada a una mera tarea de la profesión
con algunas complicaciones que en realidad, sólo sirven para rellenar un trabajo
destinado a no proponer nada nuevo, o a lo sumo servir de antecedente para un futuro
trabajo que podría, o no, llegar a presentársele a un profesional en actividad.

Hablar de este tema y la complejidad de sus consecuencias no es el fin y tampoco


pretendemos que lo sea en nuestro trabajo, pero por lo menos creemos importante
mencionarlo, sobre todo por la forma y dirección que toman la generalidad de las
opiniones que justifican de muchas maneras la eficiencia mediocre de los trabajos que
se presentan.

Esto no debe tomarse como una afirmación que englobe a todos en todos los tiempos;
sino que creemos, que en la mayoría de los casos está presente el resultado de la
decadencia educacional impregnada en el ámbito pedagógico, sumada a una errónea
política universitaria que desvaloriza la importancia del docente como elemento esencial
de formación, considerando así también el retroceso social que azota aún hoy, a nuestro
país.

Concluyendo todo esto en funestas consecuencias formadoras de ideas erróneas que


aceptadas inconcientemente (según parece) dentro de cada uno de nosotros, nos llevan a
creer ciertamente que la formación del futuro profesional apunta más a satisfacer las
necesidades de grandes empresas y/o industrias que se muestran y aparentan ser como
las “gallinas de huevos de oro” posadas sobre el Estado, ostentadas como la solución o
el fin y no como el medio o la herramienta necesaria para dar al individuo y a la
población una vida digna y de trabajo productivo.

Aparentemente, casi tendríamos que agradecer la existencia de estas corporaciones y


sentir orgullo por su asentamiento en nuestro territorio, cosa totalmente absurda dado
que estas se sirven igualmente de la producción de nuestra tierra.

3
Si bien es cierto también que hacen posible tal producción a través de inversiones de
parte de ellas mismas; pero de ahí a que consideremos ser subyugados a la voluntad de
éstas por tales inversiones, ese será siempre el peor pecado que podríamos cometer
como una Nación soberana.

Por todo lo dicho, el fututo profesional debe considerar y tener siempre en cuenta
su verdadera misión y responsabilidad hacia la sociedad ante todo, la honradez
para con el mismo y el deber para con la profesión, de la cual él se sirve.

Para esto la universidad debe ser el lugar del cual su máxima finalidad será, formar
individuos que puedan desarrollar criterios propios, apuntando siempre objetivamente a
la realización de tareas que puedan mejorar la calidad de vida de la población, siendo
este el único fin que corresponderá alcanzar todo profesional en actividad.

En resumen, la universidad sentará las bases para crear profesionales dedicados y


comprometidos con la finalidad social para la cual están capacitados; y nunca
engendrar futuros empleados con ideas de sometimiento hacia los mercados
existentes.

Esto es y deberá ser siempre el propósito de toda institución universitaria.

***

A esta altura creemos que será reiterativa pero no menos importante recordar que no es
nuestra idea la de hacer de este un trabajo con rasgos políticos, solo que todo lo dicho
anteriormente encierra para nosotros un significado altamente relevante dentro de lo que
constituye nuestra vida académica.

El hecho de que todos y cada uno de nosotros pensamos muchas veces en que la
facilidad y el menor esfuerzo sea la respuesta para todos los obstáculos que se nos
presentan a diario, deja mucho que desear, siendo esta una costumbre que va mas allá de
la vida universitaria.

Aún menor valor le adjudicamos a la formación del carácter del individuo y mucho
menor todavía a la labor de fomentar el sentimiento de la satisfacción en la
responsabilidad; siendo así, casi nula la importancia dada a la educación de la voluntad
y del espíritu de decisión.

El problema es que por lo menos en la universidad este adoctrinamiento del menor


esfuerzo debería ser borrado o por lo menos tratar de eliminarlo a través de palabras y
ejemplos; ya que no es necesario estar alerta en todo momento sobre el alumno, ver de
cierta manera si está cometiendo algún fraude en un parcial o no, o investigar si el
trabajo que está presentando es genuinamente realizado por él, por citar algunos
ejemplos.

Debería ser la confianza el motor que mueva las relaciones entre alumno y
profesor, donde el sacrificio diario deberá ser la llave para alcanzar la meta en
cada materia, que no es solo la de aprobarla, sino también la de entenderla y
elaborar conclusiones propias de la misma.

4
Porque no existe la necesidad de parte del alumno, la de conocer una materia de la A a
la Z, ni la de memorizar conceptos sin validez práctica inmediata; con que el alumno
haya entendido y adherido a él la idea de la aplicación para la cual la materia está dada
como así también su fundamentación teórica y practica, será más que suficiente.

El drama que surge en la escena de la realidad, por dar un ejemplo, yace en ambas
partes (alumno y profesor).

El primero por el escaso tiempo y abaratado estilo de vida que pueda tener un
estudiante, que en la generalidad de los casos se da, por pertenecer a otros lugares o
regiones que nada tienen que ver con las grandes ciudades donde se asientan las
universidades, y de ahí el ineficiente rendimiento para con la facultad.
Aunque no siendo ésta la justificación de tal ineficiencia, ya que el problema originario
radica desde luego en la formación personal incompleta consolidada en él y la
influencia de un sistema educacional en declinación radicado en nuestro país.

En segundo lugar, por la falta de mérito de algunos docentes que consideran su trabajo
como el sacrificio diario que deben cumplir y posicionan tales actividades académicas a
la altura de otros compromisos personales, malinterpretando y menospreciando el lugar
que ocupan en la universidad.

Cuando todo esto se vuelve corriente, el tiempo transcurre imperturbable, hasta que un
día llega el momento de realizar el tan esperado trabajo final, con el cual el alumno
demostrará que con las herramientas adquiridas a través de todo el cursado, podrá
desarrollar y concluir un trabajo inédito que podrá servir de base para que otros puedan
seguir optimizando el mismo y utilizarlo para diferentes fines prácticos.

Lo que vemos en realidad es un lamentable cuadro ya mencionado al principio y es en


ese momento en que el adoctrinamiento del menor esfuerzo aparece con todas sus luces.

Las causas ya las explicamos a grandes rasgos y seria reiterativo seguir mencionándolas
o indagar más en ellas. Lo que sí es imprescindible decir, es que aparentemente no hay
culpables ni víctimas en todo esto, por lo menos nunca llegaremos a ver cuales son cada
uno de ellos y diferenciarlos bien.

¿Será porque en realidad los culpables y víctimas sean lo mismo?

¿O es que todos formamos parte de ambas posiciones?

No hay respuestas a lo mejor para esto; y si las hay, serán explicadas con ideas
filosóficas más profundas y de un orden mayor de investigación que cualquier
palabrerío redundante.

Lo que podemos por lo menos mencionar, es la urgente necesidad de un cambio de


ideas en cuanto a responsabilidades y deberes que nos conciernen a los estudiantes
dentro de la universidad.

5
Entender de una vez por todas que el título no nos dará la grandeza de ser
profesionales, perteneciendo así a una casta diferentes de otros que se someterán a
nosotros, sino que la grandeza misma recaerá en que tan digno y responsable
seremos como tales y que tan útil llegaremos a ser para la sociedad a la cual
serviremos.

Es así, que una tesis final debe apuntar a dos objetivos primordiales; el primero será el
de que a través de teorías y técnicas propias de cada profesión, se deberá apuntar a
satisfacer o resolver un problema que afecte a la sociedad o a una parte de ella, logrando
desarrollar un resultado aplicable y práctico, comprobando y/o demostrando el mismo;
y segundo, se debe apuntar al reconocimiento de la carrera, como aporte activo y
verdadero para la solución del problema, haciendo valer su intervención sin desmedro
de otras profesiones que pudiesen interactuar con la misma.

Por lo tanto, no bastará con cumplir alguna de ellas, o a medias una y otra, el fin debe
ser el cumplimiento de ambos objetivos.

Logrando así, no sólo el reconocimiento personal de los que intervienen, sino


también alcanzando un mayor provecho, que será el de haber servido
profesionalmente a otros para obtener el bienestar de todos.

6
Agricultura de Transición

La agricultura, según entendemos; fue una de las principales actividades productivas por
excelencia con las que contó y cuenta el hombre, o lo que es lo mismo, junto a la
ganadería, la minería y la pesca, la agricultura fue una de las primordiales fuentes de
riquezas y abastecimiento para la humanidad y representan el sector primario de la
economía.

Si buscamos en los diccionarios, estos nos dirán que la agricultura es el arte de cultivar
la tierra y que fue una de las actividades del hombre prehistórico, donde la producción
de alimentos conllevó a asentamientos en poblados (sedentarización) y la acumulación
de excedentes, donde la agricultura primitiva ocupaba los suelos temporalmente, hasta
que se empezaron a cultivar los fértiles valles aluviales de los grandes ríos
(Mesopotamia, Egipto).

Si pretendiésemos hacer una redacción completa de la agricultura a través de la historia,


nuestro trabajo se convertiría en un texto difícil de terminar, por lo que nos limitaremos
a lo sumo a mencionar la importancia de esta actividad dentro de nuestro país; que por
cierto constituye y representa la columna principal de producción dentro del mismo, es
por ello que la agricultura es para nosotros un tema que nos apasiona y por lo mismo, es
el tema en el cual elegimos meternos, investigar, estudiar, entender y llegar incluso a
sacar conclusiones “apuradas” pero no menos válidas, acerca de su importancia, sus
ventajas y porque no de sus desventajas; porque la importancia y las ventajas de la
agricultura son hartamente conocidas, pero algunos nos preguntarán ¿qué desventaja
puede tener la agricultura como actividad productiva?, en realidad creemos que la
desventaja no nace de ésta, sino de lo que podríamos llegar a sacar de ella. Es decir;
nuestro país jamás tuvo una política verdaderamente industrializada de la materia prima
que nos otorga la agricultura, siempre se pensó en obtener el elemento primario de los
campos fértiles de nuestra patria y vendérselos a terceros, para luego comprar a valores
exorbitantes, productos procesados y envasados de nuestra materia prima pero
realizados en otros países, seguramente incontables veces nos habremos preguntado
porqué ese proceso no lo hacemos en nuestro propio país. Si bien es cierto que para ello
hacen falta inversiones y sacrificios por parte del Estado, también es cierto que jamás se
adoptaron medidas de incentivación hacia los productores para llevar la materia prima a
otro nivel; pudiendo él mismo elaborar diferentes tipos de productos industrializando su
empresa.

Parece ser que la idea de producir en nuestro país nace en sembrar una semilla y
muere cuando se cosecha y se vende el fruto de esa semilla, dejando de lados otras
oportunidades verdaderamente rentables para el productor y al Estado al cual le
pertenece.

“Si bien resulta válida la necesidad de una Nación industrializada, lo que no resulta
lógico es contraponer una visión a la otra. Sobretodo en la actualidad, el agro es
generador de industria y al contar con nuevas tecnologías posibilita un crecimiento de
la producción y las exportaciones”. (*)

(*) Manuel Alvarado Ledesma (2003).

7
En rigor, lo que tratamos de decir es no industrializar por industrializar, sino que el
sector agrícola evolucione cada vez más y pueda diferenciar sus productos, porque
entendemos que la diferenciación hace a la especialización y está solo es lograda con
educación, innovación e inversión. Todo esto en suma logrará darle un valor adicional
al producto agrícola, denominado “valor agregado”.
Tampoco queremos generalizar con lo dicho hasta ahora, si bien, igualmente existieron
y existen productores que se atrevieron a dar un paso más adelante, lo que aquí
pretendemos exponer es la falta de políticas de parte de los gobiernos para llevar a la
Argentina a un nivel de industrialización y menor dependencia de los mercados
internacionales respecto a determinados productos.
***
Debido a los ya conocidos avances tecnológicos y la globalización que ellos alcanzaron
en todo el mundo ocurriendo esto a una velocidad sustancial (porque si la historia
misma se estudia en grandes lapsos de tiempos podemos decir que cincuenta años
realmente es muy poco) sobre todo si a agricultura nos referimos; esta actividad, en tan
solo medio siglo logró transformar sus antiguas herramientas en maquinarias de mayor
inversión pero de mayor productividad, logrando así optimizar los rendimientos de los
suelos agrícolas con menor esfuerzo humano. Aún en nuestros días, todo apunta a que la
tecnología se seguirá renovando y trayendo consigo nuevos avances que podrán ayudar
al productor, a abaratar cada vez más lo costos y los tiempos, obteniendo así aun más
rentabilidad.

En la actividad productiva se evidencia en ésta década un fuerte incremento del costo


de la tierra, manifestado por el costo de los alquileres de los campos, esto eleva
significativamente el punto de indiferencia económica a tal punto que sólo se hacen
rentables las explotaciones con rendimientos promedios superiores a la media nacional
y eso se logra entre otras cosas con tecnología de información y un equipo de análisis y
diagnóstico interdisciplinario. (*)

Es por esto, que realmente estamos viendo como se desarrolla en estos días una
verdadera Agricultura de Transición, porque el advenimiento de todas estas nuevas
tecnologías en algún momento llegará a su máximo potencial, para que en un futuro
queden relegadas, dando paso a una nueva teoría y técnica de agricultura que se apoyará
en tecnologías y maquinarias aún más avanzadas. Y esto está bien y es lógico que
suceda, porque la realidad apunta a optimizar de alguna manera la producción de
alimentos para nuevas generaciones que pertenecerán a una mayor población mundial y
con todo lo que ello implica, considerando los altos índices de contaminación y de
nuevas enfermedades que surgen en todo el planeta, como así también los cambios
climáticos que a esta altura ya no pueden seguir subestimándose. Todas estas nuevas
tecnologías jamás deberán perder de vista la sustentabilidad productiva del suelo ya que
por todo lo dicho anteriormente se busca maximizar la producción de alimentos sin
considerar el impacto negativo que ocasiona la falta de realización de prácticas
conservacionistas. Debido a que el suelo es un recurso no renovable.

(*) Autores: Ing Agr MSc Mario Bragachini,Ing Agr Andrés Méndez.Proyecto Agricultura de Precisión
– INTA Manfredi (Octubre de 2003)

8
También es importante considerar, la inminente necesidad de los llamados
biocombustibles, que en la actualidad recién empezamos a adoptar y entender sus
ventajas y desventajas.
La transición que se desarrolla, a lo mejor sólo la podamos contemplar en retrospectiva
de aquí a algunos años, pero lo que sí podemos ver concretamente es la razón en la cual
se apoya dicha transición, y es la de la precisión.
Desde el punto de vista de la Agrimensura, la precisión tiene un significado
verdaderamente primordial, ya que calcular y poder estimar la precisión de una
determinada tarea que nos incumbe, es poder conocer cual es la calidad del trabajo o
cuantificación que se ha realizado.
A menudo se dice y se cree que la finalidad del Agrimensor es la de medir;
solamente eso, obtener la medida de un objeto o cosa.
Si hablamos de finalidades, medir es simplemente una herramienta, como lo es la
de representar por ejemplo, de la cual el Agrimensor se vale para lograr una
misión mayor, que es la de organizar territorialmente una región, un continente e
incluso hasta el planeta mismo y poder así orientar e informar a la humanidad
cual es el lugar que ocupa dentro de su territorio, cuales son sus límites, adonde
terminan sus derechos territoriales y adonde empiezan los de los demás, haciendo
esto siempre con la precisión adecuada y necesaria según el caso. Pero la
Agrimensura va más allá de esto, ya que es una profesión altamente calificada
para el manejo de toda información territorial, cualquiera sea su naturaleza,
pudiendo interpretarla y representarla en el espacio infinito.
La agrimensura ha sido un elemento esencial en el desarrollo del entorno humano,
desde el comienzo de la historia registrada (en el 5000 A. C.); es un requisito en la
planificación y ejecución de casi toda forma de la construcción. Sus aplicaciones,
actuales, más conocidas son en el transporte, edificación y construcción,
comunicaciones, cartografía, y la definición de los límites legales de la propiedad de
terrenos.(**)

Lo que en la agricultura se está gestando, es la idea de hacer cada vez más precisa la
determinación de los diferentes ambientes productivos que pudiesen existir en un
terreno o hacienda, o sea, que el productor pueda conocer realmente cual es la situación
de sus tierras, ya no a “ojo” como se decía antes, tampoco a nivel promedio, sino poder
recibir la información precisa de, por ejemplo, que parte de su terreno es más productivo
que otro y cual es la problemática que presentan éstos, así en vez de invertir en
nutrientes para todo el campo, solo deberá comprar y aplicarlo sobre aquellas zonas que
realmente lo necesiten en su medida justa, logrando así la reducción en insumos.

Si bien este ejemplo parece demasiado ingenuo, dado que esto se viene haciendo desde
siempre, ya que el productor ha persistido desde hace mucho tiempo en ser lo más
preciso en cuanto a sus conocimientos del terreno, contando con las herramientas y
tecnologías que pudieran estar al alcance de su mano; jamás, hasta hace unos años,
había contado con una herramienta tan poderosa e importante como lo son los Sistemas
de Posicionamiento Satelital GNSS (Global Navigation Satellite System) que incluye el
GPS, GLONASS y muy pronto Galileo que permiten posicionar espacialmente
cualquier punto del planeta respecto de un sistema único mundial, lo que se conoce
como georreferenciación.
Es así que llegamos hoy en día, a estar hablando de la Agricultura de Precisión.

(**) Definición extraída de Wikipedia, la enciclopedia libre.

9
Consideraciones de la temática Agricultura de Precisión

Si bien el primer problema que surgió al comenzar a investigar el tema de Agricultura


de Precisión (AP), fue el de darnos cuenta de que era una cuestión absolutamente nueva
y no un “boom” como habíamos creído desde un principio, dado que en la Argentina, la
AP dio sus primeros pasos allá por el año 1995 y que a pesar de la infinidad de
información que se puede encontrar a través de Internet, llegamos a apreciar que los
datos o referencias que buscamos desde el punto de vista de la agrimensura, eran de
difícil y hasta imposible obtención e incluso hemos encontrado conceptos erróneos
referidos a sistemas de referencias, marcos de referencias y coordenadas por citar
algunos ejemplos.

A pesar de todo esto, pronto caímos sobre la verdadera problemática que nos llevaría a
dudar de lo que estamos haciendo y era, la de que si realmente este tema podría abarcar
o representar un verdadero trabajo final, esto debido a la cuantiosa información de
Internet y otros medios, que se encargan de relacionar a la AP con la compra de
modernos aparatos, como lo son los monitores de rendimiento, por ejemplo, y también
por la opinión de algunos profesionales y docentes que coincidían en sus opiniones,
sugiriendo que todo lo relacionado a ese tema ya estaba completamente estudiado y que
no había nada nuevo por decir ni proponer, ya que la AP (una vez más) solo se trataba
de la adquisición de tecnología que podía georreferenciar toda la información,
procesarla obteniendo resultados con tan sólo conocer algunos comandos u órdenes de
dichos aparatos y punto.

Hasta incluso se remarcaba la no necesidad de entender y conocer el funcionamiento y


alcance de las llamadas “mediciones satelitales” a través de los Sistemas de
Posicionamiento Global, limitando así la importancia de los mismos y generando
concepciones erróneas de las respuestas que emergerían de estos.

Lo que nos llevó verdaderamente a seguir adelante con la investigación tal como la
habíamos planteado, fue antes que nada, la curiosidad que nos despertaban ciertas
preguntas:

¿Cómo en un tema en el que se hablaba tan abiertamente de Sistemas de Información


Geográfica (S.I.G.), Imágenes Satelitales, Fotografías Aéreas, Georreferenciación y
Coordenadas no se podía involucrar la Agrimensura?

¿Cómo esta cuestión, aparentemente nueva como la AP, podía estar a la vez,
absolutamente descubierta y estudiada?

¿Cuáles eran realmente las precisiones que alcanza la tan mencionada Agricultura de
Precisión?

¿Serían suficientes estas precisiones?

¿Pueden otros profesionales (sin desmerecerlos) llegar a comprender e interpretar en


toda su extensión, la información que obtienen a través de los Sistemas de
Posicionamiento Globales?

10
Todos estos interrogantes fueron solo guías que nos sirvieron y ayudaron a realizar la
pregunta más importante y en la cual se basa todo este trabajo:

¿Cuál es el aporte que la Agrimensura puede dar, desde su punto de vista, a la


Agricultura de Precisión?

El poder contestarla será para nosotros alcanzar nuestro cometido como alumnos de una
carrera que llegamos a respetar y valorar, y también posicionarnos como futuros
profesionales de la Agrimensura, abriéndonos paso a toda una actividad lista para ser
explorada y estudiada.
Los objetivos primordiales de un trabajo final se alcanzarán al demostrar que
beneficioso será para la sociedad el poder aportar las técnicas y los conocimientos de la
Agrimensura, para que la AP pueda perfeccionarse, trayendo consigo una mayor
producción de alimentos y una reducción de costos en los insumos para los productores
de todo el país, y como último objetivo permitiremos dar a conocer otra faceta más de la
actividad de la Agrimensura, como un servidor activo a la producción de la agricultura.

La Agrimensura está altamente capacitada para poder interpretar toda


información territorial, de cualquier índole, y poder organizar y posicionar ésta en
un espacio infinito y así elaborar la base cartográfica en la cual podrán apoyarse
otros profesionales que intervienen en la AP, como lo son los Ingenieros
Agrónomos, Mecánicos y Electrónicos.

Será sólo nuestra la tarea y responsabilidad de advertir, que dificultades se les puedan
presentar a otros profesionales y como desde la Agrimensura poder aportar con nuestras
técnicas y herramientas las soluciones a éstas, para que todos formando y perteneciendo
a una actividad interdisciplinaria, consigamos llegar al objetivo común.

11
Las Tres Columnas

Nuestro trabajo se apoyará siempre bajo conceptos y concepciones propias, sin perder
nunca el punto de vista obtenido a través del estudio de las ciencias que forman parte de
la Agrimensura, más allá de las lógicas diferencias conceptuales que existen entre
diferentes profesiones para determinados temas, como ser el tratamiento que se da al
término precisión, por dar un ejemplo.

Deberemos mantener nuestra posición en relación a términos y concepciones que


intervengan en la materia o temática de la AP.

El título AP es muy abarcativo y da lugar a diferentes interpretaciones, por ser ésta una
tarea interdisciplinaria, la precisión buscada será una sumatoria de soluciones otorgadas
por cada profesión según sea su punto de vista.

¿Qué es lo que entiende entonces un agrónomo al preguntarse que es una agricultura


precisa?

A nuestro criterio, el agrónomo utiliza la palabra "agricultura precisa" valiéndose del


manejo que realiza sobre el lote, es decir su definición de ambientes, dejando atrás el
manejo por requerimientos promedios.

¿Será bajo su criterio, un correcto diagnóstico en el lugar exacto y en el momento justo


la causante de la precisión buscada?

¿El contador o economista interpretará que la agricultura de precisión es ahorrar en


insumos y obtener los mismos rindes?

Mencionamos ya, que ésta actividad será considerada precisa, en el momento en que
cada una de las partes obtenga su cometido.
Por todo esto vemos que sería lógica la intervención de la Agrimensura, ya que para la
misma, una agricultura precisa sería aquella que se encuentre apoyada sobre
información territorial igualmente precisa.
Como es sabido, la interpretación del término precisión no es necesariamente la misma
para un agrónomo que para un agrimensor en un supuesto trabajo, ya que la Agronomía
se ajusta a la condición relativa del comportamiento de la naturaleza para determinar
cierto diagnóstico a elaborar en un futuro cultivo, y esta determinación la hace siempre
con una precisión igualmente relativa y jamás absoluta, porque según su lógica no
existe una receta justa y única para elaborar un resultado, puesto que los elementos que
forman parte de su estudio no actúan siguiendo pautas de una sola circunstancia, sino
que lo hacen obedeciendo siempre a innumerables factores que interactúan en su
desarrollo.
Por otro lado, la Agrimensura administra y elabora información territorial y la
representa, siempre con una precisión cuantificada y/o estimada de carácter absoluto
(*), de los distintos elementos que forman parte de la naturaleza, pudiendo ser estos
naturales o insertados sobre ella, como lo son todas aquellas cosas culturales que el
hombre ha creado y ha adherido a la misma.

(*) Cuando decimos absoluto, nos referimos a expresar un resultado sin contradicciones y
ambigüedades.

12
En rigor, existen también confusiones en relación a términos usados en esta temática,
como ser exactitud y precisión. Términos que para el común de la gente llegan a ser
semejantes o hasta incluso sinónimos, siendo que ambos expresan concepciones
diferentes.

“La precisión es un parámetro estadístico que expresa la calidad del resultado de una
experiencia en relación a otras realizadas en igualdad de condiciones”

“La exactitud es la diferencia existente entre un valor ideal y el resultado de una


experiencia que tiene como objetivo calcular este valor”

Si realmente vamos a presentar a la Agrimensura como la responsable de sentar


las bases en un proyecto, la elaboración e interpretación de dicha base jamás
deberá ser considerada en forma ambigua.

La información que emerja de nuestro aporte deberá ser entendida bajo una idea única y
no prestarse a confusiones.
Al considerar esto, alcanzaremos encarar la problemática observándola desde nuestra
posición como futuros profesionales.
Entonces podemos decir que el primer escalón o la primera columna a la cual
deberemos apoyarnos al construir este trabajo será:

Investigar, estudiar, elaborar y administrar de modo entendible y de forma


precisa, toda aquella información territorial que pueda servir de base y apoyo,
para la resolución de aquellos conceptos y problemáticas que intervengan en la
Agricultura de Precisión, haciendo esto siempre mediante el uso de las
herramientas y técnicas propias de la Agrimensura.

En la actualidad es natural leer y escuchar opiniones o informes que encierran la idea de


que la adquisición de los llamados monitores de rendimientos, sensores remotos y
demás tecnologías, abarcan todo lo relacionado a AP, dejando de lado la lógica con la
que se ha desarrollado la agricultura a través de la historia, siendo siempre lo primero el
análisis riguroso de las condiciones reales del suelo, ahondando sobre las distintas
características propias del mismo, como ser la edafología, la geomorfología y la
topografía que presenta, por nombrar algunas; como así también sus posibles peligros
en relación al entorno, la consideración del comportamiento del clima sobre el terreno,
etc. Llegando entonces a malinterpretar el alcance de la AP, porque así como podemos
asegurar que la base de ésta es indiscutiblemente la utilización de los G.N.S.S. (*), no
podemos concluir en que la precisión se logrará únicamente con el uso de estas
modernas herramientas, sino como consecuencia del desarrollo de todas las actividades
clásicas antiguamente utilizadas en la agricultura pero contando ahora con el apoyo de
las nuevas tecnologías de posicionamiento, representando todo esto una verdadera
revolución productiva, adoptando así no solo maquinarias modernas sino también una
nueva metodología de análisis de las limitantes y capacidades productivas de un lote.

(*) Sistemas Satelital de Navegación Global.

13
Es aquí donde empieza a mostrarse y a ser visible la segunda columna que nos valdrá de
sostén en el aporte puntual de la Agrimensura, porque si de posicionamiento hablamos
entonces directamente estaremos tocando la idea de coordenada, y es en este concepto
donde nuestros conocimientos se encuentran altamente calificados.

¿Qué otro profesional puede comprender en todo su sentido, la idea de coordenadas de


un punto en cualquier lugar o zona de la superficie terrestre?

¿Cuál es la precisión de dichas coordenadas que se obtiene con los sistemas de


posicionamiento?

¿Cuáles serían entonces las precisiones reales que alcanzará el procesamiento de la


información para cada etapa concerniente a la producción agropecuaria?

¿Cómo se vinculará toda esta información georreferenciada a otras de igual importancia


que surgen de diferentes actividades profesionales?

La identificación del tipo de coordenada, su correspondiente expresión, la


precisión con la que se estima y su posterior representación en planos
cartográficos, como así también la relación espacial y ubicación adecuada de este
procesamiento en relación a los datos suministrados por aquellos profesionales que
también forman parte de esta actividad (como ser una carta de suelo suministrada
por agrónomo o cualquier información digitalizada otorgada por un ingeniero en
sistemas, etc.) deberá ser el aporte esencial de la Agrimensura, demostrando y
valorando tal intervención.

Entonces queda así establecido el segundo escalón de nuestro trabajo práctico, que será
el encargado de contestar la principal pregunta que enclaustra el cometido por el que
desarrollamos esta tesis.

Para terminar, nos volcaremos a elaborar opiniones acerca de la importancia de la


Agricultura de Precisión, el por qué de su desarrollo en nuestro país y los beneficios que
brotarán de ella hacia la sociedad, haciendo esto de manera objetiva procurando
mencionar la importancia del recurso suelo, como elemento no renovable y el cuidado
del mismo; no solo por parte del productor sino también del mismo Estado que a partir
de la utilización de la AP como herramienta productiva, podrá abastecer a la población
y logrará perfeccionar la producción agrícola nacional.
Por lo que entonces la última y tercera columna que nos ayudará a completar y cerrar
nuestro trabajo tendrá que ver con que:

Como futuros profesionales de la Agrimensura, deberemos desarrollar


conclusiones propias ya no de la Agricultura de Precisión en sí, sino de los alcances
de la misma para el progreso de esta actividad en procura de un mejor estilo de
vida para la población Argentina.

14
CAPÍTULO II

15
Conceptos Aplicados

“El experimentador que no sabe lo que está buscando no comprenderá lo que


encuentra.”

Claude Bernard (1813-1878) Fisiólogo francés.

16
Creemos importante que los siguientes conceptos, en la forma y orden en que están
presentados, pueden servir de guía para que el lector o la persona que se introduzca en
la temática, sepa comprender de forma amena y sencilla los términos o conceptos
utilizados.
Es decir, el orden es importante dada la intención de poder explicar, primero, aquellos
conceptos generales para llegar luego a desarrollar los conceptos más complejos.
Es por esto, que vemos oportuno antes que nada, definir las ciencias que pertenecen a la
Agrimensura y que forman parte de la AP, como ser la Topografía, la Geodesia y la
Cartografía, por mencionar a aquellas que consideramos, tienen mayor peso.
Por lo que se refiere a la Geodesia y a la Cartografía, forman con la Topografía tres
ciencias tan íntimamente relacionadas, que no es posible en el estudio de esta última
prescindir de su conexión con las primeras:

Topografía:

(Definición de la ciencia, curvas de nivel, discretización y modelos digitales de


terreno)
La topografía es la ciencia que estudia el conjunto de principios y procedimientos que
tienen por objeto la representación gráfica de la superficie de la Tierra, con sus formas y
detalles, tanto naturales como artificiales, así como también el conocimiento y manejo
de los instrumentos que se precisan para tal fin. La palabra topografía tiene como raíces
topos, que significa "lugar", y grafos que significa "descripción". No debemos perder de
vista que la topografía va a centrar su estudio en superficies de extensión limitada, de
manera que sea posible prescindir de la esfericidad terrestre sin cometer errores
apreciables, siendo esta una afirmación valida, pero no universal dado que hay que tener
un especial cuidado con la tercer coordenada (altimetría). Para trabajar con grandes
superficies será necesario recurrir a la Geodesia y a La Cartografía. Podríamos decir que
la Topografía acaba donde comienza la Geodesia
Para eso se utiliza un sistema de coordenadas tridimensional, siendo la X y la Y
competencia de la planimetría, y la Z de la altimetría.
Curvas de Nivel: La única manera de poder representar la 3° coordenada (altimetría, en
este caso) dentro de un plano topográfico, es mediante la utilización de las llamadas
curvas de nivel, estas son líneas que unen puntos de igual cota, permitiendo interpretar o
hacer visible el relieve del lugar. Los desniveles, de curva a curva, deben ser una
cantidad constante, dándose el nombre de equidistancia de una superficie topográfica a
la distancia vertical constante que separa dos secciones horizontales consecutivas. La
superficie topográfica, por tanto, no coincide exactamente con la superficie real del
terreno y se aproximará tanto más a ésta cuanto menor sea la equidistancia.
Discretización del Problema: Cuando se trata de definir la forma, dimensión y ubicación
de un objeto irregular (como es el caso de la superficie de la Tierra) podemos pensar en
reducir el problema a la determinación de la posición espacial de puntos adecuadamente
elegidos de ese objeto, a partir de los cuales podemos inferir un resultado. Es decir, la
discretización del problema planteado permite obtener una solución, que será tanto más
precisa cuando mayor sea la densidad y la calidad de los puntos seleccionados. Por lo
tanto, en geodesia como en topografía el punto es la entidad generadora de la superficie
terrestre.

17
El problema planteado queda resuelto si determinamos las coordenadas espaciales de
los puntos correspondientes; que pueden ser coordenadas cartesianas ortogonales x,y,z o
coordenadas polares ρ,λ,β; respecto a un cierto sistema de referencia.

Modelos Digitales: Es el conjunto de puntos definidos por sus coordenadas espaciales,


que representan o tratan de representar, una superficie de terreno.
El Modelo Digital del Terreno, es un modelo continuo de superficie terrestre a nivel del
suelo.
Es una representación tridimensional de una porción de la corteza terrestre.
Los modelos digitales del terreno, también denominados MDT, son simbólicos pues
establecen relaciones de correspondencia con el objeto real mediante algoritmos o
formalismos matemáticos que son tratados mediante programas informáticos.
Con el paso del tiempo y el avance de la tecnología, apoyadas en el procesamiento
electrónico de datos, muchas actividades, han encontrado en la cartografía temática una
fuente importante e imprescindible para un moderno y eficaz tratamiento de los
problemas que se puedan presentar.
De los avances tecnológicos mencionados, uno de los más significativos es el que nos
brinda la posibilidad de integrar grandes volúmenes de información georreferenciada (*)
satisfaciendo a distintos usuarios y con variados fines, produciéndose una
transformación en el tratamiento de la información cartográfica.
Como veremos más adelante la variable topográfica no podrá ser considerada
prescindible ya que las herramientas, los conceptos y los resultados que surjan de dicha
variable serán de vital importancia (a nuestro criterio) para optimizar un trabajo o un
proyecto que excede a la AP.
***

Geodesia

(Definición de la ciencia, Elipsoide y Geoide)

“Al explicar esta ciencia arribaremos a la definición de dos superficies de referencia,


el elipsoide y el geoide”.

Friedrich Robert Helmert (1880) define la Geodesia como “la ciencia encargada de la
medición y representación cartográfica de la superficie terrestre”. Su definición,
implica, llegar al conocimiento de la forma y dimensiones de la Tierra, a la
determinación de coordenadas para cada punto de su superficie (incluida la superficie de
los océanos), lo que resulta imprescindible para una correcta representación. Constituye,
además, un tema importante de la geodesia moderna, el estudio de las variaciones
temporales, tanto de las coordenadas de los puntos fijos como del campo de gravedad.
La Tierra es un planeta inmerso en el sistema solar, que se encuentra sometido a su
rotación diurna y a las atracciones del Sol y de los demás cuerpos del sistema solar. En
tales condiciones, la Tierra describe una órbita que compensa tales atracciones, de
manera tal que un punto sobre su superficie queda sometido a la atracción de nuestro
planeta y a la fuerza centrífuga derivada de su rotación.

(*) Es el posicionamiento espacial de cualquier punto del planeta respecto de un sistema de referencia
único.

18
Estas conclusiones, sumadas al hecho de que una pequeña rotación produce un
achatamiento sobre la forma esférica, nos lleva a considerar que la Tierra es
aproximadamente un elipsoide achatado de revolución que gira con movimiento
uniforme alrededor de su eje menor o polar.
Es necesario aclarar que la Tierra no es un cuerpo rígido homogéneo, sino un planeta
compuesto por una parte más o menos sólida, una parte líquida u oceánica, y una
atmósfera que la rodea en su totalidad.

Elipsoide: Tanto su irregular superficie topográfica, como sus mares o su atmósfera,


están sujetos a deformaciones que llamamos mareas, sean éstas terrestres, oceánicas o
atmosféricas.
Sin embargo, la adopción de un elipsoide, como modelo geométrico de propiedades
bien conocidas, resulta útil para la fijación de un sistema de ejes al cual se refieren
habitualmente las posiciones de los distintos puntos de su superficie por medio de
coordenadas (λ,Φ), que reciben los respectivos nombres de longitud y latitud
geodésicas.

El Elipsoide es una superficie de revolución matemáticamente diseñada


aproximadamente a la forma de la Tierra, definida a través de dos parámetros, siendo
estos sus semiejes (menor y mayor); además definiendo también su ubicación y
orientación, haciendo coincidir el origen del sistema cartesiano con el centro del
elipsoide y el semieje menor con el eje Z.

Desde otro punto de vista, la superficie equipotencial o de nivel, que determinan los
océanos cuando se prescinde del efecto perturbador de las mareas, se denomina geoide y
es esta superficie física real la que sirve de referencia a la definición de una tercera
coordenada, llamada altitud.
Nos encontramos con dos superficies fundamentales de referencia, el elipsoide y el
geoide, que provienen de concepciones distintas y determinan la división clásica de la
Geodesia en sus ramas de:

- Geodesia Geométrica o Elipsoidal


- Geodesia Física o Dinámica

Durante los siglos XVII al XIX, el avance de la Geodesia Elipsoidal condujo a un


esquema bidimensional. Esta ciencia fue evolucionando y en la actualidad, se habla de
Geodesia tridimensional, que consiste en determinar las tres coordenadas que definen la
posición de cada punto sobre la superficie terrestre. A esta nueva concepción de la
Geodesia han contribuido las nuevas técnicas de radar, doppler, láser, y el lanzamiento
de satélites artificiales, que suministran referencias exteriores a nuestro planeta.
Esta nueva rama de la Geodesia, es conocida con el nombre de Geodesia Espacial.

Para finalizar, en su aspecto práctico la geodesia ha determinado su división en:

- Geodesia Global: para su desarrollo es necesaria la cooperación internacional


- Geodesia Regional: es practicada por cada país con el fin de resolver cuestiones
de Cartografía, Geografía, etc.
- Topografía: que como ya mencionamos, es la geodesia de detalle.

19
Reseña Histórica

La humanidad requirió muchos siglos del tiempo histórico para quedar de acuerdo en
que la Tierra es casi redonda.
Fue Pitágoras (550 a.c.) el primero en admitir la esfericidad de la Tierra. Tres siglos
después, Eratóstenes se propuso, por primera vez, determinar las dimensiones de una
esfera, ya que también suponía que la Tierra era esférica. Realizó una medición bastante
aproximada del tamaño de la Tierra, utilizando la diferencia entre las longitudes de las
sombras proyectadas por el Sol en Alejandría y en un punto situado a algunos
centenares de kilómetros.
La experiencia se puede describir con más detalle, es decir, en el momento en que el Sol
estaba sobre Siena de modo que el fondo de un pozo sea iluminado totalmente por los
rayos solares, en Alejandría se realizó la medición de la sombra proyectada por una
varilla vertical, denominada “s” y de altura conocida llamada “h”.

La distancia entre ambas ciudades “d” fue estimada en 5.000 estadios, a partir del
tiempo que demandó el viaje entre ambas poblaciones (50 días en camello). Por lo que
Eratóstenes, a partir de la relación s/h multiplicada por la distancia “d” calculó el radio
de la circunferencia de la Tierra, que fue bastante aceptable si se consideran los medios
de aquella época. La discrepancia no llegó a ser más de 600 km en la longitud de
circunferencia, que es de unos 40.000 km.
Hasta principios del siglo XVII no se mejoraron los resultados de Eratóstenes.
Todos sabemos que la Tierra atrae cualquier objeto con una aceleración que es igual
para todos (*). Esa aceleración es lo que llamamos “gravedad”.

(*) Nota: La gravedad actúa de la misma manera en cualquier objeto en un mismo lugar,
no se está expresando que la gravedad es constante en todo el globo.

Se considera a la gravedad como la primera fuerza y la más significativa, dado que si


bien es débil penetra en todo el universo y organiza todo su espacio original en galaxias,
estrellas, planetas, etc.

20
La ley de gravitación universal dice que todo pasa como si dos partículas materiales se
atrajeran con una fuerza de dirección coincidente con la de la recta que las une y de
intensidad inversamente proporcional al cuadrado de la distancia que las separa.

mm
F G
r2

Si la Tierra fuera fluida y sólo se aplicara la ley de la atracción gravitacional, sería una
esfera perfecta. Si embargo, desde la época de Newton, se han deducido muchos
elementos sobre su forma. Newton añadió el elemento de la fuerza centrífuga: cuando
un cuerpo gira, tiende a lanzar todo hacia fuera, en dirección contraria a la atracción
centrípeta de la gravitación.

mv 2
Fc 
r

Como esta fuerza hacia fuera es mayor en el ecuador terrestre que en los polos, la Tierra
se ensancha hacia fuera en el ecuador y tiene una forma aplanada.
Por otra parte, en el siglo XVII, Cassini conduce equivocadamente a la conclusión de
que la Tierra es un elipsoide alargado de revolución. Se produce entonces una fuerte
controversia entre ambos científicos.

Además de las diversas investigaciones científicas que aplican las matemáticas de


Euclides o la física de Newton a la Tierra, naturalmente hay otras muchas aplicaciones
prácticas.
La agrimensura, se ha perfeccionado durante varios siglos, para fines de construcción de
ingeniería y de levantamientos de mapas para la navegación, para definir los linderos de
las propiedades, etc. En el transcurso de los años, los esfuerzos de muchos agrimensores
han dado por resultado un sistema de mediciones de la Tierra que es un encadenamiento
de longitudes, medidas con cintas, y de ángulos, medidos con una combinación de un
telescopio y un círculo graduado (instrumento que se llama teodolito). Esos trabajos de
geodesia miden la distancia y las direcciones de una plomada con respecto a las
estrellas, determinan los cambios de la dirección de la fuerza atractiva de la gravedad.
En la primera mitad del siglo XX el método utilizado para los levantamientos
geodésicos fue fundamentalmente el de triangulación y en la segunda mitad irrumpieron
los electrodistanciómetros, facilitando notablemente la medición de distancias con
adecuada precisión. Esto produjo una predilección por la trilateración.

21
También se han hecho grandes esfuerzos para medir la aceleración de la gravedad por
medio de péndulos y balanzas de resorte refinadas.
Con esos sistemas de medición hemos deducido muchos datos sobre la forma de la
Tierra, además del hecho de que sea sencillamente el elipsoide de revolución que
Newton dedujo que sería la forma de un cuerpo fluido bajo las influencias combinadas
de la atracción gravitacional y de la fuerza centrífuga debida a la rotación.
Por consiguiente, es muy apropiado definir más precisamente lo que se quiere decir con
su forma.

Geoide: La Tierra tiene un límite exterior bastante vago y, si queremos una forma
definida que sea razonablemente precisa, no tendremos en cuenta su atmósfera. Esto nos
deja dos alternativas evidentes para el límite terrestre exterior: la superficie de las rocas
y la superficie del mar, llamadas litosfera e hidrósfera. Ordinariamente consideramos las
alturas de las montañas como un exceso o sobrante de materia y las profundidades de
los océanos como una deficiencia de ella, pero en el siglo XIX, mientras se hacía un
mayor número de medidas de la dirección de la gravedad, con ayuda de la triangulación
y de las observaciones astronómicas, y de la intensidad de la gravedad, con mediciones
de péndulos, se comprobó que el efecto de las montañas sobre la dirección e intensidad
de la gravedad, no era tan grande como se creía por el tamaño y forma de las montañas
y la densidad de las rocas.

El geodesta francés Pierre Bouguer observó ese fenómeno en el siglo XVIII, y desde
entonces, casi en todo el mundo se ha comprobado que, cuando hay un gran exceso de
materia en la superficie terrestre, parece quedar compensado con una deficiencia de
masa en alguna gran profundidad de la misma. Parece que esa “compensación” ocurre a
profundidades del orden de unas cuantas decenas de kilómetros. La disposición de la
corteza sugiere aproximadamente, la situación de un témpano flotante de hielo: ese
témpano tiene una deficiencia de masa en la porción que queda debajo del agua, que
corresponde exactamente a la masa de la pequeña parte que sobresale de ella. Ese
equilibrio de excesos y deficiencias se conoce con el nombre de isostasia y es una
característica fundamental de la corteza terrestre.
Por consiguiente, debido a la existencia de la isostasia, es más significativo escoger o
definir como forma externa de la Tierra, no a la superficie de las rocas, sino algo que
exprese mejor la distribución de la materia o de la masa: en otras palabras, una
superficie definida por una atracción gravitacional.

La superficie más sencilla definida de ese modo se llama equipotencial. Es una


superficie que es normal en todas partes con la aceleración de la gravedad. Son
ejemplos de equipotenciales la superficie del agua en un estanque, en una bañera o
en un océano. Como el océano no queda dentro de esa categoría, la elección más
evidente de un equipotencial sería la superficie del mar.

Esa superficie sube y baja debido a las mareas producidas por el Sol y la Luna, así que
escogemos el nivel intermedio del mar. Manifiestamente, la gravedad no cesa a la orilla
del océano, sino que continúa en la Tierra y, por consiguiente, continuamos tierra
adentro esa misma superficie intermedia del nivel del mar normal con la aceleración
gravitacional.

Cuando empleamos de ese modo el promedio del nivel del mar, normalmente se le
llama “geoide”.

22
A medida que extendemos el geoide a través de los continentes, encontramos el
problema de que hay algunas masas que quedan fuera del mismo: la tierra que queda
sobre el nivel del mar. Esa masa afectaría la aceleración de la gravedad y, a su vez ésta
afectaría el geoide. Como no se conoce exactamente la densidad de las rocas, no
podemos determinar con precisión el geoide. El refinamiento de la definición del geoide
requerido por ese problema es un tema de gran controversia entre los geólogos más
inclinados a las matemáticas. El hecho importante es que si pudiéramos extrapolar las
distancias relativamente cortas del geoide a un equipotencial que cubriera por completo
la masa significativa de la Tierra, y luego definir completamente la forma de ese
equipotencial que la envuelve, de ese modo conoceríamos completa y exactamente la
atracción gravitacional de la Tierra en cada punto que queda fuera de ella a través del
espacio.

Después de afinar la definición de la forma, volvamos al concepto de isostasia, o el


equilibrio de los excesos por medio de deficiencias y viceversa, que está muy lejos de
ser perfecto; como instrumento de trabajo es notablemente imperfecto; y es evidente
que, a cortas distancias la isostasia no es aplicable: una pequeña colina de unos cuantos
kilómetros de extensión es un exceso suficientemente pequeño para que lo sostenga la
corteza; pero, a pesar de esas variaciones localizadas, la isostasia prevalece
generalmente a escala regular, digamos de varios centenares de kilómetros.
Hace mucho tiempo que se discute cuánta es la que prevalece en una escala prolongada
de muchos millares de kilómetros: la escala de las cuencas oceánicas o de las provincias
geológicas principales de los continentes, etc. Esa controversia se debe principalmente a
la ineficiencia de los datos, que permiten una gran variedad de interpretaciones
plausibles y, por consiguiente, una gama muy extensa de opiniones con respecto al
tamaño de las variaciones del geoide a escala global.

Se necesitaba alguna forma de alejarse de la Tierra para echar una ojeada general, una
manera de deducir esas variaciones mejor que el análisis de las mediciones
gravimétricas, las cuales incluyen muchos estorbos debidos a variaciones locales, como
son las altas y bajas causadas por las montañas y otros pequeños accidentes.
El instrumento evidente se encontró hace algunos años, en forma de satélites artificiales,
que giran alrededor de la Tierra en órbitas determinadas por su campo de gravedad.
Naturalmente, las órbitas de los planetas y satélites fueron los datos principales que
hicieron que Newton formulara su ley de la atracción gravitacional.
Para la geodesia, los satélites pueden considerarse como objetos que caen y cuyas rutas
de caída se emplean para medir el campo de gravedad de la Tierra.

El campo de gravedad es espacial, ya que varía en el espacio, sobre la superficie


terrestre.

El interés científico de esa imagen del geoide es que las variaciones correspondientes de
la atracción gravitacional significan que, en alguna parte del interior terrestre, tiene que
haber variaciones de densidad, que a su vez, indican cierto tipo de diferencias de
tensión.
Las irregularidades de densidad causan variaciones en la atracción de la masa terrestre,
porque a su vez, esas irregularidades causan variaciones en la atracción de las rocas que
tiende a partirlas. La figura a la que referimos nuestro geoide fue la de un elipsoide de
revolución bien ajustado, es decir una ficción matemática muy conveniente para los
cálculos. Si tuviéramos que escoger una figura de referencia más geodésicamente

23
significativa, sería la forma de un fluido giratorio con la misma masa, radio, momento
de inercia y proporción de rotación que la Tierra. Esa forma difiere de la que se ajusta
mejor a la Tierra en sentido matemático, más o menos en un orden del doble de
cualquiera otra variación del campo de gravitación.

***

Cartografía

Cuando se está trabajando en sectores no muy extensos (4 a 5 Km.), se dice que se


trabaja en el ámbito de la topografía y se considera “plana” una porción de la superficie
de la tierra. Al considerarla de esta manera, no existen complicaciones para la
realización de un plano o croquis representativo. Cuando se comienza a trabajar en
sectores cada vez mayores esas aproximaciones dejan de ser válidas y por ello se recurre
a otra ciencia, a la Cartografía, el objetivo de ésta será por lo tanto, representar en un
plano una parte más o menos extensa, e incluso la totalidad de la superficie
terrestre.
Teniendo en cuenta que a la superficie de la Tierra ya la consideramos elipsoidica y ésta
es una superficie no desarrollable sin deformaciones ni rasgaduras, está claro que deberá
realizarse una transformación para poder lograr este objetivo. Por esto la Cartografía
estudia los sistemas de proyección más adecuados para definir en forma biunívoca una
correspondencia matemática entre los puntos del elipsoide y sus transformados en el
plano, a estos métodos se los denomina Proyecciones Cartográficas.

Es decir que además del elipsoide de referencia sobre el que se proyectaban los puntos
del terreno y se calculaban sus coordenadas geodésicas, para poder representar esos
puntos sobre un plano necesitamos otra superficie de referencia desarrollable sobre la
que a su vez se proyectarán los puntos del elipsoide, siguiendo una determinada relación
matemática bien definida por el sistema de proyección cartográfico elegido.

Tipos de Proyecciones en función de la superficie utilizada

Se distinguen tres superficies sobre las cuales se realizan las proyecciones cartográficas,
ellas son:

 Proyecciones Acimutales o Planares.

 Proyecciones Cónicas.
Proyecciones Desarrollables
 Proyecciones Cilíndricas.

24
Proyecciones Acimutales:
Se coloca un plano tangente al elipsoide, y se hace incidir una fuente luz desde el
interior del elipsoide sobre la retícula de meridianos y paralelos, y ésta será proyectada
sobre el plano dando lugar a alguno de los tipos de proyecciones acimutales, en función
de la ubicación del haz de luz.

Proyecciones Desarrollables:
Las proyecciones desarrollables son aquellas que se realizan sobre la superficie de un
cono o cilindro y luego se procede a “cortarlos por su generatriz dando lugar a un
plano.”

Las cónicas se efectúan sobre un cono tangente (o secante) al elipsoide a lo largo de un


paralelo que suele estar situado a una latitud media. En este caso el eje del cono
coincide con el eje de rotación de la Tierra, los planos meridianos proyectados cortarán
al cono según sus generatrices, estos serán las imágenes de los meridianos en la
proyección, y los paralelos son secciones normales del cono que tendrán un radio
variable en función de la latitud.
Al desarrollar el cono se obtiene una serie de rectas convergentes (meridianos) y una
serie de circunferencias concéntricas (paralelos) de radio variable.

Las cilíndricas se efectúan sobre un cilindro tangente (o secante) al elipsoide, puede ser
tangente al ecuador, en este caso se denomina proyección cilíndrica normal (el eje del
cilindro coincide con el eje de rotación terrestre) o puede ser tangente a un meridiano, se
denomina proyección cilíndrica Transversa (el eje del cilindro es perpendicular al eje de
rotación terrestre).
Según la ubicación del cilindro se obtendrán diversas variantes de la proyección.

25
Al realizar cualquiera de estas proyecciones desde el elipsoide a un plano,
inevitablemente se están cometiendo deformaciones, el tipo de deformación que se
comete también es motivo de una clasificación:

Proyecciones Conformes:
En este tipo de proyección se busca conservar los ángulos (las formas), las áreas se
agrandan proporcionalmente con la superficie.

Proyecciones Equivalentes:
En este tipo de proyección se conserva la superficie de la figura, pero se pierde la forma
de la misma.

Proyecciones Afilácticas (o de compromiso):


Este tipo de proyección posee un compromiso entre la igualdad de la superficie y de la
forma, pero no cumple con ninguna de las dos.

Proyecciones Equidistantes:
La propiedad que tiene esta proyección es preservar las distancias de un punto a otro,
pero no entre todos los puntos entre si. Ejemplo podría mantenerse la distancia sobre un
paralelo.

Nota de importancia:

“La elección de una superficie y de un tipo de proyección, para la elaboración de


cartas topográficas y para cartografía de escala media y grande, será función de la
localización geográfica del lugar a representar y también de lo que se desee
representar.”

En la mayor parte de los casos se ha decidido por las proyecciones conformes y existe
una tendencia mundial por la conocida como transversa de Mercator. De ésta,
básicamente encontramos dos tipos la UTM (Universal Transversa Mercator) y Gauss
Krüger como se la denomina en la Argentina.

La proyección transversa de Mercator fue inventada por Johann H. Lambert en 1772


basada en consideraciones elementales, en una solución esférica. Cincuenta años
después Carl F. Gauss le dio la derivación analítica a un elipsoide y posteriormente
Johannes H. Krüger (1912) completó el desarrollo limitando la extensión de las fajas.
La UTM es una propuesta de los Estados Unidos de América, luego de la Segunda
Guerra Mundial con la intención de unificar el uso de una proyección para la cartografía
a escala media.
Las diferencias entre la Gauss Krüger como se utiliza en la Argentina y la UTM son
conceptualmente mínimas: cambia el módulo de deformación en el meridiano central, el
ancho de las fajas y el falso norte.
En Argentina la adopción de la proyección Gauss Krüger bajo ese nombre se produce,
el 24 de abril de 1925, mediante la Disposición Permanente Nro. 127 del Instituto
Geográfico Militar firmada por el general Ladislao Fernández, como director de la
entidad.

26
Las proyecciones UTM y la Gauss Krüger toman como base a la Proyección
conforme Mercator, es decir que mantienen las formas, pero producen
deformaciones lineales que aumentan rápidamente con la distancia al meridiano
de contacto entre el elipsoide y el plano de proyección (en UTM el contacto se
efectúa en dos rectas ya que el cilindro es secante, y en Gauss Krüger en una recta
debido a que el cilindro es tangente).

Debido a este problema y con el propósito de limitar las deformaciones, se crearon fajas
con extensión de 6 grados sexagesimales para UTM y de 3 grados sexagesimales para
Gauss Krüger. Para cada una de ellas se utiliza un cilindro diferente, de esta manera las
distancias a representar se acotan y con ellas las deformaciones.

Esta solución impide vincular puntos calculados en distintas fajas, es decir se


pierde la continuidad espacial.

***
UTM (Universal Transversa Mercator):

La proyección UTM es una proyección “cilíndrica conforme”, y puede ser visualizada


como un cilindro secante a la superficie de la tierra, orientado de tal forma que su eje
está en el plano del Ecuador. Recordemos el por qué de conforme, las pequeñas formas
están correctamente representadas.
Esta proyección divide a la tierra en sesenta (60) fajas o zonas, que están equiespaciadas
en seis grados (6º) sexagesimales.
Cada faja tiene un meridiano central en el que se produce la mayor deformación lineal,
en cada faja hay dos líneas (elipses de intercepción) en las que es nula la deformación
lineal.
El cilindro sobre el que realiza la proyección en UTM es secante al elipsoide.
En cartas y mapas obtenidos en esta proyección las coordenadas planas se representan
por líneas rectas horizontales y verticales que se cruzan perpendicularmente formando
lo que comúnmente llamamos cuadricula, los meridianos y paralelos se representan por
líneas curvas que también se cortan entre si perpendicularmente.

Gauss Krüger

Esta proyección al igual que UTM es “cilíndrica conforme”, en este caso el cilindro es
tangente a la superficie de la tierra. La tangencia se produce en el meridiano central,
sobre éste no hay deformación lineal, pero ella aumenta a medida que se aleja de éste.
En Gauss Krüger se divide la superficie elipsoidica en ciento veinte (120) fajas,
equiespaciadas en tres grados (3º) sexagesimales.
En particular, en la República Argentina se divide en siete (7) fajas meridianas de tres
grados (3º) de ancho cada una, con meridianos centrales en las longitudes 72º, 69º, 66º,
63º, 60º, 57º, 54º al oeste Greenwich.

***

27
Luego de haber definido estas ciencias, procederemos a definir aquellos conceptos
que consideramos de importancia, para entender e interpretar las temáticas
desarrolladas más adelante.

***

Coordenadas

Las coordenadas son valores numéricos que permiten ubicar una entidad en un espacio
dado (lineal, planimétrico, espacial, etc.) y poder vincularlas con otras entidades. Los
diferentes sistemas de referencia asignarán distintos tipos de coordenadas.

Sistemas de Referencia Locales, Regionales y Globales

Toda coordenada obtenida a través de los GNSS, pertenece a algún sistema de


referencia.

Desde nuestros conocimientos podemos interpretar que un sistema de referencia es


un conjunto de parámetros matemáticos que permiten definir la posición de
cualquier punto sobre la superficie terrestre, es decir, darle valores numéricos a un
lugar determinado y conocer su relación espacial respecto a otro.

Esta definición abarca un contenido abstracto-teórico, no tiene un acceso materialmente


directo, “no se puede tocar”, es por ello que es necesario realizar una materialización
sobre la superficie terrestre de puntos con coordenadas en dicho sistema, pudiendo el
mismo punto estar expresado en diferentes tipos de coordenadas (cartesianas
geocéntricas, polares y geodésicas), al materializar dichos puntos quedaría constituido el
marco de referencia de dicho sistema; y de esta manera podemos trabajar dentro de ese
sistema.

Como se describió anteriormente, existen diferentes tipos de superficies de referencias


que tendrán un uso diferenciado, el Elipsoide y el Geoide

¿En que se diferencian?

La principal diferencia recae en la utilidad que se le da a la altitud o tercera coordenada.


O sea, la altura referida al elipsoide (h) es una diferencia entre la superficie topográfica
y la elipsoidica, medida sobre la dirección de la normal al elipsoide que pasa por el
punto. Mientras que la tercera coordenada referida al geoide (H) es la diferencia entre la
superficie topográfica y la del geoide; ésta última nos brinda un significado físico de
utilidad práctica. Por ejemplo si tomamos dos puntos que tienen distintas alturas
geoidales, si colocáramos una partícula de agua esta escurrirá hacia el punto de menor
altura o cota.

28
Ondulación del geoide: la diferencia entre la altura elipsoidal (h) y la altura ortométrica
(H) se denomina altura geoidal (N) u ondulación del geoide.

N=h–H

Nota importante:

“Lo que podría resultar una obviedad para profesionales de la Agrimensura, en


relación a la altura elipsoidica (h), no lo es para otros. Muchas veces se la considera
como una altura referida a una superficie de nivel, cuando en realidad está referida a
una figura ideal de existencia solo matemática y que lejos está de representar el
verdadero relieve de un lugar.
Para lograr una aproximación de la realidad es apropiado trabajar con las alturas
ortométricas (H).”

***

Sistemas de Referencia Locales

En los levantamientos topográficos son utilizados estos tipos de sistemas, que consisten
en una terna ordenada de ejes cartesianos con origen planimétrico en un punto arbitrario
de la superficie terrestre.
El eje Z coincidente con la dirección de la vertical del lugar, es decir, normal a la
superficie de nivel que pasa por el instrumento. El eje X orientado hacia el Norte y el
eje Y normal respecto al anterior.
Al estacionar y verticalizar el instrumento, la dirección de la plomada materializa la
vertical del lugar, coincidente con la dirección de la fuerza de atracción de la gravedad
en dicho punto. De esta manera queda materializado un plano horizontal de referencia,
el cual es perpendicular al eje vertical y tangente a la superficie de nivel que pasa por el
instrumento.

Sistemas de Referencia Regionales

Se debe recalcar que estos sistemas solo tienen alcance dentro de un espacio geográfico
o región, ya que son homogéneos solamente en las proximidades del punto
fundamental, en donde el Geoide y Elipsoide son tangentes o paralelos, pero a medida

29
que nos alejamos de dicho punto, aumenta o disminuye considerablemente la separación
entre ambas superficies de referencia.
Por esta razón, los sistemas así definidos fueron utilizados por países permitiendo
llevar adelante todos los proyectos en sus territorios pero sin poder vincularlo con los
proyectos de los demás países.

Desviación de la vertical: se conoce como desviación de la vertical en un punto P del


terreno, al ángulo que existe entre la vertical astronómica y la normal al elipsoide
(vertical geodésica).

Dicho de otra manera, está definido por la elección de un elipsoide de referencia y por
un punto origen (datum) en el cual se establece su ubicación en relación con la forma
física de la tierra (geoide). El punto datum es aquel que hace coincidir la vertical del
lugar con la normal al elipsoide, esto significa que existe una desviación de la vertical
nula y generalmente se establece la condición de tangencia entre el elipsoide y el
geoide.

***
Sistemas de Referencia Globales

Presentan la particularidad de ser sistemas de referencia tridimensionales y de alcance


global. Los sistemas de referencia globales se dividen en:

a) Sistemas de Referencias Celestes (SRC):

b) Sistemas de Referencias Terrestres (SRT): son aquellos que especifican una


terna ordenada de ejes ortogonales cartesianos X,Y,Z, cuyo origen se encuentra
en el centro de masas de la tierra. Estos sistemas terrestres tienen el eje X
solidario al meridiano origen de las longitudes y el eje Z coincidente al eje de
rotación, por lo tanto, “gira” juntamente con la Tierra. El concepto de punto
datum desaparece, y es reemplazado por el origen y orientación de la terna de
referencia.
El resultado de esta materialización se denomina marco de referencia.

Esta distinción entre sistema y marco de referencia es fundamental y ha sido


formalizada por Kovalevsky y Mueller (1981).

Nota: por parte nuestra creemos importante mencionar que en varios informes o notas,
la definición de marco de referencia hace mención a que éste es la materialización del
sistema de referencia, concepto que es errado o en todo caso contradictorio, ya que lo
que se materializa no es el sistema en sí, sino algunos puntos representativos y/o
pertenecientes al mismo.

Siguiendo a Kovalevsky (1985), entre la idea general que constituye la base de la


construcción de un sistema de referencia y la realización del marco correspondiente,
existen cuatro etapas que deben separarse.
El proceso comienza con la concepción; es la formulación de un principio enunciando
la propiedad general que el sistema de referencia debe verificar. Es una definición
teórica a la que llamamos sistema de referencia ideal.

30
Sigue la elección de una estructura física; ello consiste en identificar al conjunto físico
que verifica la definición ideal. La propiedad general enunciada para el sistema de
referencia ideal debe verificarse con la mayor aproximación posible. En esta etapa
hablamos de sistema de referencia propiamente dicho.
Una vez identificada la estructura, es necesario modelizarla; ello se logra asociando un
cierto número de parámetros que permitan modelizar matemáticamente las propiedades
físicas de la estructura. En general estos parámetros se ajustan para los objetos de una
estructura física particular, y de alguna manera, sus valores en el modelo son arbitrarios.
Ahora tenemos al sistema de referencia convencional.
Finalmente, se llega a la necesidad de acceder al sistema mediante su materialización o
realización. Ajustando los parámetros del modelo a las observaciones, se obtienen las
posiciones y los movimientos de un conjunto de puntos del modelo. Las posiciones así
determinadas en función del tiempo constituyen el marco de referencia donde en cada
instante se conocen las coordenadas en el sistema de referencia convencional. La
posición y movimiento de cualquier otro objeto se determinara utilizando como
referencia las posiciones de puntos conocidos del marco de referencia. Ahora se tiene al
marco de referencia convencional.

Puede suceder que el número de puntos de este último marco no sea suficiente o que no
tenga la distribución adecuada para todas las aplicaciones prácticas. El marco de
referencia puede no ser accesible a todo tipo de instrumento. Se requiere entonces de
extensiones del marco de referencia convencional, para lo cual deben determinarse las
posiciones en función del tiempo de nuevos puntos con respecto a los del marco de
referencia convencional. Se trata de marcos de referencia secundarios, que según las
necesidades pueden ser de tipos variados.

***
Tipos de coordenadas:

Las coordenadas de un punto se pueden expresar en coordenadas elipsóidicas, o


coordenadas cartesianas geocéntricas.

Nota: Coordenadas elipsóidicas (B, L, h) o también (, , h)

31
Además, ellas pueden estar expresadas en un determinado marco de referencia, también
hemos mencionado que existen otros tipos de coordenadas las utilizadas por la
cartografía que nos permiten plasmar en una carta o mapa un sector de la superficie de
la tierra.

Es decir, un mismo punto de la superficie terrestre puede aparecer representado


de distintas maneras, por lo tanto será imprescindible al trabajar con coordenadas
expresar de qué tipo de coordenadas estamos hablando, y a qué marco de
referencia pertenecen.

El hecho de contar con esta información hace posible utilizar parámetros matemáticos
que nos permitan pasar de coordenadas cartesianas geocéntricas a elipsóidicas, o bien
pasar de coordenadas cartesianas en el marco CAI 69 a coordenadas cartesianas en el
marco POSGAR 94 y de esta manera poder vincular información.

***

Coordenadas planas Gauss Krüger

Estas no se miden en grados sino en metros, el sistema adoptado en Argentina es el


Gauss - Krüger, que es un sistema geométrico de referencia empleado para expresar
numéricamente la posición geodésica de un punto sobre el territorio, y da como
coordenada plana Latitudinal, llamada (X), y como coordenada plana Longitudinal,
llamada (Y). Como ya dijimos antes el valor longitudinal de falso Este es de 500.000 m.
y se le antepone el número de faja.

***

32
Si las coordenadas pertenecen a distintos marcos de referencia se necesitan de siete
(7) parámetros que nos permiten pasar de un marco al otro, ellos son:

 Parámetros de traslación (Δx, Δy, Δz)


 Parámetros de rotación (Rx, Ry, Rz)
 Factor de escala K

Creemos que este tema es muy importante, debido a que la agricultura de precisión se
trata de vincular información y ello será posible sólo mediante un adecuado manejo de
las coordenadas.
En este trabajo solo hacemos mención de la manera en que pueden aparecer las
coordenadas y que se puede ir de un lado a otro mediante el uso de transformaciones,
pensamos que no vale la pena ahondar en el tema, es decir realizar las justificaciones
matemáticas que nos permiten pasar de un marco a otro, o pasar de coordenadas planas
como podría ser Gauss Krüger a coordenadas cartesianas geocéntricas, ya que de
realizar la justificación pertinente nos haría perder el foco del trabajo, quizás
desarrollando conceptos matemáticos que no tienen relevancia para este trabajo.

***

Teledetección:

La teledetección es una técnica que permite obtener imágenes de un objeto o cuerpo de


la superficie terrestre desde sensores espacialmente alejados de la Tierra, abarcando
también el posterior tratamiento de dicha imagen. El aceptar esta técnica, implica
aceptar que entre el sensor y la superficie terrestre existe una interacción energética, el
origen de esa energía establece una de las tantas clasificaciones que se pueden hacer
sobre los sensores, de aquí provienen los sensores pasivos y los sensores activos. Los
primeros generan la imagen utilizando energía proveniente de un foco exterior a ellos,
los últimos son capaces de emitir su propio haz de energía y generar la imagen a partir
de la energía reflejada por la cobertura de la superficie.

Son elementos esenciales de la teledetección Espacial los siguientes:

 Fuente de energía: el origen de la radiación electro-magnética que detecta el


sensor puede provenir de un foco externo a éste (teledetección pasiva) o puede
provenir de un haz energético emitido por el sensor (teledetección activa).
La fuente energética más importante es el sol.
 Cubierta terrestre: formada por distintas masas de vegetación, suelos, agua o
construcciones humanas, que reciben la señal energética procedente de una
fuente y la reflejan o emiten según sus características físicas.
 Sistema sensor: está compuesto por el sensor propiamente dicho y la plataforma
que lo alberga, tiene como misión captar la energía procedente de las cubiertas
terrestres, codificarlas y grabarlas o enviarlas al sistema de recepción.
 Sistema de recepción-comercialización: se recibe la información transmitida por
la plataforma, se graba en un formato apropiado y luego de realizadas las
correspondientes correcciones se distribuye.
 Intérprete: convierte los datos en información temática de interés, ya sea visual o
digitalmente, de cara a facilitar la evaluación del problema en estudio.

33
 Usuario final: encargado de analizar el documento fruto de la interpretación así
como dictaminar sobre las consecuencias que de él deriven.

Cualquier sistema de teledetección se compone de tres elementos esenciales, el sensor,


el objeto observado y un flujo energético que los pone en relación y permite detectar el
objeto.
Dijimos que un sensor tiene como una de las funciones captar energía, a está podrá
obtenerla de tres maneras diferentes:

 por reflexión de la luz solar


 energía emitida por el propio objeto (calor)
 energía emitida por el sensor reflejada por el objeto y nuevamente recibida por
el sensor.

Esas tres maneras de adquirir información se denominan respectivamente reflexión,


emisión y emisión-reflexión.
La reflexión se debe a la luz solar, el sol ilumina la superficie terrestre y según la
cubierta existente sobre ella se reflejará más o menos energía. Ésta será recogida por el
sensor.
La observación remota puede basarse en la energía emitida por las propias cubiertas, o
también existen sensores denominados activos que emiten un flujo energético y son
capaces de recoger la reflexión de la superficie.
En cualquiera de estos casos el flujo energético entre la cubierta y el sensor constituye
una forma de radiación electromagnética.
La energía electromagnética se transmite de un lugar a otro siguiendo un modelo
armónico y continuo a la velocidad de la luz (c) y conteniendo dos campos de fuerza
ortogonales entre sí uno eléctrico el otro magnético. Este flujo se describe por dos
elementos la longitud de onda (λ) que es la distancia entre dos picos sucesivos de una
onda y la frecuencia (ν) que designa el número de ciclos pasando por un punto fijo en
una unidad de tiempo.

c= λ ν

Como c es un valor constante (c=3 x 10 -8 m/s) a mayor frecuencia menor será la


longitud de onda y viceversa, ambos elementos están inversamente relacionados.
Ahora sea Q (en julios) la energía radiante de un fotón, está gracias a la teoría cuántica
queda definida por la siguiente relación

Q=hν

Donde h es la constante de Planck (6.6 x 10-34 j s) o también se puede expresar como:

Q= h (c/ λ)

Lo que significa que a mayor longitud de onda (o menor frecuencia) el contenido


energético será menor y a menor longitud de onda (o mayor frecuencia) el contenido
energético será mayor. Es por esto que longitudes de onda largas son mas difíciles de
detectar que las de onda corta.

34
Onda electromagnética.

El ojo humano sólo es capaz de detectar sólo las ondas que pertenecen al denominado
“espectro visible”, esta es la región comprendida por las longitudes de ondas en donde
es máxima la radiación solar, en esta región suelen distinguirse 3 bandas:

La banda azul (0,4 – 0,5 µm)


La banda verde (0,5 – 0,6 µm)
La banda roja (0,6 – 0,7 µm)

Pero la teledetección nos permite “ver cosas” que nuestros ojos no son capaces de ver,
haciendo una analogía a nuestra capacidad visual, la teledetección posee ojos con una
“capacidad visual” o “un espectro visible” que le permiten detectar las siguientes
longitudes de onda:

La banda azul (0,4 – 0,5 µm)


La banda verde (0,5 – 0,6 µm)
La banda roja (0,6 – 0,7 µm)
Infrarrojo cercano (0,7 – 1,3 µm)
Infrarrojo medio (1,3 – 8 µm)
Infrarrojo lejano o termico (8 – 14 µm)
Micro-ondas (por encima del mm)

Según lo que se desee estudiar será la parte del espectro a utilizar ya que los distintos
tipos de cubierta terrestres tienen un comportamiento diferenciado en cada una de las
bandas. Es preciso conocer estos comportamientos para realizar una adecuada elección
de bandas según sea el fin del trabajo a realizar.

35
CAPÍTULO III

36
G.N.S.S

Sistema Satelital de Navegación Global (en su acrónimo español)

“¿Por qué esta magnífica tecnología científica, que ahorra trabajo y nos hace la vida
más fácil, nos aporta tan poca felicidad? La repuesta es está, simplemente: porque aún
no hemos aprendido a usarla con tino”.

Albert Einstein (1879-1955) Científico alemán nacionalizado estadounidense.

37
Un Sistema Global de Navegación por Satélite es una constelación de satélites
artificiales que transmite rangos de señales utilizados para el posicionamiento y
localización en cualquier parte del globo terrestre, ya sea en tierra, mar o aire. Éstos
permiten determinar las coordenadas geográficas y la altitud de un punto dado como
resultado de la recepción de señales provenientes de constelaciones de satélites
artificiales de la Tierra para fines de navegación, transporte, geodésicos, hidrográficos,
agrícolas y otras actividades afines.

Un sistema de navegación basado en satélites artificiales puede proporcionar a los


usuarios información sobre la posición y la hora (cuatro dimensiones) con una gran
exactitud, en cualquier parte del mundo, las 24 horas del día y en todas las condiciones
climatológicas.
***

Sistemas de Posicionamiento por Satélites actuales


Actualmente, el Sistema de Posicionamiento Global (GPS) de los Estados Unidos de
América y el Sistema Orbital Mundial de Navegación por Satélite (GLONASS) de la
Federación Rusa son los únicos que forman parte del concepto GNSS. El Panel de
Sistemas de Navegación (NPS), el ente de la Organización Internacional de Aviación
Civil encargado de actualizar los estándares y prácticas recomendadas del GNSS, tiene
en su programa de trabajo corriente el estudio de la adición del sistema de navegación
por satélite Galileo desarrollado por la Unión Europea.

***

NAVSTAR-GPS

La implementación del programa NAVSTAR, GPS (Navigation System and Ranging


Global Position System), fue efectivamente iniciada en diciembre de 1973, en febrero
de 1978 fue lanzado el primer satélite de una serie de cuatro.

La responsabilidad del desarrollo y mantenimiento del sistema recae en el


Departamento de Defensa de los Estados Unidos, División Sistema Espacial, esa
dependencia se debe a que el sistema fue concebido para uso militar.

GPS es un sistema que tiene como objetivo la determinación de las coordenadas


espaciales de un punto respecto de un sistema de referencia mundial. Los puntos pueden
estar ubicados en cualquier lugar del planeta, pueden permanecer estáticos o en
movimiento y las observaciones se pueden realizar en cualquier momento del día. Para
la obtención de coordenadas el sistema se basa en la determinación simultánea de las
distancias a cuatro satélites (como mínimo) de coordenadas conocidas. Estas distancias
se obtienen a partir de las señales emitidas por los satélites, las que son recibidas por
receptores especialmente diseñados. Las coordenadas de los satélites son provistas al
receptor del sistema

La operatividad del sistema no implica un compromiso legal del Gobierno de los


Estados Unidos. Por lo tanto la agencia Cartográfica del Departamento de Defensa
puede modificar sin previo aviso su funcionamiento alterando, por ejemplo el

38
denominado mensaje de navegación, limitando el acceso a uno o más componentes de la
señal, alterando el estado de los relojes, degradando la precisión.

De todas maneras el acceso a las señales que emiten los satélites es de carácter público,
no requiriéndose licencia o autorización alguna.

En la actualidad, el uso civil de GPS ha sobrepasado largamente el uso militar,


convirtiéndose de hecho en un servicio público de carácter mundial de enorme
importancia y con innumerables aplicaciones.

El tiempo GPS está definido por el reloj atómico de Cesio de la estación de control
Maestra. El origen de la escala de tiempo GPS se fijó coincidente con el UTC (Tiempo
Universal Coordinado), a las 0 hora del 6 de Enero de 1980, la unidad del UTC es el
segundo atómico, pero está sometido a periódicos reajustes a causa del movimiento
irregular de la tierra, razón por la cual la diferencia entre tiempo GPS y UTC, que se fijó
en 0 segundos en 1980, se fue modificando siendo en enero de 2005 de 13 segundos.

Una unidad de tiempo utilizada por el sistema es el número de semanas GPS (NSGPS)
equivalente a 604800 segundos. La cuenta de la semana GPS comenzó con el origen de
la escala de tiempo GPS. Cuando se completó la semana 1023 la NSGPS se reinicializó,
es decir, la medianoche del 21 de agosto de 1999 se comenzó a contar nuevamente
desde 0.

El sistema GPS está constituido por tres segmentos:


 Segmento Espacial
El sistema está formado actualmente por una constelación de 32 satélites que se
mueven en órbita a 20.180 Km. aproximadamente. Los satélites se ubican en 6 órbitas
planas prácticamente circulares con una inclinación de 55 grados respecto del plano del
ecuador. Tienen 12 horas de periódo de rotación (en tiempo sidéreo) u 11 horas 58
minutos (en tiempo oficial). Hay satélites en órbita que se encuentran desactivados y
disponibles como reemplazo. Con la constelación completa se dispone en cualquier
punto y momento entre 5 y 11 satélites observables con geometría favorable
Los satélites cuentan con osciladores atómicos, los que por su alta frecuencia y la gran
estabilidad de la misma permiten efectuar mediciones de tiempo con elevada precisión.

 Segmento control
Las funciones principales del segmento control, denominado internacionalmente con las
siglas OCS (Operational Control Segement) son:

1. Monitoreo y control permanente de los satélites con el objeto de


determinar y predecir las órbitas y los relojes de a bordo.
2. Sincronización de los relojes de los satélites con el tiempo GPS.
3. Transmisión, a cada satélite, de la información procesada.

Las estaciones de monitoreo tienen coordenadas conocidas con gran precisión y están
equipadas con receptores GPS de doble frecuencia L1/L2 y un reloj de cesio. Su función

39
es determinar las distancias a cada uno de los satélites visibles y transmitirlas a la
estación de control maestra junto con los datos meteorológicos de cada estación.
Con los datos recibidos de las estaciones monitoras, la estación maestra ubicada en la
base de la fuerza aérea Schriever en el estado de Colorado, calcula los parámetros
orbitales y los de los relojes y posteriormente los transmite a las antenas terrestres que
los transfieren a los satélites a través de un enlace vía banda S.
 Segmento usuario
Está constituído por los instrumentos utilizados para recepcionar y procesar la señal
emitida por los satélites. Estos instrumentos están integrados esencialmente por una
antena y un receptor, un equipo complementario es utilizado en ocasiones para transferir
datos entre receptores. Posee además un oscilador de cuarzo que permite generar la
frecuencia de referencia para realizar la observación. Cuenta con un microprocesador
interno con un software correspondiente que calcula las coordenadas de la antena y la
velocidad y acimut si el aparato esta en movimiento. Los equipos están en continuo
desarrollo y su evolución es comparable a la experimentada en informática durante las
últimas décadas para los ordenadores personales.
Información que brinda el receptor:

 Satélites localizados.

 Satélites en seguimiento.

 Intensidad de cada señal recibida.

 Condición de cada satélite en seguimiento.

 Posición: longitud, latitud, altitud.

 Calidad de la geometría de observación.

Según la precisión con que se pueden obtener los resultados, podemos clasificarlos en
receptores: GEODESICOS - TOPOGRAFICOS – NAVEGADORES.

***

40
GLONASS

El sistema Ruso GLONASS fue desarrollado desde principios de los años 70 por el
entonces Ministerio de Defensa Soviético. Es similar en muchos aspectos al GPS,
también presenta diferencias. Los planes de GLONASS permiten proporcionar dos
servicios: el CSA (Channel of Standard Accuracy) disponible para uso civil y el CHA
(Channel of High Accuracy) para uso autorizados.

El GLONASS CSA fue aceptado desde 1996 por la Organización Nacional de Aviación
Civil.
 Sector control: la central se encuentra en Moscú y tiene una red de seguimiento
y control ubicada en todo el territorio Ruso. Las mismas, como en GPS deben
seguir y vigilar el estado de los satélites, determinar efemérides y errores de los
relojes.

GLONASS proporciona a los usuarios civiles una precisión en tiempo real y


posicionamiento absoluto, midiendo con código, de unos 60 metros en horizontal y 75
metros en vertical (99,7% de los casos) según el gobierno de la Federación Rusa, no
estando prevista ninguna degradación internacional.
 Sector espacial: tiene semejanzas con el de GPS. Cuando se complete estará
compuesto por una constelación de 24 satélites ubicados en tres planos orbitales
inclinados aproximadamente 65 grados respecto del Ecuador. Cada plano
contendrá 8 satélites, a unos 19.100 Km. de altura asegurando una cobertura de
adecuada geometría, con 5 satélites como mínimo, en cualquier instante y lugar
de la Tierra. A diferencia de GPS todos los satélites transmiten el mismo código,
pero se diferencian en la frecuencia de la portadora.

La información de las efemérides no reúne las condiciones adecuadas para los trabajos
de gran precisión. Esto y la cantidad de satélites, es la principal limitante de este sistema
respecto a GPS.
 Sector usuario: los receptores tienen características similares a los de GPS. En el
mercado existen marcas y modelos con capacidad de recibir señales de ambos
sistemas. Así el usuario podrá tener acceso a un sistema combinado con mayor
cantidad de satélites, para ello es necesario conocer sus posiciones en el mismo
sistema de referencia y establecer la relación entre las dos escalas de tiempo.

El DATUM Geodésico Parametry ZEMLI 1990 (PZ90) es el sistema de referencia


terrestre adoptado por GLONASS. Hay diferencias en el origen en la orientación
de los ejes y en la escala respecto al WGS 84.

41
Actualidad: En el 2009 concluirá el despliegue del Sistema Global de Navegación por
Satélite (GLONASS) desarrollado por Rusia, y a partir de entonces los usuarios del
mundo entero tendrán acceso gratuito a los datos que proporcionarán los 24 satélites
de navegación.

"Esa flotilla de satélites permitirá cubrir todo el territorio de la Tierra", explicó el


diseñador jefe del Centro de Mecánica Aplicada "Académico Mijaíl Reshetnev", Nikolái
Testoyédov, quien asiste al Salón Internacional de la Aeronáutica y del Espacio en Le
Bourget. Precisó que actualmente en la órbita trabajan sólo 12 satélites, pero que
hasta finales del año ya serán 18 y esa cantidad garantizará la navegación
prácticamente en todo el territorio de Rusia.

***
SISTEMA EUROPEOS

Según la comisión Europea los sistemas GPS y GLONASS presentan una serie de
limitaciones técnicas e institucionales que se pueden resumir en:
a) No satisfacen todos los requisitos de navegación exigidos por la Aviación Civil,
y como consecuencia de ello, su uso adolece de una serie de restricciones y en
la práctica se limita a las fases de vuelo menos exigentes
b) Están bajo control militar por lo que, en conflicto bélico la disponibilidad del
servicio no está asegurada.
c) No existe ningún tipo de garantía legal o de seguridad sobre el funcionamiento
de los sistemas.

d) No existe un marco de responsabilidad legal claramente definido en caso de


accidentes provocados por estos sistemas.

Como consecuencia de estas limitaciones, es necesario complementar a GPS y/o


GLONASS con sistemas adicionales. Estos sistemas se conocen en la terminología de la
OACI (Organización de Aviación Civil Internacional) como “Aumentaciones” y tienen
por objeto mejorar el servicio básico ofrecido por GPS y GLONASS.

Siguiendo las recomendaciones emitidas en 1992 por el comité FANS (Future Air
Navigation Systems) de la OACI, la implantación del GNSS se aborda en dos etapas,
que se denominan GNSS-1 y GNSS-2.

Las presentaciones de los sistemas GNSS se establecen siguiendo cuatro parámetros


básicos: Precisión - Integridad (confianza) – Continuidad – Disponibilidad.

GNSS-1: las aumentaciones tiene un objetivo doble: en primer lugar mejorar las
prestaciones de GPS y/o GLONASS y, en segundo lugar, posibilitar la definición de un
marco legal e institucional de uso del que carecen hoy día. Se han contemplado tres
posibles tipos. Uno de estos es SBAS (Satellite Based Augmentation System) definida
como “sistema de aumentación de cobertura amplia en los cuales el usuario recibe la
información de aumentación a través de un transmisor embarcado en un satélite”, que
proporciona importantes servicios, por ejemplo información relativa al estado de

42
funcionamiento y calidad de las señales emitidas por todos los satélites GNSS-1. En la
actualidad existen tres iniciativas a nivel mundial de implantación de sistemas SBAS:
EGNOS en Europa, WAAS en Estados Unidos y MSAS en Japón.

GNSS-2: se prevé que GNSS-1 evolucione hacia un sistema de navegación multimodal,


que contemple usuarios de todo tipo de mejores prestaciones y bajo control civil,
denominado GNSS-2.

***

Sistemas de Posicionamiento por Satélites en proyecto.

Los siguientes son todos Sistemas que se encuentran en la fase de Proyecto.

GALILEO
Galileo es la iniciativa de la Unión Europea y la Agencia Espacial Europea, que
acordaron desarrollar un sistema de radionavegación por satélite de última generación y
de alcance mundial propio, que brindara un servicio de ubicación en el espacio preciso y
garantizado, bajo control civil.

Líneas principales del desarrollo del programa GALILEO:


 Es independiente de los sistemas GPS y GLONASS pero complementario e
interoperable.
 Está abierto a la contribución de capital privado internacional.
 Explotar las nuevas capacidades en un sistema civil, permitiendo el desarrollo de
nuevas aplicaciones, facilitando la robustez del GNSS y poniendo remedio a
ciertas deficiencias que existen en la actualidad.
 Tendrá una cobertura global para proveer un mercado mundial para el sistema y
sus aplicaciones. Incluirá un servicio de acceso restringido.
 El sistema permanecerá bajo el control de autoridades civiles.
Galileo comprende una constelación de 30 satélites divididos en tres órbitas circulares, a
una altitud de aproximadamente 24.000 Km, que cubren toda la superficie del planeta.
Éstos estarán apoyados por una red mundial de estaciones terrestres. El primer satélite
fue lanzado el 28 de diciembre de 2005 y se espera que el sistema esté completamente
operativo a partir de 2010 (dos años más tarde de lo inicialmente previsto). Galileo será
compatible con la próxima generación de NAVSTAR-GPS que estará operativa antes
del 2012. Los receptores podrán combinar las señales de 30 satélites de Galileo y 28 del
GPS, aumentando la precisión de las medidas.

43
BEIDOU
Beidou es el nombre del GNSS desarrollado por China para su propio sistema de
navegación. Actualmente está en fase de proyecto.

QZSS (Quasi-Zenith Satellite System)

Es el nombre del GNSS desarrollado por Japón.

IRNSS

IRNSS (Indian Regional Navigation Satellite System) es el nombre del GNSS


desarrollado por India.

***

A continuación citaremos partes de capítulos del libro GPS Posicionamiento


Satelital de Eduardo Huerta, Aldo Mangiaterra, Gustavo Noguera, que creemos
servirán de apoyo para la comprensión de la utilización de dicho instrumental. Si
bien hemos mencionados los distintos GNSS existentes y los que están en proyecto,
el único que se ha masificado a nivel mundial es sin duda GPS, por ello vemos
conveniente hacer un análisis de su funcionamiento.

44
GPS (Posicionamiento Satelital)
Obtención de coordenadas

El problema de la pirámide
Para determinar la posición de un punto en el espacio, es suficiente conocer las
distancias a tres puntos de coordenadas conocidas. Se trata de una intersección espacial
inversa. Es un problema geométrico relativamente simple, más allá de las dificultades
que su cálculo suponga. Se trata en definitiva de una pirámide de base triangular.
Desde el punto de vista geométrico el problema tiene dos soluciones, pero es fácil elegir
la correcta, puesto que la otra esta ubicada a unos 40000 km de la superficie terrestre.
El punto P se corresponde con la intersección entre las tres esferas que tienen por radios,
respectivamente, las distancias entre cada satélite y el punto P
Posicionamiento mediante código C/A
Cuando se diseñó GPS se estableció que el código C/A (código de adquisición común)
fuera de libre adquisición, es decir no reservado para uso militar.
El problema a resolver es MEDIR LAS DISTANCIAS entre satélites y receptor. Para
ello vamos a utilizar el llamado código C/A.
Recordemos el método aplicado en los distanciómetros electrónicos: el aparato emite
una onda homogénea de frecuencia conocida, la cual se refleja en un prisma colocado
en el otro extremo del segmento a medir; el rebote es recibido por el aparato, el cual
mide el desfasaje, lo convierte en tiempo y por lo tanto en distancia equivalente.
Dejamos de lado aspectos particulares de la distanciometría electrónica que no vienen al
caso.
En GPS la medición es de vía única, es decir no hay reflexión. Debe medirse el tiempo
necesario para que la señal recorra la distancia satélite-receptor. Puesto que se trata de
medir tiempos es necesario contar con “relojes” adecuados tanto en los satélites como
en el receptor.
En realidad son instrumentos que distan mucho de la noción usual de un reloj. Se trata
de osciladores de frecuencias muy estables capaces de señalar medidas de tiempo del
orden de 10-13 segundos (o 10-14) en los satélites y 10-8 segundos en los receptores.

La señal del satélite


Hay una frecuencia fundamental, generada por el oscilador del satélite, de ella se
derivan todas las demás frecuencias que el satélite utiliza para emitir. Se emiten dos
ondas portadoras, llamadas L1 y L2; sobre una de ellas, L1, se monta la modulación
correspondiente al código C/A.
Códigos (P y C/A), portadoras (L1 y L2)
Por ahora nos remitiremos casi exclusivamente al código C/A como medio para efectuar
la medición de las distancias que nos interesan.

45
Supongamos un satélite en particular:
Al código lo podemos imaginar como una serie de ceros y unos, o bien de (+1) y (-1),
en un cierto orden. Al multiplicar la onda portadora por el código, aquella no se altera
cuando se encuentra con los (+1), pero se invierte donde aparecen los (-1). Todo ello da
como resultado una onda deformada, un seudo ruido aparentemente aleatorio, que es lo
que llega al receptor.
 Cada satélite cuenta con un código C/A diferente, lo que genera una modulación
especifica de la señal, propia y exclusiva de ese satélite
 De tal modo se obtiene un PRN (ruido seudo aleatorio) distintivo de ese satélite
 Si queremos hacer analogía gráfica podríamos decir que es un “dibujo”
característico de ese satélite.
Pero además, ese “dibujo”, va asociado al tiempo; se repite cada milisegundo y le
corresponde un instante determinado para comenzar cada repetición; ese instante no
puede ser cualquiera, debe ser común a todo el sistema.

Medición de la distancia
Cada receptor tiene almacenada en su memoria las replicas de todos los PRN. Así
cuando recibe la emisión satelital puede efectuar el reconocimiento del satélite
correspondiente. A continuación, procesando la señal, recupera el código con el que fue
modulada y, a la vez, genera interiormente una replica del código recibido, pero
obviamente desfasado, puesto que el recibido debió “viajar” por el espacio, siendo
recibido como un “retardo”.
Código Transmitido

Código Recibido

Retardo
Código Local

Tiempo
TUC o TGPS

Retardo = Range (distancia)


Incógnitas: x, y, z (coordenadas de la antena)
La operación siguiente consiste en correlacionar los códigos (recibido y autogenerado o
“local”), lo que permite medir el tiempo y por lo tanto la distancia (considerando
conocida la velocidad de la luz en el espacio).

46
Relación entre código C/A, tiempo y distancia
 Código completo 1 milisegundo = 10-3 segundos  300000 m
 Un elemento (*) 1 microsegundo =10-6 segundos  300 m
 Apreciación (**) 10 nanosegundos = 10-8 segundos  3 m
(*) Es la milésima parte del código completo.
(**) En la correlación entre el código recibido y el código local, se puede apreciar una
centésima parte de un elemento.
Pero se miden SEUDODISTANCIAS
Y ello es lógico porque la sincronización de los relojes (el del satélite y el receptor) no
puede ser perfecta. Para comprenderlo bastaría tan solo tener en cuenta la diferencia
existente entre la precisión que caracteriza al reloj del satélite y la del reloj del receptor.
La consecuencia de ello es que la distancia observada no es la real, sino un valor
próximo que difiere en una longitud d = c. (R) (donde c = es la velocidad de la luz).
δR Código Transmitido

Código Recibido
Range

Retardo

Código Local

Tiempo
TUC o TGPS

Retardo = Range + Error de reloj


Incógnitas: x y z (coordenadas de la antena)
R Error del reloj del receptor.
Surge así una incógnita imprevista: R es una incógnita que representa el error del reloj
del receptor respecto al sistema de tiempo GPS.
La solución a este inconveniente es muy sencilla, el propio sistema nos la brinda.
Hay 4 incógnitas: 3 de posición (xp, yp, zp)
1 de reloj (R)
Se resuelve observando 4 satélites en vez de 3 y resolviendo un sistema de 4 ecuaciones
con 4 incógnitas. Eso simplifica enormemente las cosas porque permite utilizar en los
receptores osciladores menos precisos que los de los satélites y obviamente con
muchísimo menor costo.Como vemos es el propio sistema el que controla, y corrige, el
estado de los relojes de los receptores.

47
Ecuaciones de observación
Surge inmediatamente la ecuación posterior

S (satélite)
sd

δ
ρ

(posición) P

Coordenadas de S (satélite): (xS, yS, zS)


Coordenadas de P (posición): (xp, yP, zP)
2 = (xs - xp)2 + (ys – yp)2 + (zs- zp)2
Donde  = sd + d y d = c. (-R) (donde c = es la velocidad de la luz)
2 2 2 2
(sd + d) = (xs - xp) + (ys – yp) + (zs- zp)
Tendremos una ecuación de este tipo por cada satélite observado.
Para efectuar el cálculo debe efectuarse cierta manipulación de esa ecuación, cuestión
que no pretendemos desarrollar aquí; basta con saber que es posible calcular (xp, yP, zP,
d), lo que constituye la solución del sistema de ecuaciones antes mencionado.

-Observación:
Para trabajar en 3 dimensiones (basta con) sistema de 4 ecuaciones
con 4 incógnitas.
Para trabajar en 2 dimensiones (basta con) sistema de 3 ecuaciones
con 3 incógnitas.
Precisión del posicionamiento
(sd + d)2 = (xs - xp)2 + (ys – yp)2 + (zs- zp)2 (III-1)

d
xp Incógnitas
yp
zp

xs
ys Datos
zs

sd Observación

48
Si tenemos en cuenta que:
a. La distancia que observa el aparato es en realidad la seudodistancia, pero
afectada por una serie de errores (cuyas causas se analizaran de inmediato)
Seudo distancia = distancia observada menos una sumatoria de errores
Sd = dobs -  e
b. Los datos que tenemos sobre las coordenadas de los satélites (a través de las
efemérides) también están afectados por errores, puesto que las órbitas surgen de
mediciones y extrapolaciones.
xs = xst – exs donde xst significa coordenada transmitida
y exs el error de la misma
Reemplazando en (III-1), podemos expresar:
(dobs -  e + d)2 = (xst – exs - xp)2 + (yst – eys – yp)2 + (zst – ezs - zp)2 (III-2)

Consideraciones de los errores


En primer lugar debe distinguirse claramente entre los errores propios de la medición y
las equivocaciones o errores groseros. Estos últimos no dependen de la técnica o el
instrumental de medición; son producto de la impericia, el cansancio, o incluso de una
acción intencional. Ahora bien, entre los errores de medición, debemos separar por un
lado a los llamados sistemáticos, cuya causa responde a alguna ley física más o menos
conocida, y los llamados accidentales, inevitables en toda medición, cuyo
comportamiento ha sido caracterizado mediante la famosa campana de Gauss.
Vamos a intentar una esquematización de las principales causas de error en GPS y
mencionar algún criterio de tratamiento de los mismos, reduciéndonos exclusivamente a
la medición con código C/A.
Errores sistemáticos
a. Efemérides y reloj de satélite: su influencia no es demasiado significativa para
código C/A. en otros métodos de medición se mejoran los resultados utilizando
“las efemérides precisas”, es decir coordenadas de los satélites calculadas a
posteriori con mayor precisión.
b. Influencia de la atmósfera: es una fuente de error muy importante; con un solo
receptor es inevitable, no obstante existen métodos, que abordaremos más
adelante, que reducen notoriamente su influencia.
c. Ondas reflejadas o “multicamino”: las ondas reflejadas, llamadas también
“efecto multipath”, se controlan tratando de evitar, en lo posible, el
estacionamiento del receptor próximo a superficies reflectantes.

Errores accidentales
En este caso surgen al medir mediante la técnica de correlación de los códigos. El
“ruido” propio de la medición es aquel medido por debajo del cual el instrumental no
puede efectuar determinaciones certeras, es decir expresa la incertidumbre propia de la
medición. Su tratamiento responde a los cánones clásicos; apelar a la “sobreabundancia”
de observaciones y a la búsqueda del valor más “probable”, mediante el cálculo llamado

49
de compensaciones o ajustes. La suma de (si se permite) “electrónica + informática”,
facilita efectuar y acumular un gran número de observaciones. Ello explica la
conveniencia de prolongar la medición por cierto lapso de tiempo a los efectos de
mejorar la precisión.

Factor de configuración
Recordamos que estamos tratando una intersección espacial. La precisión de la misma
depende tanto de la calidad de la medición como también de la configuración del
sistema. Veamos un ejemplo en intersección plana desde dos puntos. Midiendo las
distancias a dos referencias (puntos de coordenadas conocidas), podemos calcular la
posición del punto P en el plano.
A, B, C y D son puntos de coordenadas conocidas
B

P D

Pares de puntos a utilizar como referencia:


Convenientes Inconvenientes
ByC AyC
AyD AyC
ByD CyD

Es fácil ver, intuitivamente, que según sea el par de puntos elegidos para referenciar la
intersección, obtendremos resultados de diferente precisión. Es evidente que cuando los
puntos de referencia están muy próximos entre si (Ej. C y D) se obtiene una intersección
en P poco confiable.
En GPS, para efectuar la intersección espacial que nos brinda las coordenadas de la
antena del receptor, nos apoyamos en un grupo de satélites (en general 4 como mínimo),
lo que llamamos “la constelación”. Esos satélites están distribuidos en el espacio, en el
momento de la medición, de una determinada forma, que es lo que llamamos
“configuración”.
Si apelamos a la analogía con las mediciones terrestres, los satélites juegan el papel
tradicionalmente desempeñado por los “puntos fijos”, lo que resulta paradojal, pues si
algo caracteriza los satélites es su movilidad permanente, es decir la incesante e
instantánea variación de coordenadas.

50
Pero eso explica porqué es conveniente prolongar las observaciones durante cierto
tiempo. De ese modo, manteniendo la constelación, cambia la configuración, es decir no
estamos tan solo reiterando la medición anterior, sino efectuando una medición distinta,
con “otros puntos fijos”, lo cual es muy importante para mejorar la precisión de los
resultados.
En GPS la influencia de la configuración se expresa matemáticamente mediante un
factor, del siguiente modo:
σP = σd . DOP
Donde: σP: desvío estándar en la posición obtenida.
σd: desvío estándar en la medición de las distancias.
DOP: factor de dilución de la precisión.

El software disponible en todo equipamiento GPS, permite calcular rápidamente el


factor de dilución una vez fijada la configuración. Esto vale tanto para programar
una medición, es decir determinar a priori, con gran aproximación, cual será el
factor de dilución, como vale para las mediciones ya realizadas, donde ese factor
surge de los propios datos de medición.

En el caso que fuera necesario, la influencia del factor de configuración se puede


expresar mediante lo que serían sus componentes, así es posible obtener:
HDOP para estimar el error en el posicionamiento horizontal.
VDOP para estimar el error en el posicionamiento vertical.
PDOP para estimar el error en el posicionamiento tridimensional.
Se utiliza el PDOP para validar las constelaciones, es decir aceptar o no la medición
efectuada o a efectuarse en esas condiciones, para lo cual se establecen máximos
admisibles o valores de tolerancia.
Es bastante conocido que en GPS se obtiene siempre menor precisión en vertical que en
horizontal (la relación es del orden de 1.5 o 2)
Ello se explica justamente por el factor de configuración, puesto que es imposible
obtener una adecuada configuración para la altura.
Dado que pueden presentarse situaciones, no muy comunes pero posibles, en que la
“visibilidad” de satélites sea muy restringida, habrá que cerciorarse que el PDOP sea
aceptable. De lo contrario debe programarse para el día y hora que ello se produzca.

“En definitiva, se puede obtener una precisión del orden de los 15 metros, con un
solo receptor, efectuando una sola observación, con resultado instantáneo y en el
95% de los casos”.
***

51
Maneras de posicionamiento (autónomo estático, móvil; fase, estático, móvil) cada
uno con sus precisiones
Posicionamiento con código C/A:
Posicionamiento absoluto: cuando hablamos de posicionamiento absoluto nos referimos
al caso de un solo receptor operando en modo autónomo, es decir, la función típica de
navegación, calculando las coordenadas del receptor sobre la superficie terrestre en base
a las mediciones de distancia que realiza a los satélites visibles y mostrando estas
coordenadas sin ningún tipo de corrección, en el display del receptor (con un intervalo
de actualización que se puede prefijar)
Podemos distinguir dos modos de operación estático y móvil:
 Estático: el modo estático significa que el receptor permanece estacionado sobre
el punto del que se quieren conocer las coordenadas durante un lapso de tiempo,
que pueden ser algunos minutos; si este receptor se encuentra calculando
posiciones (coordenadas) tendremos, para la solución en tres dimensiones, un
sistema de 4 ecuaciones con 4 incógnitas por cada instante de actualización en la
toma de datos, (si se observaran mas de 4 satélites, tendremos sobreabundancia
de observaciones). La posición final, coordenadas del punto estación,
corresponde al promedio de todas las posiciones calculadas.
 Móvil: el modo móvil está relacionado con el uso del receptor en movimiento,
en este caso tendremos soluciones instantáneas en tres dimensiones para cada
momento de toma, que no corresponden al mismo punto (el receptor se está
moviendo). Tendremos formado un sistema de 4 ecuaciones con cuatro
incógnitas por cada toma (y sobreabundancia si se observaran más de 4
satélites), que nos dará las coordenadas del punto en que se ubica el receptor a
cada instante, siendo esta la solución típica de navegación, de modo que esta
sucesión de puntos describe la trayectoria seguida por el receptor.

Precisiones
Con estos métodos de operación la precisión general alcanzable en las coordenadas de
los puntos será mejor que 10 metros en horizontal y 15 metros en vertical, en el 95% de
los casos (que es la caracterización oficial del Servicio de Posicionamiento Standard).
Esta precisión se alcanzaba desde el origen del sistema, hasta que fue implementada la
SA (Selective Avaliability), en marzo de 1990 cuando deliberadamente se degradó la
precisión, hasta su desactivación el 1 de mayo del 2000.
Durante el período que estuvo activada la SA se lograba una precisión en la posición
horizontal (bidimensional) del orden de 100 metros, para un usuario aislado, en el 95%
de los casos.
Posicionamiento diferencial:
Se colocan dos receptores no muy alejados entre si, de manera tal que ambos realicen
observaciones a los mismos satélites. El principio de la técnica de posicionamiento
diferencial se basa en que los errores en la propagación de la señal (ionósfera,
tropósfera) afectan de manera similar a las dos estaciones, esto es así porque la distancia
entre receptores es muy inferior a la distancia satélite-receptor.
Los errores en cada satélite (reloj, órbita) son comunes para ambas estaciones.

52
La técnica de corrección diferencial utiliza estas características para eliminar las
influencias de estos errores en el cálculo de las coordenadas de la segunda estación
(remota) a partir de conocerlos en la primer estación (base), de la que se conocen sus
coordenadas.
De modo que, si para cada posición calculada por la estación base asignamos un vector
error y luego lo aplicamos, cambiado de signo, a la posición calculada en la estación
remota, tendremos las posiciones corregidas.
Debe tenerse en cuenta que esta técnica no elimina todos los errores que influyen en el
posicionamiento satelital, ya que quedan los errores propios de cada estación, el
Multipath y la propia correlación de cada receptor. Y, disminuyendo la precisión
general del posicionamiento, nos afectará el PDOP de la configuración utilizada, que
incluye constelación y estación
Esta técnica de corrección diferencial puede aplicarse de varias formas:
 Corrección de la posición (o diferencias de coordenadas): en este caso cada
posición calculada por el receptor base en función de la medición de distancia a
4 satélites y señalada en el tiempo GPS, es comparada con las coordenadas,
conocidas de antemano, de la estación base.
Para cada una de las posiciones se calcula el vector error y se aplica, con signo opuesto,
a la posición correspondiente al mismo tiempo GPS, calculada por el receptor remoto.
Como restricción de este método establecemos la necesidad de observar los mismos
satélites en ambas estaciones, ya que el cálculo de la posición estará influido por los
errores correspondientes a cada satélite y para que se eliminen diferenciando deben ser
los mismos en ambas estaciones.
 Corrección de distancias: otra forma de aplicación es la corrección de distancias
a los satélites (o corrección de las observaciones) en este caso se identifica en el
tiempo GPS, cada distancia calculada por el receptor base a cada satélite en
forma independiente.
Teniendo las coordenadas de la estación base conocidas, puede calcularse la distancia
“verdadera” entre el receptor y cada satélite en cada instante. Esta distancia “verdadera”
es comparada con la distancia calculada y la diferencia entre ambas corresponde al error
para ese satélite en ese instante, valor que cambiado de signo es aplicado a la distancia
calculada por el receptor remoto a ese satélite en ese instante.
Para cada juego de distancias corregidas, se calcula en el receptor remoto, una posición
correspondiente a ese instante.
Este método resulta más flexible respecto de los satélites que utiliza cada receptor, ya
que al separar el cálculo de las correcciones para cada satélite, no es necesario que sean
estrictamente los mismos los que observan el base y el remoto, pero si debe haber por lo
menos 4 satélites comunes entre ambos.

53
Este es el método que se usa cuando se transmite la corrección en tiempo real.

 Simple y dobles diferencias: la tercer alternativa es la utilización del cálculo de


simples y dobles diferencias de las distancias observadas a pares de satélites
(por lo menos 4), donde se elimina la influencia de los errores de los relojes del
satélite y del receptor y se reducen notoriamente las influencias de los errores de
los parámetros orbitales del satélite y de la transmisión de la señal (retraso
ionosférico), quedando como incógnitas las componentes del vector (Δx, Δy, Δz
base-remoto), que se estiman en un único cálculo por el método de los mínimos
cuadrados (los fundamentos de simples y dobles diferencias en forma detallada
cuando analicemos el posicionamiento con fase).

Métodos de operación:
De esta manera y análogamente al posicionamiento absoluto encontramos dos métodos
de operación: estático y móvil
Modo estático: en este modo el receptor remoto es estacionando algunos minutos sobre
el punto que nos interesa relevar, haciendo mediciones de distancias a los satélites y/ o
calculando posiciones, almacenando estos datos en su memoria interna. Al cabo del
relevamiento de todos los puntos que interesan, se bajan los datos del receptor base y
del remoto a una computadora para realizar el post-procesamiento de las mediciones de
ambos y aplicar alguno de los métodos de corrección diferencial que permiten obtener
las coordenadas de los puntos relevados.
Como en todo posicionamiento estático es importante ya que podemos realizarlo,
trabajar con un PDOP bajo.
Modo móvil: el receptor remoto está en movimiento, calculando y almacenando
distancias y/o posiciones en su memoria interna.
Luego de terminado el proyecto a medir se bajan los datos y se efectúa el post-
procesamiento aplicando la corrección diferencial (posición o distancias), se obtiene
cada posición instantánea corregida, de esta forma, las coordenadas de la trayectoria del
receptor remoto constituirán la solución final.
Estas dos alternativas también pueden aplicarse en tiempo real contando con el
equipamiento adecuado.
Precisiones:
Las precisiones que caracterizan las mediciones con GPS en modo diferencial, en
función de las distancias entre las estaciones pueden verse en el cuadro que se adjunta.
Debe aclararse que en la actualidad y debido a las mejoras en los receptores y software
de post-procesamiento, los resultados que se obtiene pueden mejorar en algunos casos.

Precisiones GPS diferencial


Separación Precisión en posición
Observable
Estaciones Instantánea Promedio 3 minutos
10 Km 8m 4m
Código C/A
500 Km 10 m 5m
10 Km 3m 0.3 m
Código C/A suavizado o correlación fina
500 Km 7m 4m

54
Aplicación de la corrección diferencial
Post-procesamiento
Este es el caso más simple de aplicación, es el ejemplo visto anteriormente, hablamos de
bajar los datos a una computadora y enfrentar las mediciones de ambos receptores,
realizando el post-procesamiento; vemos que los resultados se obtienen a posteriori de
un procesamiento en gabinete.
Este método puede aplicarse en forma “particular”, es decir un usuario que cuente con
sus dos o más receptores dejará uno estacionado en un punto de coordenadas conocidas
que actuará como “base” y otro (o los otros) recorrerán los puntos que interesan relevar.
Una alternativa se presenta a este método a través de la instalación de una Estación
Permanente GPS, esto es, un receptor GPS sobre un punto de coordenadas conocidas.
Esta estación almacena los datos de los satélites GPS durante las 24 horas y los pone a
disposición de los usuarios en forma de archivos por el lapso de tiempo que cada
usuario estuvo realizando mediciones, de esta manera cada usuario utiliza los archivos
del receptor base para aplicar la corrección diferencial a sus archivos tomados con su
receptor remoto.
Como ventaja de este sistema podemos enunciar la independencia de la estación base de
su estacionamiento y sus cuidados. Así también que el usuario necesita un equipamiento
mínimo compuesto por un solo receptor y en el caso de que contara con más receptores
todos actúan como remotos, aumentando la eficiencia del equipo de medición.
En este caso, de la utilización del sistema de estación permanente debe tenerse en
cuenta que se produce una pérdida de precisión en función de la distancia que separa el
receptor remoto de la estación base, cuando esta pasa a ser mayor de 100 Km
aproximadamente.

Corrección diferencial en tiempo real.


También conocida como RTDGPS. Si en el caso de una estación permanente ubicada
sobre un punto de coordenadas conocidas, contamos con un receptor base capaz de
calcular, para cada instante el error en la distancia y la corrección que corresponde a
cada satélite que está observando, y a través de un sistema de radio transmitirla;
cualquier receptor remoto que reciba esta corrección puede aplicarla a las distancias de
los satélites que éste está observando y calcular así, en tiempo real las posiciones
corregidas (utilizando el método de corrección de distancias).
El receptor remoto debe tener capacidad interna de recibir e interpretar esta información
(vía formato RTCM104) y para esto estará conectado a otro receptor de radio frecuencia
para recibir esta señal de corrección en tiempo real y aplicarla a las distancias a los
satélites que está observando. Este sistema al igual que en el caso anterior tiene el
problema de la perdida de precisión que el usuario del receptor remoto se aleja de la
estación base de referencia, y las dificultades de la recepción de señales radiales.

WADGPS
Esta es la sigla que corresponde al sistema Wide Area Diferencial GPS (GPS
diferencial de área amplia).

55
La idea básica de este sistema es la limitante principal de un sistema convencional
DGPS, que es la pérdida de precisión a medida que el usuario se aleja de la estación de
referencia; ya que los “errores” asumidos como iguales para la estación base y para el
usuario remoto dejan de serlo invalidando el razonamiento que nos permitía aplicar la
“corrección diferencial” generada en una única estación de coordenadas conocidas antes
mencionada.
La cuestión inmediata es que para hacer funcionar un sistema DGPS de área amplia
(WADGPS), será necesario incrementar el número de estaciones de referencias,
manteniendo una densidad suficiente para evitar la pérdida de precisión. En cuanto al
diseño del sistema y la transmisión de la corrección podemos definir básicamente dos
tipos de sistemas WADGPS:
Vía transmisión radial: estos sistemas operan transmitiendo las correcciones
diferenciales implementado de dos formas: a través de las redes de FM o bien utilizando
las señales de radio-faros de navegación.
En el caso de la transmisión vía FM, la modulación de las correcciones es producida en
sub-carriers de la onda de FM que transmiten las emisoras de radio de cada localidad y
permiten al usuario autorizado acceder a las correcciones a través de receptores tipo
pagers.
El formato utilizado para transmitir las correcciones es el RTCM-104.
Por detrás del conjunto de las estaciones radiales, está una red de estaciones de
referencia, encargadas de computar, validar, calcular correcciones y determinar los
parámetros que serán difundidos para las emisoras radiales.

DCI y ACCQPOINT ofrecen estos sistemas para el usuario en América del Norte y en
algunos otros lugares del planeta a través de una red de 450 estaciones FM.
Como vemos este sistema necesita una gran cantidad de antenas distribuidas por todo el
territorio al que se quiere brindar corrección diferencial, ya que el alcance de la
corrección FM está limitado a los 60-80 Km aproximadamente.
En este sistema el receptor de la corrección elige automáticamente la transmisión
correspondiente a la antena más cercana.
En el caso de los radio-faros las correcciones son moduladas sobre la misma señal que
es emitida por los radio-faros de navegación, fundamentalmente para los barcos que
navegan en zonas costeras, pero también pueden ser utilizados por otros usuarios en la
zona de cobertura.
En Argentina existe en funcionamiento comercial un sistema de este tipo, con dos
estaciones de transmisión (ubicadas en San Carlos Pcia. Santa Fe y Bolívar Pcia.
De Buenos Aires) dando cobertura a la zona agrícola, especialmente para la
aplicación de técnicas de “Agricultura de Precisión”

VIA INMARSAT
Para resolver el problema de la cobertura en la transmisión en los parámetros de
corrección en un sistema WADGPS se utilizan los satélites de comunicación
INMARSAT distribuidos de forma de permanecer geoestacionarios sobre el Ecuador
logrando una cobertura mundial con solo 4 o 5 satélites.

56
Este sistema permite a la vez otra ventaja y es la de necesitar de un pequeño número de
estaciones de referencia sobre puntos de coordenadas distribuidas geográficamente en el
área a ser cubierta pudiendo mantener la precisión en el posicionamiento.
Las experiencias que citan diferentes autores indican como suficiente un número de 3 a
4 estaciones de referencia en área de extensión como Estados Unidos y Europa.
Estas estaciones deben operar en forma permanente siendo una de ellas la que funciona
como Master recibiendo y procesando los datos de las demás.
De este modo los errores (error del reloj del satélite, error orbital, errores debidos al
atraso ionosférico) son modelados y la estación master transmite las correcciones en
tiempo real.
Los satélites de comunicación INMARSAT se utilizan para transmitir la corrección a
los usuarios y transmitir los datos entre las estaciones de referencia.
Podemos describir dos tendencias en cuanto a los métodos de modelar los errores en los
sistemas WADGPS. Por ejemplo en Nottingham (Inglaterra), los errores orbitales son
tratados a través de la sustitución de las efemérides transmitidas por los satélites GPS
por una nueva orbita computada a partir de técnicas de integración orbital
Y en Stanford (Estados Unidos), una de las estrategias adoptadas es la de invertir
geométricamente la solución de posicionamiento por satélites artificiales, computándose
correcciones tridimensionales a las posiciones de los satélites, a través del conocimiento
de las coordenadas precisas de las estaciones de referencia.
***

Posicionamiento con fase

Las señales emitidas por los vehículos espaciales están caracterizadas por un cierto
número de componentes todas basadas en una frecuencia fundamental fo igual a 10,23
Mhz controlada por los osciladores atómicos que se encuentran abordo. Los satélites
trasmiten dos señales portadoras en la banda L, denominadas L1 y L2, las que son
generadas multiplicando a la frecuencia fundamental por un número entero, resultando
respectivamente las siguientes frecuencias
f1 =154 . 10.23 = 1575.45 Mhz
f2 = 120 . 10.23 =1227.60 Mhz
Las longitudes de ondas de estas portadoras serán respectivamente 19.05 cm. y 24.45
cm. Sobre las portadoras se sobreponen distintas modulaciones, por lo que las señales
integran un conjunto de componentes pudiéndose expresar por las siguientes ecuaciones
(Spilker, 1980).

L1 (t) = ap Pj (t) Dj (t) cos (f 1t) + ac Gj(t) Dj (t) sen (f1t) (v-1)
L2 (t) = bp Pj (t) Dj (t) cos (f2t)

En las expresiones (v-1), la fase cosenoidal de ambas portadoras es modulada por una
secuencia de pulsos conocida como código P y representada en la ecuaciones anteriores
con Pj(t), donde el subíndice j se refiere al satélite j-esimo. El código P genera un
algoritmo que se repite cada 267 días. Observado a lo largo de este período la secuencia

57
no presenta ninguna simetría, razón por la cual se denomina seudoaleatoria. La
frecuencia del código P es de 10,23 Mhz.
La fase senoidal de la portadora L1 es modulada por una secuencia de pulsos llamada
código C/A representada en la segunda ecuación por Gj(t). Este se repite cada un
milisegundo y tiene una frecuencia de 1,023 Mhz.
Los coeficientes ap , ac , bp , representan las amplitudes de los códigos P y C/A.
Además de los dos códigos, ambas fases de la portadora L1 y L2 son moduladas por una
secuencia de baja frecuencia representada en las ecuaciones por Dj (t). Esta contiene un
conjunto de informaciones necesarias para el usuario, conocido con el nombre de
mensaje de navegación.
Una vez que las señales llegan a los receptores GPS, son procesadas con el objetivo de
recuperar sus componentes. Dependiendo del tipo de receptor, estos podrán llegar a
reconstruir las ondas portadoras y extraer los códigos y el mensaje de navegación.
Observable ideal: en primer lugar se plantea idealmente que la portadora emitida por el
satélite y su réplica están perfectamente sincronizadas.
Si en un instante determinado se considera un satélite y un receptor GPS, la señal
emitida por el satélite llegará a la estación alterada por el efecto Doppler, es decir, la
frecuencia recibida en el receptor difiere de la frecuencia emitida en un monto que es
proporcional a la velocidad radial del satélite ρ’:
f (1- ρ’/c) = f – f ρ’/c = f - ρ’/ (V-5)
ρ: distancia geométrica entre el receptor y el satélite. ρ’: derivada de la distancia
geométrica respecto al tiempo.
f : frecuencia emitida por el satélite.
λ : longitud de onda.

Suponiendo que el receptor genera una replica idealmente exacta de la frecuencia f, la


diferencia entre las frecuencias será:
' '
réplica – recibida  f  ( f   ) (V-6)
 
La medición con fase está basada en la determinación del desfasaje entre la portadora
generada en el receptor y la recibida desde el satélite. Correlacionando continuamente
ambas portadoras a partir del momento de conexión (t 0) con el satélite, el receptor podrá
contar la cantidad de ciclos enteros debido a los cambios de distancia satélite-receptor
(n) y medir la fracción de ciclo entre ambas señales (Φ).
Planteada de esta manera, la diferencia entre los ciclos observados (n+ Φ) y la cantidad
total de ciclos será la ambigüedad inicial N que será invariable para toda la sesión, de
esta manera N permanecerá como una incógnita para cada par receptor-satélite. Este
planteo será válido siempre que no se produzca un corte en la señal recibida ya que en
ese caso se perderá la cuenta de ciclos enteros y consecuentemente aparecerá una nueva
ambigüedad.

58
Una interpretación geométrica de la medición con fase se muestra en la siguiente figura
donde Φ1 n2+ Φ2 y n3+ Φ3 son las cantidades medidas por el receptor (observables) en
la época t1 y t2 respectivamente.

S(t2)

S(t3)

S(t1)

N?
N?

N?

)
(t2
)
(t3
+
n2+

f(t1) n3

E1

Por lo dicho anteriormente las dos principales dificultades en la medida de la fase de la


portadora están vinculadas al problema de la ambigüedad. La primera está relacionada
con la dificultad que implica la obtención del numero inicial de ciclos enteros de la
portadora contenidos en la distancia que separa al receptor del satélite (N), y la segunda
aparece cuando la señal del satélite es obstruida lo que ocasiona la perdida de la cuenta
de ciclos enteros durante el rastreo y por lo tanto la aparición de una nueva ambigüedad
inicial.
En este caso, los paquetes de software de procesamiento brindan la posibilidad de
recuperar los ciclos perdidos por medio de algoritmos especialmente diseñados para tal
fin.
Si se integra la expresión (V-6) desde el tiempo t 0 (que representa el instante de
conexión) hasta una época genérica, se tendrá una cantidad que será la cuenta n de
ciclos enteros desde t 0, más una fracción de ciclo menos la fracción de ciclo inicial, es
decir: n+Φ – Φ (t0)

Se tendrá entonces:

 (réplica  recibida)dt  n    (t )


t0
0

luego
'   t0 )
t  dt    n    (t0 )
0

y
 (t0 )
  n    (t0 ) (V-7)
 

Teniendo en cuenta que

(t0 )
 N  (t0 )

59
Resulta

 N n

Efectuando el reemplazo

  n

Se obtiene la ecuación

 N  (V-8)

Donde:
N: es la ambigüedad correspondiente a un satélite observado desde una estación a
partir de una época.
Φ: el observable de fase

La distancia ρ se puede expresar como:

  ( x j  xi )2  ( y j  yi )2  ( z j  zi ) 2

Donde las coordenadas del satélite j-esimo (xj , yj, zj) son valores datos que los provee
el sistema a través del mensaje de navegación.
Luego, la ecuación (V-8) contendrá para una época, un receptor y un satélite, cuatro (4)
incógnitas: las coordenadas del receptor i-esimo (xi , yi, zi) y la ambigüedad inicial
correspondiente al satélite mencionado N.
Resulta fácil deducir que en el caso de fase, a diferencia de lo que ocurre con código, si
se observa simultáneamente otro satélite se agregará una ecuación pero también se
adicionará otra incógnita: la ambigüedad correspondiente a ese satélite.
Por lo tanto para conformar un sistema donde el número de ecuaciones sea mayor o
igual al número de incógnitas, se tendrán que realizar observaciones que contemplen
más de una época. En general será valido que siendo
nj: número de satélites
nt: número de épocas

El sistema quedará conformado por


nj . nt ecuaciones
3 + nj incógnitas
Para que el sistema de ecuaciones tenga solución será condición necesaria que
nj . nt ≥ 3 + nj
Para una sola época (nt =1) la solución sería posible solo si la ambigüedad inicial es
conocida. En ese caso el modelo de fase seria equivalente al de código y se obtendría
solución para nj ≥ 4. Esta característica es utilizada en levantamientos dinámicos donde

60
la ambigüedad inicial es provista por procedimientos de inicialización y esta
ambigüedad se mantiene para toda la sesión mientras el receptor ocupa diferentes
puntos.
Observable real
Como en toda medición de una magnitud física la medida de la distancia satélite-
receptor es influenciada por errores accidentales y sistemáticos que dependen de la
precisión con que se correlacionan las portadoras del satélite y el receptor (ruido), de
cierta imprecisión en las coordenadas de los satélites, de la desincronización de los
relojes del satélite y del receptor respecto del tiempo GPS, de los efectos de la
refracción en las capas atmosféricas que las señales de los satélites atraviesan, etc. Por
lo tanto a la ecuación ideal deberán adicionarse los términos que representen los errores.
Error de correlación o ruido: es el error de carácter accidental originado en el receptor al
producir la correlación o alineación de fases, más precisamente se puede decir que dicho
error dependerá de la precisión con que el receptor es capaz de determinar Φ. Teniendo
en cuenta que el error mencionado es del 1% de la longitud de onda y que la longitud de
las ondas de las portadoras son del orden de los 20 cm. tendremos que la potencialidad
de precisión del método es muy alta ya que en principio se puede hablar de precisiones
milimétricas.
Error en los relojes: el reloj del receptor y en menor medida el del satélite tienen una
diferencia respecto del tiempo GPS que se denominan respectivamente δ i y δj.

La cantidad Δδ = δj – δi influenciará la medida de la distancia en la cantidad c . Δδ, que


dividida por λ se adicionará a la ecuación de observación:
 c
 N     (V-9)
 
Refracción atmosférica: teniendo en cuenta que la señal no se propaga íntegramente en
el vacío, sino que parte de su recorrido lo realiza a través de la atmósfera terrestre, se
producirán alteraciones en el tiempo de recorrido de la onda que se representa con ΔA y
que incluye el efecto conjunto de la refracción ionosférica y troposférica. Agregando el
término correspondiente:
 c c
 N       (V-10)
  

c
Como f  Resulta:


 N    f   f  (V-11)

La ecuación de observación anterior incluye los términos correspondientes a los efectos
producidos por los errores en los relojes (satélite y receptor) y las alteraciones que se
producen en los tiempos de recorrido de la señal al atravesar la atmósfera. Aunque en la
ecuación (v-11) no se explicitan los errores orbitales, debe tenerse en cuenta que están
implícitos en ρ.

61
Posicionando puntos con fases de la portadora:
Adecuando la ecuación de observación (v-11) para el caso del satélite j-esimo, el
receptor i-esimo y el instante t se obtiene:
1
i , j (t )  N i , j   i , j (t )  f j i , j (t )  f j i , j (t ) (V-12)

Algunos de los errores sistemáticos pueden ser modelados y eliminados introduciendo


los términos correctivos correspondientes en la ecuación de observación, otros pueden
también ser eliminados mediante una adecuada combinación de las ecuaciones de
observación.
Como se verá diferenciando entre receptores se eliminan lo errores específicos de los
satélites y diferenciando entre satélites se eliminan los errores propios de los receptores.
Así es que si se utilizan las ecuaciones de dobles diferencias de fases se obtendrán
soluciones, que con alta aproximación, están libres de errores sistemáticos originados en
los satélites y en los receptores.
Con respecto a la refracción atmosférica, esto es solo cierto para bases cortas donde las
mediciones de distancias en ambos extremos son afectadas igualmente. Cuando se
trabaja con receptores de doble frecuencia, el efecto de la refracción atmosférica puede
ser eliminado por una adecuada combinación de las observaciones obtenidas con cada
una de ellas.
Posicionamiento relativo estático
El posicionamiento relativo estático consiste en determinar las coordenadas de un punto
incógnita utilizando para ello las coordenadas de otro punto denominado base. Para ello
se deben realizar observaciones simultáneas a los mismos satélites desde ambos puntos
durante un periodo de tiempo.
Suponiendo que el punto A es el punto base y el B es el punto incógnita, el resultado
que se desea obtener en posicionamiento relativo son las componentes del vector entre
ambos puntos, es decir:

 xB  xA   x AB 
    
AB  y B  y A  y AB
   
 z B  z A   z AB 

Finalmente las coordenadas de B se obtienen con:

 xB   x A   x AB 
 y    y    y  (V-16)
 B   A   AB 
 z B   z A   z AB 

62
Diferencias de fase
Asumiendo entonces que se realizan observaciones simultáneas en dos puntos A y B a
dos satélites j y k, se pueden formar nuevas ecuaciones como combinación lineal de las
anteriores. A estás se las denomina simples diferencias, dobles diferencias y triples
diferencias de fase.
Los errores sistemáticos incluidos en la ecuación de observación original presentan una
fuerte correlación con las señales recibidas simultáneamente por diferentes receptores
desde distintos satélites. La utilización de las ecuaciones de diferencias de fases
mencionadas anteriormente utilizan estas correlaciones con el fin de lograr un aumento
en las precisiones, posibilitando en algunos casos la eliminación y en otros la reducción
de dichos efectos.
Simples diferencias
Se consideran dos receptores RA y RB ubicados respectivamente en los puntos A y B los
que en la época t reciben la señal proveniente de un satélite j

Aplicando la ecuación correspondiente para el punto A será:


1
 A, j (t )  f j  j  A, j (t )  N A, j  f j  A (t )  f j AA, j (t )

La ecuación para el punto B:
1
 B , j (t )  f j  j  B , j (t )  N B , j  f j  B (t )  f j AB , j (t )

Restando miembro a miembro ambas ecuaciones se obtiene:
1
 B , j (t )   A, j (t )  B , j (t )  A, j (t )    N B , j  N A, j   f j   B (t )   A (t )   f j  AB , j (t )  AA, j (t ) 


En forma simplificada la expresión final de la ecuación correspondiente a las simples


diferencias se escribe:
1
 AB , j (t )  AB , j (t )  N AB , j  f j  AB (t )  f j AAB , j (t ) (V-17)

63
Donde:
 AB , j (t )   B , j (t )   A, j (t )
AB , j (t )  B , j (t )  A , j (t )
N AB , j  N B , j  N A, j
 AB (t )   B (t )   A (t )
AAB , j (t )  AAB , j (t )   AB , j (t )

Comparando la ecuación de simple diferencias (V-17) con la ecuación (v-14), se


observa que se han cancelado los efectos de los errores asociados al reloj del satélite, ya
que los dos receptores rastrean al mismo satélite en el mismo instante. No obstante
todavía subsisten un gran número de incógnitas.
Las simples diferencias de fase también posibilitan una importante reducción de los
errores orbitales y por refracción atmosférica (tropósferica y ionósferica). En casos en
que la distancia entre los receptores es pequeña en comparación con los 20000 Km de
altura de los satélites, los efectos causados por los errores mencionados serán muy
próximos y por lo tanto el término AABj (t ) será muy pequeño. El valor del término será
función de la separación entre receptores.
Para aplicaciones estáticas precisas, la desventaja de utilizar simples diferencias es que
el término correspondiente al reloj del receptor todavía esta presente y
consecuentemente el número de incógnitas es muy grande.
Dobles diferencias
Aplicamos la ecuación de simples diferencias (v-17) para la época t correspondiente a
dos receptores colocados en los puntos A y B, y a dos satélites j y k.

La ecuación de simple diferencias para el satélite j será:


1
 AB , j (t )  AB , j (t )  N AB , j  f j  AB (t )  f j AAB , j (t )

64
La ecuación de simple diferencias para el satélite k será:
1
 AB , K (t )  AB , K (t )  N AB , K  f j  AB (t )  f j AAB , K (t )

La diferencia de ambas ecuaciones utilizando además la notación abreviada
proporcionara la ecuación correspondiente de dobles diferencias.
1
 AB , jk (t )  AB , jk (t )  N AB , jk  f j AAB , j (t ) (V-18)

Donde:
 AB , jk (t )   B , jk (t )   A , jk (t )
AB , jk (t )  B , jk (t )  A , jk (t )
N AB , jk  N B , jk  N A, jk
 AB (t )   B (t )   A (t )
AAB , j (t )  AAB , j (t )   AB , k (t )

En este modelo se observa claramente que se han removido los errores provenientes de
los relojes de los receptores.
Teniendo en cuenta que las dobles diferencias se construyen a partir de simples
diferencias de fase, debe considerarse que ya se han eliminado los errores en los relojes
de los satélites y reducidos los efectos causados por la refracción atmosférica y los
errores de los parámetros orbitales, pudiendo considerarse que para bases pequeñas (por
ejemplo: < 25 km), los errores mencionados son virtualmente eliminados.
El número de incógnitas en el procesamiento de dobles diferencias son:

3 coordenadas
nj ambigüedades

Triples diferencias
Hasta ahora solo se ha considerado una época t. para eliminar la ambigüedad, que es
independiente del tiempo, Remondi (1984) propuso diferenciar las dobles diferencias
entre dos épocas t1 y t2 .

65
La ecuación de dobles diferencias (v-18) para la época t1 será:

1
 AB , jk (t1 )  AB , jk (t1 )  N AB , jk  f j AAB , jk (t1 )

La que corresponde a la época t 2 será:
1
 AB , jk (t2 )  AB , jk (t 2 )  N AB , jk  f j AAB , jk (t 2 )

Haciendo la diferencia de ambas ecuaciones se obtendrá la ecuación de triple
diferencias.
1
 AB , jk (t1t2 )  AB , jk (t1t 2 )  f j AAB , jk (t1t2 ) (V-19)

Donde:

 AB , jk (t1t2 )   AB , jk (t2 )   AB , jk (t1 )


AB , jk (t1t2 )  AB , jk (t2 )  AB , jk (t1 )
AAB , jk (t1t2 )  AAB , jk (t2 )   AB , jk (t1 )

Se puede observar que en el modelo de triples diferencias se eliminan las incógnitas de


ambigüedad y también está exento de los errores previamente suprimidos en las simples
y dobles diferencias. La única información que queda en este modelo es la relativa a las
posiciones de los satélites y de los receptores, por lo que el sistema de ecuaciones tendrá
solo 3 incógnitas.
Generalmente este procesamiento es menos preciso que el de dobles diferencias
(incrementa el ruido de la medición).
Después de haber desarrollado los modelos matemáticos de los algoritmos de fases
simples, simples diferencias, dobles diferencias y triples diferencias, se puede decir que
las sucesivas diferencias contribuyen de dos maneras a la solución: reduciendo el
número de incógnitas de la ecuación de observación original y eliminando o
minimizando los efectos de los errores sistemáticos. Como contrapartida produce una
disminución en la precisión de las soluciones.
En las simples diferencias de fase hay que abordar el problema de invertir una matriz de
gran tamaño originada por las numerosas incógnitas de tiempo (una por época). En
general se utiliza este método para obtener coordenadas siempre y cuando se cuenten
con buenos valores a priori de las correcciones del reloj del receptor y del satélite, y
pueda aprovecharse la naturaleza entera de N.
En cuanto a los algoritmos de las ecuaciones de dobles y triples diferencias son más
simples que los correspondientes a simples diferencias ya que disminuyen
drásticamente la cantidad de incógnitas. Por otro lado tienen el inconveniente que
aumentan las correlaciones de las observaciones.
En particular las triples diferencias proveen una solución rápida de las coordenadas,
pero con fuertes problemas de correlación lo que hace disminuir la precisión de los
resultados. En general esta solución es utilizada como dato de entrada en los otros
métodos.

66
Resolución de las ambigüedades
En resumen, se puede decir que cuando se utiliza el observable de fase la precisión que
se pueda lograr es mucho mejor que lo que se logra con el uso de los códigos, pero
aparece el problema de las ambigüedades cuya resolución requerirá de tiempos de
observación mucho más prolongados y de procedimientos de medición y de cálculo
considerablemente más complejos.
Es importante en este punto tener en cuenta que la ambigüedad inicial inherente a la
medición con fase es un número entero y depende del par receptor-satélite. No habrá
dependencia del tiempo siempre que no haya pérdida de señal durante la sesión.
Dependiendo del tipo de ecuación de observación utilizada, en primer término, las
incógnitas (coordenadas, parámetros de los relojes, errores orbitales, etc.) son estimadas
junto con las ambigüedades en un ajuste común. En esta aproximación los errores no
considerados o defectuosamente modelados afectan a todas las incógnitas calculadas.
Por eso es que en la primera aproximación las ambigüedades resultantes no serán
enteros sino que resultaran números reales, por lo tanto las coordenadas obtenidas
constituyen lo que se denomina solución flotante.
A modo de ejemplo mencionamos un conjunto de pasos sucesivos necesarios para
resolver las ambigüedades:
1) Si a priori se determinan los valores aproximados de las coordenadas del
punto (triples diferencias, código P, etc.), se podrá definir una esfera alrededor
del mismo cuyo radio se trata de determinar de tal manera de garantizar que
todas las soluciones posibles caigan dentro de ella.
2) Para lograr soluciones basadas en ambigüedades enteras será necesario
realizar ajustes secuenciales tendientes a lograr estimaciones cada vez más
cercanas a números enteros.
3) Así todos los grupos de ambigüedades enteras que proporcionen soluciones
que caen dentro de la esfera serán válidos. Se obtendrá entonces un conjunto
de soluciones posibles denominadas soluciones candidatas entre las cuales se
elige la mejor.

Posicionamiento relativo dinámico


Las técnicas de posicionamiento estáticas se utilizan frecuentemente debido a que
permiten alcanzar las máximas precisiones.
En los últimos años han adquirido gran importancia los denominados métodos de
medición cinemáticos o dinámicos en los cuales mientras el receptor base se mantiene
fijo, el receptor remoto se desplaza rápidamente de un punto a otro. Esta modalidad de
posicionamiento se caracteriza por una productividad muy superior a la de los métodos
estáticos permitiendo lograr además precisiones aceptables para una gran cantidad de
aplicaciones.
En estos casos la resolución de ambigüedades requiere de un tratamiento especial.

Método cinemático puro


Este método tiene como objetivo el relevamiento de una línea en forma continua, como
por ejemplo el perímetro de una isla, la traza de una ruta, incluyendo numerosas
aplicaciones aéreas y marítimas.

67
Para que este método resulte exitoso se tienen que cumplir dos condiciones
a) Se debe realizar un proceso de inicialización, es decir, calcular las ambigüedades
iniciales antes de comenzar el movimiento. Esto se puede lograr, por ejemplo,
mediante una determinación estática ordinaria.
b) Sin apagar el receptor, se efectúa el recorrido correspondiente, debiéndose
mantener las señales provenientes de al menos cuatro satélites sin pérdida de
ciclos. Esto permitirá utilizar las ambigüedades iniciales previamente obtenidas,
en el cálculo de los puntos sucesivos.

Si durante el recorrido una o más veces, por algún tipo de obstrucción, se pierde la
comunicación será necesario realizar nuevamente una inicialización.
Método Stop & Go
El objetivo de este método es la determinación de coordenadas de puntos discretos con
gran rapidez.
El mismo consiste en estacionar un receptor en la base mientras que el otro se va
trasladando de punto en punto con la particularidad de que se detiene en cada uno
durante un tiempo muy breve (segundos o a lo sumo algunos minutos).
En este método también se debe mantener la recepción continua de la señal, luego de
determinar las ambigüedades iniciales.
En caso que la recepción se interrumpa se pueden recuperar las ambigüedades
retornando al punto anteriormente ocupado, evitando así la reinicialización.
Se recuerda que cuando se utilizan las dobles diferencias de fase las incógnitas
presentes son las ambigüedades iniciales y las coordenadas del receptor remoto, por lo
tanto si previamente se resuelven las ambigüedades el cálculo de las coordenadas será
inmediato (similar al caso código).
Método OTF
La aplicabilidad de los métodos cinemático puro y Stop & Go está limitada por la
existencia de obstáculos como túneles, densa arboleda, puentes, etc., ya que producen
cortes en las señales recibidas y por lo tanto se pierden las ambigüedades iniciales,
siendo necesario en estos casos volver a determinarlas.
Dentro de los métodos dinámicos el más potente en la actualidad, es sin duda, el
denominado OTF (on the fly) que permite la resolución de ambigüedades en
movimiento.
Este método ha surgido como consecuencia del gran a avance que en los últimos
tiempos han experimentado las técnicas de procesamiento dinámico. Esta técnica,
originalmente fue aplicada exclusivamente a cálculos de alta precisión a partir de datos
obtenidos de receptores de doble frecuencia y código P.
La principal diferencia con los métodos de procesamiento tradicional estriba en que el
método OTF utiliza el denominado filtro Kalman. El filtro Kalman permite estimar
posiciones con precisión creciente, mientras el receptor está en movimiento, hasta que la
precisión lograda es tal que permite calcular las ambigüedades y de esa manera poder
computar las coordenadas definitivas. El tiempo necesario para lograr determinar las
ambigüedades se denomina tiempo de refinamiento o de convergencia.
Cuando el procesamiento se realiza con datos provenientes de receptores L1/L2/P, se
obtiene los mayores rendimientos, ya que ante eventuales perdidas de ciclos es posible

68
recuperar las ambigüedades rápidamente. Por ejemplo, para una base corta es posible
fijarlas en menos de dos minutos.
El método OTF también es aplicable a datos provenientes de receptores L1. El
inconveniente que tiene es que los tiempos de refinamiento deberán ser mayores. En
estos casos se logra determinar ambigüedades, por ejemplo, en un tiempo 10 veces
mayor que con L1/L2/P. Esto se debe fundamental mente a que el disponer solamente
de L1 no es posible realizar combinaciones lineales tales como Wide Lane (se verá más
adelanté). Además el nivel de ruido es mayor ya que tampoco puede suprimirse
totalmente el efecto ionosférico.

Combinaciones lineales de fase


Si los receptores utilizados para realizar las observaciones permiten disponer de las
portadoras L1 y L2 la situación cambia significativamente ya que es posible construir
combinaciones lineales de los dos observables.
Genéricamente una combinación lineal se puede expresar como:
Φ = n1 Φ1 + n2 Φ2 (V-20)
Donde n1 y n2 son números arbitrarios. Teniendo en cuenta que

Φi = f i t
Reemplazando en (V-20) se tiene:
Φ = n1 f1 t + n2 f2 t = f t
De donde resulta que
c
f = n1 f1 + n2 f2 y  (V-21)
f
Son respectivamente la frecuencia y la longitud de onda correspondiente a la
combinación lineal.
Eligiendo adecuadamente los valores de los coeficientes n1 y n2 se pueden lograr nuevas
ecuaciones con portadoras equivalentes de características particulares que permitan la
resolución de problemas específicos.
Por ejemplo adoptando n1=1 y n2 =-1 se obtendrá la combinación denominada wide
Lane (banda ancha) cuya longitud de onda equivalente será:
c
  86.2cm
f1  f 2
Esta combinación lineal denominada LL1-L2, al disponer de una longitud de onda mayor,
se utiliza para lograr una disminución de las soluciones candidatas posibilitando así
determinaciones de ambigüedades más eficientes ya que requieren períodos de
observación sustancialmente más cortos.
Como contrapartida es posible demostrar que esta combinación lineal producirá un
ruido de observación y un efecto ionosférico mayor, por lo tanto deberá tenerse en
cuenta que la precisión obtenida con LL1-L2, será menor que la que se obtendría con L1,
no siendo conveniente utilizarla en vectores largos debido fundamentalmente al efecto
de la ionósfera.

69
Luego de la solución obtenida con wide Lane generalmente se intenta calcular las
ambigüedades sobre otra combinación lineal denominada narrow Lane o LL1+L2 (banda
angosta) que se obtiene con n1= n2=1 lo que proporcionan una longitud de onda
c
  10.7cm
f1  f 2
La solución que se logra con esta combinación lineal tienen un bajo nivel de ruido pero
el efecto ionosférico tiene las misma magnitud que en la anterior, lo que también limita
su utilización a vectores cortos.
Precisiones
 Posicionamiento estático
Según se ha señalado, al utilizar como observable la fase de la portadora, un ciclo o fase
completa equivale a una longitud de onda, que en GPS es de 19.05 cm (L1) o de 24.45
cm (L2). La tecnología disponible cuando mide el observable de fase, está en
condiciones de apreciar la centésima parte de la fase completa, esto significa que si se
dispusieran de métodos de observación y cálculo adecuados para eliminar todas las otras
fuentes de error que influyen en la medición se podría llegar a determinar la distancia
satélite-receptor con una precisión del orden de los 2 mm.
Lo planteado en el párrafo anterior responde a una situación ideal, ya que es imposible
eliminar totalmente la influencia de todas las causas de error sistemáticos. No obstante,
si de alguna manera queremos tipificar la precisión propia de GPS con fases de la
portadora podríamos utilizar la expresión:

σ = ± (5mm + 10-6 D) (V-22)


Donde D es la distancia entre receptores.
La expresión (V-22) es válida para el método estático, con una sola frecuencia y dentro
de un radio de 30 km, con efecto multipath mínimo y siempre que la medición se realice
con un buen PDOP.
En la medida que varían los métodos, tipos de receptor y distancias, varían también las
precisiones obtenidas.

 Posicionamiento Dinámico
En la búsqueda por mejorar el rendimiento de los trabajos realizado con GPS
manteniendo el orden de las precisiones que posibilita la medición con fase, se han
desarrollado métodos dinámicos de medición, dentro de los cuales existen las siguientes
variantes ya descriptas:
 Método cinemático puro
 Método Stop & Go
 Método OTF

70
Las precisiones obtenibles con los métodos dinámicos en función del tipo de receptor,
para distancias cortas, PDOP < 4, 6 Satélites visibles y efecto multipath mínimo puede
estimarse en:
Método Receptor Precisión Observaciones
Cinemático puro L1 < 4cm Limitaciones operativas
importantes
Stop & Go L1 < 4cm Limitaciones operativas
intermedias
OTF L1 < 10cm Productividad máxima
OTF L1/L2/P < 4cm Productividad máxima

Mejoramiento de la precisión en vectores largos

Cuando se determinan coordenadas mediante posicionamiento relativo, en la medida


que aumenta la distancia entre el receptor base y el remoto deja de ser válida la
suposición de que ambas señales sufren similar alteración por atravesar el mismo sector
de la atmósfera (en particular de la ionosfera). Esta consideración también es válida para
los errores orbitales.
Efecto ionosférico

Se cuenta con un modelo de ionosfera provisto por el sistema, que elimina en parte la
influencia del retardo atmosférico en la determinación de coordenadas.
Actualmente, a partir de datos provenientes de estaciones permanentes GPS es posible
calcular correcciones ionosféricas regionales y ponerlas a disposición de los usuarios
para aplicarlas a las observaciones. Este tipo de correcciones tiene gran importancia
cuando se utilizan receptores L1 ya que de esta manera permiten ampliar el rango de
medición.
En el caso de disponer de receptores de doble frecuencia (L1 y L2) es posible,
utilizando la combinación lineal de fases adecuada eliminar el efecto ionosférico que
permite extender la longitud del vector a centenares de kilómetros.

Efectos orbitales

En vez de utilizar las efemérides transmitidas (posiciones de los satélites) contenidas en


el mensaje de navegación enviado por cada satélite (las cuales son el resultado de una
extrapolación) se pueden utilizar las denominadas efemérides precisas, obtenidas por el
sistema mediante el rastreo de la posición efectiva de los satélites, las cuales están
disponibles en Internet. El usuario puede acceder a las mismas e introducirlas en el
cálculo, disminuyendo así la incidencia en el resultado final de los errores atribuible a
los satélites.

Coordenadas en tiempo diferido o real

El posicionamiento relativo en tiempo diferido consiste, como ya se sabe, en efectuar


los cálculos de coordenadas a posteriori de las observaciones, para lo cual es necesario
previamente transferir los archivos de observación a una computadora.
Aunque la obtención de coordenadas en tiempo real es un concepto ya desarrollado en
el caso de observaciones de código C/A, cabe señalar que las características propias del
posicionamiento con fase requiere de un procesamiento sustancialmente más complejo
que el anterior.

71
En este caso el equipo ubicado en la base debe transmitir al remoto los archivos de
observaciones y el equipo remoto deberá poseer la capacidad de procesar sus propias
observaciones con la información recibida determinando así la posición relativa entre
ambos.
Es conocido que la posibilidad de obtener las posiciones precisas en el momento de la
observación resulta ventajosa en tareas de relevamiento, pero es esencial cuando se trata
de replanteos.
En el caso de observaciones de fase podrán efectuarse replanteos con precisión
centimétrica. La principal limitante de esta metodología de medición constituye el
alcance de la necesaria conexión radial entre la base y remoto, acotando la longitud del
vector, al menos por ahora, a un radio del orden de 10 km.
Es habitual denominar con RTK (Real Time Kinematics) a los sistemas de tiempo real
que utilizan observaciones de fase.

***

Georreferenciación

Conceptos básicos

La Georreferenciación se basa en la identificación de todo los puntos del espacio


mediante coordenadas referidas a un único sistema mundial.

La Georreferenciación resuelve dos grandes cuestiones simultáneamente:

1) permite conocer la forma, dimensión y ubicación de cualquier parte de la


superficie terrestre o de cualquier objeto sobre ella
2) permite vincular información espacial proveniente de distintas fuentes y épocas,
condición necesaria para el desarrollo de los sistemas de información
territoriales o geográficos

La idea de vincular los puntos de la superficie terrestre a un único sistema de referencia


no es nueva. La novedad es que a partir de las tecnologías actuales (GNSS) es posible
utilizar un sistema de referencia único, mundial y obtener una relación costo-beneficio
favorable.

Para que la Georreferenciación pueda expandirse ampliamente, dando lugar a toda su


potencialidad, es necesario contar con un sistema de apoyo adecuado, el que puede estar
integrado por distintos tipos de componentes:

 puntos con coordenadas, de acceso público, ubicados a no más de 40 km entre si


y que cuenten con referencia acimutal
 estaciones permanentes, que permitan corregir las observaciones efectuadas por
el usuario, ya sea en tiempo real o diferido
 transmisión de efemérides precisas
 sistemas de comunicación satelital para transmisión de correcciones

72
La implementación de la georreferenciación requiere ciertas normativas. No se debe
olvidar que se pretende correlacionar información procedente de distintas fuentes, lo
que requiere criterios compatibles y el uso de un lenguaje común.

Criterios en georreferenciación con GNSS

1) La primera cuestión es establecer la precisión que se necesita en las coordenadas


2) A partir de ello, se debe elegir el instrumental y el método de medición, tales
que, respetando la precisión exigida, reduzcan el trabajo sólo a lo necesario
3) Partir de un punto que reúna las siguientes condiciones:

a. coordenadas confiables, garantizadas por entidad responsable


b. precisión adecuada
c. ubicado a distancia compatible con el instrumental y el método a utilizar
d. si se parte de un punto cuyas coordenadas están expresadas en un antiguo
sistema de referencia, es decir, distinto al actual y oficialmente establecido,
debe tenerse en cuenta que al efectuar la transformación de esas coordenadas
al marco de referencia actual se utilizan parámetros de transformación, los
cuales contienen errores que inevitablemente influyen en las coordenadas
obtenidas
e. debe recordarse que cualquier error en el punto de partida se traslada a todo
el levantamiento

4) Siempre debe existir algún método de control.


5) Si se requiere georreferenciar un levantamiento a dos puntos de coordenadas
conocidas:

a) los datos existentes están expresados en dos dimensiones, es decir, en un


plano; en tal caso es suficiente relevar dos puntos, resolviendo gráficamente
con un punto la ubicación y con otro la orientación, o bien calculando
matemáticamente parámetros de transformación; sin embargo es conveniente
relevar más puntos para poder contar con control y mejorar la calidad de los
parámetros de transformación
b) los datos existentes son tridimensionales, en tal caso es necesario relevar al
menos tres puntos para calcular parámetros de transformación, aunque sigue
siendo válida la idea de mejorar el cálculo relacionando mayor cantidad de
puntos

6) Es posible combinar la medición con GNSS y el uso de medios terrestres de


levantamiento. Será necesario resolver la manera de efectuar las
transformaciones de coordenadas de un sistema local al sistema general y/o
viceversa.
7) Siempre debe especificarse el marco de referencia al cual corresponden las
coordenadas. Valores de coordenadas sin marco de referencia conocido pueden
ser fuente de importantes errores.

73
CAPÍTULO IV

74
La Agricultura de precisión

"Para los hombres de coraje se han hecho las empresas."

José de San Martín (25/02/1778 - 17/08/1850)

75
Cuestionario

1 - ¿A qué se le llama Agricultura de Precisión (AP)?


2 - ¿Porqué hace 20 años no se podía hacer AP y ahora sí?
3 - ¿Cuáles son las tareas agrícolas vinculadas a la AP?
4 - ¿Cuál es la precisión necesaria en cada una de ellas y como se obtiene esa precisión?

***

1 - ¿A qué se le llama AP?

1- En la actualidad, las técnicas o actividades que se conocen como Agricultura de


Precisión toman diferentes definiciones y conceptos, por ello es lógico que
existan varias concepciones relacionadas al tema. Es indispensable para nosotros
citar algunos autores y profesionales involucrados en el tema, para luego poder
desarrollar un concepto desde el punto de vista de la Agrimensura que pueda
ayudar al entendimiento y alcance de esta nueva actividad agrícola.

Conceptos:

 “Es la acción de manejar una chacra a una escala espacial menor a la superficie
de la misma”.

Dr. Richard Plant (2002).

 ……….”sin embargo, la "Agricultura de precisión", o "Agricultura por micro


parcelas", como sería una designación mas lógica, aunque menos atractiva desde
el punto de vista publicitario, es algo mucho más sencillo, a la vez que bastante
más complicado de poner en práctica hasta sacarle el máximo provecho: dar a
cada zona del campo cultivado el tratamiento agronómico más apropiado, tanto
desde el punto de vista económico-productivo como del ambiental”.
¿Utopía o realidad?- Por: Miguel del Campo Serrano (España).

 “Es el uso de la tecnología de la información para adecuar el manejo de suelos y


cultivos a la variabilidad presente dentro de un lote. La agricultura de precisión
involucra el uso de sistemas de posicionamiento global y de otros medios
electrónicos para obtener datos del cultivo. La información obtenida puede
usarse para implementar planes de manejo de la variabilidad. Junto a la
biotecnología, la agricultura de precisión es uno de los cambios tecnológicos
más importantes que ha vivido la agricultura en los últimos años”.

La Agricultura de Precision en la cosecha –Por: Ing. Agr. Rodolfo Bongiovanni,


Ph.D. (Trabajo preparado para la Revista IDIA del INTA, Diciembre 2003).

76
 “Es la utilización de modernas herramientas capaces de facilitar la obtención y
análisis de datos georreferenciados, mejorando el diagnóstico, la toma de
decisiones y la eficiencia en el uso de insumos. Mayor producción con
sostenibilidad del ambiente productivo”.

Autores: Ing. Agr. Mario Bragachini, Ing. Agr. Axel von Martín, Ing. Agr. Andrés Méndez-(Proyecto
Agricultura de Precisión INTA Manfredi).

 …… “se posicionaría satelitalmente el campo con GPS para establecer la


localización espacial de las dosis de los insumos a aplicarse. La aplicación de los
fertilizantes y agroquímicos se regirían por las dosis variables georreferenciadas,
lo que significa que en suelos más deficientes en un mismo sector
automáticamente se aplicaría más dosis, es una forma actualizada para establecer
rendimientos promedios estables, permitiendo corregir el pH y la lixiviación de
elementos por no tener una textura homogénea el campo sembrado.
Próximamente se establecerán satélites específicos para contrarrestar éstas
deficiencias. La fumigación la realizarán los aviones computarizados, que
satelitalmente le indicarán al sistema digitalizado la aplicación de las dosis
correctas de acuerdo a la incidencia de las plagas y enfermedades que controlen;
con lo cual lo podrán hacer durante la noche cumpliendo regulaciones
actualizadas. Al término del cultivo entrarán las cosechadoras que mantienen
monitores de rendimiento con GPS incorporado para la confección de mapas y
establecimiento de producción por campo trabajado, estableciendo de esta forma
un control de cosecha y reporte total del cultivo sembrado referenciándolo
inmediatamente a un organismo superior de control”.

(Ministerio de Agricultura y ganadería) Por Ing. Pablo Rizzo Pastor.

 “Conceptualmente la Agricultura de Precisión es una nueva forma integrada de


gerenciamiento de la información de los cultivos, basada en la existencia de la
variabilidad espacial y temporal de la unidad mínima de manejo en la agricultura
tradicional”.

Por Saraiva. Año 2000.


***

Tal vez el título “Agricultura de Precisión” pueda ser abarcativo en su definición.


Puesto que creemos que hacer agricultura en forma precisa fue siempre la inquietud
de todo agricultor, en todos los tiempos.

Simplemente, los avances tecnológicos mejoran la calidad en los resultados de cada


tarea agrícola de una época a otra, haciendo obsoleta las técnicas y herramientas
antiguamente usadas.

Por dar un ejemplo, podemos citar palabras pertenecientes a un libro “tan antiguo”
como la Biblia donde en la parábola del sembrador (Mateo 13 y 8) en la cual se remarca

77
la importancia de la ubicación o sector en donde la semilla debería ser sembrada
manifestando así las consecuencias de la variabilidad espacial en los rendimientos del
cultivo.
Es más, el labrador que ciertamente trabajaba la tierra con su buey, lo hacía caminando
sobre toda su propiedad, obteniendo así la información por apreciación propia acerca de
las cualidades y potencial de sus tierras tomando las decisiones en el momento
partiendo de una base constituida por su valoración o cálculo respecto de la producción
espaciada sobre su terreno. En aquella época, esto fue hacer Agricultura de Precisión.

La limitante que presentaba esta manera de trabajo fueron las reducidas extensiones de
aplicación de aquellas herramientas (hoy en día consideradas rudimentarias) y el alto
costo del esfuerzo humano que conllevaba el manejo de las mismas.

Con la llegada de la mecanización dentro de la tecnología agrícola, se posibilitó al


agricultor abarcar grandes extensiones, minimizando tiempo y trabajo humano, las
desventajas de estas nuevas tecnologías es que no era rentable aplicarlas o usarlas en
pequeños predios por lo que se comenzó a trabajar en valores promedios por lotes,
obviando la variabilidad presente en cada uno de ellos.

¿Fueron estas tecnologías más precisas que las anteriores citadas?

¿Puede la minimización de costos y mayor rentabilidad, hacer de la agricultura una


actividad más precisa?

Nosotros creemos que la agricultura antigua permitía al productor conocer de modo


directo las diferentes características que presentaba su suelo, por esto era más precisa,
pero debido a las extensiones era más limitada respecto a su producción y
correspondiente rentabilidad económica.
En cambio, con la mecanización se logra una mayor superficie de trabajo, economía en
esfuerzo humano y tiempo, logrando así una importante rentabilidad económica
comparada con la época premecanizada, pero como vimos se pierde en precisión en
cuanto al tratamiento dado a las tierras.

Una vez aclarado esto podemos ir dando una primera definición o un primer punto de
vista en cuanto al concepto de Agricultura de Precisión (AP).

Lo que hoy en día se conoce como AP es una actividad que tiene como principales
objetivos conocer con una determinada precisión la variabilidad del suelo sin
disminuir la superficie de trabajo, vinculando unívocamente las variables que
intervienen en la parcela, logrando la sustentabilidad productiva del suelo,
regulando el impacto ambiental promoviendo la conservación del recurso suelo y
por último obteniendo un aumento en la rentabilidad económica del productor.

Citando a Emilio Gil “la AP es efectuar la intervención correcta, en el momento


adecuado, y en el lugar preciso”.

Esta definición, que en si misma no aporta nada nuevo, engloba todos aquellas
parámetros relacionados con la agricultura de precisión. Efectuar la intervención
significa aportar la dosis de nitrógeno adecuada, depositar la cantidad de semilla
necesaria o distribuir la cantidad de fitosanitario requerida, el momento adecuado está

78
relacionado con la mayor o menor automatización de la acción, es decir, el poder
modificar las cantidades de producto anteriormente relacionadas en el instante que ello
sea necesario, y no únicamente al inicio de la labor, y si todo ello se realiza en el lugar
preciso, teniendo en cuenta no solo la variabilidad entre parcelas, sino también la
variabilidad intraparcelaria, de más difícil gestión, estamos consiguiendo los objetivos
que implícitamente aparecen en la definición.

Queremos recalcar nuevamente que hacer AP va más allá de contar con una
tecnología moderna; sino la de usar está como una herramienta más para que con
su aporte podamos vincular su aplicación con las demás tareas propias de la
actividad agronómica.

En la actualidad esas herramientas que permiten diferenciar y registrar los distintos


ambientes, son los Sistema Satelitales de Navegación Global, que otorgan coordenadas
mundiales para cada punto sobre la superficie de la tierra, permitiendo de esta manera
vincular todos los datos que surjan del predio y administrar la relación de éstos.

Definición y valor intrínseco de la AP

“La AP que algunos autores definen como agricultura satelital, otros como la agricultura
del futuro, otros como la agricultura de máquinas precisas, otros más abarcativamente
como la agricultura por ambientes o el manejo sitio específicos de los insumos y
factores que manejan la productividad y calidad de los cultivos. Otros indican que es la
tecnología que permite avanzar en los procesos de trazabilidad de los productos;
algunos técnicos ven a la agricultura de precisión como un gran aporte para la gestión
ambiental, otros ven esta tecnología como apta para el manejo de gestión empresarial y
la gran mayoría ve a la agricultura de precisión como una herramienta para incrementar
las ganancias de su empresa”.

Ing. Agrónomo Mario Bragachini “8º Curso Internacional de Agricultura de Precisión y 3º Expo de
maquinas precisas”

***

2 - ¿Por qué hace 20 años no se podía hacer AP y ahora sí?

Como mencionamos anteriormente, creemos que desde siempre se realiza agricultura de


manera precisa, solo que la precisión está condicionada por la tecnología disponible en
cada momento.
Los G.N.S.S. tuvieron origen a fines de la década del ´70, con un uso militar, siendo
éste reducido o limitado para terceros. A partir de la década del ´90 este sistema se
liberó para uso civil.

Este sistema permite, en breves palabras, ubicar un punto cualquiera de la


superficie terrestre a través de tres coordenadas únicas.

La agricultura, en la actualidad, utiliza esta herramienta para poder superponer o solapar


datos obtenidos en las distintas etapas agronómicas y de esta manera convertirse en
información de sectores con características diferentes.

79
Se relaciona entonces la nueva tecnología de posicionamiento con las modernas
maquinarias agrícolas, convirtiéndolas en un todo que proporciona una nueva forma de
producción.

Toda esta actividad agrícola vinculada a los sistemas de posicionamiento globales


es lo que hoy lleva como título “Agricultura de Precisión” que como mencionamos
anteriormente, dos décadas atrás no se podría haber llevado a cabo, debido a que
la tarea de obtener la enorme cantidad de información en forma espacial hubiese
resultado un trabajo de gran magnitud, encareciendo el tiempo y los costos; es
decir toda la información recolectada habría sido aislada, sin poder ser
relacionada, y en consecuencia las decisiones no podrían haber sido
correlacionadas.

En la actualidad, la importancia de los GNSS no solo recae en poder georreferenciar


altos volúmenes de información, sino también en que existe una marcada tendencia a
aumentar cada día más las precisiones de los datos obtenidos, como así también a
abaratar el costo final en la adquisición de dichos datos. De todas maneras, vale recalcar
nuevamente que, es cierto que se facilita día a día el manejo de los distintos dispositivos
que permiten geoposicionarse en todo momento y en la mayoría de los lugares, siendo
que ya no es necesario ser un perito en la materia para utilizar estas modernas
herramientas; lo que es ilógico, es creer que el uso de estos aparatos nos proporcionan el
verdadero conocimiento y el máximo alcance de su funcionalidad; es decir, saber
realmente cómo y qué medimos, que calidad o precisión realmente tiene dicha
determinación, etc.

Un ejemplo válido sería, creer que saber colocar inyecciones me convierte


automáticamente en un médico.

***

3 - ¿Cuáles son la tareas agrícolas vinculadas a la AP?

"La AP en la Argentina ya pasó la primera etapa de exploración y se encuentra en la


segunda etapa de adopción (el 20% de las cosechadoras argentinas ya pueden mapear el
30% del área cosechada); hoy como en todas las tecnologías existen productores
innovadores que ya desde el año 97/98 utilizan el monitoreo con mapeo de rendimiento
posicionado con GPS. En estos años cosecharon una gran cantidad de información sobre
la variabilidad natural cuantificada con la productividad de los principales cultivos, o
sea, conocen como responde cada ambiente de su campo en soja, maíz, trigo y girasol;
partiendo de esa información ya caracterizaron los ambientes (análisis de suelo según
ambiente), y en algunos casos, hasta manejan los insumos en forma variable, como son
la genética, la densidad, la fertilización nitrogenada, correcciones de PH, correcciones
de fósforos, manejos del azufre y la influencia varietal de algunos cultivos de acuerdo a
la profundidad de la napa freática, o bien, profundidad de tosca, etc.
También esa información georreferenciada constituye un elemento de gestión y control,
cuando los trabajos son realizados por terceros (como los pooles de siembras por
ejemplo)."
Ing. Agrónomo Mario Bragachini “8º Curso Internacional de Agricultura de Precisión y 3º Expo de
maquinas precisas”

80
Estas palabras, citadas por el Ingeniero Bragachini, detallan como la AP va
evolucionando día a día, incorporando gradualmente a ella todas las tareas agrícolas
tradicionales: cosecha, pulverización, fertilización, fumigación, siembra, detección de
plagas, muestreos de suelos, etc.
Es decir, las tareas agrícolas vinculadas a la AP están siendo paulatinamente levantadas,
analizadas y ejecutadas por está, y en un tiempo no muy lejano sería extraño que alguna
tarea agrícola no esté incluida en esta actividad.

***

4 - ¿Cuál es la precisión necesaria en cada una de ellas y como se obtiene dicha


precisión?

Todas las tareas agrícolas requieren una precisión acorde a sus necesidades.

En rigor, la AP posee diversas maneras de obtener y manejar información para una


determinada actividad agrícola; dicha información va a estar determinada según sea el
instrumental usado, la metodología y el fin que persigue representar o ejecutar; por
ejemplo: la cosechadora al levantar el cultivo proporciona datos del rendimiento, que
podríamos tomarlo como un relevamiento del cultivo producido, entonces para dicha
tarea la precisión requerida se basará en torno a las dimensiones de la maquinaria (que
en el ancho y el largo ronda la decena de metros), la topografía del lugar, el mismo
cultivo, etc. Todos estos parámetros nos hacen pensar que una precisión adecuada en el
geoposicionamiento de la cosecha rondaría de 5 a 15 metros, aproximadamente. El por
qué de esta determinación se explicará más adelante.

Otro ejemplo podría ser la etapa de siembra, en este caso si tenemos en cuenta que; si se
dispone de un mapa de prescripción, es decir, un mapa en el cual el lote esta
diferenciado por ambientes y a cada uno de los cuales se les asigna una determinada
cantidad de semilla y fertilizante, considerando que las pasadas contiguas de la
sembradora no deben superponerse o dejar espacios ("chanchos") en el lote, ya que esto
jugaría en contra económicamente debido al mal uso o "replanteo de los insumos". Por
todo esto se puede evidenciar que la precisión buscada será distinta a la anterior,
llegando a precisiones más exigentes, o hablando técnicamente, se requerirán
precisiones centimétricas.

A través de este par de ejemplos se evidencia que debido a la diversidad de


metodologías, instrumentales, teorías y técnicas que utiliza la AP, la calidad del
posicionamiento irá variando según sea su propósito, basándose siempre en la idea de
mejorar cada una de las tareas agrícolas por realizar.

Más adelante, en el capitulo "Etapas de la Agricultura de Precisión" realizaremos un


detallado análisis de cada una de las tareas agrícolas manejadas por esta actividad,
estudiando la metodología utilizada, las precisiones obtenidas y los fundamentos de
estas precisiones logradas. Es aquí donde la agrimensura aparece como una herramienta
necesaria para optimizar el manejo de toda la información georreferenciada.

81
CAPÍTULO V

82
Etapas de la Agricultura de Precisión

“Organizar la agricultura según la mente de la Constitución moderna es organizar su


libertad. La única intervención que, según ese código, pueda ejercer la ley en este ramo
de la industria nacional debe tener por objeto desembarazar de toda traba y obstáculo
al trabajo agrícola, facilitando todos los medios de poner a su alcance los opulentos
recursos y manantiales de riqueza que presenta nuestra tierra digna del nombre
Argentina, que lleva como símbolo expresivo de su riqueza incomparable””

Juan Bautista Alberdi (Sistema económico y rentístico de la confederación Argentina


según su Constitución de 1853)

83
El principio de actuación en el que se fundamenta la agricultura de precisión es
perfectamente adaptable a cualquier otra actividad tras una primera fase de
determinación de las necesidades, o lo que es lo mismo toma de datos y acopio de
información, se pasa a una segunda fase de análisis e interpretación de los datos
obtenidos para, a partir de ellos, establecer un procedimiento de actuación de acuerdo
con las necesidades cambiantes en el tiempo y en el espacio.

Según este esquema general, pueden establecerse dos tipos fundamentales de


organización de la Agricultura de Precisión: el primero de ellos podemos catalogarlo
como un sistema cíclico o cerrado, en el que las diferentes fases tienen lugar en
diferentes períodos de tiempo, mientras que el segundo tipo se puede definir como una
secuencia lineal, abierta y en la que las fases coinciden prácticamente en el tiempo. El
primero de los sistemas se fundamenta en la utilización de cartografías de predicción
acumuladas a lo largo del tiempo, como ser los mapas de prescripción; mientras que el
segundo podemos definirlo como una aplicación diferencial modular en tiempo real, por
ejemplo los sensores de control de malezas, que independientemente del
geoposicionamiento, detectan, analizan y actúan simultáneamente.

84
Primera Etapa

Determinación o Recolección:

En esta etapa nos limitaremos a tratar sólo las variables o aquel tipo de información que
pueda ser georreferenciada con instrumental propio de la agrimensura y con la precisión
adecuada de cada actividad, ya que toda información no georreferenciada escapa a
nuestro propósito. De todas maneras, en el futuro se apunta a que toda información
agronómica quede plasmada en un SIG.

Actividades:

1) Topografía: como mencionamos en el capítulo “Conceptos Aplicados” la variable


topográfica es claramente imprescindible, dada la importancia que toma ésta en
múltiples tareas o factores. Entendemos que la responsabilidad y calidad lograda en los
resultados del relevamiento topográfico debe ser considerada de primer nivel.
Una de las etapas ineludibles para la implementación de la AP, en un establecimiento
agrícola, es la realización de modelos digitales de terrenos (MDT), a partir de
relevamientos topográficos georreferenciados que permitan conocer con adecuada
precisión el relieve del predio. La información que proviene de esta tarea es muy rica y
variada, ya que algunos de los beneficios que otorgan los MDT son:
 Conocer hacia donde escurren las aguas superficiales.
 Conocer sectores altos y bajos del predio.
 Poder estimar la pérdida de suelo que se ocasionaría por no realizar prácticas
conservacionistas.
 Conocer las superficies laborables del predio.
 Que el productor pueda contar con un plano de información propio de su predio
en el que se plasmen alambrados, caminos, lotes entre otros.
 Poder proyectar un sistema de riego por gravedad.
 Poder proyectar un sistema de terrazas, etc.

El relevamiento se puede realizar de distintas maneras, no sin antes investigar la


ubicación geográfica del lote y sus posibles accidentes topográficos (lagunas, arroyos,
elevaciones, depresiones) a través de la información cartográfica disponible (mapas de
suelo, cartas topográficas, fotos aéreas, imágenes satelitales, etc. A partir de esto, es
muy importante el reconocimiento riguroso del terreno por parte del agrimensor, o sea,
que el profesional “camine” o recorra personalmente el predio para poder evaluar la
metodología a utilizar en función de la tecnología disponible.

Un elemento importante a tener en cuenta, considerando el instrumental y la


metodología a utilizar, es la ubicación de un punto fijo que se encuentre en las
cercanías del lote, siempre y cuando sea confiable en sus coordenadas y pueda ser
accesible, en tiempo y forma, ya que éste será utilizado para su posterior
vinculación a un marco de referencia oficial determinado (por ejemplo POSGAR
’94).

85
a) Por topografía tradicional con Estación Total (ET)

Metodología: si se da el caso de contar sólo con una ET, la forma más adecuada de
realizar el relevamiento será a través de la radiación; es decir, estacionar en algún lugar
del lote que sea lo más alto posible para tener una mejor visibilidad para poder cubrir
mayores extensiones y así reducir la cantidad de cambios de estaciones a realizar, ya
que cada estacionamiento del instrumental producirá inevitablemente una propagación
de errores. La forma de medición sobre el terreno tomará una forma de cuadrícula, con
un espaciado homogéneo a criterio del Agrimensor según las características del lote, sin
dejar de lado los accidentes topográficos relevantes, como ser cambios bruscos de
pendientes (quiebres), arroyos, depresiones, cárcavas, etc., en los cuales se densificarán
los puntos a medir, teniendo en cuenta los puntos bajos, altos, comienzo, fin, curvas,
intersecciones, de modo de poder representar de la mejor manera esta realidad en el
modelo digital final. Considerar desde luego, todos aquellos aspectos culturales
existentes en el predio (caminos, alambrados, desagües, construcciones, molinos, etc.).
Las precisiones para cada uno de estos aspectos serán, desde luego, determinados por el
profesional a cargo. A nuestro criterio las precisiones del relevamiento no pueden
excederse de los 5 cm a 10 cm, o sea, carecería de sentido buscar una mejor precisión
que los 5 cm para esta actividad, debido a las características propias de la superficie
topográfica al ser esta irregular, por ejemplo medir al centímetro un poste de alambrado
es irrevocablemente absurdo.
Una precisión inferior a los 10cm podría no informar adecuadamente de aquellas
pendientes existentes en el terreno.
Para lograr que la información sea georreferenciada deberá vincularse el relevamiento a
un punto perteneciente a algún marco de referencia. Este trabajo se puede realizar
mediante una poligonal que permita transformar las coordenadas locales a coordenadas
globales. Esto nos permitirá sentar las bases de un futuro Sistema de Información
Geográfico (SIG).
Este vínculo al marco de referencia trae aparejado una degradación de la precisión del
MDT debido a dos cosas, por un lado el error propio del punto del marco de referencia y
por otro lado el error que se producirá en la medición o armado de la poligonal, este será
mayor cuanto más estaciones deban realizarse para lograr el propósito.

b) Recorriendo con un receptor de GNSS.

Para comenzar, no es recomendable realizar un MDT mediante el uso de navegadores,


debido a que estos hoy día no logran las precisiones (tanto planimétricas como
altimétricas) requeridas citadas anteriormente para este tipo de tarea.
Si se cuenta con instrumental de posicionamiento satelital (siendo GPS el más
difundido), debemos tener en cuenta que la única manera de poder lograr las precisiones
pretendidas es realizando el posicionamiento con fase relativo, si solo se trabaja con una
sola frecuencia (L1) y un solo receptor, se deberá estar a una distancia no mayor de 10
km aproximadamente de alguna estación permanente, si contamos con dos receptores
uno se utilizará como base y el otro como remoto; ambos no pueden estar distanciados
más de 20 Km. Si se cuenta con un instrumento que posea las dos frecuencias (L1/L2)
se puede estar a centenares de kilómetros con el receptor remoto respecto de la estación
permanente o el punto base. Mencionamos esto ya que hay instrumentos que solo
cuentan con una sola frecuencia de la banda L1, siendo este el “piso” necesario para
poder medir a través de estos sistemas.

86
Suponemos que se cuenta con un receptor que se utilizar como base y otro como
remoto. La metodología a seguir será: primero ubicar el receptor base en un lugar
despejado de árboles u otras interferencias que nos garantice una adecuada recepción y
configuración de satélites. Con el receptor remoto se recorrerá el predio levantando
puntos distribuidos sobre éste adecuadamente, sin perder de vista obviamente los
accidentes topográficos.
Las precisiones que se obtienen con L1 con la metodología en post-proceso son de, a lo
sumo 4cm, pero hay que considerar que este método presenta limitaciones operativas
intermedias.
Si contamos con instrumentos con L1/L2 y también con antes o estaciones permanentes,
podremos garantizar que las precisiones pueden alcanzar el centímetro,

c) Sistema LIDAR

Este es un sistema de escaneo láser que permite obtener con la pasada de un avión, que
cuente con este sistema, por encima del establecimiento y realizar un “barrido” de la
topografía del predio. El posicionamiento se logra ya que el avión cuenta con un sistema
de GNSS.
Queremos recordar que las cartas topográficas generadas por el IGM en la década del
‘60 están expresadas en coordenadas Gauss-Krüger y que el marco de referencia de las
mismas es CAI 69. Esto implica que además de que el marco en el que están expresadas
no es el actualmente oficial, el sistema de proyección traerá aparejado una inevitable
deformación que se incrementa a medida que se aleja del meridiano central de la faja a
la que pertenezca. Por otro lado, debido a que la superficie topográfica es dinámica, la
información representada puede estar desactualizada. Por todo esto, no creemos
adecuado trabajar sólo con este tipo de información; recalcamos que nos parece de gran
importancia contar con un Modelo Digital de Terreno.
Quizás, desde nuestro punto de vista, atribuimos que la topografía permite conocer
hacia donde escurren las aguas superficiales; conocer sectores altos y bajos del predio y
vincular esta información con la erosión que podría generarse en el predio, entre otras
cosas.
Desde el punto de vista agronómico, esta información cobra relevancia en factores muy
importantes, como por ejemplo el rendimiento: sectores bajos o con bajas pendientes
tienen la capacidad de acumular más agua, que las lomas o pendientes pronunciadas, la
presencia de agua en el perfil en determinados momentos del cultivo, son primordiales
para obtener un buen rendimiento del mismo. La topografía tiene gran influencia sobre
algunas propiedades de los suelos, por el simple hecho de que la misma es uno de los
cinco factores de formación de suelo.
El suelo puede ser considerado como una determinada combinación de sus factores
formadores. Esta concepción del suelo fue expresada por primera vez por Jenny en 1940
según la siguiente ecuación:

S = f (cl, o, r, p, t).

Representando "S" al suelo, "f" es una función, "cl" al clima, "o" a los organismos, "r"
al relieve (Topografía), "p" a la roca madre y "t" al tiempo.

87
No queremos destacar a la topografía por sobre las demás variables, sino que creemos
que es un elemento de gran importancia e imprescindible para la toma de decisiones.

***

2) Monitoreo de rendimiento.

El monitoreo de rendimiento es posible debido a que las cosechadoras cuentan con


sensores que permiten medir el flujo de grano por unidad de tiempo, humedad del
grano, velocidad de avance de la cosechadora y ancho de corte del cabezal. Pero todo
esto carece de sentido sino se cuenta con el posicionamiento de la máquina, para ello se
le introduce a la cosechadora un receptor GPS, el cual trabaja con posicionamiento con
código C/A y corrección diferencial DGPS. Ahora sí, toda la información puede
vincularse mediante las coordenadas, de esta manera al levantar la cosecha se están
tomando muestras de rendimiento puntual (recordemos que cada punto con sus
coordenadas, estará representando un área, que será función de la velocidad de avance y
el ancho del cabezal) lo que nos permite visualizar el rinde obtenido en distintos
sectores del lote alcanzando una determinada precisión.

Ya hemos mencionado el equipamiento necesario para la creación del mapa de


rendimiento, ahora explicaremos la manera en que se logra el mismo: los sensores de
rendimiento y humedad de grano, entregan información luego de un lapso de fracción
de tiempo, esa información nos brinda el rendimiento obtenido en el área cosechada que
vendrá dada como el ancho del cabezal (se conoce) por la distancia avanzada (esta es,
velocidad de avance por tiempo). Esta información se vincula con la información
obtenida del GPS, es decir, se le otorgan coordenadas a los rendimientos obtenidos
dentro del lote.
Por lo tanto, el lote cosechado presentará un grillado de puntos; los cuales cuentan con
la información del posicionamiento planimétrico y como tercera coordenada, el
rendimiento.

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

Se definen rangos de rendimientos y haciendo uso de algún método apropiado de


interpolación se puede lograr el mapa de rendimiento. En estos últimos, hablar de
precisión, nos hace tener en cuenta otros factores que escapan a la determinación de las
coordenadas; debido a que estás se obtienen con un receptor funcionando mediante el

88
posicionamiento con código C/A, que si se realiza una corrección con DGPS, se obtiene
una precisión de 0.4 m a 1m.
Al ubicarnos en el contexto de que el receptor se encuentra sobre una cosechadora que
avanza en un terreno irregular, a una velocidad que no es constante, que tiene un ancho
de trabajo mínimo de 6 metros, etc., vemos que la precisión mencionada es suficiente.

¿Por qué no ser más preciso desde el punto de vista del posicionamiento?
En esta variable, tiene mayor importancia la precisión que puedan tener los sensores de
rendimientos, estos nos brindarán un valor de rendimiento que representarán un área, es
decir, las coordenadas del punto caerán dentro de ese área y por lo tanto mayor
precisión seria en vano, no seria aprovechada, ya que esas coordenadas estarán
vinculadas con un único valor de rendimiento y mientras el valor coordenadas sea
interno a la región con ese rendimiento se satisface la precisión. De todos modos, deberá
adoptarse un criterio para la ubicación de las coordenadas, es aconsejable que las
coordenadas sean las del centroide del área cosechada.

¿Podrían ser utilizadas precisiones inferiores?


Trabajar con navegadores para el monitoreo de rendimiento no sería algo aconsejable,
debido a que las precisiones planimétricas del posicionamiento con este instrumental
son de alrededor de 10 m (15 m en altimetría), lo que estaría generando un incremento
en la incertidumbre de la ubicación del punto tanto en altimetría como en planimetría. Si
tenemos en cuenta que el receptor se encuentra en el centro de la cosechadora y que el
ancho del cabezal de la misma es de 12 m por ej, es decir, 6 m a cada lado del centro de
ella, podríamos estar vinculando al rendimiento coordenadas que estén fuera del área
cosechada.
Podríamos concluir, a nuestro criterio, que la precisión para el geoposicionamiento del
rendimiento estaría dentro un rango de 1 a 5 m.
En la actualidad, existen en el mercado navegadores capaces de brindar una precisión de
5 m en planimetría, en condiciones óptimas, precisión que creemos adecuada para este
trabajo.
El mapeo de rendimiento es realmente valorable cuando la información lograda permite
que el productor o agrónomo tome mejores decisiones de manejo.
Para que los mapas de rendimiento puedan ser de utilidad concreta en el diagnóstico
agronómico acertado, debe existir un profundo conocimiento de los alcances de la
información georreferenciada y además de la cuantificación de la variabilidad del
rendimiento de un cultivo que posee un lote, a partir de ello se pueden planificar
ensayos en el gran cultivo que pueden ser analizados con alguna ventaja sobre los
métodos tradicionales de evaluación:

 El mapa de rendimiento ofrece una vista en planta


 Permite la obtención de mayor cantidad de resultados (promedios totales,
parciales, datos puntuales, etc).
 Permite el análisis de factores de manejos no planteados, que se manifiesten
espontáneamente al realizar el mapa y al retroceder en la información con la
planilla del cultivo del lote, encontrar la posible causa de manejo y
cuantificarla.
 Permite realizar seguimientos a través del tiempo.
 Posibilita realizar correlaciones con otras bases de datos georreferenciadas.

89
Las coordenadas a las que se le asignarán los rendimientos, son coordenadas del tipo
geográficas o elipsóidicas, debido a que ellas, según nuestro criterio, nos permiten una
mejor y rápida manera de interpretar los datos.

Nota: En el punto anterior hemos mencionado distintas maneras de lograr un Modelo


Digital de Terreno (MDT). Puede surgir como idea la realización del mismo partiendo
de los datos de posicionamiento obtenidos con una cosechadora. Para justificar que no
creemos adecuado realizar este MDT a través de la cosechadora, nos valdremos de dos
cosas: la primera sería el instrumental con el que se realiza el posicionamiento, el cual
logra una precisión de cada punto que no es acorde para tal fin, y segundo es por el
hecho de que en el momento en que se realiza la cosecha, no se tendrá el criterio de
densificar o tomar más puntos en los lugares apropiados que necesiten mayor detalle.
Es decir, los accidentes topográficos no podrán ser relevados con una adecuada
rigurosidad, ya que el instrumento de la cosechadora estará seteado para tomar puntos
en intervalos iguales de tiempo.
Para que sea más claro, el MDT no sólo implica tomar datos del terreno, sino que es
más importante tener un criterio claro de relevar aquellos puntos necesarios para el
armado del mejor modelo representativo del relieve.

***

3) Análisis de suelo (muestreo de suelo por zonas homogéneas).

Este tipo de muestreo es discreto, es decir, tomamos muestras puntuales en las que se
evaluarán distintas propiedades del suelo, con el fin de asignar una continuidad de las
mismas a una región o extensión determinada, por algún método de interpolación.
En este punto se busca determinar la variabilidad de las características físicas, químicas
y biológicas que se puedan presentar en un predio. La implementación de esta técnica
no es reciente sino que proviene desde tiempo atrás; en la cual la modalidad de trabajo
era realizar varias muestras en lotes tomando distintos criterios, como ser realizar un
grillado, tomar muestras al azar, o bien intentar tomar muestras representativas de un
lote. Luego con los resultados obtenidos se realizaban promedios.
En la actualidad, esta modalidad ha cambiado en algunos aspectos, uno de los cuales es
la posibilidad de asignar coordenadas al muestreo realizado (mediante el uso de
navegadores GPS) y el otro aspecto es la posibilidad de realizar el muestreo contando
previamente con alguna información, como podría ser un mapa de rendimiento, alguna
imagen satelital, etc.; lo que le permitirá al productor determinar de antemano los
lugares en los cuales realizar las muestras.

Según criterios agronómicos “el diseño de muestreo de suelos requiere de la respuesta


de dos preguntas”

1. ¿Cuál es el objetivo del muestreo?


2. ¿Qué información previa existe del área?

90
Hemos encontrado algunos métodos que mencionaremos a continuación:
 Muestreo al azar simple.
 Muestreo al azar estratificado (sería el caso de contar con alguna división
previa en sitio-especifico, y dentro de cada región realizar muestras al azar).
 Muestreo en grillas sistemáticas.
 Muestreo sistemático estratificado desalineado.
 Muestreo por juzgamiento (en este caso seria a criterio del evaluador)
 Muestreo adaptativo (se realiza en grillas y se densifica en sectores que se
crean necesarios).

El objetivo solo es mencionar algunos métodos utilizados sin dar detalles de cómo se
llevan acabo; sin embargo, se debe tener en cuenta que la elección del mismo es muy
importante, ya que las coordenadas de los lugares de muestra serán la base de la futura
interpolación a realizar, con el objetivo de obtener el mapa de suelo.
Las variables analizadas a través de un muestreo de suelo son numerosas:
 Nitrógeno (N)
 Potasio (K)
 Fósforo (P)
 PH
 Materia Orgánica (MO)
 Profundidad de tosca
 Nivel de capa freática, entre otros

De cada una de las variables enumeradas se podría realizar cartografía, y al utilizarse un


solo método y un solo instrumental, podemos concluir que el geoposicionamiento de
cada una de las variables se logrará con precisiones semejantes.

Las precisiones logradas en el posicionamiento de los muestreos son las que brindan los
navegadores, que variarán entre los 5 metros (navegadores modernos, en condiciones
óptimas) hasta los 15 metros. Desde nuestro punto de vista, esta precisión es suficiente,
ya que la variabilidad de un suelo depende de muchos factores agronómicos y se da en
regiones más amplias que estas precisiones.
Cabe aclarar, que las coordenadas de los puntos estarán expresadas en coordenadas
geográficas o elipsóidicas, debido a que permiten una mejor y rápida interpretación de
los datos, que como mencionáramos anteriormente, este sería nuestro criterio, ya que las
coordenadas podrían expresarse de cualquier otra forma. También deberá tenerse en
cuenta que al momento de realizar la cartografía será necesario hacer una
transformación al plano.

***

91
4) Malezas, plagas y enfermedades.

El rendimiento de un cultivo depende de múltiples factores, como ser la fertilización,


riego, malezas, plagas, enfermedades etc.; por lo que deben considerarse con el fin de
aumentar o intentar maximizar el mismo.
Los productores vienen tratando este tema desde que se practica la agricultura y la AP
dispone de un conjunto de técnicas que ayudan al tratamiento de esta problemática. Una
de ellas es localizar el/los sectores que estén infectados por algunas de estas pestes, ya
sea malezas, plagas o enfermedades, mediante las infestaciones de años anteriores, datos
recogidos del monitor de rendimiento, datos provenientes producto del seguimiento del
cultivo y del análisis visual del lote.
El siguiente es un dato agronómico que creemos importante mencionar, “dado que las
malezas tienden a diseminarse por semillas y/o vegetativamente, existe una alta
probabilidad de que la infestación persista en el mismo sector del lote años
posteriores”.
Si bien hemos hecho hincapié en las malezas, el manejo y tratamiento desde el punto de
vista de las coordenadas, de las plagas y de las enfermedades es similar.
Se han realizado múltiples experiencias para el tratamiento de estas pestes y en una de
ellas se realizó un mapa de malezas. La metodología aplicada fue relevar un lote con un
móvil al que se le adaptó un sensor que puede detectar el índice NDVI (índice
diferencial de vegetación normalizado), y aplicar herbicidas en sectores en los que
detecte maleza. A este dispositivo se le agregó un navegador que permite obtener las
coordenadas de los lugares en los que se aplicó herbicidas y en los que no se aplicó. De
esta manera se pueden localizar los sectores infectados.

En la generalidad de los casos, se utilizan como instrumental de posicionamiento a los


navegadores, es decir, que nuevamente al igual que en los muestreos de suelos
tendremos precisiones que variarán entre los 5 metros que logran los navegadores
modernos, en condiciones óptimas (zona de despejada de árboles, buena configuración
de satélites, tiempo necesario, etc.), hasta los 15 metros. Actualmente, es imposible
detectar cada maleza en cada lote, por lo que los métodos de identificación deberán
lograr un equilibrio entre la precisión de la localización, el tiempo y costo dedicado a su
tratamiento.
Nuevamente las coordenadas obtenidas serán expresadas en coordenadas Geográficas o
elipsóidicas por motivos ya mencionados.

***

5) Mapas de suelo, Mapa de Napa y Mapa de tosca.

El INTA, allá por la década del ’60, ha realizado un gran trabajo denominado Plan
Mapa de suelos de la Región Pampeana. En ese entonces se utilizaron fotografías aéreas
y la división de los suelos se realizó basándose en la 7ª aproximación de la taxonomía
norteamericana de suelos (Soil Survey Staff, 1960) y la Clasificación de las Tierras por
Capacidad de Uso (Klingebiel and Montgomery, 1966) como sistema interpretativo.
Con toda esa información y siguiendo los tratados mencionados se realizó la división de
los distintos tipos de suelos del país.
Toda esta información fue plasmada en mapas temáticos, los cuales se apoyaron en el
entonces marco de referencia oficial del país (CAI 69).

92
Esta cartografía es actualmente utilizada y consultada por productores y agrónomos, y
no debe perderse de vista, que la información obtenida de estas cartas está
desactualizada y en coordenadas planas (se ha utilizado la proyección Gauss-Krüger), y
que además están expresadas en un Marco de Referencia que, en la actualidad, no es el
Oficial. Por ello, vincular esta información con la obtenida de algún instrumento actual
de posicionamiento requiere de un adecuado manejo de las coordenadas.

Hoy día es muy común, generar gran variedad de mapas temáticos, por citar algunos
ejemplos Mapa de Napa, Mapa de tosca, entre otros. Es importante dejar en claro que,
para realizar un mapa georreferenciado es imprescindible tomar muestras a campo de la
variable a determinar y posicionarse con el instrumental adecuado (según la precisión
buscada); luego con dichas muestras se procederá a adoptar un método de interpolación
que muestre, de manera continua, la variabilidad espacial del lote. Y como el objetivo es
generar cartografía se utilizará una proyección (en argentina Gauss-Krüger) para dejar
expresada dicha variabilidad sobre un plano.

6) Sensoramiento remoto del suelo y cultivo.

Los avances tecnológicos en los últimos tiempos han sido muy variados, en el área de
sensoramiento remoto se ha avanzado mucho en estos tiempos y obviamente como era
de esperarse la AP se vale de estas técnicas y hace uso de ellas.

Datos de sensores terrestres


Los datos obtenidos por sensores terrestres se utilizan mayormente en investigaciones
básicas, es decir, se emplean estos datos para estudiar las relaciones biofísicas de los
cultivos agrícolas sometidos a algún tipo de estrés (nutricional, térmico o hídrico) con el
comportamiento espectral y en determinadas bandas del espectro electromagnético.

Datos de sensores aerotransportados


A nivel suborbital la recolección de datos tiene como plataforma las aeronaves
tripuladas. Entre los principales equipos sensores aerotransportados, existen las cámaras
fotográficas, los generadores de imágenes (scanner), las cámaras de video y los radares.
Operativamente, el sensor más importante es la cámara fotográfica que obtiene datos de
alta calidad en una banda del espectro electromagnético que va de 350 a 900 nm.

Datos de sensores orbitales


En la agricultura convencional, en muchos cultivos se han utilizado datos obtenidos por
sensores orbitales, para monitorear y mapear áreas agrícolas y se ha demostrado,
comprobadamente, el gran potencial de esas imágenes. En relación a las fotografías
aéreas, las imágenes de satélites presentan la ventaja de:
a) ser repetitivas, es decir, periódicamente el satélite pasa sobre el área de interés y, no
habiendo incidencia de nubes en la región, es posible obtener una imagen en cada
pasaje;
b) las imágenes son de bajo costo, comparado con el aero-relevamiento;
c) las imágenes ofrecen una amplia visión de la región en estudio;
d) la interpretación de imágenes de satélites está fundamentada en el criterio espectral.

En la agricultura de precisión, las técnicas de manejo se aplican en una escala mucho


más detallada, o sea, el terreno agrícola se fragmenta en pequeñas áreas que, en el

93
contexto de producción, forman unidades individuales. En ese caso, el uso de imágenes
de satélites de baja y mediana resolución espacial, tiene el inconveniente de presentar
resolución espacial mucho mayor que el de aquellas consideradas en el manejo del área.
Se entiende por resolución espacial el área menor “vista” por esos sensores, que en las
imágenes se denomina píxel (del inglés, Picture elements). En los sensores de mediana
resolución espacial, los píxeles de las imágenes son en promedio de 20m x 20m, o sea,
un área de 400 m2. Por ejemplo, una imagen del sensor TM del Landsat-5 presenta un
píxel de 30m x 30m (900 m2).
Uno de los aspectos de gran importancia en AP es la determinación de zonas
homogéneas de manejo. Sólo a partir de esta zonificación se puede tener una idea clara
de los matices del terreno y, consecuentemente, de las necesidades de cada punto del
campo de cultivo. En este sentido, la aparición de satélites de alta resolución espacial y
de satélites con sensores hiperespectrales presenta una perspectiva altamente promisoria
de la utilización de tecnología de teledetección en agricultura de precisión, puesto que la
mayoría de las técnicas utilizadas en este sistema requieren imágenes con alto nivel de
detalle. Sin embargo, los problemas encontrados actualmente en el uso de datos
obtenidos por estos sensores son el elevado costo de adquisición de estas imágenes y la
pequeña área de cobertura de los satélites de alta resolución (11 x 11 km, Ikonos 16 x16
km Quickbird, 60 x 60 km Spot5, por ejemplo).
La potencialidad de esta tecnología podrá ser utilizada siempre y cuando se logre una
buena georreferenciación de la imagen con la que se trabaje. Será necesario para lograr
este objetivo, la identificación en la imagen de puntos que cuenten con sus coordenadas
globales conocidas o sea posible determinarlas, para luego, mediante el uso de algún
software se pueda asignar la correcta ubicación de dicha imagen.
Es muy importante tener en cuenta en la etapa de georreferenciación de la imagen, la
precisión con la que se obtendrán los puntos de ajuste, ya que ella será función de la
resolución de la imagen.
Una vez logrado esto, la imagen quedará escalada y podrá cargarse al SIG para ser
vinculada al resto de la información con la que se cuente.

En resumen:

Las tareas mencionadas son algunas de las que se utilizan en la etapa de recolección. El
hecho de mencionemos estas variables no implica que sean las primordiales, solo que en
ellas el geoposicionamiento es de vital importancia. Por ejemplo el clima, las
temperaturas y las precipitaciones, entre otras, son variables agronómicas que no
pueden obviarse pero ellas escapan a nuestros propósitos.
Todas las tareas persiguen un mismo fin que es proveer información georreferenciada
del lote en estudio. El hecho de que sean georreferenciadas es lo que hace posible el
consiguiente armado de un SIG.
Luego de esta etapa sigue la de analizar, a continuación intentaremos dar detalles de la
misma.

94
Segunda Etapa:

Análisis de Datos:

En esta parte, toda la información disponible adquirida en una primera etapa,


(determinación de necesidades, toma y acopio de datos) se reordenan y correlacionan
entre sí, para representar de la forma más completa y precisa, todas aquellas variables
agronómicas necesarias, que permitirán ajustar el diagnóstico adecuado a la realidad del
lote.

¿Cómo se logra correlacionar o superponer toda esta información?

Si bien resulta imprescindible la obtención de información detallada que permita


caracterizar y evaluar las heterogeneidades intraparcelarias y la fuente de las mismas, en
muchas ocasiones, los problemas residen en el exceso de información y la falta de
medios para su procesamiento. Ante este hecho, el desarrollo de los Sistemas de
Información Geográfica (SIG) y los simuladores de ayuda a la toma de decisión se
presenta como un hecho primordial para el tipo de agricultura de precisión cíclica, en el
que las diferentes etapas tienen lugar en diferentes períodos de tiempo.

Los SIG permiten superponer información obtenida a escalas diferentes de forma que la
información correspondiente a una posición determinada de una parcela está formada
por múltiples capas informativas superpuestas e interrelacionadas entre sí. Por ejemplo,
el sistema posibilita el establecimiento de relaciones entre mapas de rendimientos
elaborados en años diferentes a una escala determinada, con los datos obtenidos en la
misma parcela en cuanto a profundidad del suelo y contenido de materia orgánica a otra
escala diferente. En general, estos sistemas aglutinadores de información suelen
comercializarse incorporados con los equipos receptores de la señal de satélite.

Un SIG destinado a su utilización con fines agrícolas debe poder:

 Integrar los datos de diferentes fuentes de información para transformarlos en mapas


directamente utilizables.
 Aprovechar la información obtenida a partir de imágenes de satélites o fotos aéreas.
 Establecer mapas de actuación diferencial para las distintas operaciones culturales,
es decir, integrar los modelos agronómicos de decisión con la información obtenida.
 Disponer de interfaces o "comunicadores" que permitan establecer relaciones
directas con las distintas herramientas que intervienen (modelos agronómicos de
ayuda a la toma de decisión, sistemas de GPS, etc.) y su posterior transmisión a los
equipos capaces de realizar la aplicación modular.

En cuanto a los modelos agronómicos de ayuda a la toma de decisiones, el desarrollo de


"software" específico capaz de simular, en función de las particularidades del medio, el
desarrollo del cultivo, las necesidades de fertilizantes, el rendimiento potencial de la
cosecha, el riesgo de afectación ante determinadas plagas o enfermedades; ha permitido
el manejo cada vez mas preciso y adecuado del gran volumen de información
disponible.

95
Del correcto análisis de datos, se garantizan dos cosas:

1. Que toda aquella información recolectada sea aprovechada en su máximo sentido.


Es decir, se interpretará cada dato aportado u obtenido, conociendo el origen de
estos, diferenciando las distintas precisiones en el geoposicionamiento de cada
variable y la importancia agronómica (según sea el caso) de cada una de ellas.
2. Se garantizará para la siguiente etapa (Actuación y/o ejecución) que el tratamiento
dado al terreno sea el óptimo.

En definitiva, esta etapa será realizada, desde luego, como una tarea multidisciplinaria,
porque el fin de la misma es organizar todas las variables que interactúan y hacen a la
situación del predio. Yendo de lo biológico a lo agronómico, de lo informático a lo
económico, etc.

***

Zonas de manejo:

El análisis de datos apunta sobre todo a determinar las zonas de manejo a realizar sobre
el terreno, debido a que las variables agronómicas y ambientales son espacialmente
heterogéneas, la agricultura de precisión ha evolucionado como un método de
producción en el que la variabilidad es identificada, cuantificada y manejada. Una vez
que las causas de variación de productividad de una chacra han sido identificadas es
necesario tomar las decisiones de manejo adecuadas. En algunos casos, la decisión de
manejo no implica necesariamente la variación de un insumo a través de la chacra, sino
sólo de un ajuste de la cantidad aplicada del mismo para mejorar la eficiencia en todo el
cultivo. En otras situaciones puede darse que la variación de rendimiento de un cultivo
esté asociada a un solo factor limitante principal, como en el caso de algún nutriente
esencial para el cultivo que puede ser ajustado mediante alguna técnica de aplicación
variable.
Sin embargo, la formación del rendimiento de los cultivos es un proceso
extremadamente complejo que involucra la interacción de varios factores bióticos y
abióticos. En los casos en que más de un factor esté influenciando el rendimiento, o que
diferentes factores influencien el rendimiento en distintas partes de la chacra, la
situación es más compleja. La estrategia para enfrentar y superar este tipo de
complejidad es encontrar los factores dominantes que limitan el rendimiento en
determinadas zonas de la chacra.

Desde este punto de vista, el objetivo central de la AP es entonces, la obtención de


zonas de manejo definidas por sus factores limitantes del rendimiento, para ser
manejadas de acuerdo a sus propiedades intrínsecas. La estrategia general consiste en la
identificación de zonas en las chacras que puedan ser delineadas, agrupadas y
manejadas similarmente a los efectos de optimizar la aplicación de insumos y las
medidas de manejo para maximizar los ingresos.

Es importante mencionar que las zonas de manejo no implican necesariamente


recomendaciones de manejo diferenciales entre ellas o que las mismas sirvan para todas
las aplicaciones de AP. Es también reconocido que las zonas de manejo pueden ser

96
bastantes diferentes dependiendo de las condiciones ambientales, el cultivo y el manejo
de suelos utilizados. Por tanto, las zonas de manejo deberán ser analizadas, evaluadas y
ajustadas en el tiempo, ya que las mismas no son necesariamente estáticas y
posiblemente varíen ante cambios en las prácticas de manejo general de los productores.

Pueden ser necesarios muchos años de datos para entender completamente las
interacciones entre la variabilidad espacial y temporal en las propiedades de los
suelos y la productividad de los cultivos.

La investigación y los usuarios han propuesto varios caminos y fuentes de información


para delinear esta zonas de manejo incluyendo los mapas de rendimiento, los mapas de
suelos, la percepción remota, las fotografías aéreas, el muestreo de grillas, atributos
topográficos y hasta el propio conocimiento del productor de su chacra.

***

Geoestadística:

La AP involucra la evaluación y manejo de la variabilidad en el campo, de tal manera


que se produzcan cambios en las condiciones iniciales para optimizar la calidad y
rendimiento de los productos. Lo anterior también implica, que el manejo de la
variabilidad puede conducir a una reducción en los costos de producción y que dichas
acciones de manejo, tales como la aplicación de niveles diferenciales de fertilización o
distintas densidades de siembra, puedan ser controladas con mayor precisión.
El mapeo de los datos es fundamental dentro de los procedimientos que encierra la AP.
Sin embargo, debemos considerar que los mapas son abstracciones de la realidad, en
donde los distintos elementos son representados por medio de líneas y polígonos. La
utilización de los mapas ha sido tradicionalmente asociada a la ubicación de elementos
en los mismos, sin embargo, actualmente, mediante los llamados Sistemas de
Información Geográfica (SIG), el punto de vista ha variado hacia el resolver
problemáticas que surgen al intentar realizar asociaciones de tipo espacial.
De esta manera, han surgido distintas herramientas para evaluar dichas asociaciones
espaciales, las cuales se caracterizan, principalmente, por poseer un enfoque
cuantitativo. Es decir, contestar en términos numéricos si una variable posee alguna
especie de patrón espacial, de tal manera que pueda ser representada o, si esta misma
variable, puede ser asociada a otra(s) y así explicar el comportamiento productivo y de
calidad de un cultivo en términos espaciales y temporales. Estas evaluaciones son la
principal temática del área denominada “geoestadística”.

Los datos a ser representados en un mapa pueden variar en su densidad de muestreo. Tal
es el caso de los datos que son tomados en terreno para análisis de propiedades físicas
de suelo o de concentraciones de fósforo, por ejemplo, en donde la captura se realiza
considerando distintos tipos de grillas en el terreno. Tomando en consideración que
dichos muestreos son puntuales dentro del terreno, por lo tanto discretos, el tipo de
grilla puede variar en cuanto a su forma, siendo unas más útiles que otras. A este
respecto, se ha señalado a los tipos de muestreo de grilla regular y al muestreo aleatorio
como los menos adecuados para obtener un mapa de la o las variables bajo estudio.

97
Para representar las variables de interés y cuyos datos han sido obtenidos en una forma
tal, es necesario llenar los espacios que no contienen información con datos estimados o
también llamados “interpolados”.

Interpolación: A su vez, para la “interpolación” de la información es condición que los


valores de la variable bajo estudio se encuentren asociados espacialmente, esto es, bajo
el principio que “los lugares más cercanos poseen valores más parecidos para las
variables”, fenómeno denominado autocorrelación. Sólo si existe esta asociación
espacial o autocorrelación, tiene sentido o, más bien, es posible, desarrollar un mapa de
interpolación, dado que en este caso, tendremos en dicho mapa zonas en las cuales la
variable poseerá niveles más altos o más bajos. Ante esto, se puede asociar con una o
varias respuestas de calidad o rendimiento del cultivo, actuando como variable
principal o en conjunto con otra variable relacionada, en cuyo caso se habla de
correlación espacial entre variables explicativas.

No siempre es tan evidente obtener una relación entre una variable explicativa y las
variables de rendimiento y calidad y es necesario usar metodologías geoestadísticas
sofisticadas para poder apreciar estas asociaciones.

De cualquier forma, es evidente que una densidad de datos de estas características


permite un análisis más consistente de la variable medida, lo cual no siempre es
posible, dependiendo de la variable en cuestión y la tecnología disponible, entre
otras. Por lo anterior, es importante estudiar los métodos para la optimización de
un muestreo en condiciones discretas.

Se debe señalar que hay dos condiciones fundamentales para que cualquier paquete
computacional sea capaz de realizar un análisis de los datos:
a) las que corresponden a una estructura consistente de datos, esto significa una
organización de los mismos que permita su análisis sistemáticamente
b) y a un ambiente de procesamiento interactivo, lo que se traduce en operaciones de
análisis de mapas lógicamente secuenciadas, e involucra cuatro operaciones
principales:
 Recuperación de una o más capas de mapa desde una base de datos;
 Procesamiento de los datos, según especificaciones del usuario;
 Creación de un nuevo mapa conteniendo los resultados del proceso; y
 Almacenaje del nuevo mapa en una base de datos para mapas posteriores.

Es necesario remarcar que los datos que exhiben una alta dependencia espacial, y que
son representados en los mapas, sirven para crear funciones de predicción robustas, lo
cual, a su vez es necesario para predecir la rentabilidad del cultivo o establecer las
medidas de manejo necesarias.
Lo anterior, a diferencia de la estadística tradicional, hace posible localizar los lugares
en donde se optimicen los manejos y con ello, la rentabilidad.

98
Tercera Etapa

Actuar:

Esta es la última etapa que hemos considerado, es la etapa en la que se toman las
decisiones en base a toda la información que se pudo recabar.
No está demás mencionar una variable que consideramos muy importante en la AP, que
es el “tiempo”, ya que no es lo mismo un establecimiento que se inicia en la técnica de
AP, a otro que tiene ya una historia en ella. La diferencia que encontramos entre estos
establecimientos es que, los establecimientos que cuentan con varios años aplicando
estas técnicas se basarán en experiencias propias de tomas de decisiones, y podrán sacar
conclusiones sobre ellas que les servirán para las futuras.

En este curso de la actividad, se procederá a implementar la respuesta del manejo


a la escala y tiempo apropiados. En esta etapa es importante el desarrollo de las
denominadas tecnologías de tasa de aplicación diferencial o de dosis variables
(TDV), que corresponden al manejo específico del sitio, entre ellos están la
aplicación variable de semilla de acuerdo al potencial productivo del suelo, la
fertilización, el control de malezas, insectos y enfermedades, la aplicación variable
de plaguicidas.

La dosis variable es una de las herramientas que interesa a asesores y productores, en


particular, ya que actualmente apunta a mejorar el manejo de los insumos, lo que
dependerá del cultivo y del fertilizante que se utilice. Por ello, variar la dosis con éxito
va a depender de los conocimientos que tengamos sobre rendimientos en los diferentes
ambientes, el porcentaje de variabilidad del lote y del objetivo que persiga el asesor o
productor. Algunos buscan obtener respuesta agronómica (en vez de una respuesta
meramente económica) porque son dueños del campo y desean aportar rastrojos de
calidad mediante el mayor aporte de fertilizantes, obteniendo de esta manera el máximo
rendimiento.

Hacer dosis variable sin tener en claro un objetivo podría llevar al fracaso de la
tecnología.

Todas las etapas son importantes, ya que las eventuales recolecciones de datos nos
harán realizar un determinado análisis, y en base a él se realizará la toma de decisiones.
Un error en la recolección, o un mal análisis nos haría llegar a malas decisiones. Por ello
es importante trabajar con seriedad en cada una de ellas, pero no podemos perder de
vista que está, la tercer etapa, es en la que se trabaja con los insumos (semillas,
fertilizantes, fungicidas, herbicidas, etc.), y hoy día, el hecho de la desvalorización de
nuestra moneda hace que se deba tener especial cuidado en la aplicación de los mismos.

Quizás el rendimiento económico del cultivo esté más ligado a la correcta


aplicación de los insumos (a la reducción de costos), que a los rendimientos que
puedan obtenerse.

Por ello veremos en este capítulo que en el posicionamiento para la siembra, o las
pulverizaciones se trabaja con precisiones más elevadas que en las tareas de
recolección.

99
1. Siembra variable.
Como está determinado, la siembra pertenece a la última etapa cíclica de la AP, siendo
esto obvio ya que si fuese la primer etapa, lejos estaríamos de poder realizar una
siembra precisa ya que no se contaría con información apropiada. Vimos que en las
definiciones de AP se hace referencia a realizar un manejo diferenciado por ambientes
dentro de un mismo lote, es decir definir subparcelas dentro del lote y en cada una de
ellas realizar el manejo que corresponda. La división de las subparcelas proviene de las
etapas de recolección y análisis, ahora en la tercera etapa es necesario poder realmente
lograr ese manejo diferenciado. Ello se logra con la utilización de nuevas sembradoras
que cuentan con un equipo de guiado GPS, y con los llamados mapas de siembra o
prescripción. Los mapas de siembra contendrán las subparcelas y cada una de ellas se
caracterizará por las cantidades de semillas y fertilizantes a aplicar. Lo que realizan las
sembradoras de dosis variables, haciendo uso de las tecnologías con la que cuentan
(software específicos, motores hidráulicos, equipo de posicionamiento, etc.) es
interpretar el mapa según la ubicación que va ocupando la máquina y realizar las
aplicaciones correspondientes
A modo de ejemplo, el siguiente podría ser el mapa de prescripción de un lote, en el que
claramente las diferencias de colores están indicando las subparcelas y un determinado
manejo especifico.

Cabe aclarar que la determinación de los ambientes deberá ser una recomendación que
realizará un profesional idóneo en el tema, conjuntamente con el productor con el fin de
estudiar los costos de siembra, y obviamente las decisiones las harán basándose en toda
la información disponible. En esta actividad, lo que requiere mayor precisión es el
guiado de la maquinaria durante la siembra para evitar imperfecciones en el trazado de
los surcos (sobre aplicaciones o chanchos). En función de nuestro criterio, la precisión
variará entre los 5 a 30 cm, en función del cultivo o actividad que se quiera realizar y
también por las características o alcance del instrumental a utilizar.

El guiado de la maquinaria se puede realizar de dos maneras diferentes, a través del


piloto automático o del banderillero satelital, que se explicarán más adelante.

100
2. Fertilización variable

La fertilización puede aplicarse en forma conjunta con la siembra si se dispone de la


maquinaria adecuada y en este caso las precisiones estarán ligadas a la actividad más
precisa, que en este caso es la siembra.
Existen fertilizantes que se aplican una vez ya realizada la siembra. En algunos casos se
aplica conjuntamente con la pulverización y la precisión disminuye comparándola si
aplica en el momento de la siembra, logrando en este caso la precisión propia de un
banderillero satelital.
Para poder llevar a cabo la dosificación variable tanto en el momento de la siembra o
posteriormente a ésta, se deberá generar un mapa de aplicación del fertilizante a utilizar,
lo que conlleva un estudio, análisis y determinación de los distintos ambientes, tarea
específica del ingeniero agrónomo o en algunos casos del mismo productor.

3. Tecnología de riego variable

La alta variabilidad espacial en las condiciones físicas de suelo se traduce en una


desigualdad de agua de riego aplicado en el predio, problema que generalmente no es
considerado tanto para el diseño de nuevas zonas de riego como en las ya existentes.
Dichas ineficiencias en la aplicación del agua de riego finalmente conlleva a pérdida de
fertilizante nitrogenado y posterior contaminación de los acuíferos contaminados por
lixiviación de este (Best y Duke, 2001).

Sistema de aplicación

Es sabido, que la introducción de los avances en riego tecnificado han sido un


importante factor para el desarrollo de la agricultura, optimizando un recurso limitado y
dando seguridad de riego para la producción de cultivos. Es el caso de la aplicación
variable de riego en pivotes, para lo cual se identifica la variabilidad espacial de los
requerimientos hídricos bajo el área cubierta por el pivote, ya sea la existencia de
diferentes cultivos o por diferentes condiciones de suelo.
La aplicación de esta tecnología apunta a potenciar el objetivo del riego tecnificado en
el sentido de la optimización del uso del recurso hídrico.
El uso de información de percepción remota ha demostrado altas potencialidades sobre
la base del uso de planos de vigor (NDVI) (*), no solo para el tema de manejo, sino
también, en decisiones de cosecha. Se puede aplicar un criterio simple de sectorización,
en base a la elección de lotes que presenten vigor medio - bajo y medio - alto según el
índice de NDVI.

(*)Normalized Difference Vegetation Index (Índice de Vegetación de Diferencia Normalizada)

101
4. Control de Malezas, Plagas y Enfermedades con Dosis Variable

4.1. Terrestre
Las pestes relacionadas con la producción agrícola incluyen las malezas, los insectos y
las enfermedades, aunque la mayor proporción de pesticidas aplicados en agricultura es
para el control de malezas. Los principales problemas ambientales que enfrenta la
agricultura por el uso de herbicidas tienen que ver principalmente con la contaminación
del agua superficial y sub-superficial.
Mortensen (1999) indica que la población de malezas presenta variabilidad espacial a lo
largo y a lo ancho de los lotes debido a la variabilidad en materia orgánica, textura del
suelo, topografía y la interacción de todos estos factores con el manejo del cultivo, el
tipo de cultivar sembrado y otras interacciones que existen dentro de un lote.
La agricultura de precisión tiene el potencial de ser un sistema que no sólo protege el
ambiente, sino que también es económicamente viable. Si aceptamos que el campo
necesita insumos externos, también tenemos que estar dispuestos a aceptar que un
insumo importante es la información. Esta actividad puede contribuir de muchas
maneras a la agricultura sustentable a largo plazo, confirmando la idea intuitiva de que
reduce la carga de agroquímicos sobre el ambiente, aplicando pesticidas solamente
dónde y cuando se los necesita.

a) Dosis variable de herbicidas aplicados al suelo

La aplicación sitio-específica de los herbicidas es una necesidad obvia, ya que las dosis
dependen de un conjunto de características del suelo que son variables, como ser la
textura, materia orgánica, pH y capacidad de intercambio catiónico. Dado que cada
familia de herbicidas tiene diferentes características químicas, el cambio en las
características del suelo puede tener un efecto mínimo o pronunciado sobre el cambio
en la dosis de herbicida.
El objetivo de esta aplicación es "reducir la dosis en algunas áreas y aumentar la dosis
en otras, según sea necesario" aunque hay que tener en cuenta que todo el lote recibe
una aplicación de herbicidas.

b) Dosis variable de herbicida post emergentes

El objetivo de la dosis variable de herbicidas post emergente es "aplicar solamente en


aquellas áreas donde están presentes las malezas". Algunos herbicidas actúan por el
follaje, cualquier aplicación que no de en el blanco y que termine en el suelo, queda
adherido a la superficie del suelo y se degrada, perdiendo su eficacia en el control de la
maleza.
El primer desafío de la aplicación de herbicidas post emergentes es localizar las
malezas. Los mapas de malezas se pueden desarrollar a partir del conocimiento de
infestaciones de años previos, los datos obtenidos con el monitor de rendimiento, los
datos provenientes del seguimiento del cultivo, o por análisis visual por parte del
aplicador. Dado que las malezas tienden a diseminarse por semillas, existe una alta
probabilidad de que la infestación persista en el mismo lugar en años posteriores. Por lo
tanto, la capacidad de dirigirse a un manchón de malezas identificado previamente, o la
identificación de malezas sobre la marcha es un aspecto crítico para tener éxito en el
manejo sitio-específico de las malezas.

102
Para realizar dosis variable de herbicidas post emergentes es fundamental realizar una
identificación correcta de la infestación y de los manchones de malezas distribuidos en
el lote. Para esta tarea se pueden recurrir a diferentes métodos.
El método más usado en cultivos tradicionales es, probablemente, el uso de un monitor
de rendimiento conectado con GPS, equipado con un "marcador", para mapear las áreas
enmalezadas. Esta información se puede analizar posteriormente en un SIG y tomar
decisiones sobre su manejo para el año siguiente.
Una de las formas de relevar la mayor cantidad posible de información con el menor
costo sería a través del uso de fotos aéreas. El primer paso consiste en identificar los
manchones de malezas en la fotografía aérea georreferenciada. Luego, se corrobora que
el manchón se corresponda con la maleza problema, a través de la "verdad de campo",
es decir, la visitia al sitio infectado. Por último, se elabora un mapa de aplicación
binario, que consiste en zonas de aplicación y no aplicación, para de esta forma ahorrar
herbicida en aquellas zonas que no requieren tratamiento.
Los beneficios potenciales de implementar un sistema de identificación
georreferenciada de malezas son tres:

1- Se reduce el costo de aplicación de los herbicidas


2- Mejora el control de las malezas, a través del uso de herbicidas específicos que se
dirigen a una población objetivo en forma de sitio-específica y
3- Menor competencia de malezas que se traduce en un aumento de rendimiento del
cultivo.

En el mercado existen algunos equipos automáticos para realizar dosis variables de


herbicidas post emergentes. Uno de los equipos disponibles es la pulverizadora
autopropulsada PLA, que puede aplicar herbicida y fertilizante en forma simultánea.
Para ello, posee dos tanques, dos computadoras, un navegador, un controlador y un
"actuador" que permite variar la dosis en tiempo real.
Además, se ha desarrollado un sistema de sensores que generan un índice verde sobre la
marcha. El sistema puede diferenciar el índice verde del cultivo y de las malezas
presentes, enviando una orden de pulverización en forma automática.
Esta actividad utiliza como sistema de guiado banderilleros satelitales que alcanzan
precisiones submétrica (alrededor de los 30 cm).

4.2. Aéreo
Para aviones fumigadores existen dos tipos de equipos, siendo las prestaciones muy
similares a los equipos terrestres, con la única diferencia en que las antenas son de uso
aéreo debido a la velocidad de aplicación.
Además del sistema de guía de luces se puede adquirir un monitor que indica al piloto el
lugar donde se encuentra el avión, y una brújula circular orienta al mismo hacia dónde
debe dirigirse, esto encarece un poco el equipo.
Esta pantalla display va marcando y grabando el recorrido del avión visto en planta,
relacionado con las coordenadas geográficas y también con un mapa de base
georreferenciado del campo o lote que se debe ingresar al monitor.
Esto ayuda al piloto a encontrar el lugar en el lote donde debe comenzar la pasada
sucesiva, operación que se hace más dificultosa si solamente tuviera la barra de luces,
debido a las distancias de giro y a la gran velocidad que se desplazan.
Además el hecho de que se graben los recorridos brinda un archivo para verificar y
documentar las aplicaciones. En el caso de las pulverizaciones aéreas se recomienda
trabajar con 2 m de traslape entre las sucesivas pasadas, en un principio, y a medida que

103
el piloto gana experiencia con este sistema de guía se puede reducir esta distancia a 1 m.
Al igual que en las pulverizadoras terrestres el traslape se logra indicando un ancho de
faja tanto menor como se quiera superponer las pasadas.

***
Sistemas de Guiado
El guiado de las pulverizadoras se realiza de dos maneras diferentes:

1) mediante dos personas que contando pasos entre una pasada y otra se posicionan para
que el operario de la maquinaria los utilice como guía, esta manera de trabajar, no
brinda una gran precisión, además implica un riesgo de contaminación crónica con
agroquímicos por estar permanentemente expuesto a la acción nociva de los mismos.
Otro problema, es la imposibilidad de marcar en trabajos nocturnos, falta de visión
cuando se trabaja en tiradas largas y con cultivos altos.
2 ) mediante el uso de marcadores de espuma, sistema que presenta el problema de falta
de precisión, ya que este marca dónde termina la aplicación anterior y no representa una
guía perfecta para el operario ya que siempre tendrá que calcular la dirección, además
presenta como desventaja la dificultad de ver la espuma en cultivos altos o rastrojos en
pie.
Los dos sistemas mencionados presentan como desventaja, que los errores cometidos en
las sucesivas pasadas son acumulativos, lo que causaría una merma importante en la
eficiencia, sobre todo en lotes grandes.
Considerando el costo del agroquímico, o bien el daño por un mal control ocasionado
por solapamiento o áreas sin aplicar, sumado al efecto de fitotoxicidad por sobredosis,
indican la necesidad de marcadores más eficientes.

En nuestro país los sistemas de guía satelital para ser utilizados en pulverización,
fertilización o en sembradoras de grano fino de gran ancho de labor ya son una
realidad.

Piloto Automático:
Es una herramienta que reemplaza al conductor de la maquinaria, guiando a la misma de
manera automática sobre una trayectoria de trabajo predeterminada.

Con este sistema se logran las máximas precisiones en el posicionamiento, hasta el


momento, de las maquinarias agrícolas, es decir, se puede aplicar para cualquier
actividad que involucre la agricultura de precisión (sembradoras, cosechadoras,
pulverizadoras, etc). Como se ha dicho, si bien es aplicable para cualquier labor

104
agrícola, consideramos que el uso de esta tecnología se justifica para la siembra en
particular, ya que las demás tareas requieren precisiones menores.
Existen dos sistemas de dirección automatizada:
1) reciben señales de corrección DGPS de diversas fuentes de satélites o antenas
correctoras para proveer una precisión que ronda de 10 a 30 cm.
2) Recibe las señales de corrección de una estación base GPS en tiempo real (RTK)
local para proveer precisiones de dirección que van desde los 2 a los 5 cm.

Por ejemplo al realizar la siembra si se cuenta con un sistema guiado automático, el


operario sólo deberá supervisar que las tareas se ejecuten adecuadamente, es decir,
controlar que la máquina no pierda el control en cuanto al guiado y que todas sus partes
mecánicas y eléctricas funcionen correctamente.

Banderillero Satelital:

El sistema llamado en Argentina "banderillero satelital", es un sistema de guiado que se


anexa a la pulverizadora, fumigadora o también a una sembradora. Es una de las
herramientas más adoptadas por los productores argentinos, este consta de un receptor
DGPS, su respectiva antena, una barra de guía de luces, y como opcional un control
remoto con las funciones principales y funciona conectado a la batería de 12 Volts de la
pulverizadora o a la maquinaria a la que se ha adoptado el sistema.

El equipo cuenta con la posibilidad de detener la aplicación, poniendo el equipo en


pausa, ya sea porque se vació el tanque o por cualquier otra razón, y poder retomarla
exactamente en el mismo punto, esto es posible debido a que se tienen las coordenadas
del punto en el que se dejo de aplicar, y luego del llenado del tanque o de solucionada la
causa de la detención con ayuda del navegador se orientará el equipo de modo tal de
retomar el trabajo en el punto en el que se había detenido la aplicación.

El posicionamiento del piloto automático y del banderillero satelital se logra a través de


los sistemas de corrección diferencial DGPS, que en Argentina los que están disponibles
son los siguientes:

 Beacon (San Carlos, Bolivar y Las Lajitas)

Son antenas fijas de coordenadas conocidas (bases GPS) correctoras de la señal de los
satélites. A las correcciones las realizan mediante radio transmisión (onda FM) en la
banda de los 200 Mhz a los 500 Mhz. En nuestro país hay tres antenas, dos de ellas San
Carlos (Santa Fe) y Bolivar (Buenos Aires) cubren un radio de acción de 450 Km y la
restante se encuentra en Las Lajitas (Salta) con aproximadamente 350 Km de radio de
acción.

105
 Racal u Omnistar.

Los satélites GPS envían las señales, y son recibidas por estaciones de referencia
OMNISTAR, estas estaciones se encargan de calcular correcciones de los mensajes
recibidos y luego las envían a las redes de monitorización GPS donde se verifican y se
empaquetan las correcciones de los datos para luego ser transmitidas a los satélites
geoestacionarios (trabajan en la banda L). Luego, estos satélites transmiten las señales a
la tierra, donde se reciben los datos de corrección y se aplican en tiempo real.
Un satélite geoestacionario tiene una órbita circular en el plano ecuatorial con un
periodo igual al de la rotación de la Tierra por lo que desde ésta se lo verá siempre en la
misma posición.
Se caracterizan por permanecer sobre un punto fijo con respecto a la superficie terrestre
y una distancia aproximada de 36000 Km de altura.

106
 E- Dif

El modo de corrección DGPS utilizado para este sistema e-Dif, es una técnica nueva
patentada por Satloc USA y su funcionamiento se basa en corregir el error generado por
la ionosfera, además el GPS genera las mismas correcciones DGPS que genera una
estación base (como Beacon) pero internamente y en el mismo receptor.
Esta corrección es utilizada tanto para la fumigación aérea como terrestre
El modo operativo de E-Dif es generar y calcular correcciones diferenciales GPS en
forma interna basándose en una posición de inicio. La corrección es modelada a medida
que pasa y tiempo y aplicada a los datos GPS con el fin de mantener una consistente y
relativa posición.
Mediante los sistemas de corrección Beacon y Omnistar (DGPS) se logran precisiones
submétricas, que oscilan los  30 cm. Esta precisión ya es suficiente para la aplicación
en la agricultura de precisión.
Sistemas de aumentación de la señal GPS en otros países:
Waas (EE.UU) trabaja con estaciones de referencias terrestres y satélites
geoestacionarios.
Egnos (Europa)
Msas (Japón)
Glonass (Rusia)

Resumen de los Servicios de Correcciones

Servicios de Método Cobertura Precisión


corrección DGPS
Beacon Antenas correctoras Aproximadamente Depende de la
300 Km de radio a la distancia a la antena.
antena Submétrica.
Omnistar Satelital Sudamérica Submétrica.
E-Dif Corrección Global Submétrica.
electrónica interna.
Correcciones RTK Base propia Hasta 10 Km de la Centimétrica.
base propia
Waas Satelital Norteamérica Métrica.
Egnos Satelital Europa Métrica.

107
Cuadro resumen de las distintas actividades de la AP:

Actividad Etapa Modo de posicionamiento Precisión (m)

Topografía Recolectar  Clásico con ET. 0.05 a 0.10

 GPS L1. (relativo)

 GPSL1/L2 (relativo)

Cosecha Recolectar DGPS 1a5

Análisis de Recolectar Navegador 10 a 15


suelo

malezas, plagas Recolectar Navegador 10 a 15


y enfermedades

Siembra Actuar DGPS/RTK 0.05 a 0.10

Fertilización Actuar DGPS 0.10 a 0.30

Pulverización Actuar DGPS/E-Dif 0.10 a 0.30

Desde el punto de vista de la Agrimensura podríamos interpretar en función de la


complejidad de las actividades y las precisiones, que la primera etapa de la AP
representaría el relevamiento, que se ejecuta con una menor precisión que el
replanteo, representado por la tercera etapa, en la cual hay que trabajar con
herramientas y metodologías más precisas.

108
CAPÍTULO VI

109
Desarrollo Práctico

“Extraño como pudiera parecer, el poder de las matemáticas reside en su evasión de


todo pensamiento innecesario en su maravilloso ahorro de operaciones mentales”.

Ernst Mach. (18 de febrero, 1838 - 19 de febrero, 1916 físico y filósofo austriaco).

110
Práctica:

En este capítulo, utilizaremos datos reales obtenidos con herramientas de Agricultura de


Precisión. El objetivo es realizar una práctica en la manipulación de datos
georreferenciados de aplicaciones de semillas, fertilizantes, mapas de rendimientos, etc.

Existen en el mercado una gran variedad de maquinarias con las tecnologías de la AP,
hay marcas internacionales con una importante trayectoria y marcas nacionales que se
han adaptado de gran manera a los avances que se suceden año a año en este rubro, y de
esa forma poder cubrir los requerimientos del productor local.

Al realizar una aplicación ya sea de semillas, fertilizante, etc. o al levantar la cosecha,


los datos que recolecta la máquina son almacenados en una tarjeta de memoria, en este
aspecto cada marca (ya sea nacional o internacional) almacena los archivos en alguna
extensión determinada (por mencionar algunas .ens, .vyg, .yld, .log, .gsd, .gsy, .rcd, .ilf,
.bdy etc.) estas extensiones generalmente son propias del software que comercializa la
misma empresa de la maquinaria.

De todas maneras, hay empresas que no realizan los software y las máquinas trabajan en
extensiones propias de software de otras empresas, existen programas que permiten
levantar los datos en múltiples extensiones, en nuestro caso utilizamos el Software AFS
de la empresa CASE, sólo por una cuestión de que tuvimos acceso a él. Este programa
permite bajar datos de cosechadoras CASE IH, JHON DEER, NEW HOLLAND, entre
otras.

Si hablamos de una cosecha, los datos que se almacenan en las tarjetas y que nos
permitirán generar los mapas de rendimiento serán los siguientes:
 Coordenadas (B, L, h) otorgadas por el GPS.
 Velocidad en Km./h. (dada por un sensor).
 Flujo de grano ton/Ha (información suministrada por un sensor).
 Porcentaje de humedad (información suministrada por un sensor).
 Rendimiento húmedo Kg./Ha (calculado).
 Rendimiento seco Kg./Ha (calculado).
 Entre otros.

Hay monitores que permiten registrar más datos, pero los más importantes para el fin
que se persigue son los mencionados.

Calibración de los Monitores de Rendimiento:


Para que los datos obtenidos sean confiables es necesario que el monitor de rendimiento
sea calibrado previo a la cosecha. Los tipos de calibración que son requeridos por el
sistema de monitoreo de rendimiento varían según el tipo de monitor. De cualquier
modo, a pesar de los diferentes tipos de monitores, el rendimiento no es medido
directamente. En lugar de eso, mediciones de fuerza, desplazamiento, o volumen,
velocidad del flujo de material, contenido de humedad del grano, velocidad de cosecha
y ancho de labor son combinados para producir una estimación de rendimiento de
cultivo. El rendimiento del cultivo es un valor derivado o calculado. La calibración es
ejecutada para asegurar que el dato del sensor y datos ingresados son usados

111
apropiadamente por el monitor para producir el dato final en unidades de kilogramos
por hectárea. Antes de comenzar a cosechar con el monitor, este debe calibrarse
correctamente para que los datos entregados y grabados sean precisos y confiables. La
calibración comprende la selección de constantes y procedimientos para determinar
coeficientes de calibración y convertir las señales eléctricas medidas en parámetros
deseados.

Calibraciones previas a la cosecha:

 Calibración por vibración (hay que controlarla cada vez que se repare o
modifique la máquina pero básicamente es una vez por campaña).
 Calibración de distancia (cuando se cambia el rodado o bien cuando las
condiciones de piso de cosecha cambian bruscamente, pero por lo general es una
vez en la campaña).
Calibraciones durante la cosecha
 Calibración del sensor de altura del cabezal (cada vez que se cambia de cultivo).
 Calibración de humedad de grano.
Se debe comparar la medida determinada por el monitor de rendimiento con respecto a
determinaciones de otro medidor externo de humedad cuyas medidas hayan sido
verificadas en su precisión. Se controla cuando varía mucho la humedad del grano.
 Calibración del peso del grano.
Antes de realizar esta operación se debe haber realizado la calibración de humedad. El
monitor se calibra sobre la base de pesos actuales que se le ingresan, estos se obtienen
pesando el grano cosechado en una carga, en una balanza precisa.
Para realizar la calibración de peso son de suma utilidad las tolvas autodescargables con
balanza electrónica, de esta manera se independiza de la existencia de una báscula
cercana al lugar de cosecha. Si todos estos pasos son realizados correctamente
estaremos en un nivel de precisión del rendimiento corregido por humedad menor al
2%, lo que ubica a los datos obtenidos como muy útiles para ser utilizados en el
diagnóstico del gran cultivo. Se considera aceptable una precisión del monitor de hasta
el 5%. Esta calibración debe realizarse cada vez que se cambia de cultivo, cuando el
cultivo varía mucho en la humedad del grano (sale de lo normal, o sea que esta por
arriba del 20 o 25%).

Datos extraídos de la pagina www.agriculturadeprecision.org Ing. Agr. Mario Bragachini, Ing. Agr.
Andrés Méndez, Ing. Agr. Fernando Scaramuzza.

112
Existen diferentes marcas y modelos de monitores de rendimiento, y entre los mismos
varían los sistemas de medición de flujo, la forma y lugar de medir la humedad, la
interfase con el operador en la consola, la manera de calibrar, etc., pero los principios y
el objetivo son coincidentes para todas las opciones del mercado.
Además se debe chequear el normal funcionamiento de:

 La velocidad del sensor de rueda.


 Del receptor GPS.

Otros datos que deben ingresarse serán:

 Ancho de cabezal (muy importante)


 Establecimiento.
 Lote.
 Propietario.

A modo de práctica, realizamos un mapa de rendimiento, un mapa de humedad del


grano, y un mapa de elevaciones, como mencionamos utilizamos el Software AFS de la
empresa CASE.

El programa requiere realizar una serie de pasos para la visualización de los datos,
primero se deberá bajar el archivo de la tarjeta a una PC, luego dentro del Software se
selecciona la marca de cosechadora utilizada y la extensión correspondiente del archivo
a utilizar. En nuestro caso, la cosechadora es una CASE y la extensión del archivo .yld.
Los siguientes datos deben ser cargados al momento de la realización del trabajo en el
campo ejemplo:
 Labor: cosecha de trigo.
 Fecha: 17 diciembre de 2005
 Establecimiento: Los Naranjos
 Lote: 24.

Al abrir el archivo lo primero que se puede observar es una tabla que tiene la
información de los puntos relevados:

Masa
Volumen
Longitud Latitud Elevación Fecha de Humedad rendimiento
estimado
(grados) (grados) (m) cosecha (%) Seco
seco (L/Ha)
(Tn/Ha)
1 -63,05096 -35,2803 124,60 17/12/2005 15,10 0,810 1048,7
2 -63,05097 -35,2803 124,60 17/12/2005 15,10 3,085 3994,5
3 -63,05098 -35,2802 124,50 17/12/2005 14,60 4,997 6470,6
4 -63,05098 -35,2802 124,50 17/12/2005 14,00 3,685 4770,9
5 -63,05099 -35,2802 124,40 17/12/2005 13,90 3,079 3986,8
6 -63,05100 -35,2802 124,40 17/12/2005 14,20 3,388 4386,3
7 -63,05101 -35,2802 124,40 17/12/2005 14,60 2,348 3040,0
8 -63,05102 -35,2802 124,40 17/12/2005 14,80 2,116 2740,2
9 -63,05103 -35,2801 124,50 17/12/2005 15,10 2,250 2913,0
10 -63,05104 -35,2801 124,30 17/12/2005 15,20 2,712 3511,0

113
La idea es visualizarlos solamente, por ello adjuntamos sólo 10 puntos de la tabla, con
la información que trae cada uno. El archivo del lote en estudio cuenta con una cantidad
de 36881 registros espaciales, como el lote tiene aproximadamente 25 Ha, la cantidad
de registros por Ha son alrededor de 1440, aproximadamente un registro cada 7 metros
cuadrados.

El Software permite realizar un pequeño resumen de información de interés para el


productor, que mostramos a continuación.

Agricultura de
Agricultor:
Precision TP
Año: 2005
Cosecha de
Operación:
granos
Producto: TRIGO

Granja Lote Carga / Área Humedad Peso estimado Masa de rendimiento Cargas
Región(es) promedio (húmedo) est. (en seco) de cal.
Ha % toneladas toneladas/ha
Los Naranjos F24 1 26,35 12,40 63,68 2,417 0

Totales 1 26,35 12,40 63,68 2,417 0


Promedio Promedio

114
Los siguientes son mapas temáticos, que cuentan con sus correspondientes referencias.
Cada uno de ellos está generado tomando como criterio algunos de los atributos
relevados por los sensores en el momento de la cosecha.

(Mapa temático sólo ilustrativo)

115
Todos estos datos, visualizados tanto en tablas, como en resúmenes informativos y en
mapas permitirán realizar un estudio adecuado de la campaña. Pero este estudio, como
se mencionó durante todo el trabajo forma parte sólo de un cultivo, y para lograr tomar
buenas decisiones es necesario poder vincularlo con cultivos y campañas anteriores, con
datos de muestreos de suelos, con mapas de suelo, con fotografías e imágenes aéreas
etc.
Para poder vincular la información de distintos años de trabajo, como así también poder
vincular distintos tipos de información es necesario la realización de un Sistema de
Información geográfico. El objetivo de este trabajo Final, fue ver de que manera la
Agrimensura puede colaborar con las técnicas de Agricultura de Precisión, es decir no
tenemos como objetivo realizar un SIG, pero creímos apropiado, en este capítulo,
utilizar el Software ArcView, y armar una pequeña base de datos en la que vinculamos
superficies de lotes, alambrados, altimetría, y también agregamos el mapa de
rendimiento de maíz de uno de los lotes.
A continuación adjuntamos algunas de las vistas generadas en dicho Software.

(En este mapa se puede


visualizar el establecimiento,
con la división física de sus
lotes mediante alambrados)

Establecimiento La Josefina

Referencias (Ha)
0 - 40
40 - 100
100 - 200
200 - 280

W E

Trabajo Final: Ingeniería en Agrimensura

Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco 116
(En el segundo mapa se
Indica el lote en estudio, y luego
Se indica el mapa de rendimiento
De la cosecha de maíz de la campaña
2007/2008)

Lote en Estudio

Referencia
Lote 32

W E

Trabajo Final: Ingeniería en Agrimensura

Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco

Rendimiento Maíz (lote 32)

Referencias
Rinde (Kg/Ha)
3.23 - 5.21
5.21 - 8.53
8.53 - 11.19
11.19 - 13.71

W E

Trabajo Final: Ingeniería en Agrimensura

Burgos Federico
3000 0 3000 6000 Meters Ferri Silvina
Malacrida Francisco

117
CAPÍTULO VII

118
Estandarización de la información

"Ajustar a un tipo, modelo o norma"

Diccionario Enciclopédico de la lengua española

119
La normalización o estandarización es la redacción y aprobación de normas que se
establecen para garantizar el acoplamiento de elementos construidos
independientemente. La asociación estadounidense para pruebas de materiales (ASTM),
define la normalización como el proceso de formular y aplicar reglas para una
aproximación ordenada a una actividad específica para el beneficio y con la cooperación
de todos los involucrados. Según la ISO (International Organization for Standarization)
la Normalización es la actividad que tiene por objeto establecer, ante problemas reales o
potenciales, disposiciones destinadas a usos comunes y repetidos, con el fin de obtener
un nivel de ordenamiento óptimo en un contexto dado, que puede ser tecnológico,
político o económico.
La normalización persigue fundamentalmente tres objetivos:
 Simplificación: Se trata de reducir los modelos quedándose únicamente con los
más necesarios.
 Unificación: Para permitir la intercambiabilidad a nivel internacional.
 Especificación: Se persigue evitar errores de identificación creando un lenguaje
claro y preciso
Las elevadas sumas de dinero que los países desarrollados invierten en los organismos
normalizadores, tanto nacionales como internacionales, es una prueba de la importancia
que se da a la normalización.

¿Por qué estandarizar la información en la Agricultura de Precisión (AP)?

El hecho de que la AP se apoya en altos volúmenes de información para ajustar y


optimizar un adecuado diagnóstico agronómico, hace que por lo menos se considere
reunir toda esta información adecuándola a un determinado modelo que permita una
fluidez en el manejo, interpretación y vinculación de la información.

Nuestro propósito es dar una recomendación, desde nuestro punto de vista, de cómo
creemos que podría ser un modelo para el manejo de información georreferenciada,
que facilite la obtención de los siguientes objetivos:

 Fluidez de información
 Interpretación adecuada
 Vinculación rápida y precisa
 Gestionamiento de información confiable.

Para ello, creemos que debemos antes que nada, determinar el tratamiento a aplicar a
cada uno de los datos con los que se cuenta.
Por ejemplo, las coordenadas son las entidades básicas a conocer para relacionar toda
aquella información con la que se cuenta; si éstas se obtienen sin considerar el sistema
de referencia al cual pertenecen, y su fin sea sólo servir de apoyo a la representación de
alguna característica del lote en forma eventual, entonces podríamos estar ante el
peligro de perder esta información a futuro, es decir, la utilidad del punto levantado
quedaría restringido a un sólo uso que desaprovecharía cualquier relación futura, con
otros datos actualizados.

120
Si tan sólo se especificaran las características del punto (tipo de coordenada, sistema de
referencia, marco de referencia, proyección cartográfica, precisión absoluta del punto,
etc.) nos estaríamos asegurando mas tarde, que dicha información no quedaría atrapada
en el tiempo, ya que tendríamos la opción de manejar a la misma de manera confiable,
correlacionándola con otras bases de datos georreferenciada y aportando al estudio
estadístico del predio o el lote, estimando el comportamiento natural de esté en distintos
lapsos de tiempo, contribuyendo a ajustar un mejor diagnóstico por parte de los
agrónomos.
La idea recae en, no sólo asegurarnos relacionar la abundante información para una
época determinada, sino poder construir en el tiempo, una correcta y actualizada base de
datos que sirva de apoyo a las futuras decisiones que puedan tomarse sobre el lote.
Para que todo esto sea posible, se hace evidente una necesaria forma o modelo de
información georreferenciada a seguir.
Cabe aclarar, que no es nuestra intención "reglamentar" la captura de datos, ya que
justamente radica ahí el potencial de la agrimensura, de poder interpretar, determinar y
vincular toda información territorial, pudiendo provenir de los más variados orígenes.
En rigor, lo que planteamos acá es, como toda esta información podría expresarse de
una sola forma, es decir, el resultado final tendría que contar con unos requisitos que
puedan asegurar todas las ventajas antes mencionadas.
Tratar de determinar este modelo será el objetivo de este capítulo.

***
Citando nuevamente a Emilio Gil, sus palabras recaen sobre los problemas con los que
en la actualidad se encuentra la AP:
La agricultura de precisión se muestra como una de las mejores herramientas a utilizar
en los sistemas productivos del tercer milenio como consecuencia de la optimización de
los inputs (*), la reducción de costes medioambientales, el incremento de la precisión
en la producción y la incorporación de la trazabilidad en el proceso, término de
creciente demanda por parte del consumidor y la legislación en general. Sin embargo
existen tres barreras importantes que deben ser solucionadas antes de su plena
implementación:
1. La agricultura de precisión implica "intensidad de información". La elaboración de
mapas de suelos, cultivos, rendimientos y factores ambientales que afectan a la
producción final genera un elevado volumen de información que junto con los
conocimientos propios derivados de la experiencia, las variabilidades climáticas y
las exigencias del mercado hacen imprescindible el desarrollo de herramientas de
integración de la información y sistemas expertos de soporte a las decisiones,
debiendo estos en cualquier caso presentar unas condiciones de estandarización
de datos y transferencia de información adecuados.
2. Se observa actualmente un déficit en cuanto a los criterios de selección de los
procedimientos racionales a aplicar y las estrategias a seguir para la
determinación de las necesidades basadas en la variabilidad intraparcelaria, así
como una ausencia de validaciones científicas en cuanto a los beneficios generados.
Estas deficiencias deben subsanarse apoyándose irremediablemente en análisis
detallados del suelo y del cultivo, así como en trabajos de investigación y
experimentación agronómica.
(*)Sistema de entrada de información. Económicamente hablando es un elemento que participa en un
determinado proceso productivo

121
3. La obtención de datos relativos al suelo, cultivo y condiciones ambientales en
general resulta todavía una labor costosa en tiempo e inversión. Es preciso el
desarrollo de sistemas de sensores capaces de generar de forma precisa, rápida y
barata la información necesaria. Hasta no se solucione el problema de la
adquisición de datos, la agricultura de precisión no podrá practicarse de forma
generalizada.
Se trata por tanto de una actuación multidisciplinar que involucra sectores como el
agronómico, el informático, el mecánico y el electrónico. Es preciso pues el desarrollo
de actividades de investigación de este nuevo, y al mismo tiempo antiguo, sistema de
producción.

En la actualidad, la información adquirida es tratada con un criterio ocasional o de


importancia relativa, si hablamos en un tono general.
Es decir, la calidad del posicionamiento de cada variable considerada para el estudio
agronómico del lote, no es prioridad para el resultado final que se puede materializar en
un mapa de prescripción.
Que esto sea así, no genera en nosotros una crítica terminante, sino todo lo contrario,
entendemos que suceda esto ya que la agricultura de precisión en nuestro país se
encuentra en una etapa de adopción de todas estas tecnologías. Es lógico que lo que se
busca actualmente con todo esto, son rápidas respuestas en lo productivo y una mejora
en la relación costo-beneficio, es por ello que los datos se obtienen y procesan con la
rapidez necesaria para dar, al productor y a los agrónomos, las respuestas que ayuden al
entendimiento actual del lote, y no se ha generalizado aun la idea de que toda esa
información pueda convertirse luego en algo más que una experiencia aislada.

Si esta actividad logra acaparar la atención, no solo de todos los productores del país
sino también del mismo Estado (como está sucediendo en Brasil), entonces la AP podría
presentarse como una poderosa herramienta que permita perfeccionar la actividad
agrícola nacional.
Si esto sucediese, entonces no es descabellado que empecemos cuanto antes a tratar de
juntar toda la información que hoy nos proporciona la AP, ubicándola en un modelo
único.

***
Dificultades concretas presentadas a un profesional de la Agrimensura:

Algunas de las falencias o inconvenientes que se les presentaron tanto a productores,


contratistas como a los ingenieros agrónomos y que hicieron necesario recurrir a
profesionales de la agrimensura para solucionarlos fueron:

 La falta de idoneidad en la superposición de cartografía.


 Pretender trabajar con distintos tipos de coordenadas (elipsóidicas, cartesianas,
etc.).
 Trabajar en una determinada faja sin considerar la adecuada para cada zona, lo que
implica no contemplar los errores de proyección cometidos.
 Desconocer los sistemas de proyección y la vinculación de coordenadas en distinta
proyecciones.
 Desconocer la existencia de distintos sistemas y marcos de referencia.

122
Una situación que refleja lo anterior es utilizar un navegador para encontrar un punto
cuyas coordenadas fueron extraídas de una carta del IGM (marco de referencia CAI69),
sin tener en cuenta que superficie de referencia esta seleccionada en ese momento en el
instrumento, por ejemplo: si estuviese en WGS ´84, representaría una diferencia de
aproximadamente 200 metros, lo cual probablemente nos estaría situando el punto
fuera de la propiedad.

La coordenada como elemento imprescindible:

Como mencionáramos varias veces en este trabajo, el correcto manejo de las


coordenadas guarda en sí, toda una labor profesional que asegura una correcta
correlación de información actual y futura.
Las coordenadas, a pesar de ser la figura principal o la más importante dentro de su
formación, escapan a esta temática. La base fundamental de todo este proceso en la AP
está conformada a través de recolección de información de distintas fuentes, la única
manera de poder vincular toda esa información es por intermedio de las coordenadas
Si bien el ingeniero agrónomo aparece como figura fundamental en el proceso de la AP,
queremos destacar que hay otros profesionales que intervienen en mayor o menor
medida sin dejar de ser imprescindibles para que la finalidad de este proceso se lleve a
cabo.
Para que el agrónomo se pueda desempeñar correctamente en sus tareas, es necesario
que toda información manipulada esté vinculada, esa vinculación puede lograrse
únicamente a través de coordenadas unívocas que en este caso es generada por los
GNSS.
***

Modelo de Información Final

Para la elaboración del modelo final, es necesario que toda aquella información a
vincular, cuente o se conozcan por lo menos las siguientes características:

1. Si son coordenadas:
 Tipo de coordenada y sistema de referencia al cual pertenece.
 Precisión estimada con la que se obtuvo.
 Instrumental utilizado en el relevamiento.
 Época de medición.
 Metodología aplicada para su levantamiento.

2. Si fuesen imágenes satelitales y/o fotografías aéreas:


 Escala.
 Empresa o entidad proveedora de la imagen.
 Fecha de captura

3. Cualquier otra información cartográfica:


 Escala.
 Proyección utilizada para su determinación.
 Sistema de referencia utilizado
 Marco en el cual está apoyado.
 Año de realización
 Entidad elaboradora de la cartografía.

123
Una vez conocidos estos elementos básicos, se procederá al armado y proceso de llevar
todo a un único Sistema de Referencia, apoyando toda la información bajo el actual
Marco de Referencia oficial existente del país.
Para ello, las coordenadas serán transformadas al sistema que corresponda.
Las fotografías e imágenes satelitales serán georreferenciadas en el mismo sistema de
referencia establecido, mientras que la cartografía se llevará toda a una proyección
determinada.

***

Cuestiones a considerar para el modelo estandarizado de información

¿Qué sistema de referencia se tomará como único?

A nuestro criterio, será el Elipsoide de Referencia WGS´84, porque es la superficie


matemática usada a nivel mundial.

¿Qué marco de referencia será el adecuado para apoyar toda la información?

Creemos que la mejor opción es apoyarse sobre el marco oficial que hoy tiene nuestro
país, POSGAR´94, que como se determinó en el Capítulo Conceptos Aplicados, no
necesariamente es el marco mas preciso, simplemente se debe a que actualmente se
vinculan todos los trabajos topográficos y geodésicos a nivel nacional a este por una
necesidad de cumplir las normas vigentes.

¿Qué proyección será la más conveniente para el armado de la cartografía?

La proyección plana conforme más conveniente es la cilíndrica transversa de Gauss, en


sus dos variantes:
• Gauss Krüger (empleando un cilindro tangente al meridiano)
• UTM (Universal Transversa Mercator) haciendo el cilindro secante al elipsoide.

Dado el mayor uso de la proyección Gauss Krüger en nuestro país, para la generalidad
de los casos, se aconseja el empleo preferencial del ella, en la faja correspondiente.
Solo en el improbable caso de una extensión preponderante en dirección E-W que pueda
tener un lote, aconsejamos el empleo de UTM.

¿Cómo se expresarán las coordenadas?

 X, Y: Coordenadas planas resultantes de una proyección cartográfica

 H: Altura Ortométrica - Altura s/nivel del mar

 φ, λ, h: (Latitud, Longitud, Altitud geodésica). Coordenadas geodésicas o


elipsoidales

 N, E, Cota: (Norte, Este, Cota del punto). Coordenadas rectangulares y altura en


un sistema local.

124
¿Qué otros datos serán necesarios considerar?

Parecerá una obviedad mencionaros, pero no deben escapar de esta propuesta:

Lugar (ubicación geográfica)


Nombre del establecimiento o predio
Fecha
Nombre del o los propietarios
Profesional/les agrónomos a cargo

Considerando también, todos aquellos datos que faciliten una perfecta ubicación del
lugar, del tiempo o época e que se trabajo, de las personas actuantes, etc.

***

Interrogantes a futuro:

¿Dónde se acumularían entonces, toda esta información estandarizada?


¿Quiénes tendrían acceso a ella?
¿Quién administraría y gestionaría su utilización?
¿Cuáles serían los objetivos finales de esta base de datos?

Casi toda la información que se recolecta hoy en día, tiene ciertas características que
surgen por su utilización, es limitada a un uso particular y muchas veces se confina a
una solución determinada.
Desde nuestra posición, creemos que la tendencia de esta actividad no podrá quedar
limitada al uso de particulares (empresas privadas, pooles de siembra, etc.), sino que en
un futuro todo este volumen de información podría ser usado a nivel Estado, para el
mejor entendimiento de la productividad de sus suelos y una correcta planificación
agrícola.

Aún así, en el contexto actual, la estandarización de información es una necesidad, dado


que existen una cantidad importante de empresas que con software propios, procesan
información que resultan de difícil manipulación al querer relacionarlos con otros datos
de otras empresas.

125
CAPÍTULO VIII

126
Perspectiva y futuro de la Agricultura de Precisión en Argentina

“Todos los problemas son problemas de educación”.

Domingo Faustino Sarmiento(1811-1888).

127
¿Por qué es necesaria la agricultura de precisión en nuestro país?

Mucho se ha dicho de los alcances de la agricultura de precisión, cuales son las


tecnologías empleadas para llevarla a cabo, que mejorías económicas pueden traer al
productor que haga uso de ella, las soluciones que plantea al cuidado del medio
ambiente, etc. Pero poco o casi nada se dice del futuro de la misma en nuestro país, que
proyección tienen los productores en cuanto a su uso y que ventajas y desventajas
presenta nuestro país en relación a otros para su implementación optimizada.

Sin duda, actualmente, en el momento en que se escriben estas líneas, la situación de la


actividad agropecuaria ha entrado en un proceso de conflictividad importante con la
dirigencia a cargo de la nación, enfrentamientos que hoy confunden a todos y a cada
unos de los argentinos, que ha impuesto en la sociedad distintas opiniones
determinantes que avalan a una de las partes y condenan a la otra.
Todos los días se suceden distintas informaciones que apoyan una causa y reniegan de
la otra confundiendo aún más a la opinión pública. Es casi nula la responsabilidad de los
medios en el momento de tratar la problemática, convirtiendo al conflicto en un
problema entre sectores sin relación alguna, es mínima la información a través de los
medios encargada de informar lo que sucede mediante una investigación rigurosa y
objetiva, en cambio lo que se escucha diariamente son palabras tales como:

“El campo miente y cada uno de ellos pertenece a la oligarquía terrateniente”

O bien

“Los gobernantes son todos ladrones, el mercado debería ser libre sin control alguno del
Estado y estamos perdiendo una oportunidad única”

Estos son solo algunos ejemplos de muchos que cotidianamente manejan la información
y opinión pública, que si analizamos bien por los menos a estas dos ejemplos nos damos
cuenta enseguida de la deformación y aberración que se hace sobre las instituciones y el
prestigio de cada una de ellas. La facilidad con la que se encuadra a cada parte del
conflicto es, por lo menos alarmante, al decir por ejemplo “El campo miente…..”,
¿Qué clase de frase u opinión es esa?
¿Quiénes son los que mienten y hasta donde llega esa acusación tan peligrosa como
vulgar?

Desgraciadamente, que dicha expresión surja de un ciudadano disconforme y con poca


responsabilidad civil sería hasta aceptable, lo que en realidad sucede es que esa idea
parece estar instaurada en algunos miembros de dirigencia actual, que ha hecho de la
palabra “oligarquía” su eslogan favorito al acusar y hablar acerca de su “adversario”.
También está la otra cara del asunto, la de detractar tan libremente al gobierno y a sus
integrantes, haciéndolo siempre con una seria irresponsabilidad agrandando cada día
más la desconfianza sobre una institución tan importante como lo es el Estado mismo,
del cual formamos parte cada uno de los argentinos.
Otro asunto inentendible es el de asegurar que la Argentina pierde con todo este
conflicto una oportunidad única en la historia, por el precio de los llamados
commodities y por la fuerte demanda de granos a nivel mundial.
En rigor, dicha oportunidad solo se refiere al plano económico obviamente, dejando la
idea aparente de que si no aprovechamos esta coyuntura habremos “perdido el tren”.

128
Queremos creer que el futuro y desarrollo de un país no puede nunca ajustarse
solamente a una situación mundial determinada, porque entraríamos en el plano
del oportunismo y el cortoplacismo, dejando de lado proyectos a nivel nacional con
rentabilidades a largo plazo.

Si bien es cierto que la actividad productiva primaria de Argentina en la actualidad se


encuentra en un mercado con muchas posibilidades de crecer, también es correcto
pensar que toda una nación no puede depender solo de dicho contexto económico ya
que las oportunidades, proyectos y las instituciones por sobre todo, deben y deberán
estar y actuar siempre mas allá de las circunstancias que pudieran presentarse.

No es correcto esperar las oportunidades, sino salir a buscarlas.

Como decíamos anteriormente, al hablar del Estado parece ser que nos referimos a un
ente que quiere aprisionarnos a su voluntad, a través del pago de impuestos y el
cumplimiento de las reglas que de él surjan, haciendo esto siempre como una mera
obligación, sin tener en cuenta las responsabilidades y derechos civiles que nos
pertenecen y que hacen que el Estado solo sea posible con la cotidiana participación de
todos.
Se ha perdido aparentemente la memoria colectiva y en cambio sólo existe el facilismo
de opiniones sin sustento alguno, pero con mayor impacto.

¿Cómo es posible que se separe tan determinantemente las posiciones en el actual


conflicto?

Es evidente que existen conveniencias particulares y que de ahí nacen las opiniones mal
intencionadas, relatadas como verdades únicas. La masa receptora de tales opiniones no
tiene otra salida que hacer de ellas sus opiniones irrefutables, llegando a ser manipulable
por cualquier “payaso” informativo, que solo Dios sabrá que fines acarrea al hacer esto.

La única verdad, es que dicho conflicto tal como está presentado no logrará hacer
ningún bien ni a corto ni mediano plazo para solucionar los problemas que enfrenta hoy
nuestro país. Mucho menos bien hará a largo plazo si la problemática como está
planteada la consiguiera ganar alguno de los aparentes “sectores” que hoy en día se
presentan como blanco y otro negro. El daño seria irreparable a futuro porque al final de
cuentas no se alcanzaría a ver en su total magnitud el problema más grande que acarrea
la Nación Argentina y es el de la desaparición del Estado y sus instituciones como
elementos fundamentales de desarrollo, la desconfianza en cada una de ellas crecerá
cada día mas y será inevitable la perdida de credibilidad no solo en las instituciones sino
también de cualquier ideología que apunte a fortalecer la Nación.

Somos todos responsables de lo que pueda suceder y no hay lugar a dudas que el fin sea
el de fortalecer al Estado y a la Nación mediante la participación civil que nos atañe.

El sector agropecuario incumbe a todos y cualquier gobierno deberá responder no


sólo por él, sino por todas las otras actividades productivas, buscando una mejora
en sus condiciones y apuntar al desarrollo sostenido de todas ellas. No puede existir
una separación entre sectores, porque sería absurda su realización tal como hoy la
vemos.
***

129
Parece imposible por todo lo dicho, que en la actualidad y a mediano plazo surjan del
Estado normas y leyes que promuevan al nacimiento de instituciones dedicadas a la
investigación y desarrollo de la agricultura de precisión, presentándola como una
herramienta fundamental para la optimización en el uso del suelo, su cuidado y su
sustentabilidad productiva a futuro.

Citando a Otto Solbrig (*), en donde sus palabras detallan el cuidado de la economía
agrícola para el entendimiento de la necesidad de tomar medidas urgentes:

“Sin lugar a dudas uno de los mayores problemas es el que resulta casi invisible y del
que se habla poco: la erosión de los suelos agrícolas. A través de los siglos, las
montañas son niveladas y de la deposición de sedimentos crea nuevas tierras. La
pampa argentina es el resultado de la erosión de las sierras pampeanas y de la
cordillera, y del arrastre de esos sedimentos por agua y por el viento. Basta solo
observar cómo el delta del Paraná se va extendiendo constantemente hacia el Río de
La Plata para tener conciencia de la fuerza de la erosión.
La agricultura, sobre todo la agricultura convencional, incrementa la erosión de los
suelos enormemente, entre 10 y 15 veces la tasa natural dependiendo de la pendiente.
Aun con agricultura conservacionista, como la siembra directa, la tasa de erosión es
mayor que la natural. En todos los suelos con una pendiente mayor a cinco grados, la
tasa de erosión –incluso con siembra directa- es mayor que la tasa de formación de
nuevos suelos, lo que significa que eventualmente las tierras con pendientes mayores a
los cinco grados –que son el 70% de la tierra arable del planeta- se degradaran y
deberán ser abandonadas. Los suelos erosionados pierden productividad hasta que
eventualmente deben ser abandonados por improductivos. Se calcula que entre uno y
tres millones de hectáreas se abandonan anualmente debido a la erosión.
La falta de conciencia sobre este problema se debe a que se puede reemplazar la
productividad perdida mediante el uso de fertilizantes químicos. Pero el uso masivo de
fertilizantes crea problemas de contaminación y aumenta los costos de producción.
En Europa, donde muchos suelos están erosionados, se utiliza en promedio diez veces
mas fertilizante que en la Argentina. Sin los subsidios que reciben los productores,
muchas tierras en Europa se abandonarían, porque los costos de producción sin
subsidios no serían competitivos.
La Argentina ha perdido muchas tierras en la Patagonia, degradadas debido a la
erosión causada por el sobrepastoreo que expone los suelos a la acción del viento. Lo
mismo en el monte y en la zona oeste de la pampa. En la pampa ondulada se pierden
suelos debido a la erosión hídrica.
La siembra directa es una técnica muy importante para combatir la erosión de los
suelos y la Argentina es un líder mundial en el uso de esta técnica. Pero no es
suficiente con siembra directa. Hay que adoptar un paquete de medidas que incluyan la
rotación de cultivos, cultivar de acuerdo con curvas de nivel y, en tierras con pendiente
como la pampa ondulada, hay que hacer camellones y terrazas. De no tomar medidas
contra este flagelo, un día nos quedaremos sin lo más precioso que tenemos: la tierra
agrícola.”

(*)Profesor emérito de Biología Evolutiva, Harvard University. Especialista, de reconocimiento mundial,


en medioambiente mundial

130
No es de nuestro interés hacer publicidad de las tecnologías y herramientas que usa en
la actualidad la agricultura de precisión, menos aún de las empresas que ofrecen
determinados servicios.

Pero al menos debemos mencionar o proponer desde nuestra perspectiva que la AP a


futuro ya no deberá ser considerada como una actividad con fines privados o con
objetivos particulares, porque como vimos en todo este trabajo, sus alcances pueden ser
de los más variados yendo mucho más allá de lo económico.
En rigor, nos resulta necesario mencionar que en un tiempo no muy lejano, sería lógico
considerar una adecuada política de Estado que considere a esta actividad como una
herramienta fundamental de sustentabilidad y cuidado de los suelos, dado que la
información, instrumentales, metodologías y los recursos humanos con los que cuenta
(y podría contar) podrían fácilmente aportar al alcance de estos fines o propósitos, y que
siendo reiterativos, serán fines infinitamente más elevados que los que se persiguen
actualmente.

Una de las decisiones claves que tienen que tomar los productores que quieran adoptar
la AP es si van a contratar los servicios, o si se van a capacitar para desarrollar por sí
mismos las habilidades necesarias para la recolección de datos, análisis y manejo de la
variabilidad. En ciertos casos, los contratistas pueden ofrecer el servicio en forma más
económica, como ser cuando se exige una gran inversión de capital que debe
distribuirse sobre varios campos para que sea rentable. Ej.: una cosechadora con
monitor de rendimiento y GPS.
En otros casos, la decisión es una cuestión de tiempo disponible, y como todo productor
ya sabe, el tiempo es dinero.

Hay dos factores principales a considerar: ¿hay contratistas en tiempo y forma?; ¿se
cuenta con la mano de obra necesaria para hacer el trabajo extra que requiere la AP?
Por lo general, se limita a una elección entre dos opciones, una de bajo nivel
tecnológico que requiere más tiempo, y otra de alto nivel tecnológico que es más
rápida, pero más cara. También se debe tener en cuenta la calidad y la confiabilidad del
trabajo realizado.
El tiempo también tiene un costo de oportunidad asociado, como lo es en el caso del
capital. En el momento de la siembra y de la cosecha el costo de oportunidad del
tiempo es muy elevado, mientras que en el resto del año es mucho menor.

En el caso de aquellas tareas que exigen el desarrollo de nuevas habilidades, como lo es


el análisis de los datos del monitor de rendimiento, se tendrá que tomar una decisión
estratégica entre contratar el servicio o realizarlo dentro de la empresa. Comparado con
los otros costos de producción, el costo de una computadora y de un software para el
análisis de datos no es elevado, pero el tiempo y esfuerzo requeridos para realizar el
análisis puede ser alto.
La AP puede ser analizada como cualquier otra tecnología innovadora. La información
es un insumo en el proceso productivo, tal como lo son la semilla, el fertilizante, los
agroquímicos o el combustible. La información tiene valor si conduce a tomar mejores
decisiones. Si la información se usa por varios años, debe ser tratada como cualquier
otro bien de capital. En la mayoría de los casos es más difícil estimar los beneficios que
los costos de la AP. La rentabilidad de la AP es específica de cada sitio, por lo que los
márgenes varían entre sitios debido a la variabilidad de los suelos, historia de manejo,
microclima y otros factores.

131
Limitantes para la adopción

Griffin et al. (2004) identificaron algunas limitantes claves para la adopción de la AP,
comparando el caso de la biotecnología y el de la AP. La pregunta clave que los
usuarios actuales y potenciales se formulan es si las estrategias de manejo basadas en el
“conocimiento intensivo” son rentables, o si es mejor continuar con la estrategia de usar
el “conocimiento empaquetado”.
El “conocimiento intensivo” se refiere a las estrategias de manejo que dependen de
datos a nivel del lote y del establecimiento para tomar decisiones sobre aplicación de
insumos y prácticas de cultivo. Esos datos pueden ser obtenidos manualmente o
electrónicamente. Ejemplos del uso del “conocimiento intensivo” son la dosis variable
de fertilizantes y la densidad de siembra variable.
Por otra parte, en las estrategias de “conocimiento empaquetado”, la información se
compra en forma de insumo, y el usuario (productor) requiere una cantidad mínima de
datos adicionales, como por ejemplo, el maíz Bt y la soja Round-up Ready. Para aplicar
exitosamente estas nuevas tecnologías se necesitan relativamente pocas habilidades,
porque la tecnología viene en forma de “conocimiento empaquetado”, y no requiere la
compra de nuevos equipos ni de conocimientos adicionales para el manejo del cultivo.

Las tecnologías basadas en el “conocimiento intensivo” que caracterizan a la AP no sólo


requieren una inversión en tiempo, sino que también son sensibles a la escala. Para un
productor que gasta unos USD 200.000 en un equipo de cosecha, el monitor de
rendimiento con GPS representa tan sólo el 3,5% de la inversión. Sin embargo, la
diferencia radica en el área sobre la que se pueden distribuir los costos, incluido el
costo del capital humano. Por ejemplo, si alguien se capacita para interpretar mapas de
rendimiento para un establecimiento de 2.000 ha, seguramente lo va a poder hacer
también sobre 20.000 ha, pero el costo por ha va a ser mucho menor.

Incentivos para la adopción

Hay muchos estudios que dan razones para no adoptar la AP y son pocos los que la
incentivan (Griffin et al., 2004). Sin embargo, hay que tener en cuenta que los costos de
la tecnología de la información (hardware y software) están en constante disminución, a
la vez que su capacidad está en aumento. En el mundo actual, la gente incorpora cada
vez más la tecnología de información a sus vidas cotidianas, como ser las
computadoras, el GPS y los teléfonos celulares.
En los países del Cono Sur de América, los incentivos para adoptar la AP vienen más
por el lado del monitoreo y gerenciamiento de la producción y de los operarios, que por
el lado de la dosis variable. Por ejemplo, en Argentina, la alta adopción del monitor de
rendimiento antes que de la dosis variable, se debe a que ha probado ser una excelente
herramienta de diagnóstico agronómico y de administración de la maquinaria agrícola.
Además, los beneficios de los sistemas de guía por GPS con respecto a la reducción de
superposiciones y de áreas mal aplicadas son claros en Argentina y Brasil, donde se
aplican grandes superficies.

***

132
Experiencias del 8° Curso de Agricultura de Precisión

(Realizado en el INTA Manfredi, Provincia de Cordoba, los días 14,15 y 16 de Octubre


de 2008)

Desde un principio, nuestro interés por dicho curso, se basó en la idea de poder estar en
contacto directo con personas dedicadas completamente a esta actividad, hablar con
profesionales y técnicos altamente capacitados y autorizados para discutir de la
temática. Lograr esto, nos demostró de forma contundente, que el nivel de
conocimientos adquiridos en todo este tiempo que llevábamos estudiando esta actividad,
fué altamente superior a lo que esperábamos.
Tenemos que mencionar desde luego, que muchas preguntas encontraron respuestas
inmediatamente, no así con otras, ya que nos topamos con cuestiones que creíamos
conocidas o completamente estudiadas, pero al estar allí, eran diametralmente opuestas
a nuestros conocimientos previos.
Es decir, el curso fue positivo en todos sus aspectos, mas allá de las nuevas dudas
generadas por sobreentendimiento de algunas cosas, como ser el verdadero objetivo que
perseguía la Agricultura de Precisión (AP) en nuestro país actualmente.
De todas maneras creemos que la finalidad por la que fuimos al curso, fué lograda en su
generalidad.

Cuestiones como:

¿Está la AP definida en su totalidad?

¿Está todo dicho en la AP?

Según nuestra experiencia, creemos que no; que la AP es una actividad en constante
crecimiento y perfeccionamiento, sucediendo esto en cada vez más países del planeta.
Que en la actualidad, en nuestro país se desarrolla a paso firme y en continua evolución,
no sólo en la ventaja de maquinarias modernas (en calidad y cantidad) con las que se
cuentan sino también a través del conocimiento que crece día a día, en la sociedad y
especialmente en los productores.
En rigor, creemos que en cualquier actividad que se desarrolla y crece, no puede ser
posible que todo lo que incumbe a está, esté completamente concluido, sino todo lo
contrario, se apuntará a perfeccionar a la misma, tendiendo a su evolución permanente.

En el caso de la AP, el perfeccionamiento y optimización no solo se dará en los distintos


dispositivos y maquinarias modernas utilizadas para el laboreo y tratamiento de los
cultivos; desde luego también aparecerá en la forma de obtener, administrar y gestionar
toda la información recolectada por dichas máquinas y por otros medios.

¿El cuidado del recurso suelo, su sustentabilidad y el beneficio económico, son los fines
de la AP?

Ésta interrogante tiene una respuesta de tono relativo. Es decir, dependiendo de la


ubicación geográfica en el que se desarrolle la AP, el fin o las prioridades, se darán de
forma distinta. Por ejemplo, en estos días, en la mayoría de los países europeos que
practican esta actividad, la utilización de la AP tiende a alcanzar estos objetivos, pero la
diferencia radica en que la sustentabilidad productiva del suelo ha pasado a ser la

133
prioridad número uno, debido al laboreo extensivo y pequeñas superficies agrícolas con
las que cuentan.
En cambio, en otras regiones como la nuestra, países como Brasil, Paraguay, Chile,
Uruguay y Argentina, adoptaron esta actividad para mejorar la relación costo-beneficio
en el uso de los distintos insumos para la producción; siendo en estos días la finalidad
en la que se enfoca la AP en nuestro país.

En rigor, el productor en Argentina adopta esta actividad para abaratar gastos


que implica la producción de granos; y no como creíamos al principio, para lograr
una mayor producción.

En conclusión
La experiencia de haber Participado del octavo curso de agricultura de precisión y el
tercero de maquinas precisas, desarrollado en el INTA Manfredi fue sumamente
positiva teniendo en cuenta que somos alumnos de Ingeniería en Agrimensura y
estábamos en un ámbito quizás propio de la Agronomía.
Durante tres días estuvimos involucrados en la realidad actual de la Agricultura de
Precisión en Argentina, interactuando con compañeros del curso, con el personal de
empresas prestadoras de servicios específicos de AP, con productores y hasta con Mario
Bragachini. Además fue muy importante haber presenciado cada una de las
disertaciones y poder sacar algún provecho de cada una de ellas.
El haber realizado este curso nos sirvió para ver realmente donde estamos ubicados, y si
estamos encaminados o no.
Claro está que la técnica AP aplica muchas herramientas que son más cercanas o
utilizadas por Ingenieros Agrimensores que por Ingenieros Agrónomos, pero el fin de
esa utilización es especifico de la Agronomía o mas precisamente de la Agricultura. Es
por ello que quienes hoy se dedican a la AP son mayormente Agrónomos pero
necesariamente debieron adquirir los conceptos de algunas herramientas como los
sistemas de posicionamiento globales, el manejo de coordenadas, manejo de imágenes
(satelitales o aerofotografías), software gráficos ( programas CAD), manejos de
modelos digitales de terreno, etc.
Al hablar con el personal de empresas prestadoras de servicios vimos quienes
manejaban muy bien los conceptos del funcionamiento de cada una de esas
herramientas, pero la mayoría conocía específicamente alguna de las herramientas y que
cada empresa presta algún servicio diferenciado de la empresa vecina, es decir hay
pocas empresas equipos.

La realidad es que la AP es una tarea multifinalitaria, que tiene como fin trabajar
un lote de manera diferenciada, estableciendo ambientes de trabajo (o sub-lotes),
esto es posible debido a la recopilación de información geoposicionada que se hace
en dicho lote y el fin esencial

¿Cuán precisa es la agricultura de precisión?

Algunos han criticado fuertemente la AP por el nivel de tecnología que pueda


requerirse. Sobre este respectó es necesario diferenciar entre dos vertientes; la primera,
fuertemente influenciada por el desarrollo de tecnologías de punta, en consecuencia, se
orienta al uso intensivo de estás. La segunda, donde la visión es más filosófica, teniendo
como elemento base lo relativo a la variabilidad de las condiciones edáficas y las

134
tecnologías disponibles. En este último caso, existen numerosos ejemplos en los cuales
se ha realizado el manejo de los lotes de cultivos sobre la base de las tecnologías
disponibles, que van desde la medición de la ubicación sin uso de GPS (ubicación
relativa), uso de los registros históricos, hasta la aplicación manual de los insumos; lo
importante en este caso, es “hacer lo adecuado, en el momento indicado y en el sitio
correcto”.

Bajo esta óptica, a diferencia de la agricultura tradicional, la AP se aleja, en lo posible,


de los manejos fijos y tiende a la aplicación de prácticas agronómicas, tales como
fertilización, control de malezas, control de plagas y enfermedades, de forma variable
en el tiempo y sobre el potrero o lote de producción, en función del análisis de la
información recolectada
Hoy día muchas herramientas, base de la AP, se han convertido en equipos de uso
cotidiano, entre ellos el GPS y los SIG; adicionalmente, se han desarrollado y
consolidado bases de datos, sistemas expertos y otros procesamientos, y se dispone de
material cartográfico a distintas escalas. Sin duda, todo esto, integrado con el trabajo y
muestreo a nivel de campo, constituye la base para el desarrollo cada vez mas “preciso”
de la AP. De los conceptos de AP se deriva el manejo específico del sitio; con relación a
este tópico, Hancock (2002) ha señalado que la llave para la toma de decisiones para el
manejo específico del sitio es el seguimiento de lo que ocurre en el sitio, para los
pequeños productores la tecnología a emplear es tan simple que un lápiz y papel es
suficiente para almacenar la información del sitio específico, lo que le permitirá realizar
un manejo diferencial sobre la base de las condiciones particulares de su unidad de
producción. En conclusión, la AP rescata la condición local, el manejo de los sistemas
de producción es función de las condiciones locales existentes, evitando el uso de
referenciales tecnológica de manera uniforme en extensas regiones, donde existen
marcadas diferencias en las condiciones ambientales. Por otra parte, la AP incentiva el
uso eficiente de los insumos, busca la mejora económica con el menor impacto en el
ambiente. La AP incentiva al productor a llevar registros cada vez más detallados y
confiables para la toma de decisiones en cuanto al manejo de los lotes de producción.

135
Conclusión

“Sólo hay un bien: el conocimiento. Sólo hay un mal: la ignorancia.”

Sócrates (470 AC-399 AC.). Filósofo griego.

136
La forma en la que vamos a concluir este trabajo, será mediante reflexiones y
razonamientos tanto técnicos como personales:

Conclusiones Técnicas:

Dejaremos plasmado las experiencias que como futuros profesionales pudimos obtener
en el tiempo que estuvimos estudiando esta actividad, contactándonos con otros
profesionales y estudiantes que estaban en menor o mayor medida "metidos" en esta
temática.
Vale recordar que nuestro trabajo se fundamentó siempre en la idea de sentar los
basamentos necesarios para marcar un importante antecedente dentro de esta actividad,
con la esperanza de que pueda perfeccionarse e interiorizarse cada vez más por otros
que sientan la misma voluntad y curiosidad en sumergirse en algo tan nuevo como
desconocido como lo es la AP.
Creo que con esto dejamos claro que todo lo que la Agrimensura pueda hacer en ésta
actividad sobrepasa cualquier tesis o trabajo final, dado que la misma está en continua
evolución y se hace imposible en la actualidad marcar un techo para su alcance.

Técnicamente hablando, los conocimientos adquiridos fueron, de lo matemático a lo


estadístico, de lo agronómico a lo económico y finalmente de lo social a lo político.

Esto demuestra un gran campo de acción dentro de nuestra profesión por la inmensidad
de temas importantes que abarca esta nueva actividad agrícola.

La Agrimensura a recorrido un largo camino a través de la historia y vemos que


generalmente en la actualidad se la relaciona directamente con todo lo tributario o legal,
socialmente puede ser vista como una profesión que tiene como fin, sólo lo atinente a lo
impositivo, es decir, que nuestra acción se limita a determinar límites legales que
puedan representar una forma correcta de establecer y regular el fisco, contribuyendo
cada día al ordenamiento territorial de una jurisdicción o del país entero, dándonos el
conocimiento de la riqueza natural y cultural (antrópica) con la que contamos.
Que no se malinterprete que esta finalidad está siendo subestimada; nadie está diciendo
eso, sería ilógico expresarlo o mencionarlo ya que la sociedad se vale de esto para
conocer la relación jurídica que existe entre las personas y el territorio. Sólo así se logra
la formación de un Estado ordenado territorialmente.
En rigor, entendemos que es natural e inevitable, que el progreso humano, la evolución
y el constante en las ciencias y perfeccionamiento de las tecnologías seguirán
ocurriendo a través de los tiempos, y por esto debemos estar preparados como
profesionales para prever que capacidades técnicas serán las que correspondan tener
para dar una solución a los problemas futuros.

La Agrimensura fue, es y deberá ser por sobre todo, una profesión con alcance
productivo, un actor importante en el bienestar social, un profesional capacitado para
contribuir a los distintos sectores productivos del país, como ser en la industria, el agro,
la minería, etc., para esto debemos desde ahora cambiar nuestra mentalidad e innovar
hacia el futuro.
La AP nos ha mostrado un nuevo campo de acción en el que se utilizan herramientas
propias de nuestra profesión.

137
Estamos entonces, capacitados para mencionar algunos temas que realmente podrían
considerarse por todos aquellos que quieran meterse en esto, como ser:

 Desde lo matemático-estadístico, podemos decir que todavía hace falta un estudio


riguroso en cuanto al tratamiento que se le deben dar a cada una de las variables
agronómicas que se consideran a la hora de establecer un diagnóstico, darle pesos
desde una perspectiva no solo agronómica sino también en relación con la precisión
con la que se obtuvo al geoposicionar dicha variable. Para esto, aquellos interesados
deberán especializarse en los conceptos de la Geoestadística.
 Desde lo científico, todo lo relativo al futuro de los GNSS es un tema bastante
desconocido, ¿qué precisiones lograrán estos sistemas en el geoposicionamiento en
un futuro cercano? Cabe mencionar la necesidad de investigar cuanto antes todo lo
atinente a Aumentación y la mejora en el posicionamiento absoluto. En cuanto a las
antenas correctoras, sería fundamental hacer un estudio detallado del alcance de
éstas, que precisiones garantizan y porque no, las mejoras que puedan hacerse sobre
las mismas.
 En cuanto a lo político y/o social, ya mencionamos en el capítulo "Perspectiva y
Futuro de la AP", que esta actividad puede favorecer enormemente a la creación de
un llamado "ordenamiento rural", que consistiría en desarrollar una base de datos
según la provincia o jurisdicción, donde se almacenaría toda esta información,
pudiendo servir al Estado para una toma de decisiones relativo a lo tributario y
económico; y por sobre todo al cuidado del suelo, creando políticas de incentivos
hacia los productores según sean sus necesidades, logrando un equilibrio entre lo
rentable y lo sustentable.
 Todo lo atinente a la "estandarización" si bien hoy es una propuesta, es algo que
inevitablemente en el futuro deberá estar desarrollado y aplicado. Por ello, la única
manera de poder proponer algo nuevo sobre esto, sería interiorizarse más en lo
relativo a cartografía, al armado de SIG, el manejo de coordenadas, etc.,
considerando que deberá estar a cargo de personas idóneas en el tema, cuya
finalidad será el armado de una normativa que regule la estandarización de la
información.
 Sustentabilidad, este aspecto fue mencionado en el trabajo, pero un análisis de ésta
merecería realizar una investigación específica que englobaría a la AP como una
herramienta más, como lo serían todos aquellos aspectos sociológicos, políticos,
económicos, biológicos, etc.

Estas pueden ser algunas propuestas que creemos válidas mencionar, en cada una de
ellas la Agrimensura puede jugar un rol importante.

***

138
Conclusiones Personales:

Particularmente interpretamos que la realización de un trabajo final, o de una tesis tiene


como objetivo demostrar que el alumno supo aplicar los conocimientos adquiridos
durante el transcurso de la carrera. Por esto creemos estar más que satisfechos con el
trabajo realizado, ya que en él hemos aplicado varias ciencias que forman parte de la
Agrimensura, en mayor o menor medida fuimos a través de la Cartografía, hasta llegar
al uso de la Teledetección; de la Topografía hasta llegar al manejo de los SIG; y desde
la Geodesia hasta la profundización del manejo de los GNSS, demostrando así el aporte
que realiza nuestra profesión a la Agricultura de Precisión.
En pocas palabras, este trabajo nos permitió ahondar aún más en la importancia de la
Agrimensura como profesión imprescindible para el desarrollo social y productivo del
Estado.
Queremos recalcar que este trabajo puede ser tomado como una base que naturalmente
será vulnerable de modificaciones y perfeccionamiento, es más, invitamos a que esto
suceda; porque no se trata solamente de demostrar a terceros que estamos capacitados
para aportar en esta temática, sino que también en convencernos a nosotros mismos y a
los que forman, y formarán parte de nuestra profesión, de que poseemos tal capacidad.

Por último creemos oportuno realizar un análisis crítico, sobre diversos conceptos que
se basan en mejorar la calidad de la formación profesional, que dentro de las
posibilidades deberían estar más desarrollados y actualizados como ser:
 Dentro de la ciencia Topografía se podría considerar más tempranamente el estudio
de la compensación de errores, como así también el manejo digital de la
información.
 Dentro de la Geodesia creemos conveniente dedicar más tiempo, y priorizar los
conceptos respecto de los GNSS y de esta manera tomar conciencia de la
importancia del avance y la aplicación de esta tecnología.
 En Cartografía sería lógico interiorizarse en los aspectos matemáticos, precisiones y
el adecuado manejo de la cartografía digital, de esta manera servirán de base para un
correcto desarrollo de los SIG.
 En cuanto a la Teledetección sería importante su estudio como una ciencia que
forme parte desde los inicios de la formación del alumno y que su conocimiento se
vaya perfeccionando en el transcurso de la carrera.

Es menester aclarar que todo lo mencionado sea tomado como algo constructivo y no
como una crítica vacía de ideas, ya que es muy fácil atacar lo que esta construido y es
muy difícil proponer ideas nuevas que ayuden a mejorar el nivel establecido. Sabemos
desde luego que todo puede ser mejorado y que para que esto suceda el único secreto es
trabajar a conciencia.
Para terminar, recordaremos que al comienzo de este trabajo, mencionamos la
generalidad de la falta de compromiso, mostrando una actualidad decadente no sólo en
el ámbito educativo sino en la sociedad misma, dejando así mismo un panorama
sombrío; sin embargo quisiéramos mostrar también la otra realidad, que tiene que ver
con el recurso humano con el que hoy en día sigue contando nuestra Universidad, yendo
desde el alumnado hasta los profesores, que día a día construyen dentro de sus
posibilidades, un contexto adecuado para el continuo desarrollo de las actividades
académicas. Mientras siga existiendo este recurso, podremos esperar siempre un futuro
promisorio.

139
Anexos

1. Contribución a la Geodesia en la Argentina de fines del siglo XX


"Homenaje a Oscar Parachu".
2. Red Argentina de Monitoreo Satelital Continuo.
3. Aumentación.

140
Contribución a la Geodesia en la Argentina de fines del siglo XX
"Homenaje a Oscar Parachu"

Breve repaso histórico:

Campo Inchauspe

Hablaremos del proceso desarrollado por el sistema de referencia geodésico argentino,


que después de pasar por algunos sistemas locales, adopta el punto Campo Inchauspe
como arranque de las triangulaciones de primer orden y sus densificaciones.
El Campo Inchauspe tiene su origen en el punto astronómico fundamental del mismo
nombre ubicado en las proximidades de la intersección del meridiano 62 oeste, con el
paralelo 36 sur, cerca de la ciudad de Pehuajó, en la provincia de Buenos Aires.

El sitio fue elegido en base a los análisis de la desviación posible de la vertical estudiada
por el doctor Guillermo Schulz y el ingeniero Guillermo Riggi O´Dwyer y se le asignó
la característica dominante en la época para un punto datum: coordenadas elipsóidicas,
latitud, longitud y acimut, iguales a las astronómicas y tangencia entre el elipsoide y el
geoide, es decir ondulación igual a cero. La decisión oficial se materializó mediante la
Disposición Permanente Nº 440 (30 de noviembre de 1946) del Instituto Geográfico
Militar.

El elipsoide asociado fue el Internacional de 1924 (a=6378388m, f= 1/297) que ya había


sido adoptado por la Argentina junto con la proyección Gauss-Krüger mediante la
Disposición Permanente Nº 197 (24 de abril de 1925) del Instituto Geográfico Militar.

Alrededor de dicho punto se iniciaron los trabajos de la triangulación fundamental que


en 1953 alcanzó a cubrir un área de 10 polígonos los que fueron compensados por
métodos manuales en el mismo año y que constituyó la primera red de envergadura
ejecutada en el país, que estaba integrada por 28 tramos de cadenas y unos 500 puntos.
Las coordenadas resultantes se conocieron como Campo Inchauspe 1954.

***
En la época, la computación electrónica resolvía problemas de cálculo complejos y la
metodología había evolucionado desde ecuaciones de condición a la variación de
coordenadas, geodésicas en este caso.
El error medio de la unidad de peso del ajuste fue 0.42” y a la compensación de la red
fundamental siguieron las compensaciones de las redes de densificación de primero y
segundo orden medidas para la época. Esta red y sus coordenadas recibieron el nombre
de Campo Inchauspe 1969.
A continuación, y a medida que se cerraban polígonos o se completaban las redes de
densificación se realizaba su compensación. Dentro del marco rígido de cada orden
superior se calcularon y se ajustaron las redes de tercero y cuarto orden y también se
produjeron al mismo sistema los trabajos previos existentes en el país.

La finalización de los trabajos de triangulación y poligonación fue marcada por la


aparición de la geodesia satelitaria. Los puntos con coordenadas Campo Inchauspe
1969 sumaban 18000 y la cantidad de anillos de primer orden cerrados 44.

141
La precisión de la red puede considerarse comprendida entre 3 y 10 ppm (partes por
millón) en base a los resultados estadísticos de las compensaciones parciales.
También puede analizarse a partir de su comparación con patrones externos. Al
respecto existen dos principales: la red Doppler 1978 y la red POSGAR 94.
La comparación de una decena de vectores (cuerdas) entre la red Doppler y la red
Inchauspe presentó una discrepancia media de 2.7 ppm.

Al hacer un análisis similar respecto de la red POSGAR, esta vez cotejando 30 líneas
geodésicas, la disparidad fue de 3.3 ppm.

La generación de POSGAR

La llegada de Sistema de Posicionamiento Global (GPS) y sus ventajas indudables


alertó a los geodestas acerca de la necesidad de disponer de un marco de referencia
básico compatible con las precisiones de la nueva tecnología.

Era evidente que someter las mediciones GPS al marco Inchauspe involucraba una
degradación de la precisión de las nuevas mediciones satelitarias y en consecuencia era
imprescindible disponer de una red que cubriera la totalidad del país.

El objetivo era la materialización de un marco de referencia argentino, tan cercano


como fuera posible al sistema global WGS84, mediante observaciones GPS.

La cual estuvo signada por la difusión masiva de los sistemas de información geográfica
y territorial y la adopción de la tecnología de posicionamiento GPS como herramienta
casi excluyente para el posicionamiento geodésico.
La demanda ejercida desde un mundo cada vez más tecnificado sobre los recursos
naturales y el medio ambiente fue creciendo en forma sostenida, acrecentando
paralelamente la demanda de información territorial precisa y actualizada.

Surge de este modo el proyecto de Posiciones Geodésicas Argentinas condensado en la


sigla POSGAR que consistía en la medición de unos 100 puntos distribuidos de modo
tal que ningún sitio quedara alejado más de 200 Km. de algún punto de dicha red. Tal
aspiración quedó superada cuando se establecieron 127 puntos.

Para la materialización de los puntos se apeló al recurso de utilizar las estaciones de la


red Inchauspe que tuvieran un acceso fácil y su estabilidad fuera presuntamente
confiable. Esta posibilidad la brindaban las estaciones astronómicas (puntos Laplace) y
los extremos de bases invar, lo que se cumplió mayoritariamente. La ubicación de los
puntos en coincidencia con la red Inchauspe brindaba la posibilidad adicional de poder
determinar los parámetros de transformación entre el nuevo sistema y el que le precedió.

La decisión de desarrollar la red fue tomada por el Instituto Geográfico Militar (I.G.M.)
y tuvo el apoyo expresamente manifestado del VIII Congreso Nacional de Cartografía y
del VIII Congreso Nacional de Agrimensura así como de la comunidad geodésica
nacional.
El I.G.M. dio a conocer las coordenadas de la red en 1995 bajo el nombre de
POSGAR’94 y el 9 de mayo de 1997 definió a POSGAR 94 como marco de referencia
geodésico nacional (Resolución 13/97).

142
Consecuencias e impacto de POSGAR 94(Para su época)

El sistema de referencia POSGAR 94 tuvo las siguientes características:

1. Fue el único preciso y geocéntrico garantizado por los controles y las


verificaciones realizados por los expertos en la materia y con puntos distribuidos
en todo el país.
2. Existieron y existen compromisos de mantenimiento y perfeccionamiento.
3. Está vinculado al marco continental SIRGAS (Sistema de Referencia
Geocéntrico para las Américas).
4. Se encuentran disponibles los parámetros de transformación con respecto a
Inchauspe 1969.
5. Tiene el apoyo de las entidades de fomento de la materia (agrimensura,
cartografía y geodesia).

Por esto su valor aumenta ante la posibilidad de intercambio de información en escala


nacional y global.
Esta situación favorece el desarrollo de los Sistemas de Información Geográfica (S.I.G.)
y territorial sobre una base de referencia única y la informatización de la cartografía y
su compatibilización.

Otro caso significativo Será la contribución a la unificación de los sistemas de


coordenadas en las áreas fronterizas, dado que POSGAR y SIRGAS (con extensión
continental) serán de aplicación prácticamente indistinta.

Una ventaja adicional de POSGAR 94 será que frente una evolución hacia
POSGAR 98 (u otro) la transformación será simple y mínima pues se tratará de
sistemas concéntricos y con el mismo elipsoide de referencia.

En septiembre de 1997 fueron presentados oficialmente los resultados de la red


SIRGAS (SIRGAS 95). De los diez puntos SIRGAS que existen en la Argentina, seis
son comunes a las redes SIRGAS y POSGAR ’94. A fin de evaluar en forma externa la
calidad del marco POSGAR ´94, se tomaron las coordenadas de los puntos comunes
entre ambas redes y se calcularon los vectores que definen en ambos casos para luego
realizar comparaciones. Con esto quedó demostrado y confirmado que POSGAR ´94 es
un marco de referencia cercano a WGS’84 que define al geocentro con error de
aproximadamente un metro respecto de ITRF y tiene una precisión de 1 ppm (1s).

***

143
El sistema POSGAR 98 (Situación)

Con vistas a la integración POSGAR-SIRGAS, se ha realizado un nuevo cálculo de la


red POSGAR, ajustado a las especificaciones oportunamente impartidas por el proyecto
SIRGAS. La precisión de una red geodésica no constituye un bien en sí mismo, sino en
la medida que la hace útil a nuevos y más variados usuarios.

Mientras que una red de alta precisión puede satisfacer las necesidades de los usuarios
que sólo requieren baja precisión, la inversa es a todas luces falso. Si bien la diferencia
entre los sistemas POSGAR 94 y POSGAR 98 serán imperceptibles para la mayoría de
los usuarios, el refinamiento del sistema permitirá su uso en aplicaciones más exigentes.

Un nuevo POSGAR (98 u otro) constituye un refinamiento en la exactitud de POSGAR


94. La vinculación con SIRGAS asegura un posicionamiento geocéntrico con una
exactitud de pocos centímetros y el nuevo cálculo de las observaciones mediante
procedimientos científicos brindó una mayor precisión relativa.
Los cambios que estos refinamientos produjeron en las coordenadas POSGAR 94 son
prácticamente irrelevantes para la mayoría de las aplicaciones prácticas.

Las coordenadas geocéntricas cambiaron en el orden de 1 metro, mientras que las


coordenadas relativas sufrieron, en la gran mayoría de los casos variaciones inferiores a
1 parte por millón.

Experiencia concreta

Con el objeto de realizar una experiencia concreta de integración de una red geodésica a
un marco de primer orden, se trabajó con información correspondiente a una de las
subredes del Programa de Asistencia Técnica al Sector Minero Argentino (PASMA),
llevada a cabo en las provincias de Salta, Catamarca, La Rioja y San Juan.

Esta red de vectores GPS fue medida entre los meses de julio y agosto de 1997, por la
Unión Transitoria de Empresas Esteio-IFTA, dentro del marco del PASMA, financiado
por el Banco Mundial y auspiciado por el Programa Naciones Unidas para el Desarrollo
(PNUD). Esta red fue procesada y ajustada en 1997, apoyándose en POSGAR 94.

Se encaró su reprocesamiento mediante dos emprendimientos:

1) Se logró un diseño de la red más rígido mediante la incorporación de cinco estaciones


permanentes, agregando 5 vectores más (vínculos) por sesión.
2) Se la vinculó a un marco de referencia más preciso. La primera tarea se llevó a cabo
agregando observaciones de tres estaciones permanentes del International GPS Service
(IGS), operativas en la región, en la fecha de la campaña y de dos estaciones del
proyecto geodinámico CAP (Central Andes Project). La introducción de estas
observaciones favoreció la rigidez de las sesiones diarias ya que los cinco puntos
tuvieron una ocupación permanente.
El reprocesamiento riguroso realizado permitió mejorar la precisión interna de la red
con respecto a su cálculo anterior, esta conclusión se obtuvo del análisis de su precisión
interna a partir de los puntos con sobreocupación. Resultado: una precisión horizontal
de ± 10 mm y una vertical de ± 6 mm con máximos de 40 y 27 mm, respectivamente.

144
Resultados
Se consideraron las siguientes alternativas:

ITRF 94. Se consideró este marco ya que actualmente se encuentra materializado en el


país, mediante los puntos POSGAR, realización POSGAR 98, por lo cual se lograría
una densificación del mismo de considerable importancia. El inconveniente que
presentaba este marco era su época de referencia (1993.0), muy distante de la época de
la campaña en cuestión (1997.6), por lo cual se deberían calcular las correcciones a las
coordenadas para llevarlas a la época de la campaña, utilizando velocidades,
determinadas con un error de 2 mm/año.

ITRF 97. Se consideraría esta opción ya que sus coordenadas han sido definidas para
1997.0, época más próxima a la de la campaña del PASMA. En este caso si bien se
debían aplicar también velocidades, la propagación del error no resultaría tan
significativa como en el caso anterior.

POSGAR 98. En esta realización si bien sus coordenadas están referidas al marco
ITRF94, tienen menor precisión que los puntos de la misma. El interés por utilizar este
marco se fundó en la hipótesis de que una mejor distribución y una mayor cantidad de
puntos de control, podría resultar en una mejor solución.
POSGAR 94. Por tratarse del marco de referencia oficial del país y además permitiría
evaluar las mejoras debidas al procesamiento científico.

Es notable la ventaja de utilizar estos marcos internacionales por la precisión y exactitud


que permiten fijar a las redes al utilizarse como control. Pero siendo que la densidad de
los puntos que materializan dichos marcos es reducida y contando con la existencia de
la red POSGAR se evaluó las posibilidades de adoptar POSGAR 98 como control
geodésico en trabajos de similares características, concluyendo que es óptima su
adopción siempre y cuando no se pretendan precisiones mejores que unos pocos
centímetros.
***

SIRGAS (Sistema de Referencia Geocéntrico para las Américas)

El Sistema de Referencia Geocéntrico para las Américas (SIRGAS) es la


densificación regional del marco global de referencia terrestre del IERS (ITRF:
International Terrestrial Reference Frame). Su definición es idéntica a la definición
del Sistema Internacional de Referencia Terrestre del IERS (ITRS: International
Terrestrial Reference System). Las coordenadas SIRGAS están asociadas a una época
específica de referencia y su variación con el tiempo es tomada en cuenta ya sea por las
velocidades individuales de las estaciones SIRGAS o mediante un modelo continuo de
velocidades que cubre todo el continente. Las realizaciones o densificaciones de
SIRGAS asociadas a diferentes épocas materializan el mismo sistema de referencia y
sus coordenadas, reducidas a la misma época, son compatibles en el nivel milimétrico.

El datum geodésico SIRGAS está definido por el origen, la orientación y la escala del
sistema SIRGAS, éste, en combinación con los parámetros del elipsoide GRS80,
permite la conversión de coordenadas geocéntricas a coordenadas geográficas.

145
La extensión del marco de referencia SIRGAS está dada a través de densificaciones
nacionales, las cuales a su vez sirven de marcos de referencia local.

La primera realización de SIRGAS (SIRGAS95) corresponde al ITRF94, época 1995.4


y está dada por una red GPS de alta precisión con 58 estaciones distribuidas sobre
América del Sur. Esta red fue reocupada en el año 2000, extendiéndose a los países del
Caribe y de Centro y Norte América. Por esta razón, el significado original del
acrónimo SIRGAS (Sistema de Referencia Geocéntrico para América del Sur) cambió a
Sistema de Referencia Geocéntrico para las Américas. La segunda realización de
SIRGAS (SIRGAS2000) incluye 184 estaciones y corresponde al ITRF2000, época
2000.4.

La precisión de las coordenadas de estas dos realizaciones está entre ±3 Y ±6 mm.

La tercera realización de SIRGAS es la red SIRGAS de Operación Continua (SIRGAS-


CON). Actualmente está compuesta por aproximadamente 200 estaciones GNSS de
funcionamiento permanente, de las cuales aproximadamente 50 pertenecen la red global
del IGS (International GNSS Service). SIRGAS-CON es calculada semanalmente por
los centros de procesamiento y combinación de SIRGAS. Las coordenadas y
velocidades finales de las estaciones SIRGAS-CON son puestas a disposición de los
usuarios por el IGS-RNAAC-SIR (IGS Regional Network Associate Analysis Centre
for SIRGAS), el cual opera en el DGFI (Deutsches Geodätisches Forschungsinstitut,
Munich, Alemania). Las soluciones semanales fijas para la red SIRGAS-CON se
refieren a la época de observación y al ITRF vigente, en la actualidad al IGS05, una
realización del ITRF2005. Las coordenadas de las soluciones multianuales se refieren a
una época específica, por ejemplo la solución DGF08P01 corresponde al IGS05, época
2004.4.

Las actividades referentes a la definición y realización de SIRGAS son coordinadas por


el SIRGAS-GTI: Sistema de Referencia.

La relación entre las diferentes realizaciones de SIRGAS (o sus densificaciones) está


dada por los parámetros de transformación entre los ITRF correspondientes y la
reducción de las coordenadas a la misma época de referencia. Dicha reducción puede
aplicarse de dos maneras: i) las estaciones de funcionamiento continuo (SIRGAS-
CON) con más de dos años de observación, utilizan las velocidades calculadas en la
solución multianual más reciente del IGS-RNAAC-SIR, y ii) para aquellas estaciones,
cuyas velocidades no están incluidas en dichas soluciones, se utiliza el Modelo de
Velocidades SIRGAS (VEMOS: Velocity Model for SIRGAS). Las diferentes
realizaciones de SIRGAS, reducidas a la misma época de referencia, son compatibles en
el nivel del milímetro.

***
SIRGAS 95

La primera campaña GPS de SIRGAS fue llevada a cabo entre el 26 de mayo y el 4 de


junio de 1995. Ésta incluyó 58 estaciones distribuidas en América del Sur y su medición
fue posible gracias al esfuerzo combinado de entidades suramericanas, europeas y
norteamericanas que pusieron a disposición los equipos GPS y operadores necesarios

146
para toda la red. Las mediciones fueron procesadas independientemente por el DGFI
(Deutsches Geodätisches Forschungsinstitut) y NIMA (US National Imagery and
Mapping Agency, actualmente NGA: National Geospatial-Intelligence Agency). DGFI
utilizó el software Bernese, v. 3.4 con algunas modificaciones implementadas por ese
Instituto, mientras que NIMA trabajó con el software GIPSY/OASIS II. La
comparación de las soluciones a través de una transformación de similitud de siete
parámetros (transformación de Helmert) arrojó como máxima diferencia 3,5 cm con
RMS de ±1,0 cm en X, ±1,4 cm en Y y ±0,7 cm en Z. Las principales causas de estas
discrepancias se basan en que se utilizaron diferentes efemérides satélitales en los
procesamientos individuales y en que la dependencia de las variaciones de los centros
de fase con respecto al ángulo de elevación no fueron tenidos en cuenta en la solución
de NIMA. La solución final combinada de SIRGAS95 está referida al ITRF94, época
1995.4.

147
SIRGAS 2000

La segunda campaña de SIRGAS fue adelantada entre el 10 y el 19 de mayo de 2000.


Dado que su objetivo primordial era la vinculación de los sistemas de alturas nacionales
al ITRF, ésta incluye además de las estaciones SIRGAS95, los mareógrafos de
referencia de América del Sur y algunos puntos fronterizos que permiten la conexión
directa entre redes de nivelación vecinas. SIRGAS2000 contiene 184 estaciones
distribuidas en Norte, Centro y Sur América. Esta red fue calculada por tres centros de
procesamiento: DGFI (Deutsches Geodätisches Froschungsinstitut), IBGE (Instituto
Brasileiro de Geografía e Estatística), and BEK (Bayerische Kommission für die
Internationale Erdmessung). DGFI e IBGE utilizaron el software Bernese, v. 4.0,
mientras que BEK trabajó con el software GIPSY/OASIS II. La solución final fue
obtenida a partir del ajuste combinado de las coordenadas individuales y sus matrices
varianza-covarianza (archivos SINEX) y se refiere al ITRF2000, época 2000.4.

***

148
REDES NACIONALES

Inmediatamente después de la campaña SIRGAS95, los países de América del Sur se


concentraron en la modernización de los datum geodésicos locales mediante la
densificación nacional de la red SIRGAS y la determinación de los parámetros de
transformación necesarios para migrar al nuevo sistema SIRGAS la información
geográfica asociada a los datum antiguos. Inicialmente, estas densificaciones fueron
realizadas a través de redes pasivas (conformadas por pilares), pero, en la actualidad, la
mayoría de los países están instalando estaciones de funcionamiento continuo. Estas
estaciones, además de conformar los marcos de referencia nacionales, son la base para
el desarrollo de aplicaciones rutinarias basadas en navegación y posicionamiento
apoyados en satélites.

Las actividades referentes a las densificaciones nacionales y a la adopción oficial de


SIRGAS por parte de los países miembros son coordinadas por el SIRGAS-GTII:
Datum Geocéntrico.

149
Densificación ITRF/SIRGAS
Marco de
Estaciones Referencia
Nombre pasivas/ Oficial
continuas
POSGAR98: Posiciones Geodésicas
Argentinas, 1998 (SIRGAS95, epoch POSGAR94
Argentina 1995.4) 139 / 25 (WGS84, época
CON*:RAMSAC: Red Argentina de 1993.8)
Monitoreo Satelital Contínuo
MARGEN: Marco Geodésico Nacional
CON*: Red de estaciones GPS SIRGAS95,
Bolivia 125 / 8
continuas (not included in SIRGAS- época 1995.4
CON)
SIRGAS2000
SIRGAS2000,
Brazil CON*: RBMC (Red Brasileira de 1903 / 61
época 2000.4
Monitoramento Contínuo)
SIRGAS-CHILE
SIRGAS2000,
Chile CON*: Red de estaciones activas fijas 269 / 13
época 2002.0
(9 incluided in SIRGAS-CON)
MAGNA-SIRGAS: Marco Geocéntrico
Nacional de Referencia SIRGAS95,
Colombia 70 / 35
CON*: MAGNA-ECO (MAGNA época 1995.4
Estaciones Continuas)
CR05: Sistema de Referencia Costa ITRF2000,
Costa Rica 34 / 1
Rica 2005 época 2005.8
Red básica GPS
SIRGAS95,
Ecuador Red CON*: REGME (Red GNSS de 135 / 7
época 1995.4
Monitoreo Contínuo de Ecuador)
French RGFG: Réseau Géodésique Français de ITRF93, época
7/1
Guyana Guyane 1995.0
RGNA: Red Geodésica Nacional Activa ITRF92, época
Mexico 0 / 17
(CON*) 1988.0
Sistema Geodésico Nacional ITRF2000,
Panama 20 / 3
MACARIO SOLIS época 2000.0
SIRGAS95,
Peru PERU96: Sistema Geodésico Nacional 47 / 1
época 1995.4
SIRGAS-ROU98
SIRGAS95,
Uruguay CON*: Red de estaciones permanentes 17 / 3
época 1995.4
de referencia
SIRGAS-REGVEN: Red Geocéntrica
Venezolana SIRGAS95,
Venezuela 156 / 4
CON*: REMOS (Red de estaciones de época 1995.4
monitoreo satelital GPS)

*CON: Continuously Operating Network

150
El SIRGAS-GTII (Datum Geocéntrico) fue creado en 1993 con el propósito de
establecer un datum geocéntrico para América del Sur. Además de la definición del
datum, el SIRGAS-GTII se ocupó de adelantar un diagnóstico sobre el estado de los
sistemas de referencia locales existentes en América del Sur, con el objetivo de diseñar
una estrategia para su integración (o modernización) en el nuevo sistema SIRGAS.
Después de un censo detallado sobre los intereses particulares de cada país, se concluyó
que cada uno de ellos debía adelantar individualmente dicha integración, pero siguiendo
las recomendaciones formuladas por este grupo de trabajo. Desde febrero de 2001,
cuando SIRGAS fue extendido a todo el continente, el SIRGAS-GTII se ocupa
igualmente de los países centro americanos y del Caribe.

La estrategia general utilizada para integrar los datum geodésicos locales en SIRGAS se
basa en:

i) Establecimiento de una red nacional GNSS de primer orden (con estaciones pasivas o
de funcionamiento continuo).
ii) Determinación de los parámetros de transformación entre los sistemas locales y
SIRGAS.
iii) Adopción de SIRGAS como marco de referencia oficial en cada país.

VELOCIDADES

El Modelo de Velocidades SIRGAS (VEMOS) ha sido calculado a partir de las


coordenadas SIRGAS95 y SIRGAS2000, de las velocidades de las estaciones
SIRGAS-CON determinadas por el IGS-RNAAC-SIR y de diferentes proyectos
geodinámicos desarrollados en la región (Drewes and Heidbach 2005). Dado que la
precisión de las coordenadas reducidas en el tiempo depende directamente de la
confiabilidad de este modelo, su cualificación permanente también es un objetivo
central de SIRGAS.

El procesamiento preciso de información GNSS corresponde con:

1. Transformación de las coordenadas de referencia al ITRF al cual se refieren las


efemérides satelitales. Actualmente, las coordenadas SIRGAS95 o SIRGAS2000 deben
transformarse del ITRF94 o ITRF2000 (respectivamente) al ITRF2005 (parámetros de
transformación entre ITRFs).

2. Traslado de las coordenadas de referencia desde la época de definición a la época de


observación. Es decir, las coordenadas asociadas a SIRGAS95 deben trasladarse desde
1995.4 al día en que se hace el levantamiento GNSS, por ejemplo 2007.7. Igualmente,
las coordenadas referidas a SIRGAS2000 deben traerse desde 2000.4 a 2007.7. Dicho
traslado se hace mediante:

X (t) = X (t0) + (t - t 0) * Vx
Y (t) = Y (t0) + (t - t 0) * Vy
Z (t) = Z (t0) + (t - t0) * Vz

Siendo X(t), Y(t), Z(t) las coordenadas en la época deseada, X(t0), Y(t0), Z(t0) las
coordenadas en la época de referencia, (t - t0) el intervalo de tiempo transcurrido entre la

151
realización del sistema de referencia y el levantamiento GNSS y Vx, Vy, Vz las
velocidades de las estación de referencia.

3. Vx, Vy, Vz deben tomarse de las soluciones multi anuales de la red SIRGAS-CON
generadas por el IGS-RNAAC-SIR. Si la estación de referencia no está inlcuida en
dichas soluciones, Vx, Vy, Vz pueden tomarse del modelo VEMOS. Este modelo
corresponde a una cuadrícula de 1° x 1° con velocidades horizontales.

4. Una vez las coordenadas de referencia se encuentran en la época de observación, se


adelanta el procesamiento de los puntos GNSS nuevos.

5. Las coordenadas de los puntos nuevos se trasladan de la época de observación a la


época de referencia (ver ítem 2), ya sea utilizando las velocidades conocidas de un
punto muy cercano, o las velocidades del modelo VEMOS.

6. Finalmente, las coordenadas de los puntos nuevos deben transformarse al marco de


referencia oficial, es decir del ITRF2005 a SIRGAS95 (ITRF94) o SIRGAS2000
(ITRF2000) según sea el caso.

***

152
Red Argentina de Monitoreo Satelital Continuo

PROYECTO RAMSAC
El Marco de Referencia Geodésico Nacional constituye la base fundamental sobre la
que se apoya toda la cartografía del País. Sin marco de referencia no hay cartografía
posible.

El Instituto Geográfico Militar es el responsable Nacional del establecimiento,


mantenimiento, actualización y perfeccionamiento del marco de referencia.

Sobre este marco de referencia desarrollan sus tareas las Provincias, Municipios,
Catastros, empresas públicas y privadas y usuarios particulares.

Como se ha visto, hasta el año 1997 el Marco de Referencia oficial de la República


Argentina se denominó Campo Inchauspe 69 y su desarrollo demandó más de 100 años
de labor del Instituto, empleando técnicas clásicas de medición (triangulación y
poligonación) recorriendo palmo a palmo cada porción de nuestro territorio y
determinando más de 18000 puntos de alta precisión geodésica.

En el año 1997, empleando la tecnología satelital (GPS), y por disposición del IGM, se
produce el cambio al nuevo Marco de Referencia POSGAR 94 constituido por 127
puntos distribuidos homogéneamente a lo largo y ancho del País.

En el año 1998 el Instituto aprueba la ejecución de un proyecto de Estaciones GPS


Permanentes denominado RAMSAC (Red Argentina de Monitoreo Satelital Continuo),
quedando el mismo bajo la dirección del Teniente Coronel Eduardo Lauría (Jefe de la
División Geodesia) y el Agrimensor Sergio Cimbaro (Jefe de la Sección Planimetría).

El Proyecto consiste en la instalación de estaciones que reciben en forma interrumpida


datos provenientes de la constelación GPS y los objetivos fundamentales son:

• Satisfacer requerimientos de orden técnico por parte de los usuarios de las modernas
técnicas de posicionamiento satelital.
• Asesorar y colaborar en la instalación de nuevas estaciones GPS permanentes a todas
las Instituciones que deseen incorporarse a la Red RAMSAC, para que los datos sean
publicados en Internet y puedan ser accesibles en forma libre y gratuita.
• Contribuir al perfeccionamiento y mantenimiento del Marco de Referencia Geodésico
Nacional (responsabilidad del Instituto Geográfico Militar).

Tres son los factores que generan un vertiginoso crecimiento de la iniciativa:

1. El creciente y cada vez más accesible empleo de la moderna técnica de medición por
parte de los usuarios.
2. El interés de las organizaciones estatales y privadas, organismos e instituciones
científicas por participar del proyecto
3. La definida tendencia mundial a un nuevo concepto en el establecimiento de los
modernos marcos de referencia: Los definidos por las redes de estaciones GPS
permanentes.

En el año 1998, en el país se encontraban funcionando 7 estaciones GPS permanentes,


que participaban de proyectos científicos independientes, solo 3 de ellas publicaban sus

153
datos en servidores internacionales de acceso gratuito, a partir de ese año y por
iniciativa del IGM los datos de las estaciones por primera vez fueron publicados en un
servidor Nacional de acceso público y gratuito, materializando la creación de la Red
RAMSAC.

En el mes de septiembre de 2007 el número de estaciones incorporadas a la Red


asciende a 21, un esfuerzo que es compartido con cada una de las Instituciones,
Organismos, Universidades, Consejos Profesionales y Empresas que creen en el
Proyecto y que son listados a continuación:

- Administración de Parques Nacionales (APN)


- Center for earthquake research and information (CERI) de la Universidad de Memphis
- EEUU
- Centro Austral de Investigaciones Científicas (CADIC)
- Comisión Nacional de Actividades Espaciales (CONAE)
- Consejo Profesional de Agrimensura de la Provincia de Buenos Aires
- Departamento de Agrimensura de la Universidad Nacional de Córdoba
- Departamento de Agrimensura de la Universidad Nacional del Sur
- Departamento de Física de la Universidad Nacional de Tucumán
- Departamento de Geotopocartografía de la Universidad Nacional de Rosario
- Departamento de Ingeniería de la Universidad Nacional del Sur
- Dirección de Catastro e Información Territorial de Mendoza
- Dirección de Catastro de Corrientes
- Estación Astronómica Río Grande (EARG)
- Facultad de Ciencias Astronómicas y Geofísicas de la Universidad Nacional de La
Plata
- Facultad de Ciencias Exactas, Físicas y Naturales de la Universidad de San Juan
- Facultad de Ingeniería de la Universidad Nacional de Cuyo
- Gobierno de la Provincia de Tierra del Fuego
- Instituto Antártico Argentino (IAA)
- Instituto Geográfico Militar (IGM)
- Instituto Nacional de Prevención Sísmica (INPRES)
- Instituto Nacional de Investigación y Desarrollo Pesquero
- Servicio de Hidrografía Naval (SHN)
- Unidad de Aplicaciones Geodésicas y Gravimétricas del Centro Regional de
Investigaciones Científicas y Tecnológicas (CRICyT)
Alcances de la Red Argentina de Monitoreo Satelital Continuo
Concretada la idea de llevar adelante el proyecto, se llevaron a cabo los estudios de
viabilidad en lo concerniente a la ubicación geográfica de las estaciones, mecanismos de
transferencia de datos a implementar, disponibilidad de medios y un estudio particular
referido a los posibles radios de cobertura de cada estación de acuerdo a las distintas
precisiones exigibles.
Referido a este último punto, fue necesario fijar ciertas condiciones iniciales para la
resolución del problema.
El punto de partida, lo constituyó entonces determinar hacia qué público estarían
dirigidos los esfuerzos. Se partió del usuario más frecuente de equipos GPS, desde el
punto de vista económico, los mismos tienen acceso a equipos receptores de tipo
geodésico que operan en una frecuencia, con un programa comercial para el

154
procesamiento de los datos.
Este usuario está limitado en cuanto a la distancia entre los puntos para obtener un
resultado preciso, debido a que para distancias mayores a 25 Km., la precisión de las
mediciones comienza a decaer.
Para los usuarios de receptores que operan con doble frecuencia, el problema está
minimizado. Luego de un exhaustivo estudio acerca de los radios de cobertura que
podrían abarcar las estaciones, se llegó a la conclusión que para una distancia de 300
Km., procesando en una sola frecuencia se puede trasladar una coordenada con un error
menor al metro en las tres componentes (Latitud, Longitud y Altura Elipsoidal). Este
estudio se realizó sobre observaciones de la Red POSGAR de 6 horas de duración, cuyo
detalle se encuentra publicado en la Revista Cartográfica Número 68 (Junio 1999), del
Instituto Panamericano de Geografía e Historia. Posteriormente se realizaron nuevos
estudios, luego de la desactivación del S/A (Selective Availability, 1 de mayo de 2000),
en este caso se utilizaron observaciones de 3 horas de duración, es decir la mitad del
tiempo del primer estudio y los resultados se mantuvieron en el orden de los 0.50 m.
para las diferencias de procesamiento entre L1 y L1c en vectores de 300 km.
aproximadamente.
Las coordenadas de las estaciones están expresadas en el Sistema de Referencia
POSGAR 94, por ser el Sistema oficial de la República Argentina definido como tal en
el año 1997.
Antecedentes de la Red Argentina de Monitoreo Satelital Continuo
Durante los años 1993 y 1994, el Instituto Geográfico Militar (IGM), en un trabajo
conjunto con el Consorcio de Universidades Americanas (UNAVCO), midió la Red
POSGAR 94, encomendando el procesamiento de la misma a la Universidad Nacional
de La Plata (UNLP).

La Red POSGAR 94, debido a las grandes ventajas de la tecnología GPS, empezó a
extender su uso a todos los ámbitos de la Agrimensura y Topografía, de esta manera las
coordenadas de los puntos de la Red se hicieron cada vez más imprescindibles para las
distintas aplicaciones de precisión.
En el año 1997 el IGM adopta POSGAR 94 como Marco de Referencia Geodésico
Nacional para la República Argentina en forma oficial. Se tomó esta resolución
apoyados en los distintos estudios que se realizaron, de los mismos se concluyó que las
coordenadas del Sistema POSGAR 94 se adaptan mucho mejor a las necesidades de
precisión actuales, en vista del uso de las nuevas técnicas de medición GPS y con la
necesidad de acompañar el proceso de cambio emergente a nivel mundial. En ese
Marco, el punto IGM0, integrante de POSGAR 94 toma trascendencia para la
comunidad geodésica al constituir el único punto de la Red ubicado en la Ciudad
Autónoma de Buenos Aires. La necesidad de contar con datos provenientes del mismo,
ya sea con carácter comercial, científico o educativo, transforma en frecuentes las
consultas de los usuarios y las solicitudes de autorización para su ocupación temporal.
En el año 1998, se decide emplazar un nuevo punto en las instalaciones del Servicio
Internacional de la Hora (dependientes del IGM), predio ubicado cercano a la estación
Migueletes del FFCC. Gral. Bartolomé Mitre, Partido de San Martín en la Provincia de
Buenos Aires con el fin de facilitar a los usuarios su utilización para las actividades
propias de cada uno. Dicho punto es vinculado a la Red en forma precisa, e incorporado
al cálculo de POSGAR 98, constituyendo así un punto de la misma calidad que IGM0.

155
Concretada esta actividad, se instala en el punto IGM0 un receptor GPS Geodésico con
la idea de recoger datos en forma permanente y ponerlos a disposición del público
usuario brindando un servicio de gran importancia, porque facilita la vinculación de los
trabajos realizados por profesionales independientes al Marco de Referencia Nacional.
De esta manera se crea en agosto del año 1998, la Primer Estación Permanente de la
Red POSGAR 94 operada en su totalidad por profesionales y técnicos del IGM. En
base a esta experiencia, surge la propuesta de plasmar una Red de estaciones
permanentes, en condiciones de brindar este servicio en todo el territorio nacional,
aprovechando las facilidades técnicas y el exitoso desarrollo del Proyecto CAP (Central
Andes Project).
En el mes de octubre de 1998, el proyecto es presentado ante el Gabinete de Ciencia y
Técnica de la Nación (GATEC), para su inclusión en el Plan Plurianual de Ciencia,
Tecnología e Innovación 1999/2001. En el mes de diciembre de 1998 se expone el
proyecto en las jornadas “Presente y Futuro de la Geodesia” organizadas por el IGM y
la UNLP.
Durante el mes de enero de 1999, a través del Instituto de Investigaciones Geodésicas y
Geofísicas de Alemania (DFGZ), la estación IGM0 comienza a remitir diariamente los
datos de su medición al International Geodetic Service (IGS), pasando así a conformar
el conjunto de estaciones que determinan el Marco de Referencia Terrestre
Internacional (International Terrestrial Reference Frame - ITRF).
Fuente: “www.igm.gov.ar”

156
Mapa de la Red Argentina de Monitoreo Satelital Continuo

***

157
Aumentación

SBAS (Aumentación)
Sin lugar a dudas el futuro de los GNSS apunta directamente al perfeccionamiento de
su disponibilidad y precisión, es por ello que en la actualidad el término Aumentación
esta resonando entre los profesionales que hacen uso de los sistemas de posicionamiento
global, siendo esta una nueva actividad que asegura una mejor determinación en las
mediciones hechas por satélites, en lo que refiere a posicionamiento absoluto. En la
AP, como veremos mas adelante, el geopocisionamiento juega un rol primordial, y al
ser una actividad en continuo crecimiento creemos que en un tiempo no tan lejano,
ambos conceptos deberán cruzarse.
SBAS, abreviatura inglesa de Satellite Based Augmentation System (Sistema de
Aumentación Basado en Satélites), es un sistema de corrección de las señales que los
Sistemas Globales de Navegación por Satélite (GNSS) transmiten al receptor GPS del
usuario. Los sistemas SBAS mejoran el posicionamiento absoluto del receptor y dan
información sobre la calidad de las señales. Aunque inicialmente fue desarrollado para
dar una precisión mayor a la navegación aérea, cada vez se está generalizando más su
uso en otro tipo de actividades que requieren de un uso sensible de la señal GPS. Equipo
de campo realizando levantamiento de información sísmica usando un receptor GPS
Navcom SF-2040G StarFire montado sobre un mástil.
Actualmente están desarrollados o en fase de implementación los siguientes sistemas
SBAS:
 WAAS (Wide Area Augmentation System), gestionado por el Departamento de
Defensa de los Estados Unidos.

 EGNOS (European Geostationary Navigation Overlay Service), administrado


por la Agencia Espacial Europea.
 WAGE (Wide Area GPS Enhancement), que trasmite más precisión en los datos
de efemérides y reloj de los satélites destinado a uso militar.
 MSAS (Multi-Functional Satellite Augmentation System), operado por Japón.
 StarFire, gestionado por la empresa John Deere.
 QZSS (Quasi-Zenith Satellite System), propuesto por Japón.
 GAGAN (GPS and GEO Augmented Navigation), planeado por la India.

Finalidades específicas en la navegación aérea


Los objetivos de los sistemas SBAS son:

 Incrementar la integridad del sistema para cumplir con los requisitos de un


sistema de navegación único. Los estándares civiles requieren el aviso de fallo
del sistema en menos de 30 segundos cuando se está en ruta, 10 segundos en una
aproximación de no-precisión, y 6 segundos en una aproximación de precisión.
En contraste, el sistema GPS puede tomar entre una hora y media y dos horas
para notificarle al usuario que ha fallado un satélite.

158
 Incrementar la exactitud del sistema GPS para cumplir con los requisitos
de un medio único de navegación para aproximaciones de precisión. Sin
aumentación de ningún tipo, el NAVSTAR-GPS o GLONASS pueden ser
utilizados únicamente para aproximaciones de no-precisión (NPA).

 Incrementar la disponibilidad del sistema para cumplir con requisitos de un


medio de navegación único. Actualmente la disponibilidad del sistema GPS
varía entre 95 y 98%. Como consecuencia, se requiere la confirmación de la
disponibilidad de los satélites a lo largo de la ruta del GPS previa a cada vuelo
en el que se desee utilizar GPS como medio de navegación primario. Esto es
debido a que, previamente a la SBAS, era necesario dedicar un satélite en línea
de visión para la única función de supervisión de la integridad.

Funcionamiento

Esquema de funcionamiento de los Sistemas de Aumentación Basados en Satélites


(SBAS). La arquitectura básica de todos los sistemas SBAS esta conformada por una
red de estaciones terrestres de referencia distribuidas por una amplia zona geográfica
(países o continentes enteros) que supervisan a las constelaciones de satélites de GNSS.
Estas estaciones retransmiten los datos a una instalación de procesamiento central que
evalúa la validez de las señales y calcula correcciones a los datos de efemérides y reloj
radiodifundidos de cada satélite a la vista. Para cada satélite GPS o GLONASS vigilado,
el SBAS estima los errores en los parámetros, y a su vez estas correcciones son
transmitidas al avión por medio de satélites geoestacionarios. Luego el receptor de
abordo ajusta la información recibida directamente de los satélites GPS con las
correcciones recibidas de los satélites geoestacionarios, para así navegar con más
seguridad. Los mensajes de integridad y correcciones para cada fuente telemétrica GPS
o GLONASS vigilada se transmiten en la frecuencia GPS L1 de los satélites
geoestacionarios SBAS, situados en puntos orbitales fijos sobre el ecuador terrestre. Los
mensajes SBAS aseguran la integridad, mejoran la disponibilidad y proporcionan la
actuación necesaria para aproximaciones con guiado vertical APV.
El SBAS utiliza mediciones de distancia en dos frecuencias para calcular el retardo de la
señal producido por la ionósfera y radiodifunde las correcciones aplicables en puntos de
la cuadrícula ionosférica (grid points) predeterminados. El receptor SBAS del usuario

159
interpola entre los puntos de la cuadrícula para calcular la corrección ionosférica a lo
largo de su línea de alcance óptico a cada satélite.
Además de correcciones de reloj, efemérides e ionosféricas, el SBAS evalúa y transmite
parámetros que limitan la incertidumbre en las correcciones. Combinando estos cálculos
de incertidumbre en las correcciones con cálculos de las incertidumbres en su propia
exactitud de mediciones de pseudodistancia, el receptor SBAS de usuario modela un
error para su solución de navegación propia.
Es importante distinguir entre las zonas de cobertura y las zonas de servicio SBAS. La
zona de cobertura se define por las huellas en tierra (foot prints) de las señales de los
satélites geoestacionarios. Las zonas de servicio para un SBAS determinado se
establecen por el estado dentro de la zona de cobertura SBAS. El estado es el
responsable de designar los tipos de operaciones que pueden apoyarse dentro de una
zona de servicio determinada.

Virtudes del sistema


Entre las ventajas del SBAS se encuentran:

 Provee una guía tridimensional para aproximaciones de precisión a las


aeronaves dentro del área de servicio. Este método de operación del SBAS
mejora significativamente los instrumentos bidimensionales de navegación
existentes que no pueden proveer referencias verticales precisas a los pilotos.

 Provee gran precisión (hasta 5 m vertical y hasta 2 m horizontal) y


disponibilidad (radiodifunde señales similares al GPS por varios satélites
geoestacionarios) para aproximaciones de Categoría I, además de integridad
(alto nivel de redundancia en el sistema y notificación de fallos en 6 s) para la
seguridad del sistema GPS y apoyo a las operaciones de vuelo.

 Reduce las posibilidades de accidentes contra tierra durante vuelos


controlados y aproximaciones.

 Elimina los costos asociados en el mantenimiento de los instrumentos de


navegación más antiguos con base terrestre tal como los NDB, VOR, DME y
los ILS para la Categoría I.

 Reduce el número de piezas de equipos a bordo de la aeronave y requerirá


sólo un pequeño receptor montado en la cabina y una antena.

 Permite reducir los estándares que gobiernan la separación entre aeronaves


en vuelo, permitiendo alojar un mayor número de ellas en un espacio dado, sin
aumentar los riesgos.
 Ahorros de combustible haciendo posible vuelos más directos y
aproximaciones más seguras.

160
Bibliografía

 Eduardo Huerta, Aldo Mangiaterra y Gustavo Noguera. “GPS Posicionamiento


Satelital”.Universidad Nacional de Rosario, 2005.

 Rafael Cid Palacios y Sebastián Ferrer Martínez. “Geodesia Geométrica, Física


y por Satélites”. Universidad de Zaragoza. Madrid, 1997

 Fernando Martín Asín. “Geodesia y Cartografía Matemática”. Madrid, 1990

 Compilación de HUGH ODISHAW (1969). La Tierra en el Espacio. Editorial


Letras S.A., México

 PROCISUR – Agricultura de Precisión – “Integrando conocimientos para una


agricultura moderna y sustentable. Rodolfo Bongiovanni, Evandro Chartuni
Montivani, Stanley Best y Álvaro Roel.

 7º y 8º Curso de Agricultura de Precisión y 2ª y 3ª Expo de Máquinas Precisas –


INTA Manfredi.

 Manuel Alvarado Ledesma “¿Por qué despreciamos el agro?”. Editorial El


Ateneo, año 2005

 Manuel Alvarado Ledesma “La Argentina agrícola: un país que niega su


destino”. Editorial El Ateneo, año 2003.

 Georreferenciación: F. Azpilicueta, C.A. Brunini, E. Huerta, B. Jiménez, A.


Mangiaterra, M.P. Natali, G. Noguera, R. Perdomo, R.C. Rodríguez. UNR
editora, junio del 2001.

 Nociones de Topografía, Geodesia y Cartografía, Jorge Franco Rey.

 Contribuciones a la geodesia en la Argentina de fines del siglo XX, homenaje a


Oscar Parachu, UNR Editora.

Páginas web consultadas

www.agriculturadeprecision.org
www.cosechayposcosecha.org
www.upcommons.upc.edu
www.aagg.org.ar
www.agrimensoft.com.ar
www.igm.gov.ar
www.topografíaglobal.com
www.sirgas.org
www.agrimensores.org.ar
www.efn.uncor.edu
www.cplat.fcaglp.unlp.edu.ar
www.ez-guide.com

161

También podría gustarte