Está en la página 1de 237

II Manual de Métodos en Teledetección Aplicada a

la Prevención de Riesgos Naturales en el Litoral

EDITORES:

Javier Alcántara Carrió


Isabel Montoya Montes
Iván Darío Correa Arango

Universidad Católica de Valencia, Valencia, España


Universidad de São Paulo. Brasil
Universidad EAFIT, Medellín, Colombia
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral.
Javier Alcántara Carrió, Isabel Montoya Montes, Iván D. Correa Arango (Eds.). Programa
Iberoamericano de Ciencia y Tecnología para el Desarrollo. Barcelona, España. 2013.

438 p. il. b/n. 29,7x21 cm. – Manuales CYTED


ISBN
ISBN 10: 84 616 5534 6
ISBN 13: 978 84 616 5534 2

Teledetección y Riesgos Naturales. España.

Foto de portada: Monitoreo de costas con GPS Diferencial (Delta del Ebro) (Fuente: Isabel
Montoya Montes)

P.V.P. 10 euros
Servicio de Publicaciones del Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo
(CYTED).
c/Amaniel, 4. Madrid, España.

© Los autores
Primera Edición: 2013
ISBN 10: 84 616 5534 6
ISBN 13: 978 84 616 5534 2

Impreso en J.M.C. Ofimática SL, Barcelona


Encuadernación: Copiservei Poblenou SL, Barcelona

Printed in Spain – Impreso en España.


II Manual de Métodos en Teledetección Aplicada a la Prevención de

Riesgos Naturales en el Litoral

PRÓLOGO

La Red Iberoamericana en Teledetección Aplicada en Prevención de


Riesgos Geológicos en el Litoral surgió como iniciativa de diversos profesores
de universidad y centros de gestión ambiental de Argentina, Brasil, Colombia,
Cuba, Portugal y España, en el marco del Programa Iberoamericano de Ciencia
y Tecnología para el Desarrollo (CYTED). Dicho programa se enmarca dentro
de los Programas de Cooperación de las Cumbres Iberoamericanas de Jefes
de Estado y de Gobierno, y tiene como objetivo principal fomentar la
cooperación en Investigación e Innovación para contribuir así al Desarrollo
armónico de la región iberoamericana.

El objetivo general de esta red ha sido favorecer el desarrollo de


metodologías para el análisis y predicción de los riesgos litorales, sus causas y
consecuencias, y el diseño de estrategias para mitigar sus efectos, a través de
la coordinación de un equipo internacional de científicos y técnicos con
experiencia en el tema, para asesorar y formar a especialistas en la materia.

Este objetivo se concreta en una serie de objetivos específicos como son: a)


mejorar el conocimiento sobre las amenazas y riesgos naturales en el litoral,
mediante la aplicación de técnicas modernas de teledetección, b) desarrollar
metodologías para predecir los desastres naturales y reducir su impacto, c)
formar científicos y técnicos especialistas en la materia, mediante la realización
de seminarios y la publicación de diversos manuales, d) promover el
intercambio y la colaboración científico-técnica entre los grupos de la red, e)
fomentar la colaboración entre los grupos de la red en proyectos de I+D+i sobre
el tema, f) difundir los resultados de los grupos de investigación que conforman
la red, y g) financiar estancias de investigación en otros grupos de la red. Toda
la información sobre la red, sus objetivos, actividades realizadas, grupos que la
constituyen, otras publicaciones, etc. se encuentra disponible en
http://www.madhatt3r.com/websites/redriesgoslitorales

La propia dinámica de la red ha hecho que hoy en día su planteamiento


inicial haya sido en parte desbordado, ya que el estudio de las amenazas
naturales en el litoral se basa no sólo en los sistemas de teledetección
disponibles gracias a los satélites y otros sensores aerotransportados, sino
también en las técnicas de geofísica marina y terrestre, todo lo cual puede ser
englobado como sistemas basados en sensores remotos. La red da cabida
también a la investigación con Sistemas de Información Geográfica (S.I.G.), e
incluso los estudios en gestión del conocimiento. Finalmente, la red asume
como objetivo final, al cual han de converger todos los esfuerzos, la aplicación
de todos los resultados a la mejora de la gestión de los riesgos naturales en el
litoral.

Este planteamiento se ve reflejado en este manual que ahora cumple su


segunda edición, el cual es por una parte uno de los compromisos con los que
nació esta red, pero por otra y más importante, el resultado de la propia
dinámica de colaboración entre los grupos de la red.

El primero de los capítulos del manual es una introducción a los conceptos


fundamentales en el análisis de los riesgos geológicos naturales. Los sucesivos
capítulos exponen los diferentes métodos de trabajo con que los diferentes
grupos de la red se enfrentan al análisis de las amenazas naturales en el litoral.
El manual incluye capítulos dedicados al análisis de los huracanes y tsunamis,
si bien, los procesos erosivos, en costas rocosas o sedimentarias, es el riesgo
más analizado. Ello se debe a que su estudio constituye en la actualidad la
principal fortaleza de esta red.
En este manual se muestra la aplicación de imágenes de satélite, sensores
aerotransportados (desde fotografía aérea a LIDAR), sistemas de topografía,
GPS, video, georadar, acústica y sísmica marina, para el estudio de los riesgos
litorales. Hay también capítulos enfocados en la modelización gráfica y
numérica para el diagnóstico y predicción de dichos riesgos, y finalmente, un
capítulo dirigido al análisis de la lucha contra los riesgos litorales como uno de
los objetivos fundamentales de la gestión integral de la zona costera.

La realización de esta publicación ha sido posible gracias a la colaboración


de diversos grupos de la red, así como el esfuerzo de los editores y un amplio
grupo de revisores, muchos de los cuales, a raíz de su participación en este
manual, han conocido la red y pasado a formar parte de la misma.

Los editores de este manual queremos expresar nuestro más sincero


agradecimiento a todos los que han colaborado en su realización, así como al
programa CYTED por su apoyo y confianza en la red.

Javier Alcántara Carrió, Isabel Montoya Montes e Iván D. Correa Arango


II Manual de Métodos en Teledetección Aplicada a la
Prevención de Riesgos Naturales en el Litoral

Índice

Introducción a los riesgos naturales en el litoral. I.D. Correa, J.


Alcántara-Carrió, C. Lacambra y O. Ferreira. 9

El uso de LIDAR para la elaboración de mapas y modelos de


amenazas naturales en zonas costeras. D.A. Friess y C.
Lacambra. 43

Aplicaciones radar en zonas costeras. F. Isla, L. Cortizo y J. M.


Bedmar. 77

Georadar aplicado a los riesgos litorales: fundamentos,


metodología, procesado e interpretación de datos. D. Gómez-
Ortiz y T. Martín-Crespo. 97

Geofísica marina aplicada al estudio de los riesgos. L.A.P. Souza


y M.M. Mahiques. 135

Metodologías para el levantamiento y análisis de perfiles


topográficos de playa. B.O. Posada Posada y N.G. Rangel-
Buitrago. 159

Estudios de erosión con satélite en costas sedimentarias


micromareales. I. Rodríguez, J. M. Ramírez, M.J. Sánchez e I.
Montoya. 177

Monitorización de la erosión en costas sedimentarias mediante


GPS diferencial y ecosondas monohaz / multihaz. A. Fontán, S.
Albarracín, P. Baptista y J. Alcántara-Carrió. 199

Análise da variação da linha de costa através de ferramentas de


geoprocessamento e sensoriamento remoto. R.S. Araujo, G.V.
Silva, D. Freitas, A.H.F. Klein. 237

Métodos para el análisis de cambios históricos de la línea litoral


en playas de ensenada. Nuevos ejemplos en Chile. C. Martínez,
M. Quezada y J. Quezada. 259
Sistemas de video aplicados en la gestión costera en costas
sedimentarias. A.F. Osorio, R. Medina Santamaría, J. Guillén,
C.A. Ortiz Alarcón. 301

Estudios de erosión de costas rocosas. F. Isla, I. Montoya y O.


Ferreira. 341

Eventos extremos: frentes fríos, tormentas y huracanes y su


importancia en el estudio de riesgos costeros. J.C. Ortiz Royero. 367

Lecciones del tsunami asociado al terremoto Mw=8,8 del 27 de


febrero de 2010 en el centro-sur de Chile. J. Quezada, C.
Martínez, E. Jaque, A. Belmonte y M. Condori. 385

Los riesgos naturales en el contexto del manejo integrado


costero. J. Alfredo Cabrera, M. Morales, J. Alcántara-Carrió, I. D.
Correa, R. Pérez de los Reyes, B. Vladimir Moya. 415
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

INTRODUCCIÓN A LOS RIESGOS NATURALES EN EL LITORAL

I.D. Correa1, J. Alcántara-Carrió1,2, C. Lacambra3 y O. Ferreira4

1
Área de Ciencias del Mar, Dpto. de Geología. Univ. EAFIT.
Medellín, Colombia. icorrea@eafit.edu.co
2
Inst. Medio Ambiente y Ciencia Marina. Univ. Católica de Valencia,
C/ Guillem de Castro 94. 46003. Valencia, España.
javier.alcantara@ucv.es
3
Grupo Laera. Bogotá, Colombia. carmen@grupolaera.com
4
CIMA, Universidade de Algarve, Campus de Gambelas. Faro,
Portugal. oferreir@ualg.pt

INTRODUCCIÓN

Hace tan sólo 25 años surgió un nuevo principio fundamental de la


Geología, el principio de la simultaneidad de eventos (Hsü,
1983). Dicho principio afirma que la historia geológica de la Tierra
se ha caracterizado por cambios lentos y graduales durante largos
periodos, interrumpidos por eventos bruscos y de gran magnitud,
que han afectado simultáneamente a todo el planeta.

La importancia de este principio radica en que logra armonizar las


teorías del Gradualismo pausado y del Catastrofismo. El
Gradualismo pausado (Lyell, 1830-1833) está basado en los
principios del Uniformismo y Actualismo (Hutton, 1795; Playfair,
1802). Por su parte, el Catastrofismo (Cuvier, 1825) se fundamenta
en las evidencias científicas de procesos naturales que han
causado cambios drásticos en la historia de la Tierra, afectando

9
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

fuertemente su morfología y la evolución de la vida en ella. Las


ideas catastrofistas plantearon una visión más acorde con la
tradición y el pensamiento dominante durante siglos en la
civilización occidental, pero una vez que el Gradualismo pausado se
impuso, a principios del siglo XIX, estas ideas quedaron relegadas a
un segundo plano. El principio de la simultaneidad de eventos, al
lograr el equilibrio entre ambas teorías, supone un cambio muy
importante en la visión de los procesos naturales, su frecuencia e
intensidad.

Pero el hombre no sólo ha de convivir con las amenazas que


suponen los eventos extremos de origen natural, sino que la propia
actividad humana genera cambios en los procesos naturales y crea
así nuevas situaciones de riesgo. Este hecho es más evidente
desde el inicio de la revolución industrial, que supuso un salto
cualitativo fundamental en la explotación de los recursos naturales,
tan sólo comparable al dominio del fuego en el Paleolítico, o el paso
del hombre nómada a sedentario en el Neolítico, con el desarrollo
de la agricultura. Así, en la actualidad se ha producido un cambio
generalizado de los procesos naturales debido a una demanda de
recursos (alimentos, energía y materias primas) cada vez más
intensa, hasta llegar a un desarrollo claramente insostenible. La
sobreexplotación y el riesgo de agotamiento de los recursos
naturales se ponen de manifiesto al observar que el agua potable
ha pasado en las últimas décadas de considerarse un recurso
renovable a no renovable, debido al aumento de la demanda, la
contaminación y la sobreexplotación de los acuíferos.

Hoy en día, las actividades humanas afectan en la actualidad,


directa o indirectamente, a todos los ambientes naturales, en

10
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

muchos casos con acciones locales que repercuten a escala


planetaria. Al conjunto de estos cambios a escala planetaria
inducidos por la acción humana se le ha llamado Cambio Global. El
aumento de la concentración de dióxido de carbono en la atmósfera
desde la revolución industrial y el consiguiente sobrecalentamiento
de la atmósfera al intensificarse el efecto invernadero son el
detonante del cambio climático que vivimos en la actualidad. Por
tanto, el cambio climático es sólo uno de los muchos aspectos del
cambio global. El desarrollo de la sociedad obliga a intensificar
esfuerzos para reducir los daños por las catástrofes naturales y
medioambientales.

La metodología habitual en la lucha contra los riesgos naturales


consiste, en primer lugar, en identificar y evaluar la peligrosidad de
los fenómenos que plantean amenazas para el hombre, sus
actividades e infraestructuras. A continuación, se evalúa la
vulnerabilidad del hombre ante dichos fenómenos y las potenciales
consecuencias económicas, sociales y ambientales. La magnitud de
los riesgos se obtiene entonces al combinar el potencial de las
amenazas con la vulnerabilidad de la población. Finalmente, se
diseñan las medidas para hacer frente al riesgo analizado, así como
a la catástrofe cuando ésta se produce. Para desarrollar esta
metodología, además del cambio conceptual, ha sido fundamental
el gran avance tecnológico de las últimas décadas en herramientas
informáticas, instrumentos de medida y sistemas de teledetección.

Este manual de la Red Iberoamericana en Teledetección Aplicada a


la Prevención de los Riesgos Geológicos Litorales trata
precisamente de las metodologías para la identificación de las
amenazas naturales, centrándose fundamentalmente en la

11
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

aplicación de técnicas de teledetección. Dentro de los sistemas de


teledetección o sensores remotos se incluyen tanto aquellos que
exploran la corteza terrestre desde la atmósfera, mediante satélites
o sensores aerotransportados (fotografía aérea, LIDAR) como otras
técnicas, también de medición indirecta, empleadas en la geofísica
terrestre y marina (acústica, sísmica, tomografía eléctrica, etc.).

Esta red se enmarca en el área de “desarrollo sostenible, cambio


global y ecosistemas” del Programa Iberoamericano de Ciencia y
Tecnología para el Desarrollo (CYTED, www.cyted.org), promovido
por la Cumbre de Jefes de Estado y de Gobierno de los Países
Iberoamericanos. Dentro de este área, la CYTED también ha
promovido redes de trabajo en temas como el monitoreo y
pronóstico de fenómenos hidrometeorológicos, la evaluación de
peligros, la gestión de riesgos y desastres derivados de los
movimientos de masas en taludes y laderas inestables, y el uso de
tecnologías espaciales para la evaluación, monitoreo y manejo de
desastres naturales en la agricultura.

En este primer capítulo del manual se presenta una revisión


conceptual de los términos empleados en el análisis de los riesgos
naturales, como paso previo a la descripción de las metodologías.
En este sentido, resulta también muy útil el glosario para la
evaluación de riesgos compilado por Nadim (2005) para la
International Society of Soil Mechanics and Geotechnical
Engineering.

12
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

AMENAZAS NATURALES Y ANTRÓPICAS

Amenazas o eventos potencialmente dañinos para el hombre

Una amenaza se puede definir como un fenómeno, sustancia,


actividad humana o condición peligrosa que pueden ocasionar la
muerte, lesiones u otros impactos a la salud, al igual que daños a la
propiedad, la pérdida de medios de sustento y de servicios,
trastornos sociales y económicos, o daños ambientales (UNISDR,
2009). Los eventos extremos sólo se consideran amenazas si
pueden producir efectos negativos sobre el hombre o sus
actividades. Así, una erupción volcánica en una isla deshabitada del
Pacífico, si no afecta a ninguna población o a sus actividades, es
sencillamente un fenómeno natural, pero no una amenaza. Sin
embargo, con el actual crecimiento exponencial de la población a
nivel mundial, esto parece un escenario poco probable.

Las amenazas de origen natural están relacionadas con el clima


(procesos meteorológicos y oceanográficos), la tectónica terrestre,
los procesos cósmicos y los procesos biológicos. Las primeras
incluyen precipitaciones intensas, huracanes, tornados, tormentas,
tormentas de arena, temporales, sequías, incendios, olas de calor y
frío y subida del nivel medio del mar. Por su parte, las amenazas
relacionadas con la tectónica terrestre hacen referencia a
erupciones volcánicas, terremotos y maremotos, la subsidencia, los
deslizamientos, plegamientos y fallas (Bryant, 2005). Las amenazas
de origen cósmico incluyen el impacto de meteoritos y las tormentas
solares. Por último, las amenazas biológicas se transportan a través
de vectores biológicos y suelen presentarse como plagas e
infestaciones, brotes de enfermedades y epidemias.

13
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Por su parte, las amenazas de origen antrópico hacen referencia a


actividades como la deforestación, contaminación, destrucción de la
biodiversidad y cambio climático. No obstante, cada vez resulta más
difícil diferenciar entre las amenazas de origen natural y las
inducidas por el hombre, ya que es evidente que el hombre modifica
los procesos naturales. Por ejemplo, la deforestación favorece los
deslizamientos del terreno y las obras de ingeniería costera inducen
fenómenos de erosión en las playas. Debido a esta interacción
entre los procesos naturales y antrópicos, es interesante destacar la
definición de amenazas socio-naturales, según la estrategia de
Naciones Unidas para reducir los desastres (UNISDR, 2009), como
aquellos eventos debidos a la interacción de amenazas naturales
con recursos ambientales degradados o sobreexplotados.

Peligrosidad de las amenazas

Una vez identificada la existencia de una amenaza para el hombre,


es necesario evaluar la distribución geográfica de su peligrosidad,
la cual se mide como la probabilidad de que ocurra en una zona
concreta un fenómeno de una determinada intensidad. Por tanto, la
peligrosidad depende de dos factores intrínsecos al propio
fenómeno: su magnitud y su frecuencia de ocurrencia.

Respecto al primer factor, a mayor energía del fenómeno, mayores


son los efectos negativos y, por tanto, mayor es su peligrosidad. Así
por ejemplo, cuando se intensifican la velocidad del viento en una
tormenta o la altura de ola en un temporal, aumenta su peligrosidad.
La energía de un evento es una medida de su peligrosidad.

14
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Atendiendo a su frecuencia de ocurrencia, la peligrosidad de las


amenazas se clasifica como posible (evento que nunca ha ocurrido
pero la información disponible no permite descartar su ocurrencia),
probable (evento ya ocurrido en el lugar o en condiciones similares)
e inminente (evento detectable o evidente).

La probabilidad de los eventos ocurridos en el pasado se evalúa


calculando su periodo de retorno por métodos estadísticos, es decir,
el intervalo de años en el cual ocurre un evento de una determinada
magnitud. Sin embargo, las amenazas no se manifiestan de manera
cíclica o periódica y predecir con exactitud su próxima ocurrencia,
ya sea por métodos estadísticos o deterministas, es una tarea difícil
e incluso imposible en muchos casos, tanto si se trata de amenazas
asociadas a fenómenos climáticos, como tectónicos, cósmicos o
inducidas por el hombre. La incertidumbre al predecir la ocurrencia
de una amenaza es un aspecto a considerar al evaluar su
peligrosidad.

La peligrosidad de las amenazas también depende de la


susceptibilidad del territorio, es decir, su tendencia o
predisposición a ser afectado por una determinada amenaza, en
función de sus características naturales. Por ejemplo, el daño de los
temporales en la costa depende de su orientación (expuesta o
protegida respecto a la dirección de aproximación del oleaje) y de la
anchura de la plataforma, así como de las características del
sedimento (tamaño de grano, densidad, forma, grado de cohesión)
o de la litología de los acantilados (materiales estratificados o
masivos, sanos o alterados, con buzamiento horizontal, hacia mar o
hacia tierra, etc.).

15
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

VULNERABILIDAD, RIESGO Y CATÁSTROFE

Tal como se indicó anteriormente, el criterio para que un proceso


sea considerado una amenaza depende de que se produzcan
pérdidas materiales o personales. Pero esto no sólo depende del
propio evento, sino también de la vulnerabilidad de los elementos
amenazados, entendiendo como tales elementos en este trabajo: la
población, sus propiedades y actividades económicas, los servicios
públicos y las infraestructuras.

Por tanto, la vulnerabilidad de un elemento o conjunto de


elementos es la posibilidad de daño que cabe esperar si se produce
un fenómeno de una magnitud determinada en un tiempo
determinado, incorporando la capacidad de respuesta del elemento
o conjunto de elementos. La vulnerabilidad no es una característica
física como la temperatura o la humedad, es más bien una
condición relativa y su evaluación, e inclusive su interpretación,
depende en gran medida del elemento objeto de estudio y del tipo
de evento a que dicho elemento es vulnerable. Así, encontramos
evaluaciones de vulnerabilidad a la erosión costera en los que el
componente humano no es considerado, como por ejemplo el índice
de vulnerabilidad al aumento del nivel del mar de USGI (2001).
También existen evaluaciones de vulnerabilidad a los desastres
naturales en los que el elemento a evaluar son las instituciones. En
esos casos, la evaluación se concentra no tanto en las dinámicas
naturales sino en la capacidad de las instituciones para actuar y
responder. Las evaluaciones integrales de vulnerabilidad suelen
considerar las características del evento frente al cual se es
vulnerable, las características socio-económicas y las ambientales
del lugar (Lacambra, 2009).

16
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

La evaluación de la vulnerabilidad no se expresa por un número


exacto; existen métodos cuantitativos, descriptivos, cualitativos,
diagramas, mapas, índices, análisis tipo síndrome y estudios tipo
semáforo, entre muchos otros métodos. Lo más importante en una
evaluación de vulnerabilidad es identificar los procesos que
conllevan a dicha vulnerabilidad y entender que cada área
geográfica sufre procesos físicos distintos y que además los
procesos de cambio del uso de la tierra y de explotación de los
recursos varían mucho con la geografía, las tradiciones, las
actividades económicas predominantes y la cultura de cada región.
Por tanto establecer comparaciones de vulnerabilidad entre una
localidad y otra es difícil y puede conllevar a supuestos erróneos.

La vulnerabilidad puede evaluarse a diferentes escalas. A escala


local, por ejemplo si hacemos referencia a la vulnerabilidad de una
población costera a un huracán, a escala nacional en el caso de la
evaluación de vulnerabilidad de un país al aumento del nivel del
mar, o a escala regional cuando se evalúa la vulnerabilidad de la
región Mar Caribe a los afloramientos de las mareas rojas, por
ejemplo. Cada una de ellas es realizada con fines distintos y el
grado de detalle e información es muy diferente, por tanto el tipo de
acciones para disminuir dicha vulnerabilidad son diferentes. Así
como existen variaciones a escala, el concepto de vulnerabilidad
solo se puede entender en contextos temporales, ya sea en relación
a unas circunstancias pasadas o pensando en escenarios futuros.

Combinando todo lo anterior, surge el concepto de riesgo, el cual


representa la probabilidad de que se produzcan pérdidas humanas,
sociales o ambientales debido a la ocurrencia de un evento
catastrófico. Por tanto, la evaluación del riesgo implica evaluar las

17
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

pérdidas totales (personas afectadas, muertes y daños materiales)


para un evento con un grado de peligrosidad determinado y
expresado en términos de probabilidad. Dicho de una manera
práctica, el riesgo es el resultado de combinar la peligrosidad de la
amenaza con la vulnerabilidad.

Un desastre (o catástrofe) se presenta cuando acontece un evento


que interrumpe el funcionamiento normal de una comunidad
ocasionando un gran número de muertes, pérdidas materiales,
ambientales o económicas y frente a los cuales la comunidad no
puede hacer frente con sus propios recursos (Wilches-Chaux, 1998;
UNSIDR, 2009). El desastre no es el fenómeno en sí, sino los
efectos nocivos que produce en la población.

Los riesgos y desastres, al igual que las amenazas que los


producen, se clasifican según su origen, intensidad y duración, pero
también se pueden clasificar según sus efectos. Los efectos
primarios son los daños originados directamente por la ocurrencia
del evento, mientras que los efectos secundarios son aquellos que
se presentan a largo plazo, consecuencia indirecta del evento y que
pueden ser incluso de carácter permanente.

Atendiendo a la intensidad de sus daños, las catástrofes más


importantes son las inundaciones, seguidas de los huracanes
(ciclones tropicales), sequías y terremotos. Esta clasificación varía
ligeramente en función de si se consideran los daños según el
número de muertes o en función de las pérdidas materiales (Fig. 1).

18
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Otros
Terremotos Inundaciones
6%
10% 32%

Sequías
22%
Ciclones Tropicales
30%

Deslizamientos
Tormentas 8% Inundaciones
7% 32%
Otros
6%

Terremotos
10%
Sequías Ciclones Tropicales
22% 30%

Fig. 1. Magnitud de los desastres naturales según la distribución


porcentual de muertes (sup.) y los daños materiales (inf.) según
Rubiera (2005).

La gestión de desastres se basa en establecer las medidas de: i)


prevención, para evaluar la peligrosidad de la amenaza, la
vulnerabilidad y el riesgo ii) mitigación, que generalmente son
estrategias de protección para reducir la vulnerabilidad,
establecidas acorde a los análisis realizados en la fase de
prevención, iii) alerta, empleando diferentes sistemas de aviso y
evacuación durante el desastre, iv) atención y respuesta, que
19
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

implica el salvamento de personas y la defensa de otros elementos


durante el desastre, y v) reconstrucción y corrección de daños, es
decir inversiones en restablecer la vida normal de las comunidades
y sociedades tras el desastre (Bedoya et al., 2006; Alcántara-Carrió
y Lacambra-Segura, 2012). El análisis de decisiones permite
seleccionar las medidas idóneas para reducir el riesgo hasta valores
aceptables, logrando una buena relación entre beneficios y coste de
las medidas, la protección y mejora del medio ambiente y, sobre
todo, la máxima seguridad posible para la población.

Los mapas de peligrosidad de las amenazas, de vulnerabilidad y de


riesgo son una herramienta fundamental para incorporar los riesgos
en los procesos de ordenación y gestión del territorio y, por tanto,
en el desarrollo de una política de prevención y corrección (Díaz de
Terán, 1996). Además de los mapas y sistemas de información
geográfica (SIG), existen otras herramientas participativas,
descriptivas y cuantitativas como por ejemplo, narraciones, índices
compuestos y conmutativos, análisis de síndromes, diagramas tipo
araña, indicadores, modelos basados en simulaciones o en
escenarios, enfoques inductivos y deductivos, entre muchas otras
que complementan la localización espacial de los riesgos con las
características de las poblaciones, sus capacidades de respuesta y
el entorno físico y natural. El uso conjunto de todas estas
herramientas permite a los científicos, formuladores de políticas,
planificadores y tomadores de decisión definir estrategias idóneas
acordes con los tipos de eventos que afectan cada área en
particular.

20
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

RIESGOS GEOLÓGICOS EN EL LITORAL

Delimitación de la franja litoral

Desde un punto de vista físico o geológico, el litoral es aquella


franja cuya morfología, dinámica y evolución está controlada por la
interacción de los agentes marinos (oleajes, mareas y corrientes) y
continentales (vientos, ríos y glaciares). La evolución de los litorales
depende también de la acción de procesos gravitacionales
(isostasia, deslizamientos y derrumbamientos) asociados a la
tectónica de placas (actividad volcánica, sísmica y diastrófica) y de
procesos geoquímicos (meteorización física y química de las rocas
y sedimentos). La influencia de los seres vivos (bioerosión y
bioconstrucción) es especialmente determinante en la configuración
y evolución de los litorales en latitudes bajas y medias. Además,
debe incluirse de manera muy especial, la acción directa e indirecta
del hombre como factor principal de muchas modificaciones
litorales, especialmente a lo largo de las costas desarrolladas. Por
todo lo anterior, la costa es un medio esencialmente dinámico, con
una gran diversidad de morfologías y un transporte de sedimentos
muy intenso.

Por otra parte y desde una perspectiva ecológica, el litoral es la


franja donde la interacción de gran diversidad de procesos marinos
y terrestres genera las condiciones propicias para la presencia de
un gran número de ecosistemas específicos, con una gran
producción biológica y biodiversidad. Estos ecosistemas (arrecifes
coralinos, bosques de manglar, praderas de fanerógamas marinas)
son áreas de reproducción, alimentación, cría y/o desarrollo de
muchas especies y se caracterizan por su alta sensibilidad a los

21
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

cambios en los parámetros ambientales. Por ello, una vez


degradados, su recuperación suele ser muy lenta y en algunos
casos imposible.

Atendiendo a los aspectos socioeconómicos, el litoral es la franja


donde el hombre realiza actividades relacionadas con la presencia o
proximidad del mar, incluyendo las poblaciones y territorios
colindantes dedicados a la pesca, las actividades portuarias y de
comercio, el turismo, la industria y la agricultura.

Los criterios para definir la extensión del litoral desde un punto de


vista socio-económico o administrativo difieren según países. Así, la
costa puede incluir toda una provincia o cuenca fluvial, y llegar
hasta 12 o incluso 200 millas náuticas hacia mar abierto. Por tanto,
desde esta perspectiva, la costa o el litoral se extienden por lo
general mucho más allá de los límites que puedan trazarse
exclusivamente con criterios geomorfológicos o ecológicos.

La lucha contra los riesgos y desastres en el litoral debe integrar


estas tres visiones (física-geológica, ecológica, socio-económica) y,
por tanto, es necesario hacer referencia al litoral en su sentido y
extensión superficial más amplios posibles (Fig. 2).

22
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 2. Esquema general de la franja litoral (Correa, 2006).

El aprovechamiento intensivo y las intervenciones antrópicas en los


últimos siglos conllevan tremendas presiones ambientales sobre el
litoral. La construcción de puertos, instalaciones industriales,
represas, carreteras, edificaciones, etc. ha modificado en muchos
casos la intensidad y dirección de los procesos naturales,
generando nuevas amenazas. De hecho, la evolución actual de
muchos litorales del mundo está más controlada por los efectos de
las actividades antrópicas que por el curso de los procesos
naturales (Fig. 3).

En este contexto, no es difícil entender que el litoral (con su zona


terrestre y fondos marinos adyacentes) sea la franja más cambiante
del planeta: en el litoral el cambio es la regla y la estabilidad es la
excepción.

23
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo
Fuentes
descarga de ríos
erosión de linea de
costa temperatura
transporte hacia la playa evapo-transpiración
precipitación olas
procesos eólicos corrientes de deriva litoral
mareas
Pérdidas viento
acreción costera tormentas
por tormenta descarga de ríos
CLIMA
canales de mareas
estructuras costeras
procesos eólicos
transporte hacia
plataforma
extracción de recursos BALANCE DE PROCESOS
SEDIMENTOS COSTEROS

NIVEL
ACTIVIDADES RELATIVO
Construcción de vías HUMANAS DEL MAR
alteración de dunas
extracción de aguas subterráneas
desarrollo de cuencas fluviales
estructuras costeras Subsidencia tectónica
dragado subsidencia por compactación
mantenimiento de playas cambios eustáticos del nivel del mar
movimiento de tierra cambios seculares del nivel del mar

Fig. 3. Factores de cambio de la franja litoral (modificado de Morton,


1977).

Amenazas naturales y catástrofes en el litoral

En las regiones litorales es donde impacta el oleaje de los


temporales y maremotos, y donde muestran su mayor virulencia los
huracanes, entre otras amenazas. Así mismo, en el litoral se
concentra la mayoría de la actividad sísmica y volcánica de las
zonas emergidas, más concretamente en los márgenes
continentales activos (p. ej. Cordillera de los Andes) y los
archipiélagos volcánicos, tanto en los arcos islas de borde de placa
(p. ej. Islas del Caribe), como en las islas volcánicas asociadas a
puntos calientes de intraplaca (p. ej. Islas Canarias) o de borde de
placa (p. ej. Islandia).

24
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

El terremoto y posterior tsunami que asoló Lisboa en 1755, el


terremoto y tsunami en el sur de Chile el 1960, el terremoto y
tsunami que asoló la costa Pacífica de Colombia en 1979, el
terremoto y tsunami que impactó en el sudeste asiático en 2004, el
tsunami que arrasó las costas de Tohoku en Japón en 2011, los
efectos en 2005 del huracán Katrina en New Orleans y del huracán
Ike sobre Haití y Cuba en 2008 o de la tormenta Xynthia en
Febrero/Marzo 2012 en la Península Ibérica, Francia y Alemania,
son algunos de los muchos ejemplos que justifican la necesidad de
sistematizar los estudios climáticos, oceanográficos y geológicos a
lo largo de todo el mundo. Estos estudios son básicos para analizar
las amenazas, vulnerabilidades y riesgos litorales.

El litoral está expuesto a grandes catástrofes por eventos puntuales,


como los anteriormente citados, pero también a otros de carácter ya
permanente en la mayoría de las zonas, como son las inundaciones
por la subida del nivel del mar y la erosión costera. En el nuevo
contexto del cambio climático, estas amenazas crónicas implican
ya, y más aun en el futuro, la desaparición de grandes extensiones
de terrenos bajos, con los consiguientes daños y destrucción de
propiedades, infraestructuras y recursos (campos de cultivo, aguas
subterráneas, zonas turísticas, etc.). Las consecuencias
socioeconómicas serán de la mayor importancia, y las decisiones
que se tomen hoy con respecto al uso y desarrollo de los litorales
determinarán en gran medida su magnitud e impactos.

Aumento de la vulnerabilidad en las zonas costeras

La población humana lleva cerca de un millón de años creciendo de


modo exponencial (Cohen, 1995), no es algo nuevo de estos

25
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

últimos siglos, pero gracias al desarrollo tecnológico se estima que


en tan sólo 30 años (2000 a 2030) se pasará de 6.100 a más de
8.000 millones de habitantes. En la actualidad, el 53% de la
población mundial vive a menos de 200 km de la orilla del mar, y
este porcentaje crece exponencialmente. La población mundial en
zonas rurales está estabilizada, mientras que las zonas urbanas y
especialmente las megalópolis (ciudades con más de 10 millones
de habitantes) concentran todo este crecimiento. La mayoría de
estas megalópolis se encuentran en la costa, como es el caso de
Tokyo, la ciudad más grande del mundo con 35 millones de
habitantes en 2005, Nueva York, Bombay, Sao Paulo o Lagos, la
ciudad que más rápidamente crece en la actualidad (Organización
de Naciones Unidas, 2007). Actualmente, el 13% de las poblaciones
urbanas están ubicadas a menos de 10 m sobre el nivel del mar
(McGranahan et al., 2007) y para la década 2080 más de 561
millones de personas podrían estar en riesgo 1:1000 de inundación
de en las zonas costeras (Nicholls y Wong, 2007).

Este crecimiento demográfico acelerado implica la formación de


grandes núcleos de pobreza marginales, sin agua potable ni
sistemas de saneamiento, con edificaciones de pésima calidad
desarrolladas sobre laderas inestables, en riberas inundables o
incluso en vertederos y otras zonas contaminadas. Por todo ello, no
es extraño que la mayor vulnerabilidad a los riesgos naturales se dé
en el litoral, y especialmente en los países del tercer mundo o en
vías de desarrollo. No obstante, los daños producidos por las
inundaciones en la ciudad de Nueva Orleans al paso del huracán
Katrina en 2005, con miles de personas que años después aun
continuaban desplazadas, o la inundación y más de 60 muertes
causadas por el ciclón Xynthia en Europa en 2010, ponen de

26
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

manifiesto que todos los países están expuestos a las catástrofes


naturales. Un ejemplo más reciente es el terremoto y tsunami de
Japón en el 2011, a pesar de tener la población más concienciada y
educada con respecto al riesgo por seísmos y tsunamis, con
sistemas de alarmas eficientes y barreras de protección de gran
tamaño, no estaban preparados para un tsunami de dichas
características.

Aumento de los riesgos litorales

El registro de amenazas debidas a eventos climáticos extremos


(inundaciones, sequías, huracanes, tornados, olas de frío y calor,
etc.) han aumentado en los últimos años (Voigt, 2004; IPCC, 2007).
No obstante, el proyecto europeo MICORE (Morphological Impacts
and Coastal Risks Induced by Extreme Storm Eventsm
www.micore.eu), con más de 50 indicadores de tormentas aplicados
en 9 países y 12 regiones, ha concluido que no existe incremento
en las tormentas (intensidad, duración, etc.) en los últimos 50-60
años (Ciavola et al., 2011). Tampoco hay ninguna razón para
pensar en la intensificación de la ocurrencia o intensidad de las
amenazas de carácter geotectónico (erupciones volcánicas,
terremotos, maremotos, fallas, etc.), relacionadas con la liberación
de energía del interior de la Tierra. Sin embargo, la vulnerabilidad
de las zonas litorales ante dichas amenazas geotectónicas está
aumentando, debido a su crecimiento demográfico acelerado y la
construcción de los núcleos de población pobre en las zonas más
expuestas a inundaciones, deslizamientos, seísmos y maremotos.
Por tanto, debido fundamentalmente a que ha aumentado la
vulnerabilidad de la población costera, los riesgos y desastres
naturales en el litoral serán cada vez más dañinos y frecuentes.

27
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

EJEMPLO DE APLICACIÓN: LA EROSIÓN COSTERA

El balance sedimentario en la costa es el resultado de los


procesos de erosión, transporte y sedimentación, debido a la acción
de los agentes geológicos externos, tanto marinos como
continentales, pero también de otros muchos factores que afectan a
la dinámica litoral. Así por ejemplo, en el Caribe sur colombiano,
con una intensa actividad neotectónica, la actividad del diapirismo-
volcanismo de fangos ha controlado a corto y largo plazo muchos
de los cambios morfológicos costeros (Ramírez, 1959, 1969;
Correa, 1990; Vernette et al., 1992), además de ocasionar nueve
muertes relacionadas con manifestaciones violentas (explosiones)
del fenómeno (Correa et al., 2005; Correa y Morton, 2009)

Una costa con un balance sedimentario próximo a cero indica que


los procesos de erosión y sedimentación están compensados,
oscilando de forma dinámica en torno a una situación de equilibrio.
Por el contrario, si el balance sedimentario es negativo indica que
predomina la erosión y si es positivo, indica que predomina la
sedimentación.

La costa se erosiona cada año de forma natural, debido


principalmente a los temporales, y se suele compensar con
periodos de sedimentación a lo largo del mismo año (Wright y Short,
1984). Sólo cuando el balance sedimentario muestra una tendencia
negativa a largo plazo, debido por ejemplo a los menores aportes
de sedimentos por los ríos, la erosión costera se convierte en un
riesgo, o finalmente una catástrofe si llegan a producirse daños.

28
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Análisis de las amenazas y su peligrosidad

En diversos capítulos de este manual se muestran metodologías


para evaluar la erosión costera, por lo que tan sólo cabe aquí añadir
una pequeña introducción a la metodología de análisis de las
amenazas naturales, que son principalmente la acción de los
temporales, la subida del nivel del mar y los procesos
neotectónicos.

Para analizar la peligrosidad de los temporales se realiza el análisis


estadístico de los registros previos de oleaje en aguas profundas, o
bien series retrospectivas predichas por métodos numéricos. A
partir de estos datos, se obtienen las expresiones ajustadas de las
funciones de distribución para el régimen extremal (p. ej. Gumber,
Weibull). Con dichas expresiones, a partir de registros de unas
pocas décadas, se predicen eventos extremos con periodos de
retorno de 100 o 500 años (Puertos del Estado, 1994), lo cual
implica no obstante admitir que la tendencia o comportamiento
climático actual no variará.

La peligrosidad de los temporales en cada tramo de la costa se


evalúa mediante modelos numéricos de propagación del oleaje.
Dichos modelos, teniendo en cuenta factores tales como las
condiciones del oleaje en aguas profundas, la morfología del fondo,
las mareas astronómicas y meteorológicas, calculan la altura del
oleaje en la zona de rompiente, próxima a la orilla (Fig. 4).

29
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

A
4521000
Hs
4550000
Prof.
Acantilados
2.75 m
4520000
200 m 2.50 m

4540000 de Mont-Roig 180 m


160 m
4519000 2.25 m

140 m 2.00 m
4518000
120 m 1.75 m
4530000
100 m
1.50 m
90 m 4517000

80 m 1.25 m

4520000 70 m 4516000
1.00 m
60 m
0.75 m
50 m 4515000

C
4510000 40 m 0.50 m

Delta del Ebro 30 m


20 m
4514000
0m 1000m 2000m
0.25 m

309000 310000 311000 312000 313000 314000 315000 316000


0.00 m
10 m
4500000
5m
0m 4521000

4490000
Hs 4520000
2.5 m
290000 300000 310000 320000 330000 340000 350000 360000
2.25 m
4550000 4519000

Acantilados 2m
4518000

activos
1.75 m

4545000 1.5 m
4517000

1.25 m

4516000

B
1m

4540000 0.75 m
4515000

0m 10000m 20000m 0.5 m

0.25 m 4514000 D 0m 1000m 2000m

325000 330000 335000 340000 345000 350000 355000 0m


309000 310000 311000 312000 313000 314000 315000 316000

Fig. 4. Propagación de un temporal (Dir=78ºN, Hs=2.5 m, Tp=6s) en


el Delta del Ebro y en los acantilados de Mont-Roig (NE España):
batimetría (A), altura de ola (B, C) y corrientes inducidas (D).
Obtenido con el software SMC de la Univ. de Cantabria.

La peligrosidad de los temporales también puede ser evaluada por


sus cotas de inundación (runup), calculadas a partir de la altura y
periodo del oleaje y la pendiente de la playa. Para predecir las cotas
de inundación futuras es necesario además considerar la actual
tasa de ascenso del nivel medio del mar (n.m.m.) y la aceleración
en dicha tasa de ascenso (Ferreira et al., 2006).

Los modelos numéricos para la predicción en tiempo real están


ampliamente desarrollados para el análisis de las condiciones
meteorológicas o el oleaje. Así por ejemplo, el modelo Weather
Research and Forecasting Model (WRF) desarrollado entre otros
por el National Center for Atmospheric Research (NCAR) de los

30
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Estados Unidos permite predecir los riesgos por el paso de


huracanes (trayectorias e intensidad). También existen modelos
para la predicción de tsunamis (tiempo de llegada hasta un
determinado local) principalmente en el Pacífico. Sin embargo, en el
caso de predicción de riesgos, como la erosión costera o las
inundaciones estos modelos son aun un tema por desarrollar.

La peligrosidad del ascenso del n.m.m. se evalúa en función de su


tasa actual y la aceleración de dicha tasa. Las variaciones del nivel
del mar se ha registrado tradicionalmente en los mareógrafos, los
cuales permiten determinar la oscilación relativa del n.m.m. en cada
tramo de la costa, pero precisan de correcciones de los
movimientos del terreno para obtener tasas eustáticas (globales) del
ascenso del n.m.m. En las últimas décadas, las mediciones desde
satélites (Topex-Poseidon, Jason) permiten obtener mediciones del
ascenso global del n.m.m. en todos los océanos.

La peligrosidad de las amenazas de origen tectónicos se puede


obtener a partir de estudios geofísicos que determinan la estructura
del subsuelo, flujos de calor, profundidad del foco e intensidad de
los seísmos, etc. combinados con el cálculo del periodo de retorno
por métodos probabilísticos, según la frecuencia e intensidad de los
eventos previos registrados.

No obstante, hay que indicar que las causas o amenazas que


producen la erosión costera, entendida como un riesgo o desastre,
son en realidad muy diversas (Bird, 1996), tanto de origen natural,
antrópico como combinación de ambos. Estas causas actúan tanto
a escala global (ascenso del n.m.m.), como regional (construcción
de embalses que reducen drásticamente los aportes de sedimentos

31
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

fluviales al litoral) y local (la construcción de obras marítimas que


frenan el transporte de deriva litoral hacia las playas situadas aguas
abajo). El estudio de las amenazas implica analizar cada una de
estas posibles causas.

Análisis de la vulnerabilidad: cartografía de usos del litoral

En una segunda etapa, el análisis de la vulnerabilidad pretende


identificar los procesos físicos, sociales, económicos, culturales y
ambientales que reducen la resiliencia de las comunidades costeras
y disminuyen su capacidad de preparación, respuesta, atención y
reconstrucción frente a un evento. Por tanto, es necesario analizar
entre otros factores: i) los cambios en el uso del suelo y sus usos
potenciales, ii) las características de la población, tanto
demográficas como la forma en cómo se ubican en el territorio, iii)
las características y condiciones de la infraestructura, tanto los
bienes de uso público e infraestructura básica como los tipos de
asentamientos y distribución de las zonas industriales, iv) la
capacidad de las instituciones para desarrollar políticas e
implementarlas, v) las políticas relacionadas con la planificación del
territorio, la explotación de los recursos naturales y la gestión de
emergencias y desastres, vi) las actividades económicas relevantes,
su diversidad y dependencia de los recursos naturales; vii) la
degradación ambiental; viii) el deterioro de las dinámicas naturales y
ix) los sistemas de comunicación y alerta temprana. Dependiendo
del tipo de evaluación y la disciplina a cargo se hace mayor o menor
énfasis en cada uno de estos temas (Lacambra et al., 2008).

Los SIG son una herramienta muy útil para visualizar, consultar y
actualizar información, mediante mapas temáticos que muestran los

32
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

diferentes usos del territorio y los cambios del mismo a través del
tiempo. La integración de esta información y el uso de otras
herramientas mencionadas previamente permiten determinar la
exposición al peligro (Fig. 5).

Fig. 5. Vulnerabilidad de las costas europeas ante la erosión costera


(Fuente: proyecto europeo “Eurosion”, www.eurosion.org).

Análisis del riesgo: mapas de riesgo de erosión

La erosión litoral es un proceso crónico, donde es importante


evaluar el riesgo de pérdidas materiales, pero donde a veces
también se producen pérdidas de vidas humanas, como por ejemplo
por la erosión de los acantilados en el Algarve (S de Portugal) en
agosto de 2009. Existen múltiples ejemplos de edificaciones e
infraestructuras costeras arrasadas por la erosión, obligando a sus
pobladores a trasladarse tierra adentro, o incluso emigrar a otro
país, como está ocurriendo en algunos atolones del Pacífico. La

33
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

desaparición de islotes, debido a la erosión costera y el ascenso del


nivel medio del mar, implica para algunos países una reducción
drástica de su Zona Económica Exclusiva, la zona de soberanía
nacional que abarca 200 millas mar adentro desde la orilla.

La erosión costera se suele analizar mediante la determinación de


las tasas de retroceso de la orilla o las variaciones en la topografía,
pero es importante señalar que este análisis debe realizarse en una
escala de tiempo del orden de varios años o incluso décadas.

Los cambios en la topografía y en la línea de orilla se pueden


obtener a partir de secuencias de mapas (cartografía antigua) o con
fotografías aéreas verticales, disponibles en muchos países desde
1940 aproximadamente. Las nuevas imágenes de satélite
complementan esta información, si bien tan sólo cubren las últimas
décadas. Otras técnicas más novedosas, basadas en los sensores
remotos aerotransportados o terrestres (p. ej. LIDAR), el sistema
GPS diferencial, o las ecosondas multihaz, están suponiendo un
gran avance en la resolución espacial y temporal de la
monitorización tridimensional de la costa.

El estudio con GPS diferencial de la topografía de las playas de


Maspalomas y El Inglés (2005-2008), las más importantes
turísticamente de las Islas Canarias, ha mostrado que dichas playas
poseen aun su capacidad natural para recuperarse de la acción de
los temporales, si bien dicha recuperación necesita del transcurso
de varios años (Fig. 6), matizando así el comportamiento clásico de
las playas según Wright y Short (1984), mientras que el sistema
dunar contiguo muestra una clara tendencia erosiva desde hace
décadas (Hernández et al., 2007).

34
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

0.5

Sediment Budget (m3/m2) 0


Storm erosion
-0.5

-1
Erosion/Accretion periods
-1.5 2005 2006 2007 2008 2009

-2
0 200 400 600 800 1000 1200 1400
Days since the beginning of the study (7th sept 05)

Fig. 6. Recuperación natural a medio plazo de la erosión por


temporales en las playas del sur de Gran Canaria (Alcántara-Carrió
y Fontán, 2009).

En la actualidad, el déficit sedimentario es un problema


generalizado en todas las costas, con más del 70% de las playas
del mundo con tendencia neta erosiva a largo plazo (Bird, 1996).

Los riesgos de erosión costera se obtienen al combinar las tasas de


retroceso de la orilla con el inventario de los elementos humanos
que se verán afectados por dicho retroceso e inundación, para lo
cual resulta de nuevo muy útil el empleo de los SIG.

Análisis de decisiones: medidas frente a la erosión costera

Las medidas de prevención están dirigidas a predecir la


peligrosidad de las amenazas, y de su metodología tratan varios
capítulos de este manual. Por su parte, la medida de mitigación
más importante ante la erosión costera es la ordenación de los usos
del territorio adaptada a la distribución de las amenazas naturales.
La determinación del deslinde del Dominio Público Marítimo
Terrestre permite una mejor ordenación de los usos del territorio, al
impedir la construcción de viviendas y otras infraestructuras en
35
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

zonas con riesgo de erosión o inundaciones. En España, por


ejemplo, este deslinde está basado en la predicción de la línea de
máxima inundación debido al oleaje o la marea en los próximos 100
años (buscando el escenario más adverso posible).

Las medidas de respuesta clásicas en zonas afectadas por erosión


han sido denominadas medidas de defensa, ya que están basadas
en proteger el territorio mediante obras duras y blandas. Las
primeras, difíciles de eliminar una vez construidas, incluyen muros
verticales o inclinados, espigones y diques paralelos a la orilla, ya
sean de escollera o de bloques. Por su parte, las obras blandas
incluyen la regeneración las playas y dunas mediante alimentación
artificial (aporte de áridos), la restauración de ecosistemas infra,
inter y supramareales, el empleo de geotextiles y el descenso del
nivel freático en la orilla. La generalización del problema de la
erosión a grandes tramos de costa, en países con pocos recursos
económicos, combinado con el alto coste y la baja eficiencia de
muchas de estas medidas de defensa, propició el desarrollo de
nuevas medidas de respuesta basadas en la adaptación de los usos
del territorio y la retirada planeada (Damen, 1999).

En la actualidad, las medidas de adaptación de usos y retirada


planeada, clara alternativa a la clásica defensa con obras de
ingeniería costera, son cada vez más frecuentes tanto en países
desarrollados como en vías de desarrollo. Así por ejemplo, la
retirada planeada y la restauración de ecosistemas es una
estrategia que se está implementando en los países nórdicos y el
Reino Unido. Friers (2010) describe con detalle el proceso y
beneficios en la costa este de Inglaterra.
REFERENCIAS

36
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Alcántara-Carrió, J., Lacambra-Segura, C. 2012. Uso de indicadores


de calidad para el diagnóstico y evaluación eficiente de la gestión
de riesgos naturales en zonas costeras. Libro de resúmenes del I
Congreso Iberoamericano de Gestión Integrada de Áreas Litorales.
Cádiz. 163-164.
Alcántara-Carrió, J., Fontán, A. 2009. Factors controlling the
morphodynamics and geomorphologic evolution of a cuspate
foreland in a volcanic intraplate island (Maspalomas, Canary
Islands). Journal of Coastal Research Sp. Is. 56(1), 683-687
Bedoya, G.; Correa, I.D.; Hermelín, M.; Mejía, L.J., Toro, M.I. 2006.
Metodología para la elaboración y puesta en marcha del plan de
prevención y atención de desastres. Plan Municipal de emergencias
para municipios costeros. Universidad EAFIT. Medellín. 96 pp.
Bird, E.C. 1996. Beach management. John Wiley & Sons, Ltd.
Chichester. 281 pp.
Bryant, E. 2005. Natural hazards. Cambridge University Press. 312
pp.
Ciavola, P., Ferreira, O., Haerens, P., Van Koningsveld, M.,
Armaroli, C. 2011. Storm impacts along European coastlines. Part 2:
lessons learned from the MICORE project. Environmental Science &
Policy, 14, 924-933.
Cohen, J.E. 1995. How many people can the Earth support? W.W.
Norton & co, New York. 532 pp.
Correa, I.D., Alcántara-Carrió, J., González, D.A. 2005. Historical
and recent shore erosion along the Colombian Caribbean coast.
Journal of Coastal Research Sp. Is, 49, 52-57.
Correa, I.D. 2006. El Litoral antioqueño. En: Hermelín, M. (ed.)
Geografía de Antioquia. Academia Colombiana de Ciencias
Exactas, Físicas y Naturales (ACAC) Capítulo Antioquia-

37
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Universidad EAFIT. Fondo Editorial Universidad EAFIT, Medellín.


137-149.
Correa I.D., Morton, R.A. 2009. Coasts of Colombia. En: USGS
Science for a Changing World. http://coastal.er.usgs.gov/coasts-
colombia/
Cuvier, G. 1825. Discours sur les Révolutions de la Surface du
Globe et sur les Changements qu’elles ont Produits dans le Règne
Animal. G. Dufour y E. d'Ocagne (Eds.). Paris. 3ª edición.
Disponible en: http://www.victorianweb.org/science_texts/cuvier/
cuvier-f.htm.
Damen, M. 1999. Coastal hazards. International Institute for
Aerospace Survey and Earth Sciences ITC, 125 pp.
Díaz de Terán Mira, J.R. 1996. Los riesgos geológicos y la
ordenación del Territorio. XII Bienal de la Real Sociedad Española
de Historia Natural.
Ferreira, O., García, T., Matías, A., Taborda, R., Dias, J.A. 2006. An
integrated method for the determination of set-back lines for coastal
erosion hazards on sandy shores. Continental Shelf Research, 26,
1030-1044.
Friess D.A., Spencer, T., Möller, I. 2008. Managed Realignment and
the Re-establishment of Saltmarsh Habitat, Freiston Shore,
Lincolnshire, United Kingdom. En: ProAct Network. The Role of
Environmental Management and Eco-Engineering in Disaster Risk
Reduction and Climate Change Adaptation. ProAct Network/United
Nations International Strategy for Disaster Reduction. 124 pp.
Hernández, L., Alonso, I., Sánchez-Pérez, I., Alcántara-Carrió, J.,
Montesdeoca, I. 2007. Shortage of sediments in the Maspalomas
dune field (Gran Canaria, Canary Islands) deduced from analysis of
aerial photographs, foraminiferal content, and sediment transport
trends. Journal of Coastal Research, 23 (4), 993-999.

38
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Hsü, K.J. 1983. Actualistic catastrophism address of the retiring


president of the International Association of Sedimentologists.
Sedimentology, 30, 3-9.
Hutton, J. 1795. Theory of the Earth, with proofs and illustrations.
Vol. I. Cadell & Davies. Londres.
IPCC. 2007. Climate Change 2007: The Physical Science Basis.
Intergovernmental Panel on Climate Change WGI, Fourth
Assessment Report (4AR). http://www.ipcc.ch/SPM2feb07.pdf
Lacambra, C. 2009. Ecosystem-Inclusive Coastal Vulnerability
Assessment in Tropical Latin America. Tesis de Doctorado.
Departamento de Geografia. Universidad de Cambridge. 350 pp.
Lacambra, C., Spencer, T., Moeller, I. 2008. Tropical Coastal
Ecosystems as Coastal Defences. En: The Role of Environmental
Management in Disaster Risk Reduction and Climate Change
Adaptation. 1-12. ProAct Network. Suiza.
http://www.proactnetwork.org/proactwebsite/media/download/resour
ces/Ecosystem-based-DRR/ProAct%20Network_Environmental%20
Management%20for%20DRR%20Report_2008.pdf
Lyell, C. 1830-1833. The principles of Geology: being an attempt to
explain the former changes of the Earth’s surface by reference to
causes now in operation. 3 vol. John Murray. Londres.
McGranahan G, Balk D y Anderson B. 2007. The rising tide:
assessing the risks of climate change and human settlements in low
elevation coastal zones. Environment and Urbanization 19:17-37.
Morton, R.A. 1977. Historical Shoreline Changes and Their Causes,
Texas Gulf Shoreline. Geological Circular 77-6, Bureau of Economic
Geology, Univ. of Texas, Austin. 14 pp.
Organización de Naciones Unidas. 2007. World population
prospects: the 2005 revision.
http://esa.un.org/wpp/Documentation/publications.htm

39
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Nadim, F. 2005. Engineering practice of risk assessment and


management committee.
http://www.engmath.dal.ca/tc32/OsakaReport2005.html
Nicholls RJ y Wong PP. 2007. Coastal Systems and Low-lying
Areas. En: Parry M. L., Canziani O. F., Palutikof J. P., van der
Linden P. J. and Hanson C. E. (eds). Climate Change 2007:
Impacts, Adaptation and Vulnerability. Contribution of Working
Group II to the Fourth Assessment Report of the Intergovernmental
Panel on Climate Change. Cambridge University Press. 315-356.
Playfair, J. 1802. Illustrations of the Huttonian Theory of the Earth.
Cadell & Davies. Londres.
Puertos del Estado. 1994. Recomendaciones de Obras Marítimas
(ROM 0.3-91). Atlas de oleaje en las costas españolas. Ministerio
de Obras Públicas. España. 76 pp.
Ramírez, J.E. 1959. El volcán submarino de Galerazamba. Revista
de la Academia Colombiana de Ciencias Exactas, Físicas y
Naturales, 10(41), 301-314.
Ramírez, J.E, 1969. Los diapiros del Mar Caribe colombiano. Libro
Resúmenes I Congreso Colombiano de Geología, Bogotá, 31-39.
Rubiera J. 2005. Early Warning for Hurricanes. Thematic Session
Cluster 2 World Conference on Disaster Reduction. Kobe, Japon.
UNISDR. 2009. Terminología sobre Reducción del Riesgo de
Desastres. Estrategia International para la Reducción de Desastres
de las Naciones Unidas (UNISDR). Ginebra, Suiza. 39 pp.
USGS. 2001. National Assessment of Coastal Vulnerability to Sea-
Level Rise: Preliminary Results for the U.S. Gulf of Mexico Coast.
US Department of the Interior. US Geological Survey. URL:
http://pubs.usgs.gov/of/2000/of00-179/index.html.

40
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Vernette, G., Mauffret, A., Bobier, C., Briceño, L., Gayet, J. 1992.
Mud Diapirism, Fan Sedimentation and Strike-slip faulting,
Caribbean Colombian margin. Tectonophysics, 202, 335-349.
Voigt, T. 2004. Impacts of Europe’s changing climate, an indicator-
based assessment. Report Nº 2/2004. European Environmental
Agency. 107 pp. http://reports.eea.eu.int/climate_report_2_2004/en.
Wilches-Chaux, G. 1998. Guía de la RED para la gestión local del
riesgo en América Latina. Red de Estudios Sociales en Prevención
de Desastres en América Latina. 103 pp.
Wright, L.D., Short, A.D., 1984. Morphodynamic variability of surf
zones and beaches: a synthesis. Marine Geology, 56, 93-118.

41
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

EL USO DE LIDAR PARA LA ELABORACIÓN DE MAPAS Y


MODELOS DE AMENAZAS NATURALES EN ZONAS
COSTERAS
D.A. Friess1 y C. Lacambra2

1
Departamento de Geografía, Universidad Nacional de Singapur, 1
Arts Link, Republica de Singapur 117570. dan.friess@nus.edu.sg
2
Línea de servicios ambientales, Grupo Laera, Calle 9 No. 113 - 52
Oficina 1901 Bogotá, Colombia

INTRODUCCIÓN

Las zonas costeras son ambientes dinámicos, con una gran


diversidad de hábitats bajo la influencia de procesos físicos tales
como inundaciones, olas y corrientes entre otros. Estas áreas son
también de suma importancia para las poblaciones humanas (Small
y Nicholls, 2003). Muchas de las “mega-ciudades” y grandes
centros urbanos se encuentran en zonas costeras bajas y
expuestas a una amplia gama de amenazas naturales entre las que
se incluyen tormentas, oleajes fuertes, tsunamis, huracanes,
erosión y el aumento del nivel del mar (ANM). Existe por tanto una
necesidad inminente de evaluar y generar mapas de la
vulnerabilidad de dichas poblaciones costeras para poder planificar
y responder a tiempo y efectivamente ante dichas amenazas. Es
más, Brock y Purkis (2009) concluyen que si queremos realizar una
gestión costera efectiva, los planificadores de zonas costeras
requieren información cuantitativa y a gran resolución sobre la
elevación del terreno para poder realizar: gestión de recursos,
planificación, navegación e investigación.
43
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Este capítulo, describe el uso de plataformas aerotransportadas


LiDAR (Light Detection and Ranging) para proporcionar información
sobre la elevación del terreno, la evolución de la línea de costa y la
vulnerabilidad de las zonas costeras a las diferentes amenazas
naturales, a través del seguimiento, la cartografía y la modelación
del cambio en dichas áreas. Se presentan las ventajas del uso de
LiDAR comparando con otras técnicas de levantamiento topográfico
y cartografía de zonas costeras e ilustrando con casos de estudio
su uso en algunos de los procesos/amenazas costeros. Es muy
importante reconocer también las limitaciones de la tecnología
LiDAR, las cuales se discuten al final del capítulo.

LIDAR COMO UNA HERRAMIENTA DE SEGUIMIENTO DE LAS


DINÁMICAS COSTERAS

Existen una gran variedad de herramientas de teledetección que


han permitido la ubicación espacial de diversas características y
condiciones de las zonas costeras, como por ejemplo la
concentración de sedimentos suspendidos (Mertes et al., 1993), la
ubicación de hábitats intermareales (Friess et al., 2012a) y la
evaluación de recursos en costas tropicales (Mumby et al., 1999).
Sin embargo, la mayoría de las tecnologías de teledetección
proveen únicamente información espectral en dos dimensiones
(Lefsky et al., 2002), las cuales ignoran la crucial condición
tridimensional de las zonas costeras. El LiDAR aerotransportado
(detección y barrido) es una herramienta relativamente reciente,
desarrollada comercialmente a mediados de la década de 1990
para elaborar mapas de topografía compleja tridimensionalmente y
desde entonces ha sido muy utilizada en las zonas costeras.
44
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Análogo al RADAR, el LiDAR utiliza un escáner láser


aerotransportado que emite millones de pulsos rápidos sobre un
aérea, y utiliza el intervalo de tiempo entre la emisión de dicha nube
de puntos y su detección (señal reflejada) para calcular la medida
de la distancia (Chang, 2010); entre más rápido detecta el
instrumento la señal reflejada, estará más cercana al instrumento la
superficie reflejada, y por tanto a mayor elevación (Fig. 1).

Fig. 1. Principios del LiDAR

El instrumento LiDAR es capaz de obtener múltiples puntos para


cada zona barrida y es especialmente útil para mapear vegetación
en los hábitats costeros. El primer retorno (o retorno inicial) ha sido
reflejado de la superficie más cercana, por ejemplo la copa de un
árbol. Los retornos intermedios reflejan las estructuras de menor
elevación, como por ejemplo las ramas de árboles o arbustos. Los
últimos retornos (“suelo desnudo”) se asume que son los reflejos de
la superficie del suelo. Sin embargo, podrían ser en realidad
arbustos pequeños o pastos, dependiendo del hábitat escaneado.

La tecnología LiDAR tiene varias ventajas en comparación con otras


técnicas de levantamiento topográfico (Tabla 1). Posiblemente la
mayor ventaja es la alta resolución vertical si se considera la gran
45
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

cobertura espacial que puede ser alcanzada durante un barrido


aerotransportado. La resolución vertical es clave para el
seguimiento de las dinámicas costeras, especialmente en
ambientes intermareales someros. El levantamiento topográfico de
estos ambientes con cambios verticales pequeños, únicamente
puede ser realizado con tecnologías que tengan una resolución
mayor a dichos cambios. Las técnicas de levantamiento topográfico
in situ pueden alcanzar una gran resolución vertical pero al ser tan
dispendiosas son más apropiadas para áreas pequeñas. Otras
bases de datos topográficas tienen resoluciones verticales dos
magnitudes mayores que las de los datos LiDAR, y se encuentran
disponibles en escalas espaciales demasiado grandes (globales)
para el seguimiento adecuado de transectos angostos de costa.
LiDAR Estudio en USGS DEM SRTM1 ASTER DEM
tierra

Resolución Vertical Up to 0.13-0.152 0.023 Multiple (escala m) >104 30


(m)

RMSE5 0.096 -0.147 Pocos cm 2.44 m8 - <15 m9 16m10 20 m10


Vertical
(±m)

Resolución espacial escala cm a m escala cm 10 o 30 m 90 m 30 m

Escala espacial local region local Global global

Tabla 1 – Comparación de los parámetros LiDAR con otras técnicas


de levantamiento topográfico. 1Shuttle Radar Topography Mission
2 3
Shepard et al. (2012); DA Friess (Universidad Nacional de
Singapur), datos no publicados; 4Cowan y Cooper (2005); 5Residual
6 7
Mean Square Error; Zhang et al. (2011); Gesch (2009);
8
http://ned.usgs.gov/Ned/faq.asp#SRTM;
9
http://eros.usgs.gov/#/Guides/dem; 10Wang et al. (2012)

46
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

EL FUNCIONAMIENTO DEL LIDAR

Son necesarios una serie de pasos para planificar, ejecutar y


analizar una base de datos LiDAR (Fig. 2). En primer lugar, se
debería identificar preferiblemente el objetivo de la investigación
antes de realizar el barrido y colectar los datos LiDAR pues el
objetivo de la investigación podría influir sobre parámetros de vuelo
como la altitud, la cobertura espacial y la densidad de puntos
LiDAR. Durante la obtención de datos, el instrumento LiDAR es
conectado a otros instrumentos tales como un GPS diferencial
(DGPS) para calcular la posición, una Unidad de Medición Inercial
(IMU por sus siglas en inglés) para medir aspectos de orientación
de la aeronave como el cabeceo, guiñada y balanceo, puesto que
es imposible que una aeronave se mantenga a una velocidad y
orientación constantes. También es necesario considerar en el
producto final las pequeñas alteraciones en la orientación del
sensor causadas por la turbulencia. Algunas causas potenciales de
error incluyen: (i) zonas ‘muertas’ sin datos debido a la dirección
del escáner; (ii) distribución desigual de la densidad de puntos en el
medio y bordes de la imagen; (iii) reflejo deficiente de algunas
superficies (como el agua); y (iv) errores de posición debido a la
imprecisión del aparato de GPS a bordo de la aeronave y durante el
proceso de transformación de coordenadas. Leigh et al. (2009)
discuten con mayor detalle algunas de las fuentes potenciales de
error que podrían ocurrir en la fase de colección de los datos.

En segundo lugar, el procesamiento de los datos incluye una serie


de pasos tales como la integración de los datos LiDAR con los de
orientación y posición, la adición de un sistema de coordenadas y la
clasificación de los datos en retornos primarios, intermedios y
47
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

finales.

Fig. 2. Etapas de trabajo típicas de LiDAR

Normalmente, la mayoría de los usuarios manipulan datos


colectados y procesados por una compañía comercial o una
agencia gubernamental. Dichos usuarios se enfocan en los pasos
de análisis realizados por un programa de software de
teledetección/SIG, cuyo análisis típico incluye:

- Modelo digital de terreno (DTM) (También DSM (Modelo digital de


superficie). convierte los primeros retornos de los datos de puntos
LiDAR y los interpola utilizando una cuadrícula regular o una Red de
Triangulación Irregular (TIN). Por tanto, a las áreas entre los puntos
LiDAR se les atribuye un valor estimado de elevación con base en
48
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

una interpolación acotada de los puntos LiDAR alrededor.


- Modelo digital de Elevación (DEM): similar al DSM/DTM, aunque el
DEM a menudo se refiere únicamente al suelo desnudo (p. ej. el
último retorno de la base de datos de pulsos). En la práctica los
términos DSM y DEM son utilizados indistintamente.
- Modelos de aspecto/orientación: muestran la dirección
predominante de la pendiente del terreno para cada pixel .
- Modelo de pendiente: ilustra los cambios en la elevación del
terreno acorde la distancia, es decir, las imágenes se clasifican
según la pendiente.
- Modelo de Contornos: se pueden derivar mapas tradicionales de
contornos/curvas de nivel de los datos LiDAR, uniendo puntos de
igual elevación según un intervalo definido por el usuario.
. Substracción de imagen: se pueden substraer los valores z de los
pixeles de una imagen actual a partir de una imagen base (a
menudo una imagen LiDAR anterior del mismo lugar) para mostrar
acreción, erosión, etc.

La Fig. 3 presenta algunos de estos pasos obtenidos a partir de la


base de datos de una marisma costera en el este de Inglaterra.

49
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 3. Ejemplos de varios pasos del análisis LiDAR aplicados a la


base de datos adquiridos de una marisma costera en el este de
Inglaterra. a) Fotografía aérea de alta resolución de la zona
intermareal en 2006; b) Modelo de Pendiente LiDAR destacando los
arroyos y las defensas costeras [el blanco representa las
pendientes empinadas]; c) Modelo de contorno LiDAR en intervalos
de 0.5 m; d) substracción de la imagen del 2006 de una del 2002
resaltando las áreas de erosión por parte de los arroyos.

SEGUIMIENTO DE LA DINÁMICA DE LA LÍNEA DE COSTA

A escala geológica la línea de costa es dinámica, avanza y


retrocede constantemente acorde a los cambios del nivel del mar.
Sin embargo, se ha argumentado que la erosión reciente de la línea

50
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

de costa ha sido particularmente severa en varios lugares del


mundo debido al acelerado ANM (Zhang et al., 2004) y que cerca
del 70% de las costas mundiales pueden estar retrocediendo debido
a los cambios en el nivel del mar (Bird, 1985). Por tanto, existe una
necesidad de cuantificar las áreas en erosión para poder planificar
de una forma más informada mejor las zonas interiores y reducir así
la vulnerabilidad de las poblaciones costeras y la pérdida de bienes
e inversiones.

Para ello, es fundamental definir primero la línea de costa y las


zonas bajo influencia de las dinámicas costeras. La definición puede
ser tan simple como “donde la tierra se encuentra con el mar”,
aunque por la influencia de las mareas este límite no es estático. Se
pueden utilizar algunos indicadores más robustos (Stockdon et al.
(2002) y por Gens (2010)) que incluyen características visibles (p.ej.
el límite seco/húmedo) o indicadores derivados de los datos de las
mareas (p.ej. el promedio de las pleamares y bajamares). Con los
datos derivados de LiDAR se pueden identificar fácilmente las
líneas de costa puesto que: a) el indicador que se escoja puede ser
asociado a un cambio distintivo de la elevación, como el borde de
un acantilado; o b) las predicciones de las mareas pueden ser
sobrepuestas a una capa del LiDAR para calcular la posición de la
marca de la pleamar (Robertson et al., 2004).

Por tanto, cuando se utiliza un producto o resultado de un cambio


en la línea de costa, el usuario debería siempre analizar el indicador
de la línea de costa escogido para confirmar que es adecuado para
al objetivo de su investigación. A este respecto, para tener un buen
indicador de línea de costa es importante tener en cuenta el
momento de adquisición de los datos: los datos de una misma zona
51
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

deben tomarse siempre en el mismo momento del ciclo de mareas,


preferiblemente durante la bajamar para maximizar el área expuesta
(Stockdon et al., 2002), de modo que el borde del agua tenga en
una posición consistente.
Una vez el indicador de línea de costa ha sido identificado y
extraído, se pueden cuantificar los cambios temporales de la
posición de dicha línea comparando barridos repetidos de LiDAR, o
con una base de datos mixta, LiDAR-fotografias aéreas, y utilizando
herramientas de SIG de libre acceso tales como el Digital Shoreline
Analysis System (disponible en
http://woodshole.er.usgs.gov/project-pages/dsas/, ver Hapke y
Plant, 2010, Friess et al., 2012a).

Seguimiento del material erosionado de un acantilado en tres


dimensiones

En el mundo, aproximadamente el 75% de las costas son


acantiladas o rocosas (Bird, 2000). La erosión de los acantilados
amenaza a muchas poblaciones costeras. Las costas acantiladas
muestran tasas de retroceso diferencial debido a las diferencias en
la exposición/fuerza de la de las olas/corrientes, o por la geología
del acantilado. En general, la velocidad de retroceso de los
acantilados no suele ser lineal sino que suelen erosionarse
intensamente durante eventos de gran magnitud como las
tormentas. En algunos sistemas costeros los acantilados blandos
pueden ser una fuente importante de sedimentos para otros hábitats
costeros.
Para ampliar el estudio de la dinámica costera bidimensional
mostrada anteriormente, se puede hacer un seguimiento del
retroceso de los acantilados a través del tiempo (Hapke y Plant,
52
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

2010) utilizando métodos similares. Sin embargo, resulta mucho


más importante, en el uso de LiDAR, cuantificar el volumen del
material erosionado, empleando para ello dos o más bases de datos
LiDAR. Tradicionalmente, las estimaciones volumétricas han sido
calculadas a partir de perfiles costeros en una serie de transectos
que pueden estar separados por kilómetros. Estos podrían ser el
resultado de levantamientos topográficos con teodolitos
tradicionales y GPS diferencial o técnicas similares (Brooks, 2010).
Sin embargo, los modelos tradicionales únicamente pueden estimar
el valor del material perdido entre dos perfiles asumiendo que la
línea de costa es recta, y que las tasas de erosión son constantes
en toda su longitud.

La detección de cambio (substracción de imagen) entre dos o más


DTMs derivados de LiDAR puede cuantificar detalladamente el
volumen del material erosionado a lo largo de toda la línea de costa
(Fig. 4). Esta información es importante en el análisis de transporte
de sedimentos y recarga de playas (acantilados sedimentarios) o en
el cálculo de tasas de retroceso de la línea de costa y de erosión
volumétrica (acantilados rocosos).

Fig. 4. Representación esquematizada del cálculo volumétrico del


material erosionado.

53
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Caso de estudio - la costa sur de California

California es uno de los estados más poblados en Estados Unidos,


con grandes concentraciones urbanas (San Francisco, Los Angeles,
San Diego y otras) en las zonas costeras. Debido a la gran longitud
de la zona de generación del oleaje (wave fetch) en el Océano
Pacífico, la mayoría de los acantilados blandos de lodolita y
areniscas, a lo largo de las costas californianas, han experimentado
una intensa erosión. El riesgo de erosión de las costas de
California es muy conocido y se han realizado muchos estudios de
fotogrametría a gran escala en varios sectores (Moore y Griggs
2002; Hapke et al., 2009). Algunos de estos estudios han utilizado
fotografías aéreas históricas, combinadas con una línea de
acantilado derivada del uso de LiDAR para un periodo de tiempo
más reciente (Hapke y Reid, 2007) y se han realizado también
estimaciones del volumen de sedimento erosionado en algunas
áreas específicas. Así por ejemplo, entre 1998 y 2004, una franja de
43 km de acantilados del sur de California contribuyó con más de
150.000 m3 de material por año (Young y Ashford, 2006) a la zona
costera. Existen varias bases de datos LiDAR disponibles en forma
gratuita, para esta franja de la línea de costa; por ejemplo
www.opentopography.org (Fig. 5), lo cual fomentará el análisis de
datos.

54
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 5. Modelo en 3D de datos LiDAR de una sección del acantilado


en el Condado de Humboldt, con un ejemplo de una sección
transversal. Los datos provienen de www.opentopography.org

Los datos LiDAR pueden también ser utilizados para predecir la


erosión futura del acantilado. Hapke y Plant (2010) describe el uso
de los datos de LiDAR como un input del modelo bayesiano de
erosión de acantilado, que utiliza factores como la geometría del
acantilado, las tasas de erosión históricas (las dos pueden ser
derivadas potencialmente de LiDAR), la geología, el clima marítimo
para predecir el retroceso del acantilado en una franja de línea de
costa de 52 km en el sur de California.

55
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

MODELO DE ÁREAS EN RIESGO A AMENAZAS COSTERAS

Como ya se ha indicado, el LiDAR es útil para hacer seguimiento a


amenazas particulares de erosión a lo largo de la línea de costa,
especialmente desde la perspectiva de la pequeña/mediana escala
de la Geografía Física. Sin embargo, los datos espaciales a gran
escala proporcionados por LiDAR son también útiles para la
evaluación de la vulnerabilidad de la población costera a eventos de
baja frecuencia y gran magnitud como los huracanes, tormentas y
tsunamis. El uso de LiDAR en las evaluaciones de vulnerabilidad a
desastres naturales puede ser dividido en dos tipos principalmente:

- Contribución a las evaluaciones de vulnerabilidad: Típicamente,


una base de datos LiDAR puede ser utilizada como base
topográfica para los mapas de inundación producidos por un SIG,
identificando áreas que pueden estar por debajo del nivel de las
mareas más altas, o que podría inundarse durante un tsunami. Este
tipo de estudio ha sido realizado en Chennai (Usha et al., 2011) y
Cuddalore, en el suroriente de India (Murthy et al., 2011), donde
varios tsunamis históricos fueron simulados en un modelo
combinado hidrodinámico de topografía derivado de SIG para
proporcionar a los tomadores de decisión un mapa de vulnerabilidad
acorde a los riesgos. Los resultados del modelo fueron validados
utilizando medidas de campo tomadas después del Tsunami del
Sudeste Asiático de 2004. No obstante, estos modelos de
inundación, que se fundamentan únicamente en el relieve, podrían
excluir, particularmente en áreas urbanas, las redes de drenaje, las
cuales podrían acelerar la inundación en áreas aparentemente
seguras en un modelo de bañera básico.
- Modelo de los impactos de los fenómenos naturales: Una vez las
56
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

áreas en riesgo han sido identificadas, el LiDAR puede ser utilizado


para ayudar a modelar los impactos de un desastre en una
localidad. Por ejemplo, el uso de LiDAR fue clave en un modelo
hidrodinámico bidimensional de la Isla de Canvey, al sureste del
Reino Unido. En 1953, la Isla de Canvey fue severamente afectada
por una tormenta y murieron 58 personas (Baxter, 2005). Los datos
derivados de LiDAR han contribuido en la generación de modelos
para predecir los futuros impactos de tormentas similares,
describiendo la velocidad del agua, la extensión y volumen de la
inundación, así como para elaborar modelos con base en
escenarios según los diferentes patrones de ruptura de la defensas
costeras (Brown et al., 2007).

Caso estudio – mapas de inundación por tsunami en la Costa


Pacifica Colombiana

El Centro de Investigaciones Oceanográficas e Hidrográficas del


Pacífico, en Colombia, ubicado en la ciudad de Tumaco, ha
producido recientemente mapas de inundación por tsunami de las
ciudades de Tumaco y Buenaventura, ambas ubicadas en dicha
costa. Los mapas de inundación han sido derivados de datos LiDAR
superpuestos a bases cartográficas de fotografías áreas digitales.
Estos mapas, uno de los cuales se presenta en la Fig. 6, son de
libre acceso (CCCP, 2009) y han permitido identificar, de acuerdo a
las condiciones establecidas por el modelo de inundación, las zonas
más expuestas y por tanto la población en riesgo, así como las
áreas que podrían ser utilizadas como zonas seguras de
reubicación de la población o de desalojo en caso de un tsunami.
Los parámetros de inundación utilizados en cada mapa varían de
acuerdo con las simulaciones de terremotos que puedan producir
57
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

tsunamis en estos transeptos de costa, y según se indica se incluye


su magnitud, la distancia del epicentro de la línea de costa y el
estado de la marea. Es importante señalar que las mareas en esta
región son semi-diurnas y pueden tener amplitudes de hasta 6 m,
por tanto el mapa de inundación y la inundación real podrían variar
según el estado de la marea en el momento de llegada del tsunami.
La información suministrada en los mapas no detalla si las redes de
drenaje u otros cuerpos de agua como desembocaduras de ríos o
arroyos dentro de las ciudades fueron tenidos en cuenta, así como
si la vegetación, rugosidad o la batimetría fueron consideradas.

Fig. 6. Mapa de Inundación de la Bahía de Buenaventura, Costa del


Océano Pacífico de Colombia: Señala los cuerpos de agua (blanco),
las zonas inundadas como consecuencia de la simulación de un
tsunami de un terremoto de magnitud de 8.6 con marea alta (gris
oscuro) y las zonas que no se inundarían (gris claro).

La ciudad de Tumaco se encuentra ubicada en tres islas, siendo la


isla central la más densamente poblada y la que presenta mayor

58
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

vulnerabilidad a eventos extremos (Lacambra, 2009), y en particular


ha sido impactada por 4 tsunamis en los últimos 106 años: 1906
[magnitud 8.7], 1942 [magnitud 7.9], 1958 [magnitud 7.8] y 1979
[magnitud 8.0] (Herd et al., 1981). El análisis de cartografía histórica
permite suponer que es posible que la región haya sufrido otros
eventos extremos de este tipo previos a 1906 (Lacambra, 2009).

Este tipo de mapas de inundación son un paso importante en un


análisis integrado y multidisciplinario de vulnerabilidad y riesgo
(Bernard, 2002), y están siendo producidos para muchas ciudades
alrededor del mundo. Sin embargo, es importante destacar que
aunque los mapas de riesgo pueden delinear áreas que
potencialmente están en riesgo de una amenaza en particular y son
útiles para la planificación municipal a mediano y largo plazo, son
sólo una parte de la información que contribuye a la evaluación de
la vulnerabilidad, la cual está también determinada por la capacidad
de respuesta (por ejemplo rutas de evacuación, comunicaciones,
concienciación del riesgo, planes de emergencia, entre otras
muchas variables).

MODELO DE ÁREAS EN RIESGO AL AUMENTO RELATIVO DEL


NIVEL DEL MAR

El aumento acelerado del nivel del mar (ANM) es uno de los


impactos del cambio climático más estudiados, aunque existe una
gran incertidumbre sobre la magnitud exacta de dicho ascenso.
Independiente de la velocidad y magnitud del aumento, los impactos
directos observados incluyen: la inundación permanente de zonas
bajas, la erosión costera, la salinización de acuíferos y suelos, y el
mayor impacto de las amenazas naturales de origen marino-
59
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

costero.

El análisis del impacto del ANM se está convirtiendo rápidamente


en uno de los usos más importantes del LiDAR en la evaluación de
amenazas costeras. La utilidad principal del LiDAR es proporcionar
la línea base para el desarrollo de modelos de escenarios de
inundación. El LiDAR es particularmente eficaz pues su resolución
vertical es más afinada que la de otras bases de datos de topografía
(ver Tabla 1). Esto significa que se pueden plasmar en mapas
escenarios de ANM más detallados y que el área de inundación
resultante sería más precisa (Fig, 7).

Modelos típicos que utilizan datos derivados de LiDAR incluyen:

- Modelos de inundación tipo bathtub “bañera”. Los datos


topográficos derivados del LiDAR son utilizados como una capa
base sobre la cual se superpone un nivel del mar artificial. Este
modelo ha sido utilizado para plasmar en mapas la vulnerabilidad
ante un ANM de Long Island Nueva York (Shepard et al., 2012) y
otras zonas de estados de Estados Unidos (ver
www.csc.noaa.gov/digitalcoast). Sin embargo, este modelo podría
no incluir algunas dinámicas claves: a) la superficie que se ha
derivado del LiDAR no es estática a través del tiempo; la zona
intermareal (especialmente los hábitats costeros) es dinámica y
puede avanzar, retroceder o hundirse debido a procesos tectónicos
y geomorfológicos (Friess et al., 2012b); b) los modelos bathtub
podrían excluir las redes de drenaje, y c) pueden excluir también la
inundación por tormentas y tsunamis.

60
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

- Modelos dinámicos de inundación tales como el Sea Level Affects


Marshes Model (SLAMM), que incluye el movimiento de la
superficie (Traill et al., 2011). Tales modelos son a menudo
utilizados en la gestión de recursos naturales, por ejemplo de
humedales.

Fig. 7. Impacto en la delineación del contorno en los modelos de


inundación. La zona proyectada de inundación en un escenario de
ANM de 0.5 m puede ser sobreestimada si el contorno de
delineación es muy grande (a), comparada con un contorno de
delineación acorde con el escenario requerido (b), Gris Claro = mar;
gris oscuro = tierra; área con puntos = área proyectada de
inundación en un ANM de 0.5m

Caso de estudio - modelo de vulnerabilidad al ANM en el Sur de


Florida, EEUU

El sur de Florida se encuentra densamente poblado, a pesar de ser


una de las zonas más vulnerables al ANM en los Estados Unidos
debido a su bajo relieve. Titus y Richman (2001) muestran que una
gran proporción del sur de la Florida está por debajo de 1.5 msnm y
que entre 20216 y 25207 km2 del estado están por debajo de los 3.5

61
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

msnm. Según Weiss et al. (2011) más del 90% de la ciudad de


Miami está ubicada por debajo de los 6 msnm. Además Genovese
et al. (2011) indican que más de 5 millones de personas habitan el
Area Metropolitana de Miami y que desde 1990 la población ha
aumentando en un 35%. Los registros de NOAA indican que al
menos 57 huracanes impactaron a La Florida durante el siglo XX;
según se indica, el Huracán Andrew (1992) fue el que causó más
pérdidas económicas (26.5 billones de dólares) y la muerte de 23
personas en Miami. La vulnerabilidad de Miami al ANM y su
exposición directa a las fuerzas de los huracanes y tormentas
tropicales hacen que sus infraestructuras sean susceptibles a la
inundación.

En el sur de La Florida, incluido Miami, la transformación del uso del


suelo de los ecosistemas naturales (everglades y bosques de pinos)
en zonas agrícolas y urbanas, fue una gran actividad muy intensa
durante el siglo XX. Davis et al. (1994) en Walker et al. (1997)
indican que el 50% de estos hábitats naturales, aproximadamente
6.000 km2, han sido transformados desde 1900. Este cambio en el
uso del suelo conlleva impactos severos tanto en la biodiversidad
de la región como en los patrones hidrológicos naturales.

Los acuíferos de las comunidades costeras de La Florida ya están


experimentando intrusión salina (Deyle et al., 2007). Los impactos
del ANM ya han sido observados en ecosistemas de bosques
costeros que han retrocedido o han sido remplazados por
ecosistemas más tolerantes a condiciones ambientales más
salobres (Ross et al., 1994; Williams et al., 1999; Desantis et al.,
2007). Es más, gran parte de la línea de costa de La Florida podría
estar experimentando tasas de retroceso de 9.7 m por año en el
62
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

año 2095 (Delye et al., 2007).

En el sur de la Florida, debido a la importancia de la región y su


exposición a esta amenaza, se han realizado grandes esfuerzos
para producir mapas a partir de la información disponible y predecir
la vulnerabilidad de la población al ANM. Los planificadores
costeros se enfrentan con una verdadera necesidad de información
topográfica, precisa y de alta resolución (Deyle et al., 2007) a partir
de la cual puedan tomar decisiones relacionadas con el manejo
integrado de zonas costeras en el futuro inmediato. Zhang et al.
(2011) produjeron una serie de modelos predictivos para estimar el
área del sur de La Florida que potencialmente podría inundarse bajo
escenarios de ANM de 0.5-1.5 m (Fig. 8), concluyendo que los
Cayos de la Florida, al sur de la península, son particularmente
vulnerables al ANM puesto que muchas islas, de esta cadena de
1700 islas, se encuentran por debajo de los 2 m de elevación. El
LiDAR ha sido utilizado para crear polígonos de inundación de esta
área, donde ha sido combinado con otras bases de datos derivadas
de SIG para crear un escenario de ANM que inundaría el 91% del
área (>310 km2), desplazaría a más de 56000 personas y causaría
pérdidas de casi 27 billones de dólares en propiedades.

63
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 8. Inundación proyectada del Sur de La Florida bajo escenarios


de ANM de 0.5 m (a), 1.0 m (b) y 1.5 m (c). Inundated area
representa el área inundada; low-lying inland area representa las
zonas por debajo del nivel del mar proyectado, protegidas de la
inundación por barreras elevadas existentes (Fuente: Zhang, 2011)

Las grandes ciudades de La Florida han sido el centro de interés de


estudios nacionales. Por ejemplo una base de datos topográfica de
todo el país que utilizó el LiDAR como un componente clave, ha
trazado mapas topográficos de las grandes ciudades como Tampa y
Miami (Weiss et al., 2011). Estas bases de datos (p.ej. Fig. 9) de
línea base jugarán un papel importante en la predicción de
inundaciones futuras. Las bases de datos derivadas de LiDAR y acá
descritas, presentan una visión general detallada de las áreas bajo
mayor riesgo a inundación como consecuencia del ANM. Estos
productos pueden informar a los planificadores costeros y
tomadores de decisión señalando aquellas zonas con mayor
64
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

necesidad de medidas de protección costera. Se puede encontrar


más información acerca de la vulnerabilidad de La Florida al ANM
en una edición especial de la publicación Climate Change volumen
107(1-2).

Fig. 9. Topografía de algunas ciudades de La Florida. Estos mapas


de topografía han sido parcialmente derivados del LiDAR (Fuente:
Weiss et al. 2011).

LAS LIMITACIONES DEL LIDAR

Este capítulo ha presentado algunos ejemplos generales de la


utilidad del LiDAR en la gestión del riesgo, resaltando
especialmente sus ventajas sobre otras técnicas utilizadas en la
obtención de datos topográficos. Aunque el LiDAR ha sido utilizado
en gran variedad de paisajes costeros, es necesario considerar y
señalar también las limitaciones de esta herramienta.

65
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Resolución Vertical

Tal y como mencionamos anteriormente, una ventaja clave del uso


del LiDAR es su precisión vertical cuando se compara con otros
DEM de gran escala derivados de sensores remotos. Una
resolución vertical de ±0.15 m (Liu, 2008) es apropiada para hacer
seguimiento al cambio de sistemas tales como acantilados o playas
dinámicas, donde su erosión puede resultar en un cambio en la
elevación mayor al error inherente del instrumento LiDAR. Sin
embargo, ese error no es apropiado para el seguimiento continuo
de sistemas con pendientes suaves tales como los humedales
intermareales que podrían cambiar únicamente su altura en el orden
de mm cada año (Spencer et al., 2012).

Aspectos relacionados particularmente con modelos de inundación


por aumento del nivel del mar

El tema de la resolución vertical tiene un impacto particular en la


interpretación de los estudios sobre el ANM, que Gesch (2009) y
Gesch et al. (2009) describen con detalle y se resumen a
continuación. Todas las bases de datos topográficas tienen algún
error inherente debido a los errores relacionados con el método y la
colección de datos. Aunque el LiDAR reduce significativamente el
grado de error si se compara con técnicas topográficas más
comunes, aun presenta errores aparentes, a menudo expresados
como el RMSE o el 95% de intervalo de confianza (ver la Tabla 1).
Si el error en un producto LiDAR es de ±0.27 m (Tabla 1), la
elaboración de un mapa con 1 m de ANM produciría un resultado
preciso. Sin embargo, para escenarios de ANM menores al error del
instrumento LiDAR resultarían mapas de inundación en los cuales
66
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

no se podría diferenciar el ruido del instrumento sensor. Por tanto,


los investigadores deben considerar las limitaciones de las bases de
datos y no llegar a conclusiones que los datos no tienen capacidad
de producir.

Otros aspectos relacionados con error e incertidumbre

El tema del error vertical ya ha sido discutido, especialmente el error


de ±0.15 m y asociado con el RMSE. Sin embargo, este error es el
menor que se puede obtener, en condiciones ideales, y en la
práctica el error vertical puede ser mucho mayor, especialmente en
terrenos montañosos. Por su parte, el error horizontal (posicional)
puede variar desde 0.45 m (Zhang, 2011) hasta 5 m (French, 2003)
o más. Por tanto, sería necesario mejorar el error posicional para
identificar y hacer seguimiento a los procesos que se realizan a esta
escala de detalle.

Aspectos relacionados con el acceso y el costo de adquisición


de los datos

La colección de datos LiDAR es costosa y requiere de instrumentos


muy especializados. Esto significa que son necesarias cantidades
importantes de dinero para que los investigadores obtengan sus
propios datos LiDAR. Este es un gran obstáculo para los
investigadores en países desarrollados, y podría ser virtualmente
imposible para investigadores de países en desarrollo. Este
inconveniente puede ser solucionado a través de programas
institucionales/gubernamentales que coordinen y financien la toma
de datos LiDAR o la distribución de productos derivados del LiDAR.
Así ocurre en el Reino Unido (https://www.geomatics-
67
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

group.co.uk/geocms/), en grandes extensiones de EEUU (p.ej.


http://lidar.cr.usgs.gov/index.php,
http://www.opentopography.org/index.php y
http://pugetsoundlidar.ess.washington.edu/) y en Canadá
(http://agrg.cogs.nscc.ca/projects/LiDAR_Metadata). Sin embargo
este tipo de coordinación es rara en los países tropicales (muchos
de los cuales están en vías de desarrollo). De hecho, muchos
países cuentan con datos muy escasos de topografía costera o
carecen de ellos (Titus y Richman, 2001). Incluso, en algunos
países tropicales en los que potencialmente podrían existir
programas para la colección de datos coordinados como Singapur,
la información no está disponible para los investigadores o para el
público en general debido a la preocupación por la seguridad
nacional. Es de esperar que el acceso a los datos sea más fácil y se
puedan tomar y archivar más datos, así como que el costo de la
toma de esos datos se reduzca según se vayan desarrollando
tecnologías más eficientes.

Conocimiento y costos necesarios para el procesamiento y


manipulación de datos

El procesamiento y manipulación de datos LiDAR requiere de


muchos pasos utilizando programas especializados de sensores
remotos y SIG, por tanto es necesario tener formación detallada
antes de utilizarlo. Este es un problema común con otras técnicas
de la teledetección.
Los costos de infraestructura pueden ser también muy importantes
debido a que se necesitan programas especializados. Los cálculos
y la capacidad de almacenamiento de los datos pueden ser también
costosos. Los archivos de datos de LiDAR en el formato .ASCII
68
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

pueden contener millones de puntos individuales. Aunque la toma


de datos de gran resolución espacial es una ventaja clave del
LiDAR, los modelos derivados de estos pueden ser de gran tamaño.
Por tanto, los usuarios finales deben tener la capacidad de
almacenar, usar y modelar bases de datos derivadas de LiDAR de
gran tamaño (Liu, 2008). Liu (2008) y Leigh et al. (2009) discuten
otros aspectos técnicos relacionados con el procesamiento de los
datos, tales como la creación de DEM adecuados, filtros, etc.

Los Atlas digitales como Google EarthTM, aunque suelen ser poco
utilizados en la investigación científica (Friess et al., 2011), han
revolucionado el acceso a los datos geoespaciales y hacen
asequibles fácil y gratuitamente las imágenes satelitales al público
general.

CONCLUSIONES

La tecnología LiDAR ha revolucionado la investigación en las zonas


costeras y ha contribuido a las evaluaciones de vulnerabilidad
desde sus inicios. La posibilidad de cartografiar grandes zonas
costeras con una resolución vertical relativamente precisa no tiene
comparación con otras técnicas de teledetección. Esta
característica, al ser integrada en SIG, puede ser utilizada en una
gran variedad de estudios relacionados con amenazas costeras,
desde cambios volumétricos debido a la erosión de un acantilado en
particular, hasta la elaboración de mapas de vulnerabilidad y
proyección del aumento del nivel de mar a gran escala. Todos los
ejemplos presentados en este capítulo requieren datos de
topografía detallados para mostrar el cambio en la línea de costa a
través del tiempo o para identificar áreas que podrían ser
69
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

vulnerables a desastres naturales ahora o en el futuro. Otras


técnicas y bases de datos utilizadas en la actualidad no
proporcionan dicha información con la resolución necesaria para
hacer un seguimiento temporal o para la generación de modelos
detallados. El potencial de uso del LiDAR en el campo de las
amenazas costeras continuará mejorando según la cobertura de los
datos sea mayor en ambas escalas, la espacial y la temporal.

Sin embargo, aunque el LiDAR es una herramienta importante en la


cartografía costera, también debe ser utilizada apropiadamente.
Los científicos no deberíamos concluir más allá de lo que los datos
pueden proporcionar. Se deben identificar otras limitaciones, y ser
adecuadamente cuantificadas y comunicadas, particularmente
cuando los resultados de la investigación son incorporados en la
gestión práctica del territorio. Para maximizar el uso apropiado de
las bases de datos LiDAR, necesitamos asegurar mayor acceso
público a las bases de datos financiadas por el público y crear
plataformas donde los datos LiDAR puedan ser fácilmente
manipulados y analizados. Los progresos en la tecnología LiDAR y
el aumento de la cobertura en la escala temporal asegurarán un
seguimiento más efectivo y exacto de las amenazas costeras
permitiendo una mejor planificación en las diferentes escalas
necesarias.

70
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

AGRADECIMIENTOS

Daniel Friess agradece el apoyo del Departamento de Geografía (R-


109-000-141-133), a Singapore-Delft Water Alliance (R-303-001-
006-272/414), Universidad Nacional de Singapur. Gracias a Jacob
Arbuthnot Phelps (NUS) por su ayuda en la traducción. Los datos
de la Fig. 3 fueron obtenidos por la Agencia Ambiental del Reino
Unido y por National Environment Research Council’s Airborne
Research Survey. Los datos de la Fig. 5 son cortesía de
OpenTopography, con apoyo de National Science Foundation
(premios 0930731 y 0930643). Los autores agradecen a Blanca
Posada y el equipo de Geociencias del Invemar, por la revisión de
este capítulo y sus muy pertinentes comentarios.

REFERENCIAS
Baxter P.J. 2005. The east coast Big Flood, 31 January – 1
February 1953: a summary of the human disaster. Philosophical
Transactions of the Royal Society A 363, 1293-1312.
Bernard E.N. 2002. Recent developments in tsunami hazard
mitigation. En: Hebenstreit GT (Ed.). Tsunami Research at the end
of a Critical Decade. Springer, pgs 7-15.
Bird E.C. 1985. Coastline Changes. John Wiley & Sons. 219 pp.
Bird E. 2000. Coastal Geomorphology. John Wiley & Sons. 322 pp.
Brock J.C., Purkis S.J. 2009. The emerging role of LiDAR remote
sensing in coastal research and resource management. Journal of
Coastal Research 53, 1-5.
Brooks, S.M. 2010. Coastal change in historic times – linking
offshore bathymetry changes and cliff recession in Suffolk. The
Crown Estate, 92 pp Londres. Disponible en:
http://www.thecrownestate.co.uk/media/206987/coastal_changes_in
71
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

_suffolk.pdf
Brown J.D., Spencer T., Möller I. 2007. Modelling storm surge
flooding of an urban area with particular reference to modelling
uncertainties: a case study of Canvey Island, United Kingdom.
Water Resources Research 43, W06402.
CCCP, 2009. Mapa de inundación que cubre el área continental de
Buenaventura (Escala: 1:7000), Colombia.
http://www.cccp.org.co/index.php/descargas/category/16-
cat&usg=ALkJrhhpYEE-QnKgejjgYPzSg4wjlVzLZA#
Chang K. 2010. Introduction to Geographic Information Systems.
McGraw Hill. 488pp.
Cowan D. y Cooper G. 2005. The Shuttle Radar Topography
Mission – a new source of near-global digital elevation data.
Exploration Geophysics 36, 334-340.
Desantis L.R., Bhotika S., Williams K., Putz F.E. 2007. Sea-level
rise and drought interactions accelerate forest decline on the Gulf
coast of Florida, USA. Global Change Biology 13, 2349-2360.
Deyle R.E., Bailey K.C., Matheny A. 2007. Adaptive Response
Planning to Sea Level Rise in Florida and Implications for
Comprehensive and Public-Facilities Planning. Florida Planning and
Development Lab report, Florida State University. Disponible en:
http://research.fit.edu/sealevelriselibrary/documents/doc_mgr/328/U
S_Florida_SLR_Adaptive_Planning_-_Deyle_et_al_2007.pdf
French J.R. 2003. Airborne LiDAR in support of geomorphological
and hydraulic modelling. Earth Surface Processes and Landforms
28, 321-335.
Friess D.A., Kudavidanage E.P. y Webb E.L. 2011. The digital globe
is our oyster. Frontiers in Ecology and the Environment 9, 542.
Friess D.A., Spencer T., Smith G.M., Möller I., Brooks S.M. y
Thomson A. 2012a. Remote sensing of geomorphological and
72
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

ecological change in response to saltmarsh managed realignment,


The Wash, UK. International Journal of Applied Earth Observation
and Geoinformation 18, 57-68.
Friess D.A., Krauss K.W., Horstman E.M., Balke T., Bouma T.J.,
Galli D., Webb E.L. 2012b. Are all intertidal wetlands naturally
created equal? Bottlenecks, thresholds and knowledge gaps to
mangrove and saltmarsh ecosystems. Biological Reviews 87, 346-
366.
Gens R. 2010. Remote sensing of coastlines: detection, extraction
and monitoring. International Journal of Remote Sensing 31, 1819-
1836.
Genovese E., Hallegatte S., Dumas P. 2011. Damage Assessment
from Storm Surge to Coastal Cities: Lessons from the Miami Area.
In: Geertman et al. (eds.), Advancing geoinformation science for a
changing world. Lecture Notes in Geoinformation and Cartography,
2011, Volumen 1, Parte 1, 21-43, DOI: 10.1007/978-3-642-19789-
5_2.
Gesch D.B. 2009. Analysis of LiDAR elevation data for improved
identification and delineation of lands vulnerable to sea-level rise.
Journal of Coastal Research 53, 49-58.
Gesch D.B., Gutierrez B.T., Gill S.K. 2009. Coastal elevations. In:
JG Titus et al. Coastal Sensitivity to Sea-Level Rise: A Focus on the
Mid-Atlantic Region. U.S. Environmental Protection Agency,
Washington DC, pp. 25-42
Hapke C.J., Reid D. 2007. National Assessment of Shoreline
Change, Part 4: Historical Coastal Cliff Retreat along the California
Coast. United States Geological Survey Open File Report 2007-
1133. Disponible en: http://pubs.usgs.gov/of/2007/1133/of2007-
1133.pdf
Hapke C.J., Reid D., Richmond B. 2009. Rates and trends of coastal
73
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

change in California and the regional behaviour of the beach and


cliff system. Journal of Coastal Research 25, 603-615.
Hapke C., Plant N. 2010. Predicting cliff erosion using a Bayesian
probabalistic model. Marine Geology 278, 140-149.
Herd D.G., Youd T.L., Meyer H., Arango J.C., Person W.J.,
Mendoza C. 1981. The great Tumaco, Colombia earthquake of 12
December, 1979. Science 211, 441-445.
Lacambra, C. 2009. Ecosystem-Inclusive Coastal Vulnerability
Assessment in Tropical Areas of Latin America. Tesis de doctorado.
Departamento de Geografia. Universidad de Cambridge. 426 pp
Lefsky M.A., Cohen W.B., Parker G.G., Harding D.J. 2002. LiDAR
remote sensing for ecosystem studies. BioScience 52, 19-30.
Leigh C.L., Kidner D.B., Thomas M.C. 2009. The use of LiDAR in
digital surface modelling: issues and errors. Transactions in GIS 13,
345-361.
Liu X. 2008. Airborne LiDAR for DEM generation: some critical
issues. Progress in Physical Geography 32, 31-49.
Mertes L.A., Smith M.O., Adams J.B. 1993. Estimating suspended
sediment concentrations in surface waters of the Amazon river
wetlands from Landsat images. Remote Sensing of the Environment
43, 281-301.
Mumby P.J., Green E.P., Edwards A.J., Clark C.D. 1999. The cost-
effectiveness of remote sensing for tropical coastal resources
assessment and management. Journal of Environmental
Management 55, 157-166.
Murthy M.V., Usha T., Pari Y., Reddy N.T. 2011. Tsunami
vulnerability assessment of Cuddalore using numerical model and
GIS. Marine Geodesy 34, DOI:10.1080/01490419.2011.547797
Moore L.J., Griggs G.B. 2002. Long-term cliff retreat and erosion
hotspots along the central shores of the Monterey Bay National
74
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Marine Sanctuary. Marine Geology 181, 265-283.


Robertson W.V., Whitman D., Zhang K., Leatherman S.P. 2004.
Mapping shoreline position using airborne laser altimetry. Journal of
Coastal Research 20, 884-892.
Ross M.S., O’Brien J.J., da Silveira L., Sternberg L. 1994. Sea-level
rise and the reduction in pine forests in the Florida Keys. Ecological
Applications 4, 144-156.
Shepard C.C., Agostini V.N., Gilmer B., Allen T., Stone J., Brooks
W., Beck M.W. 2012. Assessing future risk: quantifying the effects of
sea level rise on storm surge risk for the southern shores of Long
Island, New York. Natural Hazards 60, 727-745.
Small C., Nicholls R.J. 2003. A global analysis of human settlement
in coastal zones. Journal of Coastal Research 19, 584-599.
Spencer T., Friess D.A., Möller I., Brown S.B., Garbutt A.G., French
J.R. 2012. Surface elevation change in natural and re-created
habitats, eastern England, UK, with particular reference to Freiston
Shore. Wetlands Ecology and Management 20, 9-33.
Stockdon H.F., Sallenger A.H., List J.H., Holman R.A. 2002.
Estimation of shoreline position and change using airborne
topographic Lidar data. Journal of Coastal Research 18, 502-513.
Titus J.G., Richman C. 2001. Maps of lands vulnerable to sea level
rise: modeled elevations along the US Atlantic and Gulf coasts.
Climate Research 18, 205-228.
Traill L.C., Perhans K., Lovelock C.E., Prohaska A., McFallan S.,
Rhodes J.R., Wilson K.A. 2011. Managing for change: wetland
transititions under sea-level rise and outcomes for threatened
species. Diversity and Distributions 17, 1225-1233.
Usha T., Murthy M.V., Reddy N.T., Mishra P. 2011. Tsunami
vulnerability assessment in urban areas using numerical model and
GIS. Natural Hazards 60, 125-147.
75
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Walker R.T., Solecki W.D., Harwell C. 1997 Land use dynamics and
ecological transition: the case of South Florida. Urban Ecosystems
1: 37–47.
Wang W., Yang X., Yao T. 2012. Evaluation of ASTER GDEM and
SRTM and their suitability in hydraulic modelling of a glacial lake
outburst flood in southeast Tibet. Hydrological Processes 26, 213-
225.
Weiss J.L., Overpeck J.T., Strauss B. 2011. Implications of recent
sea-level rise science for low-elevation areas in coastal cities of the
conterminous U.S.A. Climatic Change 105, 635-645.
Williams K., Ewel K.C., Stumpf R.P., Putz F.E., Workman T.W.
1999. Sea-level rise and coastal forest retreat on the west coast of
Florida, USA. Ecology 80, 2045-2063.
Young A.P., Ashford S.A. 2006. Application of airborne LiDAR for
seacliff volumetric change and beach-sediment budget
contributions. Journal of Coastal Research 22, 307-318.
Zhang K. 2011. Analysis of non-linear inundation from sea-level rise
using LiDAR data: a case study from South Florida. Climatic Change
106, 537-565.
Zhang K., Douglas B.C., Shearman S.P. 2004. Global warming and
coastal erosion. Climatic Change 64, 41-58.
Zhang K., Dittmar J., Ross M., Bergh C. 2011. Assessment of sea
level rise impacts on human population and real property in the
Florida Keys. Climatic Change 107, 129-146.

76
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

APLICACIONES RADAR EN ZONAS COSTERAS

F. Isla, L. Cortizo y J. M. Bedmar

Instituto de Geología de Costas y del Cuaternario, UNMDP, Funes


3350, Mar del Plata, Argentina, fisla@mdp.edu.ar

INTRODUCCIÓN

La fotografía aérea convencional ha sido repetidamente utilizada en


áreas costeras. Las experiencias de las Segunda Guerra Mundial
requirieron de datos confiables para desembarcos de tropas
anfibias. Los sensores operados desde satélites fueron útiles para
el mapeo de áreas extensas pero su resolución espacial no
alcanzaba para playas de sólo 50 m de ancho. La llegada de los
sensores modernos de alta resolución espacial (IKONOS, OrbView,
QuickBird, GeoEye) abrió nuevas posibilidades de aplicación. Sin
embargo, quedaban excluidos los sectores selváticos o con
nubosidad frecuente en que los sensores pasivos no lograban llegar
a rasgos superficiales de interés.

Los satélites activos como el Radar emiten energía en una


determinada banda, hacia uno de los costados de la plataforma en
movimiento, y luego registra los ecos. A través del efecto Doppler
se puede discriminar si los objetos de acercan o alejan de la
plataforma. Para mejorar la resolución se asume que la plataforma
tiene una gran antena aunque en realidad es la misma antena que
se desplaza a una velocidad constante (radar de apertura sintética).
Una misma plataforma puede tener sensores que operan midiendo

77
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

la dispersión del sonido, formar imágenes o trabajar como altímetro


midiendo la altura de vuelo en relación a al velocidad del sonido (Fig.
1). La interpretación de imágenes SAR va a depender del tipo de
reflexión, que puede ser especular o difuso. En barreras medanosas
costeras, puede existir doble reflexión cuando existen superficies
horizontales y verticales capaces de reflejar las microondas. La
reflexión difusa se da cuando el sonido encuentra coberturas
capaces de provocar múltiples reflexiones que atenúan la respuesta.
Pero en zonas medanosas, las microondas de mayor longitud de
onda son capaces de penetrar la arena seca (Fig. 1).

A B

Fig. 1. A) Plataformas operando como dispersómetro, captando


imágenes, o actuando como altímetro (modificado de Purkis y
Klemas, 2011). B) Respuesta de la microondas de radio a
diferentes medios en barreras medanosas.

Con el objeto de mapear los cambios costeros de los frentes de


hielo que rodean la Antártica también se han utilizado imágenes
SAR (Syntethic Aperture Radar) del satélite canadiense Radarsat-1
de 25 m de resolución espacial (utilizando la banda C de 5,6 cm de
longitud de onda), drapeadas con imágenes pancromáticas del
satélite SPOT de 10 m de resolución espacial. Estos resultados
fueron sectorizados en ArcInfo, y mapeados en una proyección
polar estereográfica referenciada al elipsoide WGS84 (Liu y Jezek,

78
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

2004). Las imágenes de 1997 fueron comparadas con imágenes del


mismo radar del año 2000 y con mosaicos de un satélite
declasificado (Declassified Intelligence Satellite Photographs DISP)
de los años 60. De este modo, se logró determinar el ritmo de
retroceso del hielo antártico en los últimos años.

LIDAR y RADAR

Los sensores activos emiten en una determinada longitud de onda y


luego analizan la reflexión de esas ondas. El LIDAR (Light detection
and ranging) utiliza las bandas visibles o infrarrojas y se han
operado desde aviones para lograr información de áreas forestadas
o sumergidas. Para dunas costeras se han aplicado diferentes filtros
de esta información LIDAR en la isla de barrera de Cabo Hatteras
(Zang y Whitman, 2005).

Las imágenes obtenidas del RADAR (radio detection and ranging)


operan en las bandas de microondas (Fig. 2), y a través del efecto
Doppler simulan una antera muy extensa (denominada synthetic
aperture radar o SAR) logrando mejorar las resoluciones espaciales.
Las primeras experiencias con satélites (SEASAT) o misiones
Shuttle (Sir A, B y C) permitieron reconocer sistemas de drenaje
debajo de la arena (“radar rivers”) o formas sumergidas a partir
condiciones especiales de las corrientes costeras (Tabla 1).

Cada banda es factible de diferentes aplicaciones.

79
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Max resol.
Sensor Interval L (cm) Banda
(m)
Seasat 1978-1978 20 23.5 L
ERS 1 1991-2000 15 5.7 C
Almaz 1991- 15 10.0 S
ERS 2 1995- 15 5.7 C
JERS 1 1992-1998 18 13.5 L
Radarsat 1 1995- 25 5.7 C
Envisat 2002-2012 150 5.7 C
ALOS 2003-2008 2.5 23.5 L
Yaogan 2006- 5 23.5 L
Radarsat 2 2007- 3 5.7 C
TerraSAR X 2007- 1 3.1 X
Cosmo-Skymed 2007- 1 3.1 X
TanDEM-X 2010- 1 3.1 X
KompSat 5 2010- 3 3.1 X
Sao Com 1 2014 10 23.5 L
HJ-1C 2015 ? 10.0 S

Tabla 1. Inventario de radares (vigentes en negrita; modificado de


Stoney, 2008, y Purkis y Klemas, 2011)

Fig. 2. Longitudes de onda de las diferentes bandas de microondas


(modificado de Abdelsalam et al., 2000).

A su vez las técnicas de polarización permiten combinar técnicas de


emisión y registración. Existen diferentes tipos de polarización
(lineal, elíptica o circular). Normalmente se usa la polarización lineal
o planar. La llamada polarización paralela es cuando la emisión y
80
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

registración son iguales (horizontal-horizontal, HH; vertical-vertical


VV). La polarización cruzada se usa cuando los sentidos de emisión
y recepción no coinciden. En general se acepta que la polarización
paralela detecta superficies rugosas dependiendo de la longitud de
onda; en cambio, la polarización cruzada reconoce volúmenes en
función de la dispersión (Lewis y Henderson, 1998).

En las dunas del desierto se confirmó que las microondas largas


como la P (68 cm) o la L (24 cm) tenían mejor desempeño
aumentando los contrastes en zonas arenosas que las de onda
corta (C, 5.6 cm; Blumberg, 1998; Blumberg et al., 2002). Nuevos
obstáculos fueron analizados como el doble rebote o los efectos de
las variaciones de la capa freática (Abdelsalam et al., 2000).
Utilizando diferentes sistemas de polarización de la banda C, las
imágenes del Radarsat sirvieron para discriminar rocas y fallas
geológicas en el desierto del Nilo (Gani y Abdelsalam, 2006) y
paleodrenajes en el desierto libio (Ghoneim et al., 2012).
Combinaciones de imágenes ASTER y Radarsat lograron
discriminar campos de dunas activas y fijas en la Península Valdés
(Blanco et al., 2007). La banda L del sensor PALSAR (satélite
ALOS) ha sido recientemente utilizada para confirmar la distribución
de oasis en el Desierto de Libia (Paillou et al., 2009). Estas
aplicaciones de las imágenes SAR se implementaron para la
interpretación de campos de dunas de Marte y Titán (Le Gall et al.,
2011; Hugenholtz et al., 2012).

Experimentos con sensores que trabajan con la banda L han


logrado detectar planchas de aluminio de 1 m2 enterradas a
diferentes profundidades en el Desierto de Negev. Esto fue logrado
con aviones operando a 70 m de altura (Daniels et al., 2003).

81
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

En general se acepta que el radar puede penetrar hasta 2 m de


arena seca. Cuanto mayor la longitud de onda, mayor es la
penetración. La profundidad de penetración (D) se relaciona a la
longitud de onda (L) a través de la fórmula;

(1)

donde E = constante dieléctrica, y


S = coeficiente de dispersión (Holcomb, 1998).

Aplicaciones RADAR a barreras medanosas

En los últimos años, combinación de fotografías obtenidas desde


aviones y satélites, así como imágenes satelitales han sido
repetidamente usadas para el mapeo de barreras medanosas (Isla
et al., 2001; Paskoff y Manríquez, 2004; Bértola y Merlotto, 2010;
Cortizo, 2010). Algunos de estos métodos combinan
procesamientos utilizando las bandas infrarrojas y el índice
normalizado de diferencia de vegetación NDVI (Rodríguez et al.,
2009). Utilizando imágenes satelitales convencionales con
diferentes posiciones del Sol (inclinación y orientación) se han
logrado estimaciones de alturas de dunas transversales y lineares
mejores que las logradas con los modelos digitales de terreno de
mejor resolución (Levin et al., 2004).

Las microondas de radio pueden penetrar arenas seleccionadas


pero no pueden atravesar los niveles freáticos (Fig. 3).

82
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 3. A) Experimento de penetración de espesores arenosos con


banda P (modificado de Daniels et al., 2003). B) Depresión
intermedanosa con nivel freático aflorante en superficie.

Aplicaciones RADAR a zonas vegetadas

Si bien el LIDAR ha sido frecuentemente utilizado para detectar


especies y reconocer niveles del sotobosque (Chen et al., 2007;
Kim et al., 2008), las posibilidades de combinar radares con
diferentes longitudes de onda abren grandes posibilidades en áreas
donde nubes o vapor impiden la utilidad de sensores pasivos. Las
primeras aplicaciones de polarización HH de la banda C del
Radarsat fue aplicada a reconocer áreas inundadas (Leconte y
Pultz, 1991). Los primeros mapeos de la estructura de marismas
utilizando imágenes ERS (banda C) en Florida identificaron algunos
recaudos a tener en cuenta sobre la humedad del suelo, la
presencia de agua en superficie y los efectos de la rugosidad
(Kasischke y Bourgeau-Chavez, 1997). En cultivos costeros de
China, las imágenes radar permitieron distinguir diferentes usos del
suelo (Huang et al., 2008). La banda C del radar europeo ha dado
muy buenos resultados para detectar formas litorales en zonas muy
vegetadas como la región del Darién (Panamá, Colombia) o de la
planicie meandrosa del Ganges (Lewis, 1998).

83
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

En zonas muy selváticas de Sudamérica (Amazonas) se utilizó el


sistema GeoSar de mapeo que tiene la ventaja de operar tanto en la
banda X como en la P (Carson, 2008). La banda X ha sido útil para
detectar la red fluvial debajo de la cubierta canópea, mientras que la
banda P logra discriminar bancos de arena dentro de la planicie
aluvial.

Combinaciones del sensor ASAR del Envisat (banda C) y del


PALSAR (satélite ALOS, banda L) han permitido evaluar los daños
por inundación de las marismas de Louisiana inducidos por
huracanes: ambas bandas fueron útiles cuando la inundación fue de
0,80 m de profundidad; en cambio, sólo la banda L fue útil cuando el
nivel inundado fue menor a 0,50 m (Ramsey et al. 2012). El mapeo
de humedales con imágenes SAR depende de que la vegetación
tenga una variabilidad simple con parches aproximadamente
uniformes (Henderson y Lewis, 2008). Imágenes SAR (banda L)
obtenidas desde avión han sido muy útiles en los ambientes
mareales del estuario del Amazonas. La polarización VV permitió
reconocer diferentes formas mareales, mientras que la HH
distinguió mejor entre tipos de vegetación. La polarización cruzada
HV fue apta para reconocer transiciones de ambientes (Souza-Filho
et al., 2011). Con un sentido aplicado, se discriminaron plantaciones
de palma aceitera de bosques tropicales a partir de la banda L del
sensor ALOS Palsar (Morel et al., 2011). La mejor recta de
regresión de la biomasa fue obtenida a partir de la polarización HV.

Aplicaciones de RADAR a formas sumergidas.

Las imágenes SAR han sido repetidamente utilizadas para detectar


porciones del mar con diferente tensión superficial. Así han sido

84
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

requeridas para seguir plumas de contaminación o derrames de


petróleo (slicks).

Por otro lado, desde las primeras imágenes obtenidas del Seasat,
los oceanógrafos identificaron formas sumergidas que habían
cartografiado con métodos subacuáticos (Achuchman et al., 1985).
Hubo que revisar la física para confirmar que bajo ciertas
condiciones en que la superficie del agua modula el fondo, las
imágenes SAR parecen captar las formas del fondo.

Al sur de la boca del Golfo San Matías, existe un campo de ondas


de arena con un significativo contenido de grava. A través de la
banda C del radar ERS se pudieron mapear estas ondas de arena y
grava (Fig. 4) que se extienden hasta profundidades de 60 m
(Gagliardini et al., 2005). Estas formas tienen alturas de 10 m y
longitudes de onda de 600 m, y pueden reconocerse en imágenes
SAR cuando:
- la altura de las irregularidades es significativa respecto a la
profundidad,
- la velocidad de la corriente es entre 0.4 y 0.5 m/s, y
- la velocidad del viento es entre 3 y 12 m/s (Schuchman et al.,
1985; Gagliardini et al., 2005).

85
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 4. Efecto de la modulación de formas de fondo (ondas de arena


y grava) en determinadas condiciones del mar y del viento
(modificado de Gagliardini et al., 2005).

Del mismo modo, bajo determinadas condiciones del mar y del


viento, se puede lograr el registro en imágenes ERS de la
modulación de las corrientes a partir de un fondo rocoso (Fig. 5). La
teledetección subacuática se basa en el uso de ondas de sonido
emitidas y registradas en el medio ácueo. El sonar de barrido lateral
utiliza el mismo principio de emisión hacia un costado (side-looking)
pero trabajando a ambos lados de la plataforma (embarcación).

Fig. 5. A) Imagen ERS de Necochea del 8 de noviembre de 2000,


con velocidades del viento de 3 m/seg. B) Sonografía de sectores
rocosos poco profundos cercanos a Necochea obtenidos a partir de
un sonar de barrido lateral (modificado de Isla et al. 2009).

86
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Un radar marino conectado a un GPS fue instalado en un vehiculo


todo terreno para ejecutar mapas litorales, desde zonas emergidas
hasta barras sumergidas. Este ingenioso sistema utiliza la banda X
con pulsos de 80 nanosegundos, un ancho de emisión de 2,8
grados y una velocidad de rotación de 24 rpm (McNinch, 2007). A
través de una tarjeta de conversión de analógico a digital de 100
MHz se lograba una señal digital cada 2-3 m.

Otros rasgos

Los problemas de la doble reflexión de imágenes SAR en edificios


pueden ser transformados en un recurso cuando se mejora la
resolución espacial. Las imágenes SAR del satélite TerraSAR-X de
1 m de resolución espacial (banda X) permite detectar los bordes de
los edificios en base a distribuciones gaussianas (Wegner et al.,
2010).
Las corrientes rip pudieron ser mapeadas con imágenes SAR
(banda C) en la costa portuguesa (Da Silva et al., 2006). La
rugosidad de las óndulas que se distribuyen sobre una planicie
mareal ha podido ser analizada a través de procedimientos
ejecutados sobre la dispersión de la banda C (Gade et al., 2008).
Remolinos y plumas de contaminación son rasgos que comúnmente
son monitoreados a través de imágenes SAR (Liu, 2011).

Los modelos digitales de terreno

Los modelos digitales de elevación construidos en base a las


misiones con altímetros utilizaron tanto información obtenida con la
banda X como la C (Hoffman y Walter, 2006) y han sido

87
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

repetidamente replicados a través de diferentes servidores. Uno de


los más recomendables con resolución de 90 m es:
http://srtm.csi.cgiar.org/SELECTION/inputCoord.asp

Los nuevos DEM de 30 m obtenidos por el satélite ASTER pueden


ser recabados en:
http://asterweb.jpl.nasa.gov/gdem.asp

Hasta el momento, estos modelos SRTM han servido para


evaluaciones de grandes campos eólicos (Blumberg, 2006). Si bien
los modelos ASTER tienen una resolución adecuada para
aplicaciones costeras, hasta el año 2011 se recomendaba usarlos
con cierta precaución (Slater et al., 2011).

Radares actuando como altímetros se han implementado en la


costa macromareal atlántica francesa para analizar las variaciones
de la marea. Radares dispuestos en tubos de PVC o acero
inoxidable se ha instalado en puertos con rangos entre 5 y 12 m,
con errores sistemáticos (raíz cuadrada de cuadrados) entre 0,6 y
2,3 cm (Martín Míguez et al., 2008).

CONCLUSIONES

1. Los radares proveen imágenes accesibles y útiles para


evaluaciones costeras aunque requieren interpretaciones diferentes
en términos de dispersión del sonido entre la vegetación,
penetración en la arena, y modulación de las corrientes costeras de
acuerdo a la batimetría poco profunda y la dinámica.

88
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

2. Los métodos de polarización de las diferentes bandas


requieren de nuevas interpretaciones físicas de la respuesta de los
rasgos costeros a las microondas.
3. Las aplicaciones sedimentológicas de las ondas largas (L y P)
contemplan la detección y mapeo de unidades infrayaciendo
campos medanosos.

AGRADECIMIENTOS

Los autores desean expresar su agradecimiento a las autoridades


de la Comisión Nacional de Actividades Espaciales (CONAE) de
Argentina que apoyaron esta investigación a través del proyecto 20
con financiación de la Agencia Nacional de Promoción de la Ciencia
y la Técnica.

REFERENCIAS BIBLIOGRÁFICAS

Abdelsalam, M. G., Robinson, C., El-Baz, F., Stern, R. J., 2000.


Applications of orbital imaging radar for geologic studies in arid
regions: the Saharan testimony. PE&RS, 66, 6, 717-726.
Bértola, G. R., Merlotto, A., 2010. Los médanos de Lobería y
Necochea. In Isla, F. I and Lasta, C. A. (eds.) 2010. Manual de
Manejo de Barreras medanosas de Buenos Aires. EUDEM, Mar del
Plata, 129-158.
Blanco, P.D., Metternicht, G. I., Del Valle, H., Sione, W., 2007. In
Rivas, R., Grisotto, A., Sacido, M. (eds.) Teletedetección: hacia un
mejor entendimiento de la dinámica global y regional. Ed. Martin,
Mar del Plata, 427-434.

89
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Blumberg, D. G., 1998. Remote sensing of desert dune forms by


polarimetric Synthetic Aperture Radar (SAR). Remote Sensing of
Environment, 65, 204–216.
Blumberg, D. G., 2006. Analysis of large aeolian (wind-blown)
bedforms using the Shuttle Radar Topography Mission (SRTM)
digital elevation data. Remote Sensing of Environment, 100, 179-
189.
Blumberg, D. G., Freilikher, V., Kaganovski, Y. Y Maradudin, A. A.
2002. Subsurface microwave remote sensing of soil-water content:
Field studies in the Negev Desert and optical modelling.
International Journal Remote Sensing, 23, 19, 4039-4054.
Carson, T. M., 2008. Topographic mapping in the Equatorial belt
using dual-frequency airborne IFSAR (GeoSar). PE&RS, 74, 10,
939-944.
Chen, Q, Gong, P., Baldocchi, D., Tian, Y. Q., 2007. Estimating
basal area and stem volume for individual trees from Lidar data.
PE&RS, 73, 12, 1355-1365.
Cortizo, L. C., 2010. Los médanos del Partido de San Cayetano
y Tres Arroyos, Buenos Aires. En Isla, F. I y Lasta, C. A. (eds.)
Manual de Manejo de Barreras medanosas de Buenos Aires, EUDEM,
Mar del Plata, 183-196.
Daniels, J., Blumberg, D. G., Vulfson, L. D., Kotlyar, A. L., Feiliker,
V., Ronen, G., Ben-Asher, J.,2003. Microwave remote sensing of
physically buried objects in the Negev Desert: implications for
environmental research. Remote Sensing of Environment, 86, 243-
256.
Da Silva, J. C. B., Sancho, F., Quaresma, L., 2006. Observation of
rip currents by Synthetic Aperture Radar. Proc. SEASAR 2006,
Frascati, Italy, 6 pp.

90
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Del Valle, H. F., Blanco, P. D., 2006. Indicadores espectrales del


rango de las microondas para la evaluación y monitoreo de la
erosión eólica. En Abraham, M. E. y Beekman, G. (eds.) Indicadores
de la desertificación para América del Sur. Mendoza, 65-84.
Gade, M., Alpers, W., Melsheimer, C, Tanck, G. 2008.
Classification of sediments on exposed tidal flats in the German
Bight using multi-frequency radar data. Remote Sensing of
Environment, 112, 1603-1613.
Gagliardini, D., Aliotta, S., Dogliotti, A., Clemente-Colón, P., 2005.
Identification of bed forms through ERS SAR images in San Matías
Gulf, Argentina. Journal of Coastal Research, 21, 1, 193-201.
Gani, N. D. S., Abdelsalam, M. D., 2006. Remote sensing analysis
of the Gorge of the Nile, Ethiopia, with emphasis on Dejen–
Gohatsion region. Journal of African Earth Sciences, 44,135–150.
Ghoneim, E, Benedetti, M. y El-Baz, F., 2012. An integrated remote
sensing and GIS analysis of the Kufrah Paleoriver, Eastern Sahara.
Geomorphology, 139-140, 242-257.
Henderson, F. M. y Lewis, A. J., 2008. Radar detection of wetland
ecosystems: a review. International Journal of Remote Sensing, 29,
5809–35.
Hoffman, J. y Walter, D., 2006. How complementary are SRTM-X
and -C band Digital Elevation Models? PE&RS, 72, 3, 261-268.
Holcomb, D. W., 1998. Applications of imaging radar to
Archaeological research. En Henderson, F. M. y Lewis, A. J. (eds.)
Principles and applications of imaging radar. Manual of Remote
Sensing 2, ASPRS; Ch. 16, 769-777.
Huang, M., Shi, Z. y Gong, J. 2008. Potential of multitemporal ERS-
2 SAR imagery for land use mapping in coastal zone of Shangyu
City, China. Journal of Coastal Research, 24, 1, 170-176.

91
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Hugenholtz, C. H., Levin, N., Barchyn, T. E., Baddock, M. C., 2012.


Remote sensing and spatial analysis of aeolian sand dunes: a
review and outlook. Earth-Science Reviews, 111, 319-334.
Isla, F. I., 1997. Procesos de canibalización de la barrera medanosa
entre Faro Querandí y Mar Chiquita, Buenos Aires. Revista de la
Asociación Geológica Argentina, 52, 4, 539-548.
Isla, F. I., Bértola, G. R., Farenga, M. O., Serra, S. B. y Cortizo, L. C.,
1998. Villa Gesell: un desequilibrio sedimentario inducido por
fijaciones de médanos. Revista Asociación Argentina de
Sedimentología, 5, 1, 41-51.
Isla, F. I., Bertola, G. Merlotto, A., Ferrante, A. y Cortizo, L., 2009.
Requerimientos y disponibilidad de arenas para la defensa de las
playas de Necochea y Lobería. Revista de la Asociación Geológica
Argentina, 65, 3, 446-456.
Isla, F. I., Cortizo, L. C. y Turno Orellano, H., 2001. Dinámica y
evolución de las barreras medanosas, Provincia de Buenos Aires,
Argentina. Revista Brasileira de Geomorfologia. Uniao da
Geomorfologia Brasileira, Rio de Janeiro, 2, 1, 73-83.
Kasischke, E. S. y Bourgeau-Chavez, L. L., 1997. Monitoring South
Florida wetlands using ERS-1 SAR imagery. PE&RS, 63, 3, 281-
291.
Kim, S., Schreuder, G., Mc Gaughey, R. J., Andersen, H. E., 2008.
Individual tree species identification using Lidar intensity data.
ASPRS 2008 Annual Conference Portland, Oregon, 12 pp.
Leconte, R., Pultz, T. J., 1991. Evaluation of the potential Radarsat
for flood mapping using simulated satellite SAR imagery. Canadian
Journal of Remote Sensing, 17, 3, 241-249.
Le Gall, A., Janssen, M. A., Wye, L. C., Hayes, A. G., Radebaugh,
J., Savage, C., Zebker, H., Lorenz, R. D., Lunine, J. I., Kirk, R. L.,
Lopes, R. M. C., Wall, S., Callahan, P., Stofan, E. R., Farr, T., The

92
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Cassini Radar Team, 2011. Cassini SAR, radiometry, scatterometry


and altimetry observations of Titan’s dune fields. Icarus 213, 608-
634.
Levin, N., Ben-Dor, E., Karnieli, A., 2004. Topographic information of
sand dunes as extracted from shading effects using Landsat images.
Remote Sensing of Environment, 90, 190-209.
Lewis, A. J., 1998. 1998. Geomorphic and hydrologic applications of
active microwave remote sensing. En Henderson, F. M. y Lewis, A.
J. (eds.) Principles and applications of imaging radar. Manual of
Remote Sensing 2, ASPRS; Ch. 11, 567-629.
Lewis, A. J. y Henderson, F. M., 1998. Radar fundamentals: the
geoscience perspective. En Henderson, F. M. y Lewis, A. J. (eds.)
Principles and applications of imaging radar. Manual of Remote
Sensing 2, ASPRS; Ch. 3, 131-181.
Liu, A. K., 2011. Coastal monitoring by satellite-based SAR. En
Tang, D. L. (ed.) Remote sensing of the changing oceans. Springer,
Ch. 10, 195-215.
Liu, H. y Jezek, K., 2004. A complete high-resolution coastline of
Antarctica extracted from orthorectified Radarsat SAR imagery.
PE&RS, 70, 5, 605-616.
McNinch, J. E., 2007. Bar and Swash Imaging Radar (BASIR): a
mobile X-band radar designed for mapping nearshore sand bars and
swash-defined shorelines over large distances. Journal of Coastal
Research, 23, 1, 59-74.
Martín Miguez, B., Le Roy, R.y Wöppelman, G., 2008. The use of
radar tide gauges to measure variations in sea level along the
French coast. Journal of Coastal Research, 24, 4C, 61-68.
Morel, A. C., Saatchi, S. S., Malhi, Y., Berry, N. J., Banin, L.,
Burslem, D. Nilus, R. y Ong, R. C., 2011. Estimating aboveground
biomass in forest and oil palm plantation in Sabah, Malaysian

93
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Borneo using ALOS PALSAR data. Forest ecology and


management, 262, 1786-1792.
Paillou, P., Schuster, M., Tooth, S., Farr, T., Rosenqvist, A., Lopez,
S., Malezieux, J. M., 2009. Mapping of a major paleodrainage
system in eastern Libya using orbital imaging Radar: The Kufrah
River. Earth and Planetary Science Letters, 277, 327–333.
Paskoff, R., Manríquez, H., 2004. Las dunas de las costas de Chile.
Instituto Geográfico Militar de Chile, Santiago, 112 pp.
Purkis, S., Klemas, V., 2011. Remote sensing and Global
environmental change. Wiley Blackwell, 367 pp.
Ramsey, E., Werle, D., Suzuoki, Y., Rangoonwala, A., Lu, Z., 2012.
Limitations and potential of satellite imagery to monitor
environmental response to coastal flooding. Journal of Coastal
Research, 28, 2, 457-476.
Rodríguez, I., Sanchez, M. J., Montoya, I., 2009. Estudios de
erosión con satélites en costas sedimentarias. En Alcántara Carrió,
J., Correa Arango, I. D., Isla, F., Alvarado Ortega, M., Klein, A. H. F.,
Cabrera Hernández, A. y Sandoval Barlow, R.2009. (Eds). Métodos
en Teledetección Aplicada a la Prevención de Riesgos Naturales en
el Litoral. Servicio de Publicaciones del Programa Iberoamericano
de Ciencia y Tecnología para el Desarrollo, España, 65-77.
Schuchman, R. A., Lyzenga, D. R. y Meadows, G. A., 1985.
Synthetic aperture radar imaging of ocean-bottom topography via
tidal-current interactions: theory and observations. International
Journal of Remote Sensing 6, 7, 1179-1200.
Slater, J. A., Heady, B., Kroenung, G., Curtis, W., Haase, J.,
Hoegemann, D. Shckley, C. y Tracy, K., 2011. Global assessment of
the new ASTER Global Digital Elevation Model. PE&RS, 77, 4, 335-
349.

94
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Souza-Filho, P. W. M., Paradella, W. R., Rodrígues, S. W. P., Costa,


F. R., Mura, J. C. y Gonçalves, F. D., 2011. Discrimination of
coastal wetland environments in the Amazon region based on multi-
polarized L-band airborne Synthetic Aperture Radar imagery.
Estuarine Coastal and Shelf Science, 95, 88-98.
Stoney, W. E., 2008. ASPRS’ guide to land images satellites.
ASPRS, 15 pp.
Wegner, J. D., Auer, S., Soergel, U., 2010. Extraction and
geometrical accuracy of double-bounce lines in high resolution SAR
images. PE&RS, 76, 9, 1071-1080.
Zhang, K., Whitman, D., 2005. Comparison of three algorithms for
filtering airborne Lidar data. PE&RS, 71, 3, 313–324.

95
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

GEORADAR APLICADO A LOS RIESGOS LITORALES:


FUNDAMENTOS, METODOLOGÍA, PROCESADO E
INTERPRETACION DE DATOS

D. Gómez-Ortiz y T. Martín-Crespo

Dpto. de Biología y Geología, ESCET, Universidad Rey Juan


Carlos. C/Tulipán s/n, 28933 Móstoles (Madrid), España.

INTRODUCCIÓN

La técnica geofísica del Georadar o GPR (Ground Penetrating


Radar) constituye una herramienta de gran utilidad para la
prospección geofísica somera, siendo sus ventajas principales su
alta resolución y la rapidez en la adquisición de datos. Se empezó a
utilizar de manera habitual a partir de la década de los años 1930
(Daniels, 2004), siendo sus primeras aplicaciones la estimación del
espesor de hielo en glaciares. Rápidamente, su ámbito de
aplicación se hizo cada vez más extenso, abarcando desde la
localización de agua dulce hasta el estudio de depósitos de sal,
pasando por diferentes aplicaciones estratigráficas, geotécnicas,
aplicadas al medio ambiente o a los riesgos geológicos. El estudio
de la dinámica costera en ambientes dunares es otro campo de
aplicación del georadar en desarrollo (Bristow et al., 2005; Bristow y
Pucillo, 2006; Pedersen y Clemmensen, 2005; Costas et al., 2006).
A partir de la década de 1970 experimentó una considerable
expansión, y actualmente constituye uno de los métodos de
prospección geofísica más utilizados y en continuo desarrollo. Entre
sus aplicaciones actuales más frecuentes se encuentran:

97
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

GEOLOGÍA
• Estratigrafía del terreno
• Localización de fracturas y discontinuidades en las rocas
• Caracterización litológica de materiales volcánicos
MEDIO AMBIENTE
• Localización del nivel freático
• Detección de plumas de contaminación
• Localización de bidones y/o depósitos enterrados
• Localización de servicios enterrados
• Delimitación de vertederos
• Caracterización de residuos mineros
• Intrusión de aguas salobres y marinas
RIESGOS GEOLÓGICOS
• Localización de procesos de disolución y/o subsidencia
• Estructura subsuperficial de deslizamientos
• Estructura y procesos erosivos en ambientes dunares
ARQUEOLOGÍA
• Localización de estructuras antiguas
• Localización de cementerios
• Vestigios ancestrales
GEOTECNIA
• Localización de servicios enterrados metálicos y no metálicos
• Detección de cavidades y fisuras del terreno
• Control de mallazo metálico
• Control del pavimento en carreteras
• Fugas de agua
• Patologías en la construcción
INVESTIGACIÓN FORENSE
• Localización y delimitación de fosas comunes
• Localización de cuerpos y restos forenses

98
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Como la mayoría de los métodos geofísicos, su aplicación no es


excluyente de la aplicación de otros, sino todo lo contrario, es
complementario y en algunas ocasiones precursor de métodos
como la tomografía sísmica, por ejemplo. En particular, las ventajas
que presenta el método del georadar sobre otros métodos
tradicionales tales como la sísmica, los sondeos y perfiles
eléctricos, etc, son las siguientes:
• Método no destructivo.
• Realización de medidas continuas en el espacio.
• Rapidez de la toma de medidas y de la interpretación de
datos.
• Amplia versatilidad del equipo para un gran número de
trabajos.
• Ausencia de impactos ambientales (no genera ruidos, ni polvo,
ni interrupciones del tráfico, etc.)
• Mínima interferencia, e incluso simultaneidad, con las labores
y trabajos habituales desarrollados en la zona de exploración.
• Mínimo impacto, fundamental en áreas de especial protección
como Parques Nacionales.

Aunque cada vez más ampliamente utilizada, esta técnica no está


exenta de limitaciones y problemas que es necesario conocer para
ser conscientes de su potencial real y su capacidad para resolver
problemas geológicos y ambientales concretos. Entre ellos se
encuentra la dependencia de la profundidad de prospección, del
contenido en agua y de las litologías existentes. Esta técnica debe
ser manejada por personal con la mayor experiencia posible porque
es necesario también un procesado de datos que, en ocasiones,
puede resultar complejo, y la interpretación de los resultados

99
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

obtenidos no es tan evidente y directa como en otros métodos de


prospección geofísica.

En el presente trabajo se tratan los fundamentos del georadar, la


metodología de adquisición y el procesamiento de datos básico,
junto con ejemplos de su aplicación al estudio de los riesgos
geológicos litorales.

FUNDAMENTOS DEL GEORADAR

El Georadar o GPR proporciona información sobre la estratigrafía


del terreno en los primeros metros de profundidad. Se basa en la
respuesta de los materiales del subsuelo a cortos pulsos de energía
electromagnética de alta frecuencia que son emitidos por una
antena.

Un equipo de georadar consta típicamente de los siguientes


elementos:
- una antena emisora
- una antena receptora
- una unidad central de adquisición de datos
- cables que conectan las antenas con la unidad central

Prescindiendo de los detalles técnicos y de modo muy básico, el


funcionamiento es el siguiente (Fig. 1): la unidad central hace que la
antena emisora, situada en contacto con el suelo, emita un pulso de
ondas electromagnéticas, de determinada frecuencia, verticalmente
hacia el interior del terreno. Las ondas viajan a través de los
materiales y en su camino experimentan la acción de tres procesos
básicos, reflexión, refracción y atenuación. Los procesos de

100
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

reflexión y refracción tienen lugar en la interfase entre materiales


con distintas propiedades electromagnéticas. La atenuación se
produce como consecuencia de la pérdida de energía de las ondas
electromagnéticas al atravesar los materiales, siendo ésta mayor
cuanto más grande sea la distancia recorrida por dichas ondas. Las
ondas reflejadas verticalmente viajan de vuelta hacia la superficie
del terreno donde son interceptadas y recogidas por la antena
receptora. Dicha antena registra tanto el tiempo transcurrido desde
que las ondas salieron de la antena emisora hasta que llegaron a la
receptora, como la intensidad de la señal recibida tras atravesar los
materiales del subsuelo. Dicha información es transmitida a su vez
a la unidad central que las registra y almacena de manera tanto
numérica como gráfica. A continuación, se produce un
desplazamiento tanto de la antena emisora como de la receptora y
el proceso se inicia de nuevo, obteniéndose un nuevo registro para
el nuevo punto de medida. Para una información más detallada
puede consultarse los manuales de Reynolds (1997), Annan (2003)
y Daniels (2004) entre otros. En la práctica, estas dos antenas
suelen ir montadas en una misma carcasa, de manera que se
reducen considerablemente el volumen y el peso del conjunto,
permitiendo un fácil manejo de las mismas. Además, la carcasa
contiene un material que aísla las antenas de la radiación
electromagnética de origen externo, lo que reduce en gran medida
el ruido producido por interferencias ajenas al equipo de georadar.
Se dice entonces que las antenas son apantalladas.

101
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Unidad de
control

Antena Antena
emisora receptora

Material 1

Material 2

Fig. 1. Componentes básicos de un equipo de georadar y


fundamento de su funcionamiento. La existencia de cambios en las
propiedades de los materiales da lugar a procesos de reflexión
(línea a trazos) y refracción (línea a puntos) en las ondas
electromagnéticas.

Como se ha comentado anteriormente, las reflexiones de las ondas


electromagnéticas se producen por cambios en las propiedades
electromagnéticas de las rocas, bien por variaciones en el contenido
en agua, o bien por cambios en la densidad de las rocas debidos a
la presencia de superficies y discontinuidades estratigráficas.
También se producen cambios en la velocidad de las ondas cuando
atraviesan huecos del terreno. Por tanto, el éxito de esta técnica
dependerá en gran medida de si las superficies de interés están
asociadas con un contraste dieléctrico lo suficientemente importante
como para producir fenómenos de reflexión. La profundidad de
penetración y la resolución de los datos están en función de la
longitud de onda y de la constante dieléctrica, parámetros
controlados fundamentalmente por el contenido en agua de los
materiales. La resolución y la profundidad de trabajo son
inversamente proporcionales, de modo que la resolución se

102
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

incrementa con la frecuencia de emisión de la antena, pero la


profundidad disminuye.

Desde un punto de vista práctico, con el método del georadar se


pueden obtener perfiles del terreno en profundidad, desplazando la
antena sobre la superficie, a lo largo de una dirección determinada.

En la Figura 2 se observan unas señales típicas emitidas y recibidas


por el georadar al desplazar la antena sobre el terreno. El pulso
emitido por el georadar se refleja, en primer lugar, en la superficie
del material y posteriormente en cualquier discontinuidad que
encuentre al propagarse por éste, siempre que exista un contraste
de conductividad dieléctrica suficiente.

Fig. 2. Perfil de georadar mostrando diferentes reflexiones, y


comparación con el pulso electromagnético registrado (derecha).

El comportamiento de las ondas electromagnéticas al penetrar en el


terreno depende de los siguientes parámetros:

- La conductividad eléctrica, es la medida de la facilidad de paso


que encuentra un impulso electromagnético al atravesar un
103
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

material, y se expresa numéricamente como la inversa de la


resistividad. Su unidad en el S. I. es el Siemens/m.

- La constante dieléctrica, es la magnitud física en la que se


basa el georadar y representa la permitividad al paso de un impulso
electromagnético con respecto a la permitividad que presenta el
vacío. Es, por tanto, un factor adimensional. En la práctica esta
constante depende de la conductividad eléctrica y del espesor de
material atravesado.

- La utilización del georadar se fundamenta en las reflexiones


inducidas sobre un impulso electromagnético al pasar de un
material a otro, entre los que existe un contraste de sus respectivas
constantes dieléctricas.

- La velocidad de propagación de una onda electromagnética


depende del material atravesado y de la frecuencia de la señal
emitida. En general, esta velocidad es mayor en el aire o en
materiales secos, que en agua o materiales húmedos.

- El coeficiente de atenuación del material expresa la perdida de


energía que sufre la señal emitida al atravesar el medio por el que
se transmite. La unidad de medida es dB/m. Este coeficiente
aumenta con el contenido en agua, la conductividad eléctrica, la
dispersión producida por una composición heterogénea, y el
contenido en partículas metálicas.

La propagación de la señal emitida depende de las propiedades del


subsuelo (conductividad, permitividad dieléctrica, y permeabilidad
magnética). La conductividad eléctrica de suelos y rocas y la

104
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

trayectoria que recorren estas ondas, limitan mediante pérdidas de


energía la profundidad a la que estas ondas pueden viajar. La
capacidad de penetración es exclusiva por tanto del lugar de
trabajo, ya que las propiedades electromagnéticas de la Tierra no
son siempre iguales. También está condicionada por la frecuencia
de la antena utilizada y por la eficiencia en transmitir radiación.
Antenas de baja frecuencia (<100 Mhz) tienen mayores
capacidades de penetración máxima ( 9 m) pero menor resolución
(el tamaño de los objetos a identificar es más grande) mientras que
antenas de frecuencia alta (> de 200 Mhz) tienen menor
penetración pero mayor resolución. Los suelos arcillosos y/o ricos
en contaminantes iónicos en contacto con agua (niveles freáticos),
provocan un aumento de la conductividad eléctrica del subsuelo,
disminuyendo la capacidad de penetración del georadar, y
provocando una atenuación de su señal.

Debido a la alta frecuencia de las señales emitidas por las antenas


de georadar (desde 10 MHz a 2 GHz), su atenuación es muy rápida
y, por lo tanto, la profundidad del terreno a la que pueden penetrar
estas señales produciendo ecos perceptibles e interpretables está
limitada. En medios favorables y con una antena de baja frecuencia
puede llegarse a profundidades operativas de hasta unos 25 m,
aunque en la mayoría de los casos, la profundidad efectiva de
penetración no suele exceder de los 20 m.

Cada litología, hueco, discontinuidad, contacto, etc. provocará una


reflexión distinta de las ondas electromagnéticas, cuyo análisis
permitirá diferenciar que tipo de anomalía está presente en el medio
analizado.

105
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

De esta manera, se puede obtener un perfil del terreno en


profundidad desplazando el conjunto de antenas emisora-receptora
sobre la superficie del mismo, a lo largo de una dirección
predeterminada, obteniendo un perfil de alta resolución del mismo
(Fig. 3).

Fig. 3. Obtención de un perfil de georadar. Se observa el


desplazamiento de la antena con un odómetro acoplado, que envía
la señal recibida a la unidad de control por el cable de conexión.

La toma de datos puede hacerse de distintas maneras:

- En modo continuo: supone el ir tomando datos de manera


continua a medida que las antenas son desplazadas por el terreno.
A su vez, esto puede realizarse estableciendo un número fijo de
mediciones por cada intervalo de tiempo (e.g. 20 medidas por
segundo) o bien estableciendo un número de mediciones por
unidad de distancia (e.g. cinco mediciones por metro). En el primer
caso, para obtener buenos resultados es necesario que las antenas
puedan desplazarse sin obstáculos a lo largo de la superficie del
terreno y a una velocidad constante. En el segundo, es necesario
acoplar un odómetro o rueda marcadora a las antenas para que la
emisión de las ondas electromagnéticas se haga justo cuando estas
hayan recorrido la distancia predeterminada. Este último método
106
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

tiene la ventaja de poder parar el desplazamiento de las antenas si


existe un obstáculo, no siendo necesario mantener una velocidad
de desplazamiento constante.

- En modo punto a punto las antenas se sitúan sobre el terreno en


el lugar donde se quiere medir y entonces se realiza la emisión de
las ondas electromagnéticas que son registradas por la antena
receptora. Luego, las antenas se desplazan hasta el siguiente punto
de medida y se repite el proceso de adquisición de datos. Este
método es especialmente útil en terrenos con numerosos
obstáculos que no permiten un desplazamiento continuo de las
antenas sobre la superficie.

Por otra parte, es necesario definir una serie de parámetros


previamente a la toma de datos. Aunque estos pueden depender de
las características propias de cada equipo de georadar, hay tres de
ellos que son comunes a todos los sistemas:

- La resolución espacial, o lo que es lo mismo, el espaciado


horizontal de los datos. Se trata de definir el intervalo espacial en el
que se va a tomar medidas a lo largo de los perfiles realizados, y
está directamente relacionado con el modo de adquisición. En caso
de optar por el modo continuo sin odómetro, habrá que transformar
posteriormente las medidas por unidad de tiempo en medidas por
unidad de longitud, viniendo así definida su resolución espacial. En
el caso de utilizar un modo continuo con odómetro o un modo punto
a punto, la resolución espacial se establece directamente por el
operador. Ésta debe escogerse adecuadamente al objetivo
prospectado. Si se va a realizar un perfil de gran longitud (varios
cientos de metros) para determinar por ejemplo el espesor de arena

107
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

en una playa, no tiene sentido escoger un intervalo de medidas muy


pequeño (por ejemplo, de 2 ó 3 cm) ya que dará origen a ficheros
de gran tamaño, cuyo procesamiento será lento. En ese caso, un
intervalo de 10 cm o mayor será más que suficiente. Si por el
contrario se está estudiando la estructura interna de una duna de
pequeño tamaño, puede ser aconsejable utilizar una mayor
resolución espacial, y utilizar por tanto un intervalo de medidas de 5
cm o incluso menor.

- La ventana de tiempos dobles, es decir, el periodo de tiempo


durante el que la antena receptora está recibiendo las señales
emitidas por la emisora. La unidad de medición utilizada es el
nanosegundo (1 ns = 10-9 segundos). Cuanto mayor es el tiempo
doble mayor es la profundidad de prospección. Se denomina tiempo
doble porque es el empleado por las ondas en penetrar en el
terreno, reflejarse en un cambio de material y volver de nuevo a la
superficie. Debido a la atenuación, llega un punto en que la energía
de las ondas electromagnéticas disminuye tanto que no son
capaces de llegar a la superficie, por lo que por mucho que
aumentemos la ventana de tiempos dobles no registraremos ondas
sino ruido ambiental. Por tanto, la ventana de tiempos dobles debe
definirse, en primer lugar, en función de la profundidad de
exploración deseada (no tiene sentido utilizar una ventana de
tiempos de 200 ns si el objetivo a prospectar se encuentra a tan
solo 50 ns), y en segundo lugar, en función de la antena utilizada,
ya que a menor frecuencia la atenuación es menor y podemos
utilizar ventanas de tiempo doble mayores. Un típico rango máximo
de tiempo doble para una antena de 200 Mhz sería de 100 a 200
ns, mientras que para una antena de 100 Mhz puede llegarse a 500
ns.

108
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

- La resolución temporal es el número de mediciones a


realizar para la ventana de tiempos dobles seleccionada. Este
parámetro es el equivalente a la resolución vertical (condicionada
por la frecuencia de la antena utilizada). Si, por ejemplo, se va a
utilizar una ventana de tiempo doble de 100 ns, con la resolución
temporal el operador selecciona cuantas mediciones se van a tomar
a lo largo de esos 100 ns, es decir el intervalo de muestreo vertical.
Escogiendo un total de 50 muestras, la resolución temporal sería de
1 valor registrado cada 2 ns, o lo que es lo mismo, eventos que
tuvieran menos de 2 ns de tamaño no podrían ser registrados. Si
aumentamos la resolución temporal a un total de 100 muestras,
nuestra resolución aumentaría a 1 valor cada 1 ns. De esta manera
podemos controlar la resolución temporal, y por tanto vertical, de los
registros efectuados.

Por último, antes de comenzar la toma de datos es necesario


determinar la manera en la que se recogerá la información acerca
de las variaciones topográficas del perfil. Siempre que exista una
diferencia topográfica importante a lo largo de la zona investigada,
es necesaria determinarla e incluirla en los radargramas obtenidos.
Esto puede hacerse durante el proceso de adquisición de datos o
con posterioridad a los mismos. La mayor parte de los equipos de
georadar modernos permiten incorporar un GPS de manera que la
señal que recibe la antena se combina con la del GPS quedando
registrado a la vez tanto el pulso recibido como la altura topográfica
de cada punto de medida. Otra posibilidad es realizar primero el
perfil de georadar marcando los puntos de inicio y final, y después
realizar el levantamiento topográfico con una estación total, e
integrar ambos conjuntos de datos con el programa informático de

109
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

tratamiento utilizado. Hay que tener en cuenta que los registros de


georadar sufren deformación para pendientes mayores de 6º.
Valores superiores a ese precisan la realización de correcciones
(Lehmann y Green, 2000).

En los últimos años, y con el aumento de la velocidad de cálculo de


los ordenadores, se están desarrollando de una manera importante
las estrategias de procesado de mallas en 3D ultra densas. Estas
metodologías se basan en el teorema de Nyquist, y se emplean
para obtener imágenes en 3D y 4D de la zona de estudio. La
complejidad de objetivos tales como fracturas, secuencias
estratigráficas, raíces de árboles, etc. hace imposible conseguir
imágenes de alta resolución si el espaciado de la malla de
adquisición de datos no se reduce a un cuarto de la longitud de
onda del material de trabajo. De este modo, antenas de 250 Mhz
requieren espaciados máximos entre perfiles de 10 cm, y antenas
de 500 Mhz, espaciados máximos entre perfiles de 5 cm. La ayuda
de equipos de posicionamiento precisos se hace necesaria para
evitar distribuciones irregulares de los perfiles de georadar. Se
utiliza software 3D para construir cubos con los datos en crudo para
obtener una visualización rápida de los primeros resultados, para
después poder elegir los datos adecuados para su procesado en
profundidad. Novo et al (2008, 2011) han optimizado esta
metodología de adquisición y tratamiento de datos para estudios
arqueológicos y forenses, donde obtienen resultados apreciables.
En estos trabajos, dejan palpable que, en todos aquellos objetivos
lo suficientemente complejos y de los que se necesite alta
resolución, esta metodología es sumamente útil. Ahora bien, hay
que tener en cuenta que tanto el tiempo de adquisición de datos

110
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

como el de procesado de los mismos aumentan de manera muy


considerable.

Calibración del equipo

Con anterioridad a la toma de datos en campo es necesario calibrar


el equipo específicamente para la litología sobre la que se va a
trabajar, operación imprescindible para asegurar la fiabilidad de las
medidas y poder obtener profundidades reales. Para transformar la
escala de tiempos en una escala de profundidad real es necesario
conocer la velocidad de transmisión de las ondas electromagnéticas
o, lo que es lo mismo, la constante dieléctrica relacionada con ella.
La constante dieléctrica (o permitividad dieléctrica relativa) es una
medida de la capacidad de un material para almacenar una carga
cuando se le aplica un campo eléctrico, en relación con la misma
capacidad para evacuarla. En la Tabla 1 se muestra un listado de
los valores aproximados de la constante dieléctrica de las litologías
más representativas.

A pesar de que existen valores tabulados para las principales


litologías, es evidente que cada zona de estudio tiene unas
características dieléctricas particulares debido a las
heterogeneidades que presenta cualquier litología, máxime en este
tipo de rocas de origen sedimentario. Esto provoca que para
obtener un valor medio aplicable a todos los perfiles sea necesario
realizar unos perfiles de calibración, y posteriormente calcular una
constante adecuada al medio.

111
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Material Permitividad dieléctrica Velocidad (cm/ns)

Agua dulce 81 3.3


Agua de mar 81 3.3
Aire 1 30
Arcilla (saturada) 8-15 8.5-11
Arena (seca) 3-6 12-17
Arena (saturada) 25-30 5.5-6
Arenisca (saturada) 6 11
Basalto 8 10.5
Caliza 7-9 10-11
Carbón 4-5 13.5-15

Granito 5-8 10.5-12


Hielo 3.2 16.5
Nieve 1.4-3 19-25
Pizarra 7 11
Suelo 16 7.5
Suelo arcilloso (seco) 3 17
Tierra de labor 15 7.7
*
Yeso 5.5 12.7
*
Yeso alterado 11.9 8.7

Tabla 1. Modificada de Reynolds, (1997). * Tomado de Holub, P. y


Dumitrscu, T. (1994).

Para ello, se sitúa el equipo sobre una zona en la que se tenga


conocimiento de la profundidad a la que se localiza una
determinada anomalía y se aplica la siguiente expresión,
2
ts c
r 2d
siendo,
c = velocidad de la luz (3·108 m/s).
t = tiempo en segundos.
d = espesor de material recorrido por la onda en metros.

112
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Una manera sencilla de realizar la calibración es utilizar un objeto


metálico situado a una profundidad conocida, por ejemplo una barra
metálica (Figura 4). Como las reflexiones de la barra son
claramente visibles en el radargrama, se puede utilizar su
profundidad y el tiempo en el que aparecen registradas en el
radargrama las reflexiones debidas a dicho objeto en la expresión
anterior, con el fin de determinar la constante dieléctrica.

Otro método comúnmente utilizado para la obtención de


velocidades es el del punto reflector común (o common mid point,
CMP). Consiste en situar la antena emisora y la receptora muy
próximas entre sí e ir realizando mediciones a medida que se van
separando progresivamente. El radargrama obtenido mostrará una
serie de reflectores inclinados de manera que la pendiente de cada
uno de ellos está relacionada con su velocidad real. Así, es posible
identificar los diferentes reflectores y determinar sus velocidades,
pero para ello es necesario que dichos reflectores sean horizontales
y continuos.

Posición de la antena (m)


0 1 2
0 0
0,4 m
0,4 m

1
Profundidad (m)

Tiempo (ns)

25

3 50

Fig. 4. Fotografía del procedimiento de calibración con el


radargrama obtenido.

113
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

REPRESENTACIÓN DE DATOS

Las ondas medidas pueden ser representadas de dos maneras:


como trazas (una curva que une los valores de amplitud de la señal
recibida en cada punto de medida); o bien utilizando escalas de
color (cada rango de amplitud de la señal recibida corresponde a un
color determinado). En la Figura 5 se muestran los dos modos de
representación de las ondas, así como la relación entre ambas. El
gráfico con el registro de la amplitud de las ondas
electromagnéticas recibidas a lo largo de un perfil, sea cual sea su
modo de representación, recibe el nombre de radargrama.

Fig. 5. Ejemplos de
representación de los datos de
georadar: modo traza (arriba
izq.) o en modo escala de grises
(arriba dcha.). Abajo se muestra
un detalle de la escala de grises
y su relación con la amplitud de
la señal.

114
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

PROCESADO DE DATOS

El procesado puede modificar de manera notable los datos


originales de campo de manera que, si no se realiza
adecuadamente, pueden obtenerse resultados que estén muy
alejados de la realidad. Por tanto, es aconsejable prudencia y evitar
caer en el sobretratamiento de los datos originales.

Este hecho también ha contribuido a que no haya una uniformidad


en cuanto al procesado básico a aplicar a los radargramas
originales, de manera que cada usuario tiende a aplicar su propio
esquema de procesado. En ocasiones hay coincidencias en cuanto
a las correcciones a aplicar, pero en muchas otras no coinciden ni
las herramientas de tratamiento ni el orden en el que se aplican (p.
ej. Neal, 2004).

Los ejemplos de las figuras 6 y 7 ilustran un esquema de procesado


de datos muy básico que permite mejorar los radargramas de
campo, y dejarlos preparados para proceder a su interpretación
posterior.

La secuencia de procesado propuesta es la siguiente:


1 - Edición. El primer paso consiste en la edición de los datos para
detectar y corregir dichos errores de campo, así como unir perfiles,
invertir su orientación en caso de que sea necesario.

2 – Dewow. Durante la adquisición de los datos es frecuente que se


produzca un proceso de inducción electromagnética que se
manifiesta en los radargramas como una componente de baja
frecuencia. Dicha componente puede eliminarse mediante la

115
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

aplicación de un filtro que deje pasar solo las frecuencias por


encima de cierto valor definido por el usuario, eliminando por tanto
las bajas frecuencias. Dicho procesado se denomina dewow en la
mayor parte de los programas informáticos de tratamiento de datos
de georadar.

3 - Corrección de tiempo cero. El tiempo cero se define como el que


corresponde a la posición de la superficie del terreno en el
radargrama, y suele asimilarse a la posición del primer pico de
amplitud positivo en cada punto de medida del radargrama. Es
frecuente que dicho tiempo cero varíe a lo largo de un mismo perfil,
debido a variaciones en la diferencia de temperatura entre la
electrónica del equipo y el aire, o bien a variaciones en el
acoplamiento entre la entena y el terreno. Por ello, este procesado
realinea esa primera llegada positiva de las ondas para que no haya
una deriva entre ellas y la conversión a profundidades sea lo más
precisa posible.

4 – Filtrado de alta frecuencia. En los registros de campo puede


aparecer ruido en forma de altas frecuencias que es preciso
eliminar para mejorar la relación señal/ruido y favorecer la
interpretación. La aplicación de filtros de paso banda permite
conservar las frecuencias comprendidas entre dos valores
seleccionados por el usuario. Los filtros de paso baja definen un
límite máximo de frecuencias, de manera que las que son
superiores a dicho límite son eliminadas de los datos originales.

5 - Filtros espaciales. Estos pueden ser de dos tipos, en función del


resultado que se persiga: filtros de paso bajo, cuando se quieren
resaltar reflectores horizontales o eliminar reflexiones hiperbólicas y

116
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

reflectores con fuerte buzamiento, o bien filtros de paso alto, si lo


que se pretende es eliminar bandeados horizontales para resaltar
reflectores con buzamiento y reflexiones hiperbólicas.

6 – Migración. Se utiliza en el caso de que existan reflectores con


fuerte inclinación. La migración es un procesado heredado del
tratamiento de los datos de sísmica de reflexión y que tiene como
finalidad hacer desaparecer las reflexiones hiperbólicas que pueden
aparecer en los perfiles, así como restituir los reflectores inclinados
a su verdadera posición. Para llevar a cabo este procesado, es
necesario conocer de manera precisa la velocidad de propagación
de las ondas electromagnéticas en los diferentes materiales
presentes en la zona prospectada.

7 – La ganancia es una función que permite amplificar las


amplitudes de onda selectivamente de acuerdo a la profundidad
deseada. Estas curvas suelen ser de tipo lineal o, principalmente,
exponencial.

8 – Corrección por topografía. En el caso de que exista una


diferencia topográfica importante a lo largo del perfil, como puede
ser en el estudio de dunas, el último procesado a realizar sería la
corrección de elevación. Esta corrección va acompañada de la
transformación de los tiempos dobles en profundidades reales
utilizando la velocidad de propagación de las ondas
electromagnéticas determinada para cada caso concreto.

En el caso de las metodologías 3D y 3D ultra-denso, y tras la


aplicación de la secuencia de procesado típica, se aplican técnicas

117
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

específicas de análisis de imagen en 3D como la renderización de


isosuperficies y el análisis overlay.

f
Fig. 6. Ejemplo de la secuencia de procesado de un radargrama
realizado en arenas eólicas en una zona litoral. a) Datos en crudo
obtenidos en el campo; b) Radargrama original tras aplicar un filtro

118
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

de tipo dewow; c) Tras aplicar la corrección de tiempo cero y un


filtro de paso banda; d) Una vez aplicado un filtro espacial de paso
alto; e) Radargrama migrado y f) Radargrama final aplicando una
nueva curva de ganancia.

Fig. 7. Ejemplo de la secuencia de procesado de un radargrama


realizado en una duna litoral: a) Datos en crudo obtenidos en el
campo; b) Radargrama original tras aplicar un filtro de tipo dewow;

119
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

c) Tras aplicar la corrección de tiempo cero y un filtro de paso


banda, d) Una vez aplicado un filtro espacial de paso alto; e)
Radargrama migrado; f) Radargrama final aplicando una nueva
curva de ganancia; g) Resultado final tras la aplicación de la
corrección de elevación.

INTERPRETACIÓN DE LOS RADARGRAMAS

La parte más subjetiva de la aplicación del método de georadar en


geología en general, y en ambientes litorales en particular, es la de
la interpretación geológica de los radargramas obtenidos. Para
minimizar esa subjetividad en la medida de lo posible, es necesario
disponer de cuanta más información adicional e independiente
posible mejor (sondeos y/o catas, resultados de otras técnicas
geofísicas, etc). Además de esa información, es necesario realizar
una interpretación de los reflectores obtenidos de una manera lo
más sistemática y ampliamente aceptada posible. Para ello, en
estudios de tipo sedimentológico, se suelen utilizar los principios
descritos en la estratigrafía sísmica y que son sintetizados por
ejemplo en Neal (2004). Resumiendo dichos principios, los
radargramas se interpretan identificando unidades denominadas
‘facies radar’ que están separadas entre sí mediante ‘superficies
radar’. Las superficies radar constituyen límites de reflectores que
corresponden a interrupciones en el proceso de sedimentación y/o
truncaciones erosivas. A los conjuntos bi- o tridimensionales de
reflectores comprendidos entre las superficies radar se les
denomina facies radar. Cada una de las facies radar, en función de
sus características geométricas (por ejemplo, forma, buzamiento,
continuidad y relaciones entre de las reflexiones) corresponderá a
un ambiente de sedimentación y/o proceso formativo. Por ello, la

120
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

adecuada identificación de las superficies y facies radar permitirá


desentrañar los ambientes y procesos de formación que han dado
lugar a la acumulación de determinados materiales en ambientes
litorales.
Algunas de las limitaciones más importantes de la técnica del
georadar en estudios litorales se deben a la fuerte atenuación que
sufren las ondas electromagnéticas en presencia de materiales
saturados en agua salada. Es bien conocido el hecho de que los
materiales muy conductores provocan una fuerte atenuación de las
ondas electromagnéticas limitando enormemente su capacidad de
penetración, y por tanto la profundidad investigada. En zonas
litorales, es frecuente que la posición de la interfase sedimento-
agua salada se encuentre cercana a la superficie, de manera que
va a ser la profundidad de esta interfase la que condicione el límite
real de la profundidad de prospección alcanzada,
independientemente de la frecuencia de las antenas utilizadas. Otra
limitación importante resulta de la relación inversamente
proporcional entre frecuencia de las antenas y resolución vertical, o
lo que es lo mismo, entre la profundidad de investigación y la
resolución de las estructuras que pueden ser observadas en los
radargramas. De esta manera, en estudios en los que se pretenda
alcanzar profundidades superiores a la decena de metros no va a
ser posible obtener una resolución vertical capaz de discernir
estructuras sedimentarias de tamaño inferior a 1 metro, estando
limitados los estudios de alta resolución al uso de antenas de alta
frecuencia pero solo para los primeros metros de profundidad (3-4
m aproximadamente) bajo la superficie.

121
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

EJEMPLOS DE APLICACIÓN DE LA TÉCNICA DE GEORADAR


A LOS RIESGOS LITORALES

Como se ha mencionado en la introducción de este capítulo, el


georadar se ha convertido en una técnica con numerosas
aplicaciones al estudio de los riesgos naturales. Aquí se van a
destacar las aplicaciones encaminadas a la caracterización de los
materiales sedimentarios en los que quedan registrados los eventos
que tradicionalmente provocan riesgos litorales. Entre ellos
destacan los episodios de tormenta, los tsunamis o las variaciones
del nivel del mar. Recientemente, la técnica de georadar se ha
aplicado a la caracterización de las rocas que forman las costas
acantiladas. Se hace absolutamente necesario un conocimiento
profundo de este tipo de materiales, con el objeto de determinar su
comportamiento geomecánico, así como de estimar el riesgo
potencial de caída de bloques. Al final, lo que se pretende es
contribuir a una adecuada ordenación territorial de los espacios
costeros, a menudo sujetos a una alta ocupación turística.

El georadar es una herramienta que aporta muy buenos resultados


en materiales sedimentarios de grano medio-grueso, es decir, en
sedimentos de baja conductividad eléctrica. Resulta especialmente
útil en la determinación de la arquitectura deposicional, así como de
las distintas unidades sedimentarias definidas por las distintas
facies de radar. Tanto los sucesivos episodios sedimentarios como
las interrupciones/truncaciones de la sedimentación, provocadas
por eventos temporales y de carácter catastrófico, son
perfectamente reconocibles en los radargramas obtenidos en los
perfiles de georadar. En los últimos años son varios los estudios de
aplicación de esta técnica a materiales sedimentarios en zonas

122
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

litorales, poniendo de relieve la historia sedimentaria de materiales y


de procesos a partir de la identificación e interpretación de las facies
de radar. Buen ejemplo lo constituyen los estudios recientemente
publicados sobre la dinámica del campo dunar activo de la flecha
del Fangar, en el Delta del Ebro (España). En Gómez-Ortiz et al.
(2009a) y Rodríguez-Santalla et al. (2009) se establece la estructura
interna de dunas barjanoides del delta del río Ebro a partir de los
datos obtenidos con georadar. Los autores definen varias zonas con
diferentes características geomorfológicas de las dunas, aportando
la estructura interna de las dunas de cada una de estas zonas y, por
tanto, permitiendo confirmar las interpretaciones que sobre la
dinámica litoral de esta zona se habían publicado previamente. Esta
zona es altamente sensible a la presión antrópica, y el conocimiento
de la estabilidad y evolución del campo dunar son fundamentales.
Un ejemplo de la interpretación de los perfiles de georadar que se
realizaron en la zona se puede observar en la Figura 8. El georadar
ha permitido observar con claridad la estructura interna de una duna
de gran tamaño, perteneciente a la zona con menor movimiento
efectivo de arena de todo el campo dunar. Se han podido
diferenciar con claridad tres facies de radar, además de identificar
el reflector producido por el nivel freático, y se han marcado las
direcciones de viento y de migración de la duna. En este ejemplo, el
georadar ha revelado las estructuras internas de las dunas de las
distintas zonas de una manera muy detallada en una zona de alta
protección, como es el delta del Ebro. Los radargramas han
completado y confirmando los datos de los que se disponía sobre la
dinámica del campo dunar y, a mayor escala, la dinámica eólica
global de la flecha del Fangar, es decir, del hemidelta norte. Esta
zona lleva sufriendo continuos cambios en su morfología,
evidenciando variaciones en la dinámica costera de la zona. Este

123
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

tipo de estudios están contribuyendo de manera importante al


conocimiento de la dinámica del Parque Natural del Delta del Ebro,
una de las zonas más sensibles a los efectos de la presión
antrópica sobre el litoral español. Otro ejemplo de estructura interna
de dunas, en este caso inactivas, puede observarse en la Figura 9.
Corresponde a un radargrama obtenido por los autores en una zona
litoral de la Estaca de Bares (La Coruña). El área se encuentra
actualmente erosionada y la morfología dunar ya no es visible, por
lo que la determinación de la geometría interna y la dirección de
migración dunar es solo posible con el uso de la técnica del
georadar o, en su defecto, la realización de una cata, aunque esto
último tiene la desventaja de ser una técnica destructiva. En el
radargrama puede identificarse fácilmente la posición del nivel
freático, a unos 3 metros de profundidad, y por encima de él se
aprecian numerosas facies radar con límites bien definidos a partir
de truncaciones o interrupciones de los reflectores.

Estas facies radar están definidas fundamentalmente por reflectores


inclinados correspondientes a los foresets de migración de las
dunas, indicando un sentido de avance de las mismas hacia el sur,
aunque también hay algunos definidos por reflectores
subhorizontales o alabeados que pueden corresponder a momentos
de menor energía y, por tanto, de escasa migración dunar, en los
que predomina la sedimentación frente al transporte de material. Tal
y como se ha comentado previamente, es altamente recomendable
la utilización de técnicas complementarias que contrasten los datos
obtenidos, y minimicen las limitaciones inherentes a la técnica. En el
ejemplo que nos ocupa, se realizaron perfiles de tomografía
eléctrica que confirmaron una profundidad de 3 metros para el nivel
freático, y una profundidad media de 8 metros para el basamento

124
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

granítico, corroborando completamente los datos obtenidos


mediante georadar (Gómez-Ortiz et al. 2009b). La presencia de
agua dulce bajo la lámina de agua salada únicamente fue obtenida
mediante tomografía eléctrica.

Fig. 8. (A) Fotografía de campo del perfil; (B) Radargrama


procesado y migrado; (C) Interpretación del radargrama en el que
se aprecian tres unidades diferentes. La primera (de 18 a 48 m)

125
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

está constituida por reflectores paralelos describiendo una


geometría general convexa hacia arriba con algunas truncaciones
locales. Sobre esta unidad, otra diferente (de 48 a 62 m) está
definida por reflectores inclinados unos 22º hacia el SE que se
superpone parcialmente a la unidad anterior. La tercera unidad (de
52 a 60 m) está definida por una cuña de techo plano que parece
superponerse parcialmente a la unidad anterior. A: Foresets; B:
superficies radar; C: estratificación cruzada tabular-planar.

A
A
N S

B
A
N S

Nivel freático

Fig. 9. (A) Radargrama procesado y migrado. (B) Interpretación del


radargrama en el que se aprecia la posición del nivel freático a unos
3 m de profundidad, así como numerosas facies radar de reflectores
inclinados y subhorizontales que permiten respectivamente
determinar que la dirección de migración de las dunas es hacia el
sur, así como identificar eventos de menor energía y, por tanto, de
predominio de la sedimentación frente al transporte eólico.

126
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

En la costa de Essex (Inglaterra), y a partir de la utilización de


georadar con una antena de alta frecuencia, Neal et al., (2002)
proponen dos modelos de evolución para depósitos de barras de
conchas. El estudio detallado de estas secuencias de radar de
importante detalle (a mayor frecuencia, mayor detalle pero también
menor penetración) les lleva a poder definir modelos de evolución
de estas estructuras costeras basados en la sucesión de procesos
relacionados, principalmente, con eventos de tormenta y/o mareas
altas. Otra conclusión importante de este trabajo es la confirmación
de la idoneidad de esta técnica en este tipo de depósitos.

Ejemplos de la aplicación de esta técnica en secuencias deltaicas lo


constituyen los trabajos de Kostic et al. (2005) y de Bennett et al.
(2009). En un delta de grava cuaternario, Kostic et al. (2005)
identifican tres grandes unidades sedimentarias, y determinan la
secuencia deposicional a partir de las distintas facies de georadar
diferenciadas. También en este tipo de ambientes, Bennett et al.
(2009) determinan la historia deposicional de la playa de Chesil
Beach, Dorset, una de playas más famosas de Gran Bretaña.
Mediante el uso del georadar determinan la existencia de tres fases
de evolución de la playa, que se correlacionan perfectamente con
los correspondientes eventos de variación del nivel del mar
definidos en la zona. Trabajos similares en terrazas costeras
cuaternarias en New Jersey (Estados Unidos) realizados por O’Neal
y McGeary (2002), reflejan claramente los distintos eventos de
variación del nivel del mar en los últimos 500.000 años. En
sedimentos de grano medio, Jol et al. (2002) determinan el espesor
y la estructura sedimentaria en 2D y 3D de un espigón en
progradación cubierto por un cordón de dunas vegetadas.

127
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Los depósitos y estructuras erosivas resultantes de los efectos de


las tormentas sobre el litoral son algunos de los materiales en los
que se ha aplicado esta técnica con más éxito. En este sentido,
cabe destacar los buenos resultados obtenidos en barreras
arenosas en distintas zonas. En la costa de Estados Unidos, el
georadar ha puesto de manifiesto la existencia de varios escarpes
provocados por eventos tormentosos severos, en la actualidad
enterrados bajo el escarpe actual (Buynevich et al., 2004). El
registro sedimentológico en esta zona ha registrado la ocurrencia de
sucesivos episodios de grandes tormentas en el Atlántico Norte
durante los últimos 3000 años. Estos eventos catastróficos han
dejado su impronta a modo de secuencias costeras de inundación,
depósitos eólicos truncados, y también con la deposición de niveles
sedimentarios con elevadas concentraciones en minerales pesados
movilizados y transportados hasta allí por estas tormentas. El mayor
contraste electromagnético de este tipo de niveles enriquecidos en
minerales pesados queda visible en los radargramas en forma de
reflectores continuos perfectamente delineados. También en este
tipo de materiales, pero en este caso en la costa de Australia,
Switzer et al. (2006) consiguen establecer la estructura y evolución
sedimentaria de sistemas arenosos de barrera-lagoon holocenos.
Una evolución claramente marcada por depósitos de inundación a
gran escala provocados por la acción de tormentas y, en algunas
ocasiones, tsunamis precedidos por los correspondientes episodios
erosivos. En este estudio se define el georadar como un método
sencillo, no invasivo, y muy útil en la identificación de signaturas
erosivas de inundaciones prehistóricas, a gran escala provocadas
por storm surges, oleajes excepcionalmente grandes y tsunamis.

128
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Respecto a variaciones en la posición del nivel del mar, trabajos


como el de Tamura et al (2010) ponen de relieve las bondades del
método de georadar. Los autores identifican variaciones
significativas del nivel del mar, y elevaciones importantes en
depósitos de playa en la costa noreste pacífica de Japón en el
Holoceno a partir de perfiles de georadar. Es importante resaltar la
aplicación del georadar en este caso debido a la ausencia de
niveles de terraza de esta edad que pudieran utilizarse de
referencia.

Una de las últimas aplicaciones del georadar ha sido en la


caracterización geomecánica de las rocas que conforman un
acantilado en la costa italiana de Lecce (Leucci, 2007). El uso
combinado de georadar, tomografía eléctrica y sísmica de
refracción, unido a los datos geológicos y geomorfológicos
existentes, ha permitido la realización de modelos en 3D de las
rocas de un acantilado. Los riesgos palpables que previamente se
habían detectado en este acantilado estaban definidos por la
presencia de cavidades de disolución y zonas altamente alteradas.
Estos modelos han permitido conocer el estado en profundidad de
las rocas de este acantilado y, en concreto, el georadar ha puesto
de relieve la existencia de una red de fracturación paralela al
acantilado, a través de la cual se está favoreciendo la alteración y
denudación del mismo. Es evidente que el conocimiento profundo
de las características geomecánicas de las rocas de costas
acantiladas se hace necesario en previsión de riesgos de caída de
bloques y, consecuentemente, de cambios en la balance erosión-
sedimentación de cada tramo de costa.

129
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

En definitiva, el conocimiento profundo de los materiales y procesos


que han tenido lugar en las costas es absolutamente necesario,
máxime en países con numerosos kilómetros de costa, tanto baja
como acantilada. Estos escenarios son, a menudo, zonas de alta
protección medioambiental, en las que la legislación únicamente
permite la utilización de técnicas no invasivas ni destructivas. El
georadar se revela, por tanto, como una técnica idónea en este tipo
de estudios encaminados a conocer detalladamente el estado de
los materiales y los procesos litorales que allí se han producido,
cuyo conocimiento minimizará los riesgos naturales de la zona.

BIBLIOGRAFÍA

Annan, P., 2003. GPR principles, procedures and applications:


Sensors and Software Inc, 192 pp.
Bennett, M.R., Cassidy, N.J., Pile, J. 2009. Internal structure of a
barrier beach as revealed by ground penetrating radar (GPR):
Chesil beach, UK. Geomorphology, 104, 218-229.
Bristow, C.S., Lancaster, N., Duller, G.A.T. 2005. Combining ground
penetrating radar surveys and optical dating to determine dune
migration in Namibia. J. Geol. Soc. London, 162, 315-321.
Bristow, C.S., Pucillo, K. 2006. Quantifying rates of coastal
progradation from sediment volume using GPR and OSL: the
Holocene fill of Guichen Bay, south east South Australia.
Sedimentology, 53, 769–788.
Buynevich, I.V., FitzGerald, D.M., van Heteren, S. 2004.
Sedimentary records of intense storms in Holocene barrier
sequences, Maine, USA. Marine Geology, 210, 135-148.

130
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Costas, S., Alejo, I., Rial, F., Lorenzo, H., Nombela, M.A. 2006.
Cyclical evolution of a modern transgressive sand barrier in
Northwestern Spain elucidated by GPR and aerial photos. J.
Sedimentary Research, 76, 1077-1092.
Daniels, D. J., 2004. Ground Penetrating Radar. 2nd Edition. IEE
Radar, Sonar and Navigation Series, 15, 726 pp.
Gómez Ortiz, D., Martín Crespo, T., Rodríguez Santalla, I., Sánchez
García, M.J., Montoya Montes, I. 2009a. The internal structure of
modern barchan dunes of the Ebro River Delta (Spain) from ground
penetrating radar. Journal of Applied Geophysics, 68, 159-170.
Gómez Ortiz, D., Pereira, M., Martín Crespo, T., Rial, F.I., Novo, A.,
Lorenzo, H., Vidal, J.R. 2009b. Joint use of GPR and ERI to image
the subsoil structure in a sandy coastal environment. Journal of
Coastal Research, 56, 956-960.
Holub, P. y Dumitrscu, T., 1994. Détection des cavités à l’aide de
mesures électriques et du géoradar dans une galerie d’amenée
d’eau. Journal of Applied Geophysics, 31, 185-195.
Jol, J.M., Lawton, D.C., Smith, D.G. 2002. Ground penetrating radar:
2-D and 3-D subsurface imaging of a coastal barrier spit, Long
Beach, WA, USA. Geomorphology, 53, 165-181.
Kostic, B., Becht, A., Aigner, T. 2005. 3-D sedimentary architecture
of a Quaternary gravel delta (SW-Germany): Implications for
hydrostratigraphy. Sedimentary Geology, 181, 143-171.
Lehmann, F., Green, A.G., 2000. Topographic migration of georadar
data: implications for acquisition and processing. Geophysics, 65,
836–848.
Leucci, G. 2007. Geophysical investigations to study the physical–
mechanical characteristics of the rock in a coastal environment: the
cliff of Roca (Lecce, Italy). Journal of Geophysics and Engineering,
4, 462-475.

131
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Neal, A., Richards, J., Pye, K. 2002. Structure and development of


shell cheniers in Essex, southeast England, investigated using high-
frequency ground-penetrating radar. Marine Geology, 185, 435-469.
Neal, A., 2004. Ground-penetrating radar and its use in
sedimentology: principles, problems and progress. Earth-Science
Reviews, 66, 261-330.
Novo, A., Lorenzo, H., Rial, F.I., Pereira, M., Solla, M. 2008. Ultra-
dense grid strategies for 3D GPR in Archaeology. 12th International
Conference on Ground Penetrating Radar, Birmingham, UK.
Novo, A., Lorenzo, H., Rial, F.I., Solla, M. 2011. 3D GPR in
forensics: Finding a clandestine grave in a mountainous
environment. Forensic Science International, 204, 134–138.
O’Neal, M.L., McGeary, S. 2002. Late Quaternary stratigraphy and
sea-level history of the northern Delaware Bay margin, southern
New Jersey, USA: a ground penetrating radar analysis of composite
Quaternary coastal terraces. Quaternary Science Reviews, 21, 929–
946.
Pedersen, K. y Clemmensen, L.B. 2005. Unveiling past aeolian
landscapes: A ground-penetrating radar survey of a Holocene
coastal dunefield system, Thy, Denmark. Sedimentary Geology,
177, 57-86.
Reynolds, J.M., 1997. An Introduction to Applied and Environmental
Geophysics. John Wiley and Sons, 806 pp.
Rodríguez Santalla, I., Sánchez García, M.J., Montoya Montes, I.,
Gómez Ortiz, D., Martín Crespo, T., Serra Raventos, J. 2009.
Internal structure of the aeolian sand dunes of El Fangar spit, Ebro
Delta (Tarragona, Spain). Geomorphology, 104, 238-252.
Switzer, A.D., Bristow, Ch., Jones, B. 2006. Investigation of large-
scale washover of a small barrier system on the southeast

132
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Australian coast using ground penetrating radar. Sedimentary


Geology, 183, 145-156.
Tamura, T., Murakami, F., Watanabe, K. 2010. Holocene beach
deposits for assessing coastal uplift of the northeastern Boso
Peninsula, Pacific coast of Japan. Quaternary research, 74, 227-
234.

133
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

GEOFÍSICA MARINA APLICADA AL ESTUDIO DE LOS


RIESGOS GEOLÓGICOS LITORALES

L.A.P. Souza1 y M.M. Mahiques2

1
Instituto de Pesquisas Tecnológicas de São Paulo
2
Instituto Oceanográfico da Universidade de São Paulo

INTRODUCCIÓN

La investigación de ambientes sumergidos llanos despierta un


interés especial para los estudios geológicos-geotécnicos en
función de las grandes inversiones en obras de infra-estructura. La
expansión de oleoductos y gasoductos (Souza et al., 2006),
hidrovías, puentes, túneles y puertos (Dias y Silva, 2003; Bianco et
al., 2003; Bianco, 2004; Marrano et al., 2004; Souza 2006), la
exploración mineral (Dias et al., 1982; Dias, 2000; Ayres Neto,
2000), la colmatación de estuarios (Carvalho, 2008, Souza et al.,
2004), el levantamiento de áreas destinadas a la disposición de
residuos (Mansor, 1994) son algunos temas de extrema importancia
actual (Souza, 2006, 2008).

Debido a esta interacción entre la actividad antropogénica y los


riesgos litorales, adquieren gran importancia los estudios
geológicos y geofísicos previos. Los ejemplos de la catástrofe del
aeropuerto de Nice (Francia), en 1979 (deslizamiento seguido de
tsunami) (Dan et al., 2007), del tsunami asociado a deslizamiento
en la Isla de Stromboli (Italia) (Chiocci et al., 2008) y de la
subsidencia del aeropuerto de Kansai (Japón) (Uchida et al., 1998;
Inoue et al., 2003) son bastante significativos en términos del

135
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

carácter capital de la necesidad de estudios de evaluación de


riesgos. La asociación entre actividad antropogénica y la
distribución de marcas de escapes de gas en la Ría de Vigo
(España) (García-García et al., 1999) constituye un ejemplo de otro
tipo de riesgo litoral que puede ser mejor evaluado a través de
estudios geológicos.

En este sentido una mejor caracterización física y estructural de las


áreas sumergidas demanda, necesariamente estudios geológicos y
geotécnicos de detalle y es desde este punto de vista que los
métodos geofísicos poseen una importante contribución,
principalmente por constituir métodos de investigación no invasivos
o no destructivos (Jones, 1999; Souza, 1988, 2006, 2008; Souza et
al., 1998).

Entre los posibles métodos geofísicos que pueden ser empleados


en la investigación de áreas sumergidas llanas, se destacan,
indudablemente, los métodos sísmicos. Radar de Penetración
terrestre (GPR), electro resistividad, magnetometría, entre otros,
son métodos geofísicos también aplicables en la investigación de
ambientes litorales, pero estos últimos poseen restricciones,
principalmente cuando se trata de la obtención de datos
cuantitativos.

CLASIFICACIÓN DE LOS MÉTODOS SÍSMICOS

No es nuestra intención describir detalladamente las bases teóricas


de los métodos sísmicos; los compendios de Jones (1999) y Kearey
et al. (2002) constituyen textos excelentes para los investigadores
que deseen profundizar en el tema.

136
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Por la propia naturaleza y dimensión de las áreas investigadas, de


pocas decenas de kilómetros cuadrados y con espesor de columna
sedimentaria del orden de pocas decenas de metros, la
investigación sísmica del litoral requiere equipamientos geofísicos y
medios fluctuantes de menor porte.

Las investigaciones en estos ambientes tienen como foco principal


el ofrecimiento de soporte técnico a proyectos de Ingeniería y/o de
Geología básica y pueden ser subdivididas en dos grupos:
investigación de superficie y de sub-superficie (Souza, 2006, 2008).
El primer grupo se refiere a la caracterización geológica de las
superficies sumergidas y abarca el levantamiento de afloramientos
rocosos, formas sedimentarias o estructurales así como la
localización de embarcaciones naufragadas, en el caso de
operaciones de busca y salvataje o con finalidades arqueológicas.

La delimitación del trazado de ductos, de hidrovías y de áreas


favorables para la instalación de pilas de descarte, son ejemplos de
proyectos en los cuales la prioridad de la investigación es la
caracterización de superficies sumergidas. En términos de riesgos
geológicos, la caracterización de la naturaleza de los materiales
geológicos y la identificación del sentido de las corrientes pueden
ser establecidas con técnicas de sísmica de superficie (Fig. 1). Otro
ejemplo de la importancia de la investigación detallada de la
superficie del fondo marino está ilustrada en la Fig. 2, en la cual se
observa un extenso afloramiento rocoso, característica
geológica/geotécnica extremamente relevante en la implantación de
cualquier proyecto en áreas costeras.

137
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

En este tipo de investigación se utilizan fuentes acústicas que


emiten preferentemente señales con espectros de altas frecuencias,
generalmente superiores a 30kHz.

Fig. 1. Ejemplo de registros de sonar de escaneo lateral (arriba) y


ecosondeo (abajo), indicativo de ocurrencia de dunas sumergidas
asimétricas.

El ecosondeo (simple, doble o multi-rayo) y el sonar de escaneo


lateral constituyen los principales métodos sísmicos empleados
cuando el objetivo es investigar tan sólo la superficie del fondo.

138
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 2. Imagen de sonar de barrido lateral mostrando un


afloramiento rocoso em un área costera (Caraguatatuba) al norte
del Estado de São Paulo, Brasil.

El segundo grupo reúne un conjunto de métodos que tienen por


objetivo la investigación de sub-superficie brindando soporte a
proyectos en los cuales las informaciones sobre el espesor de la
columna sedimentaria o la profundidad del basamento rocoso son
datos fundamentales.

La determinación del espesor de las camadas sedimentarias


objetivando cálculos de determinación del volumen de material de
dragado y de la profundidad del basamento rocoso, en proyectos de
puentes, túneles, ductos, puertos y diques, son algunos ejemplos de
estudios que exigen informaciones de esta naturaleza. En estos
casos, datos que permitan apenas la caracterización geológica de
superficie no son suficientes para cubrir las necesidades de los
proyectos. En el contexto de estos objetivos se destacan los
métodos sísmicos que utilizan fuentes acústicas de tipo boomers,
sparkers, 3,5kHz y chirps, entre otras, que emiten señales acústicas
con espectros de frecuencias inferiores a 30kHz.

139
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

¿CÓMO ESCOGER LA FUENTE ACÚSTICA ADECUADA PARA


LA EVALUACIÓN DE RIESGO?

Aunque se considere el tradicional, excelente y consagrado


desempeño de los métodos sísmicos en la investigación de
ambientes sumergidos, la opción por la utilización de una u otra
fuente acústica, entre las diferentes posibilidades existentes, no
constituye un procedimiento trivial. Diferentes métodos sísmicos
utilizan diferentes fuentes acústicas que, a su vez poseen
características específicas y ofrecen productos finales distintos. No
es raro, encontrar en la literatura técnica, ejemplos de utilización de
fuentes acústicas en determinados proyectos priorizándose la
disponibilidad de la fuente, en lugar de su real aplicabilidad para los
objetivos del proyecto. Estos casos pueden resultar en perjuicios
económicos y técnicos además del perjuicio mayor que consiste en
el potencial de no evaluar correctamente los riesgos geológicos
involucrados.

Las fuentes acústicas poseen propiedades, tales como espectro de


frecuencias y energía (potencia), lo cual les permite ser aplicadas a
objetivos distintos.

El gráfico de la Fig. 3 ejemplifica los límites de penetración de una


fuente acústica del tipo 3,5kHz. En este ejemplo es posible observar
la drástica disminución del desempeño de esta fuente con el
aumento de la granulometría de los sedimentos de fondo, lo que, en
principio, desmerece esta fuente acústica para la investigación de
depósitos aluvionares o coluvionares, cuando existe la expectativa
de que se den depósitos de arenas gruesas y gravas con espesor
superior a 5-6m. Muy probablemente, una fuente con estas

140
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

características no ofrece resultados adecuados en levantamientos


costeros cuya finalidad sea la de buscar depósitos arenosos para la
recomposición de ambientes litorales erosionados.

Fig. 3. Desempeño de la fuente acústica 3.5 kHz, modelo GeoPulse


Pinger Geoacoustics. Penetración esperada (en gris) y variabilidad
posible (en negro) para la relación entre la penetración de la señal
acústica versus tipo de sustrato. Souza, 2006 - Modificado de:
http://www.geoacoustics.com

Por otro lado, fuentes acústicas con estas características tienen


gran aplicación en la investigación de ambientes sumergidos
cubiertos por sedimentos finos, teniendo en cuenta su alto poder de
resolución, lo que permite incluso la identificación de la presencia
de interferencias antropogénicas, como ductos soterrados y navíos
naufragados total o parcialmente cubiertos por sedimentos finos, o
una correcta determinación de la distribución de sedimentos
contaminados en áreas estuarinas.

La Fig. 4 muestra registros obtenidos con la utilización simultanea


de tres fuentes acústicas, donde es posible observar el mejor
desempeño de la fuente de tipo chirp (2-8kHz) en lo que se refiere a

141
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

la resolución, una vez que en el registro obtenido con esta fuente


(B) se identifican claramente los ductos soterrados a poca
profundidad (Souza et al., 2008). Lo mismo no ocurre con el registro
obtenido con la fuente de tipo boomer (A), el cual muestra un mejor
desempeño en la identificación de la estratigrafía local (mayor
penetración), pero sin permitir una buena resolución para la
identificación de los mismos ductos.

Fig. 4. Registros sísmicos obtenidos en el canal de São Sebastião


(São Paulo) con la utilización simultánea de tres fuentes sísmicas
distintas (A=boomer 0.5-2kHz, B=chirp 2-8kHz, C=pinger 24kHz).
Souza et al. (2008)

La Fig. 5 ilustra un registro obtenido con el empleo de fuente


acústica de tipo chirp, en el que se puede comprobar su importancia
en la identificación del espesor de las camadas superficiales de
sedimentos fangosos.

De una forma general es posible afirmar que fuentes acústicas de


frecuencias superiores a 2kHz (chirp de baja potencia, 3.5, 7, 10, 15
e 24 kHz, entre otras) ofrecen una excelente resolución, pero, con
perjuicio en la penetración.

142
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 5. Registro obtenido en el canal de Santos (São Paulo) con el


empleo de perfilador sísmico de fuente acústica de tipo chirp (2-
8kHz). Souza (2006, 2008).

Por otro lado, fuentes acústicas que emiten señales de frecuencias


inferiores a 2kHz ofrecen un mejor desempeño en la penetración y
resultan, por lo tanto, extremamente importantes para la
investigación de depósitos sedimentarios compuestos de
sedimentos arenosos (arenas y gravas) comunes en ambientes
litorales de alta energía, con espesores superiores a 8-10m.
Fuentes del tipo boomers, sparkers y chirp (de alta potencia) son las
más indicadas para alcanzar estos objetivos.

Un excelente ejemplo de aplicación de este tipo de fuente acústica


está ilustrado en el registro sísmico de la Fig. 6, donde se observa
una camada de sedimentos con cerca de 40 metros de espesor,
depositada sobre la topografía irregular del embasamiento local, así
configurada como resultado de procesos de progradación costera.

143
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 6. Registro sísmico (boomer) obtenido en el canal de São


Sebastião (São Paulo), donde se identifica el potencial de
penetración de fuente acústica de baja frecuencia (espesor máximo
del pacote sedimentario de cerca de 40 metros). Souza et al.,
(2008).

No es raro, en la evaluación de riesgos, relacionados con proyectos


de Ingeniería o Geotécnia, la necesidad de obtención de datos de
diferente orden que estén relacionados con los materiales
subyacentes. En estos casos, la determinación del espesor de la
columna sedimentaria y de la profundidad del embasamiento
rocoso, así como la caracterización del embasamiento aflorante
constituye un conjunto fundamental de datos. En actividades de
esta naturaleza, la solución ideal se obtiene con la utilización de
sistemas que tengan la capacidad de operar, de forma simultánea,
con varias fuentes sísmicas, incluso el sonar de escaneo lateral.

Aunque no existan, por limitaciones físicas, fuentes acústicas que


permitan la emisión, a partir de un único módulo, de señales
acústicas continuas de 500Hz a 30kHz, lo que sería, teóricamente
ideal, existen hoy en el mercado internacional, sistemas que
permiten administrar la actuación simultánea de varias fuentes
acústicas que, al final, resulta en la solución más próxima a lo ideal,

144
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

frente a las varias demandas involucradas en la investigación de


áreas sumergidas llanas, de forma a asegurar simultáneamente,
resolución y penetración.

Un ejemplo de utilización simultánea de tres fuentes acústicas está


ilustrado en la Fig. 7 la cual presenta nítidamente el producto
diferenciado, bajo el punto de vista de la resolución y penetración
en cada una de las tres fuentes acústicas utilizadas (pinger 24kHz,
chirp 2-8kHz y boomer 0,5-2kHz).

Fig. 7. Perfil sísmico ejecutado con el empleo simultáneo de tres


fuentes acústicas (A) pinger (24kHz); (B) chirp (2-8kHz) y (C)
boomer (0,5-2kHz). En los perfiles A y B evidencia-se, en la
superficie, una anomalía topográfica que, solamente en el perfil C,
puede ser correlacionada a la existencia de un cuerpo rocoso en
sub-superficie (Souza, 2006).

La Fig. 8 ilustra otro ejemplo de excelente calidad, de la utilización


simultánea de tres fuentes acústicas en un levantamiento geofísico

145
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

en región costera. Los dos ejemplos ilustran claramente el


desempeño diferenciado de cada una de las tres fuentes acústicas
y la importancia de esta diferenciación en el estudio de ambientes
sumergidos llanos.

Fig. 8. Perfil sísmico ejecutado con el empleo simultáneo de tres


fuentes acústicas (A) pinger (24kHz); (B) chirp (2-8kHz) y (C)
boomer (0,5-2kHz). Observa-se nítidamente el desempeño
diferenciado de las fuentes, con relación a la penetración de la
señal en los estratos sedimentares subyacentes, una vez que
solamente en el perfil obtenido con el boomer, es posible delinear,
con continuidad y extensión, el contorno del embasamiento rocoso
en el área investigada. Souza et al. (2008).

El análisis de los registros obtenidos por las tres fuentes acústicas


en los ejemplos ilustrados en la Fig. 7 e en la Fig. 8 permite concluir
la importancia de la utilización de fuentes de alta energía como

146
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

boomers o sparkers, para asegurar la identificación de la cumbre


del embasamiento rocoso que, en los ejemplos presentados, no fue
identificada por las fuentes acústicas que emiten frecuencias
superiores a 2 kHz (pinger - 24kHz y chirp 2-8kHz), en los sectores
de espesores de sedimentos más elevados. Este aspecto es
particularmente importante en la evaluación de riesgos porque
corresponde al volumen total de material disponible para remover.

Destacase también, a partir de los análisis de estos registros, la


importancia de la utilización simultánea de diversas fuentes
acústicas, una vez que cada una ofrece soluciones específicas para
distintos aspectos.

CONSIDERACIONES FINALES

El análisis abordado en este texto permite concluir que, para una


evaluación adecuada de riesgos y establecimiento de estudios
geológicos y geotécnicos en áreas sumergidas llanas es
fundamental proceder primeramente a un análisis riguroso de los
objetivos del levantamiento. La mejor solución para el problema
geológico-geotécnico será encontrada si los objetivos del
levantamiento están correctamente establecidos, así como si se
tiene una primera idea de las profundidades a ser investigadas y
cuáles son, en líneas generales, los tipos de material geológico a
ser atravesados por las señales acústicas.

Las respuestas a estas cuestiones indicarán si la prioridad para una


correcta evaluación del riesgo es la investigación de superficie (1) o
de sub-superficie (2), y en este segundo caso, si la prioridad es la
resolución (3) o la penetración (4) o inclusive si ambas

147
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

informaciones son importantes. Con este abordaje el investigador


tendrá condiciones de determinar la realización de levantamientos
geofísicos que, básicamente serán constituidos por trabajos de:
(1) ecosondeo (con sus distintas variaciones) y/o sonar de escaneo
lateral, con el objetivo de caracterizar la morfología superficial,
identificando cuerpos sedimentares con expresión superficial,
indicaciones de corrientes, evidencias de eventos de alta energía, y
estructuras geológicas, como fracturas, fallas y lineamientos. Son
ejemplos de proyectos de evaluación de riesgos en que las
características superficiales son importantes, el levantamiento de
riesgos a la navegación costera (Fig. 9) (Souza y Moura, 2005), la
localización de depósitos arenosos en proyectos de recomposición
de playas erosionadas (Gayes et al., 2001) y la monitorización de
áreas de descarte de material dragado (Mosher y Currie, 1997).

Para el caso (2), los levantamientos geofísicos son los


correspondientes a los sondeos sísmicos continuos. En este
contexto, se encajan las evaluaciones de espesor de sedimentos en
proyectos de dragado, la determinación de la camada nefeloide, y
otros trabajos que dicen respecto a los espesores de sedimentos en
escalas decimétricas a métricas de sedimentos finos poco
consolidados (fangos o arenas finas) y los levantamientos deberán
ser ejecutados con métodos sísmicos que privilegian la resolución
(3) y utilizan fuentes acústicas con señales de frecuencias entre 2 y
30kHz (Sub Bottom Profiler 3,5kHz, 7kHz, 10kHz, 15kHz, chirp 2-
8/2-10/4-12/4-16/9-21kHz, entre otros el pinger 24kHz).
Informaciones de esta naturaleza son comúnmente necesarias en
ambientes estuarinos u otros de baja energía, en que la deposición
de fangos supera la de arenas, o en los que los riesgos envuelven
los procesos de colmatación.

148
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 9. Imagen de sonar de escaneo lateral en que se identifica la


ocurrencia de arrecifes de corales en la región de Abrolhos (Bahia).
Souza y Moura (2005).

Finalmente, si la prioridad consiste en obtener registros de alta


penetración (4) de secuencias sedimentarias arenosas o gravosas,
o si los datos sobre el espesor total de la columna sedimentaria o la
profundidad del embasamiento rocoso constituyen informaciones
fundamentales para la evaluación del riesgo, los levantamientos
geofísicos necesarios son los que utilizan fuentes acústicas de alta
potencia y que emiten señales acústicos con frecuencias abajo de
2kHz. Sparkers, boomers y chirps de alta potencia, están entre las
principales fuentes acústicas utilizadas con estos objetivos en
ambientes litorales, y que presentan un producto final análogo a los
ejemplos ilustrados en la Fig. 6 y también en la Fig. 7 y Fig. 8. En
este caso se encajan los análisis de riesgo asociadas a
deslizamientos costeros o a los efectos de tsunamis, entre otros
ejemplos.
Finalmente, considerando que cada fuente acústica cumple un
papel específico en la investigación de áreas sumergidas,
149
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

idealmente, mejores resultados siempre serán obtenidos con la


utilización simultánea de un conjunto de fuentes acústicas que
completen el espectro de frecuencias deseables para una completa
evaluación del riesgo, o sea, entre 500Hz y 30kHz.

Un pinger de 15 o 24kHz, un chirp (2-10kHz) y un boomer (500Hz-


2kHz) o un sparker (300Hz-1kHz), asociados a un sonar de
escaneo lateral con frecuencia principal en torno de 100kHz, por
ejemplo, constituyen un excelente conjunto de fuentes acústicas
que seguramente responderán de forma satisfactoria a las
principales cuestiones geológicas/geotécnicas involucradas en el
contexto de esta discusión.

Es importante ratificar el concepto básico discutido en este texto


que se refiere a la utilización simultánea de diferentes fuentes
acústicas para una correcta evaluación del riesgo litoral. La
utilización de una o de otra fuente acústica aisladamente, puede, en
algunas situaciones, no ofrecer un resultado adecuado. La Fig. 10
ilustra un excelente ejemplo de la importancia de la utilización
simultánea de las tres fuentes acústicas. En este ejemplo se
observa que la pequeña columna sedimentaria, depositada sobre el
embasamiento rocoso está mejor identificada en el registro obtenido
por el sistema chirp, paradójicamente a los ejemplos ilustrados en la
Fig. 7 y en la Fig. 8, que muestran mejor desempeño, bajo este
punto de vista, de la fuente acústica boomer. Tal hecho resulta
justamente de la perdida natural de resolución de la fuente acústica
boomer cuando ocurre el embasamiento acústico muy próximo de la
superficie del fondo.

150
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Fig. 10. Perfil sísmico ejecutado con empleo simultáneo de tres


fuentes acústicas (A) pinger (24kHz); (B) chirp (2-8kHz) y (C)
boomer (0,5-2kHz). En este ejemplo el mejor desempeño fue
obtenido con la fuente chirp, que permitió la identificación plena del
contacto entre la fina camada de sedimentos con embasamiento
rocoso. Souza et al 2008.

Finalmente, vale la pena resaltar la importancia de elegir la


frecuencia adecuada del sonar de barrido lateral para la cartografía
de superficies del fondo marino. Cuando el objetivo es cartografiar
grandes áreas, frecuencis del orden de 100 kHz son ideales, pues
permiten realizarlo en um corto intervalo de tempo, ya que los
sistemas com esta configuración posibilitan trabajar com alcances
laterales de vários centenares de metros. Por el contrario, cuando el
objetivo es la cartografia de detalle, es necesario emplear

151
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

frecuencias mayores, generalmente por encima de 300 kHz. Estas


frecuencias permiten coberturas laterales de apenas algunas
decenas de metros (generalmente 150 metros) y por tanto, el uso
de las mismas es operacionalmente inviable si se desea mapear
grandes áreas. Por otro lado, muestran detalles de la superficie del
fondo que no serían observados utilizando frecuencias por debajo
de 100 kHz. La Fig. 11 muestra un excelente ejemplo de la
importancia de escoger la frecuencia adecuada según el objetivo de
cada estudio. En este caso se observa claramente el nivel de
detalle en la imagen obtenida con sonar de 500 kHz frente a la
imagen obtenida con el sonar de 100 kHz.

Fig. 11. Dos imágenes de la misma zona, obtenidas com sonar de


barrido lateral de 500 kHz (arriba) y 100 kHz (abajo).

152
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

AGRADECIMIENTOS

Los autores agradecen al Dr. Francisco Lobo Sanchez (CSIC-


España) y a Georadar Levantamentos Geofísicos, por la
autorización de inclusión de registros sísmicos, y a la Dra Leticia
Burone, por la revisión de la primera versión. Este texto es una
contribución del Grupo Brasileño para el Proyecto IGCP526 (Risks,
Resources, Record of the Past on the Continental Shelf: Mining Late
Quaternary Geological Evidence).

REFERENCIAS BIBLIOGRÁFICAS

Ayres Neto, A. 2000. Uso da sísmica de reflexão de alta resolução e


da sonografia na exploração mineral submarina. Revista Brasileira
de Geofísica, 18, 241-255.
Bianco, R. 2004. Apoio à decisão em obras de implantação e
ampliação da infraestrutura aquaviária. En: I Simpósio Regional da
Sociedade Brasileira de Geofísica, SP. Resumos Expandidos. CD-
ROM.
Bianco, R, Souza LAP y Cunha AGN. 2003. Sísmica rasa e sonar
de varredura lateral aplicados a projetos de dragagem e
derrocagem submarina. 8º Congresso Internacional da Sociedade
Brasileira de Geofísica, Rio de Janeiro-RJ. CD-ROM.
Carvalho, N. O. 2008. Hidrossedimentologia Prática.- 2a Edição –
Revisada e Ampliada. Rio de Janeiro, Interciência. 599 pp.
Chiocci, F.L., Romagnoli, C., Tommasi, P. y Bosman, A. 2008. The
Stromboli 2002 tsunamigenic submarine slide: Characteristics and
possible failure mechanisms Journal of Geophysical Research, 113,
B10102, doi:10.1029/2007JB005172, 2008

153
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Dan, G.; Sultan, N. y Savoye, B. 2007. The 1979 Nice harbour


catastrophe revisited: Trigger mechanism inferred from geotechnical
measurements and numerical modelling. Marine Geology, 245, 40–
64.
Dias, G.T.M. y Silva, C.G. 2003. Levantamentos geofísicos na rota
submarina planejada para o Metrô Rio Niterói. En: Congresso
Internacional da Sociedade Brasileira de Geofísica, 8. Rio de
Janeiro, RJ, 14 a 18 de setembro. Anais. CD-ROM.
Dias, G.T.M. 2000. Marine bioclasts: calcareous algae. Revista
Brasileira de Geofísica, 18, 307-318.
Dias, G.T.M.; Gorini, M.A.; Gallea, C.G.; Espindola, C.R.S.; Mello,
S.M.; Dellapiazza, H. y Castro, J.R.J.C. 1982. Bancos de arenito de
praia (beachrocks) submersos na plataforma continental SE
brasileira. En: Congresso Brasileiro de Geologia, 32. Salvador, BA,
setembro de 1982. Anais, 4:1540-1546.
García-García, A.; Vilas, F. y García-Gil, S. 1999. A seeping sea-
floor in a Ria environment: Ria de Vigo (NW Spain). Environmental
Geology, 38, 296-300.
Gayes, P.T.; Baldwin, W.; Van Dolah, R.F.; Jutte, P.; Eiser, W.C. y
Hansen, M. 2001. Systematic coastal monitoring: The S. Carolina
Coast (USA). En: Hanson, H; Larson, M. (eds.). COASTAL
DYNAMICS '01: PROCEEDINGS: 868-877.
Inoue, N.; Kitada, N.; Itoh, Y.; Takemura, K. y Nakagawa, K. 2003.
Integrated study of high resolution geophysical and geological
information of Osaka Bay, Southwest Japan. Journal of Asian Earth
Sciences, 22, 1–11.
IPT-Instituto de Pesquisas Tecnológicas do Estado de São Paulo.
2003. Levantamento batimétrico no lago do parque Guaraciaba e
caracterização geológico-geotécnica das encostas marginais –
município de Santo André, SP. Relatório Técnico 66.080. 71 pp.

154
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Jones, E.J.W. 1999. Marine geophysics. Baffins Lane, Chichester,


John Willey & Sons Ltd. Inc. 466 pp.
Kearey, P.; Brooks, M. y Hill, I. 2002. An introduction to geophysical
Exploration. Oxford, Blackwell Science. 261 pp.
Mansor L.M. 1994. Disposição final de resíduos sólidos em áreas
costeiras: avaliação geoambiental preliminar da planície costeira do
RS. En: Congresso Brasileiro de Geologia, 38. Balneário de
Camboriú-SC. Boletim de Resumos Expandidos. 27 pp.
Marrano, A.; Souza, L.A.P. y Magalhães, F.S. 2004. Sonar de
varredura lateral aplicado à implantação de rotas de navegação. En:
I Simpósio Regional da Sociedade Brasileira de Geofísica, SP.
Resumos Expandidos. CD-ROM.
Mosher, D.C. y Currie, R.G. 1997. Monitoring of ocean disposal
using side scan mosaicing. The Leading Edge, 1, 1667-1670.
Souza L.A.P.; Bianco, R; Tessler, MG y Gandolfo, O.C.B. 2007.
Investigações geofísicas em áreas submersas rasas: qual o melhor
método? En: 10º Congresso Internacional da Sociedade Brasileira
de Geofísica, Rio de Janeiro-RJ. Resumos Expandidos. CD-ROM.
Souza L.A.P.; Gandolfo O.C.B.; Cordeiro RP y Tessler MG. 2006. A
investigação geofísica em projetos de dutovias. En: II Simpósio
Brasileiro de Geofísica, Natal-RN. Resumos Expandidos. CD-ROM.
Souza L.A.P. 1988. As técnicas geofísicas de Sísmica de Reflexão
de Alta Resolução e Sonografia aplicada ao estudo de aspectos
geológicos e geotécnicos em áreas submersas. En: Congresso
Brasileiro de Geologia, 35. Belém-PA. Anais, 4: 1551-1564. I
Simpósio Regional da Sociedade Brasileira de Geofísica, SP.
Resumos Expandidos. CD-ROM.
Souza, L.A.P. 1988. As técnicas geofísicas de Sísmica de Reflexão
de Alta Resolução e Sonografia aplicada ao estudo de aspectos
geológicos e geotécnicos em áreas submersas. En: Congresso

155
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Brasileiro de Geologia, 35. Belém, PA, 6 a 13 de novembro de


1988. Anais, 4: 1551-1564.
Souza, L.A.P. 1998. Exemplos de utilização de métodos geofísicos
na investigação de áreas submersas. En: Encontro Regional de
Geotecnia e Meio Ambiente/Workshop de Geofísica Aplicada, 2. Rio
Claro, SP, 19 a 20 de novembro de 1998. CDROM.
Souza, L.A.P. 2006. Revisão crítica da aplicabilidade dos métodos
geofísicos na investigação de áreas submersas rasas. Tese de
Doutorado. Instituto Oceanográfico da Universidade de São Paulo.
311 pp.
Souza, L.A.P. 2008. A investigação sísmica de áreas submersas
rasas: Parte 1 – Fundamentos e Demandas. Boletim da Sociedade
Brasileira de Geofísica, 2, 11-19.
Souza, L.A.P y Moura, R.L. 2005. Sonar de varredura lateral
aplicado ao estudo de áreas recifais: o ejemplo de Abrolhos. IX
Congresso Internacional da Sociedade Brasileira de Geofísica.
Salvador. Resumos Expandidos. CD-ROM.
Souza, L.A.P.; Marrano, A. y Iyomasa, W.S. 2004. Geofísica
aplicada a estudos de lagos em áreas urbanas. I Simpósio Regional
da Sociedade Brasileira de Geofísica, SP. Resumos Expandidos.
CD-ROM.
Souza, L.A.P.; Miranda Filho, O.F. y Mahiques, M.M. 2008.
Perfilagem sísmica em águas rasas: Qual a melhor fonte acústica?
III Simpósio Brasileiro de Geofísica. Belém, Sociedade Brasileira de
Geofísica. Resumos Expandidos. CD-ROM.
Souza, L.A.P.; Silva, R.F. y Iyomasa, W.S.. 1998. Métodos de
Investigação. En: Oliveira, A.M.S.y Brito S.M.A. (Eds.). Geologia de
Engenharia. São Paulo: ABGE. Cap. 11. Publicação IPT 2551.

156
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Uchida, N.; Taga, K.; Dilley, P. y Batchelor, J. 1998. Three years at


sea: Kansai Airport settles down. Structural Engineering Journal, 1,
15-18.

157
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

MÉTODOLOGÍAS PARA EL LEVANTAMIENTO Y ANÁLISIS DE


PERFILES TOPOGRÁFICOS DE PLAYA

B.O. Posada Posada 1 y N.G. Rangel-Buitrago 2

1
Programa de Geociencias Marinas, Instituto de Investigaciones
Marinas y Costeras, Cerro Punta Betín, Sociedad Portuaria de
Santa Marta, Santa marta, Magdalena. bposada@invemar.org.co
2
Dpto. Ciencias de la Tierra, Fac. Ciencias del Mar y Ambientales,
Universidad de Cádiz, Polígono Río San Pedro s/n, 11510 Puerto
Real, Cádiz, España. nelson.rangelbuitrago@mail.uca.es

INTRODUCCIÓN

El estudio de la evolución litoral demanda un análisis desde una


perspectiva general, que tenga en cuenta la totalidad de los
procesos que suceden a diferentes escalas de tiempo y espacio y
con diversas magnitudes; debe considerar escalas evolutivas a
mediano y corto plazo en sus dos direcciones principales (Sánchez-
Arcilla & Jiménez, 1995): i) longitudinal, en la que se estudian los
cambios en planta (mediano plazo por medio de fotos aéreas) y ii)
transversal, en la que se estudian los cambios en el perfil de playa
(corto plazo por medio de levantamientos topobatimétricos).

Hay una serie de metodología útiles para el levantamiento de


perfiles de playa y el cálculo de los cambios semi-cuantitativos a lo
largo del litoral, dentro de las cuales se presentan en este capítulo
levantamiento con equipos de topografía (teodolito, estación total,
nivel de precisión) y análisis a partir de herramientas SIG.

159
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

APLICACIÓN DE LAS METODOLOGÍAS

El levantamiento de perfiles de playa constituye un método práctico


y rápido de evaluar la evolución litoral a corto plazo, caracterizar
una playa y monitorear los cambios en su morfología, cuya escala
temporal es del orden de horas (en el caso del perfil de erosión) y
de días, incluso meses, para el perfil de acreción. El perfil completo
debe contemplar desde la zona supramareal hasta la profundidad
en donde el fondo comienza a ser afectado por las olas; en tal
sentido, comprenderá un perfil topográfico y un perfil batimétrico,
como prolongación del anterior.

Para propósitos de ingeniería de proteger o controlar problemas


erosivos, el área a cubrir debe corresponder en su totalidad a la
zona poblada o infraestructura a proteger; se deben identificar con
claridad las celdas litorales, que se caracterizan por estar limitadas
por puntas duras, salientes rocosas o cambios morfológicos a nivel
litoral o de la plataforma. En ellas deben caracterizarse el oleaje, las
corrientes y el transporte de sedimentos, que ayuden a comprender
la dinámica litoral y predecir el comportamiento y evolución de la
línea de costa (Anfuso, 2004).

El estudio topográfico de playas se viene realizando desde


principios de siglo XX, empleando diferentes técnicas cada vez más
sofisticadas (King, 1972; CERC, 1984; Horikawa, 1988; Carter,
1988; Komar, 1998). En los últimos 20 años se han utilizado el
teodolito o el distanciómetro gracias a que son instrumentos de fácil
transporte que permiten la realización de levantamientos
topográficos rápidos de la playa, demandando solo el movimiento a
lo largo del transecto. Con la puesta en funcionamiento de los
160
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

sistemas de posicionamiento global (GPS) se están utilizando GPS


de tipo diferencial, debido a que permiten la realización de
levantamientos en forma más rápida y detallada.

Levantamientos de perfiles de playa con estación total,


teodolito, nivel o distanciómetro

Debe realizarse un recorrido inicial para demarcar de forma exacta


el área y definir la dirección del levantamiento de los perfiles topo-
batimétricos. Se requiere del levantamiento de una poligonal abierta
con equipo de topografía de precisión y con la ayuda de un GPS
diferencial, para escala de detalle 1:10.000 o 1:5.000. Para escala
1:25.000, puede hacerse con la ayuda de GPS de bolsillo, de muy
buena precisión, mínimo dos para tener un promedio de las
medidas. Se recomienda recorrer la línea de costa a pie y tomar
anotaciones periódicamente, en especial en los sitios con presencia
de rocas, desembocaduras de ríos u otros rasgos que trunquen la
playa.

La línea de más alta marea y/o temporales, marcada generalmente


por una berma o duna que puede estar más o menos pronunciada,
o por un escarpe de tormenta, o por la línea de vegetación, debe
quedar plenamente identificada; en ella hay acumulación de
troncos, maderas, o simplemente pastos, conchas o arenas más
gruesas (Fig. 1). Esta línea es relativamente fácil seguirla a través
de toda la costa y durante todo el día, por lo que da una buena
referencia para la demarcación de la línea de costa. En el caso de
acantilados muy cercanos al mar, en donde no se aprecien los
rasgos anteriores, se seguirá el límite del acantilado y en la base del

161
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

mismo siempre se encontrará acumulación de materiales o huellas


de la erosión marina.

Fig. 1. Medida con cinta de la zona de acumulación de troncos y


leños, en una playa angosta, limitada por terrazas levantadas y con
la presencia de manglar.

Una vez definida el área, se hace el levantamiento taquimétrico de


la línea de costa con el fin de geo-referenciar la información
batimétrica. Para ello se efectúa una poligonal abierta en la cual se
verifican todos sus “deltas” con el GPS diferencial y se demarcan
los puntos de referencia de los perfiles topo-batimétricos. Se utiliza
un nivel de precisión, con su respectivo trípode y mira y una brújula
o a partir de la década de los 90 teodolitos o estaciones totales, que
eliminan los errores de escritura (González, 2010). En caso de
perderse un punto de referencia por efectos de la erosión u otras
circunstancias, se procederá a elegir un nuevo sitio, el cual
constituirá un perfil nuevo.

162
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Se anotan los detalles de construcciones para que en posteriores


estudios se pueda identificar plenamente estas zonas.
Adicionalmente, se dejan materializados los testigos topográficos
con coordenadas plano-rectangulares UTM Datum WGS-84, de
cada una de las zonas para posibles replanteos topográficos en el
futuro (González, 2010).

Una vez demarcados los sitios de los perfiles y su dirección, se


efectúa un levantamiento topográfico-altimétrico, a partir del testigo
demarcado: hacia el mar hasta empalmar con el perfil batimétrico a
una profundidad aproximada de 1.5 m, y hacia tierra hasta cubrir la
playa trasera o hasta donde las viviendas o vegetación lo permitan.
Se utilizan un nivel de precisión, un teodolito o estación total y un
GPS diferencial. El Cero (0.0) es el nivel medio de bajamares de
Sicigia (MLWS) y las respectivas correcciones se hacen en la
oficina.

Los levantamientos batimétricos de los perfiles de playa se realizan


desde una lancha, entre -1.5 m y la profundidad promedio a la cual
el oleaje de la zona no toca el fondo bajo condiciones climáticas
normales. La separación de los perfiles está definida por la escala
de trabajo, con máximo detalle para diseño de obras o
infraestructura y menos detallada para monitoreos (1:10.000,
1:25.000). Donde haya cambios morfológicos significativos deberán
registrarse con un perfil adicional, de manera que no se pierda esta
información.
En tierra se tendrán en cuenta todos los cambios topográficos
existentes, de manera que quede registro detallado de las
irregularidades del terreno, la pendiente del acantilado, los cordones
litorales, las bermas en la playa y en la zona sub-mareal, las barras
163
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

y depresiones hasta -1.50 m. Se tomarán distancias a intervalos


que no sobrepasen los 10 m o en donde se presente un cambio
detectable en la morfología. También se debe localizar la
infraestructura existente (casas, carreteras, obras de protección,
otros).

El levantamiento de perfiles de playa se realiza basándose en el


método propuesto por Emery (1961). Se localizan, mediante GPS,
los puntos de amarre de cada perfil para proceder a nivelar el
instrumento (nivel) y así dar vista al mar a lo largo de una línea con
rumbo conocido; una persona en el agua sostiene de forma vertical
una mira a una profundidad máxima de -1,5 m y se inician las
lecturas avanzando hacia el aparato y estacionándose en los puntos
donde la pendiente del terreno presente cambios (Fig. 2). Una vez
llega la mira hasta el aparato, y finalizadas las lecturas hacia el mar,
se gira 180° para dar continuidad en tierra, hasta donde las
condiciones del terreno permitan la medición.

Fig. 2. Levantamiento de perfiles de playa con nivel de precisión y


una mira. Se registra hacia el mar hasta una profundidad de -1.5 m
y hacia tierra hasta donde las condiciones lo permitan.
Actividades Complementarias

Cada perfil debe estar acompañado de un muestreo


sedimentológico. En tierra éste se realiza en la zona supra-mareal,
164
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

en la zona de la berma o duna y en la infra-mareal donde rompe la


ola y a una profundidad de -1.50 m. En el mar se tomarán las
muestras de acuerdo con los resultados de la batimetría, de manera
que se puedan caracterizar los fondos.

En caso de acantilado, debe levantarse la columna estratigráfica del


mismo y tomar muestras de los diferentes materiales, así como de
los rasgos erosivos y estructurales (Fig. 3). Es importante siempre
tratar de relacionar la columna estratigráfica del acantilado con las
formaciones geológicas conocidas de la región. Se describe
siempre el uso del suelo, se localizan las estructuras de defensa
existentes, se describen y se hacen las anotaciones sobre su
efectividad.

El monitoreo mediante levantamiento de perfiles de playa requiere


al menos el registro de la época seca y de lluvias, que dará
información sobre los cambios sufridos de una época a otra; se
recomienda, sin embargo, el monitoreo trimestral de las playas para
una mejor y más completa información. El registro multianual de
perfiles permitirá tener una idea más real de la tendencia de la zona
costera en cuanto a retroceso, avance o equilibrio de la misma.

165
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 3. Playa al pie de un acantilado. El levantamiento del perfil de


playa en casos como este, debe incluir la descripción detallada de
la columna estratigráfica.

Beach Profile Analysis Software, desarrollado dentro de “Coast


and Beach Stability in the Caribbean Project” (COSALC), o RMAP,
desarrollado por el U.S. Army Engineer Research and Development
son dos ejemplos de programas que se pueden emplear para
determinar los cambios en los perfiles de playa, vistos desde el
cálculo del área bajo el perfil, ancho, tasas de erosión. Con estos
programas es posible desplegar las gráficas de los perfiles,
superponerlos y obtener tablas con los valores de volumen,
variación vertical, entre otros cálculos. Los programas Surfer y
ArcGis también son utilizados para el análisis de los cambios de los
perfiles de playa.

166
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

EVALUACIÓN SEMICUANTITATIVA DE LOS CAMBIOS EN LA


LÍNEA DE COSTA

El estudio de la evolución litoral a mediano plazo, calculando los


cambios semi-cuantitativos (acumulación y/o erosión) que permiten
establecer comportamientos o tendencias, se ha realizado desde
diversos puntos de vista y por numerosos autores, llevando consigo
la creación y posterior uso de diversas técnicas. Desde sus inicios
(años 50´s) la teledetección ha ofrecido un alto volumen de datos
sobre las zonas litorales, representados por fotografías aéreas,
imágenes de satélite y en los últimos años, el LIDAR.

Sin embargo, su uso se ha estado restringido por el grado de


resolución espacial y temporal que se requiere en los tramos
costeros donde los cambios son significativos y muy rápidos (Ojeda,
2002; Domínguez, 2003), como sucede cuando se hace
seguimiento de fenómenos de baja frecuencia como temporales,
huracanes o mares de leva, que demandan un seguimiento
específico a pequeñas escalas temporales, que permitan el cálculo
de la erosión y/o acumulación absoluta, que no se lograría para
intervalos de tiempo mayores, pues el sistema podría tener una
recuperación.

El cálculo de la evolución a mediano plazo se convierte en un


problema de tipo bidimensional que puede ser abordado por
técnicas que permitan establecer diferencias de posición de la línea
de costa por lo menos para dos fechas diferentes; por lo tanto los
cambios evolutivos deben expresarse en metro lineales al año (ya
sean de avance o retroceso) (Ojeda, 2002; y Domínguez, 2003).

167
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Los procesos, ya sean de acumulación o erosión, están incluidos en


la compleja dinámica de un sistema (el litoral) influenciado tanto por
sus características físicas (i.e. litología, geomorfología), como por
factores asociados a su posición geográfica (i.e. orientación, clima,
oceanografía). De esta forma, interpretar los cambios en la línea de
costa debe ser producto de una valoración cuantitativa situada de
forma “virtual” sobre el terreno. Por esta razón, se puede considerar
que la ventaja del uso de las fotografías aéreas o imágenes de
satélite radica en que su visualización a una escala apropiada
permitirá contextualizar y optimizar las medidas realizadas, que en
realidad no son más que distancias, en un entorno físico.

Consideraciones Generales del Método

En litorales bajos, con presencia de playas o dunas, se sigue la


línea en donde el color indica que el terreno está seco o el pie de
dunas; esto garantiza en cierta medida que la rompiente, que puede
confundirse con la playa, no sea considerada; tampoco estarían
considerados los bajos, las espigas o las barras en formación. A
medida que la escala de la imagen sea de mayor detalle, es posible
delimitar mejor la línea de costa. Cuando no hay playas o dunas, se
sigue la línea de la vegetación. Esta situación es común donde hay
bosques de manglar u otra vegetación de tipo halófito.

En caso de zonas con acantilados, estos pueden proyectar una


sombra que cambiaría la percepción de la línea de costa. En tal
caso se aproxima a la corona del acantilado o cima del talud, en
donde generalmente hay vegetación.

168
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Otras consideraciones incluyen el no comparar imágenes con


escalas muy diferentes, para evitar la interpretación de cambios que
son sólo debidos al detalle de una de las dos imágenes. La
comparación de líneas de costa de verano e invierno también puede
causar una mala interpretación de los resultados, puesto que se ha
comprobado que puede haber oscilaciones estacionales en rangos
de metros.

La metodología utilizada para el análisis, aunque confiable, podría


presentar cierto grado de error, debido a los parámetros antes
descritos o al instrumento usado en la medición de coordenadas,
por lo que se recomienda que los datos arrojados por el análisis
sean tomados esencialmente para identificar las posibles
tendencias en los cambios sufridos por la línea de costa en los años
seleccionados.

Metodología Aplicada

Las imágenes a ser empleadas en el estudio (i.e. foto aérea y/o


imagen de satélite) deben ser almacenadas en archivos raster como
por ejemplo JPG, TIFF o MrSID. Debe comprobarse la escala de
píxel ya que una mayor compresión podría producir distorsiones
significativas de la imagen.

Posteriormente se hace la georeferenciación de las imágenes y/o


fotos aéreas, con el objetivo de ajustarlas a un único sistema de
referencia y minimizar dentro de ellas las distorsiones propias
derivadas del proceso de adquisición de la imagen (Moore & Griggs,
2002). La georreferenciación se debe llevar a cabo utilizando alguna
ortofotografía o imagen previamente georeferenciada como
169
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

documento base para ajustar las imágenes a un sistema de


coordenadas determinado (Por lo general UTM – WGS 84). Para
ello se pueden emplear software SIG como el ArcGIS 9.2, en
concreto su módulo ArcMap o Globbal Mapper partiendo de una
serie de puntos de control (GCP’s) comunes entre cada fotograma y
la ortofotografía digital de referencia (Fig. 4).

Fig. 4. Ejemplos de software empleados para la georeferenciación


de imágenes. arriba: imagen georeferenciada con Arcgis, abajo:
imagen georeferenciada mediante el global mapper.

170
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Para una correcta georreferenciación es de vital importancia la


adecuada selección de puntos de control (GCP), siguiendo los
criterios de número, localización y distribución de los mismos
(Thieler & Danforth, 1994). Se recomienda como mínimo 7 GCP, el
primero en el centro de la imagen, para así obtener la mayor
precisión posible, mientras los demás deben distribuirse por la zona
central de la imagen, intentando cubrir toda el área fotografiada.
Mediante un proceso iterativo de selección y ajuste, se obtiene un
error cuadrático medio o RMSE inferior a 1 metro. Este proceso
puede verse dificultado en las imágenes en las que no se presenten
elementos antrópicos; en tal caso deben tomarse elementos
naturales con tasas de cambio muy lentas como stacks, caños y en
su defecto parches de vegetación.

La georreferenciación puede realizarse través de una


transformación polinómica de segundo orden, ya que frente a las
transformaciones lineales, los polinomios de mayor orden permiten
corregir parcialmente la distorsión interna de los fotogramas
mediante su curvado (Brito y Coelho, 2002). Finalmente, las
imágenes se deben recalcular mediante algoritmos de interpolación
bilineal para calcular los nuevos valores de los píxeles, obteniendo
cada imagen en formato un nuevo formato (por lo general TIFF).

El siguiente paso consiste en la digitalizaron las diversas unidades


geomorfológicas y líneas de costa mediante la creación de archivos
tipo vector de información en el SIG. En este caso, para cada línea
de costa, debe crearse, para cada año disponible, un archivo de tipo
shapefile el cual servirá para la determinación de la evolución litoral
a mediano plazo. Con todas las líneas se miden las variaciones
empleando la extensión de ARCGIS denominada Digital Shoreline
171
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Analysis System (DSAS). Esta extensión, desarrollada por el


Servicio geológico Norteamericano (USGS), permite calcular
mediante fórmulas matemáticas, parámetros que ayudan a
determinar el estado evolutivo dentro del intervalo de tiempo
estudiado; para esto se emplean las siguientes definiciones:

Al usar el DSAS el primer paso consiste en definir una línea base


fija, paralela a las líneas de costa digitalizadas. El DSAS permite
trazar de manera semiautomática transectos perpendiculares a esta
línea base y que cortan a las líneas de costa disponibles, separados
entre sí una distancia definida por el usuario y que debe estar
acorde a la escala de trabajo. Las intersecciones de los transectos
con las líneas de costa se emplean para cuantificar a lo largo de
cada transecto la distancia entre la línea base y las posiciones de la
línea de costa en distintas fechas (Fig. 5).

Fig. 5. Creación de líneas base y posterior generación de transectos


por medio de la extensión DSAS del software Arcgis.
El programa DSAS permite calcular las tasas de cambio de línea de
costa según diferentes métodos estadísticos (Fig. 6):
172
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

- End Point Rate (EPR) relación de la distancia entre la línea de


costa más antigua y la más reciente y el lapso de tiempo en años
existente entre ambas líneas (Fig. 6). La principal ventaja de la EPR
es su facilidad de cálculo y los requisitos mínimos para los datos de
partida (dos líneas de costa). La principal desventaja es que en los
casos en que se dispone de más de dos líneas de costa, la
información sobre el comportamiento del litoral proporcionado por
las líneas intermedias se descuida.

- Average of Rates (AOR) es la razón de la distancia entre cada


par de líneas de costa sucesivas y el lapso de tiempo que hay entre
ellas, obteniendo como resultado final el promedio de los valores de
tasas de cambio entre cada par de líneas (Fig. 6).

- Average of Eras (AOE) calculado adicionando la tasa de cambio


para eras individuales (distancia entre cada par de transectos
divididos entre ellos) dividido por el número total de eras (número
de intervalos entre líneas de costa sucesivas); su resultado es un
promedio general para todos los periodos combinados (Thieler et
al., 2005, Fig. 6).

- Regresión Lineal (LRR) que se determina por ajuste de mínimos


cuadrados a todos los puntos de la costa de un transecto
específico. La tasa de cambio es la pendiente de la línea. Las
ventajas de la regresión lineal son: 1) se usa todos los datos,
independientemente de los cambios en la tendencia o la exactitud,
2) el método es puramente computacional; 3) se basa en conceptos
estadísticos ampliamente aceptados (Fig. 6).

173
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 6. Métodos estadísticos utilizados para el cálculo de la


evolución litoral a mediano plazo. Arriba EPR y abajo LRR.

REFERENCIAS

Anfuso, G. 2004. Caracterización de celdas litorales en un tramo


costero aparentemente homogéneo del litoral de Cádiz (SO de
España). Rev. C. & G., 18 (1-2), 25-36
Brito, J.N., Coelho, L.C. 2002. Fotogrametria Digital. Instituto Militar
de Engenharia, Rio de Janeiro, 215 pp.
Carter, R.W.G. 1988. Coastal environments. Academic Press, 617
pp.
174
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

CERC (Coastal Engineering Research Centre). 1984. Shore


Protection Manual. U.S. Army Corps of Engineers. Res. Center.
Printing Office.Washington.CERC.
Domínguez, L. 2003. Aproximación al conocimiento de la erosión
costera en el litoral entre Sanlucar de Barrameda y Rota (Provincia
de Cádiz). Tesis de licenciatura, Universidad de Cádiz, 184 Pág.
Emery, W.B. 1961. A simple method of measuring beach profiles.
Limnology and Oceanography, 6, 90-93.
González C., A. 2010. Lecciones de topografía y replanteos. 5ª ed.
Editorial Club Universitario. España.
Horikawa, K. 1988. Nearshore dynamics and coastal proceses.Univ.
Tokyo Press. 522 pp.
King, C.A.M. 1972. Beaches and Coasts. Edward Arnold. 570 Pág.
Komar, P.D. 1998. Beach processes and sedimentation. Prentice-
Hall. 544 pp.
Moore, L. J., Griggs, G. B. 2002. Long-term cliff retreat erosion
hotspots along the central shores of the Monterey Bay National
Marine Sanctuary. Marine Geology, Vol. 181, 265- 283.
Ojeda, J. 2002. Métodos para el cálculo de la erosión costera.
Revisión, tendencias y propuesta. Boletín de la A. G. E., 30, 103-
118.
Sanchez- Arcilla, A., Jimenez, J.A., 1995. Evolucion en planta/perfil
de una playa. Métodos predictivos. Ingeniería del Agua, 2, 119-131.
Thieler, E.R., Danforth, W.W. 1994. Historical shoreline mapping (I):
Improving techniques and reducing positioning errors. Journal of
Coastal Research 10 (3), 549- 563.
Thieler, E.R., Himmelstoss, E.A., Zichichi, J.L., and Miller, T.L. 2005.
Digital Shoreline Analysis System (DSAS) version 3.0: An ArcGIS
extension for calculating shoreline change: U.S. Geological Survey
Open-File Report 2005-1304.
175
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

ESTUDIOS DE EROSIÓN CON SATÉLITE EN COSTAS


SEDIMENTARIAS MICROMAREALES

I. Rodríguez1, J. M. Ramírez1, M.J. Sánchez1 e I. Montoya2

1
Área de Geología, Dpto. de Biología y Geología, ESCET,
Universidad Rey Juan Carlos. C/Tulipán s/n, 28933 Móstoles-
Madrid, España.
2
Dpto. de Oceanografia Física, Química e Geológica. Instituto
Oceanográfico. Universidade de São Paulo. Praza do
Oceanográfico 191. São Paulo, Brasil.

INTRODUCCIÓN

Se entiende por teledetección aquella tecnología que permite


obtener información de los cuerpos situados sobre la superficie
terrestre sin entrar en contacto con ellos (Chuvieco, 1990). Si bien,
dentro de esta definición quedarían incluidas las fotografías aéreas
y los datos LIDAR, este texto sólo se ocupará de las imágenes
tomadas por satélite, pues los anteriores son objeto de sendos
capítulos, respectivamente.

La erosión costera y las inundaciones por el ascenso del nivel


medio del mar representan riesgos geológicos que ocurren de forma
continuada, y en diferentes escalas de tiempo. Para estudiar estos
cambios es imprescindible realizar un análisis temporal detallado de
las distintas posiciones que ha ocupado la línea de costa en el
periodo de estudio. Definir la posición de la línea de costa no es
sencillo pues dada su naturaleza altamente cambiante, permite
177
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

establecer distintos argumentos para su definición, los cuales


quedan recogidos en Boak y Turner (2005). La teledetección ofrece
una serie de herramientas basadas en el diferente comportamiento
espectral de las cubiertas, de forma que la extracción de la línea de
costa se realiza de forma automática, precisamente apoyada sobre
estas características, y no sobre la experiencia y pericia del
operador encargado de la restitución y digitalización de la línea de
agua (Rodríguez, 1999b).

Breve repaso a los principios físicos de la teledetección

Para centrar al lector en el tema, a continuación se hará una


descripción breve de los principios y mecanismos que rigen en
teledetección. Se hace necesario, por tanto, utilizar otras fuentes
para profundizar y ampliar estos conocimientos. Se recomienda
revisar los textos de Campbell (1996), Lillesand y Kiefer (2000)
Chuvieco (2010).

La teledetección se basa en la energía que emiten o reflejan los


cuerpos situados sobre la superficie terrestre y que es recogida por
el sensor que viaja a bordo de una plataforma o satélite. En este
sistema es necesaria, pues, una fuente de energía que incida sobre
las cubiertas terrestres que, en el caso de teledetección pasiva es el
Sol, y en la teledetección activa es el propio sensor el que la
genera. Esta energía, en su camino hacia tierra atraviesa la
atmósfera donde parte de la radiación es reflejada y dispersada por
los aerosoles y las partículas de la atmósfera. De la radiación que
alcanza la superficie, parte es absorbida por la propia superficie y
otra parte es reflejada en función de las características y tipo de

178
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

cubierta, siendo ésta última la registrada por el sistema de


observación.

Por su parte, el sensor recoge esta energía que le llega de la


superficie en varias bandas del espectro de acuerdo a su
resolución espectral. Ésta será mayor cuanto más bandas del
espectro sea capaz de manejar. La sensibilidad del sensor, es decir,
la capacidad para detectar variaciones en la energía que recibe,
establece la resolución radiométrica, y se expresa en niveles de
gris, de forma que ésta aumenta a mayor número de niveles. Por
otra parte, el valor que presenta el píxel en la imagen se conoce
como nivel digital (ND). Una de las características que hacen de la
teledetección una herramienta especialmente interesante para
estudios evolutivos del medio es su capacidad de recoger la misma
porción de terreno cada cierto tiempo. Esto se conoce como
resolución temporal, de forma que cuanto menos tiempo tarda el
satélite en pasar por el mismo sitio y captar la misma imagen,
mayor resolución temporal tendrá. Por otra parte, las características
técnicas del satélite determinan su resolución espacial que define
el grado de detalle con que podemos visualizar una imagen. A
efectos prácticos significa que elementos con tamaños inferiores al
del píxel no son visibles en la imagen.

El número y anchura de las bandas espectrales en las que se


recogen las imágenes depende del tipo de sensor. Como ya se ha
mencionado, la energía que registra el sensor depende de la
naturaleza de las cubiertas. Esta forma característica de reflejar la
energía determina su firma espectral. En la Fig. 1 se muestra la
firma espectral de diferentes cubiertas, que permite discriminarlas

179
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

en una imagen por medio de un análisis de la reflectividad en sus


diferentes bandas.

Fig. 1. Firma espectral típica de distintas cubiertas (Chuvieco,


2010).

Comportamiento espectral del agua

Como se puede ver en la Fig. 1, el agua presenta un


comportamiento espectral bien diferente al resto de las cubiertas.
En la región del azul (0,4-0,5 m), es donde el agua transmite la
mayor parte de la energía recibida, por lo que a esta longitud de
onda hay mayor oportunidad para detectar las características del
fondo. A medida que aumenta la longitud de onda el agua va
absorbiendo mayor energía y, por tanto, va disminuyendo su
reflectividad hacia la región del infrarrojo (<0,7 m), donde la
absorción es tan grande, que la distinción entre agua y tierra se
puede realizar sin problema (Fig. 2) (Rodríguez, 1999b).

180
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Las impurezas que contiene el agua cambian sus propiedades


espectrales. Los sedimentos procedentes de fuentes naturales o
artificiales producen turbidez en el agua, disminuyendo su
transparencia. A medida que la concentración de sedimentos
aumenta también lo hace el brillo en la región del visible (0,4-0,7
m), de forma que el agua deja de actuar como un cuerpo oscuro al
aumentar su reflectividad, y el pico de reflectancia pasa desde un
máximo en la región del azul hacia el verde (0,5-0,6 m). A medida
que el contenido en sedimentos aumenta, el color del agua se torna
próximo al del propio sedimento (Rodríguez, 1999b).

agua

tierra
a b c

Fig. 2. Histograma de la banda del verde (a), de la banda del rojo


(b) y del infrarrojo original (c).

¿Cómo elegir una imagen?

La elección de la imagen más apropiada para analizar la evolución


ocurrida en un determinado tramo costero depende, principalmente,
de la resolución espacial y de la temporal. En el primer caso, habrá
que buscar un tipo de sensor que ofrezca un tamaño de píxel
adecuado a las características dinámicas de nuestro sistema, de
forma que la magnitud de los cambios no quede por debajo del
tamaño del píxel. En cuanto a la resolución temporal, el tiempo que
abarque el estudio dependerá de las fechas en las que hay
disponibilidad de imágenes.
181
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Así, y atendiendo a estas dos características, las imágenes más


empleadas para este tipo de análisis son las recogidas por los
sensores Landsat, que presenta resoluciones espacial y temporal
de 30 m y 16 días respectivamente (Correa y Alcántara-Carrió,
2007; Almonacid et al., 2011, Kuleli et al., 2011; Pardo-Pascual et
al., 2012); SPOT, con una resolución espacial de 10 m (2,5 m en
SPOT 5) en el modo pancromático (con un ancho de banda que
abarca desde el verde al infrarrojo cercano) y 20 m (10 m en SPOT
5) en el en el modo multiespectral (bandas verde, rojo e infrarrojo
cercano); y 26 días de resolución temporal (Rodríguez, 1999a,
1999b, 2001); IKONOS con 1 m en el modo pancromático y 4 m en
modo multiespectral, (Li et al., 2003, Di, et al., 2003a y b), ASTER
con 15 m y periodicidad de 16 días; QuickBird, con 0,6 m en el
modo pancromático y 2,5 m en el modo multiespectral (azul, verde,
rojo e infrarrojo próximo) (Pardo-Pascual et al., 2007; Ruiz et al.,
2007). Las imágenes de radar también se han utilizado para
estudios de erosión costera (Maged, 2001; 2003), aunque en menor
medida debido principalmente a las características propias de este
tipo de imágenes, siendo más empleadas en estudios de otro tipo
de riesgos costeros como son los derrames y vertidos de
hidrocarburos (Bern et al., 1992; Fingas y Brown, 1997; Platonov y
Redondo, 2001; Gamarra, 2003; Carreño et al., 2005).

Para estudios retrospectivos es esencial conocer desde cuando hay


imágenes disponibles para ser utilizadas. Así, Landsat 5 y Spot 2,
tienen imágenes desde los años 1984 y 1990 respectivamente,
pudiendo ser empleadas en estudios de cambio a medio y largo
plazo; mientras que las imágenes IKONOS y ASTER, se encuentran
disponibles desde el año 1999 y, en el caso de QuickBird, desde
182
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

octubre de 2001, pudiendo utilizarse estas en análisis a medio y


corto plazo. Además, en este último caso, se presenta el
inconveniente de que no hay cobertura total sobre el globo.
Para tener una idea detallada de los sensores e imágenes con sus
resoluciones y disponibilidad, se recomienda visitar la página web
Asprs Guide to Land Imaging Satellites y revisar el manual de
Labrador et al. (2012).

EXTRACCIÓN DE LA LÍNEA DE COSTA

Como ya se ha comentado previamente, la detección automática de


la línea de orilla a partir de imágenes de satélites, se logra teniendo
en cuenta el diferente comportamiento espectral que presentan las
distintas cubiertas con relación a la del agua. Rodríguez (1999a,
1999b, 2001) analizó diferentes técnicas de tratamiento digital de
imágenes de satélite con el fin de comparar resultados al objeto de
establecer el mejor método para extraer de forma automática la
línea de costa. El estudio se realizó sobre imágenes del satélite
SPOT-3 en la costa del Delta del Ebro. En todos los casos se
procedió de la misma manera: primero se aplicó una de las técnicas
de tratamiento digital de imágenes que se explican a continuación
para definir la línea de costa, y las imágenes binarias resultantes del
proceso se vectorizaron para obtener la línea de orilla en formato
vectorial (Fig. 3).

183
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

A B

Fig. 3. A) Imagen binaria. B) Línea de costa vectorizada a partir de


la imagen anterior (Rodríguez, 1999b).

Análisis de la banda del Infrarrojo

Esta es la forma más intuitiva de delimitar el borde costero, pues


como ya se ha visto anteriormente, la determinación del límite tierra-
agua es más fácil en la región del infrarrojo cercano donde la tierra
presenta tonos más brillantes, mientras que el agua permanece
oscura. El análisis del histograma permite determinar el valor
máximo que presenta el ND del agua en cada una de ellas, y a
partir de estos valores obtener imágenes binarias, donde sólo se
muestra tierra y agua.

Cociente entre Bandas

Una buena aproximación se obtiene del cociente propuesto por


Philipson y Hafker (1981, en Campbell 1996) para estudiar zonas
inundadas. Consiste en relacionar la diferencia entre las bandas del
184
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

verde y del infrarrojo, con la banda del verde: [(XSv-XSIC)/XSv].


Puesto que la reflectividad del agua es muy baja en la banda del
infrarrojo, la relación se acerca a 1 en áreas inundadas y a 0 en
zonas no inundadas. Por ejemplo, si la tierra está seca su valor
digital estará cercano a 35 siendo entonces la relación para zonas
inundadas (35-0)/35=1 y para zonas no inundadas (35-35)/35=0.
Esta relación da, en general, buenos resultados, pero estos autores
encontraron que cuando el agua presentaba turbidez alta el
procedimiento no era siempre afortunado, teniendo que utilizar otros
métodos para identificar las aguas turbias y separar tales áreas de
las zonas no inundadas. El resultado de aplicar este índice es
directamente una imagen binaria.

Cálculo del Índice de Vegetación

Otro cociente entre bandas es el denominado índice de vegetación


normalizado (NDVI), el cual relaciona las bandas del rojo (IR) y del
Infrarrojo (IIc) de la siguiente forma NDVI = [(IIc-IR) / (IIc+IR)]. Una de
las utilidades de los índices de vegetación es la de mejorar la
discriminación entre dos cubiertas con comportamiento reflectivo
muy distinto (Chuvieco 1990). Si dos cubiertas tienen el mismo
comportamiento espectral, el índice de vegetación apenas
proporciona información adicional, mientras que pequeñas
diferencias en la repuesta espectral ofrece un resultado que
muestra el contraste entre las dos reflectividades (Campbell, 1996).

Una vez obtenida la imagen NDVI, y previo a la obtención de la


línea de costa vectorial, es preciso binarizar la imagen de forma que
todo lo que sea agua adopte el valor de 0 y todo lo que es tierra, el
valor de 1. Previamente hay que determinar el valor del ND del
185
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

agua, bien a partir del análisis del histograma de esta nueva imagen
NDVI, bien a partir de la consulta en varios puntos de la imagen,
especialmente en posibles zonas conflictivas (Fig. 4), estableciendo,
de esta forma, el valor umbral entre agua-tierra.

Fig. 4. Imagen NDVI que muestra los puntos donde se ha


consultado el valor del píxel.

Clasificación de imágenes

La clasificación es una técnica de tratamiento digital de imágenes


que permite agrupar los píxeles de la imagen de acuerdo a un
patrón de reflectancia espectral previamente definido.

Hay dos formas de establecer la clasificación:


1. Dejando que el sistema defina por sí sólo estos
patrones, integrando en diferentes clases los píxeles
186
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

presentes de acuerdo a su nivel digital. Este


procedimiento se conoce como clasificación no
supervisada.

2. En el otro procedimiento o clasificación supervisada, es


el propio usuario el que identifica y localiza los tipos
de clases o coberturas presentes en la imagen. El
procedimiento consiste en elegir sobre la imagen
multiespectral una muestra representativa de estas
clases, denominando a estas áreas elegidas "campos
de entrenamiento". En esta fase hay que ser muy
cuidadosos al situar las áreas de entrenamiento pues
los resultados de la clasificación dependen en gran
medida de la precisión con la que se han elegido
dichas áreas. Por ello es recomendable tomar varias
áreas por categoría definida y asegurarse de que los
píxeles seleccionados pertenezcan únicamente a esa
clase.

Una vez concluido el proceso anterior, es necesario aplicar un


método que permita la clasificación de toda la imagen. Existen
varios métodos de clasificación supervisada. Uno de los más
utilizados es el de Máxima Probabilidad, en el que el sistema
calcula, para cada campo de entrenamiento y para cada una de las
bandas que interviene en la clasificación parámetros de estadística
multivariable, tales como la media, la desviación típica, y las
matrices de correlación, de forma que al final del proceso cada pixel
es evaluado y asignado a la clase a la cual tiene mayor probabilidad
de pertenecer, de acuerdo con las reglas del método de
187
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

clasificación elegido. Este método es el más robusto de todos, a


pesar de que es el que conlleva mayor tiempo de cálculo
(Rodríguez, 1999b). No obstante, para ahondar más en esta
cuestión se recomienda consultar alguno de los manuales citados
anteriormente. El resultado de la clasificación con las clases
definidas y su leyenda se muestra en la Fig. 5. Es importante
señalar que la clasificación representa un método para transformar
los datos multiespectrales en información temática.

Normalmente, después de realizar una clasificación conviene


realizar un suavizado de los resultados por medio de la aplicación
de filtros modales, de forma que se eliminen los píxeles aislados
que no corresponden a las categorías donde se encuentran.

Para extraer la línea de costa a partir de la imagen clasificada es


necesario realizar una reclasificación para obtener una imagen
binaria que posteriormente se vectorice de forma automática.

Fig. 5. Resultado obtenido en la clasificación (Izquierda, imagen


clasificada y derecha, clases definidas en la clasificación)
188
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Análisis de Componentes Principales (CP)

Este es un procedimiento estadístico de extracción de información


de las imágenes, consistente en construir nuevas bandas a partir de
las originales, condensando la mayor parte de la información en
ellas.

Cuando se proyectan los ND de diferentes bandas, se observa que


existe una fuerte correlación entre ellas. Esto hace que la
información que dan estas bandas sea, en gran parte, redundante.
Una forma de solucionar este problema es construir imágenes
nuevas en las que los ND correspondientes a cada pixel se
obtienen estableciendo nuevos ejes (componentes principales) que
resultan de una combinación lineal de bandas.

La ventaja de estas representaciones es que permiten acrecentar la


información correspondiente a una serie de imágenes
multiespectrales en una o dos CP, relegando el ruido a los CP con
menos variación de los cuales se puede prescindir en la
interpretación. De esta forma resulta sencillo visualizar las
diferencias entre las distintas imágenes. Por este motivo, este
procedimiento se está haciendo muy común en estudios
ambientales sobre todo cuando se quiere abordar un estudio
multitemporal (Pardo-Pascual, 2008) a pesar de que supone la
destrucción de las relaciones entre la radiancia del objeto y el valor
digital (Chuvieco, 1990). De igual manera, se recomienda la
consulta de los manuales de referencia para profundizar en la
herramienta.

189
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Comparación de estos métodos

Como se ha expuesto previamente, todos los métodos fueron


aplicados sobre imágenes SPOT (20 m de resolución espacial) en
la zona del Delta del Ebro. Los resultados obtenidos en este caso
muestran que todos ellos permiten la extracción automática de la
línea de costa, pero la clasificación resulta la más eficiente,
ofreciendo mejores resultados pues permite discriminar mejor
cubiertas ambiguas desde el punto de vista espectral, sobre todo en
las zonas donde existe turbidez, donde todos los demás métodos
no son capaces de definir la línea de forma correcta, mientras que
con la clasificación supervisada es posible lograr una delimitación
válida (Fig. 6). El mayor inconveniente que encontramos en la
clasificación supervisada es el mayor tiempo de proceso que
conlleva (Rodríguez, 1999a y 1999b).

Fig. 6. Imagen que muestra las líneas de costa obtenida a partir de


la clasificación y del NDVI (en blanco) (Rodríguez, 1999a).

190
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

No obstante, conviene realizar una serie de consideraciones sobre


el resto de los métodos. El análisis de la banda del infrarrojo y el
cociente propuesto por Philipson y Hafker representan dos métodos
sencillos y rápidos, pero presentan problemas en zonas con aguas
turbias. El cálculo del NDVI, se presenta como un buen método
para discriminar el agua de la tierra, pero mostró el inconveniente
de no ser muy efectivo en áreas de aguas someras o con turbidez,
como la que se presenta en la Fig. 6, correspondiente a los sectores
intermareales de la bahía del Fangar, en la que aparecen zonas de
baja profundidad y con aguas turbias procedentes de los desagües
de las tierras cultivadas en el interior del Delta. La línea de costa
obtenida a partir de la segunda componente principal, presentaba
también resultados similares a los expuestos para los otros
métodos.

Una consideración a tener en cuenta es que las líneas de costa


definidas a partir de los procedimientos descritos anteriormente
muestran la posición del agua en el momento del paso del satélite,
por lo que para realizar estudios evolutivos es preciso corregir los
efectos de la variaciones del nivel del mar ocurridos en el intervalo
de tiempo abarcado en el estudio. Por lo tanto, no son
recomendables para sectores meso a macromareales donde la
línea de costa puede tener variaciones significativas cada 6 o 12
horas.

OTRAS TÉCNICAS DE EXTRACCIÓN DE LA LÍNEA DE COSTA

Con los métodos de tratamiento digital de imágenes expuestos


anteriormente, el margen de error en la determinación de la línea de
orilla puede variar dependiendo del tamaño del píxel. Existen
191
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

tratamientos basados en los denominados análisis de mezclas


espectrales que extraen información sobre el grado de mezcla entre
clases de cada píxel, lo que permite minimizar estos errores.

Por otra parte, se están desarrollando diferentes métodos que


permiten aumentar la precisión en la determinación de la línea de
orilla a partir de algoritmos donde es posible realizar la extracción
de la línea de costa a nivel subpixel. El algoritmo desarrollado por
Ruiz et al. (2007) y Pardo et al. (2007, 2008, 2012), parte de la
extracción inicial de una línea de costa aproximada a nivel píxel y,
en una segunda fase, sobre esta primera línea se hace la búsqueda
de la posición a nivel subpíxel. El programa desarrollado se basa en
el remuestreo previo de la imagen para trabajar sobre píxeles de
menor dimensión. Sobre un vecindario dado de la nueva imagen
remuestreada y situada sobre la línea de costa preliminar, se ajusta
una función polinómica de 5º grado y, una vez definida esta función
matemática de forma analítica, se deduce el punto en el que la
curvatura es nula y el gradiente máximo. Este análisis se repite
sucesivamente siguiendo la línea de costa preliminar, de forma que
al final es posible deducir la posición de la orilla con un error medio
muy bajo (Pardo et al. 2008).

En este sentido también destaca el trabajo de Di et al. (2003a) que


propone un algoritmo para extraer de forma automática la línea de
costa a partir de imágenes IKONOS. También proponen otros
procedimientos utilizando Modelos Digitales de Elevaciones (MDE),
alcanzando errores aceptables en su definición (Di et al., 2003b; Li
et al, 2003).

192
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Por último, se recomienda la lectura de Boak y Turner (2005) que,


además de ofrecer de forma sencilla y clara una definición de la
línea de costa, así como las posibles formas de identificarla, hacen
una revisión de las fuentes de datos y las diferentes técnicas que se
pueden utilizar para delimitar el borde costero, basadas tanto en
procedimientos manuales de digitalización sobre fotografía aérea,
como en otros más sofisticados como clasificación mediante redes
neuronales.

COMPARACIÓN DE LAS LÍNEAS DE COSTA. ANÁLISIS SIG

Es evidente que este análisis no puede quedarse en la extracción


de la línea de costa a partir de las imágenes. Es necesario, pues, un
sistema que permita su comparación para obtener resultados
acerca de los movimientos que presentan dichas líneas, pudiendo
establecer las zonas donde se produce acreción o erosión de la
costa (Ojeda, 2000). Los Sistemas de Información Geográfica,
debido a su versatilidad y a su capacidad de integrar diferentes
fuentes de información resultan una herramienta de uso común para
este tipo de análisis, estando plenamente difundida entre todos los
investigadores que trabajan en el ámbito costero. Una revisión de
las aplicaciones de los SIG en el ámbito costero se muestra en
Rodríguez et al., 2009.

Las herramientas y procedimientos a utilizar en la aplicación de los


SIG para analizar los distintos tipos de riesgos no son objeto de
este capítulo, pero sí es preciso acentuar la natural continuidad en
los procedimientos entre la teledetección y los SIG, pues uno de los
objetivos principales del tratamiento de imágenes de satélite es la
obtención de una cartografía que refleje el estado actual de la costa,
193
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

o los cambios ocurridos en un periodo determinado. Destaca la


herramienta Digital Shoreline Analysis System (DSAS) (Thiler et al.,
2009) implementada sobre un SIG y desarrollada por el U.S.
Geological Survey del Departamento de Interior de Estados Unidos,
que supone un avance a la hora de monitorizar todos las cambios
sufridos por la costa, y que se haya descrita en otros capítulos de
este manual.

REFERENCIAS

Almonacid Caballer, J., Pardo-Pascual, J.E., Ruiz Fernández, L.A.,


Palomar-Vázquez, J.M. 2011. Caracterización de los cambios en la
línea de costa tras el Temporal de noviembre de 2001 a partir de
imágenes landsat Etm+. Actas de las VI Jornadas de
Geomorfología Litoral, Tarragona 2011, 19 – 22.
Asprs Guide to Land Imaging Satellites.
http://www.asprs.org/news/satellites/asprs_database_110804.pdf
Bern, T. -I., Wahl, T., Anderssen, T. y Olsen, R. 1992. Oil spill
detection using satellite based SAR: Experience from a field
experiment. Proc. 1st ERS-1 Symposium, Cannes, France, 829 –
834.
Boak, E.H., Turner, I.L. 2005. Shoreline Definition and Detection: A
Review. Journal of Coastal Research, 21(4), 688–703
Campbell, J.B. 1996. Introduction to Remote Sensing. Ed. Taylor &
Francis. 622 pp.
Carreño, F., García, S y Rodríguez, I. 2005. Interpretación de
imágenes radar para la detección de la contaminación marina
provocada por el Prestige con un SIG. X Conferencia
Iberoamericana sobre Sistemas de Información Geográfica. San
José de Puerto Rico.
194
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Chuvieco, E. 1990. Fundamentos de Teledetección Espacial. Ed.


Rialp. 453 pp.
Chuvieco, E. 2010. Teledetección ambiental: la observación de la
tierra desde el espacio. Ed. Ariel, 2ª Ed. 591 pp.
Correa, I. y Alcántara-Carrió, J. 2007. Cartografía y sensores
remotos aplicados al estudio de cambios históricos en la posición y
configuración de la línea de costa del Caribe y Pacífico
colombianos. Congreso de la Asociación Española de
Teledetección. Mar del Plata, Argentina.
Di, K., Ma. R., y Li, R. 2003a. Geometric Processing of Ikonos
Stereo Imagery for Coastal Mapping Applications. Photogrammetric
Engineering & Remote Sensing, 69 (8), 873–879.
Di, K., Wang, J., Ma, R., Li, R. 2003b. Automatic shoreline extraction
from high-resolution IKONOS satellite imagery. ASPRS Annual
Conference Proceedings, Anchorage, Alaska.
Fingas, M. F. y Brown, C. E. 1997. Review of oil spill remote
sensing. Spill Science and Technology Bulletin, 4, 199–208.
Gamarra, A. 2003. The use of Radar Imagery in the Prestige Fuel
Spill Case. Conference The Impact of Satellite Tecnology on
Maritime Security. Vigo (Spain).
Kuleli, T., Guneroglu, A., Karsli, F., Dihkan, M. 2011. Automatic
detection of shoreline change on coastal Ramsar wetlands of
Turkey. Ocean engineering, 38 (10), 1141-1149.
Labrador, M, Évora, J. M., Arbelo, M. 2012. Satélites de
teledetección para la gestión del territorio. Consejería de
Agricultura, Ganadería, Pesca y Aguas del Gobierno de Canarias.
66 pp.
http://www.satelmac.com/images/stories/Documentos/satelites_de_t
eledeteccion_para_la_gestion_del_territorio.pdf

195
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Li, R., Di, K. y Ma. R. 2003. 3-D shoreline extraction from IKONOS
satellite imagery. Marine Geodesy, 26, 107– 115.
Lillesand, T.M. y Kiefer, R.W. 2000. Remote Sensing and Image
Interpretation, New York, John Wiley and Sons.
Maged, M. 2001. TOPSAR wave spectra model and coastal erosion
detection. Int. J. Appl. Earth Observ. Geoinform., 3(4), 357-365.
Maged, M. 2003. ERS-1 modulation transfer function impact on
shoreline change model. Int. J. Appl. Earth Observ. Geoinform., 4,
279-294.
Ojeda, J. 2000. Métodos para el cálculo de la erosión costera.
Revisión, tendencias y propuesta. Boletín de la A.G.E, 30, 103-118.
Pardo-Pascual, J.E., Ruiz-Fernández, L.A., Almonacid, J.,
Rodríguez-Recatalá, B. y Gracia, G. 2007. Métodos para la
determinación automática de la línea de costa con precisión
subpíxel, En: L. Gómez Pujol y J.J. Fornós (Eds.). Investigaciones
recientes (2005-2007) en Geomorfología Litoral. Universidad de las
Islas Baleares. Palma de Mallorca. 39-40.
Pardo Pascual, J.E., Ruiz Fernández, L. A., Palomar Vázquez, J.
M., Calaf, X., Colmenárez, G. R., Almonacid J., Gracia G. 2008.
Teledetección, GPS y Lidar: Nuevas técnicas de análisis y evolución
de la línea de costa y de los espacios playa-duna. Actas de las
Jornadas Técnicas “Las nuevas técnicas de información geográfica
al servicio de la gestión de zonas costeras: Análisis de la evolución
de playas y dunas”.
Pardo-Pascual, J.E., Almonacid-Caballer, J., Ruiz, L. A., Palomar-
Vázquez, J. 2012. Automatic extraction of shorelines from Landsat
TM and ETM+ multi-temporal images with subpixel precision.
Remote Sensing of Environment, 123, 1–11.
Platonov, A. y Redondo, J.M. 2001. Peligro de vertidos en las rutas
marítimas del mediterráneo noroccidental: Resultados preliminares
196
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

del estudio mediante las imágenes espaciales del radar de apertura


sintética SAR. VI Jornadas Españolas de Ingeniería de Costas y
Puertos. Alicante.
Rodríguez, I. 1999a. Aplicación del tratamiento digital de imágenes
de satélite para la obtención de la línea de costa. V Jornadas
Españolas de Puertos y Costas. La Coruña, España.
Rodríguez, I. 1999b. Evolución Geomorfológica del Delta del Ebro y
Prognosis de su Evolución. Tesis doctoral. Universidad de Alcalá de
Henares, España.
Rodríguez, I. 2001. Comparación de técnicas basadas en el
tratamiento digital de imágenes de satélite para la obtención de la
línea de costa del Delta del Ebro. IX Congreso Nacional de
Teledetección. Universidad de Lérida, España.
Rodríguez, I., Montoya, I., Sánchez, M.J., Carreño, F. 2009.
Geographic Information Systems Applied to Integrated Coastal Zone
Management. Geomorphology, 107, (1-2), 100-105.
Ruiz, L.A., Pardo, J.E., Almonacid, J., Rodríguez, B. 2007. Coastline
automated detection and multiresolution evaluation using satellite
images. Proceedings of Coastal Zone 07. Portland, Oregon.
Thieler, E.R., Himmelstoss, E.A., Zichichi, J.L., and Ergul, Ayhan,
2009. Digital Shoreline Analysis System (DSAS) version 4.0 - An
ArcGIS extension for calculating shoreline change: U.S. Geological
Survey Open-File Report 2008-1278. Current version 4.3.

197
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

MONITORIZACIÓN DE LA EROSIÓN EN COSTAS


SEDIMENTARIAS MEDIANTE GPS DIFERENCIAL Y
ECOSONDAS MONOHAZ / MULTIHAZ

A. Fontán1, S. Albarracín1, P. Baptista2 y J. Alcántara-Carrió1

1
Instituto Medio Ambiente y Ciencia Marina. Univ. Católica de
Valencia. C/ Guillem de Castro 94. 46003. Valencia, España.
angela.fontan@ucv.es silvia.albarracin@ucv.es
javier.alcantara@ucv.es
2
Departamento de Geociências, Centro de Estudos do Ambiente e
do Mar (CESAM), Universidade de Aveiro, Campus Universitário de
Santiago, 3810-193 Aveiro, Portugal. renato.baganha@ua.pt

INTRODUCCIÓN

La evolución geomorfológica de una playa está determinada por su


balance sedimentario, es decir, el resultado de la alternancia de los
procesos erosivos, asociados normalmente a los temporales, y los
procesos de acreción en épocas de bonanza climática. Dicho
balance puede presentar un equilibrio estacionario (oscilando entre
varios estados morfodinámicos) o presentar tendencias netas de
erosión o acumulación, siendo las tendencias erosivas un riesgo
natural a controlar. Por tanto, es posible determinar la evolución en
el balance sedimentario de una playa comparando sucesivos
levantamientos topo-batimétricos a lo largo de varios años,
obteniendo la tasa de erosión o acreción en cada zona, así como el
volumen de sedimentos transportado entre sus diferentes zonas.

199
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

El análisis de la peligrosidad por la erosión costera se ha abordado


clásicamente mediante el cálculo de tasas de erosión expresadas
en metros de retroceso anual de la orilla. Sin embargo, dado que la
erosión costera es en definitiva un proceso tridimensional, la
evaluación más precisa de sus efectos morfométricos implica
cuantificar dicha erosión mediante tasas volumétricas, con
periodicidad estacional, anual y supra-anual.

La adquisición de información de las costas y la topografía del


terreno en tres dimensiones supone un cambio de perspectiva
determinante para evaluar y caracterizar los procesos
morfodinámicos (Pardo Pascual et al., 2003). Para ello, la principal
dificultad reside en ser capaz de extraer la información altimétrica
con la suficiente precisión (Ojeda, 2000), así como en poder obtener
una cobertura temporal y una frecuencia de muestreo
suficientemente altas como para poder describir adecuadamente la
variabilidad de dichos procesos morfodinámicos. Ambas dificultades
se logran superar con el empleo de receptores de GPS (Global
Positioning System), especialmente cuando se aplica la
configuración o modo de operación diferencial (DGPS), la cual
permite obtener datos de alta calidad, tanto en relación a su
resolución espacial y temporal como a su precisión en altura. Así,
dichos datos son óptimos para evaluar los cambios que se
producen en las costas sedimentarias.

Los métodos clásicos de medición topográfica utilizados en


sistemas sedimentarios costeros, como el nivel óptico, el teodolito o
la estación total también permiten obtener una caracterización
topográfica de alta precisión, generalmente mediante la medición de
perfiles topográficos transversales a la orilla. No obstante, frente a
200
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

dichos métodos, el DGPS presenta diversas ventajas como son la


mayor velocidad de adquisición de datos y el no necesitar puntos o
estaciones fijas de referencia en la cabecera de cada perfil de
playa. Asimismo, debido al mayor volumen de datos registrados en
el levantamiento topográfico, el DGPS resulta más apropiado para
interpolar superficies y obtener los modelos digitales de elevación y
el cálculo de diferentes informaciones asociadas, como mapas de
pendientes, zonas de erosión/acumulación y el cálculo de los
volúmenes de material implicados en dichos procesos.

En los últimos años se han desarrollado nuevos avances


tecnológicos y mejoras en las técnicas clásicas (Gracia et al., 2005).
Así, la mejora en la calidad de las fotografías aéreas, la posibilidad
de generar modelos digitales de elevaciones a partir del sistema de
altimetría láser aerotransportado (LiDAR) y el desarrollo de los
sistemas de posicionamiento global (GPS) están cambiando la
metodología de estudio en los sistemas costeros (Ojeda et al.,
2007). Por ello, la utilización de técnicas como el DGPS y su
combinación con otras técnicas de teledetección y métodos
geofísicos, entre los que cabe destacar las ecosondas multihaz,
permiten afirmar que en la actualidad es posible caracterizar con
precisión la morfología y evolución de las playas y otros ambientes
sedimentarios costeros, tanto para su zona emergida como
sumergida.

FUNDAMENTOS DEL GPS DIFERENCIAL

El sistema de posicionamiento por satélite (Global Positioning


System o GPS) fue creado en Estados Unidos en la década de los
70. Aunque su finalidad inicial fue militar, en seguida se puso de
201
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

manifiesto su utilidad para la navegación civil, cartografía y obra


civil, o los estudios científicos entre otras muchas aplicaciones. De
este modo, en la década de los 90 su uso civil era ya prácticamente
generalizado en todo el mundo, con una gran mejora de su
precisión (reducción del error) gracias al desarrollo de algoritmos
más rápidos para la determinación de las ambigüedades de la onda
portadora de la señal y gracias también al empleo del modo de
operación diferencial (DGPS).

El posicionamiento mediante GPS está basado en una constelación


de 24 satélites que orbitan en trayectorias casi invariables alrededor
de la Tierra, distribuidos sobre 6 órbitas planas (con 4 satélites en
cada órbita) espaciadas entre sí 60 grados, de modo que desde
cualquier punto de la Tierra son visibles en todo momento al menos
5 satélites.

Un receptor GPS, situado por ejemplo en la superficie terrestre,


emplea la señal de estos satélites para localizar su posición. El
sistema de referencia respecto al cual se expresa dicha posición es
un elipsoide (forma geométrica perfectamente regular), el cual se ha
de aproximar lo más posible a la forma de la superficie del globo
terrestre. A partir de este primer posicionamiento, la posición de un
punto en la Tierra también puede proyectarse para localizarlo
respecto al sistema de referencia local que se desee.

Se han definido más de 20 elipsoides de referencia, pero ninguno


de ellos se ajusta perfectamente a la forma de la Tierra en toda su
superficie. En la actualidad, el elipsoide WGS84 se emplea para la
mayoría de aplicaciones a escala global (Fig.1). Así, tanto el datum

202
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

de referencia en Estados Unidos (NAD-83) como en Europa


(ETRS89) emplean el elipsoide WGS84.

Fig. 1. Parámetros que definen el elipsoide WGS84 (Dana, 1994).

Para definir la posición de un punto con un GPS se emplean


diferentes sistemas de coordenadas, los cuales se proyectan sobre
el elipsoide elegido. El sistema de coordenadas más utilizado es el
UTM (Universal Transverse Mercator), que está basado en la
proyección geográfica transversal de Mercator, tangente a un
meridiano. En dicho sistema de coordenadas la superficie terrestre
esta dividida en zonas, denominadas cada una por un número y una
letra (Fig. 2). Para cada zona se define su origen de coordenadas
en el vértice inferior izquierdo y desde este vértice se mide el
Northing y Easting, el cual se expresa en diferentes unidades en
función del número de dígitos (p. ej. 4 dígitos para el Northing y 3
dígitos para el Easting cuando se expresan en Km; 7 dígitos para el
Northing y 6 dígitos para el Easting cuando se expresan en m).

203
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 2. Zonación del sistema de coordenadas UTM (Dana, 1994).

La determinación de la posición mediante un GPS está sujeta a


diversas fuentes de error (Wanninger, 1995; Dana, 1997), que de
modo resumido son: a) la disponibilidad selectiva, error del sistema
introducido por USA en 1990; b) los errores orbitales, provocados
por la variación lenta de la posición de los satélites; c) el retardo
ionosférico, provocado por los electrones libres en la atmósfera, que
originan que el código se retrase mientras que la fase se adelante
en la misma cantidad de tiempo; d) el retardo troposférico,
provocado por gases secos y vapor de agua en la atmosfera; y e) el
ruido del receptor y error del reloj del satélite, que dependen del
receptor utilizado. No obstante, desde que fue desactivada la
disponibilidad selectiva, el 1 de mayo de 2000, la precisión en el
posicionamiento mediante un GPS ha mejorado significativamente,
siendo en la actualidad del orden de varios metros.

Para reducir aun más los errores en la localización obtenido con el


sistema GPS convencional, se ideó la configuración o sistema GPS
diferencial (DGPS), la cual se basa en emplear simultáneamente

204
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

dos receptores GPS próximos entre si, que por tanto están
afectados por los mismos errores. El primero de ellos, o receptor
“base”, ha de estar fijo en un vértice geodésico o punto de
coordenadas perfectamente conocidas, y el segundo, o receptor
“móvil”, es el que se desplaza a lo largo de la trayectoria del
levantamiento o serie de puntos de los cuales queremos saber su
posición. El receptor base registra para cada instante los errores del
sistema GPS respecto a la posición real del punto en que se
encuentra. Así, combinando de forma sincronizada la información
obtenida por ambos receptores y aplicando el método diferencial
(que consiste en restas los errores deducidos para el GPS base a
las mediciones obtenidas en el mismo instante con el GPS móvil),
obtendremos de forma precisa las coordenadas reales de las
trayectorias realizadas con el GPS móvil (Fig. 3). De este modo, el
sistema de posicionamiento mediante GPS diferencial permite una
correcta localización en campo, con errores del orden de mm en las
tres coordenadas espaciales.

Para realizar los levantamientos topográficos se pueden emplear


además tres modos de trabajo diferentes: a) en el modo estático el
receptor “móvil” permanece fijo en cada punto durante minutos u
horas; b) en el modo cinemático el receptor “móvil” está
continuamente desplazándose a lo largo de la zona de estudio,
registrando su posición cada cierto intervalo de tiempo según la
frecuencia definida (normalmente entre 1 y 20 datos por segundo
según la calidad de los equipos); y c) en el modo stop&go el
receptor “móvil” permanece quieto en cada posición a medir durante
unos segundos, y una vez tomada la medida se desplaza a un
nuevo punto. Por tanto, el modo estático permite obtener puntos
con mayor precisión, el modo cinemático permite obtener un mayor
205
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

volumen de puntos y el modo stop&go permite obtener precisiones


y volumen de datos intermedios entre los otros dos modos.

CONFIGURACIÓN
DGPS

1º Calcular la
diferencia entre la
posición real de la
base y los datos
medidos por el GPS
base

GPS BASE GPS MOVIL

2º Aplicar esa
diferencia a
la posición
medida por el
GPS móvil en
el mismo
instante

Posición real conocida Posición real

Fig. 3. Esquema de trabajo con un sistema DGPS.

Para levantamientos topográficos desde Tierra se puede emplear


cualquiera de los tres modos de medición, mientras que para
posicionamiento desde barco, aviones u otras plataformas en
movimiento lógicamente es necesario emplear el modo cinemático.

La posición precisa de cada punto (resultado de aplicar la


corrección diferencial) puede obtenerse en el modo de tiempo real,
empleando un RTK-GPS (Real Time Kinematics), o bien en el modo
de postproceso, es decir, mediante el tratamiento posterior con un
software específico de los archivos registrados en el receptor móvil
y el receptor base, no habiendo diferencias significativas en la
206
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

precisión de los datos obtenidos por ambos métodos. No obstante,


empleando un RTK-GPS existe el riesgo de perder en algún
momento la comunicación con el GPS de la base (perdida de la
transmisión de la señal), error que no puede ser corregido. Por el
contrario, en los sistemas de postproceso este riesgo no existe.

LEVANTAMIENTOS TOPOGRÁFICOS EN PLAYAS CON DGPS

Tal como ya se ha indicado, el sistema DGPS funciona mediante el


posicionamiento de un receptor GPS en una estación fija y un
receptor móvil que se desplaza a lo largo de la zona de estudio. Si
es necesario, se pueden crear nuevos puntos de referencia que
sirvan como estaciones fijas próximas a la zona de estudio,
mediante mediciones en modo estático.

El receptor GPS emplazado en la estación fija se inicializa en primer


lugar y permanece midiendo durante todo el tiempo en que se
realiza el levantamiento con el receptor móvil, tanto en el procesado
en tiempo real (RTK-GPS) como en los sistemas de postproceso. A
continuación se inicializa el receptor móvil y se lleva a cabo el
levantamiento topográfico, mediante mediciones continuas a lo
largo de trayectorias (modo cinemático), o bien tomando solamente
ciertos puntos de interés (modo stop&go). La antena del receptor
GPS móvil se puede situar sobre un jalón vertical, para las
mediciones en modo stop&go, el cual se desplaza a lo largo de
trayectorias a pie. En el caso de mediciones en modo cinemático,
se puede emplazar sobre un vehículo que pueda transitar sobre la
zona de estudio, o bien, para poder adentrarse en la zona dunar,
intermareal y submareal somera, se puede ubicar la antena a la
espalda, sobre un chaleco o mochila.
207
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Dependiendo de la finalidad de las medidas con DGPS se


realizarán las observaciones con diferentes tipos de trayectorias,
por ejemplo: a) para obtener perfiles transversales a la orilla se han
de tomar todos los puntos necesarios en una línea recta,
atendiendo a los principales cambios topográficos (Almécija et al.,
2009), b) para registrar los cambios en la línea de orilla se irán
tomando datos a lo largo de la misma (Menezes et al., 2006), y c)
para el levantamiento de superficies topográficas se requiere un
muestreo denso de puntos que abarque gran parte de la zona y con
la geometría óptima para aplicar opciones de interpolado para
modelos de elevación 3D (Pardo Pascual et al., 2007; Sánchez et
al., 2007; Fontán et al., 2007).

Una vez realizado el levantamiento mediante DGPS, los datos


brutos se procesan para obtener el modelo de elevaciones. Dicho
modelo debe ir acompañado de un análisis de su precisión o error.
El error en los levantamientos topográficos mediante DGPS se debe
a la combinación de tres factores: a) la exactitud (accuracy) del
GPS, error intrínseco al equipo de medición debido a las causas ya
indicadas y que viene especificado en el manual técnico del mismo;
b) el error o incertidumbre del método de medida en campo, debido
principalmente al tipo de trayectoria realizada y los cambios de
inclinación que la antena del GPS puede sufrir al tomar las medidas,
cambios que pueden ser minimizados tal como se explica más
adelante; y c) el error al realizar la interpolación de los datos para
calcular la superficie topográfica, el cual se obtiene comparando los
puntos de la topografía interpolada con nuevos datos tomados en la
zona de estudio con el mismo método y durante la misma época en
que fueron adquiridos los datos empleados para la interpolación.

208
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

El error máximo será la suma de estos tres errores ( max), pero de


acuerdo con Kraus (1998), para el caso concreto de estudios
morfodinámicos de playas, cálculo de balances sedimentarios y
otros estudios de dinámica sedimentaria costera, no es éste el
mejor estimador del error, sino que es más representativo calcular
el error cuadrático medio ( sqrt), donde:

max = instrumento + medida en campo + interpolación


sqrt =(( instrumento)2+( medida en campo)2+( interpolación)2)1/2

Por tanto, los diferentes modelos de elevación obtenidos son


función del método de interpolación elegido y varían en función de
la distribución y la densidad de los puntos, así como la forma y
superficie del levantamiento (Hicks y Hume, 1997).

En general, algunos de los métodos de interpolación más


adecuados para obtener un buen ajuste son el kriging y el TIN
(Davis, 1986) basados en algoritmos geoestadísticos de
aproximación y la creación de triángulos mediante interpolaciones
lineales entre los datos origen, respectivamente. En el caso
particular de superficies de poca rugosidad como son las playas, el
método de kriging resulta normalmente el más adecuado (Pascual
et al., 2003; Fontán et al., 2007; Baptista et al., 2008), mientras que
por ejemplo para el estudio de las zonas dunares suele ser más
apropiado el empleo del TIN (Sánchez et al., 2007). No obstante
cada estudio en particular debe ser analizado para determinar el
método idóneo de interpolación de los datos registrados con DGPS
y el cálculo de los errores correspondientes.

209
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Finalmente, una vez elegido el método de interpolación idóneo se


puede obtener el modelo de elevación y diversa información
derivada, como por ejemplo mapas de pendientes o perfiles
topográficos transversales a la orilla.

ESTUDIOS DE EROSIÓN EN PLAYAS MEDIANTE LA


COMPARACIÓN DE TOPOGRAFÍAS OBTENIDAS CON DGPS

A continuación se muestra un análisis morfodinámico y de erosión


costera en 3D, realizado mediante DGPS en las playas de
Maspalomas y El Inglés (sur de Gran Canaria, Islas Canarias). Para
ello, se obtuvieron un total de 20 topografías de la zona
supramareal, intermareal y submareal somera de la playa, a partir
de trayectorias en bajamar, a pie y sobre un vehículo todoterreno,
durante el periodo 2005-2009 (Fig. 4).
septiembre 2005 diciembre 2006

marzo 2006 enero 2007

abril 2006 febrero 2007


Playa de El Inglés
mayo 2006 abril 2007

junio 2006 agosto 2007

julio 2006 noviembre 2007

agosto 2006 febrero 2008

septiembre 2006 julio 2008


Punta de la Bajeta
octubre 2006 octubre 2008

noviembre 2006 febrero 2009


Playa de Maspalomas

Fig. 4. Ejemplo de trayectorias para el levantamiento topográfico


con DGPS (zig-zag a pié y longitudinal en vehículo) en las playas de
Maspalomas y El Inglés (Febrero 2009).

El tratamiento en postproceso de los datos de ambos GPS (base y


móvil) se realizó con el software GNSS solutions para obtener los
puntos topográficos a lo largo de las trayectorias realizadas en cada

210
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

campaña. A continuación, para el cálculo de los mapas


topográficos, se empleó el programa informático Surfer v.8, muy
versátil en estudios topográficos, batimétricos y de cálculo de
balances sedimentarios costeros (Pacheco et al., 2008).

Los métodos kriging y TIN fueron evaluados para definir el método


óptimo de interpolación. Para ello, con los datos topográficos
medidos en septiembre de 2006 y cada uno de ambos métodos, se
calcularon mallas con distancias entre nodos de 1, 5, y 10 metros.
El resultado obtenido con cada método y tamaño de malla fue
validado con una serie adicional de datos topográficos de la misma
campaña (no empleados para el cálculo de las mallas) medidos
sobre una trayectoria en zig-zag sobre ambas playas. Como
resultado, el método kriging con una malla de 1x1 m resultó ser el
que generaba los menores errores y por tanto el elegido. Una vez
definido el método de interpolación y dimensiones de la malla
idóneos, se obtuvo el modelo de elevación para cada campaña,
referido tanto al WGS84 como al datum de la red geodésica de
Canarias (REGCAN).

Posteriormente, se obtuvieron los balances sedimentarios


comparando las topografías correspondientes a cada uno de los
periodos de estudio, metodología habitual para estudiar los cambios
producidos en sistemas litorales costeros dinámicos como playas,
dunas o islas barrera (Vila-Concejo et al., 2003).

Como resultado, se obtuvo que entre septiembre de 2005 y marzo


de 2006 la topografía de ambas playas sufrió un descenso
topográfico generalizado, con una tasa de erosión media de -1,18
m3/m2. La causa de esta fuerte erosión fueron dos intensos
211
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

temporales ocurridos el 29 de noviembre de 2005 y el 28 de febrero


de 2006, con direcciones de aproximación en aguas profundas del
WSW y W respectivamente.

No obstante, además de la intensidad del viento y el oleaje durante


los temporales, han de considerarse otros factores como las lluvias,
o el rango mareal durante el temporal, ya que pueden incrementar
los procesos de erosión e inundaciones. Así por ejemplo, el
segundo de estos temporales coincidió con mareas vivas.

De cara a analizar con más detalle los cambios y caracterizar los


procesos que ocurrieron en la superficie de las playas de
Maspalomas y El Inglés, se llevó a cabo un análisis dividiendo la
zona de estudio en 10 celdas o sectores (Fig. 5).

Fig. 5. Distribución de las diferentes celdas analizadas en las Playas


de Maspalomas y El Inglés.

Para cada una de estas celdas se calculó el balance sedimentario


comparando las topografías obtenidas en las sucesivas campañas
desde septiembre de 2005 a febrero de 2007 (Alcántara y Fontán,

212
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

2009). Es decir, se calculó la variación topográfica o transporte neto


correlativo mes a mes (Fig. 6), así como el transporte neto
acumulado respecto a la topografía inicial en septiembre de 2005,
para caracterizar así la evolución sedimentaria del sistema.

Fig. 6. Variaciones topográficas entre campañas sucesivas desde


septiembre de 2005 a febrero 2007.

El transporte neto correlativo (comparando entre campañas


sucesivas) varió desde valores de acumulación de 1,8 m3/m2 hasta
valores de erosión de -2.4 m3/m2. La máxima erosión se midió entre
septiembre de 2005 y marzo de 2006, debido a los intensos
temporales ya comentados, siendo especialmente acusada dicha
erosión en el extremo occidental de la Playa de Maspalomas.

Entre abril y septiembre de 2006 las playas mostraron un estado


morfodinámico estable ó de acumulación de sedimentos, pues
solamente se observó una erosión significativa en la Punta de la
Bajeta en julio. En octubre y noviembre, comienzo de la época
invernal, domina el comportamiento erosivo en toda la línea de
costa, principalmente en la Punta de la Bajeta, así como en la Playa
de Maspalomas. Por el contrario, entre diciembre de 2006 y enero
de 2007 los cambios fueron más acusados en la zona norte, donde
se produjo acreción en diciembre y erosión en enero. Finalmente,

213
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

las playas volvieron a ganar sedimentos entre enero y febrero de


2007.

De dicho análisis se deduce que la Playa de Maspalomas presenta


los mayores problemas de erosión, ya que por su localización y
orientación está más expuesta a la acción de los temporales
extremos, que suelen ser del tercer cuadrante. No obstante, este
análisis permite afirmar además que en ocasiones se produce
erosión simultáneamente en ambas playas, Maspalomas y el Inglés,
así como en la punta de la bajeta (octubre a noviembre de 2006,
Fig. 6), como confirma la formación simultánea de cúspides de
playa (beach cups), morfología asociada a procesos erosivos (Fig.
7). En otras ocasiones, la erosión de la playa del El Inglés y la
Punta produce un aporte de sedimentos hacia la playa de
Maspalomas (enero 2007). De este análisis se deduce también que
la Punta de la Bajeta muestra una dinámica sedimentaria singular,
más intensa, como cabe esperar en una cúspide de playa tan
expuesta a las diferentes direcciones de aproximación del oleaje.

Fig. 7. Fotografías aéreas en vista panorámica mostrando la


presencia de cúspides de playa a lo largo de toda la orilla el 3 de
octubre de 2006 (Fuente: GRAFCAN).

Finalmente, el balance sedimentario neto para el conjunto de la


zona de estudio muestra dos periodos muy bien diferenciados: una
214
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

intensa erosión inicial en el invierno 2005/2006, y posteriormente


una tendencia de acumulación durante años (2006 a 2009), la cual
presenta además alternancia de ciclos de erosión y acumulación de
menor orden (Fig. 8). Por tanto, se puede concluir que tras la
intensa erosión, la tendencia natural ha sido de recuperación, pero
serán necesarios varios años más para recuperar la topografía
previa a los fuertes temporales del invierno 2005/2006.

0.5
Sediment Budget (m3/m2)

0
Storm erosion
-0.5

-1
Erosion/Accretion periods
-1.5 2005 2006 2007 2008 2009

-2
0 200 400 600 800 1000 1200 1400
Days since the beginning of the study (7th sept 05)

Fig. 8. Balance sedimentario en las playas de Maspalomas y El


Inglés. Ciclos de erosión/acumulación durante la recuperación tras
intensos temporales (Alcántara y Fontán, 2009).

FUNDAMENTOS DE LA ECOSONDA

La ecosonda se ha convertido en un instrumento indispensable para


la investigación oceánica, ya que permite obtener datos batimétricos
de muy alta resolución y registrar simultáneamente el tipo de fondo
(rocas, arenas o fangos) en función de su reflectividad acústica.

El fundamento de una ecosonda se basa en la emisión y recepción


de pulsos acústicos que se reflejan en la superficie del fondo. En la
emisión, el transductor o fuente acústica convierte las ondas
eléctricas en ondas acústicas. Recíprocamente, al recibirse en el

215
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

transductor las ondas acústicas reflejadas, las transforma de nuevo


en ondas eléctricas. Así, la ecosonda calcula la profundidad en
cada instante teniendo en cuenta la velocidad de la onda y su
tiempo de ida y vuelta a través de la columna de agua.

La calidad de un estudio batimétrico depende de las propiedades


topográficas del fondo que definen su irregularidad, pero también de
las propiedades de la onda emitida, tales como su frecuencia,
apertura de haz y energía de transmisión, las cuales son
características de cada transductor. Por tanto, el transductor es un
elemento fundamental en los estudios batimétricos.

Frecuencia y apertura del haz acústico

El rango de frecuencias de una ecosonda abarca generalmente


entre 12 y 200 kHz. Dentro de este rango, la elección de la
frecuencia óptima a emplear depende de las profundidades en la
zona de estudio, es decir, si se trata de una zona somera o
profunda, así como de la precisión o detalle que queremos obtener.

Al propagarse la onda acústica es inevitable su atenuación o


pérdida de intensidad de la señal, por la divergencia esférica de los
frentes de onda, la absorción en forma de calor, principalmente por
el agua, y la dispersión al reflejarse en la interfase con las partículas
en suspensión. Dicha atenuación es directamente proporcional a la
frecuencia de la onda. Sin embargo, por otra parte, también hay que
tener en cuenta que a mayor frecuencia es mayor la resolución de
las mediciones. Por lo tanto, es necesario buscar un compromiso
para emplear una frecuencia que optimice la resolución sin sufrir
excesiva atenuación. De este modo, se emplean altas frecuencias
216
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

para profundidades someras y frecuencias menores para zonas


más profundas. Como valores de referencia cabe indicar los
siguientes: a) frecuencia de 200 kHz para zonas con profundidad
menor de 100 m, b) frecuencias entre 200-50 kHz para zonas entre
100 y 1500 m de profundidad, y c) frecuencias entre 12-50 kHz para
zonas con profundidad mayor de 1500 m.

La resolución o calidad en la medida de la profundidad depende no


sólo de la frecuencia, sino también de la apertura del haz acústico
emitido. Así, un haz más estrecho aporta información de una zona
más concreta del fondo, y por tanto, no se ve tan afectado por la
irregularidad del relieve. El ancho de haz depende de la longitud de
la onda acústica (inversamente proporcional a la frecuencia de la
onda emitida, dada una velocidad de la onda acústica) y del tamaño
o diámetro del transductor. Puesto que en cada profundidad se ha
definido ya una frecuencia óptima, para reducir el haz y así mejorar
la resolución, lo que se suele hacer es emplear transductores de
mayor diámetro, trabajando así en los estudios batimétricos de alta
resolución con una apertura de haz del orden de 3º.

Por otra parte, al estar basada la ecosonda en la reflexión de las


ondas, es una herramienta útil para discriminar también el tipo de
fondo. El índice de reflexión acústica aumento cuanto mayor es la
diferencia entre la impedancia acústica del agua y el material del
fondo, dando los mayores valores de energía reflejada para los
afloramientos rocosos, seguidos de las arenas y limos, que varían
su índice de reflexión en función de su grado de compactación.

217
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Calibración de la ecosonda

La velocidad del sonido depende de la temperatura, salinidad y


presión del agua que actúa como medio material para trasmitir el
sonido, variando por tanto según las características de la columna
de agua en cada región, así como por los cambios climáticos
estacionales para una misma región. El valor de propagación del
sonido en el agua oscila en torno a 1500 m/s.

Por tanto, el objetivo de la calibración es obtener con la mayor


exactitud posible la velocidad de propagación del sonido a su paso
por la columna de agua, para introducir dicho dato en la ecosonda
antes de las mediciones batimétricas, o bien para corregir durante el
post-proceso los datos registrados en la ecosonda, mediante la
aplicación de un perfil de velocidades del sonido.

Para calibrar la ecosonda se puede ubicar una plancha bajo el


transductor, a diferentes profundidades conocidas y calcular así la
diferencia o error entre la profundidad real y la registrada por la
ecosonda. De este modo se puede, o bien regular la velocidad de
trasmisión del sonido por la ecosonda antes de realizar el estudio
batimétrico, para minimizar dicho error, o bien, durante el
postproceso, corregir los datos de la ecosonda para obtener la
profundidad real. Este método de calibración se emplea cuando la
zona de estudio no supera los 20 o 30 metros de profundidad.

Como método alternativo se puede emplear un perfilador de


velocidad del sonido (Expendable Sound Velocity Profilers o XSV),
proyectil desechable que permite obtener la velocidad real de
propagación del sonido, tanto en zonas someras como en zonas
218
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

más profundas y calibrar así la ecosonda de nuevo antes de la


campaña o bien corregir los datos en postproceso.

Según aumentan las dimensiones de la zona de estudio y su rango


de profundidades, aumenta también la variación de la velocidad del
sonido, por lo cual será necesario tomar medidas de calibración de
la ecosonda en más estaciones. La presencia de masas de agua
muy diferentes, debido a procesos de desembocadura fluvial, o
localmente a emisarios submarinos también afecta a la calibración.

Ecosonda monohaz y multihaz

Las primeras ecosondas empleadas en estudios batimétricos fueron


de tipo monohaz (single beam echosounder o SBES), es decir,
emiten un solo haz de onda, empleando un solo transductor para la
transmisión y recepción de la onda acústica. La realización de
trabajos de batimetría con una ecosonda monohaz, combinada con
un GPS o sistema DGPS, permite tan sólo obtener datos (x, y, z) de
puntos situados justo bajo la trayectoria del barco. La trayectoria a
realizar con una ecosonda monohaz debe ser perpendicular a la
costa, para detectar el máximo gradiente topográfico y registrar así
correctamente las variaciones morfológicas del fondo (Fig. 9).

Fig. 9. Trayectoria para una batimetría con ecosonda monohaz.

219
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

En los años 80 surgieron las primeras ecosondas multihaz


(MultiBeam EchoSounder o MBES), las cuales emiten haces
múltiples de onda de una determinada frecuencia en varias
direcciones, mediante la parte emisora del transductor (proyector), y
reciben las reflexiones a través la parte receptora del transductor
(hidrófono). De este modo, la zona de muestreo medida y la
cantidad de puntos (x y z) obtenidos son mucho mayores que en
una ecosonda monohaz, es decir, se obtiene una mayor cobertura o
zona de barrido del fondo marino.

La parte emisora del transductor emite un haz ancho (120 a 150º


generalmente) en sentido transversal a la embarcación, pero
estrecho (p. ej. 1,5º) en sentido paralelo al rumbo de ésta. la parte
receptora del transductor está orientado transversalmente a la parte
emisora del transductor, de modo que recibe información de un área
estrecha en la perpendicular a la embarcación y ancha en sentido
paralela a ella.

Por tanto, al combinar la orientación del haz emitido y el sistema de


recepción se obtiene información de la topografía del fondo no sólo
bajo la embarcación sino también a ambos flancos, sobre celdas
compartimentadas y muy estrechas (p. ej. de 1,5º x 1,5º).

Al ser la apertura del haz emitido constante para cada ecosonda, la


anchura de la zona que detecta acústicamente aumenta con la
profundidad. Por ello, teniendo en cuenta además que una
ecosonda multihaz suministra información de una gran cantidad de
puntos, las trayectorias del barco durante un estudio batimétrico con
ecosonda multihaz deben ser paralelos a la costa, de modo que la
primera franja barrerá las isóbatas más someras, con una anchura
220
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

de barrido pequeña, y al aumentar la profundidad y distancia a la


costa irá aumentando progresivamente el ancho de la zona barrida
(Fig. 10).

Fig. 10 Trayectoria para una batimetría con ecosonda multihaz.

Las ecosondas multihaz presentan numerosas ventajas sobre las


ecosondas monohaz, si bien tienen también algunos
inconvenientes. Entre las principales ventajas cabe destacar: a) se
obtiene cobertura total del fondo con una gran resolución, b) al tener
información de todo el fondo, el resultado no está condicionado a
una escala de representación, desaparece el concepto de escala, c)
al abarcar grandes áreas, especialmente en zonas profundas, hay
un ahorro de líneas de levantamiento, y d) durante la ejecución de
la campaña se tiene visualización en tiempo real del levantamiento
3D, lo cual ayuda al aproximarse a zonas peligrosas no exploradas.
Las desventajas de la ecosonda multihaz son fundamentalmente de
carácter técnico: a) es necesaria una instalación compleja del
transductor en la quilla de la embarcación y un calibrado muy
preciso con medidas de la velocidad del sonido en el agua
continuas dependiendo de las profundidad y cambios en la
condiciones del medio, b) se precisa de personal altamente
cualificado, software especifico y un hardware muy potente para
levantamiento y procesado de los datos, y c) por último, el coste de
los equipos es significativamente mayor al de las ecosondas

221
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

monohaz, si bien en los últimos años se ha reducido su coste


significativamente.

Corrección del cabeceo, balanceo y otras oscilaciones

Para el cálculo preciso de la medida de la profundidad, empleando


tanto ecosondas monohaz como multihaz, es necesario determinar
la posición exacta de la embarcación, es decir, su altitud, latitud,
longitud, cabeceo (pitch), balanceo (roll) y guiñada (yaw) (IHO,
2005). La medición de los ángulos de cabeceo y balanceo en cada
instante es necesaria, ya que producen errores en la medición de la
profundidad cuando la magnitud de dichos ángulos es mayor a la
mitad del ancho del haz. Normalmente el balanceo y cabeceo del
barco no afecta a las ecosondas de haz ancho, pero no ocurre así
con los transductores de haz estrecho. El cabeceo y balanceo están
relacionados principalmente con las condiciones del oleaje y para
corregirlos se emplea normalmente un sensor interno de
movimiento o giroscopio, el cual debe localizarse sobre el
transductor para medir el bandeo en el mismo eje vertical.

Por otra parte, la embarcación puede variar su calado, a causa por


ejemplo del consumo de combustible y de agua, o al levantar la
proa por un exceso de velocidad (squat), inclinando el transductor.
Otro efecto a considerar durante la navegación es el asiento del
nivel de la embarcación, respecto a su nivel en estado de reposo.
Este efecto, particularmente notable en aguas pocas profundas, es
debido a la depresión regional de la superficie del agua en la que se
mueve la embarcación. Finalmente, el nivel en la superficie del mar
no es inmóvil ni plano, sino que varía según diversos factores como
la marea atmosférica y meteorológica, el oleaje, el apilamiento por
222
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

el viento y las anomalías del campo gravitatorio. Todos estos


factores hacen variar la superficie del mar sobre la que se navega
respecto a la altura del geoide o superficie equipotencial que
corresponde al nivel medio del mar en ausencia de dichos factores.

Tradicionalmente, en los estudios batimétricos se fondeaba un


mareógrafo en la zona de estudio para corregir las mediciones en
función del estado de marea, así como un giroscopio a bordo para
corregir el cabeceo y balanceo. Sin embargo existen otros factores,
ya comentados anteriormente, que resultaba difícil corregir. El
empleo del sistema DGPS combinado con la ecosonda (monohaz o
multihaz) permite corregir muchos de estos factores, sin por ello
poder ignorar la necesidad de emplear un sensor de movimiento.
Para ello, al igual que en los estudios topográficos, el receptor GPS
que actúa como base debe estar fijo en un punto en tierra de
coordenadas perfectamente conocidas, mientras que el receptor
GPS móvil se sitúa en el barco, preferiblemente en la vertical del
transductor, o en caso contrario será necesario corregir la guiñada
(yaw) de la embarcación. El transductor puede estar instalado en la
quilla del barco, o bien, para ecosondas monohaz, colocarse de
forma provisional a babor o estribor de la embarcación, en cuyo
caso debe sumergirse lo suficiente para evitar que las turbulencias
generadas por el desplazamiento de la embarcación interfieran,
produciendo burbujas que generen error en la medición de la
profundidad.
La antena del GPS proporciona, además de la latitud y longitud, la
altura elipsoidal (H), habitualmente respecto al elipsoide WGS84.
Por su parte, el transductor mide la profundidad del fondo (P). Por
tanto, conocida la altura desde la antena del GPS hasta el
transductor (I), es posible obtener la distancia al sistema geodésico
223
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

de referencia elegido (D) si el sistema DGPS y la ecosonda están


perfectamente sincronizados y su intervalo de muestreo coincide,
para lo cual se emplea por ejemplo el software HYPACK®, el cual
es también muy útil para planificar las rutas y el procesado posterior
de los datos. Las ecuaciones a emplear varían según la posición
relativa del elipsoide respecto al fondo y nivel medio del mar. Dado
que el valor D está referido al elipsoide de referencia (WGS84) y no
al nivel medio del mar, para obtener la profundidad ortométrica
sobre el nivel medio del mar (Z) se ha de considerar la ondulación
local del geoide (N) respecto al elipsoide (Tabla 1, Fig. 11).

Elipsoide por debajo del fondo H=I+P+D de donde D=H-I-P


N=D+Z de donde Z=N-D
Elipsoide entre el fondo y el nivel D+H=I+P de donde D=I+P-H
medio del mar Z=N+D
Elipsoide por encima del nivel H+D=I+P de donde D=I+P-H
medio del mar D=N+Z de donde Z=D-N

Tabla 1. Expresiones para el cálculo de la profundidad referida al


elipsoide (D) y la profundidad respecto al nivel medio del mar (Z).

224
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

D distancia del
fondo al elipsoide

Fig. 11. Configuración para el estudio combinado con ecosonda y


DGPS. En este caso, el elipsoide está por debajo del fondo.

Esta configuración permite corregir las oscilaciones en cada punto


debidas a la marea, el oleaje, el apilamiento de la superficie del mar
por el viento, el nivel de asiento del barco, etc. Ello se debe a que,
al situarnos por ejemplo sobre la cresta de una ola, la altura
registrada por la antena del GPS respecto al sistema geodésico de
referencia (H) y el valor de profundidad (P) registrado por la
ecosonda se incrementan en igual magnitud, y por tanto, en la
primera de las ecuaciones, se compensan y anulan así el efecto de
estas perturbaciones. Este sistema proporciona un rendimiento de
un segundo e incluso de fracciones de segundo, según se
configuren los instrumentos (Anzidei, 2000).

En caso de emplear esta configuración indicada, se debe combinar


cada dato con los ángulos de cabeceo y balanceo registrados por el
giroscopio para corregir geométricamente dicha inclinación, o bien,
emplear el sistema que se describe a continuación
225
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Corrección de la inclinación de las plataformas móviles


terrestres mediante DGPS
Como ya se ha indicado anteriormente, cuando los levantamientos
topo-batimétricos son realizados con plataformas móviles terrestres
(vehículos en el caso de la topografía o embarcación para las
batimetrías) aumenta notablemente la extensión del terreno que es
posible medir, pero existe el inconveniente de que se produce una
pérdida de precisión debido a la variación en la inclinación de
dichas plataformas móviles a lo largo de la trayectoria. Dicha
variación en la inclinación de las plataformas se debe no sólo a la
pendiente del terreno, en el caso del vehículo, o las ondulaciones
del mar, en el caso de la embarcación, sino también a cuanto se
hunde en cada instante el vehículo (según la compactación del
sustrato arenoso) o la embarcación (según su flotabilidad, inercia y
otros factores aleatorios). Los errores asociados a estas variaciones
en la inclinación de la plataforma móvil pueden ser corregidos a
través de un sistema DGPS integrado que combina varios
receptores GPS instalados en una estructura metálica acoplada al
vehículo o embarcación. El objetivo de este sistema DGPS
integrado consiste por tanto en determinar con alta precisión el
cabeceo y balanceo del vehículo o embarcación, para al corregirlos
obtener las coordenadas tridimensionales correctas de los puntos
topográficos o batimétricos.

Para ello, la estructura de forma triangular es montada con dos de


sus vértices paralelos al eje longitudinal de la plataforma móvil
(vehículo o barco) donde se acopla, instalando una antena GPS de
frecuencia simples (L1) conectada a un receptor GPS de baja
resolución en cada vértice. El tercer vértice se localiza justo encima
del distanciómetro laser o del transductor de la ecosonda
226
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

respectivamente, y en dicho vértice se sitúa una antena GPS de


doble frecuencia (L1 y L2) conectada a un receptor GPS de gran
resolución (Fig. 12). Por último, un cuarto receptor GPS de doble
frecuencia (L1 y L2) se instala en un punto terrestre de coordenadas
perfectamente conocidas y próximo a la zona de estudio (estación
base), con el objetivo de permitir el procesado diferencial, ya sea en
tiempo real (sistema RTK) o en postproceso. Todos los GPS se
emplean con la mayor frecuencia de muestreo posible
(generalmente 10 o 20 Hz).
High-grade
GPS receiver

Laser distance
measurement
unit or
echo-sounder
transducer
Array of low-grade
GPS receivers

Terrain surface or ocean bottom surface

Fig. 12. Estructura con 3 receptores GPS para corregir el cabeceo y


balanceo de la plataforma móvil (vehículo o barco).

Para cada instante a lo largo de la trayectoria, la posición del centro


de fase de la antena (punto de referencia donde se recibe la señal)
del receptor móvil GPS de alta resolución (L1 y L2) se obtiene
corrigiendo en diferencial con el GPS de la base.

Una vez conocida la posición del receptor GPS móvil de alta


resolución, a partir de los datos registrados en cada uno de los dos
receptores GPS de baja resolución (L1) es posible determinar los
227
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

ángulos de inclinación (cabeceo y balanceo) y acimut de la


estructura triangular (y por tanto de la plataforma móvil) en cada
instante de la trayectoria. Dichos ángulos de inclinación y acimut se
determinan respecto al datum local.

Así, conocidas las coordenadas del receptor GPS de alta precisión,


los ángulos de inclinación (cabeceo y balanceo) de la plataforma
móvil, la distancia del sensor a la superficie del terreno (medida por
el distanciómetro laser o el transductor de la ecosonda según
corresponda) y la distancia fija entre la antena del GPS de alta
precisión y dicho sensor, es posible determinar las coordenadas
tridimensionales de la superficie del terreno mediante análisis
geométrico (aplicando matrices de rotación).

Tras realizar todas estas correcciones se obtiene un conjunto de


puntos perfectamente georeferenciados, localizados a lo largo de
una malla irregular de acuerdo con la trayectoria de la plataforma
móvil durante todo el periodo de registro de datos topo-batimétricos.
Finalmente, empleando métodos de interpolación y análisis
geoespacial, es posible generar modelos digitales del terreno
ajustados a dichos puntos.

ESTUDIOS DE EROSIÓN EN LA ZONA SUMERGIDA


MEDIANTE ECOSONDA Y DGPS

El planteamiento inicial es similar a lo ya expuesto para la


comparación de los levantamientos topográficos obtenidos con
DGPS para la parte emergida y sumergida muy somera de la playa,
si bien, la metodología de trabajo difiere en algunos aspectos.

228
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

En caso de comparar sucesivas batimetrías obtenidas con


ecosonda multihaz, dada las ventajas de este tipo de mediciones, y
la alta densidad de datos que se obtienen, es suficiente con hacer
coincidir la posición en los nodos de las mallas a comparar y restar
directamente las sucesivas batimetrías (balance correlativo) o bien
cada una de ellas con respecto a la primera batimetría multihaz
disponible (balance acumulado). Debido a que se trata de
superficies 3D, a partir de ellas también es posible interpolar los
perfiles topográficos que sirvan para caracterizar la zona sumergida.
Sin embargo, debido al elevado coste de cada campaña de
levantamientos batimétricos con ecosonda multihaz, aun resulta
poco factible este tipo de análisis.

En caso de realizar la serie de levantamientos batimétricos sólo con


ecosonda monohaz, se puede obtener por interpolación una
superficie del fondo para cada campaña, y restar entre las
sucesivas campañas, pero este método resulta mucho más
impreciso. Para poder comparar con precisión sucesivas batimetrías
obtenidas con ecosonda monohaz sería necesario que todas ellas
se realizaran siguiendo exactamente la misma trayectoria, para
obtener puntos comunes o muy próximos en latitud y longitud, lo
cual resulta en muchos casos complejo debido a las dificultades en
la navegación. Por ello, es necesario obtener una malla muy densa
de mediciones con la ecosonda monohaz, pero realizando
transeptos tanto perpendiculares como paralelos a la costa, en cada
campaña, de modo que se logren obtener puntos coincidentes entre
las sucesivas campañas y obtener el balance sedimentario a partir
de la comparación entre estos puntos comunes.

229
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Otra opción es combinar los levantamientos con ecosonda monohaz


con al menos un levantamiento con ecosonda multihaz, de modo
que cada levantamientos con monohaz se compara con dicha
batimetría obtenida con multihaz. Así, la combinación de los
resultados de estas comparaciones permite entonces obtener la
variación entre las sucesivas campañas con monohaz.

El estudio de los cambios recientes en la batimetría frente a las


Playas de Maspalomas y El Inglés ha sido realizado con una
ecosonda monohaz sincronizada con un sistema de
posicionamiento DGPS. La combinación de la ecosonda y el DGPS
permite eliminar los efectos de la marea, oleaje y otras
perturbaciones al nivel medio del mar y de este modo es posible
obtener la profundidad referida al nivel medio del mar en Canarias
según la REGCAN con una alta resolución. Las campañas
batimétricas han sido realizadas a bordo de una embarcación tipo
zodiac, sobre trayectorias previamente definidas y teniendo en
cuenta las condiciones de la marea para poder aproximarse a la
orilla en los momentos de pleamar. Se han realizado 3 campañas
con ecosonda monohaz (Fig. 13) en los meses de agosto y
noviembre de 2007, y en febrero de 2008.

Se dispone además de una batimetría inicial realizada con


ecosonda multihaz en enero de 2007. De este modo, la profundidad
medida en cada punto durante cada una de las batimetrías
obtenidas con ecosonda monohaz (transectos lineales) ha sido
comparada con la profundidad en ese mismo punto registrada en la
batimetría con multihaz (barrido de toda la zona) de enero de 2007.

230
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral
y

3070000
0 1000 2000 3000 4000

3069000

3068000

3067000

3066000

439000 440000 441000 442000 443000 444000 445000

Fig.13. Líneas medidas durante el estudio batimétrico con DGPS y


ecosonda monohaz (agosto de 2007).

El balance sedimentario a corto plazo se analiza a partir de


comparar entre la situación topográfica en cuatro épocas
(febrero’07, agosto’07, noviembre’07 y febrero’08) tanto en la zona
sumergida como en las playas. Los resultados obtenidos por cada
uno de los métodos (topografías con DGPS y batimetrías con
ecosonda y DGPS) son perfectamente compatibles, tal como se
muestra a continuación (Fig. 14) en el balance sedimentario anual
(07/08) obtenido para el conjunto de la zona sumergida y las playas
(Fontán et al., 2008).

231
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Fig. 14. Balance sedimentario anual (2007/2008) en el conjunto de


la zona sumergida y las playas de Maspalomas y El Inglés.

AGRADECIMIENTOS

La puesta a punto de las metodologías y resultados mostrados en


este trabajo han sido posibles gracias a la financiación del
Observatorio Dunas, del Cabildo Insular de Gran Canaria (España).

REFERENCIAS

Alcántara-Carrió, J., Fontán, A. 2009. Factors controlling the


morphodynamics and geomorphologic evolution of a cuspate
foreland in a volcanic intraplate island (Maspalomas, Canary
Islands) Journal of Coastal Research Special Issue 56(1), 683-687

232
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

Almécija, C., Alejo, I., Pérez Arlucea, M., Villacieros-Robineau, N.


2009. Response of and exposed beach to different wave conditions:
example of Louro Beach (Galicia, NW Iberian Peninsula). En:
Troncoso, J.S., Alejo, I., López, J. Libro de resúmenes del II
Simposio Internacional de Ciencias del Mar. Univ. de Vigo, 224-225.
Anzidei, M. 2000. Rapid bathymetric surveys in marine volcanic
areas: A case study in Panarea area. Physics and Chemistry of the
Earth, Part A: Solid Earth and Geodesy, 25(1), 77-80.
Baptista, P., Bastos, L., Bernardes, C., Cunha, T., Dias, J. 2008.
Monitoring Sandy Shores Morphologies by DGPS – A Practical Tool
to Generate Digital Elevation Models. Journal of Coastal Research,
vol. 24 (6), 1516 - 1528.
Dana, P.H. 1994. Geographic Information Systems Loran-C
Coverage Modeling. Proceedings of the Twenty-Second Annual
Technical Symposium. Bedford, MA: The Wild Goose Association.
Dana, P.H. 1997. Global Positioning System (GPS) Time
Dissemination for Real-Time Applications. Real-Time Systems: The
International Journal of Time Critical Computing Systems. 12 (1).
Davis, J.C. 1986. Statistics and Data Analysis in Geology. 2ª
Edition. John Wiley & Sons. Nueva York. 645 p.
Fontán, A., Alcántara-Carrió, J., Poveda, J.M., Peña, M.A. 2007.
Aplicación de técnicas de GPS diferencial, fotogrametría y geofísica
a la cuantificación de procesos erosivos y balances sedimentarios
en playas y dunas costeras. En: En: R. Rivas, A. Grisotto y M.
Sacido Teledetección – Herramienta para la gestión sostenible. (XII
Congreso de la Asociación Española de Teledetección). 635-638.
Fontán, A., Alcántara-Carrió J., Pacheco A., Baltzer A., Baztan, J.
2008. Sedimentary Dynamics of the Maspalomas upper shelf
(Canary Islands). En: T. Boski and D.N. Ramos (Eds.). Quaternary
land-ocean Interactions Driving Mechanisms and Coastal, 19-20.
233
Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo

Gracia, F.J., Anfuso, G., Benavente, J., Del Río, L., Domínguez, L.,
Martínez, J.A. 2005. Monitoring coastal erosion at different temporal
scales on sandy beaches; application to the Spanish Gulf of Cadiz
coast. Journal of Coastal Research, SI 49, 22-27.
Hicks, D.M., Hume, T.M. 1997. Determining sand volume and
bathymetric change o fan ebb-tidal shoal. Journal of Coastal
Research 13 (2), 407-416.
Kraus, N.C., Rosati, J.D. 1998. Estimation of uncertainty in coastal
sediment budgets and inlets. Coastal Engineering. Technical. Note
IV- 16, 12 p.
Manzano, F., Manzano G., Colomer, I. 2002. Análisis del oleaje para
la modelización del relieve submarino en batimetrías realizadas con
GPS. Aplicación en playas de Málaga”. XIV Congreso Internacional
de Ingeniería Gráfica. Santander, España.
Ojeda, J. 2000. Métodos para el cálculo de la erosión costera.
Revisión, tendencias y propuestas. Boletín de la AGE, 30, 103-118.
Ojeda, J.; Vallejo, I., Hernández, L. 2007. Utilidades de la tecnología
LIDAR en la caracterización morfométrica de sistemas dunares: El
caso de Maspalomas (Gran Canaria, Islas Canarias). En: L. Gómez
Pujol y J.J. Fornós (Eds.). Investigaciones recientes (2005-2007) en
Geomorfología Litoral. Universidad de las Islas Baleares. Palma de
Mallorca. 113-117.
Pacheco, A., Vila-Concejo, A., Ferreira, O., Dias, J.A. 2008.
Assessment of tidal inlet evolution and stability using sediment
budget computations and hydraulic parameter analysis. Marine
Geology, 247 (1-2), 104-127
Pardo-Pascual, J.E., García-Asenjo, L., Ayuso, A., Sánchez, M.,
Durrieu, M. 2003. Método para el seguimiento de la evolución
tridimensional de playas mediante el empleo combinado de GPS
cinemática en tiempo real y SIG. IX Conferencia Iberoamericana de
234
II Manual de Métodos en Teledetección Aplicada a la Prevención de Riesgos Naturales en el Litoral

SIG. De lo local a lo global. Nuevas tecnologías de la información


geográfica. Cáceres.
Pardo-Pascual, J.E., García-Asenjo, L., Garrigues, J., Palomar, J.,
Porres de la Haza, M.J. 2007. Caracterización tridimensional de la
dinámica intranual e interanual de la Playa de El Saler. En: L.
Gomez Pujol y J.J. Fornós (Eds.). Investigaciones recientes (2005-
2007) en Geomorfología Litoral. Universidad de las Islas Baleares.
Palma de Mallorca. 41-42.
Menezes, J.T., Braga, A.K., Pierri, G.C.S., Klein, A. 2006. Shoreline
Change Analysis Near itapocú Tiver Inlet, Barra Velha, Santa
Catarina, Brazil (1978 to 2002); Journal of Coastal Research, 39,
298-300.
Sánchez, M.J., Rodríguez, I., Montoya, I. 2007. Short term coastal
dune evolution of Fangar Spit (Ebro Delta, Spain). En: Universidad
de Cantabria (Ed.), International Conference on Management and
Restoration of coastal dunes. Santander, pp 56-62.
Vila-Concejo A., Ferreira, O., Matias, A., Dias, J.A. 2003. The first
two years of an inlet: sedimentary dynamics. Continental Shelf
Research 23, 1425-1445.
Wanninger, L. 1995. Enhancing GPS using regional ionospheric
error models, Bull. Geod., 69, 283-291.

235

También podría gustarte