Está en la página 1de 43

Capitulo 2

Ciencia de la información geográfica

Jonathan Raper

Universidad de la ciudad, Londres

Introducción

Este capítulo presenta una revisión selectiva de la investigación en la subdisciplina de la ciencia de la

información geográfica (GISc). Sin embargo, incluso antes de embarcarnos en este esfuerzo, debemos

preguntarnos: ¿Una subdisciplina de qué? Esta cuestión es objeto de un amplio debate, por lo que una

excursión inicial a cuestiones de ontología de disciplina y dominio ayudará a aclarar la revisión.

Fundamentalmente, ofrece al lector varias formas diferentes de leer la literatura. Una característica de GISc es

que, si bien los objetivos de la subdisciplina se comprenden ampliamente, en ella se utilizan muchas

metodologías distintas e incompatibles, lo que dificulta la emisión de declaraciones sumativas autorizadas. Lo

que sigue, entonces, es una visión del mundo personal, anglófona y orientada a la ciencia de un profesor de

ciencias de la información que se formó como geógrafo.

El lector también debe notar la perspectiva cambiante a través del tiempo: la propia memoria disciplinaria del autor se

remonta a mediados de la década de 1980; los acontecimientos anteriores se ven a través del lente de la literatura y el folclore

transmitido a través de la disciplina. Después de 2000, resultó más difícil identificar los eventos seminales, quizás porque es más difícil

ver hacia dónde apuntan las tendencias.

2-1
La subdisciplina de GISc y sus afiliaciones

El término “ciencia de la información geográfica” fue acuñado por Michael Goodchild a principios de la década de 1990,

cuando GISc se consideraba el contexto teórico para el desarrollo de sistemas de información geográfica (SIG) (Goodchild, 1992). Antes

de mediados de la década de 1990, GISc habría sido reclamado por la geografía, con solo unos pocos informáticos para entrar en una

cavilación. Durante el período posterior de intenso crecimiento, la identidad de esta subdisciplina se vio sometida a la presión de críticas

metodológicas (Pickles, 1995), divisiones disciplinarias (Longley, Brooks, McDonnell y Macmillan, 1998), afirmaciones de organismos

profesionales (DiBiase, DeMers, Johnson, Kemp, Luck, Plewe, et al., 2007) e intenso cambio tecnológico. Durante este período, muchas

otras disciplinas se dieron cuenta del potencial de GISc y comenzaron a utilizar sus metodologías y herramientas en campos donde los

impactos eran a menudo de muy alto perfil. Por ejemplo, podría decirse que GISc es fundamental para el estudio de la propagación de

enfermedades, la definición de riesgo y primas en la cobertura de seguros, el despliegue de fuerzas militares en los campos de batalla y

la selección de servicios basados en información demográfica. Como consecuencia, el desafío y el escrutinio de GISc ha sido

incesante y la autoevaluación ha llevado a altos niveles de introspección sobre el método y los valores.

Quizás buscando una resolución de las cuestiones de identidad, Goodchild, Egenhofer, Kemp, Mark y Sheppard (1999, p. 737)

argumentaron que GISc debería definirse a sí mismo como parte de la ciencia de la información (ISc) sugiriendo que: “La ciencia de la

información en general puede ser definido como el estudio sistemático según principios científicos de la naturaleza y propiedades de la

información. GISc [es] el subconjunto de la ciencia de la información que trata sobre información geográfica ".

Esta caracterización fue desafiante porque en 1999 había pocas colaboraciones disciplinarias entre

ISc y GISc y la disciplina de ISc casi no tenía en cuenta el papel

2-2
del espacio geográfico en la información. Tal vez haya pocos precedentes de tal autoadopción disciplinaria y, en este caso,

posteriormente no ha habido ningún esfuerzo concertado (¿todavía?) Para definir un programa de trabajo que corresponda a tal

nueva dispensación. Raper (2007) ofrece una de las pocas explicaciones teóricas del territorio teórico (escasamente habitado) entre

ISc y GISc, argumentando que este es de hecho un nuevo y rico dominio para la investigación.

Por tanto, la cuestión de qué disciplina es la madre de GISc permanece abierta: las críticas metodológicas y las divisiones

disciplinarias de finales de la década de 1990 han dejado a GISc con una relación problemática con gran parte de la geografía; la

ciencia de la información ha tenido poco compromiso con su supuesta disciplina infantil. En consecuencia, GISc continúa

desarrollándose rápidamente dentro de su propio contexto único, asumiendo compromisos metodológicos ad hoc con disciplinas

adyacentes y desarrollando su propia matriz e instituciones disciplinarias centrales (Kuhn, 1970). La implicación de este análisis es que

GISc es una multidisciplina perfecta con un núcleo de trabajo de ingeniería de software, datos y teoría y una periferia de compromiso

con disciplinas relacionadas. El presente capítulo será una prueba de esta afirmación.

El dominio de GISc

GISc se define a menudo como la ciencia de la información geográfica (GI), con la implicación de que esta formulación

metodológica puede proporcionar un contexto teórico suficiente para el uso de GIS (Deliinska, 2007). Sin embargo, esta

definición no fundamenta las afirmaciones teóricas de GISc, ni trata de manera satisfactoria la dimensión computacional. Un

punto de partida más seguro para las definiciones sería que GI, GIS, GISc e ISc dependen todos de la “representación” como un

constructo teórico. En este sentido, la representación puede definirse como “la proyección de las entidades, relaciones y

procesos del mundo conceptualizado sobre objetos simbólicos 'facsímiles' con

2-3
sus asociaciones y transformaciones ”(Raper, 2000, 4).

Mucha complejidad se esconde dentro de la frase "mundo conceptualizado", y la representación es muy controvertida

teóricamente, caracterizándose en dos extremos como: (a) posible, deseable y fundamental si la metafísica realista, la

posibilidad de la ontología y la validez de las epistemologías positivistas son aceptado; y (b) imposible, indeseable e inútil si se

prefieren el idealismo, el fenomenalismo y el pospositivismo. Los más cercanos al extremo “posible” de este espectro

argumentan que “representamos e intervenimos” (Hacking, 1983, p. 31), reconociendo que aunque hay regularidades en el

mundo, nuestras representaciones son necesariamente conjeturas. Los que se encuentran en el extremo "imposible" del

espectro, como Rorty (1979), sostienen que no existe un espejo de la naturaleza y, por tanto, la representación está

condenada al fracaso como instrumento de comprensión. esquema conceptual Putnam, 1981) puede dar acceso al mundo,

haciendo que la representación sea significativa, si no completamente explicativa.

Dentro de ISc y GISc se acepta generalmente la posibilidad de representación. Esta declaración de Batty (1998, p. 4)

captura el sentido de esta convención: “Todo esfuerzo humano debe abarcar lenguajes formales de un tipo u otro para que uno

pueda abstraer la esencia de las cosas para comprender el mundo y luego cambiarlo . " Así como algunos ven la información

como constituida por incrementos de conocimiento (Brookes, 1980) o por diferencia (Mingers, 1997), entonces se argumenta que

la IG puede estar constituida por las dimensiones de lugar, espacio y tiempo (Raper, Dykes, Wood, Mountain, Krause y Rhind,

2002). En los últimos años, las limitaciones de la representación espacial han sido cuestionadas desde diversas direcciones: por

ejemplo, por Massey (2005, p.

26) sobre la base de que la representación “necesariamente fija, y por lo tanto amortigua y resta valor al flujo de la vida”, pero

también por Peuquet (2000) sobre la base de que la representación bidimensional necesita una extensión a la tercera

dimensión y al tiempo.

2-4
Utilizando un enfoque metodológico basado en la representación podemos situar las distintas ontologías de

dominio que se han propuesto:

• GISc se ocupa de la teoría de la representación espacio-temporal y es el marco teórico para todo el campo

(Raper, 2000).

• La geoinformática se ocupa de las estructuras de datos y la ingeniería de software para GI (Deliinska, 2007). La geocomputación se

• ocupa del modelado computacional de procesos espaciales y temporales en un contexto geográfico (Couclelis, 1998).

• La geovisualización se ocupa de la comunicación y comprensión de la representación espacio-temporal

(Dykes, MacEachren y Kraak, 2005).

Esta tipología y terminología equivale a un mapa de disciplina personal del autor y no se ajusta (por ejemplo) a lo que

proponen los organismos profesionales. Por ejemplo, la Asociación Estadounidense de Geógrafos (AAG) y el Consorcio

Universitario para GISc (UCGIS) han propuesto un Cuerpo de Conocimiento para GISc, que toma como sus subdivisiones de

nivel superior: GISc, aplicaciones de ciencia y tecnología GI y tecnología geoespacial. Sin embargo, esto se centra más en las

necesidades de la educación que en la estructura disciplinaria.

Por lo tanto, algunos en GISc se preocupan por la representación del espacio geográfico y no consideran el software; otros

trabajan exclusivamente en ingeniería de software o modelado para SIG. Sin embargo, existe un aprecio igual por estos diferentes

modos de investigación, cada uno de los cuales contribuye a la resolución de problemas en otras disciplinas cuando existe la

necesidad de representar aspectos del espacio geográfico. Por lo tanto, GISc es poliepistemológico y abarca la ciencia (inducción,

deducción y abducción) y las ciencias sociales (etnografía y teoría social crítica), con la ciencia como

2-5
modo dominante. Esto se debe quizás a que la comunidad de aquellos que participan en GISc tienen sus propias disciplinas y

metodologías de origen y aportan al uso de GISc y GIS sus propios métodos y sus propios tratamientos de representación.

Sin embargo, el uso de SIG implica el uso de representaciones computables; como tales, son incompatibles con el pospositivismo

y el fenomenalismo. Por lo tanto, algunos han desarrollado teorías de GISc pero han evitado la implementación de GIS, como el proyecto

Naïve Geography (Egenhofer & Mark, 1995). Tenga en cuenta también que las representaciones espaciales, como los mapas, todavía

tienen el poder de dar forma a un debate y aquellos que niegan la base de la representación todavía, en algunos casos, utilizan GISc en la

investigación (sin aparente temor a la autocontradicción). La mera existencia de representaciones espaciales puede impulsar cambios, por

ejemplo, cuando los mapas muestran derechos tradicionales sobre la tierra (Weiner, Warner, Harris y Levin, 1995). GISc es un entorno de

investigación disciplinaria inusual que se ha vuelto exitoso al involucrar a una amplia gama de investigadores en algunas conversaciones

estimulantes y multidisciplinarias.

La literatura de GISc

Existe un estudio emergente de la literatura de GISc dentro de ISc. Michalec y Welsh (2007) estudiaron SIG ( sic.) publicar

tendencias en ISc entre 1990 y 2005 mediante la búsqueda de "sistemas de información geográfica O geoespacial" en el Bibliotecología

y ciencia de la información y Resúmenes de biblioteca, ciencia de la información y tecnología bases de datos. Encontraron 146 artículos

SIG en 69 publicaciones diferentes de ISc de 228 autores, de los cuales el 57 por ciento eran bibliotecarios académicos o académicos

de ISc. El escrutinio de la lista de publicaciones recuperadas muestra muchos artículos de boletines y revistas; el número de artículos

de revistas es un orden de magnitud menor. El número total anual de publicaciones aumentó en general durante el período de estudio,

aunque el patrón cambió

2-6
desde números bajos y estables (2 a 4) hasta números más altos y volátiles (10 a 20) a mediados de la década de 1990. La afiliación

del autor (ya sea ISc o GISc) no siguió ninguna tendencia clara durante el período. El estudio de los artículos seleccionados de las

bases de datos de este estudio sugiere una división en esta literatura entre "SIG para la investigación en el mundo" y "SIG para la

investigación en la biblioteca". El desarrollo de la tendencia “mundial” sugiere que los aspectos informativos de GISc están siendo

recogidos como temas de investigación importantes dentro de GISc. Así, en opinión de GISc, ISc se está sumando a la red

multidisciplinaria en torno a GISc.

Por el contrario, Arciniegas (2007) estudió los patrones de coautoría dentro de GISc. Empezando por el Revista

Internacional de Sistemas / Ciencia de Información Geográfica (IJGIS) ( 1988-2006) como la revista principal de la subdisciplina,

identificó a los principales autores de publicaciones (TPA) en esta revista (más de cuatro artículos cada uno) y luego definió un

corpus de 72 revistas en las que estos autores habían publicado colectivamente más de dos artículos entre 1991 y 2003. Ella

construyó una pequeña matriz con, en un eje, el número de artículos IJGIS / IJGISc publicados por las APT (llamado

productividad del autor) con celdas para solo dos, tres o cuatro artículos, y, en el otro eje, el número de artículos publicados por

los TPA en las 72 revistas del corpus (llamado productividad de revistas) con celdas para solo cuatro o cinco artículos. Esto

tuvo el efecto de definir seis conjuntos anidados de revistas (2 por 3) que cada uno tenía diferentes propiedades de proximidad

disciplinaria a la revista principal. Estas redes de revistas (que definen conjuntos de artículos que van desde 21.000 a 61,

Arciniegas (2007) señala que el 60 por ciento de los autores contribuyen solo con un artículo en este corpus, lo que sugiere

que la mayoría de los autores no están usando esta literatura como su literatura de origen, lo que respalda la sugerencia de que GISc es

verdaderamente multidisciplinario. Esto significa que las medidas estándar, como el número medio de artículos por autor, no representan

la productividad real de

2-7
investigadores en esta área, sino que mide su nivel de participación en la red (y subdisciplina). La relación de la ley de poder entre el

número de artículos y el número de autores no se mantiene en su totalidad, ya que la relación se rompe para los grandes equipos de

autoría en GISc. Los patrones de colaboración son similares a las subdisciplinas como HCI (interacción humano-computadora) con un

número medio de colaboraciones por autor de alrededor de cinco. El trabajo sobre la topología de las redes de colaboración muestra que

hasta el 50 por ciento están conectados al subcomponente más grande de las redes de revistas definidas, con hasta un 20 por ciento de

autores totalmente aislados (posiblemente estos artículos informan sobre métodos de comunidades bastante separadas).

Este trabajo preliminar de Arciniegas (2007) está comenzando a arrojar algo de luz sobre la naturaleza de la erudición

en GISc y su relación con la beca en ISc. Sin embargo, también indica la enorme tarea que se ha asignado a este revisor: la

literatura de GISc es al menos comparable en tamaño a toda la literatura de ISc ( sensu strictu). Nadie sugeriría una revisión

sobre "Ciencias de la información" en las páginas de ARIST; sin embargo, eso es lo que esta revisión intenta hacer ahora para

una literatura análoga. ¡Advertencia emptor!

Antepasados

Antecedentes de GISc en la Historia de la Ciencia hasta la Segunda Guerra Mundial

Utilizando las definiciones del dominio de GISc proporcionadas, es posible rastrear los antecedentes de GISc

hasta la historia de la geometría y la cartografía (Raper, 2000). Así, la contribución de los elementos de Euclides en la

época griega antigua y la formalización de coordenadas planas por Descartes en el siglo XVII se puede ver en el diseño

de la primera serie de mapas europeos en el siglo XIX (Crosby, 1997). En la primera mitad del siglo XX, matemáticos y

físicos como Minkowski (1908) y Turing (1936) formalizaron las matemáticas y

2-8
procedimientos computacionales en los que se basarían los SIG posteriores.

De la misma manera, ISc puede rastrearse hasta los fundamentos de la clasificación en Aristóteles y la codificación del alfabeto

romano en la época clásica. En los siglos posteriores al desarrollo de la imprenta por Gutenberg a mediados de la década de 1400, la

publicación creció de manera constante hasta que la proliferación de material publicado requirió esquemas de clasificación como el

sistema decimal Dewey a fines del siglo XIX. En la primera mitad del siglo XX, las contribuciones de los bibliotecarios incluyeron las leyes

de dispersión de Bradford en la literatura de las revistas y la clasificación de facetas fundamentales de Ranganathan (1933) (Vickery,

1994).

Hay una cierta simetría en estas dos caracterizaciones: ambas tienen orígenes clásicos, desarrollos fundamentales del

siglo XIX y teorizaciones de principios del siglo XX que abarcan las artes y las ciencias. Estos desarrollos fueron impulsados por

experiencias comunes desde el principio (en dibujo y escritura), luego se expandieron en gran medida por las necesidades de las

autoridades administrativas en el siglo XIX, y se enriquecieron teóricamente a principios del siglo XX. Sin embargo, a pesar de

estas simetrías en sus antecedentes intelectuales, estas dos disciplinas se crearon y han evolucionado de manera bastante

diferente, tal vez explicando el compromiso relativamente limitado entre ellas hasta la última década.

Investigación de precursores de GISc 1900-1970

La cartografía y la geodesia fueron los más importantes de estos precursores de GISc de principios del siglo XX, con una historia

intelectual que se remonta a la época clásica. Para 1900, las preocupaciones de la cartografía se centraban en gran medida en las

necesidades de los programas de cartografía que estaban en marcha o a punto de completarse en América del Norte, Europa occidental y

el subcontinente indio. Discusiones (finalmente abortadas) sobre la creación del Mapa Internacional de la escala 1: 1 millón de

2-9
World tuvo lugar en sucesivos Congresos Geográficos Internacionales desde 1891 hasta 1913 (Heffernan, 2002). Estos programas también

requirieron una gran cantidad de trabajo geodésico para establecer el control terrestre para las operaciones de mapeo utilizando métodos de

levantamiento tradicionales, especialmente donde se necesitaban mapear grandes áreas despobladas en el oeste de EE. UU., Canadá,

Rusia, India y Australia. Este trabajo condujo a rápidos avances en la proyección de mapas, el foto mosaico aéreo, el diseño de cuadrículas

de mapas y la medición del tiempo de alta precisión para determinar la longitud.

Con la Primera Guerra Mundial vino un imperativo urgente para producir mapas a gran escala del conflicto; Se

realizaron experimentos con fotografía aérea para la elaboración de mapas, lo que aceleró el desarrollo de cámaras,

estereoplotters fotogramétricos y la impresión de detalles de mapas (Collier, 2002). Estos desarrollos continuaron durante las

décadas de 1920 y 1930 con un creciente patrocinio militar. Durante este período, la fotografía aérea y la fotogrametría se

desarrollaron hasta el punto en que se volvieron más rentables para el mapeo topográfico que los métodos tradicionales basados

en levantamientos terrestres, aunque los levantamientos continuaron utilizándose en países bien cartografiados como el Reino

Unido. Esta fue también la era en la que los mapas fueron utilizados para promover el automovilismo por las empresas

petroleras; por ejemplo, en 1934 Rand McNally produjo 70 millones de mapas de carreteras de EE. UU.

La Segunda Guerra Mundial trajo nuevos impulsores para la cartografía y nuevas investigaciones, principalmente impulsadas por

cartógrafos militares. Por ejemplo, existía la necesidad de producir modelos de terreno para apoyar las operaciones militares y muchas formas

de mapas especializados y fotografías aéreas. Cloud (2002, p. 264) describió la movilización de personal de cartografía militar y civil en los

Estados Unidos durante la guerra como probablemente "la mayor transformación en la historia de la cartografía estadounidense". Los

materiales cartográficos y geodésicos incautados del colapso de la Alemania nazi en 1944-1945 por el oficial de inteligencia militar del ejército

estadounidense Floyd Hough y sus colegas demostraron ser un

2-10
recurso estratégico. La tecnología nuclear y de misiles también se estaba desarrollando rápidamente y necesitaba cartografía e

información geodésica para su uso eficaz. Cloud (2000) argumenta que el secreto asociado con gran parte de este trabajo en tiempos

de guerra se extendió a la Guerra Fría de las décadas de 1950 y 1960, ocultando así muchos avances académicos sobre geodesia y

cartografía (en ambos lados del conflicto) hasta la reciente desclasificación de este material.

Después de la Segunda Guerra Mundial, las experiencias de la cartografía militar y la reanudación del crecimiento

económico llevaron a un rápido crecimiento de la cartografía académica y la geodesia y comenzaron la investigación de

representaciones espaciales computables. Así, 1952 vio la publicación del manual de métodos analógicos de producción de mapas

de Monkhouse y Wilkinson (1952) y de Robinson (1952) El aspecto de los mapas, que exploró el diseño de mapas y fundó una

tradición de investigación cognitiva que ha tenido implicaciones significativas para GISc (Montello, 2002). McMaster y McMaster

(2002) examinan el trabajo de Arthur Robinson, George Jenks y John Sherman en el desarrollo de la cartografía estadounidense en

la década de 1950; Fabrikant (2003) evalúa el trabajo de académicos europeos como Eduard Imhof, Arkadi Preobrazenskij y

Wolfgang Pillewizer. A fines de la década de 1950, Tobler (1959) proponía la cartografía automatizada mediante computadoras;

fundó una escuela de cartografía analítica, que evolucionó durante varias décadas para abarcar los fundamentos matemáticos de la

cartografía (ver Tobler [1976] y el número especial de julio de 2000 de

Ciencia cartográfica y de la información).

Gran parte de la investigación cartográfica en la década de 1960 se basó en la resolución de problemas impulsada por aplicaciones en

la que los investigadores tenían que construir su propio hardware, escribir su propio software y recopilar sus propios datos desde cero. Un ejemplo

es el trabajo de Coppock sobre el censo agrícola de Inglaterra y Gales a mediados de la década de 1960, en el que enfrentó la posibilidad de usar

una calculadora manual para hacer más

60.000 cálculos sobre registros de producción agrícola en parroquias civiles para preparar mapas de

2-11
cambio agrícola (Coppock, 1964). La necesidad de automatizar estos cálculos se convirtió en un poderoso impulsor del uso de computadoras

para el análisis de datos y la elaboración de mapas. En los últimos años, también se ha hecho evidente que el sector militar estaba

desarrollando rápidamente tecnología para la teledetección por satélite durante la era de la Guerra Fría (Cloud y Clarke, 1999).

Dos vías de desarrollo iniciadas en la década de 1950 sentaron bases importantes para el desarrollo posterior de

GISc. El primero condujo a una nueva tecnología cartográfica y de imágenes que incluye computadoras, pantallas gráficas y

herramientas de captura de datos como digitalizadores que permitieron a los geógrafos, planificadores, arquitectos

paisajistas, geólogos y otros automatizar la producción de mapas y análisis espacial. Hoy en día es difícil imaginar una era

pre-digital en la que incluso la captura de datos en formas digitales básicas era compleja y consumía mucho tiempo. Un

número especial de Cartógrafo estadounidense ( Reflexiones sobre la revolución: la transición de las representaciones del

espacio analógicas a las digitales, 1958-1988) cuenta la historia hasta un punto clave. Los autores sintieron que estaban

haciendo balance después de una revolución; poco sabían los desarrollos masivos que vendrían incluso en los próximos

cinco años, y mucho menos en los próximos veinte. Las contribuciones a ese número especial cubren los desarrollos en

algunas de las instituciones clave a fines de la década de 1960: Tomlinson (1988) sobre innovaciones en la captura de datos

en el SIG de Canadá, Rhind (1988) sobre tecnología cartográfica en la Unidad de Cartografía Experimental del Royal

College of Art y Chrisman (1988) sobre los primeros programas informáticos como SYMAP en el Harvard Graphics Lab.

Estos relatos ofrecen información real sobre cómo se realizaron los desarrollos tecnológicos clave y los motivos muy

divergentes de estos desarrollos.

La otra vía de desarrollo que tuvo una influencia posterior crucial en GISc fue el trabajo en modelos informáticos en

geología, geografía y planificación. En geología, el impulso de interpretar

2-12
Grandes volúmenes de datos de exploración de petróleo llevaron a un interés temprano en aplicaciones informáticas (Krumbein &

Sloss, 1958). Merriam (1999) revisa el trabajo inicial en esta área, que se centró principalmente en el modelado, clasificación,

modelado y simulación de contornos. La primera monografía clásica de Harbaugh y Merriam (1968) cubría, entre otras cosas, los

sistemas de información, las técnicas de mapeo y los sistemas de clasificación en un estilo que, aparte de las secciones sobre tarjetas

perforadas, todavía tiene sentido hoy. Este trabajo fundó una tradición de representación espacial en la tierra y las ciencias

ambientales que conduciría a un trabajo fundamental en áreas como kriging (teoría de variables regionalizadas) y teoría del caos, que

últimamente se han vuelto importantes para GISc.

La colección editada Modelos en Geografía ( Chorley & Haggett, 1967) se convirtió en el trabajo fundamental en

geografía cuantitativa a finales de la década de 1960; se dividió entre modelos de geografía humana y modelos físicos y de

información en geografía. Este trabajo marcó una ruptura entre la geografía descriptiva de principios y mediados del siglo XX y

la era del modelado geográfico cuantitativo que dominó los siguientes 20 años de investigación en estos campos (MacMillan,

1989). Estos modelos se basaron en la misma representación espacial que GISc tomó más tarde como base, en un momento en que las

computadoras se estaban volviendo más comunes en la investigación. Sin embargo, aunque hay un artículo del cibernético FH George en la

colección "Modelos" de 1967, el trabajo no da ningún sentido de la posibilidad de representaciones espaciales computarizadas que

abarquen subconjuntos significativos de la ciencia del sistema terrestre o sistemas sociales de cualquier escala real. El artículo de Board

(1967), "Mapas como modelos", menciona las computadoras como una ocurrencia tardía en una discusión sobre el análisis de superficies de

tendencias; simplemente era imposible prever el alcance futuro de los SIG y la representación espacial en ese momento. Las contribuciones

más importantes fueron la extensión de la teoría de sistemas a modelos espaciales y el desarrollo de modelos espaciales estocásticos.

En la planificación y la arquitectura del paisaje, la década de 1960 vio el primer uso de

2-13
representación como herramienta de diseño, análisis y debate público con las obras clásicas de Lynch (1960) ( Imagen de la Ciudad) y

McHarg (1967) ( Diseño con naturaleza). McHarg hizo el primer uso analítico extensivo de las técnicas de superposición de mapas al

analizar la idoneidad del sitio, como para una nueva carretera, aunque existen otros candidatos para el inventor de la superposición. Ni

Lynch ni McHarg trabajaron mucho con computadoras, pero los marcos analíticos que desarrollaron se prestaron muy bien a la

implementación posterior de SIG y ambos trabajos son muy citados en la literatura contemporánea. El modelado urbano comenzó en

los Estados Unidos a mediados de la década de 1960 y abarcó el uso del suelo y el transporte; estos modelos fueron revisados por

Batty (1989).

Otras dos publicaciones a fines de la década de 1960 que tuvieron una enorme influencia más tarde fueron las de Bertin

(1967) Semiologie Graphique ( no publicado en inglés hasta 1983), que presentaba un conjunto de principios que se han convertido en

la base del diseño cartográfico y la geovisualización, y La difusión de la innovación como proceso espacial por Hägerstrand (1968),

que fundó una rica tradición de geografía del tiempo.

Rastrear la coevolución disciplinaria de ISc y GISc a lo largo de la segunda mitad del siglo XX es, por tanto, una tarea

compleja. ISc surgió por primera vez como una disciplina académica a principios de la década de 1960 cuando el Instituto de

Tecnología de Georgia, la Universidad de Drexel y la propia institución del autor, City University, Londres, establecieron

departamentos académicos pioneros en ISc, basándose en desarrollos anteriores como la fundación de la American Documentation

Institute en 1937 y la Royal Society Scientific Information Conference de 1948. Por el contrario, GISc no se constituyó formalmente

hasta la década de 1980 y el siglo XX. La investigación de lo que posteriormente se convirtió en GISc debe encontrarse en una

amplia gama de disciplinas que incluyen cartografía, geodesia, geografía, geología. , planificación, psicología, lingüística y

antropología.

2-14
Investigación de precursores de GISc en las décadas de 1970 y 1980

En 1970, la idea de que las representaciones espaciales podían hacerse computables y producir resultados útiles se había

arraigado y muchos investigadores del mundo académico y de la industria se dedicaron a automatizar el tipo de análisis que antes se

realizaba manualmente, como el modelado de superficies de tendencias o la superposición de mapas. En ese momento, los programas

individuales se escribían para tareas espaciales de nivel bastante bajo (Douglas, 1974) y el nivel de integración era limitado (Tobler, 1970b).

También hubo una duplicación generalizada del esfuerzo (de programación) (Baxter, 1976), que comenzó a declinar con los contactos entre

disciplinas y continentes, tal vez culminando en la celebrada conferencia de Harvard sobre estructuras de datos topológicos para SIG de

1977.

Los procedimientos de esta conferencia clave fueron encuadernados y ahora son bastante raros; sin embargo, los

artículos son excelentes y todavía están llenos de conocimientos y desafíos 30 años después, un logro poco común en cualquier

área de la informática. Por ejemplo, Sinton (1977) proporciona un ensayo inicial sobre la organización de registros de datos y las

necesidades de los usuarios antes de que realmente existieran los sistemas para ejemplificar esta necesidad; Bouillé (1977)

describió una estructura de datos orientada a objetos para cartografía basada en Simula 67 que fue el precursor de sistemas

modernos como Smallworld GIS; Gold (1977) argumentó el caso de las redes irregulares trianguladas como una estructura de datos

GIS de propósito general; Chrisman (1977) presentó un ensayo sobre conceptos de espacio y estructuras de datos; y Reed (1977)

escribieron sobre la interoperabilidad en términos que todavía son apropiados en la actualidad.

Paralelamente a estos desarrollos técnicos, el estudio del espacio estaba experimentando un "giro cognitivo" en la década

de 1970, ilustrado clásicamente por el libro de Gould y White (1974) Mapas mentales, que exploró las percepciones del espacio y el

lugar. Este tipo de geografía conductual tenía como objetivo estudiar la imagen mental del entorno creado y luego utilizado por el

individuo como base.

2-15
para la toma de decisiones, por ejemplo, para el comportamiento de viaje (Golledge y Rushton, 1976). En esta tradición, Downs

y Stea (1973) exploraron los mapas cognitivos humanos y el mapeo ambiental realizado por los individuos para comprender sus

entornos de vida. Robinson y Petchenik (1976) exploraron los mapas como sistema de comunicación, basando su modelo en la

teoría matemática de la comunicación (Shannon y Weaver, 1949). En este modelo de comunicación cartográfica el mapa es un

canal del mundo al usuario, en el que el “ruido” puede interferir con la transmisión del mensaje (p. 8). De hecho, el usuario tiene

conocimientos existentes; esto es tan importante para la comprensión del mapa como la naturaleza del canal.

La década de 1970 también vio los primeros trabajos sobre análisis espacial: el estudio de patrones y distribuciones en IG. Cliff y

Ord (1973) escribieron una explicación fundamental de la autocorrelación espacial, es decir, el potencial de una variable espacial para

correlacionarse espacialmente con otra; el uso de estadísticas de autocorrelación se ha convertido en una técnica clave en la geografía

humana cuantitativa moderna. Getis y Boots (1978) estructuraron y formalizaron el análisis espacial por primera vez, dividiendo sus técnicas

en análisis de patrones de puntos, líneas y áreas y utilizando la distribución de Poisson para las pruebas de significación espacial. Unwin

(1981) dio una explicación similar pero se centró más de cerca en análisis de mapas y operaciones de adición en superficies. Pred (1977)

amplió la geografía temporal de Hägerstrand.

Este período también vio la primera publicación de datos de observación de la Tierra de nuevos satélites civiles de teledetección. Los

EE. UU. Y la Unión Soviética habían estado utilizando satélites espías como el sistema Corona de EE. UU. Desde principios de la década de

1960 (Cloud & Clarke, 1999), pero el lanzamiento de Landsat 1 de la NASA (Administración Nacional de Aeronáutica y del Espacio) en 1972

marcó el comienzo de una nueva era de datos de teledetección disponibles públicamente. Los voluminosos datos requirieron un análisis de

computadora central para realizar el procesamiento de imágenes para la evaluación de los recursos terrestres, la evaluación meteorológica y la

cartografía de la vegetación.

2-16
Mirando hacia atrás en la literatura actual, este trabajo temprano en la década de 1970 sobre representación espacial, SIG y

geografía del comportamiento estaba teniendo lugar en una burbuja metodológica, herméticamente sellada de los turbulentos debates de la

ciencia contemporánea y las ciencias sociales. Por lo tanto, no hubo un compromiso aparente con la filosofía de la ciencia (por ejemplo, la

imposibilidad de la observación libre de teoría, Feyerabend, 1975), la ciencia cognitiva (por ejemplo, la representación y la realidad, Rorty, 1979)

o la ciencia política (por ejemplo, el capitalismo y la ciudad, Castells, 1977) a principios de GISc. Cuando esta burbuja estalló a mediados de la

década de 1990, el impacto fue aún mayor.

Esta desconexión con debates de investigación más amplios continuó durante la primera mitad de la década de 1980 cuando los que

trabajaban en SIG se centraron en el diseño de sistemas (Dangermond, 1983), la captura de datos (por ejemplo, herramientas de digitalización,

Peuquet & Boyle, 1984) y los algoritmos (por ejemplo, datos de censos). estructuras, Marx,

1986) en lugar de representación y cognición. Los artículos del primero de la serie de conferencias duraderas sobre el manejo de datos

espaciales (iniciado por Duane Marble y Kurt Brassel y patrocinado por la Unión Geográfica Internacional) se llevó a cabo en Zurich en

1984 e ilustraron el enfoque limitado de GISc en este momento con el énfasis en captura de datos, estructuras de datos y bases de datos;

sólo dos artículos sobre sistemas basados en el conocimiento quedan fuera de esta definición. Peuquet y Marble (1990) editaron una

colección de artículos clásicos antiguos en SIG que cubren este período.

Hubo algunos tratamientos teóricos significativos de la representación espacial durante principios y mediados de la década

de 1980, por ejemplo, Goodchild (1980) sobre fractales y medidas geográficas, Evans (1980) sobre análisis del terreno, Cliff y Ord

(1981) sobre procesos espaciales, Hillier y Hanson (1984) sobre sintaxis espacial y Couclelis y Gale (1986) sobre espacios alternativos.

Este trabajo fue concebido en gran parte antes de cualquier concepción desarrollada de GISc, aunque sus técnicas fueron absorbidas

más tarde por GIS. Peuquet (1984) publicó la declaración definitiva sobre modelos de datos y estructuras de datos para SIG y

Blakemore (1984) hizo una importante contribución teórica sobre el error.

2-17
y generalización en el procesamiento y análisis de datos de línea. En la subdisciplina paralela del procesamiento de imágenes por

teledetección, Díaz y Bell (1986) editaron una importante colección de artículos que reunían el estado del arte en aritmética teseral y

estructuras de datos ráster (basadas en matrices), algunas de las cuales han sido influyentes en GISc.

En algún momento entre 1986 y 1990, el mercado de GIS comenzó a expandirse extremadamente rápido y la

investigación de GISc siguió su ejemplo. Los factores que contribuyeron al software incluyeron la disponibilidad de estos desarrollos:

• Potentes estaciones de trabajo Unix (y más tarde, microcomputadoras) Componentes

• de software de bases de datos y gráficos de computadora Almacenamiento de datos

• de bajo costo

• Redes de área local

• Compromisos institucionales para liberar IG y autorizar su digitalización

Se lanzaron al mercado decenas de sistemas comerciales y se desarrolló una burbuja clásica con una gran inversión en

productos inmaduros en un mercado inmaduro. Para el año 2000, los 30 a 50 SIG disponibles en 1990 se habían reducido a menos de

diez debido a la consolidación y las fallas del mercado. En el momento de redactar este informe, solo hay realmente tres proveedores

de SIG en el mercado con una presencia comercial global real: ESRI, MapInfo e Intergraph.

En el lado de la investigación, los eventos importantes en 1986-1988 incluyeron el lanzamiento de nuevas entidades:

• Proyecto de mapas digitales para geociencias de la German Science Foundation (1986)

• Serie de conferencias US GIS / LIS (1986)

2-18
• Revista Internacional de Sistemas de Información Geográfica (IJGIS) ( 1987)

• Informe del gobierno del Reino Unido (Chorley) sobre Manejo de información geográfica ( 1987)

• Centro Nacional de Información y Análisis Geográficos de EE. UU. (NCGIA) (1988)

El último de ellos fue uno de los avances más significativos en el ámbito de la investigación. El NCGIA fue un programa de

investigación de la National Science Foundation de 50 millones de dólares lanzado en 1988 (y finalmente financiado durante diez años) con

equipos de investigación en SUNY Buffalo y la Universidad de Maine en Orono y dirigido por la Universidad de California en Santa Bárbara.

El NCGIA apoyó 20 iniciativas de investigación sobre temas clave de investigación de SIG, cada una de las cuales organizó una reunión de

especialistas y forjó relaciones nacionales e internacionales que desempeñaron un papel crucial en la construcción de una subdisciplina a

partir de elementos tan diversos. El liderazgo intelectual de los miembros de NCGIA Goodchild, Frank, Egenhofer, Mark, Batty y muchos

otros fue de gran importancia para el desarrollo del campo.

Rhind (1989) da una idea del enorme ritmo de cambio en este momento, con una posdata insertada después de su capítulo

en Remodelación de la geografía señalando los cambios desde su presentación original en 1987 y la presentación del capítulo en

1988. Cox (1989) en el mismo volumen tomó una visión más escéptica de la revolución GIS sugiriendo que el impacto de GIS podría

limitarse al trabajo inductivo en grandes conjuntos de datos, que caracterizó como un nuevo empirismo, presagiando un debate por

venir. Lo que todavía estaba oscuro en ese momento era el impacto que la transición digital tendría más adelante en todos los

aspectos de la sociedad, y mucho menos en la informática y los SIG.

Fusión

Naming e identidad

2-19
A principios de la década de 1990, se estaban tejiendo varios hilos para crear la subdisciplina de GISc y ayudarla a crecer muy

rápidamente. Incluyeron una rica historia de trabajo sobre representación espacial en cartografía, geografía y planificación; un conjunto bien

desarrollado de estructuras de datos y arquitecturas de bases de datos suficientes para conjuntos de datos de tamaño moderado; nuevo y

potente hardware que baja rápidamente de precio; una industria de software bien financiada que crea muchos productos nuevos; e

inversiones de muchas instituciones en todo el mundo en la digitalización de una amplia gama de indicaciones geográficas, incluidos mapas y

datos estadísticos. El resultado fue una burbuja académica y comercial que duró una década, a la que siguió un crecimiento sostenido y la

integración con otras disciplinas. Sin embargo, lo que ahora llamamos GISc y entendemos como una subdisciplina tenía una identidad mucho

menos definida en 1990.

En 1990, todos los que trabajaban en esta área entendieron que el campo de investigación se llamaba SIG, que se

adaptaba a lo que todos estaban haciendo con el software. Sin embargo, la gama de nomenclatura utilizada por las

instituciones, publicaciones y conferencias fue muy diversa, incluido el manejo de datos espaciales (conferencia de la Unión

Geográfica Internacional), cartografía automatizada (conferencia del Congreso Americano de Levantamientos y Cartografía),

sistemas de información urbana y regional (asociación epónima ) y geomática (nombre institucional para organizaciones que

cubren mapeo, topografía y SIG, utilizado por primera vez en Canadá). Después de mediados de la década de 1990, algunas de

las conferencias GIS (como EGIS y GIS / LIS) desaparecieron y se fundaron nuevas conferencias “más GISc”, como COSIT,

GeoComputation y GIScience. Una biblioteca con enlaces a muchas de las conferencias, libros, revistas,

Junto con los diferentes nombres, iban distintas tradiciones intelectuales que iban desde la cartografía, la planificación

y el diseño hasta la ingeniería topográfica, la geodesia y la informática. Los trabajos de los primeros años de IJGIS provienen de

todas estas tradiciones y se publicaron

2-20
uno al lado del otro sin ninguna preocupación por sus visiones del mundo incompatibles. En este contexto, el liderazgo intelectual de

Mike Goodchild (1992) en su (exitoso) intento de definir un nuevo enfoque disciplinario en torno a la “ciencia de la información

geográfica” (en una conferencia en la conferencia Spatial Data Handling de 1990) fue de gran importancia simbólica y práctica. . El

nombre GISc localizó y definió una actividad de investigación en representaciones espaciales computables y proporcionó un dominio

central en el que la geoinformática, la geocomputación y la geovisualización podrían conectarse. Goodchild también defendió las

afirmaciones distintivas de GISc a través de su discusión de la pregunta "¿son únicos los datos espaciales?" Su argumento, apoyado

por Anselin (1989), ¿Es que las dos (tres? cuatro?) dimensiones continuas de la representación espacial sobre la superficie de la tierra

exhiben escala y dependencia espacial y que estas propiedades califican a GISc como una subdisciplina con reclamos de conocimiento

distintos y desafiantes. La subdisciplina dinámica (pero esquizofrénica) ha prosperado en las dos décadas transcurridas desde esta

contribución fundamental.

Los grandes desafíos para GISc en la década de 1990

Como en la mayoría de las disciplinas, hay una serie de problemas centrales en GISc que pueden ser

caracterizados como grandes desafíos, que ejemplifican gran parte de la investigación que no está orientada a la aplicación o la

"ciencia normal" repetitiva. Goodchild (1992) estableció una agenda de investigación para definir estos desafíos; Esta revisión analiza

su agenda y la utiliza como marco para explorar la investigación en GISc en la década de 1990. El efecto de la transición digital y la

Web requiere un enfoque diferente; Esto se discutirá en la siguiente sección.

Representación y percepción

La primera pregunta que Goodchild (1992) identificó en su agenda de investigación fue la cuestión de

2-21
cómo la representación espacial debe conectarse a la percepción humana a través de modelos de datos. Es

posible que haya sido influenciado en esto por el Instituto de Estudios Avanzados en Aspectos Cognitivos y

Lingüísticos del Espacio Geográfico (CLAGS), financiado por la OTAN (Organización del Tratado del Atlántico

Norte), celebrado en España dos semanas antes de su discurso de apertura de 1990 (Mark & Frank, 1991).

La reunión fue patrocinada por el Centro Nacional de Información y Análisis Geográficos de EE. UU., Del que

fue director. La reunión CLAGS reunió a destacados científicos IG con algunas figuras clave de la ciencia

cognitiva como Zenon Pylyshyn y de la lingüística como George Lakoff y Leonard Talmy. El encuentro generó

algunos trabajos memorables y se convirtió en una especie de hogar cultural de GISc;

En la reunión de CLAGS se presentó la primera investigación sobre orientación humana en la que se suponía que las

computadoras prepararían y entregarían representaciones espaciales para ayudar a las personas a navegar. Este trabajo requirió una

comprensión de los conceptos humanos de espacio (Nunes, 1991) y habilidades espaciales (Blades, 1991), una comprensión de la tarea

de navegación (Gluck, 1991), el lenguaje espacial utilizado para presentar direcciones (Kuhn y Frank, 1991) y las representaciones y

herramientas necesarias para entregar el enrutamiento. Golledge (1992) realizó más trabajos sobre estos problemas a lo largo de la

década de los noventa (las personas tienen conocimientos espaciales, pero a veces escasas habilidades de inferencia espacial); Campbell

(1993) (el desapego cognitivo crea lugares); Car y Frank (1994) (la búsqueda de caminos humana exhibe un razonamiento jerárquico); y

Fohl, Curtin, Goodchild, y Church (1996) (las estructuras de datos SIG necesitan navegabilidad para su uso con la orientación). Después

de mediados de la década de 1990, la investigación en GISc y psicología comenzó a realizarse en colaboración, como el trabajo de

Lovelace, Hegarty y Montello (1999) (identificación de factores de éxito para una buena orientación).

2-22
Es axiomático en cualquier discusión sobre IG que existe una dependencia de escala en los

fenómenos espaciales y nuestra percepción de ellos y que la representación espacial necesita poder manejar

múltiples niveles de detalle. En un artículo importante, Freundschuh y Egenhofer (1997) argumentaron que los

espacios a pequeña escala (perceptibles de una vez) y los espacios a gran escala (percibidos al viajar a

través de ellos) son cognitivamente diferentes y que estas distinciones son constitutivas de diferentes

entidades. Por lo tanto, puede ser que la escala funcione como un control de encuadre que selecciona y hace

que las entidades y relaciones sobresalientes en un nivel de contenido de información que el perceptor pueda

manipular cognitivamente (Raper, 2000).

Debido a que los datos geométricos vectoriales (geometría de puntos, líneas y polígonos) se producen al muestrear una fuente

analógica (por ejemplo, una línea impresa en un mapa) o el comportamiento del mundo real (por ejemplo, observaciones del sistema de

posicionamiento global), tienen una precisión original fija no importa la escala de visualización en el SIG. Como consecuencia, existen límites

prácticos en las escalas de visualización empleadas, ya que las representaciones espaciales digitales deben extraerse del conjunto de escalas

de mapas preparadas previamente disponibles (João,

1998). Para resolver el problema del detalle excesivo en un conjunto de datos mostrado a pequeña escala pero capturado a gran escala, se ha

desarrollado una variedad de algoritmos para eliminar puntos seleccionados de un conjunto de datos de línea / polígono de vector (simplificación

de línea) mientras se conserva tanta información como sea posible. posible. Esto significa reducir el número de puntos y al mismo tiempo

conservar una caricatura de la función. Estos procedimientos se conocen como algoritmos de generalización en GISc. También es posible

indexar todos los datos espaciales de modo que se puedan extraer múltiples escalas de salida directamente de una base de datos (van

Oosterom & Schenkelaars, 1995).

Se puede hacer una distinción entre dos tipos de generalización. Primero, modelo

2-23
La generalización se refiere al mantenimiento de conjuntos de datos libres de escala diseñados para almacenar el contenido de

información de los datos en niveles altos y bajos (lo que ha llevado al uso de técnicas de representación del conocimiento). En segundo

lugar, existe una generalización cartográfica para la manipulación de la representación geométrica por motivos de legibilidad o estéticos

(Müller, Lagrange y Weibel, 1995). La generalización cartográfica emplea una variedad de técnicas junto con la simplificación, incluida la

agregación, la tipificación, la exageración y el desplazamiento de características. El uso de dimensiones fractales para caracterizar la

forma y la auto-semejanza de una línea a diferentes escalas no condujo a un gran avance en los estudios de generalización (Müller,

1986).

Los efectos de escala también aparecen en sistemas zonales jerárquicos como áreas administrativas donde las zonas definidas

se utilizan para contar y clasificar datos estadísticos. El análisis de los atributos asignados a las zonas adolece del problema de la unidad

de área modificable (MAUP) (Openshaw, 1984), en el que los patrones de variación en los datos estadísticos muestran diferencias

espaciales significativas cuando se mapean en diferentes niveles de la jerarquía zonal. Hay dos formas principales de minimizar los

efectos del MAUP. La primera es utilizar métodos de regionalización para diseñar zonas que tengan propiedades conocidas, como áreas

de viaje al trabajo o mercados laborales. El segundo enfoque implica un tipo más general de optimización del sistema zonal que se logrará

mediante la estimación estadística.

Para comprender cómo las personas perciben y representan el espacio también se requiere una explicación de la ontología

espacial, es decir, una posición teórica sobre cómo se conceptualiza el espacio. En geografía hay un debate en curso sobre la ontología y el

espacio: los teóricos sociales tienden a sospechar de la ontología (y su compromiso con el realismo), prefiriendo hablar sobre cómo las

ontologías son producidas por la acción social (Massey, 1999). Por el contrario, los científicos de GI han explorado una variedad de espacios

alternativos con dependencia parcial del espacio euclidiano, como el espacio conductual o socioeconómico (Couclelis, 1992), por ejemplo, las

isócronas del tiempo de conducción (O'Sullivan, Morrison y Shearer, 2000) .

2-24
Implícita en una perspectiva realista está la posición de que el espacio es explicativo. Tobler (1970a) presentó la primera articulación

de este principio, que se conoce como la primera ley de la geografía; se puede parafrasear como: Todas las cosas están relacionadas,

pero las cosas cercanas están más relacionadas que las distantes. La autocorrelación y las variables regionalizadas (kriging) se han

utilizado para explorar este principio (Evans y McClean, 1995; Griffith, 1993; Mason, O'Conaill y McKendrick, 1994).

Desde los primeros prototipos, el software GIS ha modelado el espacio euclidiano utilizando la ontología nítida

estándar de punto, línea, área y superficie en GIS vectorial (ver el estudio y la crítica de Nunes, 1991). Esto se debió

quizás a que lo que ahora llamaríamos el caso de uso del mapeo catastral dominó el pensamiento de los primeros

investigadores y profesionales y la mayoría de las parcelas de tierra son entidades (aceptablemente) nítidas. En uno de los

primeros estudios sobre incertidumbre en GI, Fisher, Dykes y Wood (1993) compararon algoritmos espaciales para el

cálculo de cuencas visuales en SIG comerciales, y encontraron que las definiciones vagas del espectador y el objetivo eran

la mayor contribución a la cuenca visual borrosa. Esto fue seguido por Altman (1994) quien categorizó el modelado de IG

impreciso en información incompleta, características de atributos variables,

El desafío más completo a la cosmovisión nítida se produjo en la reunión GISDATA de la European Science Foundation

sobre objetos geográficos con límites indeterminados (Burrough y Frank, 1996). Burrough (1996) argumentó que las entidades de

área nítida eran en realidad raras y que las entidades geográficas típicas estaban definidas de manera incompleta o eran picos /

valles en variación espacial continua. En este caso, las entidades incompletas se deben descifrar asignando membresía difusa

continua a un campo o por aproximación como una entidad.

Finalmente, las representaciones espaciales siempre deben estar asociadas con un cierto error, ya que es imposible producir una

correspondencia uno a uno con el mundo en una representación (incluso como un

2-25
¡realista!). El error en las representaciones espaciales puede atribuirse a las siguientes fuentes (Guptill y Morrison, 1995):

• Precisión posicional

• Linaje

• Consistencia lógica

• Lo completo

• Precisión temporal

• Precisión de atributos

Heuvelink (1998) desarrolló un modelo de error para atributos espaciales cuantitativos para poder especificar la probable

distribución del error en el espacio.

Interoperabilidad y captura de datos

En el momento en que Goodchild (1992) preparó su programa de investigación, el gran desafío en la captura de datos espaciales era

la digitalización de mapas, registros y procesos en un mundo abrumadoramente analógico. En 1989, sólo se habían digitalizado 30.000 de los

220.000 mapas a gran escala de Gran Bretaña y se necesitaban datos marco como referentes y como telón de fondo de otros tipos de análisis

(Rhind, 1989). La situación en la mayoría de los países era mucho peor, con pocos mapas vectoriales y los volúmenes de datos en los mapas

escaneados constituían un obstáculo importante. En algunos países, este sigue siendo el caso en 2008. Por el contrario, los datos censales, de

códigos postales, de empleo, electorales y medioambientales ya estaban en formato digital desde principios de la década de 1980 en muchos

países y había comenzado a desarrollarse una naciente economía de la información. Openshaw y Goddard (1987) discutieron las implicaciones

de este

2-26
la mercantilización de los datos y las cuestiones relacionadas con el empaquetado y reenvasado de la información. Este artículo clave fue un

llamado de atención para la participación de los científicos de GI en el proceso de formulación de políticas públicas utilizando las herramientas

de GIS.

Como señalaron Openshaw y Goddard (1987), el desafío de integrar conjuntos de datos sociales y

ambientales depende fundamentalmente de la capacidad de expresar todos los conjuntos de datos en la misma

unidad socioeconómica espacial (SSEU). Frank, Raper y Cheylan (2001) definieron las UESE como áreas de

espacio geográfico temporalmente persistentes con límites definidos para áreas de importancia pública o

privada. Se producen al subdividir un espacio como un territorio nacional o agregando entidades como

personas o edificios en grupos espaciales. Raper, Rhind y Shepherd (1992) argumentaron que la única UESE

capaz de cumplir con este rol es el código postal, que existe globalmente, aunque en diferentes niveles de

resolución espacial en cada país. La ingeniería de un conjunto apropiado de SSEU nacionales se está

convirtiendo en una pieza de infraestructura esencial:

En sus primeros años, el Revista internacional de sistemas de información geográfica

publicó muchas encuestas nacionales y regionales que describen el progreso en la construcción de SIG nacionales y regionales (por

ejemplo, Hastings y Clarke, 1991), todas las cuales estaban limitadas por la disponibilidad limitada de datos. Se convirtió en un

objetivo de política en varias partes del mundo estandarizar y base de datos conjuntos de datos; por ejemplo, Wiggins, Hartley,

Higgins y Whittaker (1987) describen el diseño del sistema de cartografía ambiental CORINE para la Comunidad Europea. Mounsey y

Tomlinson (1988) editaron una colección de artículos para el proyecto IGU Global Database, que se convirtió en un precursor de la

posterior red GRID del Programa de Educación de las Naciones Unidas (PNUMA) y las iniciativas posteriores en la cartografía global

(Rhind, 1997). La nueva accesibilidad de forma remota

2-27
Las imágenes satelitales detectadas durante la década de 1990 también generaron nuevas preguntas sobre el acceso, el costo y la

integración (Harris, 1997). En ese momento, se dispuso de una amplia gama de imágenes de teledetección de los satélites Landsat

de EE.UU. y SPOT (Satellite Pour l'Observation de la Terre) francés y se puso a disposición en formatos y sistemas de coordenadas

compatibles con GIS (Wilkinson, 1996). Esta revisión no cubre la vasta literatura que ha generado el manejo y análisis de estos

datos (el Revista Internacional de Percepción Remota publica 26 números por año) ya que existe una línea divisoria metodológica

entre GISc y teledetección en este momento.

Las tecnologías de mapeo también se estaban revolucionando cuando Goodchild (1992) estableció

su agenda de investigación. Las imágenes aéreas se estaban trasladando a un nuevo flujo de trabajo que

utilizaba cámaras de vídeo y fotografías digitales, lo que permitía una fácil integración en SIG (Raper &

McCarthy, 1994). En muchos países, la producción de imágenes digitales ortorrectificadas ofreció una

alternativa al prolongado proceso de actualización del mapa y los productos (ortocuadrículas digitales [DOQ]

en los EE. UU.) Se superpusieron fácilmente a los datos GIS ya que se ajustaron al terreno y al sistema de

coordenadas del mapa. Mientras tanto, la topografía terrestre se estaba moviendo hacia el registro de datos

digitales y la medición de distancias impulsada por láser. Esto abrió el camino a un trabajo de levantamiento

de mayor frecuencia y menor costo, lo que tuvo implicaciones tanto para el mapeo nacional como para el

levantamiento de sitios (Richards, Brookes, Clifford, Harris y Lane, 1998).

A principios de la década de 1990, las señales del sistema de posicionamiento global (GPS) estuvieron disponibles para usuarios no

militares por primera vez y permitieron lograr un posicionamiento geocéntrico preciso con un sistema autónomo. El Servicio Civil de

Posicionamiento Estándar fue degradado intencionalmente usando

2-28
Disponibilidad selectiva con una precisión de alrededor de 100 metros hasta que una orden ejecutiva del presidente

Clinton en 2000 permitió lograr una precisión típica en el rango de cinco a 30 metros (dependiendo de las

condiciones de recepción de la señal). Aunque la precisión de 100 metros parece de relativamente poca utilidad,

dado que el error de posición fue sistemático y fácilmente archivado por un receptor GPS en un punto conocido, fue

posible corregir diferencialmente las posiciones recopiladas por el receptor autónomo mediante el procesamiento

posterior. Por lo tanto, las precisiones típicas se podrían reducir de manera confiable a tres o cinco metros en la

mayoría de las condiciones. Este servicio de corrección D-GPS (diferencial) fue un factor crucial en la creación del

tipo de aplicaciones para GPS que necesitaban precisión D-GPS y, en última instancia, para persuadir al gobierno de

EE. UU. De que abandonara la Disponibilidad selectiva.

Una implicación de la transición digital en la topografía y la medición ha sido la democratización de la recopilación de datos

mediante la reducción del costo de captura de datos. Sin embargo, se hizo evidente desde el principio que si los datos / imágenes espaciales

iban a estar más ampliamente disponibles, la calidad de los datos tendría que medirse, estandarizarse, seguirse e informarse. Goodchild y

Gopal (1989) editaron una colección temprana sobre la precisión de las bases de datos espaciales y Guptill y Morrison (1995) establecieron

los elementos de la calidad de los datos manifestados por los datos espaciales que deberían obtenerse, describirse mediante metadatos e

intercambiarse utilizando estándares. Este libro aún no ha sido reemplazado por una monografía más reciente sobre estandarización.

Desde una posición en 1988 cuando no había estándares para el intercambio de IG, hasta el establecimiento del

Comité de la Organización Internacional de Normalización (ISO) TC / 211 en

1992, hasta la integración de la agenda del comité TC / 211 con el trabajo del organismo industrial Open Geospatial Consortium (OGC) en

1997, la estandarización y la interoperabilidad han jugado un papel importante

2-29
papel clave en el desarrollo de GISc. La interoperabilidad puede definirse como la situación en la que diferentes SIG pueden

intercambiar datos y procesar recursos libremente en tiempo real sin la penalización de la pérdida de información (Vckovski, 1998).

Actualmente, este objetivo está lejos de lograrse por completo, pero los componentes básicos de la interoperabilidad se han definido y

especificado con la publicación de la serie de estándares de datos ISO 191xx, como el esquema espacial ISO 19107 e interfaces OGC,

como el servicio de características web. Estos estándares operan junto con los estándares comerciales de facto, como el shapefile del

Environmental Systems Research Institute (ESRI) y algunos estándares nacionales como el Estándar de Transferencia de Datos

Espaciales de EE. UU. (SDTS) que no han sido reemplazados por el proceso ISO.

Modelado de datos espaciales

Goodchild (1992, p. 36) definió los modelos de datos espaciales como "el marco lógico que usamos para representar la variación

geográfica en las bases de datos digitales". Cuando estaba escribiendo, el principal aparato de representación de SIG había estado bien

definido durante algún tiempo, ya que Burrough (1986) y Samet (1990) escribieron extensamente sobre modelos de datos vectoriales y

raster, que fueron desarrollados e implementados en varias docenas de productos SIG (Raper & Maguire, 1992). Sin embargo, Goodchild

(1992) señaló la necesidad de un modelo de datos espaciales teóricamente demostrable.

Superponiéndose a la génesis del artículo de Goodchild en el período 1990-1995, tal marco teórico evolucionó dentro de dos

grupos distintos. El primer grupo, dirigido por John Herring y Max Egenhofer, desarrolló un modelo de datos espaciales demostrablemente

correcto en términos de topología de conjuntos de puntos (Egenhofer y Franzosa, 1991; Egenhofer y Herring, 1990; Herring 1991). La

topología de conjuntos de puntos es el estudio de vecindarios teóricos (cualquier forma o dimensión) que están formados por un número

infinito de puntos. Si se incluyen los puntos en el límite, los conjuntos de puntos se pueden modelar como

2-30
un conjunto cerrado junto con primitivas de cierre, interior y límite. Dichos vecindarios pueden transformarse conservando sus

propiedades topológicas si existe un camino ininterrumpido desde cualquier punto a cualquier otro punto; un vecindario sin agujeros se

llama "simplemente conectado". Los objetos teóricos se pueden hacer a partir de conjuntos de puntos simplemente conectados, que

pueden denominarse puntos, arcos, bucles y celdas.

La topología combinatoria es el estudio de cómo estos objetos topológicos pueden ensamblarse en objetos

complejos usando puntos (dimensión cero), líneas (una dimensión) y triángulos (dos dimensiones). La teoría de grafos

cubre la manipulación de conjuntos de nodos y aristas que pueden formar objetos. Al incrustar objetos de topologías de

conjunto de puntos, combinatorias o gráficas en un plano bidimensional, se pueden realizar representaciones geométricas.

Egenhofer y Franzosa (1991) mostraron cómo utilizando solo las primitivas de cierre, interior y límite y la teoría de

conjuntos, era posible probar que había solo nueve intersecciones no triviales de las primitivas geométricas. Toda la

estructuración de datos GIS y las operaciones geométricas pueden derivarse de esta demostración (conocida como teoría

de las nueve intersecciones). Extensión de la teoría a regiones no simplemente conectadas (es decir,

Por el contrario, Randell, Cui y Cohn (1992) definieron el Cálculo de conexión de regiones (RCC) en el que la

región y no el conjunto de puntos es fundamental. Hay ocho relaciones RCC entre dos regiones sin agujeros: DC

(desconectado), EC (conectado externamente), PO (parcialmente superpuesto), TPP (parte propia tangencial), NTPP (parte

propia no tangencial), EQ (igual), TPPI (Parte propia tangencial inversa) y NTPPI (Parte propia no tangencial inversa). Las

relaciones RCC se han extendido a regiones / regiones vagas con huecos y se han utilizado en SIG para modelar

relaciones espaciales cualitativas (Cohn, Bennett, Gooday y Gotts, 1997).

Holroyd y Bell (1992) revisaron y evaluaron modelos de datos ráster para SIG utilizando

2-31
conceptos. Un campo teórico es una cantidad medible que se puede definir en cualquier lugar en un número infinito de puntos. Como en el caso

de la topología algebraica, la variación espacial del campo se discretiza utilizando teselaciones geométricas (conjuntos de unidades

bidimensionales, discretas y conectadas). Los teselaciones regulares se pueden formar a partir de triángulos, hexágonos y cuadrados, pero solo

los cuadrados dispuestos en una cuadrícula se usan comúnmente para datos de imagen. Una cuadrícula de celdas o píxeles es fácil de manejar

en computadoras ya que las matrices de memoria son lógicamente similares a la tecnología de imágenes físicas de faxes, escáneres, sensores

satelitales, cámaras, videos y unidades de visualización. Dichos sistemas de imágenes capturan / muestran la reflectancia de una escena del

mundo real para cada píxel de la trama dentro de su rango de sensibilidad en el espectro electromagnético. El enfoque de campo también es

adecuado para almacenar valores muestreados en forma nominal, ordinal, de intervalo o de razón obtenidos en una cuadrícula regular. La forma

más común de datos derivados del muestreo en GISc es la elevación del terreno (datos de relación); sin embargo, cualquier valor de muestra se

puede asignar a una celda, por ejemplo, recuentos de población residencial (datos de razón), factores de riesgo (ordinal) u orígenes / destinos de

viajes (nominal).

Debido a que los GIS son sistemas integrados para el almacenamiento de información y atributos geométricos, cada GIS

debe definir una forma de almacenamiento de datos que sea lo suficientemente eficiente y expresiva para la aplicación y los requisitos

de rendimiento (Laurini y Thompson, 1992). Aparte de algunos sistemas GIS ráster con su propio almacenamiento de datos interno, la

mayoría de los GIS vectoriales y vectoriales / ráster crean una base de datos espacial utilizando un DBMS (sistema de gestión de

bases de datos). Se pueden identificar tres estrategias para la creación de una base de datos espacial. La estrategia más antigua

vincula motores de manejo de topología / geometría especialmente escritos con tablas DBMS relacionales utilizando un código de

identificación para cada característica geométrica, que actúa como el atributo clave en cada tabla relacional (estrategia 1)

(Dangermond, 1983). Los diseños más recientes se adaptan a toda la geometría, topología y atributos en un solo

2-32
primera forma normal o almacenándolos como objetos grandes binarios (BLOB) (estrategia 2) (Abel, 1989). Esto requiere métodos de

indexación espacial como quadtrees para mejorar el rendimiento al realizar consultas espaciales sobre geometría y atributos. Algunos de los

motores de bases de datos de servidores universales, como Oracle, almacenan datos espaciales de esta manera. Un tercer diseño de base

de datos espacial, emplea lenguajes orientados a objetos para crear clases de objetos con atributos heterogéneos (tanto espaciales como no

espaciales) creando objetos espaciales. Estos sistemas orientados a objetos pueden almacenar las instancias de los objetos espaciales en

un DBMS relacional o en un DBMS orientado a objetos (estrategia 3) (Worboys, Hearnshaw y Maguire, 1990).

Las implementaciones contemporáneas de SIG se están volviendo cada vez más centradas en las bases de datos a medida que los

sistemas avanzan hacia la estrategia 2 (soluciones integradas) o la estrategia 3 (enfoques orientados a objetos). Esto ha colocado el diseño y la

personalización de la base de datos en el centro de la implementación de SIG. Los principales proveedores de tecnología DBMS también se están

moviendo hacia el diseño de servidor universal, que es capaz de manejar todo tipo de datos, incluidos los datos espaciales. Esto se ve facilitado

por el desarrollo del estándar multimedia ISO Structured Query Language (SQL) (SQL / MM Part 3 – Spatial), que amplía SQL (y, por lo tanto, el

modelo de datos relacionales) para proporcionar una forma genérica de soporte espacial (y temporal). ) tipos de datos que utilizan tipos de datos

abstractos. Las decisiones de diseño de bases de datos para SIG han sido controvertidas: artículo de Egenhofer (1992) “¿Por qué no SQL? ”Fue

(en parte) una reacción a la propuesta SQL espacialmente extendida de Raper y Bundock (1991) en la reunión Cognitive and Linguistic Aspects of

Geographic Space en 1990. Egenhofer (1992) argumentó que aunque SQL es relacionalmente completo, no tiene suficiente poder como un

lenguaje para gestionar la identidad de las tuplas y carece de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha

proliferado como lenguaje de consulta en los 15 años desde que se escribió el artículo de Egenhofer, no porque estuviera equivocado, sino porque

no había un lenguaje de consulta mejor y más completo. no tiene suficiente poder como lenguaje para gestionar la identidad de las tuplas y carece

de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha proliferado como lenguaje de consulta en los 15 años desde

que se escribió el artículo de Egenhofer, no porque estuviera equivocado, sino porque no había un lenguaje de consulta mejor y más completo. no

tiene suficiente poder como lenguaje para gestionar la identidad de las tuplas y carece de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha

2-33
ha ganado apoyo y una implementación generalizada.

Goodchild (1992) también identificó la necesidad de extender los conceptos en gran parte planos en SIG a 3D y tiempo. Algunos SIG

a principios de la década de 1990 habían desarrollado extensiones para manejar las llamadas superficies 2.5D, adoptando una suposición

simplificadora de que solo puede haber un valor de z por cada valor de x, y, haciendo imposible que la superficie se doble. Las superficies 2.5D

se pueden crear a partir de datos basados en cuadrículas derivados de fotogrametría o datos distribuidos no regularmente de encuestas o

muestreos. En el último caso, los puntos de datos dispersos deben modelarse o interpolarse para crear una estructura de datos de superficie

utilizando algoritmos de aproximación local o de ajuste exacto local (Petrie, 1990).

Sin embargo, en las geociencias muchos geofenómenos del mundo real requieren verdaderas representaciones sólidas en 3D que

encierran el espacio (Raper, 1989). El uso de la investigación sísmica en la tierra, el sonar en los océanos o el radar en la atmósfera producen

grandes volúmenes de puntos 3D, cada uno con la forma x, y, z, t ( formando una tupla). El conjunto de tuplas seleccionadas durante la recopilación

de datos se puede estructurar usando dos estrategias principales: (1) partición de dominio (uso de las tuplas seleccionadas para subdividir todo el

dominio 3D en unidades constituyentes de forma regular o no regular), (2) el conjunto de Las tuplas se pueden estructurar usando la construcción

de entidades (uso de las tuplas seleccionadas para definir entidades dentro del espacio 3D usando elementos geométricos básicos). En general,

la partición de dominio conduce a una representación de tipo ráster y la construcción de entidades conduce al uso de representaciones de tipo

vectorial o función (Jones, 1989).

A diferencia del caso bidimensional donde la geometría vectorial en el plano se ha estandarizado en SIG, en tres

dimensiones el rango de dominios de aplicación es alto y el consenso sobre la implementación ideal es bajo. Se ha propuesto

una serie de enfoques diferentes para las representaciones vectoriales tridimensionales:

2-34
• Pigot (1992) presentó el modelo de tuplas de células tridimensionales basado en complejos celulares de complejidad arbitraria.

• Molenaar (1990) presentó una estructura de datos formal (FDS) basada en objetos de punto, línea, cuerpo y superficie y

Rikkers, Molenaar y Stuiver (1994) mostraron cómo almacenar los datos en un DBMS relacional.

• Pilouk (1996) presentó el sistema de red de tetraedros (TEN) basado en simplices. Gable, Trease y Cherry

• (1996) describieron Geomesh, un sistema que importa modelos paramétricos tridimensionales, triangulaciones

o cuadrículas y crea una malla tetraédrica no estructurada a partir de él.

• Lattuada y Raper (1998) propusieron un sistema basado en tetraedros construido a partir de nubes de puntos. Zlatanova (2000)

• presentó el modelo espacial simplificado (SSM) usando punto, línea, superficie y cuerpo pero omitiendo arcos.

• Mallet (2002) presentó el sistema basado en tetraedros GoCAD construido a partir de superficies.

Cada una de estas implementaciones tiene fortalezas y debilidades y cada una será apropiada para una aplicación específica;

por ejemplo, FDS para modelos urbanos y GoCAD para reconstrucción geológica. Además, los elementos de volumen tridimensionales

(vóxeles) se pueden utilizar para crear modelos basados en cuadrículas (por ejemplo, PMS, Prissang, Spyridonos, Skala y Frömmer,

1996) o modelos tridimensionales con vóxeles de forma variable.

Hacer un seguimiento del cambio espacial implica algunas extensiones del modelo de datos SIG estático conocido como SIG

temporal (Langran, 1992). Básicamente, esto implica realizar un seguimiento de todos los estados de cada objeto en una base de datos

espacial, porque la creación de una nueva capa cada vez que un objeto cambia conduce a una expansión inaceptable de capas. Creando dos

juegos de tablas para manejar

2-35
tanto la identidad del objeto (con filas correspondientes a objetos conocidos por el sistema) como todo el cambio (con filas correspondientes

al cambio en objetos que realmente cambian), es posible almacenar este tipo de cambio discreto para grandes conjuntos de datos sin una

expansión inaceptable del almacenamiento de datos y / o reducción del rendimiento.

Estos enfoques de SIG temporales no son adecuados para otras aplicaciones, como la representación de cambios ambientales

altamente dinámicos con una resolución temporal fina (minutos a semanas) de forma continua, por ejemplo, en los patrones de migración de los

animales o el cambio continuo de las mareas. en la zona costera. En estas áreas de aplicación se han propuesto nuevos diseños de SIG,

basados en gran parte en diseños orientados a objetos (Wachowicz, 1999). Los problemas de diseño clave en los enfoques orientados a objetos

para manejar el comportamiento espacio-temporal implican la elección del enfoque para definir los fenómenos espacio-temporales, como una

manada de animales en movimiento. Por ejemplo, puede utilizar eventos para vincular objetos espaciales en duración temporal para crear objetos

extendidos espacio-temporalmente. Los eventos en el tiempo se almacenan, lo que define diferentes objetos a cada lado de un evento, como la

ubicación de la manada cada semana. Alternativamente, puede hacer del tiempo una propiedad de los objetos para que los objetos tengan una

extensión espacial y temporal, como la línea que sigue una manada de animales mientras se mueven durante un año. Ninguno de estos enfoques

se ha implementado todavía en un SIG comercial convencional, ya que las bases de datos espaciales actuales están optimizadas para el

rendimiento de consultas espaciales y la edición de transacciones largas a gran escala; sin embargo, se han implementado muchos sistemas de

investigación (Raper, 2000). ya que las bases de datos espaciales actuales están optimizadas para el rendimiento de consultas espaciales y la

edición de transacciones largas a gran escala; sin embargo, se han implementado muchos sistemas de investigación (Raper, 2000). ya que las

bases de datos espaciales actuales están optimizadas para el rendimiento de consultas espaciales y la edición de transacciones largas a gran

escala; sin embargo, se han implementado muchos sistemas de investigación (Raper, 2000).

Peuquet (1994) propuso el enfoque TRIAD para el modelado temporal donde todos los geofenómenos se definen por

atributos, referencias espaciales y temporales (qué, dónde, cuándo) para formar un modelo de historia mundial. En contraste,

Roshannejad y Kainz (1995) argumentaron que aunque todos los geofenómenos multidimensionales deben ser referenciados por qué,

dónde y cuándo la información,

2-36
la identidad del objeto debe ser independiente de la referencia.

Sin embargo, procesos como el flujo de las mareas o el movimiento de las lluvias son más o menos imposibles de representar

utilizando SIG, ya que no hay objetos con los que trabajar. En este caso, es convencional utilizar un enfoque ráster en lugar de vectorial,

haciendo que cada celda tenga un tamaño adecuado para la aplicación que se está modelando. Este tipo de modelado dinámico de procesos

multidimensionales tiene como objetivo desarrollar modelos funcionales de comportamiento para estos sistemas (Kemp, 1997).

Finalmente, el tiempo también debe modelarse en el espacio de la red. Con el fin de realizar conceptos geográficos de tiempo

después de Hägerstrand (1968), se han creado varias georrepresentaciones espacio-temporales distintivas. En un estudio de accesibilidad

urbana, Lenntorp (1976) calculó el área a la que podía llegar un viajero desde un lugar determinado, dentro de un tiempo específico. La

zona de accesibilidad se puede representar como un cono en un espacio tridimensional en el que el z el eje es el tiempo. El vértice del cono

está en la ubicación actual y la pendiente de los lados está determinada por la velocidad alcanzable. Si el viaje tiene que terminar en el

mismo lugar en un tiempo determinado, entonces dos conos idénticos de accesibilidad encajan para formar un prisma espacio-temporal.

Miller (1991) implementó el concepto de prisma de espacio-tiempo en Arc / Info GIS como áreas de camino potencial (PPA) al identificar

qué enlaces en una red de caminos eran accesibles en el intervalo de tiempo disponible; O'Sullivan y sus colegas (2000) aplicaron el

concepto al estudio de la accesibilidad del transporte público utilizando isócronas.

Como argumenta Raper (2000), inherente a los modelos de datos vectoriales y raster es su dimensionalidad limitada

cuando el dominio de representación es multidimensional. En un marco multidimensional, la identidad de los fenómenos a representar

es de cuatro dimensiones, describiendo un camino tridimensional a través del tiempo. Cualquier geofenómeno con una identidad

unidimensional, bidimensional o tridimensional es, por tanto, una proyección del mundo tetradimensional y esto con frecuencia

equivale

2-37
a un compromiso representacional con consecuencias inexploradas. En el paisaje, a veces se considera que ciertos accidentes

geográficos existen solo en una minoría de contextos espaciales y temporales, pero pueden tener primacía ontológica. En la sociedad,

las zonas políticas o administrativas pueden delimitarse y funcionar como unidades de distribución de recursos, pero los procesos

socioespaciales pueden girar en torno a agregaciones transitorias o redes no espaciales bastante diferentes. Esta visión de los

requisitos de representación aboga por la representación del espacio-tiempo y no la espacialización de lo temporal para utilizar los

métodos de Raper y Livingstone (1995a) y el lenguaje de Massey (1999). Lograr esto sigue siendo un trabajo en progreso.

Cartografía y visualización

Goodchild (1992) identificó la necesidad de un mayor desarrollo en cartografía y visualización en su agenda de investigación GISc.

En parte, esto fue un llamado a los cartógrafos para que se unieran a la “revolución” de los SIG, ya que la calidad de los resultados producidos

por los SIG era notablemente deficiente en el momento en que estaba escribiendo. Sin embargo, los cartógrafos no siempre han considerado

prioritario mejorar la producción de SIG. En particular, la prisa en los SIG por hacer mapas efímeros a partir de la información de las bases de

datos (por convincente que sea) fue incompatible con el acto representativo considerado que realizan los cartógrafos. Así, en la década de

1980 y principios de la de 1990, la agenda de investigación cartográfica siguió estando impulsada por preocupaciones tradicionales en

comunicación, psicología (comprensión visual de mapas) y semiología (sistemas de signos). Por tanto, los mapas se definen en el Historia de la

cartografía como “representaciones gráficas que facilitan una comprensión espacial de cosas, conceptos, condiciones, procesos o eventos en el

mundo humano” (Harley & Woodward, 1987, p. xvi).

La década de 1980 vio un nuevo enfoque en la semiología de los mapas siguiendo el trabajo anterior de Bertin (1967) y Eco (1976).

Así, Schlichtmann (1985) argumentó que los mapas son sistemas de signos organizados

2-38
en el que la expresión y el contenido están vinculados por un código. Por analogía con el lenguaje natural, argumentó que los signos

mínimos (símbolos de mapa) son "palabras", pero los "macrosignos" (un símbolo de mapa posicionado con atributos) son "oraciones" (p.

248). Head (1984) argumentó que el lector de mapas era responsable de usar los códigos dentro de él, por lo que el mismo mapa evoca

diferentes respuestas. Head (1991) revisó el trabajo sobre mapas como lenguaje natural en el que el mapa está diseñado para transmitir

una proposición compuesta por sujeto, predicado y contexto. En este momento, solo unos pocos cartógrafos estaban preocupados por

cómo un mapa digital podría transmitir signos y proposiciones construidas sobre ellos.

Sin embargo, el interés en la visualización en SIG comenzó a crecer a principios de la década de 1990 cuando se hizo evidente

que las computadoras ofrecían nuevas y poderosas formas de comunicar información gráfica a los usuarios. Fisher y sus colegas (1993)

sugirieron que había tres consecuencias principales de tales cambios impulsados por la tecnología: la disponibilidad de nuevas variables

visuales, nuevas posibilidades computacionales de representación y transformación, y mayores niveles de interacción entre el usuario y el

mapa. Varias comunidades diferentes se comprometieron con estos temas.

Los cartógrafos argumentaron que la visualización era un nuevo modo de interacción con el mapa. Por tanto,

MacEachren (1995) definió la comunicación cartográfica como centrada en los usuarios públicos y la presentación de

relaciones conocidas en niveles bajos de interacción. Lo contrastó con la visualización, que caracterizó como centrada en el

uso privado y la exploración de relaciones desconocidas en altos niveles de interacción. MacEachren (1995, p. 460)

argumentó que "la visualización geográfica (GVIS) representa un cambio sustancial en el énfasis de los mapas como una

herramienta de presentación a los mapas como parte de un proceso de construcción del conocimiento del pensamiento".

Implementado en este sentido GVIS es una fuente altamente efectiva de generación de hipótesis sobre relaciones

específicas. Sin embargo, como señaló Petch (1994) en un ensayo sobre los aspectos epistemológicos de la visualización,

2-39
Hearnshaw y Unwin (1994) editaron una colección de artículos sobre visualización en SIG en los que trajeron las técnicas

de visualización científica (Unwin, 1994) y análisis de datos exploratorios (Tukey, 1977) a SIG. Ejemplos de las técnicas propuestas

en esta colección incluyen animación (Openshaw, Waugh y Cross, 1994), cartogramas (Dorling, 1994) y realidad virtual (VR)

(Bishop, 1994); Raper y McCarthy (1994) demostraron el potencial de la realidad virtual integrada con SIG. Estas herramientas han

pasado a ser ampliamente utilizadas: en Dorling (1995) Nuevo Atlas Social de Gran Bretaña el mapa estándar es un cartograma,

Neves y Câmara (1999) adoptaron técnicas para representar series de datos usando realidad virtual, y las técnicas multimedia

espaciales usan mapeo de video (Ferreira, 1999) e hipermedia espacial (Raper & Livingstone, 1995b). Shepherd (1995) añadió a las

nuevas técnicas consideradas clasificando las fuentes de variación temporal en las visualizaciones según la naturaleza temporal de

la entrada de datos, el dinamismo de la simbología, el cambio de punto de vista del observador, el comportamiento de los elementos

visuales y las características de simulación.

En tercer lugar, Medyckyj-Scott y Hearnshaw (1993) introdujeron las técnicas de investigación de la interacción

persona-computadora en SIG para garantizar que las interfaces de usuario funcionaran de manera efectiva en un entorno integral, incluida

la ergonomía y el diseño del trabajo. El debate clave en HCI y GIS en este momento se refería a la cuestión de si los conceptos del sistema

y las estructuras de datos espaciales podrían alguna vez ser completamente ocultos por una interfaz. Frank (1993) argumentó que no

podría hacerlo con un título sucinto "Uso de sistemas de información geográfica: la interfaz de usuario es el sistema". Por el contrario,

Raper y Bundock (1991) presentaron una arquitectura (Universal Geographic Information Executive) e implementación de una interfaz de

usuario genérica, diseñado para conectarse a cualquier SIG subyacente que admita SQL extendido espacialmente y para ser controlado

por el usuario a través de una interfaz de lenguaje visual. Aunque SQL extendido espacialmente permite la portabilidad entre muchos SIG,

no se sabe que los conceptos en SQL se utilicen en procesos cognitivos humanos.

2-40
mapas. Sin embargo, los lenguajes visuales para interfaces SIG son mucho más prometedores, como demostraron Campari,

Scopigno y Magnara (1990).

En cuarto lugar, se ha realizado mucho trabajo sobre los límites de la filosofía, la ciencia cognitiva, la lingüística y los GISc sobre

esquemas de imágenes tal como se definen en Johnson (1987) Cuerpo en la Mente.

Los esquemas de imagen son patrones de razonamiento compuestos de partes y relaciones que se vuelven significativas por la experiencia

sensoriomotora. Los esquemas de imagen como parte-todo, contenedor y superficie son elementos estructurales de metáforas de interfaz y se

pueden usar en el diseño de interfaces, como demostraron Kuhn y Frank (1991) en un artículo presentado en la reunión Cognitive and Linguistic

Aspects of Geographic Space en 1990. Por lo tanto, los escritorios virtuales funcionan de manera similar a los escritorios reales y los usuarios

pueden transferir fácilmente su conocimiento de un dominio al otro. Se puede adoptar el mismo enfoque en las interfaces GIS para reducir la carga

cognitiva del uso del sistema.

En quinto lugar, la prematura muerte de Brian Harley en 1991 privó a la cartografía de un poderoso escritor y

exponente de la cartografía como arte con influencias políticas y sociales. El artículo de Harley (1989) “Deconstructing the Map”

fue el manifiesto más claro para la cartografía como una empresa distinta de GISc. Dice (Harley, 1989, p. 4): “La

deconstrucción nos impulsa a leer entre líneas del mapa - 'en los márgenes del texto' - y a través de sus tropos a descubrir los

silencios y contradicciones que desafían la aparente honestidad de la imagen." Debido a que ahora hay tan pocos mapas que

no se hacen con SIG, su proyecto habría necesitado algún compromiso con GISc: uno se pregunta a dónde habría llevado

esto.

Mientras tanto, Monmonier se había labrado un nicho único como comunicador de la historia y el impacto sociopolítico de

los mapas para un público más amplio. Su clásico Cómo mentir con mapas

(Monmonier, 1991, p. 1) examinó casos históricos y contemporáneos de mapas engañosos, argumentando que "no solo

es fácil mentir con mapas, es esencial". Siguió esto con obras en

2-41
Cartografías de peligro ( Monmonier, 1997), mapas meteorológicos (Monmonier, 1999), cartografía electoral (Monmonier,

2001), vigilancia y privacidad (Monmonier, 2002), historia social de la proyección Mercator (Monmonier, 2004) y nombres de

mapas (Monmonier, 2006) . Los escritos de Monmonier han llevado la cartografía contemporánea a un público masivo como

ningún otro autor en este campo.

A mediados de la década de 1990 se hizo evidente que era necesario reevaluar la relación de la cartografía con GISc. La

comunicación cartográfica, la psicología cartográfica y la semiología de los mapas tenían pocos puntos de contacto con los SIG, dada su

herencia en bases de datos y gráficos. MacEachren (1995) movió la agenda de investigación cartográfica hacia una correspondencia

más cercana con GISc al señalar que GIS y cartografía compartían una preocupación común por la representación. MacEachren (1995,

pág.

1) dijo: "Explorar mapas como representación forja vínculos importantes entre la cartografía y una variedad de campos afines". La

implicación de este reenfoque fue que la cartografía comenzó a considerar nuevas formas en las que los mapas podrían generar reacciones

cognitivas a partir de la representación espacial utilizada en el mapa. En otras palabras, en lugar de ver el mapa como un mensaje individual

a través del modelo de comunicación cartográfica tradicional, el mapa debe verse como una representación de la cual cada usuario puede

tomar sus propias implicaciones (Montello, 2002). En la búsqueda de este objetivo, Mark (1989, p. 555) comentó que “Es poco probable que

las características y clases de características mostradas en los mapas topográficos correspondan exactamente con los conceptos de

características topográficas que tienen en la mente de los usuarios, ”Señalando que a menudo las características del mapa generalizan o

resumen las entidades del mundo real de manera indocumentada. Este trabajo fue un paso temprano en el desarrollo de una agenda

integrada de cartografía y de investigación GISc.

Herramientas y análisis GIS

2-42
Goodchild (1992) vio la capacidad analítica de un SIG como la recompensa de todo el trabajo en la captura y estructuración de

datos, que en el momento en que estaba escribiendo era una carga significativa. Él caracterizó las herramientas de análisis espacial como

probablemente independientes del SIG, débilmente acopladas o estrechamente acopladas y sugirió que si se pudiera implementar un

acoplamiento estrecho, entonces se explotaría completamente la riqueza del modelo de datos SIG. Sin embargo, aunque se pueden encontrar

ejemplos de cada tipo de análisis espacial, en la década de 1990 se logró mucho menos de lo que predijo Goodchild, tal vez porque todavía

quedaba mucho por hacer en la ingeniería de software básica y la captura de datos en ese momento.

Fotheringham y Rogerson (1994) presentaron una agenda de investigación para el análisis espacial que consta de los

siguientes desafíos de trabajo:

• El problema de la unidad de área modificable (MAUP) Problemas

• de límites

• Interpolación espacial

• Procedimientos de muestreo espacial

• Autocorrelación espacial

• Bondad de ajuste en el modelado espacial

• Resultados dependientes del contexto y no estacionariedad Modelos

• agregados versus desagregados

En los 15 años intermedios, se ha avanzado relativamente poco en MAUP, problemas de límites, muestreo espacial y

bondad de ajuste; estos son todavía problemas de investigación activos.

Openshaw, Charlton, Wymer y Craft (1987) diseñaron los primeros sistemas espaciales independientes

2-43

También podría gustarte