Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1B Chapter2 GIscience (001-043) .En - Es
1B Chapter2 GIscience (001-043) .En - Es
Jonathan Raper
Introducción
información geográfica (GISc). Sin embargo, incluso antes de embarcarnos en este esfuerzo, debemos
preguntarnos: ¿Una subdisciplina de qué? Esta cuestión es objeto de un amplio debate, por lo que una
Fundamentalmente, ofrece al lector varias formas diferentes de leer la literatura. Una característica de GISc es
que, si bien los objetivos de la subdisciplina se comprenden ampliamente, en ella se utilizan muchas
que sigue, entonces, es una visión del mundo personal, anglófona y orientada a la ciencia de un profesor de
El lector también debe notar la perspectiva cambiante a través del tiempo: la propia memoria disciplinaria del autor se
remonta a mediados de la década de 1980; los acontecimientos anteriores se ven a través del lente de la literatura y el folclore
transmitido a través de la disciplina. Después de 2000, resultó más difícil identificar los eventos seminales, quizás porque es más difícil
2-1
La subdisciplina de GISc y sus afiliaciones
El término “ciencia de la información geográfica” fue acuñado por Michael Goodchild a principios de la década de 1990,
cuando GISc se consideraba el contexto teórico para el desarrollo de sistemas de información geográfica (SIG) (Goodchild, 1992). Antes
de mediados de la década de 1990, GISc habría sido reclamado por la geografía, con solo unos pocos informáticos para entrar en una
cavilación. Durante el período posterior de intenso crecimiento, la identidad de esta subdisciplina se vio sometida a la presión de críticas
metodológicas (Pickles, 1995), divisiones disciplinarias (Longley, Brooks, McDonnell y Macmillan, 1998), afirmaciones de organismos
profesionales (DiBiase, DeMers, Johnson, Kemp, Luck, Plewe, et al., 2007) e intenso cambio tecnológico. Durante este período, muchas
otras disciplinas se dieron cuenta del potencial de GISc y comenzaron a utilizar sus metodologías y herramientas en campos donde los
impactos eran a menudo de muy alto perfil. Por ejemplo, podría decirse que GISc es fundamental para el estudio de la propagación de
enfermedades, la definición de riesgo y primas en la cobertura de seguros, el despliegue de fuerzas militares en los campos de batalla y
la selección de servicios basados en información demográfica. Como consecuencia, el desafío y el escrutinio de GISc ha sido
incesante y la autoevaluación ha llevado a altos niveles de introspección sobre el método y los valores.
Quizás buscando una resolución de las cuestiones de identidad, Goodchild, Egenhofer, Kemp, Mark y Sheppard (1999, p. 737)
argumentaron que GISc debería definirse a sí mismo como parte de la ciencia de la información (ISc) sugiriendo que: “La ciencia de la
información en general puede ser definido como el estudio sistemático según principios científicos de la naturaleza y propiedades de la
información. GISc [es] el subconjunto de la ciencia de la información que trata sobre información geográfica ".
Esta caracterización fue desafiante porque en 1999 había pocas colaboraciones disciplinarias entre
2-2
del espacio geográfico en la información. Tal vez haya pocos precedentes de tal autoadopción disciplinaria y, en este caso,
posteriormente no ha habido ningún esfuerzo concertado (¿todavía?) Para definir un programa de trabajo que corresponda a tal
nueva dispensación. Raper (2007) ofrece una de las pocas explicaciones teóricas del territorio teórico (escasamente habitado) entre
ISc y GISc, argumentando que este es de hecho un nuevo y rico dominio para la investigación.
Por tanto, la cuestión de qué disciplina es la madre de GISc permanece abierta: las críticas metodológicas y las divisiones
disciplinarias de finales de la década de 1990 han dejado a GISc con una relación problemática con gran parte de la geografía; la
ciencia de la información ha tenido poco compromiso con su supuesta disciplina infantil. En consecuencia, GISc continúa
desarrollándose rápidamente dentro de su propio contexto único, asumiendo compromisos metodológicos ad hoc con disciplinas
adyacentes y desarrollando su propia matriz e instituciones disciplinarias centrales (Kuhn, 1970). La implicación de este análisis es que
GISc es una multidisciplina perfecta con un núcleo de trabajo de ingeniería de software, datos y teoría y una periferia de compromiso
con disciplinas relacionadas. El presente capítulo será una prueba de esta afirmación.
El dominio de GISc
GISc se define a menudo como la ciencia de la información geográfica (GI), con la implicación de que esta formulación
metodológica puede proporcionar un contexto teórico suficiente para el uso de GIS (Deliinska, 2007). Sin embargo, esta
definición no fundamenta las afirmaciones teóricas de GISc, ni trata de manera satisfactoria la dimensión computacional. Un
punto de partida más seguro para las definiciones sería que GI, GIS, GISc e ISc dependen todos de la “representación” como un
constructo teórico. En este sentido, la representación puede definirse como “la proyección de las entidades, relaciones y
2-3
sus asociaciones y transformaciones ”(Raper, 2000, 4).
Mucha complejidad se esconde dentro de la frase "mundo conceptualizado", y la representación es muy controvertida
teóricamente, caracterizándose en dos extremos como: (a) posible, deseable y fundamental si la metafísica realista, la
posibilidad de la ontología y la validez de las epistemologías positivistas son aceptado; y (b) imposible, indeseable e inútil si se
prefieren el idealismo, el fenomenalismo y el pospositivismo. Los más cercanos al extremo “posible” de este espectro
argumentan que “representamos e intervenimos” (Hacking, 1983, p. 31), reconociendo que aunque hay regularidades en el
mundo, nuestras representaciones son necesariamente conjeturas. Los que se encuentran en el extremo "imposible" del
espectro, como Rorty (1979), sostienen que no existe un espejo de la naturaleza y, por tanto, la representación está
condenada al fracaso como instrumento de comprensión. esquema conceptual Putnam, 1981) puede dar acceso al mundo,
Dentro de ISc y GISc se acepta generalmente la posibilidad de representación. Esta declaración de Batty (1998, p. 4)
captura el sentido de esta convención: “Todo esfuerzo humano debe abarcar lenguajes formales de un tipo u otro para que uno
pueda abstraer la esencia de las cosas para comprender el mundo y luego cambiarlo . " Así como algunos ven la información
como constituida por incrementos de conocimiento (Brookes, 1980) o por diferencia (Mingers, 1997), entonces se argumenta que
la IG puede estar constituida por las dimensiones de lugar, espacio y tiempo (Raper, Dykes, Wood, Mountain, Krause y Rhind,
2002). En los últimos años, las limitaciones de la representación espacial han sido cuestionadas desde diversas direcciones: por
26) sobre la base de que la representación “necesariamente fija, y por lo tanto amortigua y resta valor al flujo de la vida”, pero
también por Peuquet (2000) sobre la base de que la representación bidimensional necesita una extensión a la tercera
dimensión y al tiempo.
2-4
Utilizando un enfoque metodológico basado en la representación podemos situar las distintas ontologías de
• GISc se ocupa de la teoría de la representación espacio-temporal y es el marco teórico para todo el campo
(Raper, 2000).
• La geoinformática se ocupa de las estructuras de datos y la ingeniería de software para GI (Deliinska, 2007). La geocomputación se
• ocupa del modelado computacional de procesos espaciales y temporales en un contexto geográfico (Couclelis, 1998).
Esta tipología y terminología equivale a un mapa de disciplina personal del autor y no se ajusta (por ejemplo) a lo que
proponen los organismos profesionales. Por ejemplo, la Asociación Estadounidense de Geógrafos (AAG) y el Consorcio
Universitario para GISc (UCGIS) han propuesto un Cuerpo de Conocimiento para GISc, que toma como sus subdivisiones de
nivel superior: GISc, aplicaciones de ciencia y tecnología GI y tecnología geoespacial. Sin embargo, esto se centra más en las
Por lo tanto, algunos en GISc se preocupan por la representación del espacio geográfico y no consideran el software; otros
trabajan exclusivamente en ingeniería de software o modelado para SIG. Sin embargo, existe un aprecio igual por estos diferentes
modos de investigación, cada uno de los cuales contribuye a la resolución de problemas en otras disciplinas cuando existe la
necesidad de representar aspectos del espacio geográfico. Por lo tanto, GISc es poliepistemológico y abarca la ciencia (inducción,
deducción y abducción) y las ciencias sociales (etnografía y teoría social crítica), con la ciencia como
2-5
modo dominante. Esto se debe quizás a que la comunidad de aquellos que participan en GISc tienen sus propias disciplinas y
metodologías de origen y aportan al uso de GISc y GIS sus propios métodos y sus propios tratamientos de representación.
Sin embargo, el uso de SIG implica el uso de representaciones computables; como tales, son incompatibles con el pospositivismo
y el fenomenalismo. Por lo tanto, algunos han desarrollado teorías de GISc pero han evitado la implementación de GIS, como el proyecto
Naïve Geography (Egenhofer & Mark, 1995). Tenga en cuenta también que las representaciones espaciales, como los mapas, todavía
tienen el poder de dar forma a un debate y aquellos que niegan la base de la representación todavía, en algunos casos, utilizan GISc en la
investigación (sin aparente temor a la autocontradicción). La mera existencia de representaciones espaciales puede impulsar cambios, por
ejemplo, cuando los mapas muestran derechos tradicionales sobre la tierra (Weiner, Warner, Harris y Levin, 1995). GISc es un entorno de
investigación disciplinaria inusual que se ha vuelto exitoso al involucrar a una amplia gama de investigadores en algunas conversaciones
estimulantes y multidisciplinarias.
La literatura de GISc
Existe un estudio emergente de la literatura de GISc dentro de ISc. Michalec y Welsh (2007) estudiaron SIG ( sic.) publicar
tendencias en ISc entre 1990 y 2005 mediante la búsqueda de "sistemas de información geográfica O geoespacial" en el Bibliotecología
y ciencia de la información y Resúmenes de biblioteca, ciencia de la información y tecnología bases de datos. Encontraron 146 artículos
SIG en 69 publicaciones diferentes de ISc de 228 autores, de los cuales el 57 por ciento eran bibliotecarios académicos o académicos
de ISc. El escrutinio de la lista de publicaciones recuperadas muestra muchos artículos de boletines y revistas; el número de artículos
de revistas es un orden de magnitud menor. El número total anual de publicaciones aumentó en general durante el período de estudio,
2-6
desde números bajos y estables (2 a 4) hasta números más altos y volátiles (10 a 20) a mediados de la década de 1990. La afiliación
del autor (ya sea ISc o GISc) no siguió ninguna tendencia clara durante el período. El estudio de los artículos seleccionados de las
bases de datos de este estudio sugiere una división en esta literatura entre "SIG para la investigación en el mundo" y "SIG para la
investigación en la biblioteca". El desarrollo de la tendencia “mundial” sugiere que los aspectos informativos de GISc están siendo
recogidos como temas de investigación importantes dentro de GISc. Así, en opinión de GISc, ISc se está sumando a la red
Por el contrario, Arciniegas (2007) estudió los patrones de coautoría dentro de GISc. Empezando por el Revista
Internacional de Sistemas / Ciencia de Información Geográfica (IJGIS) ( 1988-2006) como la revista principal de la subdisciplina,
identificó a los principales autores de publicaciones (TPA) en esta revista (más de cuatro artículos cada uno) y luego definió un
corpus de 72 revistas en las que estos autores habían publicado colectivamente más de dos artículos entre 1991 y 2003. Ella
construyó una pequeña matriz con, en un eje, el número de artículos IJGIS / IJGISc publicados por las APT (llamado
productividad del autor) con celdas para solo dos, tres o cuatro artículos, y, en el otro eje, el número de artículos publicados por
los TPA en las 72 revistas del corpus (llamado productividad de revistas) con celdas para solo cuatro o cinco artículos. Esto
tuvo el efecto de definir seis conjuntos anidados de revistas (2 por 3) que cada uno tenía diferentes propiedades de proximidad
disciplinaria a la revista principal. Estas redes de revistas (que definen conjuntos de artículos que van desde 21.000 a 61,
Arciniegas (2007) señala que el 60 por ciento de los autores contribuyen solo con un artículo en este corpus, lo que sugiere
que la mayoría de los autores no están usando esta literatura como su literatura de origen, lo que respalda la sugerencia de que GISc es
verdaderamente multidisciplinario. Esto significa que las medidas estándar, como el número medio de artículos por autor, no representan
la productividad real de
2-7
investigadores en esta área, sino que mide su nivel de participación en la red (y subdisciplina). La relación de la ley de poder entre el
número de artículos y el número de autores no se mantiene en su totalidad, ya que la relación se rompe para los grandes equipos de
autoría en GISc. Los patrones de colaboración son similares a las subdisciplinas como HCI (interacción humano-computadora) con un
número medio de colaboraciones por autor de alrededor de cinco. El trabajo sobre la topología de las redes de colaboración muestra que
hasta el 50 por ciento están conectados al subcomponente más grande de las redes de revistas definidas, con hasta un 20 por ciento de
autores totalmente aislados (posiblemente estos artículos informan sobre métodos de comunidades bastante separadas).
Este trabajo preliminar de Arciniegas (2007) está comenzando a arrojar algo de luz sobre la naturaleza de la erudición
en GISc y su relación con la beca en ISc. Sin embargo, también indica la enorme tarea que se ha asignado a este revisor: la
literatura de GISc es al menos comparable en tamaño a toda la literatura de ISc ( sensu strictu). Nadie sugeriría una revisión
sobre "Ciencias de la información" en las páginas de ARIST; sin embargo, eso es lo que esta revisión intenta hacer ahora para
Antepasados
Utilizando las definiciones del dominio de GISc proporcionadas, es posible rastrear los antecedentes de GISc
hasta la historia de la geometría y la cartografía (Raper, 2000). Así, la contribución de los elementos de Euclides en la
época griega antigua y la formalización de coordenadas planas por Descartes en el siglo XVII se puede ver en el diseño
de la primera serie de mapas europeos en el siglo XIX (Crosby, 1997). En la primera mitad del siglo XX, matemáticos y
2-8
procedimientos computacionales en los que se basarían los SIG posteriores.
De la misma manera, ISc puede rastrearse hasta los fundamentos de la clasificación en Aristóteles y la codificación del alfabeto
romano en la época clásica. En los siglos posteriores al desarrollo de la imprenta por Gutenberg a mediados de la década de 1400, la
publicación creció de manera constante hasta que la proliferación de material publicado requirió esquemas de clasificación como el
sistema decimal Dewey a fines del siglo XIX. En la primera mitad del siglo XX, las contribuciones de los bibliotecarios incluyeron las leyes
de dispersión de Bradford en la literatura de las revistas y la clasificación de facetas fundamentales de Ranganathan (1933) (Vickery,
1994).
Hay una cierta simetría en estas dos caracterizaciones: ambas tienen orígenes clásicos, desarrollos fundamentales del
siglo XIX y teorizaciones de principios del siglo XX que abarcan las artes y las ciencias. Estos desarrollos fueron impulsados por
experiencias comunes desde el principio (en dibujo y escritura), luego se expandieron en gran medida por las necesidades de las
autoridades administrativas en el siglo XIX, y se enriquecieron teóricamente a principios del siglo XX. Sin embargo, a pesar de
estas simetrías en sus antecedentes intelectuales, estas dos disciplinas se crearon y han evolucionado de manera bastante
diferente, tal vez explicando el compromiso relativamente limitado entre ellas hasta la última década.
La cartografía y la geodesia fueron los más importantes de estos precursores de GISc de principios del siglo XX, con una historia
intelectual que se remonta a la época clásica. Para 1900, las preocupaciones de la cartografía se centraban en gran medida en las
necesidades de los programas de cartografía que estaban en marcha o a punto de completarse en América del Norte, Europa occidental y
el subcontinente indio. Discusiones (finalmente abortadas) sobre la creación del Mapa Internacional de la escala 1: 1 millón de
2-9
World tuvo lugar en sucesivos Congresos Geográficos Internacionales desde 1891 hasta 1913 (Heffernan, 2002). Estos programas también
requirieron una gran cantidad de trabajo geodésico para establecer el control terrestre para las operaciones de mapeo utilizando métodos de
levantamiento tradicionales, especialmente donde se necesitaban mapear grandes áreas despobladas en el oeste de EE. UU., Canadá,
Rusia, India y Australia. Este trabajo condujo a rápidos avances en la proyección de mapas, el foto mosaico aéreo, el diseño de cuadrículas
Con la Primera Guerra Mundial vino un imperativo urgente para producir mapas a gran escala del conflicto; Se
realizaron experimentos con fotografía aérea para la elaboración de mapas, lo que aceleró el desarrollo de cámaras,
estereoplotters fotogramétricos y la impresión de detalles de mapas (Collier, 2002). Estos desarrollos continuaron durante las
décadas de 1920 y 1930 con un creciente patrocinio militar. Durante este período, la fotografía aérea y la fotogrametría se
desarrollaron hasta el punto en que se volvieron más rentables para el mapeo topográfico que los métodos tradicionales basados
en levantamientos terrestres, aunque los levantamientos continuaron utilizándose en países bien cartografiados como el Reino
Unido. Esta fue también la era en la que los mapas fueron utilizados para promover el automovilismo por las empresas
petroleras; por ejemplo, en 1934 Rand McNally produjo 70 millones de mapas de carreteras de EE. UU.
La Segunda Guerra Mundial trajo nuevos impulsores para la cartografía y nuevas investigaciones, principalmente impulsadas por
cartógrafos militares. Por ejemplo, existía la necesidad de producir modelos de terreno para apoyar las operaciones militares y muchas formas
de mapas especializados y fotografías aéreas. Cloud (2002, p. 264) describió la movilización de personal de cartografía militar y civil en los
Estados Unidos durante la guerra como probablemente "la mayor transformación en la historia de la cartografía estadounidense". Los
materiales cartográficos y geodésicos incautados del colapso de la Alemania nazi en 1944-1945 por el oficial de inteligencia militar del ejército
2-10
recurso estratégico. La tecnología nuclear y de misiles también se estaba desarrollando rápidamente y necesitaba cartografía e
información geodésica para su uso eficaz. Cloud (2000) argumenta que el secreto asociado con gran parte de este trabajo en tiempos
de guerra se extendió a la Guerra Fría de las décadas de 1950 y 1960, ocultando así muchos avances académicos sobre geodesia y
cartografía (en ambos lados del conflicto) hasta la reciente desclasificación de este material.
Después de la Segunda Guerra Mundial, las experiencias de la cartografía militar y la reanudación del crecimiento
representaciones espaciales computables. Así, 1952 vio la publicación del manual de métodos analógicos de producción de mapas
de Monkhouse y Wilkinson (1952) y de Robinson (1952) El aspecto de los mapas, que exploró el diseño de mapas y fundó una
tradición de investigación cognitiva que ha tenido implicaciones significativas para GISc (Montello, 2002). McMaster y McMaster
(2002) examinan el trabajo de Arthur Robinson, George Jenks y John Sherman en el desarrollo de la cartografía estadounidense en
la década de 1950; Fabrikant (2003) evalúa el trabajo de académicos europeos como Eduard Imhof, Arkadi Preobrazenskij y
Wolfgang Pillewizer. A fines de la década de 1950, Tobler (1959) proponía la cartografía automatizada mediante computadoras;
fundó una escuela de cartografía analítica, que evolucionó durante varias décadas para abarcar los fundamentos matemáticos de la
Gran parte de la investigación cartográfica en la década de 1960 se basó en la resolución de problemas impulsada por aplicaciones en
la que los investigadores tenían que construir su propio hardware, escribir su propio software y recopilar sus propios datos desde cero. Un ejemplo
es el trabajo de Coppock sobre el censo agrícola de Inglaterra y Gales a mediados de la década de 1960, en el que enfrentó la posibilidad de usar
60.000 cálculos sobre registros de producción agrícola en parroquias civiles para preparar mapas de
2-11
cambio agrícola (Coppock, 1964). La necesidad de automatizar estos cálculos se convirtió en un poderoso impulsor del uso de computadoras
para el análisis de datos y la elaboración de mapas. En los últimos años, también se ha hecho evidente que el sector militar estaba
desarrollando rápidamente tecnología para la teledetección por satélite durante la era de la Guerra Fría (Cloud y Clarke, 1999).
Dos vías de desarrollo iniciadas en la década de 1950 sentaron bases importantes para el desarrollo posterior de
GISc. El primero condujo a una nueva tecnología cartográfica y de imágenes que incluye computadoras, pantallas gráficas y
herramientas de captura de datos como digitalizadores que permitieron a los geógrafos, planificadores, arquitectos
paisajistas, geólogos y otros automatizar la producción de mapas y análisis espacial. Hoy en día es difícil imaginar una era
pre-digital en la que incluso la captura de datos en formas digitales básicas era compleja y consumía mucho tiempo. Un
número especial de Cartógrafo estadounidense ( Reflexiones sobre la revolución: la transición de las representaciones del
espacio analógicas a las digitales, 1958-1988) cuenta la historia hasta un punto clave. Los autores sintieron que estaban
haciendo balance después de una revolución; poco sabían los desarrollos masivos que vendrían incluso en los próximos
cinco años, y mucho menos en los próximos veinte. Las contribuciones a ese número especial cubren los desarrollos en
algunas de las instituciones clave a fines de la década de 1960: Tomlinson (1988) sobre innovaciones en la captura de datos
en el SIG de Canadá, Rhind (1988) sobre tecnología cartográfica en la Unidad de Cartografía Experimental del Royal
College of Art y Chrisman (1988) sobre los primeros programas informáticos como SYMAP en el Harvard Graphics Lab.
Estos relatos ofrecen información real sobre cómo se realizaron los desarrollos tecnológicos clave y los motivos muy
La otra vía de desarrollo que tuvo una influencia posterior crucial en GISc fue el trabajo en modelos informáticos en
2-12
Grandes volúmenes de datos de exploración de petróleo llevaron a un interés temprano en aplicaciones informáticas (Krumbein &
Sloss, 1958). Merriam (1999) revisa el trabajo inicial en esta área, que se centró principalmente en el modelado, clasificación,
modelado y simulación de contornos. La primera monografía clásica de Harbaugh y Merriam (1968) cubría, entre otras cosas, los
sistemas de información, las técnicas de mapeo y los sistemas de clasificación en un estilo que, aparte de las secciones sobre tarjetas
perforadas, todavía tiene sentido hoy. Este trabajo fundó una tradición de representación espacial en la tierra y las ciencias
ambientales que conduciría a un trabajo fundamental en áreas como kriging (teoría de variables regionalizadas) y teoría del caos, que
La colección editada Modelos en Geografía ( Chorley & Haggett, 1967) se convirtió en el trabajo fundamental en
geografía cuantitativa a finales de la década de 1960; se dividió entre modelos de geografía humana y modelos físicos y de
información en geografía. Este trabajo marcó una ruptura entre la geografía descriptiva de principios y mediados del siglo XX y
la era del modelado geográfico cuantitativo que dominó los siguientes 20 años de investigación en estos campos (MacMillan,
1989). Estos modelos se basaron en la misma representación espacial que GISc tomó más tarde como base, en un momento en que las
computadoras se estaban volviendo más comunes en la investigación. Sin embargo, aunque hay un artículo del cibernético FH George en la
colección "Modelos" de 1967, el trabajo no da ningún sentido de la posibilidad de representaciones espaciales computarizadas que
abarquen subconjuntos significativos de la ciencia del sistema terrestre o sistemas sociales de cualquier escala real. El artículo de Board
(1967), "Mapas como modelos", menciona las computadoras como una ocurrencia tardía en una discusión sobre el análisis de superficies de
tendencias; simplemente era imposible prever el alcance futuro de los SIG y la representación espacial en ese momento. Las contribuciones
más importantes fueron la extensión de la teoría de sistemas a modelos espaciales y el desarrollo de modelos espaciales estocásticos.
2-13
representación como herramienta de diseño, análisis y debate público con las obras clásicas de Lynch (1960) ( Imagen de la Ciudad) y
McHarg (1967) ( Diseño con naturaleza). McHarg hizo el primer uso analítico extensivo de las técnicas de superposición de mapas al
analizar la idoneidad del sitio, como para una nueva carretera, aunque existen otros candidatos para el inventor de la superposición. Ni
Lynch ni McHarg trabajaron mucho con computadoras, pero los marcos analíticos que desarrollaron se prestaron muy bien a la
implementación posterior de SIG y ambos trabajos son muy citados en la literatura contemporánea. El modelado urbano comenzó en
los Estados Unidos a mediados de la década de 1960 y abarcó el uso del suelo y el transporte; estos modelos fueron revisados por
Batty (1989).
Otras dos publicaciones a fines de la década de 1960 que tuvieron una enorme influencia más tarde fueron las de Bertin
(1967) Semiologie Graphique ( no publicado en inglés hasta 1983), que presentaba un conjunto de principios que se han convertido en
la base del diseño cartográfico y la geovisualización, y La difusión de la innovación como proceso espacial por Hägerstrand (1968),
Rastrear la coevolución disciplinaria de ISc y GISc a lo largo de la segunda mitad del siglo XX es, por tanto, una tarea
compleja. ISc surgió por primera vez como una disciplina académica a principios de la década de 1960 cuando el Instituto de
Tecnología de Georgia, la Universidad de Drexel y la propia institución del autor, City University, Londres, establecieron
departamentos académicos pioneros en ISc, basándose en desarrollos anteriores como la fundación de la American Documentation
Institute en 1937 y la Royal Society Scientific Information Conference de 1948. Por el contrario, GISc no se constituyó formalmente
hasta la década de 1980 y el siglo XX. La investigación de lo que posteriormente se convirtió en GISc debe encontrarse en una
amplia gama de disciplinas que incluyen cartografía, geodesia, geografía, geología. , planificación, psicología, lingüística y
antropología.
2-14
Investigación de precursores de GISc en las décadas de 1970 y 1980
En 1970, la idea de que las representaciones espaciales podían hacerse computables y producir resultados útiles se había
arraigado y muchos investigadores del mundo académico y de la industria se dedicaron a automatizar el tipo de análisis que antes se
realizaba manualmente, como el modelado de superficies de tendencias o la superposición de mapas. En ese momento, los programas
individuales se escribían para tareas espaciales de nivel bastante bajo (Douglas, 1974) y el nivel de integración era limitado (Tobler, 1970b).
También hubo una duplicación generalizada del esfuerzo (de programación) (Baxter, 1976), que comenzó a declinar con los contactos entre
disciplinas y continentes, tal vez culminando en la celebrada conferencia de Harvard sobre estructuras de datos topológicos para SIG de
1977.
Los procedimientos de esta conferencia clave fueron encuadernados y ahora son bastante raros; sin embargo, los
artículos son excelentes y todavía están llenos de conocimientos y desafíos 30 años después, un logro poco común en cualquier
área de la informática. Por ejemplo, Sinton (1977) proporciona un ensayo inicial sobre la organización de registros de datos y las
necesidades de los usuarios antes de que realmente existieran los sistemas para ejemplificar esta necesidad; Bouillé (1977)
describió una estructura de datos orientada a objetos para cartografía basada en Simula 67 que fue el precursor de sistemas
modernos como Smallworld GIS; Gold (1977) argumentó el caso de las redes irregulares trianguladas como una estructura de datos
GIS de propósito general; Chrisman (1977) presentó un ensayo sobre conceptos de espacio y estructuras de datos; y Reed (1977)
Paralelamente a estos desarrollos técnicos, el estudio del espacio estaba experimentando un "giro cognitivo" en la década
de 1970, ilustrado clásicamente por el libro de Gould y White (1974) Mapas mentales, que exploró las percepciones del espacio y el
lugar. Este tipo de geografía conductual tenía como objetivo estudiar la imagen mental del entorno creado y luego utilizado por el
2-15
para la toma de decisiones, por ejemplo, para el comportamiento de viaje (Golledge y Rushton, 1976). En esta tradición, Downs
y Stea (1973) exploraron los mapas cognitivos humanos y el mapeo ambiental realizado por los individuos para comprender sus
entornos de vida. Robinson y Petchenik (1976) exploraron los mapas como sistema de comunicación, basando su modelo en la
teoría matemática de la comunicación (Shannon y Weaver, 1949). En este modelo de comunicación cartográfica el mapa es un
canal del mundo al usuario, en el que el “ruido” puede interferir con la transmisión del mensaje (p. 8). De hecho, el usuario tiene
conocimientos existentes; esto es tan importante para la comprensión del mapa como la naturaleza del canal.
La década de 1970 también vio los primeros trabajos sobre análisis espacial: el estudio de patrones y distribuciones en IG. Cliff y
Ord (1973) escribieron una explicación fundamental de la autocorrelación espacial, es decir, el potencial de una variable espacial para
correlacionarse espacialmente con otra; el uso de estadísticas de autocorrelación se ha convertido en una técnica clave en la geografía
humana cuantitativa moderna. Getis y Boots (1978) estructuraron y formalizaron el análisis espacial por primera vez, dividiendo sus técnicas
en análisis de patrones de puntos, líneas y áreas y utilizando la distribución de Poisson para las pruebas de significación espacial. Unwin
(1981) dio una explicación similar pero se centró más de cerca en análisis de mapas y operaciones de adición en superficies. Pred (1977)
Este período también vio la primera publicación de datos de observación de la Tierra de nuevos satélites civiles de teledetección. Los
EE. UU. Y la Unión Soviética habían estado utilizando satélites espías como el sistema Corona de EE. UU. Desde principios de la década de
1960 (Cloud & Clarke, 1999), pero el lanzamiento de Landsat 1 de la NASA (Administración Nacional de Aeronáutica y del Espacio) en 1972
marcó el comienzo de una nueva era de datos de teledetección disponibles públicamente. Los voluminosos datos requirieron un análisis de
computadora central para realizar el procesamiento de imágenes para la evaluación de los recursos terrestres, la evaluación meteorológica y la
cartografía de la vegetación.
2-16
Mirando hacia atrás en la literatura actual, este trabajo temprano en la década de 1970 sobre representación espacial, SIG y
geografía del comportamiento estaba teniendo lugar en una burbuja metodológica, herméticamente sellada de los turbulentos debates de la
ciencia contemporánea y las ciencias sociales. Por lo tanto, no hubo un compromiso aparente con la filosofía de la ciencia (por ejemplo, la
imposibilidad de la observación libre de teoría, Feyerabend, 1975), la ciencia cognitiva (por ejemplo, la representación y la realidad, Rorty, 1979)
o la ciencia política (por ejemplo, el capitalismo y la ciudad, Castells, 1977) a principios de GISc. Cuando esta burbuja estalló a mediados de la
Esta desconexión con debates de investigación más amplios continuó durante la primera mitad de la década de 1980 cuando los que
trabajaban en SIG se centraron en el diseño de sistemas (Dangermond, 1983), la captura de datos (por ejemplo, herramientas de digitalización,
Peuquet & Boyle, 1984) y los algoritmos (por ejemplo, datos de censos). estructuras, Marx,
1986) en lugar de representación y cognición. Los artículos del primero de la serie de conferencias duraderas sobre el manejo de datos
espaciales (iniciado por Duane Marble y Kurt Brassel y patrocinado por la Unión Geográfica Internacional) se llevó a cabo en Zurich en
1984 e ilustraron el enfoque limitado de GISc en este momento con el énfasis en captura de datos, estructuras de datos y bases de datos;
sólo dos artículos sobre sistemas basados en el conocimiento quedan fuera de esta definición. Peuquet y Marble (1990) editaron una
Hubo algunos tratamientos teóricos significativos de la representación espacial durante principios y mediados de la década
de 1980, por ejemplo, Goodchild (1980) sobre fractales y medidas geográficas, Evans (1980) sobre análisis del terreno, Cliff y Ord
(1981) sobre procesos espaciales, Hillier y Hanson (1984) sobre sintaxis espacial y Couclelis y Gale (1986) sobre espacios alternativos.
Este trabajo fue concebido en gran parte antes de cualquier concepción desarrollada de GISc, aunque sus técnicas fueron absorbidas
más tarde por GIS. Peuquet (1984) publicó la declaración definitiva sobre modelos de datos y estructuras de datos para SIG y
2-17
y generalización en el procesamiento y análisis de datos de línea. En la subdisciplina paralela del procesamiento de imágenes por
teledetección, Díaz y Bell (1986) editaron una importante colección de artículos que reunían el estado del arte en aritmética teseral y
estructuras de datos ráster (basadas en matrices), algunas de las cuales han sido influyentes en GISc.
En algún momento entre 1986 y 1990, el mercado de GIS comenzó a expandirse extremadamente rápido y la
investigación de GISc siguió su ejemplo. Los factores que contribuyeron al software incluyeron la disponibilidad de estos desarrollos:
• de bajo costo
Se lanzaron al mercado decenas de sistemas comerciales y se desarrolló una burbuja clásica con una gran inversión en
productos inmaduros en un mercado inmaduro. Para el año 2000, los 30 a 50 SIG disponibles en 1990 se habían reducido a menos de
diez debido a la consolidación y las fallas del mercado. En el momento de redactar este informe, solo hay realmente tres proveedores
de SIG en el mercado con una presencia comercial global real: ESRI, MapInfo e Intergraph.
En el lado de la investigación, los eventos importantes en 1986-1988 incluyeron el lanzamiento de nuevas entidades:
2-18
• Revista Internacional de Sistemas de Información Geográfica (IJGIS) ( 1987)
• Informe del gobierno del Reino Unido (Chorley) sobre Manejo de información geográfica ( 1987)
El último de ellos fue uno de los avances más significativos en el ámbito de la investigación. El NCGIA fue un programa de
investigación de la National Science Foundation de 50 millones de dólares lanzado en 1988 (y finalmente financiado durante diez años) con
equipos de investigación en SUNY Buffalo y la Universidad de Maine en Orono y dirigido por la Universidad de California en Santa Bárbara.
El NCGIA apoyó 20 iniciativas de investigación sobre temas clave de investigación de SIG, cada una de las cuales organizó una reunión de
especialistas y forjó relaciones nacionales e internacionales que desempeñaron un papel crucial en la construcción de una subdisciplina a
partir de elementos tan diversos. El liderazgo intelectual de los miembros de NCGIA Goodchild, Frank, Egenhofer, Mark, Batty y muchos
Rhind (1989) da una idea del enorme ritmo de cambio en este momento, con una posdata insertada después de su capítulo
en Remodelación de la geografía señalando los cambios desde su presentación original en 1987 y la presentación del capítulo en
1988. Cox (1989) en el mismo volumen tomó una visión más escéptica de la revolución GIS sugiriendo que el impacto de GIS podría
limitarse al trabajo inductivo en grandes conjuntos de datos, que caracterizó como un nuevo empirismo, presagiando un debate por
venir. Lo que todavía estaba oscuro en ese momento era el impacto que la transición digital tendría más adelante en todos los
Fusión
Naming e identidad
2-19
A principios de la década de 1990, se estaban tejiendo varios hilos para crear la subdisciplina de GISc y ayudarla a crecer muy
rápidamente. Incluyeron una rica historia de trabajo sobre representación espacial en cartografía, geografía y planificación; un conjunto bien
desarrollado de estructuras de datos y arquitecturas de bases de datos suficientes para conjuntos de datos de tamaño moderado; nuevo y
potente hardware que baja rápidamente de precio; una industria de software bien financiada que crea muchos productos nuevos; e
inversiones de muchas instituciones en todo el mundo en la digitalización de una amplia gama de indicaciones geográficas, incluidos mapas y
datos estadísticos. El resultado fue una burbuja académica y comercial que duró una década, a la que siguió un crecimiento sostenido y la
integración con otras disciplinas. Sin embargo, lo que ahora llamamos GISc y entendemos como una subdisciplina tenía una identidad mucho
En 1990, todos los que trabajaban en esta área entendieron que el campo de investigación se llamaba SIG, que se
adaptaba a lo que todos estaban haciendo con el software. Sin embargo, la gama de nomenclatura utilizada por las
instituciones, publicaciones y conferencias fue muy diversa, incluido el manejo de datos espaciales (conferencia de la Unión
Geográfica Internacional), cartografía automatizada (conferencia del Congreso Americano de Levantamientos y Cartografía),
sistemas de información urbana y regional (asociación epónima ) y geomática (nombre institucional para organizaciones que
cubren mapeo, topografía y SIG, utilizado por primera vez en Canadá). Después de mediados de la década de 1990, algunas de
las conferencias GIS (como EGIS y GIS / LIS) desaparecieron y se fundaron nuevas conferencias “más GISc”, como COSIT,
GeoComputation y GIScience. Una biblioteca con enlaces a muchas de las conferencias, libros, revistas,
Junto con los diferentes nombres, iban distintas tradiciones intelectuales que iban desde la cartografía, la planificación
y el diseño hasta la ingeniería topográfica, la geodesia y la informática. Los trabajos de los primeros años de IJGIS provienen de
2-20
uno al lado del otro sin ninguna preocupación por sus visiones del mundo incompatibles. En este contexto, el liderazgo intelectual de
Mike Goodchild (1992) en su (exitoso) intento de definir un nuevo enfoque disciplinario en torno a la “ciencia de la información
geográfica” (en una conferencia en la conferencia Spatial Data Handling de 1990) fue de gran importancia simbólica y práctica. . El
nombre GISc localizó y definió una actividad de investigación en representaciones espaciales computables y proporcionó un dominio
central en el que la geoinformática, la geocomputación y la geovisualización podrían conectarse. Goodchild también defendió las
afirmaciones distintivas de GISc a través de su discusión de la pregunta "¿son únicos los datos espaciales?" Su argumento, apoyado
por Anselin (1989), ¿Es que las dos (tres? cuatro?) dimensiones continuas de la representación espacial sobre la superficie de la tierra
exhiben escala y dependencia espacial y que estas propiedades califican a GISc como una subdisciplina con reclamos de conocimiento
distintos y desafiantes. La subdisciplina dinámica (pero esquizofrénica) ha prosperado en las dos décadas transcurridas desde esta
contribución fundamental.
Como en la mayoría de las disciplinas, hay una serie de problemas centrales en GISc que pueden ser
caracterizados como grandes desafíos, que ejemplifican gran parte de la investigación que no está orientada a la aplicación o la
"ciencia normal" repetitiva. Goodchild (1992) estableció una agenda de investigación para definir estos desafíos; Esta revisión analiza
su agenda y la utiliza como marco para explorar la investigación en GISc en la década de 1990. El efecto de la transición digital y la
Representación y percepción
La primera pregunta que Goodchild (1992) identificó en su agenda de investigación fue la cuestión de
2-21
cómo la representación espacial debe conectarse a la percepción humana a través de modelos de datos. Es
posible que haya sido influenciado en esto por el Instituto de Estudios Avanzados en Aspectos Cognitivos y
Lingüísticos del Espacio Geográfico (CLAGS), financiado por la OTAN (Organización del Tratado del Atlántico
Norte), celebrado en España dos semanas antes de su discurso de apertura de 1990 (Mark & Frank, 1991).
La reunión fue patrocinada por el Centro Nacional de Información y Análisis Geográficos de EE. UU., Del que
fue director. La reunión CLAGS reunió a destacados científicos IG con algunas figuras clave de la ciencia
cognitiva como Zenon Pylyshyn y de la lingüística como George Lakoff y Leonard Talmy. El encuentro generó
En la reunión de CLAGS se presentó la primera investigación sobre orientación humana en la que se suponía que las
computadoras prepararían y entregarían representaciones espaciales para ayudar a las personas a navegar. Este trabajo requirió una
comprensión de los conceptos humanos de espacio (Nunes, 1991) y habilidades espaciales (Blades, 1991), una comprensión de la tarea
de navegación (Gluck, 1991), el lenguaje espacial utilizado para presentar direcciones (Kuhn y Frank, 1991) y las representaciones y
herramientas necesarias para entregar el enrutamiento. Golledge (1992) realizó más trabajos sobre estos problemas a lo largo de la
década de los noventa (las personas tienen conocimientos espaciales, pero a veces escasas habilidades de inferencia espacial); Campbell
(1993) (el desapego cognitivo crea lugares); Car y Frank (1994) (la búsqueda de caminos humana exhibe un razonamiento jerárquico); y
Fohl, Curtin, Goodchild, y Church (1996) (las estructuras de datos SIG necesitan navegabilidad para su uso con la orientación). Después
de mediados de la década de 1990, la investigación en GISc y psicología comenzó a realizarse en colaboración, como el trabajo de
Lovelace, Hegarty y Montello (1999) (identificación de factores de éxito para una buena orientación).
2-22
Es axiomático en cualquier discusión sobre IG que existe una dependencia de escala en los
fenómenos espaciales y nuestra percepción de ellos y que la representación espacial necesita poder manejar
múltiples niveles de detalle. En un artículo importante, Freundschuh y Egenhofer (1997) argumentaron que los
espacios a pequeña escala (perceptibles de una vez) y los espacios a gran escala (percibidos al viajar a
través de ellos) son cognitivamente diferentes y que estas distinciones son constitutivas de diferentes
entidades. Por lo tanto, puede ser que la escala funcione como un control de encuadre que selecciona y hace
que las entidades y relaciones sobresalientes en un nivel de contenido de información que el perceptor pueda
Debido a que los datos geométricos vectoriales (geometría de puntos, líneas y polígonos) se producen al muestrear una fuente
analógica (por ejemplo, una línea impresa en un mapa) o el comportamiento del mundo real (por ejemplo, observaciones del sistema de
posicionamiento global), tienen una precisión original fija no importa la escala de visualización en el SIG. Como consecuencia, existen límites
prácticos en las escalas de visualización empleadas, ya que las representaciones espaciales digitales deben extraerse del conjunto de escalas
1998). Para resolver el problema del detalle excesivo en un conjunto de datos mostrado a pequeña escala pero capturado a gran escala, se ha
desarrollado una variedad de algoritmos para eliminar puntos seleccionados de un conjunto de datos de línea / polígono de vector (simplificación
de línea) mientras se conserva tanta información como sea posible. posible. Esto significa reducir el número de puntos y al mismo tiempo
conservar una caricatura de la función. Estos procedimientos se conocen como algoritmos de generalización en GISc. También es posible
indexar todos los datos espaciales de modo que se puedan extraer múltiples escalas de salida directamente de una base de datos (van
Se puede hacer una distinción entre dos tipos de generalización. Primero, modelo
2-23
La generalización se refiere al mantenimiento de conjuntos de datos libres de escala diseñados para almacenar el contenido de
información de los datos en niveles altos y bajos (lo que ha llevado al uso de técnicas de representación del conocimiento). En segundo
lugar, existe una generalización cartográfica para la manipulación de la representación geométrica por motivos de legibilidad o estéticos
(Müller, Lagrange y Weibel, 1995). La generalización cartográfica emplea una variedad de técnicas junto con la simplificación, incluida la
agregación, la tipificación, la exageración y el desplazamiento de características. El uso de dimensiones fractales para caracterizar la
forma y la auto-semejanza de una línea a diferentes escalas no condujo a un gran avance en los estudios de generalización (Müller,
1986).
Los efectos de escala también aparecen en sistemas zonales jerárquicos como áreas administrativas donde las zonas definidas
se utilizan para contar y clasificar datos estadísticos. El análisis de los atributos asignados a las zonas adolece del problema de la unidad
de área modificable (MAUP) (Openshaw, 1984), en el que los patrones de variación en los datos estadísticos muestran diferencias
espaciales significativas cuando se mapean en diferentes niveles de la jerarquía zonal. Hay dos formas principales de minimizar los
efectos del MAUP. La primera es utilizar métodos de regionalización para diseñar zonas que tengan propiedades conocidas, como áreas
de viaje al trabajo o mercados laborales. El segundo enfoque implica un tipo más general de optimización del sistema zonal que se logrará
Para comprender cómo las personas perciben y representan el espacio también se requiere una explicación de la ontología
espacial, es decir, una posición teórica sobre cómo se conceptualiza el espacio. En geografía hay un debate en curso sobre la ontología y el
espacio: los teóricos sociales tienden a sospechar de la ontología (y su compromiso con el realismo), prefiriendo hablar sobre cómo las
ontologías son producidas por la acción social (Massey, 1999). Por el contrario, los científicos de GI han explorado una variedad de espacios
alternativos con dependencia parcial del espacio euclidiano, como el espacio conductual o socioeconómico (Couclelis, 1992), por ejemplo, las
2-24
Implícita en una perspectiva realista está la posición de que el espacio es explicativo. Tobler (1970a) presentó la primera articulación
de este principio, que se conoce como la primera ley de la geografía; se puede parafrasear como: Todas las cosas están relacionadas,
pero las cosas cercanas están más relacionadas que las distantes. La autocorrelación y las variables regionalizadas (kriging) se han
utilizado para explorar este principio (Evans y McClean, 1995; Griffith, 1993; Mason, O'Conaill y McKendrick, 1994).
Desde los primeros prototipos, el software GIS ha modelado el espacio euclidiano utilizando la ontología nítida
estándar de punto, línea, área y superficie en GIS vectorial (ver el estudio y la crítica de Nunes, 1991). Esto se debió
quizás a que lo que ahora llamaríamos el caso de uso del mapeo catastral dominó el pensamiento de los primeros
investigadores y profesionales y la mayoría de las parcelas de tierra son entidades (aceptablemente) nítidas. En uno de los
primeros estudios sobre incertidumbre en GI, Fisher, Dykes y Wood (1993) compararon algoritmos espaciales para el
cálculo de cuencas visuales en SIG comerciales, y encontraron que las definiciones vagas del espectador y el objetivo eran
la mayor contribución a la cuenca visual borrosa. Esto fue seguido por Altman (1994) quien categorizó el modelado de IG
El desafío más completo a la cosmovisión nítida se produjo en la reunión GISDATA de la European Science Foundation
sobre objetos geográficos con límites indeterminados (Burrough y Frank, 1996). Burrough (1996) argumentó que las entidades de
área nítida eran en realidad raras y que las entidades geográficas típicas estaban definidas de manera incompleta o eran picos /
valles en variación espacial continua. En este caso, las entidades incompletas se deben descifrar asignando membresía difusa
Finalmente, las representaciones espaciales siempre deben estar asociadas con un cierto error, ya que es imposible producir una
2-25
¡realista!). El error en las representaciones espaciales puede atribuirse a las siguientes fuentes (Guptill y Morrison, 1995):
• Precisión posicional
• Linaje
• Consistencia lógica
• Lo completo
• Precisión temporal
• Precisión de atributos
Heuvelink (1998) desarrolló un modelo de error para atributos espaciales cuantitativos para poder especificar la probable
En el momento en que Goodchild (1992) preparó su programa de investigación, el gran desafío en la captura de datos espaciales era
la digitalización de mapas, registros y procesos en un mundo abrumadoramente analógico. En 1989, sólo se habían digitalizado 30.000 de los
220.000 mapas a gran escala de Gran Bretaña y se necesitaban datos marco como referentes y como telón de fondo de otros tipos de análisis
(Rhind, 1989). La situación en la mayoría de los países era mucho peor, con pocos mapas vectoriales y los volúmenes de datos en los mapas
escaneados constituían un obstáculo importante. En algunos países, este sigue siendo el caso en 2008. Por el contrario, los datos censales, de
códigos postales, de empleo, electorales y medioambientales ya estaban en formato digital desde principios de la década de 1980 en muchos
países y había comenzado a desarrollarse una naciente economía de la información. Openshaw y Goddard (1987) discutieron las implicaciones
de este
2-26
la mercantilización de los datos y las cuestiones relacionadas con el empaquetado y reenvasado de la información. Este artículo clave fue un
llamado de atención para la participación de los científicos de GI en el proceso de formulación de políticas públicas utilizando las herramientas
de GIS.
Como señalaron Openshaw y Goddard (1987), el desafío de integrar conjuntos de datos sociales y
ambientales depende fundamentalmente de la capacidad de expresar todos los conjuntos de datos en la misma
unidad socioeconómica espacial (SSEU). Frank, Raper y Cheylan (2001) definieron las UESE como áreas de
espacio geográfico temporalmente persistentes con límites definidos para áreas de importancia pública o
privada. Se producen al subdividir un espacio como un territorio nacional o agregando entidades como
personas o edificios en grupos espaciales. Raper, Rhind y Shepherd (1992) argumentaron que la única UESE
capaz de cumplir con este rol es el código postal, que existe globalmente, aunque en diferentes niveles de
resolución espacial en cada país. La ingeniería de un conjunto apropiado de SSEU nacionales se está
publicó muchas encuestas nacionales y regionales que describen el progreso en la construcción de SIG nacionales y regionales (por
ejemplo, Hastings y Clarke, 1991), todas las cuales estaban limitadas por la disponibilidad limitada de datos. Se convirtió en un
objetivo de política en varias partes del mundo estandarizar y base de datos conjuntos de datos; por ejemplo, Wiggins, Hartley,
Higgins y Whittaker (1987) describen el diseño del sistema de cartografía ambiental CORINE para la Comunidad Europea. Mounsey y
Tomlinson (1988) editaron una colección de artículos para el proyecto IGU Global Database, que se convirtió en un precursor de la
posterior red GRID del Programa de Educación de las Naciones Unidas (PNUMA) y las iniciativas posteriores en la cartografía global
2-27
Las imágenes satelitales detectadas durante la década de 1990 también generaron nuevas preguntas sobre el acceso, el costo y la
integración (Harris, 1997). En ese momento, se dispuso de una amplia gama de imágenes de teledetección de los satélites Landsat
de EE.UU. y SPOT (Satellite Pour l'Observation de la Terre) francés y se puso a disposición en formatos y sistemas de coordenadas
compatibles con GIS (Wilkinson, 1996). Esta revisión no cubre la vasta literatura que ha generado el manejo y análisis de estos
datos (el Revista Internacional de Percepción Remota publica 26 números por año) ya que existe una línea divisoria metodológica
Las tecnologías de mapeo también se estaban revolucionando cuando Goodchild (1992) estableció
su agenda de investigación. Las imágenes aéreas se estaban trasladando a un nuevo flujo de trabajo que
utilizaba cámaras de vídeo y fotografías digitales, lo que permitía una fácil integración en SIG (Raper &
McCarthy, 1994). En muchos países, la producción de imágenes digitales ortorrectificadas ofreció una
alternativa al prolongado proceso de actualización del mapa y los productos (ortocuadrículas digitales [DOQ]
en los EE. UU.) Se superpusieron fácilmente a los datos GIS ya que se ajustaron al terreno y al sistema de
coordenadas del mapa. Mientras tanto, la topografía terrestre se estaba moviendo hacia el registro de datos
digitales y la medición de distancias impulsada por láser. Esto abrió el camino a un trabajo de levantamiento
de mayor frecuencia y menor costo, lo que tuvo implicaciones tanto para el mapeo nacional como para el
A principios de la década de 1990, las señales del sistema de posicionamiento global (GPS) estuvieron disponibles para usuarios no
militares por primera vez y permitieron lograr un posicionamiento geocéntrico preciso con un sistema autónomo. El Servicio Civil de
2-28
Disponibilidad selectiva con una precisión de alrededor de 100 metros hasta que una orden ejecutiva del presidente
Clinton en 2000 permitió lograr una precisión típica en el rango de cinco a 30 metros (dependiendo de las
condiciones de recepción de la señal). Aunque la precisión de 100 metros parece de relativamente poca utilidad,
dado que el error de posición fue sistemático y fácilmente archivado por un receptor GPS en un punto conocido, fue
posible corregir diferencialmente las posiciones recopiladas por el receptor autónomo mediante el procesamiento
posterior. Por lo tanto, las precisiones típicas se podrían reducir de manera confiable a tres o cinco metros en la
mayoría de las condiciones. Este servicio de corrección D-GPS (diferencial) fue un factor crucial en la creación del
tipo de aplicaciones para GPS que necesitaban precisión D-GPS y, en última instancia, para persuadir al gobierno de
Una implicación de la transición digital en la topografía y la medición ha sido la democratización de la recopilación de datos
mediante la reducción del costo de captura de datos. Sin embargo, se hizo evidente desde el principio que si los datos / imágenes espaciales
iban a estar más ampliamente disponibles, la calidad de los datos tendría que medirse, estandarizarse, seguirse e informarse. Goodchild y
Gopal (1989) editaron una colección temprana sobre la precisión de las bases de datos espaciales y Guptill y Morrison (1995) establecieron
los elementos de la calidad de los datos manifestados por los datos espaciales que deberían obtenerse, describirse mediante metadatos e
intercambiarse utilizando estándares. Este libro aún no ha sido reemplazado por una monografía más reciente sobre estandarización.
Desde una posición en 1988 cuando no había estándares para el intercambio de IG, hasta el establecimiento del
1992, hasta la integración de la agenda del comité TC / 211 con el trabajo del organismo industrial Open Geospatial Consortium (OGC) en
2-29
papel clave en el desarrollo de GISc. La interoperabilidad puede definirse como la situación en la que diferentes SIG pueden
intercambiar datos y procesar recursos libremente en tiempo real sin la penalización de la pérdida de información (Vckovski, 1998).
Actualmente, este objetivo está lejos de lograrse por completo, pero los componentes básicos de la interoperabilidad se han definido y
especificado con la publicación de la serie de estándares de datos ISO 191xx, como el esquema espacial ISO 19107 e interfaces OGC,
como el servicio de características web. Estos estándares operan junto con los estándares comerciales de facto, como el shapefile del
Environmental Systems Research Institute (ESRI) y algunos estándares nacionales como el Estándar de Transferencia de Datos
Espaciales de EE. UU. (SDTS) que no han sido reemplazados por el proceso ISO.
Goodchild (1992, p. 36) definió los modelos de datos espaciales como "el marco lógico que usamos para representar la variación
geográfica en las bases de datos digitales". Cuando estaba escribiendo, el principal aparato de representación de SIG había estado bien
definido durante algún tiempo, ya que Burrough (1986) y Samet (1990) escribieron extensamente sobre modelos de datos vectoriales y
raster, que fueron desarrollados e implementados en varias docenas de productos SIG (Raper & Maguire, 1992). Sin embargo, Goodchild
Superponiéndose a la génesis del artículo de Goodchild en el período 1990-1995, tal marco teórico evolucionó dentro de dos
grupos distintos. El primer grupo, dirigido por John Herring y Max Egenhofer, desarrolló un modelo de datos espaciales demostrablemente
correcto en términos de topología de conjuntos de puntos (Egenhofer y Franzosa, 1991; Egenhofer y Herring, 1990; Herring 1991). La
topología de conjuntos de puntos es el estudio de vecindarios teóricos (cualquier forma o dimensión) que están formados por un número
infinito de puntos. Si se incluyen los puntos en el límite, los conjuntos de puntos se pueden modelar como
2-30
un conjunto cerrado junto con primitivas de cierre, interior y límite. Dichos vecindarios pueden transformarse conservando sus
propiedades topológicas si existe un camino ininterrumpido desde cualquier punto a cualquier otro punto; un vecindario sin agujeros se
llama "simplemente conectado". Los objetos teóricos se pueden hacer a partir de conjuntos de puntos simplemente conectados, que
La topología combinatoria es el estudio de cómo estos objetos topológicos pueden ensamblarse en objetos
complejos usando puntos (dimensión cero), líneas (una dimensión) y triángulos (dos dimensiones). La teoría de grafos
cubre la manipulación de conjuntos de nodos y aristas que pueden formar objetos. Al incrustar objetos de topologías de
conjunto de puntos, combinatorias o gráficas en un plano bidimensional, se pueden realizar representaciones geométricas.
Egenhofer y Franzosa (1991) mostraron cómo utilizando solo las primitivas de cierre, interior y límite y la teoría de
conjuntos, era posible probar que había solo nueve intersecciones no triviales de las primitivas geométricas. Toda la
estructuración de datos GIS y las operaciones geométricas pueden derivarse de esta demostración (conocida como teoría
de las nueve intersecciones). Extensión de la teoría a regiones no simplemente conectadas (es decir,
Por el contrario, Randell, Cui y Cohn (1992) definieron el Cálculo de conexión de regiones (RCC) en el que la
región y no el conjunto de puntos es fundamental. Hay ocho relaciones RCC entre dos regiones sin agujeros: DC
(desconectado), EC (conectado externamente), PO (parcialmente superpuesto), TPP (parte propia tangencial), NTPP (parte
propia no tangencial), EQ (igual), TPPI (Parte propia tangencial inversa) y NTPPI (Parte propia no tangencial inversa). Las
relaciones RCC se han extendido a regiones / regiones vagas con huecos y se han utilizado en SIG para modelar
Holroyd y Bell (1992) revisaron y evaluaron modelos de datos ráster para SIG utilizando
2-31
conceptos. Un campo teórico es una cantidad medible que se puede definir en cualquier lugar en un número infinito de puntos. Como en el caso
de la topología algebraica, la variación espacial del campo se discretiza utilizando teselaciones geométricas (conjuntos de unidades
bidimensionales, discretas y conectadas). Los teselaciones regulares se pueden formar a partir de triángulos, hexágonos y cuadrados, pero solo
los cuadrados dispuestos en una cuadrícula se usan comúnmente para datos de imagen. Una cuadrícula de celdas o píxeles es fácil de manejar
en computadoras ya que las matrices de memoria son lógicamente similares a la tecnología de imágenes físicas de faxes, escáneres, sensores
satelitales, cámaras, videos y unidades de visualización. Dichos sistemas de imágenes capturan / muestran la reflectancia de una escena del
mundo real para cada píxel de la trama dentro de su rango de sensibilidad en el espectro electromagnético. El enfoque de campo también es
adecuado para almacenar valores muestreados en forma nominal, ordinal, de intervalo o de razón obtenidos en una cuadrícula regular. La forma
más común de datos derivados del muestreo en GISc es la elevación del terreno (datos de relación); sin embargo, cualquier valor de muestra se
puede asignar a una celda, por ejemplo, recuentos de población residencial (datos de razón), factores de riesgo (ordinal) u orígenes / destinos de
viajes (nominal).
Debido a que los GIS son sistemas integrados para el almacenamiento de información y atributos geométricos, cada GIS
debe definir una forma de almacenamiento de datos que sea lo suficientemente eficiente y expresiva para la aplicación y los requisitos
de rendimiento (Laurini y Thompson, 1992). Aparte de algunos sistemas GIS ráster con su propio almacenamiento de datos interno, la
mayoría de los GIS vectoriales y vectoriales / ráster crean una base de datos espacial utilizando un DBMS (sistema de gestión de
bases de datos). Se pueden identificar tres estrategias para la creación de una base de datos espacial. La estrategia más antigua
vincula motores de manejo de topología / geometría especialmente escritos con tablas DBMS relacionales utilizando un código de
identificación para cada característica geométrica, que actúa como el atributo clave en cada tabla relacional (estrategia 1)
(Dangermond, 1983). Los diseños más recientes se adaptan a toda la geometría, topología y atributos en un solo
2-32
primera forma normal o almacenándolos como objetos grandes binarios (BLOB) (estrategia 2) (Abel, 1989). Esto requiere métodos de
indexación espacial como quadtrees para mejorar el rendimiento al realizar consultas espaciales sobre geometría y atributos. Algunos de los
motores de bases de datos de servidores universales, como Oracle, almacenan datos espaciales de esta manera. Un tercer diseño de base
de datos espacial, emplea lenguajes orientados a objetos para crear clases de objetos con atributos heterogéneos (tanto espaciales como no
espaciales) creando objetos espaciales. Estos sistemas orientados a objetos pueden almacenar las instancias de los objetos espaciales en
un DBMS relacional o en un DBMS orientado a objetos (estrategia 3) (Worboys, Hearnshaw y Maguire, 1990).
Las implementaciones contemporáneas de SIG se están volviendo cada vez más centradas en las bases de datos a medida que los
sistemas avanzan hacia la estrategia 2 (soluciones integradas) o la estrategia 3 (enfoques orientados a objetos). Esto ha colocado el diseño y la
personalización de la base de datos en el centro de la implementación de SIG. Los principales proveedores de tecnología DBMS también se están
moviendo hacia el diseño de servidor universal, que es capaz de manejar todo tipo de datos, incluidos los datos espaciales. Esto se ve facilitado
por el desarrollo del estándar multimedia ISO Structured Query Language (SQL) (SQL / MM Part 3 – Spatial), que amplía SQL (y, por lo tanto, el
modelo de datos relacionales) para proporcionar una forma genérica de soporte espacial (y temporal). ) tipos de datos que utilizan tipos de datos
abstractos. Las decisiones de diseño de bases de datos para SIG han sido controvertidas: artículo de Egenhofer (1992) “¿Por qué no SQL? ”Fue
(en parte) una reacción a la propuesta SQL espacialmente extendida de Raper y Bundock (1991) en la reunión Cognitive and Linguistic Aspects of
Geographic Space en 1990. Egenhofer (1992) argumentó que aunque SQL es relacionalmente completo, no tiene suficiente poder como un
lenguaje para gestionar la identidad de las tuplas y carece de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha
proliferado como lenguaje de consulta en los 15 años desde que se escribió el artículo de Egenhofer, no porque estuviera equivocado, sino porque
no había un lenguaje de consulta mejor y más completo. no tiene suficiente poder como lenguaje para gestionar la identidad de las tuplas y carece
de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha proliferado como lenguaje de consulta en los 15 años desde
que se escribió el artículo de Egenhofer, no porque estuviera equivocado, sino porque no había un lenguaje de consulta mejor y más completo. no
tiene suficiente poder como lenguaje para gestionar la identidad de las tuplas y carece de controles sobre cómo se presentan los resultados al usuario. De hecho, SQL ha
2-33
ha ganado apoyo y una implementación generalizada.
Goodchild (1992) también identificó la necesidad de extender los conceptos en gran parte planos en SIG a 3D y tiempo. Algunos SIG
a principios de la década de 1990 habían desarrollado extensiones para manejar las llamadas superficies 2.5D, adoptando una suposición
simplificadora de que solo puede haber un valor de z por cada valor de x, y, haciendo imposible que la superficie se doble. Las superficies 2.5D
se pueden crear a partir de datos basados en cuadrículas derivados de fotogrametría o datos distribuidos no regularmente de encuestas o
muestreos. En el último caso, los puntos de datos dispersos deben modelarse o interpolarse para crear una estructura de datos de superficie
Sin embargo, en las geociencias muchos geofenómenos del mundo real requieren verdaderas representaciones sólidas en 3D que
encierran el espacio (Raper, 1989). El uso de la investigación sísmica en la tierra, el sonar en los océanos o el radar en la atmósfera producen
grandes volúmenes de puntos 3D, cada uno con la forma x, y, z, t ( formando una tupla). El conjunto de tuplas seleccionadas durante la recopilación
de datos se puede estructurar usando dos estrategias principales: (1) partición de dominio (uso de las tuplas seleccionadas para subdividir todo el
dominio 3D en unidades constituyentes de forma regular o no regular), (2) el conjunto de Las tuplas se pueden estructurar usando la construcción
de entidades (uso de las tuplas seleccionadas para definir entidades dentro del espacio 3D usando elementos geométricos básicos). En general,
la partición de dominio conduce a una representación de tipo ráster y la construcción de entidades conduce al uso de representaciones de tipo
A diferencia del caso bidimensional donde la geometría vectorial en el plano se ha estandarizado en SIG, en tres
dimensiones el rango de dominios de aplicación es alto y el consenso sobre la implementación ideal es bajo. Se ha propuesto
2-34
• Pigot (1992) presentó el modelo de tuplas de células tridimensionales basado en complejos celulares de complejidad arbitraria.
• Molenaar (1990) presentó una estructura de datos formal (FDS) basada en objetos de punto, línea, cuerpo y superficie y
Rikkers, Molenaar y Stuiver (1994) mostraron cómo almacenar los datos en un DBMS relacional.
• Pilouk (1996) presentó el sistema de red de tetraedros (TEN) basado en simplices. Gable, Trease y Cherry
• (1996) describieron Geomesh, un sistema que importa modelos paramétricos tridimensionales, triangulaciones
• Lattuada y Raper (1998) propusieron un sistema basado en tetraedros construido a partir de nubes de puntos. Zlatanova (2000)
• presentó el modelo espacial simplificado (SSM) usando punto, línea, superficie y cuerpo pero omitiendo arcos.
• Mallet (2002) presentó el sistema basado en tetraedros GoCAD construido a partir de superficies.
Cada una de estas implementaciones tiene fortalezas y debilidades y cada una será apropiada para una aplicación específica;
por ejemplo, FDS para modelos urbanos y GoCAD para reconstrucción geológica. Además, los elementos de volumen tridimensionales
(vóxeles) se pueden utilizar para crear modelos basados en cuadrículas (por ejemplo, PMS, Prissang, Spyridonos, Skala y Frömmer,
Hacer un seguimiento del cambio espacial implica algunas extensiones del modelo de datos SIG estático conocido como SIG
temporal (Langran, 1992). Básicamente, esto implica realizar un seguimiento de todos los estados de cada objeto en una base de datos
espacial, porque la creación de una nueva capa cada vez que un objeto cambia conduce a una expansión inaceptable de capas. Creando dos
2-35
tanto la identidad del objeto (con filas correspondientes a objetos conocidos por el sistema) como todo el cambio (con filas correspondientes
al cambio en objetos que realmente cambian), es posible almacenar este tipo de cambio discreto para grandes conjuntos de datos sin una
Estos enfoques de SIG temporales no son adecuados para otras aplicaciones, como la representación de cambios ambientales
altamente dinámicos con una resolución temporal fina (minutos a semanas) de forma continua, por ejemplo, en los patrones de migración de los
animales o el cambio continuo de las mareas. en la zona costera. En estas áreas de aplicación se han propuesto nuevos diseños de SIG,
basados en gran parte en diseños orientados a objetos (Wachowicz, 1999). Los problemas de diseño clave en los enfoques orientados a objetos
para manejar el comportamiento espacio-temporal implican la elección del enfoque para definir los fenómenos espacio-temporales, como una
manada de animales en movimiento. Por ejemplo, puede utilizar eventos para vincular objetos espaciales en duración temporal para crear objetos
extendidos espacio-temporalmente. Los eventos en el tiempo se almacenan, lo que define diferentes objetos a cada lado de un evento, como la
ubicación de la manada cada semana. Alternativamente, puede hacer del tiempo una propiedad de los objetos para que los objetos tengan una
extensión espacial y temporal, como la línea que sigue una manada de animales mientras se mueven durante un año. Ninguno de estos enfoques
se ha implementado todavía en un SIG comercial convencional, ya que las bases de datos espaciales actuales están optimizadas para el
rendimiento de consultas espaciales y la edición de transacciones largas a gran escala; sin embargo, se han implementado muchos sistemas de
investigación (Raper, 2000). ya que las bases de datos espaciales actuales están optimizadas para el rendimiento de consultas espaciales y la
edición de transacciones largas a gran escala; sin embargo, se han implementado muchos sistemas de investigación (Raper, 2000). ya que las
bases de datos espaciales actuales están optimizadas para el rendimiento de consultas espaciales y la edición de transacciones largas a gran
escala; sin embargo, se han implementado muchos sistemas de investigación (Raper, 2000).
Peuquet (1994) propuso el enfoque TRIAD para el modelado temporal donde todos los geofenómenos se definen por
atributos, referencias espaciales y temporales (qué, dónde, cuándo) para formar un modelo de historia mundial. En contraste,
Roshannejad y Kainz (1995) argumentaron que aunque todos los geofenómenos multidimensionales deben ser referenciados por qué,
2-36
la identidad del objeto debe ser independiente de la referencia.
Sin embargo, procesos como el flujo de las mareas o el movimiento de las lluvias son más o menos imposibles de representar
utilizando SIG, ya que no hay objetos con los que trabajar. En este caso, es convencional utilizar un enfoque ráster en lugar de vectorial,
haciendo que cada celda tenga un tamaño adecuado para la aplicación que se está modelando. Este tipo de modelado dinámico de procesos
multidimensionales tiene como objetivo desarrollar modelos funcionales de comportamiento para estos sistemas (Kemp, 1997).
Finalmente, el tiempo también debe modelarse en el espacio de la red. Con el fin de realizar conceptos geográficos de tiempo
después de Hägerstrand (1968), se han creado varias georrepresentaciones espacio-temporales distintivas. En un estudio de accesibilidad
urbana, Lenntorp (1976) calculó el área a la que podía llegar un viajero desde un lugar determinado, dentro de un tiempo específico. La
zona de accesibilidad se puede representar como un cono en un espacio tridimensional en el que el z el eje es el tiempo. El vértice del cono
está en la ubicación actual y la pendiente de los lados está determinada por la velocidad alcanzable. Si el viaje tiene que terminar en el
mismo lugar en un tiempo determinado, entonces dos conos idénticos de accesibilidad encajan para formar un prisma espacio-temporal.
Miller (1991) implementó el concepto de prisma de espacio-tiempo en Arc / Info GIS como áreas de camino potencial (PPA) al identificar
qué enlaces en una red de caminos eran accesibles en el intervalo de tiempo disponible; O'Sullivan y sus colegas (2000) aplicaron el
Como argumenta Raper (2000), inherente a los modelos de datos vectoriales y raster es su dimensionalidad limitada
cuando el dominio de representación es multidimensional. En un marco multidimensional, la identidad de los fenómenos a representar
es de cuatro dimensiones, describiendo un camino tridimensional a través del tiempo. Cualquier geofenómeno con una identidad
unidimensional, bidimensional o tridimensional es, por tanto, una proyección del mundo tetradimensional y esto con frecuencia
equivale
2-37
a un compromiso representacional con consecuencias inexploradas. En el paisaje, a veces se considera que ciertos accidentes
geográficos existen solo en una minoría de contextos espaciales y temporales, pero pueden tener primacía ontológica. En la sociedad,
las zonas políticas o administrativas pueden delimitarse y funcionar como unidades de distribución de recursos, pero los procesos
socioespaciales pueden girar en torno a agregaciones transitorias o redes no espaciales bastante diferentes. Esta visión de los
requisitos de representación aboga por la representación del espacio-tiempo y no la espacialización de lo temporal para utilizar los
métodos de Raper y Livingstone (1995a) y el lenguaje de Massey (1999). Lograr esto sigue siendo un trabajo en progreso.
Cartografía y visualización
Goodchild (1992) identificó la necesidad de un mayor desarrollo en cartografía y visualización en su agenda de investigación GISc.
En parte, esto fue un llamado a los cartógrafos para que se unieran a la “revolución” de los SIG, ya que la calidad de los resultados producidos
por los SIG era notablemente deficiente en el momento en que estaba escribiendo. Sin embargo, los cartógrafos no siempre han considerado
prioritario mejorar la producción de SIG. En particular, la prisa en los SIG por hacer mapas efímeros a partir de la información de las bases de
datos (por convincente que sea) fue incompatible con el acto representativo considerado que realizan los cartógrafos. Así, en la década de
1980 y principios de la de 1990, la agenda de investigación cartográfica siguió estando impulsada por preocupaciones tradicionales en
comunicación, psicología (comprensión visual de mapas) y semiología (sistemas de signos). Por tanto, los mapas se definen en el Historia de la
cartografía como “representaciones gráficas que facilitan una comprensión espacial de cosas, conceptos, condiciones, procesos o eventos en el
La década de 1980 vio un nuevo enfoque en la semiología de los mapas siguiendo el trabajo anterior de Bertin (1967) y Eco (1976).
Así, Schlichtmann (1985) argumentó que los mapas son sistemas de signos organizados
2-38
en el que la expresión y el contenido están vinculados por un código. Por analogía con el lenguaje natural, argumentó que los signos
mínimos (símbolos de mapa) son "palabras", pero los "macrosignos" (un símbolo de mapa posicionado con atributos) son "oraciones" (p.
248). Head (1984) argumentó que el lector de mapas era responsable de usar los códigos dentro de él, por lo que el mismo mapa evoca
diferentes respuestas. Head (1991) revisó el trabajo sobre mapas como lenguaje natural en el que el mapa está diseñado para transmitir
una proposición compuesta por sujeto, predicado y contexto. En este momento, solo unos pocos cartógrafos estaban preocupados por
cómo un mapa digital podría transmitir signos y proposiciones construidas sobre ellos.
Sin embargo, el interés en la visualización en SIG comenzó a crecer a principios de la década de 1990 cuando se hizo evidente
que las computadoras ofrecían nuevas y poderosas formas de comunicar información gráfica a los usuarios. Fisher y sus colegas (1993)
sugirieron que había tres consecuencias principales de tales cambios impulsados por la tecnología: la disponibilidad de nuevas variables
visuales, nuevas posibilidades computacionales de representación y transformación, y mayores niveles de interacción entre el usuario y el
Los cartógrafos argumentaron que la visualización era un nuevo modo de interacción con el mapa. Por tanto,
MacEachren (1995) definió la comunicación cartográfica como centrada en los usuarios públicos y la presentación de
relaciones conocidas en niveles bajos de interacción. Lo contrastó con la visualización, que caracterizó como centrada en el
uso privado y la exploración de relaciones desconocidas en altos niveles de interacción. MacEachren (1995, p. 460)
argumentó que "la visualización geográfica (GVIS) representa un cambio sustancial en el énfasis de los mapas como una
herramienta de presentación a los mapas como parte de un proceso de construcción del conocimiento del pensamiento".
Implementado en este sentido GVIS es una fuente altamente efectiva de generación de hipótesis sobre relaciones
específicas. Sin embargo, como señaló Petch (1994) en un ensayo sobre los aspectos epistemológicos de la visualización,
2-39
Hearnshaw y Unwin (1994) editaron una colección de artículos sobre visualización en SIG en los que trajeron las técnicas
de visualización científica (Unwin, 1994) y análisis de datos exploratorios (Tukey, 1977) a SIG. Ejemplos de las técnicas propuestas
en esta colección incluyen animación (Openshaw, Waugh y Cross, 1994), cartogramas (Dorling, 1994) y realidad virtual (VR)
(Bishop, 1994); Raper y McCarthy (1994) demostraron el potencial de la realidad virtual integrada con SIG. Estas herramientas han
pasado a ser ampliamente utilizadas: en Dorling (1995) Nuevo Atlas Social de Gran Bretaña el mapa estándar es un cartograma,
Neves y Câmara (1999) adoptaron técnicas para representar series de datos usando realidad virtual, y las técnicas multimedia
espaciales usan mapeo de video (Ferreira, 1999) e hipermedia espacial (Raper & Livingstone, 1995b). Shepherd (1995) añadió a las
nuevas técnicas consideradas clasificando las fuentes de variación temporal en las visualizaciones según la naturaleza temporal de
la entrada de datos, el dinamismo de la simbología, el cambio de punto de vista del observador, el comportamiento de los elementos
En tercer lugar, Medyckyj-Scott y Hearnshaw (1993) introdujeron las técnicas de investigación de la interacción
persona-computadora en SIG para garantizar que las interfaces de usuario funcionaran de manera efectiva en un entorno integral, incluida
la ergonomía y el diseño del trabajo. El debate clave en HCI y GIS en este momento se refería a la cuestión de si los conceptos del sistema
y las estructuras de datos espaciales podrían alguna vez ser completamente ocultos por una interfaz. Frank (1993) argumentó que no
podría hacerlo con un título sucinto "Uso de sistemas de información geográfica: la interfaz de usuario es el sistema". Por el contrario,
Raper y Bundock (1991) presentaron una arquitectura (Universal Geographic Information Executive) e implementación de una interfaz de
usuario genérica, diseñado para conectarse a cualquier SIG subyacente que admita SQL extendido espacialmente y para ser controlado
por el usuario a través de una interfaz de lenguaje visual. Aunque SQL extendido espacialmente permite la portabilidad entre muchos SIG,
2-40
mapas. Sin embargo, los lenguajes visuales para interfaces SIG son mucho más prometedores, como demostraron Campari,
En cuarto lugar, se ha realizado mucho trabajo sobre los límites de la filosofía, la ciencia cognitiva, la lingüística y los GISc sobre
Los esquemas de imagen son patrones de razonamiento compuestos de partes y relaciones que se vuelven significativas por la experiencia
sensoriomotora. Los esquemas de imagen como parte-todo, contenedor y superficie son elementos estructurales de metáforas de interfaz y se
pueden usar en el diseño de interfaces, como demostraron Kuhn y Frank (1991) en un artículo presentado en la reunión Cognitive and Linguistic
Aspects of Geographic Space en 1990. Por lo tanto, los escritorios virtuales funcionan de manera similar a los escritorios reales y los usuarios
pueden transferir fácilmente su conocimiento de un dominio al otro. Se puede adoptar el mismo enfoque en las interfaces GIS para reducir la carga
En quinto lugar, la prematura muerte de Brian Harley en 1991 privó a la cartografía de un poderoso escritor y
exponente de la cartografía como arte con influencias políticas y sociales. El artículo de Harley (1989) “Deconstructing the Map”
fue el manifiesto más claro para la cartografía como una empresa distinta de GISc. Dice (Harley, 1989, p. 4): “La
deconstrucción nos impulsa a leer entre líneas del mapa - 'en los márgenes del texto' - y a través de sus tropos a descubrir los
silencios y contradicciones que desafían la aparente honestidad de la imagen." Debido a que ahora hay tan pocos mapas que
no se hacen con SIG, su proyecto habría necesitado algún compromiso con GISc: uno se pregunta a dónde habría llevado
esto.
Mientras tanto, Monmonier se había labrado un nicho único como comunicador de la historia y el impacto sociopolítico de
los mapas para un público más amplio. Su clásico Cómo mentir con mapas
(Monmonier, 1991, p. 1) examinó casos históricos y contemporáneos de mapas engañosos, argumentando que "no solo
2-41
Cartografías de peligro ( Monmonier, 1997), mapas meteorológicos (Monmonier, 1999), cartografía electoral (Monmonier,
2001), vigilancia y privacidad (Monmonier, 2002), historia social de la proyección Mercator (Monmonier, 2004) y nombres de
mapas (Monmonier, 2006) . Los escritos de Monmonier han llevado la cartografía contemporánea a un público masivo como
A mediados de la década de 1990 se hizo evidente que era necesario reevaluar la relación de la cartografía con GISc. La
comunicación cartográfica, la psicología cartográfica y la semiología de los mapas tenían pocos puntos de contacto con los SIG, dada su
herencia en bases de datos y gráficos. MacEachren (1995) movió la agenda de investigación cartográfica hacia una correspondencia
más cercana con GISc al señalar que GIS y cartografía compartían una preocupación común por la representación. MacEachren (1995,
pág.
1) dijo: "Explorar mapas como representación forja vínculos importantes entre la cartografía y una variedad de campos afines". La
implicación de este reenfoque fue que la cartografía comenzó a considerar nuevas formas en las que los mapas podrían generar reacciones
cognitivas a partir de la representación espacial utilizada en el mapa. En otras palabras, en lugar de ver el mapa como un mensaje individual
a través del modelo de comunicación cartográfica tradicional, el mapa debe verse como una representación de la cual cada usuario puede
tomar sus propias implicaciones (Montello, 2002). En la búsqueda de este objetivo, Mark (1989, p. 555) comentó que “Es poco probable que
las características y clases de características mostradas en los mapas topográficos correspondan exactamente con los conceptos de
características topográficas que tienen en la mente de los usuarios, ”Señalando que a menudo las características del mapa generalizan o
resumen las entidades del mundo real de manera indocumentada. Este trabajo fue un paso temprano en el desarrollo de una agenda
2-42
Goodchild (1992) vio la capacidad analítica de un SIG como la recompensa de todo el trabajo en la captura y estructuración de
datos, que en el momento en que estaba escribiendo era una carga significativa. Él caracterizó las herramientas de análisis espacial como
probablemente independientes del SIG, débilmente acopladas o estrechamente acopladas y sugirió que si se pudiera implementar un
acoplamiento estrecho, entonces se explotaría completamente la riqueza del modelo de datos SIG. Sin embargo, aunque se pueden encontrar
ejemplos de cada tipo de análisis espacial, en la década de 1990 se logró mucho menos de lo que predijo Goodchild, tal vez porque todavía
quedaba mucho por hacer en la ingeniería de software básica y la captura de datos en ese momento.
Fotheringham y Rogerson (1994) presentaron una agenda de investigación para el análisis espacial que consta de los
• de límites
• Interpolación espacial
• Autocorrelación espacial
En los 15 años intermedios, se ha avanzado relativamente poco en MAUP, problemas de límites, muestreo espacial y
Openshaw, Charlton, Wymer y Craft (1987) diseñaron los primeros sistemas espaciales independientes
2-43