Está en la página 1de 8

UNIVERSIDAD DE LAS FUERZAS

ARMADAS “ESPE”

Nombre:
Jefferson Segura
Asignatura:
Geodesia
Tema:
La geografía y la estadística.
Necesidades para entender big data
Nrc:
3265
Fecha:
26/01/2023
RESUMEN
La integración de la Geografía como ciencia con carácter analítico holístico y la
Estadística Multivariante como herramienta lógica de investigación, posibilitan muchos de
los elementos necesarios para el desarrollo de una nueva disciplina naciente dentro del
conjunto de las Ciencias Sociales que debe dar el contexto académico necesario para el
estudio y el análisis del Big Data: la GISciencia la cual se engloba dentro de la corriente
cuantitativista más reciente para este conjunto de disciplinas.

En el presente Trabajo de Fin de bloque , a través de una exhaustiva revisión


bibliográfica realizada para todos los aspectos que inciden horizontalmente dentro de estas
dos ciencias con Big Data, se crea la aproximación teórica necesaria que permite
encuadrar este fenómeno y presentar su actual estado del arte.

Palabras Clave:

Big Data, Estadística Multivariante, Geografía Cuantitativa, GISciencia.


Key Words:

Big Data, Multivariate Statistic, Quantitative Geography, GIScience.

INTRODUCCIÓN
La Geografía es la rama del conocimiento que estudia y analiza la interacción entre el
hombre y el espacio. La misma, da lugar a la creación de figuras paisajísticas singulares en
relación a las posibilidades que ambos ofrecen y disponen. Esta interacción, desde el punto
de vista humano, ha sido analizada históricamente desde muchas perspectivas, pero ahora
surge la necesidad de abrirla a una nueva realidad provocada por la capacidad que posee la
sociedad en relación a su desarrollo tecnológico para crear un nuevo espacio de tipo virtual,
pero totalmente real, con consecuencias directas de tipo socioeconómico e incluso político
sobre las propias personas (en su manifestación individual y colectiva). Un territorio, por
tanto, de naturaleza totalmente antrópica donde la información existente conforma un
dominio espacial masivo de datos principalmente desestructurados: el Big Data.

Los datos conforman una nueva realidad social, política y económica presente y futura
al abrirnos a un mundo contrapuesto, donde el límite entre el conocimiento y la ignorancia
definen tanto sus nuevas fronteras, como su cambiante orografía. Y es que adecuando lo
señalado por Boisier (2001), la información requiere datos, el conocimiento presupone
información y la compresión precisa del conocimiento. De esta manera, la necesidad
permanentemente de adquirirlo se ha convertido en un imperativo tanto para quien
gestiona una empresa o gobierno, como para cualquier individuo. En el Siglo XXI, el
conocimiento y su propia evolución son las claves tanto del crecimiento económico, como
de la definición del puesto que ocupa cada país en su ordenamiento presente y futuro
como territorios dentro de un mundo absolutamente globalizado. La actual Sociedad del
Conocimiento, se basa en el permanente avance de las Tecnologías de la Información y de
las Comunicaciones (TIC), las cuales han consolidado el conocimiento como nuevo factor
de producción básico y diferenciador, ya que determinan la capacidad para innovar en un
entorno de creciente facilidad de acceso a la información (Sakaiya, 1995). Y es que los
datos, desde finales del Siglo XX, han generado espacio y el mismo, por lógica, debe ser
estudiado por su ciencia: la Geografía, utilizando para ello la Estadística como
herramienta natural de análisis.

Este Trabajo de Fin de Máster (TFM, a partir de ahora) no pretende analizar en


profundidad la incorporación de estas ideas al campo del desarrollo territorial adscrito a
la naciente GISciencia (ya que formará parte de los objetivos de un futuro trabajo de Tesis
Doctoral, del cual el presente TFM es su preámbulo), pero sí es necesario señalar que, para
el mismo, tal y como señalaba Boisier (2001) ha comenzado a configurarse un nuevo
paradigma cuyos elementos claves son la interconexión y la interactividad, la actuación
individual y colectiva, la escala geográfica y virtual, el conocimiento y las innovaciones.
Ya Wong-González (1999) hizo enumeración de las nuevas estructuras surgidas a raíz de
la expansión de este hecho: se crean realidades, productos, empresas, monedas, centros de
enseñanza, comunidades e incluso regiones todas ellas virtuales. Estas últimas, señala
además, se encuentran en el punto que define la nueva modalidad de configuración
territorial y responde a la lógica geográfica del actual capitalismo tecnológico propio de la
globalización y ya no directamente del voluntarismo político de los Gobiernos. La
virtualidad es el producto de las TIC, cuyo uso requiere tanto de hardware como de
software, en definitiva, de conocimiento.

Actualmente se estima que alrededor del 80% de la información que las empresas y
los gobiernos gestionan está georreferenciada y este porcentaje aumentará ya que estas
organizaciones son conscientes de la importancia que tiene este atributo. La mayoría de
los datos creados nacen con naturaleza espacial y por lo tanto, es natural, que la
GISciencia asuma el rol principal dentro de las Ciencias Sociales para el análisis y
comprensión de los datos individuales, locales, regionales y globales. El presente TFM
pretende dar sentido y explicación a este hecho y enlazarlo con una realidad cada vez más
necesaria: disponer estos datos con el objetivo global de analizarlos de forma correcta para
conseguir conocimiento y de las oportunidades y soluciones que éste ha de generar; en
definitiva, cómo se han de estudiar los registros que provienen del Big Data. Para ello es
necesario plantear una metodología lógica de análisis en relación a sus características y es,
en este aspecto tan importante, donde se encuentra la razón de aplicación de la Estadística
Multivariante. Y es que la descripción de cualquier situación real requiere tener en cuenta
de manera simultánea muchas variables y precisamente el análisis de datos multivariante
tiene como objeto el estudio estadístico de varias variables medidas en elementos de una
población, pretendiendo los siguientes objetivos (Peña, 2002):

 Resumir el conjunto de variables observadas en unas pocas nuevas variables


hipotéticas, construidas como transformaciones de las originales con la mínima
pérdida de información.
 Encontrar agrupaciones de los datos.

 Clasificar nuevas observaciones en grupos definidos.

 Relacionar dos o más conjuntos de variables.


MATERIAL Y MÉTODOS

Debido al carácter eminentemente teórico de este TFM, cuya pretensión final es


realizar la descripción más detallada posible sobre el estado del arte acerca de todos los
elementos y disciplinas científicas que han de interaccionar sobre cada uno de los
elementos propios del Big Data, para posibilitar el análisis de sus datos, proceder a la
extracción de la información contenida y finalmente obtener conocimiento a partir del
mismo, su desarrollo ha estado condicionado por este objetivo y por ello la etapa de
recopilación de la información necesaria ha sido laboriosa y ha ocupado buena parte del
tiempo y del esfuerzo invertido para su realización. El material consultado para el
desarrollo de cada uno de los capítulos ha sido seleccionado rigurosamente entre todos los
documentos referidos a cada aspecto estudiado. Hay que destacar que, debido a la
‘novedad’ del fenómeno Big Data, las publicaciones que se han manejado en los puntos
relacionados con el mismo son sumamente recientes debido a la dimensión e importancia
que ha tomado en muy poco tiempo este fenómeno.

Plano campus “ESPE”

Mención aparte requiere el capítulo 8 dedicado al análisis de las técnicas estadísticas


multivariantes clásicas, donde para su realización se utilizó el material y la documentación
complementaria proporcionada por el Departamento de Estadística de la Universidad
ESPE durante el desarrollo lectivo del ‘Máster en Análisis Avanzado de Datos
Multivariantes’ que he cursado. Y a la hora de objetivar el uso de cada una de estas
metodologías en un entorno Big Data, se realizó su búsqueda concreta en Google
Académico (Google Scholar: http://scholar.google.es/) utilizando para ello unos criterios
muy específicos: así, las consultas realizadas (siempre en inglés, sin filtro temporal y
buscando por tipo de documento ‘PDF’ para que los resultados de la misma nos mostraran
aquellos artículos científicos disponibles en ese formato) y su resultado, a 20/06/2014,
para cada uno de los métodos fueron los siguientes:

NOMBRE DE LA CONSULTA REALIZADA RESULTADO


TÉCNICA S
“Principal Component Analysis” + “Big 378
Análisis de
Data” filetype:pdf
Componentes “Factorial Analysis” + “Big Data”
filetype:pdf 10
Principales
Análisis Factorial “Principal Coordinate Analysis” + “Big 1

Análisis de Data” filetype:pdf


Coordenadas 106
Principales

Multidimensional
“Multidimensional Scaling” + “Big Data”
Scaling
filetype:pdf
Análisis de “Correspondence Analysis” + “Big Data” 40
Correspondencias
filetype:pdf
“Cluster Analysis” + “Big Data” filetype:pdf 399
Análisis de Cluster
Análisis “Discriminant Analysis” + “Big Data” 173

Discriminante filetype:pdf “Canonical Correlation Analysis” + 43

Análisis de “Big Data”


filetype:pdf
Correlación
TABLA 1. Descripción y resultados de las consultas realizadas para las técnicas multivariantes analizadas.
Canónica

Este buscador dio lugar a una serie de resultados en forma de artículos y


presentaciones científicas y la consulta realizada individualmente a cada uno de los
textos seleccionados para ser incorporados en la revisión realizada nos condujo a utilizar
las más importantes bases de datos electrónicas donde se encontraban las mismas, entre
ellas:

 CrossRef: http://en.wikipedia.org/wiki/CrossRef

 Dialnet: http://es.wikipedia.org/wiki/Dialnet

 Science Direct: http://en.wikipedia.org/wiki/ScienceDirect

 Google Books: http://es.wikipedia.org/wiki/Google_Books

 Jstor: http://es.wikipedia.org/wiki/Jstor

 Open WorldCat: http://es.wikipedia.org/wiki/Online_Computer_Library_Center

 Scopus: http://es.wikipedia.org/wiki/Scopus
A muchas de las cuales hemos podido tener acceso gracias a los recursos
proporcionados a los alumnos y personal docente que ofrece el ‘Servicio de Bibliotecas
de la Universidad de Espe’.

Otro aspecto que ha requerido de una metodología concreta ha sido la elaboración


del glosario para todos aquellos términos que deben ser conocidos para poder seguir
correctamente, por parte del lector, el desarrollo del TFM pero que no son explicados
directamente en los capítulos correspondientes. Para ello y por cada término se ha
realizado una búsqueda concreta del mismo (normalmente en inglés) utilizando
Wikipedia como recurso principal de consulta.

También podría gustarte