Está en la página 1de 17

Israel Álvarez Moctezuma

Historia Aplicada

Las herramientas digitales en las nuevas formas de hacer historia.


El objetivo de este ensayo es explicar brevemente cómo la visualización de datos y la
creación de bases de datos (tanto musicales, cómo de redes y prosopográficas, etcétera)
pueden brindar argumentos para una nueva interpretación de un tema de historia
cultural como lo es la historia de la música, tanto de su creación como de su consumo y
circulación. Nuestro interés es empezar a trazar una ruta por la cual los métodos y los
resultados de las humanidades digitales puedan superar la discusión inicial para
consolidarse como un nuevo paradigma de interpretación histórica.
Nuestra propuesta es que las herramientas digitales usadas para la visualización
de datos pueden volverse un pilar metodológico para una nueva interpretación del
pasado musical, de su estudio e interpretación contemporánea.
Las tecnologías digitales brindan nuevas oportunidades para analizar y
visualizar grandes conjuntos de datos en las humanidades.1 Esto permite descubrir
patrones, tendencias, redes y relaciones que de otra manera serían difíciles de
identificar. El análisis de datos digitales puede enriquecer la comprensión de
fenómenos culturales, pictóricos, literarios, musicales o lingüísticos. En este sentido, las
Humanidades Digitales fomentan la experimentación y la innovación en la aplicación
de metodologías y herramientas digitales. Los investigadores pueden explorar nuevas
formas de análisis, presentación y narrativa de datos, utilizando recursos como
visualizaciones interactivas, análisis de redes sociales, procesamiento de lenguaje
natural, entre otros. Esto permite abordar viejas preguntas de investigación desde
perspectivas renovadas y creativas.2
Como sabemos, las Digital Humanities como campo de investigación
interdisciplinar, combina las humanidades tradicionales con las herramientas y

1 Podríamos decir que todo en el universo, tanto la materia, como la luz, la energía, y todo cuanto nos
rodea es información. En este sentido, se acuñó un concepto para referirse al almacenamiento de
grandes cantidades de información: esto es, la información que existe en el mundo: Big data,
macrodatos o datos masivos
2 Lincoln, Mullen. “A Braided Narrative for Digital History.” In Debates in the Digital Humanities 2019,

edited by Matthew K. Gold and Lauren F. Klein, 382–88. University of Minnesota Press, 2019.

1
metodologías digitales para estudiar y analizar diferentes aspectos de la cultura y la
historia. Esta variante disciplinar se centra en cómo las tecnologías digitales pueden
transformar la forma en que los historiadores llevamos a cabo nuestras investigaciones,
enseñamos a nuestros alumnos y colegas, aprendemos y comunicamos nuestras
investigaciones en el ámbito de las humanidades clásicas, esto es en la Historia, la
Filología, la Filosofía, la Historia del Arte, entre otras. 3
La metodología de las Humanidades Digitales implica la aplicación de enfoques
provenientes del ámbito de las tecnologías computacionales y del uso de herramientas
digitales para recopilar, organizar, analizar, visualizar y presentar datos relacionados
con temas humanísticos. Un proyectos de Humanidades Digitales debe seguir una serie
de pasos definidos que no distan mucho de los proyectos de investigación tradicionales.
En este sentido, los proyectos de humanidades digitales se distinguen por el uso de
herramientas y tecnologías digitales, y en lo que tal vez sea de mayor importancia, en la
creación de sus propias bases de datos y corpus documentales. 4
Aunque cada proyecto puede variar en su enfoque y metodología específica, hay
algunos aspectos generales que suelen estar involucrados:
Recopilación de datos: en un primer momento, se tienen que recopilar los datos digitales
relevantes para la investigación. Estos datos pueden incluir textos, imágenes, archivos
de audio, videos, datos históricos, datos de redes sociales, entre otros. Este proceso
podría ser el equivalente al que realiza el historiador al ir al archivo, seleccionar y
categorizar sus legajos documentales y al elegir qué documentos y cuales no, formarán
parte de su investigación.5 En muchos sentidos, este paso del proceso será el
fundamento del proyecto, pues determinará tanto el problema historiográfico a
estudiar, como los resultados mismos del proyecto. Identificar y recopilar los datos

3 Sobre la incidencia de los proyectos de humanidades digitales en las prácticas humanísticas


tradicionales últimamente se ha abierto la discusión: Claire Battershill, “The Stories We Tell: Project
Narratives, Project Endings, and the Affective Value of Collaboration”, en Digital Humanities Quarterly,
Vol. 17, Num. 1:
http://www.digitalhumanities.org/dhq/vol/17/1/000665/000665.html
4 Cfr. Andrew Gomez. “The Making of the Digital Working Class: Social History, Digital Humanities, and

Its Sources.” In Debates in the Digital Humanities 2019, edited by Matthew K. Gold and Lauren F. Klein,
399–404. University of Minnesota Press, 2019.
5 Cfr. Arlette Farge, La vida frágil (México, Instituto Mora, 1994) p. 8 y ss; y Megan Ward and Adrian S.

Wisnicki. “The Archive after Theory.” In Debates in the Digital Humanities 2019, edited by Matthew K.
Gold and Lauren F. Klein, 200–206. University of Minnesota Press, 2019.

2
determinará qué tipo de datos necesitamos para nuestro proyecto y dónde podemos
obtenerlos. Este corpus documental puede estar conformado por textos, imágenes,
archivos de audio, datos estadísticos históricos, datos de redes sociales, entre otros.
Otro paso que debemos llevar a cabo es la evaluación de la calidad de los datos. Antes
de comenzar a depurar y preparar los datos, es importante evaluar su calidad. Esto
implica verificar la precisión, la integridad y la coherencia de los datos. Identifica
posibles errores, duplicados o información faltante que deba abordarse durante el
proceso de depuración. Esto es muy importante, pues en bases de datos digitales, una
compilación de datos con errores alterados puede alterar de forma significativa los
resultados de nuestra investigación, creando falsas interpretaciones o visualizaciones
imprecisas.
La depuración y preparación de datos es un proceso minucioso, en donde las
precisión es fundamental: una vez que se han recopilado los datos, es necesario
procesarlos y prepararlos para su análisis. Esto puede implicar la eliminación de
información innecesaria, la normalización de los formatos de datos y la resolución de
problemas técnicos o de calidad de los mismos. Este proceso pasa igualmente por varias
etapas de construcción de nuestro corpus documental. Entre los más relevantes están
la limpieza y estandarización digital de los datos que han de conformar nuestro corpus.
Esto es, examinar los datos y elimina cualquier información irrelevante o innecesaria
que no sea relevante para nuestro proyecto. Esto puede incluir eliminar columnas o
variables que no sean necesarias, así como filtrar registros o instancias que no cumplan
con ciertos criterios específicos.
Normalizar los datos implica el asegurarse de que los datos estén en un formato
consistente y estandarizado. Esto puede implicar la normalización de formatos de
fecha, unidades de medida, categorías analíticas o cualquier otro aspecto que requiera
una consistencia en el análisis posterior. Examinar los datos en busca de errores o
inconsistencias y tomar medidas para resolverlos evitará que posibles datos con
erratas o inconsistentes contaminen nuestra base de datos. Esto puede incluir corregir
errores tipográficos, fusionar registros duplicados, llenar datos faltantes mediante
técnicas de imputación o tomar decisiones sobre cómo manejar los valores atípicos o

3
ambiguos. En muchas ocasiones es necesario estandarizar y codificar los datos. Esta
estandarización y codificación de los datos facilitará nuestro análisis y comparación.
Esto puede implicar la aplicación de esquemas de codificación específicos o la
asignación de categorías predefinidas a los datos.
Es importante mantener un registro detallado de los pasos que se han seguido
durante el proceso de depuración y preparación de datos. Esto permitirá que otros
investigadores comprendan y reproduzcan nuestro trabajo, y ayudará a mantener un
seguimiento claro de los cambios realizados en los datos y en las bases que vayamos
creando.
Todo este proceso es similar al llevado a cabo por la filología y la ecdótica al fijar
y reconstruir un texto para hacer una edición crítica de una crónica medieval, o de un
documento jurídico de la época de Alfonso el Sabio, por mencionar algunos ejemplos.6
Aunque la metodología puede variar dependiendo del proyecto y del tipo de datos que
se estén utilizando, adaptar el proceso a las necesidades específicas es esencial para
garantizar la calidad y confiabilidad de los datos con los que trabajarás en tu proyecto
de Humanidades Digitales.
La construcción de una base de datos para proyectos de Humanidades Digitales
implica varios procesos: se comienza por definir los requisitos de la base de datos. Esto
implica identificar qué tipo de datos se desean almacenar y qué información específica
necesitamos capturar. Por ejemplo, si se está trabajando con textos, se podría querer
almacenar el título, autor, fecha, contenido y otros metadatos relevantes, tanto
editoriales como textuales. Una vez que se han definido los requisitos, debemos crear
un diseño conceptual de la base de datos. Esto significa identificar las entidades (por
ejemplo, libros, autores) y las relaciones entre ellas. Puedes utilizar diagramas de
entidad-relación (ER) para visualizar y representar estas entidades y relaciones. Como
mencionamos, la normalización es un proceso importante para asegurar la integridad y
eficiencia de la base de datos. Implica dividir las entidades en tablas y definir las
relaciones adecuadas entre ellas. La normalización ayuda a eliminar la redundancia de

6Crítica textual para Dummies tiene como objetivo mostrar a investigadores sin formación filológica, o
que se están iniciando, cómo puede editarse un texto medieval o renacentista:
https://ecdotica.hypotheses.org/

4
datos y garantiza una estructura de base de datos eficiente. Debemos elegir el sistema
de gestión de bases de datos (SGBD) que se ajuste a las necesidades de nuestro
proyecto. Algunos ejemplos populares son MySQL7, PostgreSQL8, MongoDB9 y SQLite10.
Se deben considerar factores como el rendimiento, la escalabilidad y la compatibilidad
con tus herramientas y lenguajes de programación elegidos. Con el diseño y el SGBD
seleccionados, puedes proceder a implementar la base de datos. Esto implica crear las
tablas y definir los campos, tipos de datos y restricciones necesarios. Puedes utilizar
SQL (Structured Query Language) para crear y administrar la base de datos. Una vez
que la base de datos está configurada, se puede comenzar a importar los datos
relevantes. Esto puede involucrar la extracción de datos de fuentes existentes, la
transformación de formatos de datos si es necesario y la carga de datos en las tablas
correspondientes. Para mejorar el rendimiento de las consultas, es recomendable crear
índices en los campos relevantes. Esto acelera la búsqueda y recuperación de datos.
También pueden realizarse optimizaciones adicionales, como la creación de vistas o la
configuración de parámetros de rendimiento según sea necesario. Una vez que la base
de datos está en funcionamiento, es importante realizar tareas de mantenimiento y
actualización periódicas. Esto puede incluir la realización de copias de seguridad, la
aplicación de parches de seguridad y la optimización continua del rendimiento.
Es importante destacar que este es un proceso general y los detalles pueden
variar según los requisitos y las herramientas específicas utilizadas en cada proyecto
de Humanidades Digitales. Además, es fundamental considerar aspectos éticos y de
privacidad al construir y gestionar una base de datos, asegurándose de cumplir con las

7 MySQL es un sistema de gestión de bases de datos relacional de código abierto ampliamente utilizado.
Es potente y escalable, y es adecuado para proyectos que requieren bases de datos más grandes y
complejas. MySQL se utiliza comúnmente en combinación con lenguajes de programación como PHP
para el desarrollo de aplicaciones web.
8 PostgreSQL es otro sistema de gestión de bases de datos relacional de código abierto que es muy

popular en proyectos de Humanidades Digitales. Ofrece una amplia gama de características y soporta
funciones avanzadas como extensiones, índices espaciales y búsqueda de texto completo.
9 MongoDB es una base de datos NoSQL que utiliza un modelo de documentos en lugar de tablas y filas.

Es especialmente útil cuando se trabaja con datos no estructurados o semiestructurados, como texto,
imágenes o datos de redes sociales. MongoDB es altamente escalable y flexible.
10 SQLite es una biblioteca de base de datos relacional ligera y de código abierto que se utiliza

ampliamente en aplicaciones móviles y otros entornos donde se requiere una base de datos
incorporada. Es fácil de usar y no requiere configuraciones complejas, lo que lo convierte en una opción
popular para proyectos más pequeños o individuales.

5
regulaciones y proteger la información sensible. Un buen ejemplo de una base de datos
prosopográfica es la realizada por el proyecto “Hidalgos, labradores y mercaderes”. 11
El Análisis de datos (data analysis) es una parte del proceso ya posterior, es
donde se aplican técnicas y herramientas computacionales para analizar los datos
recopilados. Pueden emplearse métodos de análisis cuantitativo, como “la minería de
datos”12, el modelado estadístico o el análisis de redes, así como enfoques cualitativos
para interpretar y contextualizar los datos.
Una vez que se han analizado los datos, se pueden utilizar técnicas de
visualización para representar gráficamente los resultados. Las visualizaciones pueden
ayudar a identificar patrones, tendencias o relaciones en los datos de manera más
intuitiva y comprensible. Este es un proceso de representar información y datos de
manera visual y gráfica para facilitar su comprensión y análisis. Consiste en utilizar
elementos visuales, como gráficos, diagramas, mapas y otras representaciones visuales,
para comunicar datos de manera efectiva.
El objetivo principal de la visualización de datos es transformar datos complejos
y abstractos en representaciones visuales más comprensibles y significativas. Al
presentar los datos de forma visual, se facilita la identificación de patrones, tendencias,
relaciones y anomalías, lo que permite una mejor comprensión y toma de decisiones
basadas en la información presentada.
Las representaciones visuales permiten que la información sea procesada más
rápidamente por el cerebro humano en comparación con la lectura de datos en formato
tabular o textual. La visualización facilita la identificación rápida de patrones y
tendencias. Las visualizaciones pueden revelar relaciones y correlaciones ocultas entre

11 Se trata de un proyecto abierto y colaborativo que busca recopilar los datos biográficos de todas
aquellas personas que aparecen reflejadas en las fuentes documentales de la época medieval e inicios
de la moderna con el objeto de reconstruir, en la medida de lo posible, sus transcursos vitales. El
objetivo final es reconstruir las redes sociales configuradas en el periodo y espacio escogido,
inicialmente los territorios de la Cornisa Cantábrica al final de la Edad Media:
https://www.hilame.info/
12 La minería de datos es un proceso que consiste en descubrir patrones, relaciones y conocimientos

relevantes a partir de grandes conjuntos de datos. También se conoce como descubrimiento de


conocimiento en bases de datos (KDD, por sus siglas en inglés). Es un campo interdisciplinar que
combina técnicas de estadística, aprendizaje automático, inteligencia artificial y bases de datos.

6
diferentes variables o conjuntos de datos. Esto puede ayudar a descubrir insights y
generar nuevos conocimientos.
Las visualizaciones de datos son más atractivas y accesibles para una audiencia
no especializada. Permiten comunicar de manera más efectiva información compleja y
hacer que los datos sean más accesibles y comprensibles para un público más
amplio.También ayuda a identificar patrones o puntos atípicos que no serían evidentes
en una representación de datos numéricos. Esto puede ser útil para detectar anomalías,
errores o áreas de interés que requieren un análisis adicional.
Actualmente existen varios tipos y técnicas para hacer visualizaciones de datos.
Las visualizaciones interactivas permiten a los usuarios explorar los datos de manera
activa, ajustar parámetros y obtener diferentes perspectivas. Esto fomenta el
descubrimiento y la interacción con los datos. Algunas técnicas comunes de
visualización de datos incluyen gráficos de barras, gráficos circulares, gráficos de líneas,
diagramas de dispersión, mapas, diagramas de árbol, diagramas de red y muchos otros.
La elección de la técnica de visualización adecuada depende de la naturaleza de los
datos y los objetivos de análisis.
Algunas de las herramientas más usadas en la actualidad por los humanistas
digitale son:
● Tableau es una herramienta de visualización de datos que permite crear
visualizaciones interactivas y dinámicas. Ofrece una interfaz intuitiva y fácil de
usar, y es útil tanto para usuarios principiantes como para expertos. Tableau
permite conectar y visualizar datos de diversas fuentes y ofrece una amplia
gama de tipos de gráficos y opciones de personalización. 13
● Power BI es una herramienta popular para la visualización de datos desarrollada
por Microsoft. Permite crear paneles interactivos y visualizaciones atractivas
utilizando una variedad de gráficos y tablas. Power BI también permite la

13Un ejemplo de análisis de textos con la herramienta Tableu es el proyecto Word Usangein Sacred
Texts:
https://public.tableau.com/views/WordUsageinSacredTextsWIP/Comparison?:language=es-
ES&:display_count=n&:origin=viz_share_link

7
conexión con múltiples fuentes de datos y ofrece opciones de colaboración y uso
compartido.
● D3.js (Data-Driven Documents) es una biblioteca de JavaScript ampliamente
utilizada para la creación de visualizaciones de datos personalizadas.
Proporciona una amplia gama de herramientas y componentes para manipular
y visualizar datos utilizando HTML, SVG y CSS. D3.js ofrece un alto grado de
flexibilidad y control sobre el diseño y la interactividad de las visualizaciones.
● Plotly es una biblioteca de visualización de datos en Python que ofrece una
amplia variedad de gráficos interactivos y elegantes. Además de Python, Plotly
también se puede utilizar con otros lenguajes de programación como R,
JavaScript y Julia. Plotly permite la creación de visualizaciones estáticas y
dinámicas y es altamente personalizable.
● Google Data Studio es una herramienta gratuita y basada en la web para la
visualización de datos. Permite crear informes interactivos y paneles de control
utilizando datos de diversas fuentes, como Google Sheets, bases de datos, Google
Analytics y más. Google Data Studio ofrece opciones de colaboración y uso
compartido en tiempo real.
La elección de la herramienta dependerá de factores como la complejidad de los
datos, el nivel de interactividad requerido, las habilidades técnicas y las preferencias
personales.
Finalmente, la visualización de datos desempeña un papel fundamental en la
exploración, comprensión y comunicación de datos. Ayuda a revelar patrones,
tendencias y relaciones de manera más efectiva, facilitando la toma de decisiones
informada y generando conocimiento a partir de los datos.
Un buen ejemplo de el uso de estas herramientas en el ámbito de las humanidades
digitales con temáticas de las humanidades tradicionales es el proyecto “ToposText”:
ToposText es una colección indexada de textos antiguos y lugares mapeados relevantes
para la historia y la mitología de los antiguos griegos desde el Neolítico hasta el siglo II
d.C. Fue inspirado por décadas de exploración de Grecia y por esfuerzos para apreciar
(επί τόπου) la información relevante de Pausanias y otras fuentes primarias griegas. El
Proyecto Pléyades, con su base de datos descargable de miles de nombres y

8
coordenadas de lugares antiguos, abrió la puerta para la indexación geográfica de textos
antiguos, utilizando un mapa de Grecia como interfaz básica. 14
En mi experiencia, he desarrollado algunos proyectos de análisis de corpus
literarios (como los libros de caballería del siglo xv), historiográficos (como las crónicas
de conquistas del siglo XV-XVI) y poético-musicales (como los cancioneros poéticos del
siglo XVI). Los proyectos de análisis de corpus literarios utilizan técnicas digitales para
examinar grandes colecciones de textos literarios. Esto puede incluir el estudio de
tendencias temáticas, análisis estilísticos, detección de influencias literarias y análisis
comparativos de autores o géneros específicos. Existen varias herramientas digitales
utilizadas para el análisis de textos en proyectos de Humanidades Digitales. 15
Por ejemplo, en un ejercicio de análisis de un corpus poético-musical
contemporáneo, utilizamos VoyantTools para analizar las líricas del último disco de
Rosalia, “Motomami”(2022), para encontrar la frecuencia de su vocabulario y la
conformación de su poética en relación a la tradición lírica caribeña. Voyant Tools es
una plataforma en línea que permite analizar y visualizar textos de manera interactiva.
Proporciona herramientas para la visualización de frecuencias de palabras, nubes de
palabras, análisis de tendencias y co-ocurrencias, entre otros. Es especialmente útil
para el análisis exploratorio de grandes colecciones de textos.

14El sitio se puede visitar aquí: https://topostext.org/the-places


15NLTK (Natural Language Toolkit) es una biblioteca de Python ampliamente utilizada para el
procesamiento del lenguaje natural. Proporciona una amplia gama de herramientas y recursos para
tareas como tokenización, lematización, etiquetado gramatical, análisis de sentimientos y extracción de
información.
SpaCy: SpaCy es otra biblioteca de Python para el procesamiento del lenguaje natural. Es conocida por
su velocidad y eficiencia, y ofrece capacidades de procesamiento avanzadas, como detección de
entidades nombradas, análisis de dependencias y extracción de frases clave.
GATE (General Architecture for Text Engineering) es un entorno de desarrollo y procesamiento de
textos de código abierto que permite realizar una amplia variedad de tareas de procesamiento de
lenguaje natural. Proporciona herramientas para el análisis de entidades, reconocimiento de relaciones,
extracción de información y clasificación de textos, entre otros.
AntConc: AntConc es un software de análisis de corpus de texto que proporciona herramientas para la
concordancia, colocalización, análisis de frecuencias y extracción de palabras clave. Es utilizado
principalmente para analizar grandes colecciones de textos y estudios lingüísticos.
MALLET (Machine Learning for Language Toolkit) es una biblioteca de código abierto para el
aprendizaje automático en textos. Ofrece herramientas y algoritmos para la clasificación de textos,
agrupamiento, modelado de tópicos y extracción de información. Es especialmente útil para el análisis
cuantitativo de grandes volúmenes de textos.

9
Para el ejemplo de Rosalia, los resultados que obtuvimos fueron interesantes: no
tiene una gran densidad de vocabulario -812 palabras únicas-, pero lo interesante es
que las letras parecen de trap, con muchos coros, y estribillos de métrica irregular. El
índice de legibilidad es muy alto, en el sentido en que el lenguaje elegido es muy directo.
y como se puede ver, un uso profuso de pronombres personales y coros con palabras
desarticuladas. de todo esto podemos sacar dos conclusiones:
1) para este disco, Rosalia decidió no echar mano de letras complejas y ricas, como sí lo
hizo en “El Malquerer” de 2018.
2) esto lo decidió, proponemos, para alejarse del “lirocentrismo” y enfocarse en la
música, en la producción y en el sonido.16

Fig.1 Nubes cirrus del


corpus “Motomami”.

16Los resultados completos se pueden consultar aquí:


https://voyant-tools.org/?corpus=e8e69f47f7bce222d9648005a18cefbe

10
Fig. 2. Terminos berry del corpus.

Fig. 3. Tendencias del corpus “Motomami”.

11
Uno de los objetivos de mi investigación doctoral es crear una base de datos inédita,
tanto de la producción académica qué el estudio de la música colonial ha generado a lo
largo del siglo XX y hasta nuestros días, cómo de la producción discográfica de música
novohispana. Mi propósito es generar visualizaciónes de datos que sean útiles para
crear nuevas interpretaciones del estudio de la música colonial y de cómo las
comunidades académicas han terminado por crear un canon, tanto de repertorios
musicales, de autores y de categorías y conceptos.Con esto, nuestro propósito es
realizar un estudio historiográfico crítico, en donde podamos observar nuestro propio
trabajo como investigadores del pasado musical colonial, y como hemos difundido, o
no, este trabajo de investigación.
Actualmente existen varios proyectos de humanidades digitales que podrían
influir, tanto por su metodología, como por las herramientas digitales que usan, en mi
proyecto de investigación doctoral. Muchos de estos proyectos son realizados por
instituciones universitarias o culturales, y cuentan con repositorios digitales,
bibliotecas tradicionales, mapotecas o archivos que respaldan sus respectivos
proyectos. Podríamos clasificar estos proyectos bajo cuatro grandes rubros:
digitalización de corpus documentales y pictóricos, visualización de datos culturales,
análisis textual y análisis de redes sociales.
Muchos proyectos de Humanidades Digitales se dedican a digitalizar y preservar
manuscritos antiguos y otros documentos históricos. Esto implica la creación de
imágenes digitales de alta calidad, la transcripción de textos y la creación de bases de
datos que permitan un acceso más amplio a estos materiales.
Un buen ejemplo de digitalización con acceso abierto de una biblioteca medieval
es el emprendido por la Badische Landesbibliothek: en las colecciones digitales de la
Badische Landesbibliothek se ofrece acceso libre a las obras digitalizadas de las
colecciones. Esta colección aumenta continuamente el número de libros y manuscritos
disponibles en línea. Se puede usar la función de búsqueda para buscar los títulos y
datos estructurales de las obras ya incluidas. Los aspectos más destacados de sus
colecciones y proyectos actuales se pueden encontrar en la página principal. 17

17Badische Landesbibliothek:
https://digital.blb-karlsruhe.de/blbhs/content/pageview/3853548?lang=de

12
Otro tipo de proyectos de digitalización son los dedicados a obras pictóricas, ya
sea una colección o de un autor en específico. Es el caso del proyecto realizado por el
Museo Nacional del Prado para la conmemoración del v centenario de El Bosco. En su
proyecto Second Canvas, en donde se fotografió la obra del pintor neerlandés en
gigapixeles, y gracias a esta tecnología, podemos ver detalles de la obra del Bosco que
antes solo podíamos apenas vislumbrar.18
El Carro del heno, El Bosco (ca.1500), datelle.

18 Second canvas El Bosco: www.museodelprado.es/apps/second-canvas-bosco

13
Los proyectos de visualización de datos culturales utilizan herramientas
digitales para crear visualizaciones interactivas que muestran relaciones y patrones en
datos culturales. Esto puede incluir mapas interactivos que resaltan la distribución
geográfica de eventos históricos, diagramas de redes sociales para representar
conexiones entre individuos o instituciones, o gráficos de barras y líneas para ilustrar
cambios históricos en determinados aspectos culturales. Un buen ejemplo es el mapa
textual interactivo realizado para analizar el vocabulario de artistas de hip-hop en
inglés, su uso, frecuencia y densidad.19

Existen proyectos que se centran en el análisis de sentimiento en redes sociales utilizan


técnicas de procesamiento del lenguaje natural para analizar grandes volúmenes de
mensajes en redes sociales. Esto permite comprender las actitudes y opiniones del
público hacia ciertos temas, eventos o productos culturales.20

19El sitio del mapa con su explicación: https://pudding.cool/2017/02/vocabulary/index.html


20Las herramientas de análisis de redes sociales son aplicaciones y plataformas que permiten a los
investigadores de Humanidades Digitales analizar y visualizar datos relacionados con las interacciones

14
En el caso del diagrama elaborado para analizar la colaboraciones musicales de
la música urbana contemporánea llamado “Latino Gang”, podemos conocer, gracias a la
visualización interactiva, las distintas redes de colaboraciones que realizan los artistas,
sus frecuencias y datos métricos.21

y relaciones en las redes sociales. Estas herramientas ayudan a comprender cómo se comunican las
personas, cómo se difunden las ideas y cómo se forman comunidades en el entorno digita.
21 El sitio del proyecto se puede visitar aquí:

https://public.tableau.com/app/profile/ladataviz/viz/LatinoGang/LatinoGang-EN

15
Los proyectos de crowdsourcing aprovechan la colaboración en línea para transcribir
y etiquetar grandes colecciones de documentos históricos. Esto permite a
investigadores y trabajar en conjunto para hacer accesibles y legibles documentos que
de otro modo serían difíciles de descifrar. Es el caso del proyecto “Pathways to
understanding 16th century Mesoamérica”, dedicado a la digitalización y transcripción
de códices novohispanos de tradición indígena.22
Estos son solo algunos ejemplos de los diversos tipos de proyectos que se llevan
a cabo en el campo de las Humanidades Digitales. Cada proyecto aborda preguntas e
investigaciones específicas utilizando herramientas y metodologías digitales para
enriquecer la comprensión de la cultura, el arte, la historia, la literatura y otras
disciplinas humanísticas.

BIBLIOGRAFÍA Y REFERENCIAS:
Battershill Claire, “The Stories We Tell: Project Narratives, Project Endings, and the
Affective Value of Collaboration”, en Digital Humanities Quarterly, Vol. 17, Num. 1:
http://www.digitalhumanities.org/dhq/vol/17/1/000665/000665.html
Daniels Matt, The Largest vocabulary in Hip-Hop:
Https://pudding.cool/2017/02/vocabulary/index.html
Farge, Arlette. La vida frágil, México, Instituto Mora, 1994.
Crítica textual para Dummies: https://ecdotica.hypotheses.org/
Guillevin Tristan, Latino Gang!. Latin Music Collaboration:
https://public.tableau.com/app/profile/ladataviz/viz/LatinoGang/LatinoGang-EN
GOMEZ, ANDREW. “The Making of the Digital Working Class: Social History, Digital
Humanities, and Its Sources.” In Debates in the Digital Humanities 2019, edited by
Matthew K. Gold and Lauren F. Klein, 399–404. University of Minnesota Press, 2019.
https://doi.org/10.5749/j.ctvg251hk.36.
Hidalgos, labradores y mercaderes: https://www.hilame.info/

22Pathways to understanding 16th century Mesoamérica: https://www.lancaster.ac.uk/digging-


ecm/portfolio-items/pathways-to-understanding-16th-century-mesoamerica/

16
Mullen, Lincoln. “A Braided Narrative for Digital History.” In Debates in the Digital
Humanities 2019, edited by Matthew K. Gold and Lauren F. Klein, 382–88. University
of Minnesota Press, 2019. https://doi.org/10.5749/j.ctvg251hk.34.
TopsText: https://topostext.org/the-places
Ward, Megan, And Adrian S. Wisnicki. “The Archive after Theory.” In Debates in the
Digital Humanities 2019, edited by Matthew K. Gold and Lauren F. Klein, 200–206.
University of Minnesota Press, 2019. https://doi.org/10.5749/j.ctvg251hk.21.
Word Usangein Sacred Texts:
https://public.tableau.com/views/WordUsageinSacredTextsWIP/Comparison?:langu
age=es-ES&:display_count=n&:origin=viz_share_link

17

También podría gustarte