Está en la página 1de 32

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA


MECÁNICA Y ELÉCTRICA
UNIDAD ZACATENCO

HUMANIDADES V
Profesora:
CARMINA CELIA DE LA PAZ
LOPEZ

TRABAJO DE INVESTIGACION
BIG DATA
ALUMNOS:
 BELLO GERMÁN LAURA
 ENRIQUEZ PEREZ JOSUE
 ARGUETA ALEJANDRO
LUIS F
 ORTEGA SANCHEZ LUIS A
 SALAZAR RAMOS EDGAR

1
INDICE

INTRODUCCIÓN.............................................................................................................................3
ANTECEDENTES...........................................................................................................................5
ESTADO DEL ARTE.......................................................................................................................9
Estado actual de Big Data........................................................................................................10
Dimensiones de Big Data.........................................................................................................11
Análisis de Big Data..................................................................................................................12
USOS..............................................................................................................................................13
Big Data en Marketing y Ventas...........................................................................................13
Big Data para la lucha contra el crimen.............................................................................13
Big Data en Deportes..............................................................................................................13
Big Data en Política.................................................................................................................13
Big Data en Telecomunicaciones........................................................................................14
Big Data en Salud y Sanidad................................................................................................14
Cuáles son las aplicaciones del Big Data ambiental......................................................14
La lucha contra el cambio climático y el calentamiento global...................................15
USUARIOS.....................................................................................................................................16
MARCO JURIDICO.......................................................................................................................18
COSTO-BENEFICIO.....................................................................................................................23
ALCANCES Y LIMITACIONES...................................................................................................24
IMPACTO AMBIENTAL................................................................................................................26
Green data':..............................................................................................................................27
BIBLIOGRAFIA..............................................................................................................................29

2
INTRODUCCIÓN

El mundo es cada vez más un gigantesco yacimiento de información digital, en el


que el 90% de los datos existentes se han generado en los dos últimos años. Y
como en todas las fiebres del oro, los mineros toman posiciones para extraer el
mayor beneficio al nuevo manantial. Bienvenidos al «Big Data». Así denominan los
expertos a este «oro negro» invisible de la era digital, albergado en enormes
bases de datos donde almacenamos la huella virtual de casi todas las
dimensiones de nuestra existencia: nuestra vida privada, nuestra actividad pública,
laboral y económica, y nuestras andanzas en Internet y las redes sociales.

El primer cuestionamiento que posiblemente llegue a su mente en este momento


es ¿Qué es Big Data y porqué se ha vuelto tan importante? pues bien, en
términos generales podríamos referirnos como a la tendencia en el avance de la
tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y
toma de decisiones, la cual es utilizada para describir enormes cantidades de
datos (estructurados, no estructurados y semi estructurados) que tomaría
demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional
para su análisis. De tal manera que, el concepto de Big Data aplica para toda
aquella información que no puede ser procesada o analizada utilizando procesos
o herramientas tradicionales. Sin embargo, Big Data no se refiere a alguna
cantidad en específico, ya que es usualmente utilizado cuando se habla en
términos de petabytes y exabytes de datos. Entonces ¿Cuánto es demasiada
información de manera que sea elegible para ser procesada y analizada
utilizando Big Data? Analicemos primeramente en términos de bytes:

Gigabyte = 10 9 = 1,000,000,000

Terabyte = 10 12 = 1,000,000,000,000

Petabyte = 10 15 = 1,000,000,000,000,000

Exabyte = 10 18 = 1,000,000,000,000,000,000

Además del gran volumen de información, esta existe en una gran variedad de


datos que pueden ser representados de diversas maneras en todo el mundo, por
ejemplo de dispositivos móviles, audio, video, sistemas GPS, incontables
sensores digitales en equipos industriales, automóviles, medidores eléctricos,
veletas, anemómetros, etc., los cuales pueden medir y comunicar el
posicionamiento, movimiento, vibración, temperatura, humedad y hasta los
cambios químicos que sufre el aire, de tal forma que las aplicaciones que
analizan estos datos requieren que la velocidad de respuesta sea lo demasiado

3
rápida para lograr obtener la información correcta en el momento preciso. Estas
son las características principales de una oportunidad para Big Data.

Es importante entender que las bases de datos convencionales son una parte
importante y relevante para una solución analítica. De hecho, se vuelve mucho
más vital cuando se usa en conjunto con la plataforma de Big Data. Pensemos
en nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales
para cada tarea en específico. Por ejemplo, un beisbolista sabe que una de sus
manos es mejor para lanzar la pelota y la otra para atraparla; puede ser que
cada mano intente hacer la actividad de la otra, sin embargo, el resultado no será
el mejor.

El sector empresarial presenta gran desconocimiento sobre lo que significa Big


Data; hoy las compañías no saben qué hacer con el gran volumen de datos e
información almacenada en diferentes medios o bases de datos, los cuales
pueden ser de gran importancia, principalmente en la toma de decisiones.

Es por ello por lo que la presente investigación se orientó a evidenciar la


importancia de la Big Data y a mostrar que los datos se generan con cierta
velocidad y variedad, ocasionando el crecimiento en volumen. Como un
problema de Big Data se puede contemplar la forma como hoy crecen los datos
en volumen, velocidad y variedad; esto es debido al gran avance y uso de las
tecnologías de información, y al uso diario que las personas hacen de ellas.

La presente investigación es útil para las personas que no tienen mayor


conocimiento sobre lo que significa Big Data, sobre sus alcances, sus
tecnologías y su aprovechamiento. De la misma forma, a las empresas,
independientemente su tamaño, siempre y cuando desconozcan el uso de Big
Data, de forma que puedan gestionar datos y convertirlos en conocimiento útil en
sus labores diarias

4
ANTECEDENTES

La historia del Big Data es muy poco conocida. Como sucede frecuentemente con
las tendencias, parece que cuando explotan es algo muy novedoso que acaba de
aparecer; pero en muchos casos son la eclosión de algo que ha estado
madurando durante largo tiempo.
Como hemos comentado en otras ocasiones, el Big Data es el análisis de un gran
volumen de conjuntos de datos. Para recolectar, tratar y analizar esa ingente
cantidad de información se necesitan fórmulas de procesamiento potentes y
rápidas. Por ello, estas técnicas parecen haber surgido recientemente, gracias a
los avances tecnológicos.
Esto, en gran medida es así: el término se comienza a utilizar de forma
generalizada a finales de los años 90 y el boom llega con los avances
experimentados en campos como internet, dispositivos móviles y conexión. Sin
embargo, la historia del Big Data se remonta a mucho antes.
Hay incluso quienes lo sitúan en el paleolítico, con una lógica que relaciona el
término con el primitivo interés de los seres humanos por lograr y procesar la
información. A continuación, ahondamos un poco más en esta cuestión
compartiendo la historia del Big Data:
2400 AC. En Babilonia se extiende el uso del ábaco, un sistema para realizar
cálculos. En esta época surgen también las primeras bibliotecas como lugares
para almacenar y consultar conocimiento.
48 AC. Los Romanos, había logrado reunir medio millón de documentos con la
intención de almacenar todo el conocimiento de la Humanidad.
Siglo II AC. Se desarrolla la primera computadora mecánica conocida en Grecia.
El mecanismo de Anticitera era un aparato analógico de bronce diseñado para
predecir posiciones astronómicas. Se empleó para el estudio astrológico y para
marcar el calendario, fundamentalmente las fechas exactas de los antiguos
Juegos griegos.
1663. John Graunt realiza el primer experimento de análisis de datos estadísticos
conocido. Con los datos de defunciones, teoriza un sistema de alerta para la peste
bubónica en toda Europa.
1792 se asocia el término a la “colección y clasificación de datos “.
1865. Aparece por primera vez el término business intelligence, en la enciclopedia
comercial de Richard Millar Devens. En ella describe cómo el banquero Henry

5
Furnese logró una importante ventaja competitiva recogiendo, estructurando y
analizando datos clave de su actividad. La inteligencia de negocio es sin duda uno
de los grandes motores de la analítica dentro de la historia del big data.
1880. Herman Hollerith, empleado del censo estadounidense, desarrolla su
máquina tabuladora. Con ella consigue reducir un trabajo de 10 años a 3 meses.
Este ingeniero funda una compañía que posteriormente se conocería como IBM.
1926. Nikola Tesla predice la tecnología inalámbrica. Según su visión, el planeta
en un gran cerebro en el que todo está conectado, por lo que deberíamos ser
capaces simplificar el uso del teléfono. Predice que cada hombre llevará uno en su
propio bolsillo.
1928. El ingeniero alemán Fritz Pfleumer patenta el primer sistema magnético para
almacenar datos. Sus principios de funcionamiento se utilizan hoy en día.
1944. Primer intento de conocer la cantidad información que se crea. Se trata de
un estudio académico de Fremont Rider, que pronostica 200 millones de libros en
la Universidad de Yale en 2040, almacenados 6.000 millas de estanterías.
1958. El informático alemán Hans Peter Luhn, define la inteligencia de negocio: la
habilidad de percibir las interrelaciones de los hechos presentados para guiar
acciones hacia un objetivo deseado. En 1941 pasó a ser Gerente de Recuperación
de Información en IBM.
1962. Se presenta IBM Shoebox en la Expo de 1962. Creada por William C.
Dersch supone el primer paso en el reconocimiento de voz, capaz de registrar
palabras en inglés en formato digital.
1965. Se proyecta el primer data center en Estados Unidos, para guardar
documentación de impuestos y huellas dactilares en cintas magnéticas. Un año
antes comienzan a surgir voces que alertan del problema de guardar la ingente
cantidad de datos generada.
1970. IBM desarrolla el modelo relacional de base de datos, gracias al matemático
Edgar F. Codd. Este científico inglés es también responsable de las doce leyes del
procesamiento analítico informático y acuño el término OLAP.
1976. Se populariza el uso de MRP (software de gestión de materiales),
antecedentes de los ERP actuales, que mejoran la eficiencia de las operaciones
en la empresa; además de generar, almacenar y distribuir datos en toda la
organización.
1989. Erik Larson habla por primera vez de Big Data en el sentido que conocemos
la expresión hoy en día. La revista Harpers Magazine recoge su artículo, en el que
especula sobre el origen del correo basura que recibe. En torno a este año se
empiezan a popularizar las herramientas de business intelligence para analizar la
actividad comercial y el rendimiento de las operaciones.

6
1991. Nace internet, a la postre, la gran revolución de la recolección,
almacenamiento y análisis de datos. Tim Berners-Lee establece las
especificaciones de un sistema de red con interconexiones a nivel mundial
accesible para todos en cualquier lugar.
1993. Se funda QlikTech, germen de la actual Qlik, que crea un sistema
revolucionario de business intelligence (en 2012, Gartner comienza a hablar de
business discovery para definir ese tipo de análisis).
1996. Los precios del almacenamiento de datos empiezan a ser accesibles con un
coste eficiente en lo que es una de las grandes revoluciones en la historia del big
data. El libro La evolución de los sistemas de almacenamiento, de 2003, establece
esta fecha como el primer año en el que el almacenamiento digital es más barato
que el papel.
1997. Google lanza su sistema de búsqueda en internet y en los siguientes años
será de largo el primer lugar al que acudir en busca de datos en internet. Este
mismo año, se publica el estudio ¿Cuánta información hay en el mundo?, de
Michael Lesk. La conclusión es que hay tanta y crece a tal velocidad, que gran
parte de ella no será vista por nadie jamás.
1999. El término Big Data es analizado por primera vez en un estudio académico.
La Asociación de Sistemas Informáticos recomienda centrarse en el análisis de
información ya que existe gran cantidad de datos y no todos son útiles. Recuerdan
el propósito de la computación, que es el entendimiento, no los números.
2001. Doug Laney, de Gartner, define las 3 V’s del Big Data. Este es un hito clave
en la historia del big data. Se trata de tres conceptos que definen el término:
volumen, velocidad y variedad. Al mismo tiempo, se populariza el concepto SaaS
(software as a service).
2005. Nace la Web 2.0, una web donde predomina el contenido creado por los
usuarios. Este mismo año se crea Hadoop, un entorno de trabajo Big Data de
software libre.
2007. La revista Wired publica un artículo que lleva el concepto de Big Data a las
masas.
2010. Los datos que se generan en dos días equivalen a la cantidad de datos
generados desde el inicio de la civilización hasta 2003, según Eric Schmidt
(Google).
2013. El archivo de mensajes públicos de Twitter en la Biblioteca del Congreso de
Estados Unidos llega a los 170 billones de mensajes, creciendo a ritmo de 500
millones al día. Según la institución que alberga algunos de los documentos
históricos más importantes del mundo, dicho archivo ofrece una imagen más
amplia de las normas culturales, diálogos, tendencias y eventos de hoy en día. De

7
este modo, contribuye a una mejora de la información en procesos legislativos,
educación, definición de autoría de nuevos trabajos y otras cuestiones.

2014. Los móviles superan a los ordenadores en accesos a internet. La conexión


casi continua contribuye a generar muchos más datos y mejora la conectividad
con otros dispositivos.
2016. El Big Data se convierte en la palabra de moda. Se generaliza la
contratación de expertos en Big Data, el Machine Learning llega a las fábricas y el
Internet de las Cosas empieza a impregnarlo todo.
2017. Los datos llegan a las masas. La gente controla sus patrones de descanso
con pulseras, sabe en qué se gasta el dinero con aplicaciones móviles y se
informa sobre la posesión de balón de su equipo de fútbol. Los datos están en
todas partes y la población está ya predispuesta a usarlos.

8
ESTADO DEL ARTE

Para iniciar, se presentan algunas definiciones sobre el término Big Data, del cual
existen innumerables definiciones, entre ellas se tienen:
Segúni, el término aplica a la información que no puede ser procesada o analizada
mediante procesos tradicionales.
Para, Big Data son “cantidades masivas de datos que se acumulan con el tiempo
que son difíciles de analizar y manejar utilizando herramientas comunes de
gestión de bases de datos”, [3], Big Data se refiere “al tratamiento y análisis de
enormes repositorios de datos, tan desproporcionadamente grandes que resulta
imposible tratarlos con las herramientas de bases de datos y analíticas
convencionales”.
Por su parte, el analista Dan Kusnetzky, del Grupo Kusnetzky [4], señala que “La
frase Big Data se refiere a las herramientas, procesos y procedimientos que
permitan a una organización crear, manipular y administrar grandes conjuntos de
datos e instalaciones de almacenamiento”.
En [5],“Forrester define Big Data como las técnicas y tecnologías que hacen que
sea económico hacer frente a los datos a una escala extrema. Big Data trata de
tres cosas: 1) Las técnicas y la tecnología, lo que significa que la empresa tenga
personal, el cual tenga gran representación y análisis de datos para tener un valor
agregado con información que no ha sido manejada.
2) Escala extrema de datos que supera a la tecnología actual debido a su
volumen, velocidad y variedad.
3) El valor económico, haciendo que las soluciones sean asequibles y ayuden a la
inversión de los negocios”.
Según [7], Big Data “se refiere a las herramientas, los procesos y procedimientos
que permitan a una organización crear, manipular y gestionar conjuntos de datos
muy grandes y las instalaciones de almacenamiento”.
Gartner [5] define el Big Data como “un gran volumen, velocidad o variedad de
información que demanda formas costeables e innovadoras de procesamiento de
información que permitan ideas extendidas, toma de decisiones y automatización
del proceso”.

9
Y [4] indica que “Big Data consiste en consolidar toda la información de una
organización y ponerla al servicio del negocio”

Estado actual de Big Data

Las investigaciones en Big Data son bastantes en la actualidad; aquí se presentan


algunas de ellas:
Una encuesta realizada por LogLogic encuentra que el 49% de las organizaciones
están algo o muy preocupados por la gestión de Big Data, pero que el 38% no
entiende lo que es, y el 27% dice que tiene una comprensión parcial; además, la
encuesta encontró que 59% de las organizaciones carecen de las herramientas
necesarias para gestionar los datos de sus sistemas de TI. Khera explicó que: “Big
Data se trata de muchos terabytes de datos no estructurados”, donde “La
información es poder, y Big Data, si se gestiona correctamente, puede
proporcionar una cantidad de conocimiento”. Según la encuesta, el 62% mencionó
que ya había gestionado más de un terabyte de datos; eso indica que el volumen
de datos en el mundo está aumentando a un ritmo casi incomprensible.
Señala Beyer de Gartner y otros expertos que: “los grandes volúmenes de datos, o
Big Data, requieren grandes cambios en el servidor, la infraestructura de
almacenamiento y la arquitectura de administración de la información en la
mayoría de las empresas”.
McKinsey dice que es necesario prepararse para contratar o reciclar personal,
pues las empresas u organizaciones carecen de personas capacitadas en Big
Data. Además, “proyecta que para el 2018, solo en Estados Unidos, se
necesitarán entre 140 mil y 190 mil nuevos expertos en métodos estadísticos y
tecnologías de análisis de datos, incluyendo el ampliamente publicitado papel de
científico de datos”. Señala Williams de Catalina, “La gente que construyó las
bases de datos del pasado no son necesariamente las personas que van a
construir las bases de datos del futuro”.
Según el estudio de Worldwide Big DataTechnology and Services 2013-2017 de
IDC, “La tecnología y servicios de Big Data crecerá con una tasa anual de
crecimiento compuesto del 27% hasta llegar a los 32.400 millones de dólares en
2017, unas seis veces la tasa de crecimiento del mercado general de tecnologías
de la información y comunicaciones”.

10
Dimensiones de Big Data

Existen tres características o dimensiones: Volumen, Velocidad y Variedad.


1) Volumen: Cada día, las empresas registran un aumento significativo de sus
datos (terabytes, petabytes y exabytes), creados por personas y máquinas. En el
año 2000 se generaron 800.000 petabytes (PB), de datos almacenados y se
espera que esta cifra alcance los 35 zettabytes (ZB) en el 2020. Las redes
sociales también generan datos, es el caso de Twitter, que por sí sola genera más
de 7 terabytes (TB) diariamente, y de Facebook, 10 TB de datos cada día. Algunas
empresas generan terabytes de datos cada hora de cada día de año, es decir, las
empresas están inundadas de datos [1].
2) Variedad: Se puede mencionar que va muy de la mano con el volumen, pues de
acuerdo con éste y con el desarrollo de la tecnología, existen muchas formas de
representar los datos; es el caso de datos estructurados y no estructurados; estos
últimos son los que se generan desde páginas web, archivos de búsquedas, redes
sociales, foros, correos electrónicos o producto de sensores en diferentes
actividades de las personas; un ejemplo [1] es el convertir 350 mil millones de
lecturas de los medidores por año para predecir el consumo de energía.
3) Velocidad: Se refiere a la velocidad con que se crean los datos, que es la
medida en que aumentan los productos de desarrollos de software (páginas web,
archivos de búsquedas, redes sociales, foros, correos electrónicos, entre otros).
Las tres características tienen coherencia entre sí; por ejemplo [2], analizar 500
millones de registros de llamadas al día en tiempo real para predecir la pérdida de
clientes.

11
Análisis de Big Data

El Big Data crece diariamente, como ya se mencionó,y una de las justificaciones


es que los datos provienen de gran variedad de fuentes, tales como la Web, bases
de datos, rastros de clics, redes sociales, Call Center, datos geoespaciales, datos
semiestructurados (XML, RSS), provenientes de audio y video, los datos
generados por los termómetros, datos de navegación de sitios web durante cierto
tiempo, las RFID (Radio Frequency Identification - identificación por
radiofrecuencia) [5].
Existen algunos beneficios del análisis de Big Data para las organizaciones, tal
como se observó en el área de marketing, demostrados en la encuesta realizada
por TDWI (The Data Warehousing Institute), cuando preguntó: “¿Cuál de los
siguientes beneficios se produciría si la organización implementa alguna forma de
análisis de Big Data?”. El 61% respondió que influye de manera social; el 45%,
que habrá más puntos de vista de negocio; el 37% se inclinó por las decisiones
automatizadas en los procesos en tiempo real; el 29% mencionó que se mejoraría
la planificación y la previsión, y el 27%, que se entendería el comportamiento del
consumidor [6].
Según la misma encuesta, se encontraron ciertos inconvenientes del análisis del
Big Data, entre ellos: la falta de personal y de habilidades del recurso humano
(46%), la dificultad en la arquitectura de un sistema de análisis de Big Data (33%),
problemas con el Big Data utilizable para los usuarios finales (22%), la falta de
patrocinio empresarial (38%) y la deficiencia de un argumento empresarial
convincente (28%), la carencia de análisis de bases de datos (32%), problemas de
escalabilidad de Big Data (23%), rapidez en las consultas (22%) y dificultad para
cargar los datos lo suficientemente rápido (21%), entre otros [6].
Ante la pregunta sobre cada cuánto realizan análisis de Big Data, se halló que
anualmente, el 15%; mensual, el 35%; semanal, el 14%; diario, 24%; cada poca
hora, 5%; cada hora, 4%; en tiempo real, 4%. Lo anterior fue el resultado de 96
entrevistados [16]. El objetivo del análisis de datos es examinar grandes
cantidades de datos con una variedad de clases, con el fin de descubrir
información que sea relevante y útil para la empresa, de manera que le permita
tomar las mejores decisiones y obtener ventajas competitivas en comparación con
otras de su clase.

12
El análisis de datos se realiza con tecnologías de bases de datos como NoSQL,
Hadoop y MapReduce, las cuales soportan el procesamiento del Big Data.

USOS

Existen múltiples herramientas para trabajar el Big Data como, por


ejemplo, Hadoop, Spark, BBDD NoSQL, etc. A continuación, vamos a comentar
algunos ejemplos concretos de utilización del Big Data:

Big Data en Marketing y Ventas

Los datos de los clientes se analizan y procesan obteniendo información relativa a


sus gustos, preferencias, comportamientos. Así se pueden clasificar o segmentar
a los mismos en diferentes categorías y utilizar modelos predictivos para que las
organizaciones puedan tener indicadores de aceptación de sus productos,
potenciales ventas, etc.

Big Data para la lucha contra el crimen

En Estados Unidos los cuerpos y fuerzas de seguridad disponen


de aplicaciones que, haciendo uso del Big Data, pueden predecir la probabilidad
de que se produzca un crimen en una zona determinada. Con ello han
desarrollado el denominado Atlas de Riesgo (aplicación Smart Steps en
Massachusets).

Big Data en Deportes

En la NBA y la NFL se emplean aplicaciones que hacen uso del Big Data para
definir las estrategias a utilizar en cada partido, prevenir lesiones de los jugadores,
conocer las preferencias de los aficionados, etc.

Big Data en Política

13
Antes de las elecciones norteamericanas de 2012, Obama decidió junto con su
equipo utilizar el Big Data durante la campaña electoral para analizar los datos que
recogían de potenciales votantes. Llegaron a la conclusión de que, para poder
ganar, tenían que centrarse en dirigirse a los votantes dudosos de una manera
eficaz y, al mismo tiempo, incidir en que los votantes demócratas convencidos
fueran a votar.
Utilizaron la plataforma HP Vertica, que les permitió recoger los datos, notificar de
manera eficiente y rápida la información, y segmentar a los potenciales
votantes para determinar cuáles serían más receptivos a publicidad en TV,
periódicos, redes sociales… El equipo de campo, el digital y el de comunicación
trabajaron con una estrategia basada en los datos obtenidos, consiguiendo así
su reelección.

Big Data en Telecomunicaciones

Algunos operadores de telefonía móvil utilizan el Big Data para analizar qué se


dice de ellas en las redes sociales, examinar los datos de sus tickets de soporte a
clientes o sus quejas.Esto posibilita implementar estrategias que permiten reducir
el número de portabilidades o incrementar la captación de nuevos clientes.

Big Data en Salud y Sanidad

Tanto en la industria farmacéutica en el campo de la investigación de nuevos


medicamentos como en el diagnóstico de enfermedades, cada vez es más
ampliamente utilizado el procesado del Big Data colectivo (historial médico,
material genético, predicción de reingresos hospitalarios…) para optimizar y
probar modelos que mejoren los resultados, faciliten las pruebas en los ensayos
clínicos con nuevas terapias o mejoren los diagnósticos. El Big Data también es
útil para una gestión administrativa más eficiente de la salud. 
El Big Data es fundamental para las empresas, organismos públicos e
instituciones del mundo actual. Capacitarse en este campo resulta esencial para
aquellas personas que quieren desempeñarse en una de las profesiones con más
futuro. Para ello, el Máster en Big Data online de UNIR ofrece los
conocimientos más completos que requiere el mercado. Es una disciplina con un
uso muy amplio, y se puede aplicar a diferentes sectores con las características
comunes de reducir costes, ser más eficientes y rápidos.

Cuáles son las aplicaciones del Big Data ambiental

14
El Big Data ambiental está siendo aplicado de diversas formas que están
contribuyendo, de una manera muy importante, a los avances en ecología,
conservación y ciencia.
Estas son algunas de esas aplicaciones, con ejemplos reales:

La lucha contra el cambio climático y el calentamiento global

Desde 2010, la NASA lleva utilizando el Big Data ambiental para captar y


almacenar información del clima más completa y global que nunca. Eso permite
crear modelos climáticos que realizan los pronósticos más precisos que hemos
tenido nunca.
Del mismo modo, y desde 2013, el gobierno británico anunció una inversión a gran
escala en Big Data ambiental. Uno de sus principales objetivos es
la monitorización y la lucha contra el cambio climático.

La mejora de la agricultura
La combinación de Big Data ambiental, la tecnología y el sector agrícola se suele
denominar Agritech. Con una población cada vez mayor, y una presión sobre los
recursos del planeta, la única manera de equilibrar ambas cosas será a través de
la tecnología aplicada a los alimentos.

El uso óptimo de la tierra de cultivo, el análisis de nutrientes del suelo, la limitación


de la deforestación, la gestión del agua o el desarrollo de mejores métodos de
cultivo (que usen menos terreno y recursos) son ejemplos de Big Data ambiental
aplicado al sector agrícola.

Salud pública y salud ambiental

El Big Data ambiental está permitiendo, por primera vez, que podamos analizar el
efecto del medio ambiente en la salud. Hasta ahora, establecer relaciones siempre
había sido algo difuso y complejo. Con la cantidad de datos actuales, y la
capacidad de análisis conjunto, por fin podemos controlar esas variables y ver su
verdadero efecto.
La EPA estadounidense (Environmental Protection Agency) es líder en estas

15
aplicaciones. Gracias al Big Data ambiental hemos visto mejoras en el control y la
mitigación de los efectos tóxicos de los químicos liberados a la atmósfera.
«La Ciencia Ciudadana»
Esta es una rama y una aplicación del Big Data ambiental especialmente
interesante. La Citizen Science, o «Ciencia Ciudadana», hace referencia a la
recogida de datos suministrada, voluntariamente, por los habitantes de diversas
zonas.
Eso permite conocer información sobre lo que ocurre exactamente en algunos
lugares, que no es posible recoger ahora mismo de otras maneras.
Aunque esos datos se filtran bien, para evitar bulos o información falsa, se invita a
aficionados y voluntarios a ayudar. En realidad, esto no es algo nuevo y hay
ejemplos tan antiguos como el Censo de aves de Navidad que se hizo en Estados
Unidos en 1900.
Hoy día, la clave es, de nuevo, la cantidad, calidad y velocidad a la que se puede
obtener y transmitir el Big Data ambiental.

USUARIOS
Los científicos e investigadores han analizado datos desde ya hace mucho
tiempo, lo que ahora representa el gran reto es la escala en la que estos son
generados.

Esta explosión de «grandes datos» está transformando la manera en que se


conduce una investigación adquiriendo habilidades en el uso de Big Data para
resolver problemas complejos relacionados con el descubrimiento científico,
investigación ambiental y biomédica, educación, salud, seguridad nacional, entre
otros.

De entre los proyectos que se pueden mencionar donde se ha llevado a cabo el


uso de una solución de Big Data se encuentran:

 El Language, Interaction and Computation Laboratory (CLIC) en


conjunto con la Universidad de Trento en Italia, son un grupo de
investigadores cuyo interés es el estudio de la comunicación verbal y
no verbal tanto con métodos computacionales como cognitivos.
 Lineberger Comprehensive Cancer Center – Bioinformatics
Group utiliza Hadoop y HBase para analizar datos producidos por los
investigadores de The Cancer Genome Atlas(TCGA) para soportar las
investigaciones relacionadas con el cáncer.
 El PSG College of Technology, India , analiza múltiples secuencias de
proteínas para determinar los enlaces evolutivos y predecir estructuras
moleculares. La naturaleza del algoritmo y el paralelismo

16
computacional de Hadoop mejora la velocidad y exactitud de estas
secuencias.
 La Universidad Distrital Francisco Jose de Caldas utiliza Hadoop para
apoyar su proyecto de investigación relacionado con el sistema de
inteligencia territorial de la ciudad de Bogotá.
 La Universidad de Maryland es una de las seis universidades que
colaboran en la iniciativa académica de cómputo en la nube de
IBM/Google. Sus investigaciones incluyen proyectos en la lingüistica
computacional (machine translation), modelado del lenguaje,
bioinformática, análisis de correo electrónico y procesamiento de
imágenes.

El Instituto de Tecnología de la Universidad de Ontario (UOIT)  junto con el


Hospital de Toronto utilizan una plataforma de big data para análisis en tiempo
real de IBM (IBM InfoSphere Streams), la cual permite monitorear bebés
prematuros en las salas de neonatología para determinar cualquier cambio en la
presión arterial, temperatura, alteraciones en los registros del electrocardiograma
y electroencefalograma, etc., y así detectar hasta 24 horas antes aquellas
condiciones que puedan ser una amenaza en la vida de los recién nacidos.

Los laboratorios Pacific Northwest National Labs__(PNNL) utilizan de igual


manera IBM InfoSphere Streams para analizar eventos de medidores de su red
eléctrica y en tiempo real verificar aquellas excepciones o fallas en los
componentes de la red, logrando comunicar casi de manera inmediata a los
consumidores sobre el problema para ayudarlos en administrar su consumo de
energía eléctrica.[3]

La esclerosis múltiple es una enfermedad del sistema nervioso que afecta al


cerebro y la médula espinal. La comunidad de investigación biomédica y la
_Universidad del Estado de Nueva York (SUNY)_están aplicando análisis con big
data para contribuir en la progresión de la investigación, diagnóstico, tratamiento,
y quizás hasta la posible cura de la esclerosis múltiple.[4]

Con la capacidad de generar toda esta información valiosa de diferentes


sistemas, las empresas y los gobiernos están lidiando con el problema de
analizar los datos para dos propósitos importantes: ser capaces de detectar y
responder a los acontecimientos actuales de una manera oportuna, y para poder
utilizar las predicciones del aprendizaje histórico. Esta situación requiere del
análisis tanto de datos en movimiento (datos actuales) como de datos en reposo
(datos históricos), que son representados a diferentes y enormes volúmenes,
variedades y velocidades.

17
MARCO JURIDICO

Cada vez, la vida cotidiana está siendo observada en todo momento, desde el
momento de abandonar nuestra casa hasta cuando se conecta un dispositivo
digital; como el GPS del automóvil, se está dejando un rastro digital cargado de
información. Al igual que cuando se envía un email o se maneja un teléfono
inteligente, se crea una cuenta en alguna red social, consultar el saldo de una
tarjeta de crédito o el simple hecho de tomar una fotografía utilizando el teléfono
inteligente.
El desarrollo de fenómenos como el Big Data, el internet de las cosas, la decisión
algorítmica, el aprendizaje automático o la inteligencia artificial ponen en jaque
elementos fundantes del sistema de protección de datos, tal como la noción de
consentimiento. La adopción de decisiones automatizadas y la elaboración de
perfiles mediante algoritmos que pocos conocen o entienden, paradójicamente
excluyen a su protagonista principal, que es el titular de los datos personales (Gil,
2016).
Por todo lo anterior y debido al impacto de las tecnologías de la información, el
cual ha ocupado un lugar preeminente en el debate científico y jurídico resulta
conveniente hacer referencia a la regulación normativa de la protección de datos
en la Unión Europea con carácter previo a la reciente publicación en el Diario
Oficial de la Unión Europea, de fecha 4 de mayo de 2016, del Reglamento (UE)
2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a
la protección de las personas físicas en lo que respecta al tratamiento de datos
personales y a la libre circulación de estos datos y por el que se deroga la
Directiva 95/46/CE (Reglamento general de protección de datos). Así, en cuanto a
la regulación jurídica de la protección de datos en Europa, cabe señalar que las
normas más relevantes en este ámbito han tenido una influencia indudable en las

18
normativas nacionales de los Estados miembros de la Unión Europea, implicando
un aumento del nivel de protección.

Reglamento General de Protección de Datos (RGPD) en la Unión Europea


En cuanto a la estructura del RGPD, está constituida por 173 considerandos
previos, y 99 artículos divididos en 11 capítulos:
CAPÍTULO I. Disposiciones Generales (artículos 1-4)
CAPITULO II. Principios (artículos 5-11)
CAPÍTULO III. Derechos del interesado (artículos 12-23), divido en cinco
secciones:
1. Transparencia y modalidades
2. Información y acceso a los datos personales
3. Rectificación y supresión
4. Derecho de oposición y decisiones individuales automatizadas
5. Limitaciones

CAPÍTULO IV. Responsable del tratamiento y encargado del tratamiento (artículos


24-43), divido en cinco secciones:
1. Obligaciones generales
2. Seguridad de los datos personales
3. Evaluación de impacto relativa a la protección de datos y consulta previa
4. Delegado de protección de datos
5. Códigos de conducta y certificación
CAPÍTULO V. Transferencias de datos personales a terceros países u
organizaciones internacionales (artículos 44-50)
CAPÍTULO VI. Autoridades de control independiente” (artículos 51-59), dividido en
dos secciones:
1. Independencia
2. Competencia, funciones y poderes
CAPÍTULO VII. Cooperación y coherencia (artículos 60-76), dividido en tres
secciones:

19
1. Cooperación y coherencia
2. Coherencia
3. Comité europeo de protección de datos
CAPÍTULO VIII. Recursos, responsabilidad y sanciones (artículos 77-84)
CAPÍTULO IX. Disposiciones relativas a situaciones específicas de tratamiento
(artículos 85-91)
CAPÍTULO X. Actos delegados y actos de ejecución (artículo 92 y 93)
CAPÍTULO XI. Disposiciones finales (artículo 94-99)
Por otra parte, el RGPD deroga expresamente la Directiva 95/46/CE con efecto a
partir del 25 de mayo de 2018, indicando además que cualquier referencia que se
contenga a la citada Directiva que se deroga, se entenderá hecha a dicho RGPD.
De la misma manera, cualquier referencia al Grupo de protección de las personas
en lo que refiere al tratamiento de datos personales establecido por el artículo 29
de la Directiva 95/46/CE se tiene que entender hecha al Comité Europeo de
Protección de Datos establecido por este RGPD (artículo 94). También se
contempla que el RGPD no impondrá obligaciones adicionales a las personas
físicas o jurídicas, en materia de tratamiento en el marco de la prestación de
servicios públicos de comunicaciones electrónicas en redes públicas de
comunicación de la Unión en ámbitos en los que estén sujetas a obligaciones
específicas con el mismo objetivo establecidas en la Directiva 2002/58/CE (artículo
95). Respecto a los acuerdos internacionales que impliquen la transferencia de
datos personales a terceros países u organizaciones internacionales que hubieren
sido ya celebrados por los Estados miembros con anterioridad al 24 de mayo de
2016, y que cumplan lo dispuesto en el Derecho de la Unión aplicable antes de
dicha fecha, se dispone que seguirán en vigor hasta que sean modificados,
sustituidos o revocados (artículo 96).
En cuanto a la entrada en vigor y aplicación de este RGPD, se declara que entrará
en vigor a los veinte días de su publicación en el Diario Oficial de la Unión
Europea, aunque será aplicable a partir del 25 de mayo de 2018 (artículo 99).
Finalmente, en relación con el ámbito territorial de aplicación del RGPD hay que
subrayar como novedad que se ha producido una importante extensión, ya que
conforme a lo dispuesto en su artículo 3 se aplica al tratamiento de datos
personales en el contexto de las actividades de un establecimiento del
responsable o del encargado en la Unión, independientemente de que el
tratamiento tenga lugar en la Unión Europea o no. Además, el RGPD se aplica
también al tratamiento de datos personales de residentes en la Unión Europea por
parte de un responsable o encargado no establecido en la Unión Europea, cuando
las actividades de tratamiento estén relacionadas con los aspectos que enumera:
a) la oferta de bienes o servicios a dichos interesados en la Unión Europea,

20
independientemente de si a estos se les requiere su pago, o b) el control de su
comportamiento, en la medida en que este tenga lugar en la Unión. En definitiva,
el RGPD resulta también de aplicación al tratamiento de datos fuera de la Unión
Europea, lo que amplía de forma considerable su ámbito de aplicación ya que
permitirá, por ejemplo, que sea aplicable a empresas que, hasta este momento,
podían estar tratando datos de personas en la Unión Europea y que, sin embargo,
se regían por normativas de otras regiones o países que no siempre ofrecen el
mismo nivel de protección que la normativa europea (Mayor Gómez, 2016).

Protección de Datos para Latinoamérica (Chile, México, Brasil y Argentina)


Los sistemas legales latinoamericanos, que comparten la tradición del derecho
civil continental europeo, han reconocido también como entidades legales
diferentes, el derecho a la privacidad y el derecho a la protección de los datos
personales. El derecho a la protección de datos tiene reconocimiento
constitucional. En general, las constituciones de la región reconocen el derecho a
la privacidad, pero también incluyen el llamado recurso de hábeas data, que es el
derecho a la protección de los datos personales, tal el caso de las constituciones
de Argentina, Brasil, Colombia, México, Perú o Venezuela. Pero aun cuando esta
previsión no esté contenida en forma expresa en los textos constitucionales, las
Cortes pertinentes han reconocido el derecho de control de la propia información.
Así, se destaca que el constitucionalismo latinoamericano ha sido,
comparativamente, más eficiente en la protección del derecho a la protección de
los datos personales que las protecciones constitucionales desarrolladas en otros
países, e identifica tres elementos:
 El reconocimiento del derecho a la protección de datos personales como
derecho autónomo.
 El otorgamiento de remedios constitucionales para dicha protección.
 Y siguiendo aún más la tradición constitucional europea, mediante el
reconocimiento de derecho y otorgamiento de acciones no sólo respecto del
sector público, sino también contra actores no estatales.

Sin embargo, la protección constitucional no es suficiente, debido a causas


bastante comunes en la región, por ejemplo: los altos costos transaccionales, la
ineficiencia en la prevención del incumplimiento, la falta de stare decisis de las
decisiones judiciales ya que, salvo contadas excepciones, sólo aplican al caso
sujeto a decisión judicial. A eso puede agregarse que las previsiones
constitucionales son muy generales, dejando así mucho margen para la
interpretación judicial, por lo que al ser aplicados a casos concretos pueden
generarse decisiones ambiguas o equivocadas, generando así falta de certeza

21
legal. América Latina en general ha adoptado mayormente durante la década de
1990 leyes comprensivas para el procesamiento de datos personales, es decir,
leyes que regulan el procesamiento automático y manual de datos personales
tanto por el sector público como por el sector privado. De tal suerte ha seguido
también la tradición europea de protección comprensiva, a diferencia por ejemplo
de los Estados Unidos, cuya protección es fragmentada por sector y se basa, muy
sucintamente, en criterios de privacidad y datos de alta sensibilidad, no en la
autodeterminación informativa (Serrano, 2017).
El modelo de protección de datos personales latinoamericano se encuentra en una
fase de transición. La mayor parte de las principales economías de la región
cuentan con protecciones constitucionales y leyes comprensivas de protección
que regulan el procesamiento de datos personales tanto por el sector público
como el privado.
Por último, un análisis por país respecto de lo cual es posible identificar que hay
diferencias importantes entre los países:
La ley argentina establece como regla general que todo tratamiento de datos debe
realizarse con el consentimiento libre, expreso e informado del titular; de acuerdo
con las circunstancias, deberá ser hecho por escrito o por un medio que se le
equipare. Así, el consentimiento tácito o presunto no es considerado válido por la
ley, aunque dicha regla tiene excepciones.
Por su parte, la ley chilena establece que el consentimiento del titular de los datos
es necesario para el tratamiento de sus datos, salvo que una disposición legal lo
haya autorizado. La normativa establece que el consentimiento desde ser expreso,
informado y por escrito; y también contiene los casos en que el consentimiento
estará exceptuado.
En México, como regla general, los datos personales sólo podrán ser tratados con
el consentimiento de su titular, obtenido de manera libre, específica e informada.
El consentimiento deberá ser expreso si se trata de datos personales sensibles y
financieros o patrimoniales.
En Brasil, que no cuenta con una ley general de protección de datos personales,
varias disposiciones sectoriales requieren el consentimiento expreso del titular. Así
surge de la Ley General de Telecomunicaciones, del Código de Protección del
Consumidor y del Marco Civil de Internet.

22
COSTO-BENEFICIO

Las empresas que saben sacar provecho del Big Data pueden mejorar su
estrategia y así permanecer en el mercado posicionadas, pues hará uso de
nuevos conocimientos, con el gran volumen de datos o información que maneja a
diario, que inicialmente no se les dio la suficiente importancia, por no tener una
herramienta tecnológica que permitiera procesarla. Con la tecnología de Big Data,
las empresas pueden ofrecer mejores productos, desarrollar excelentes relaciones
con sus clientes, además, se transforman en más ágiles y competitivas [7].
Es importante tener en cuenta algunos pasos para la implementación de Big Data,
como se menciona en [2].
 Entender el negocio y los datos. Este primer paso pide un análisis
detallado con las personas que hoy laboran y entienden los procesos y
los datos que la empresa maneja.
 El segundo paso consiste en determinar los problemas y cómo los datos
pueden ayudar. Al momento de conocer los procesos es muy posible
que se encuentren los problemas de la empresa o del negocio.
 Establecer expectativas razonables, es decir, definir metas alcanzables;
esto se puede lograr si al implementar la solución de un problema éste
no presenta alguna mejora, y se debe buscar otra solución.
 Existe una recomendación especial, y es que cuando se inicia un
proyecto de Big Data es necesario trabajar en paralelo con el sistema
que hoy está funcionando.

23
 Al tratar de implementar un proyecto de Big Data se debe ser flexible
con la metodología y las herramientas; esto se debe a que las dos
anteriores son recientes y pueden llegar a presentar problemas al
implementarlas. Esto se puede solucionar realizando investigación e
inversión en este tipo de tecnología.
 Es importante mantener el objetivo de Big Data en mente; esto porque el
proceso es pesado y porque no es tedioso, máxime cuando los métodos
y herramientas que usan Big Data para el análisis de datos aún pueden
presentar problemas, y la idea es que se mantenga en mente la meta
final del proyecto sin desanimarse pronto

ALCANCES Y LIMITACIONES

Si bien la idea del Big Data y la capacidad de su procesamiento están recibiendo


cada vez más atención, se enfatiza el punto introductorio acerca de que estas
nuevas iniciativas y avances en la recopilación de datos aún dependen de
métodos que tienen limitaciones importantes.

Muchos proyectos lanzados por organizaciones internacionales junto con los


gobiernos son ciertamente ambiciosos e impresionantes en su alcance, pero se
presentan con una apariencia de certidumbre y objetividad que no merecen. Con
ese fin, los defensores del Big Data evitan o minimizan la discusión de las
dificultades metodológicas de la evaluación de impacto, ni tampoco reconocen la
dinámica política y organizacional que afecta la recolección de datos. Por ejemplo,
cuando los políticos asignan a las comunidades que participan en las
intervenciones (en lugar de ser asignadas al azar), así como la interpretación de
los hallazgos, que necesariamente está limitada por agendas institucionales y por
la estructura de incentivos en la que está inmerso el investigador (Edwards, 2018).

Sin duda, los macrodatos y los métodos de evaluación de impacto pueden ser
insumos útiles para las discusiones sobre políticas en el contexto de las reformas
de políticas y la gobernanza global. Sin embargo, es esencial que sus limitaciones
sean comprendidas por quienes los producen y los utilizan para las reformas de

24
políticas, así como por los actores en todos los niveles. En la medida en que
dichos métodos se utilicen cada vez más para guiar la política pública en todo el
mundo, es esencial que los actores interesados, dentro y fuera de los sistemas
educativos, estén al tanto de sus debilidades metodológicas y de su incapacidad
para eliminar la política de la formulación de políticas. En efecto, si bien las
promesas del Big Data son seductoras, en general, no ha reemplazado el
elemento humano de la toma de decisiones. Es decir, aunque los datos pueden
construir una cierta visión del mundo, y la interpretación de esos datos, ya sea por
un investigador o por un programa de computadora, puede sugerir ciertas medidas
de política, es poco probable que las decisiones de políticas importantes se
automaticen pronto. La implicación es, entonces, que los políticos y altos
funcionarios y los métodos en los que se basan deben sujetarse a un estándar
más alto, uno que vaya más allá de la combinación de Big Data y la evaluación de
impacto. En lugar de llevar a la mejor o a las mejores prácticas, la intersección de
los macrodatos y las técnicas de evaluación de impacto puede conducir a estudios
y, posteriormente, a reformas que son costosas, perjudiciales, contextualmente
irrelevantes y/o inefectivas.

La atención debe dirigirse a moderar el uso de estos métodos,


complementándolos con otras estrategias (cualitativas) y cambiando la naturaleza
de la toma de decisiones, de un ejercicio que busca ser tecnocrático a uno que
sea abierta e inevitablemente político. El Big Data no genera políticas sin política,
más bien, oculta gran parte de los sesgos y el aspecto político del proceso con
una apariencia de tecnificación. En el contexto actual de la gobernanza global, que
se encuentra bajo la influencia de instituciones internacionales y los gobiernos
nacionales que cooperan con ellas, es probable que esta situación no produzca
beneficios significativos para los más marginados, ya que ninguno de estos
actores se moviliza por un cálculo político que responda a las necesidades de los
pobres. Comprender de manera crítica las limitaciones del Big Data y de las
evaluaciones de impacto es solo un primer paso para desafiar el estatus quo de la
gobernanza global en general, es decir, pensar más allá de los métodos, la política
y las cosmovisiones que actualmente impregnan y limitan el campo de la política
educativa global.

25
IMPACTO AMBIENTAL

Con el Big Data ambiental, podemos tomar mejores decisiones que nunca y saber
realmente qué está pasando con nuestro planeta y sus habitantes.
Ejemplos de Big Data ambiental
Algunas muestras de los múltiples datos que se recogen y analizan en el Big Data
ambiental son, por ejemplo:
 La evolución de especies, tanto en peligro de extinción como invasoras,
y sus movimientos debido al cambio climático u otras circunstancias.
 Información de satélites sobre evolución, en tiempo real y de manera
global, de desertización, reforestación, efectos de desastres
ambientales, sequías, etc.
 Información globalizada y en tiempo real del clima en todas las partes
del planeta.
 Calidad del aire y contaminación, etc.
Las fuentes de datos son muchísimas, y no se ciñen solo a un ámbito estricto. El
Big Data ambiental implica usar datos de campos relacionados, como el de la
salud de las personas, para ver la conexión que existe.

'BIG DATA': HACIA UNA RESPONSABILIDAD SOCIAL DE DATOS

26
Debido a su actividad, las empresas son uno de los agentes que producen un
mayor impacto negativo sobre el medio ambiente. Desde el cambio de milenio ya
estamos viendo en las estrategias y acciones que están implementando para
minimizar dicho impacto. En los últimos años, el green data está contribuyendo a
hacer a las empresas más sostenibles a través de su participación en:
 La optimización de la gestión energética y el uso de los recursos.
 La reducción de las emisiones de dióxido de carbono derivadas de la
producción.
 La reducción de las emisiones de las flotas de vehículos al mejorar las
rutas.
 La anticipación a las necesidades de reparación y sustitución de la
maquinaria monitorizada a través de sensores.
En definitiva, ayuda a las empresas a ser conscientes, no solo de sus impactos
directos, sino de los más difíciles de controlar, los producidos a lo largo de toda su
cadena de valor.
El big data aplicado al medio ambiente persigue conseguir un mundo mejor para
todos y ya se ha convertido en una poderosa herramienta de monitorización y
control del desarrollo sostenible.

Green data': ¿Puede la estadística ayudar al medio ambiente?

Solo en 2017 hemos generado más datos que en los 5.000 años previos. El 'big
data' es la tecnología que nos está permitiendo analizar esa explosión de
información para desarrollar nuevos avances y soluciones. La aplicación de datos
masivos para la protección del medio ambiente está contribuyendo, asimismo, a
optimizar la eficiencia del sector energético, a hacer a las empresas más
sostenibles y a crear ciudades inteligentes, por citar tan solo algunos ejemplos.
La información se está multiplicando de manera exponencial: el 90% de los datos
que existen hoy en Internet se han generado —únicamente— desde 2016. Y de
acuerdo con estimaciones de IBM, en 2020 habrá en el mundo 300 veces más
información de la que había en 2005. Un caótico universo de datos en perpetua
expansión. Y es que la vida en el siglo XXI aparece codificada en forma de
números, palabras clave y algoritmos.
La aplicación de datos masivos para frenar el calentamiento global es lo que se
conoce ya como green data. Europa cuenta con diferentes modelos generadores
de green data y uno de ellos es Copernicus. Se trata de un programa de
observación de la Tierra por satélite capaz de calcular, entre otras cosas, la
influencia del aumento de las temperaturas en el caudal de los ríos. Copernicus ya
está aportando información clave para optimizar la gestión de los recursos

27
hídricos, la biodiversidad, la calidad del aire, la pesca o la agricultura. Otros
proyectos internacionales que utilizan el green data para combatir el cambio
climático son:
Aqueduct: mide los peligros asociados al agua, analizando su calidad y cantidad, y
pone a disposición del público mapas de riesgo interactivos.
Global Forest Change: calcula la deforestación contando los árboles de uno en
uno gracias a imágenes por satélite de alta resolución.
Danger Map: determina la contaminación gracias a los datos aportados por
millones de ciudadanos.

'BIG DATA' Y ENERGÍAS RENOVABLES


Apostar por los datos masivos puede fortalecer la competitividad de las energías
renovables frente a los combustibles fósiles. Veamos algunas de las aportaciones
del big data ambiental a las diferentes tecnologías limpias:
 Energía eólica: el uso de algoritmos complejos para construir modelos
predictivos de las condiciones eólicas ayuda a determinar la cantidad de
energía que se va a producir.
 Energía fotovoltaica: los datos masivos optimizan la eficiencia de las
centrales al permitir que vayan adaptándose a la intensidad lumínica del
momento.
 Energía hidroeléctrica: el manejo de grandes volúmenes de datos puede
contribuir, entre otros avances, a evitar fugas en las centrales y a tener
un mayor control de los caudales de agua.
Asimismo, los consumidores del sector renovable también se verán beneficiados
por esta revolución informativa. Por un lado, la conexión de los datos de
los contadores inteligentes con las previsiones meteorológicas permitirá ajustar la
demanda en tiempo real, favoreciendo la creación de tarifas totalmente
personalizadas. Por otro, el Internet de las Cosas permitirá reducir el gasto
energético, por ejemplo, adaptando la iluminación y temperatura ambiental o el
consumo de ciertos electrodomésticos a las necesidades de cada momento.

BIG DATA' Y CIUDADES INTELIGENTES

28
La ONU asegura que en 2030 dos tercios de la población mundial se
concentrará en las grandes ciudades. Esta realidad plantea retos
medioambientales que el green data ya está ayudando a resolver. Entre las
iniciativas que están utilizando el análisis de datos masivos para crear ciudades
más inteligentes y sostenibles destacan:
 El proyecto Trash Track instala sensores con GPS en la basura para
comprender mejor los caminos del reciclaje.
 El sistema AllAboard optimiza la planificación del transporte público
utilizando los datos de localización de los teléfonos móviles.
 La comunidad Crisis Mappers Net analiza datos de diferentes fuentes
(imágenes de satélite, plataformas geoespaciales, simuladores, etc.)
para alertar de desastres naturales y favorecer una rápida respuesta.
 La Copenhagen Wheel es una rueda de bicicleta que recoge datos
sobre la calidad del aire, el nivel de ruido y las condiciones de la
carretera.
 La empresa Solar Roadways pretende sembrar el mundo de carreteras
inteligentes hechas con paneles solares que permiten generar energía.
 Dispositivos que monitorizan la contaminación en las ciudades y que se
han utilizado para realizar restricciones de tráfico.

29
BIBLIOGRAFIA.

30
i

Referencias
[1] ZDNet.com, CBS Interactive,What is “Big Data?”.
Disponible en: http://www.zdnet.com/ topic-big-data/, 2013.

[2] thinkupapp.com,(2012).
Disponible en: http:// thinkupapp.com/, 2012.

[3] E. Dans.
Disponible en: http://www.enriquedans.com/2011/10/big-dataunapequenaintroduccion.html,
2011.

[4] E. Plugge, P. Membrey & T. Hawkins, The Definitive Guide to MongoDB: The NoSQL
Database for Cloud and Desktop Computing, Published Apress Media LLC, New York, 2010
.
[5] B. Hopkins, Beyond the Hype of Big Data.
Disponible en: http://www.cio.com/ article/692724/Beyond_the_Hype_of_Big_Data, 2011.

[6] Business Software,


Disponible en: http://www. businessoftware.net/que-es-big-data/, 2013.

[7] Zdnet.com, Big Data.


Disponible en: http:// www.zdnet.com/search?q=big+data, 2010

[8] Big data, privacidad y protección de datos, Elena Gil


Disponible en https://ignsl.es/historia-del-big-data/#:~:text=Sin%20embargo%2C%20la
%20historia%20del,se%20remonta%20a%20mucho%20antes.&text=Si%20bien%20las
%20cantidades%20no,un%20sistema%20para%20realizar%20c%C3%A1lculos.

Deaton, Angus (2010). “Instruments, randomization, and learning about development”,


Journal of Economic Literature, vol. 48, núm. 2, pp. 424-455. Disponible en:
https://www.princeton.edu/~deaton/downloads/deaton%20instruments%20randomization
%20learning%20about%20development%20jel%202010.pdf

Deaton, Aangus y Cartwright, Nancy (2016). “The limitations of randomized controlled trials”,
Vox, 9 de noviembre. Disponible en: http://voxeu.org/article/limitations-randomised-controlled-
trials

Edwards Jr., D. Brent (2018). Global education policy, impact evaluations, and alternatives:
The political economy of knowledge production, Nueva York: Palgrave MacMillan. Disponible
en:
https://www.academia.edu/36174726/Global_Education_Policy_Impact_Evaluations_and_Alt
ernatives_The_Political_Economy_of_Knowledge_Production?source=swp_share
Gorur, Radhika; Sellar, Sam y Steiner-Khamsi, Gita (2018). “Big Data and even bigger
consequences”, en R. Gorur, S. Sellar y G. Steiner-Khamsi (eds.), World Yearbook of
Education 2019: Comparative methodology in the era of Big Data and global networks, Nueva
York: Routledge.

Grek, Sotiria (2009). “Governing by numbers: The PISA ‘effect’ in Europe”, Journal of
Education Policy, vol. 24, núm. 1, pp. 23-37. Disponible en:
https://www.research.ed.ac.uk/portal/files/14608705/Governing_by_Numbers.pdf

Klees, Steven (2016). “Inferences from regression analysis: Are they valid?”, Real-world
Economics Review, vol. 74, pp. 85-97. Disponible en:
http://www.paecon.net/PAEReview/issue74/Klees74.pdf

Gil, E. (2016). Big data, privacidad y protecció n de datos. In Agencia Estatal Boletín Oficial del
Estado (Issue June 2016).
https://www.researchgate.net/profile/Elena_Gil_Gonzalez/publication/324831404_Big_dat
a_privacidad_y_proteccion_de_datos/links/5ae608220f7e9b9793c79b21/Big-data-
privacidad-y-proteccion-de-datos.pdf
Mayor Gó mez, R. (2016). Contenido Y Novedades Del Reglamento General De Protecció n De
Datos De La Ue (Reglamento Ue 2016/679, De 27 De Abril De 2016). Gabilex: Revista Del
Gabinete Juridico de Castilla-La Mancha, 6, 25. www.gabilex.jccm.es
Serrano, I. (2017). Transparencia & sociedad.

También podría gustarte