Documentos de Académico
Documentos de Profesional
Documentos de Cultura
HUMANIDADES V
Profesora:
CARMINA CELIA DE LA PAZ
LOPEZ
TRABAJO DE INVESTIGACION
BIG DATA
ALUMNOS:
BELLO GERMÁN LAURA
ENRIQUEZ PEREZ JOSUE
ARGUETA ALEJANDRO
LUIS F
ORTEGA SANCHEZ LUIS A
SALAZAR RAMOS EDGAR
1
INDICE
INTRODUCCIÓN.............................................................................................................................3
ANTECEDENTES...........................................................................................................................5
ESTADO DEL ARTE.......................................................................................................................9
Estado actual de Big Data........................................................................................................10
Dimensiones de Big Data.........................................................................................................11
Análisis de Big Data..................................................................................................................12
USOS..............................................................................................................................................13
Big Data en Marketing y Ventas...........................................................................................13
Big Data para la lucha contra el crimen.............................................................................13
Big Data en Deportes..............................................................................................................13
Big Data en Política.................................................................................................................13
Big Data en Telecomunicaciones........................................................................................14
Big Data en Salud y Sanidad................................................................................................14
Cuáles son las aplicaciones del Big Data ambiental......................................................14
La lucha contra el cambio climático y el calentamiento global...................................15
USUARIOS.....................................................................................................................................16
MARCO JURIDICO.......................................................................................................................18
COSTO-BENEFICIO.....................................................................................................................23
ALCANCES Y LIMITACIONES...................................................................................................24
IMPACTO AMBIENTAL................................................................................................................26
Green data':..............................................................................................................................27
BIBLIOGRAFIA..............................................................................................................................29
2
INTRODUCCIÓN
3
rápida para lograr obtener la información correcta en el momento preciso. Estas
son las características principales de una oportunidad para Big Data.
Es importante entender que las bases de datos convencionales son una parte
importante y relevante para una solución analítica. De hecho, se vuelve mucho
más vital cuando se usa en conjunto con la plataforma de Big Data. Pensemos
en nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales
para cada tarea en específico. Por ejemplo, un beisbolista sabe que una de sus
manos es mejor para lanzar la pelota y la otra para atraparla; puede ser que
cada mano intente hacer la actividad de la otra, sin embargo, el resultado no será
el mejor.
4
ANTECEDENTES
La historia del Big Data es muy poco conocida. Como sucede frecuentemente con
las tendencias, parece que cuando explotan es algo muy novedoso que acaba de
aparecer; pero en muchos casos son la eclosión de algo que ha estado
madurando durante largo tiempo.
Como hemos comentado en otras ocasiones, el Big Data es el análisis de un gran
volumen de conjuntos de datos. Para recolectar, tratar y analizar esa ingente
cantidad de información se necesitan fórmulas de procesamiento potentes y
rápidas. Por ello, estas técnicas parecen haber surgido recientemente, gracias a
los avances tecnológicos.
Esto, en gran medida es así: el término se comienza a utilizar de forma
generalizada a finales de los años 90 y el boom llega con los avances
experimentados en campos como internet, dispositivos móviles y conexión. Sin
embargo, la historia del Big Data se remonta a mucho antes.
Hay incluso quienes lo sitúan en el paleolítico, con una lógica que relaciona el
término con el primitivo interés de los seres humanos por lograr y procesar la
información. A continuación, ahondamos un poco más en esta cuestión
compartiendo la historia del Big Data:
2400 AC. En Babilonia se extiende el uso del ábaco, un sistema para realizar
cálculos. En esta época surgen también las primeras bibliotecas como lugares
para almacenar y consultar conocimiento.
48 AC. Los Romanos, había logrado reunir medio millón de documentos con la
intención de almacenar todo el conocimiento de la Humanidad.
Siglo II AC. Se desarrolla la primera computadora mecánica conocida en Grecia.
El mecanismo de Anticitera era un aparato analógico de bronce diseñado para
predecir posiciones astronómicas. Se empleó para el estudio astrológico y para
marcar el calendario, fundamentalmente las fechas exactas de los antiguos
Juegos griegos.
1663. John Graunt realiza el primer experimento de análisis de datos estadísticos
conocido. Con los datos de defunciones, teoriza un sistema de alerta para la peste
bubónica en toda Europa.
1792 se asocia el término a la “colección y clasificación de datos “.
1865. Aparece por primera vez el término business intelligence, en la enciclopedia
comercial de Richard Millar Devens. En ella describe cómo el banquero Henry
5
Furnese logró una importante ventaja competitiva recogiendo, estructurando y
analizando datos clave de su actividad. La inteligencia de negocio es sin duda uno
de los grandes motores de la analítica dentro de la historia del big data.
1880. Herman Hollerith, empleado del censo estadounidense, desarrolla su
máquina tabuladora. Con ella consigue reducir un trabajo de 10 años a 3 meses.
Este ingeniero funda una compañía que posteriormente se conocería como IBM.
1926. Nikola Tesla predice la tecnología inalámbrica. Según su visión, el planeta
en un gran cerebro en el que todo está conectado, por lo que deberíamos ser
capaces simplificar el uso del teléfono. Predice que cada hombre llevará uno en su
propio bolsillo.
1928. El ingeniero alemán Fritz Pfleumer patenta el primer sistema magnético para
almacenar datos. Sus principios de funcionamiento se utilizan hoy en día.
1944. Primer intento de conocer la cantidad información que se crea. Se trata de
un estudio académico de Fremont Rider, que pronostica 200 millones de libros en
la Universidad de Yale en 2040, almacenados 6.000 millas de estanterías.
1958. El informático alemán Hans Peter Luhn, define la inteligencia de negocio: la
habilidad de percibir las interrelaciones de los hechos presentados para guiar
acciones hacia un objetivo deseado. En 1941 pasó a ser Gerente de Recuperación
de Información en IBM.
1962. Se presenta IBM Shoebox en la Expo de 1962. Creada por William C.
Dersch supone el primer paso en el reconocimiento de voz, capaz de registrar
palabras en inglés en formato digital.
1965. Se proyecta el primer data center en Estados Unidos, para guardar
documentación de impuestos y huellas dactilares en cintas magnéticas. Un año
antes comienzan a surgir voces que alertan del problema de guardar la ingente
cantidad de datos generada.
1970. IBM desarrolla el modelo relacional de base de datos, gracias al matemático
Edgar F. Codd. Este científico inglés es también responsable de las doce leyes del
procesamiento analítico informático y acuño el término OLAP.
1976. Se populariza el uso de MRP (software de gestión de materiales),
antecedentes de los ERP actuales, que mejoran la eficiencia de las operaciones
en la empresa; además de generar, almacenar y distribuir datos en toda la
organización.
1989. Erik Larson habla por primera vez de Big Data en el sentido que conocemos
la expresión hoy en día. La revista Harpers Magazine recoge su artículo, en el que
especula sobre el origen del correo basura que recibe. En torno a este año se
empiezan a popularizar las herramientas de business intelligence para analizar la
actividad comercial y el rendimiento de las operaciones.
6
1991. Nace internet, a la postre, la gran revolución de la recolección,
almacenamiento y análisis de datos. Tim Berners-Lee establece las
especificaciones de un sistema de red con interconexiones a nivel mundial
accesible para todos en cualquier lugar.
1993. Se funda QlikTech, germen de la actual Qlik, que crea un sistema
revolucionario de business intelligence (en 2012, Gartner comienza a hablar de
business discovery para definir ese tipo de análisis).
1996. Los precios del almacenamiento de datos empiezan a ser accesibles con un
coste eficiente en lo que es una de las grandes revoluciones en la historia del big
data. El libro La evolución de los sistemas de almacenamiento, de 2003, establece
esta fecha como el primer año en el que el almacenamiento digital es más barato
que el papel.
1997. Google lanza su sistema de búsqueda en internet y en los siguientes años
será de largo el primer lugar al que acudir en busca de datos en internet. Este
mismo año, se publica el estudio ¿Cuánta información hay en el mundo?, de
Michael Lesk. La conclusión es que hay tanta y crece a tal velocidad, que gran
parte de ella no será vista por nadie jamás.
1999. El término Big Data es analizado por primera vez en un estudio académico.
La Asociación de Sistemas Informáticos recomienda centrarse en el análisis de
información ya que existe gran cantidad de datos y no todos son útiles. Recuerdan
el propósito de la computación, que es el entendimiento, no los números.
2001. Doug Laney, de Gartner, define las 3 V’s del Big Data. Este es un hito clave
en la historia del big data. Se trata de tres conceptos que definen el término:
volumen, velocidad y variedad. Al mismo tiempo, se populariza el concepto SaaS
(software as a service).
2005. Nace la Web 2.0, una web donde predomina el contenido creado por los
usuarios. Este mismo año se crea Hadoop, un entorno de trabajo Big Data de
software libre.
2007. La revista Wired publica un artículo que lleva el concepto de Big Data a las
masas.
2010. Los datos que se generan en dos días equivalen a la cantidad de datos
generados desde el inicio de la civilización hasta 2003, según Eric Schmidt
(Google).
2013. El archivo de mensajes públicos de Twitter en la Biblioteca del Congreso de
Estados Unidos llega a los 170 billones de mensajes, creciendo a ritmo de 500
millones al día. Según la institución que alberga algunos de los documentos
históricos más importantes del mundo, dicho archivo ofrece una imagen más
amplia de las normas culturales, diálogos, tendencias y eventos de hoy en día. De
7
este modo, contribuye a una mejora de la información en procesos legislativos,
educación, definición de autoría de nuevos trabajos y otras cuestiones.
8
ESTADO DEL ARTE
Para iniciar, se presentan algunas definiciones sobre el término Big Data, del cual
existen innumerables definiciones, entre ellas se tienen:
Segúni, el término aplica a la información que no puede ser procesada o analizada
mediante procesos tradicionales.
Para, Big Data son “cantidades masivas de datos que se acumulan con el tiempo
que son difíciles de analizar y manejar utilizando herramientas comunes de
gestión de bases de datos”, [3], Big Data se refiere “al tratamiento y análisis de
enormes repositorios de datos, tan desproporcionadamente grandes que resulta
imposible tratarlos con las herramientas de bases de datos y analíticas
convencionales”.
Por su parte, el analista Dan Kusnetzky, del Grupo Kusnetzky [4], señala que “La
frase Big Data se refiere a las herramientas, procesos y procedimientos que
permitan a una organización crear, manipular y administrar grandes conjuntos de
datos e instalaciones de almacenamiento”.
En [5],“Forrester define Big Data como las técnicas y tecnologías que hacen que
sea económico hacer frente a los datos a una escala extrema. Big Data trata de
tres cosas: 1) Las técnicas y la tecnología, lo que significa que la empresa tenga
personal, el cual tenga gran representación y análisis de datos para tener un valor
agregado con información que no ha sido manejada.
2) Escala extrema de datos que supera a la tecnología actual debido a su
volumen, velocidad y variedad.
3) El valor económico, haciendo que las soluciones sean asequibles y ayuden a la
inversión de los negocios”.
Según [7], Big Data “se refiere a las herramientas, los procesos y procedimientos
que permitan a una organización crear, manipular y gestionar conjuntos de datos
muy grandes y las instalaciones de almacenamiento”.
Gartner [5] define el Big Data como “un gran volumen, velocidad o variedad de
información que demanda formas costeables e innovadoras de procesamiento de
información que permitan ideas extendidas, toma de decisiones y automatización
del proceso”.
9
Y [4] indica que “Big Data consiste en consolidar toda la información de una
organización y ponerla al servicio del negocio”
10
Dimensiones de Big Data
11
Análisis de Big Data
12
El análisis de datos se realiza con tecnologías de bases de datos como NoSQL,
Hadoop y MapReduce, las cuales soportan el procesamiento del Big Data.
USOS
En la NBA y la NFL se emplean aplicaciones que hacen uso del Big Data para
definir las estrategias a utilizar en cada partido, prevenir lesiones de los jugadores,
conocer las preferencias de los aficionados, etc.
13
Antes de las elecciones norteamericanas de 2012, Obama decidió junto con su
equipo utilizar el Big Data durante la campaña electoral para analizar los datos que
recogían de potenciales votantes. Llegaron a la conclusión de que, para poder
ganar, tenían que centrarse en dirigirse a los votantes dudosos de una manera
eficaz y, al mismo tiempo, incidir en que los votantes demócratas convencidos
fueran a votar.
Utilizaron la plataforma HP Vertica, que les permitió recoger los datos, notificar de
manera eficiente y rápida la información, y segmentar a los potenciales
votantes para determinar cuáles serían más receptivos a publicidad en TV,
periódicos, redes sociales… El equipo de campo, el digital y el de comunicación
trabajaron con una estrategia basada en los datos obtenidos, consiguiendo así
su reelección.
14
El Big Data ambiental está siendo aplicado de diversas formas que están
contribuyendo, de una manera muy importante, a los avances en ecología,
conservación y ciencia.
Estas son algunas de esas aplicaciones, con ejemplos reales:
La mejora de la agricultura
La combinación de Big Data ambiental, la tecnología y el sector agrícola se suele
denominar Agritech. Con una población cada vez mayor, y una presión sobre los
recursos del planeta, la única manera de equilibrar ambas cosas será a través de
la tecnología aplicada a los alimentos.
El Big Data ambiental está permitiendo, por primera vez, que podamos analizar el
efecto del medio ambiente en la salud. Hasta ahora, establecer relaciones siempre
había sido algo difuso y complejo. Con la cantidad de datos actuales, y la
capacidad de análisis conjunto, por fin podemos controlar esas variables y ver su
verdadero efecto.
La EPA estadounidense (Environmental Protection Agency) es líder en estas
15
aplicaciones. Gracias al Big Data ambiental hemos visto mejoras en el control y la
mitigación de los efectos tóxicos de los químicos liberados a la atmósfera.
«La Ciencia Ciudadana»
Esta es una rama y una aplicación del Big Data ambiental especialmente
interesante. La Citizen Science, o «Ciencia Ciudadana», hace referencia a la
recogida de datos suministrada, voluntariamente, por los habitantes de diversas
zonas.
Eso permite conocer información sobre lo que ocurre exactamente en algunos
lugares, que no es posible recoger ahora mismo de otras maneras.
Aunque esos datos se filtran bien, para evitar bulos o información falsa, se invita a
aficionados y voluntarios a ayudar. En realidad, esto no es algo nuevo y hay
ejemplos tan antiguos como el Censo de aves de Navidad que se hizo en Estados
Unidos en 1900.
Hoy día, la clave es, de nuevo, la cantidad, calidad y velocidad a la que se puede
obtener y transmitir el Big Data ambiental.
USUARIOS
Los científicos e investigadores han analizado datos desde ya hace mucho
tiempo, lo que ahora representa el gran reto es la escala en la que estos son
generados.
16
computacional de Hadoop mejora la velocidad y exactitud de estas
secuencias.
La Universidad Distrital Francisco Jose de Caldas utiliza Hadoop para
apoyar su proyecto de investigación relacionado con el sistema de
inteligencia territorial de la ciudad de Bogotá.
La Universidad de Maryland es una de las seis universidades que
colaboran en la iniciativa académica de cómputo en la nube de
IBM/Google. Sus investigaciones incluyen proyectos en la lingüistica
computacional (machine translation), modelado del lenguaje,
bioinformática, análisis de correo electrónico y procesamiento de
imágenes.
17
MARCO JURIDICO
Cada vez, la vida cotidiana está siendo observada en todo momento, desde el
momento de abandonar nuestra casa hasta cuando se conecta un dispositivo
digital; como el GPS del automóvil, se está dejando un rastro digital cargado de
información. Al igual que cuando se envía un email o se maneja un teléfono
inteligente, se crea una cuenta en alguna red social, consultar el saldo de una
tarjeta de crédito o el simple hecho de tomar una fotografía utilizando el teléfono
inteligente.
El desarrollo de fenómenos como el Big Data, el internet de las cosas, la decisión
algorítmica, el aprendizaje automático o la inteligencia artificial ponen en jaque
elementos fundantes del sistema de protección de datos, tal como la noción de
consentimiento. La adopción de decisiones automatizadas y la elaboración de
perfiles mediante algoritmos que pocos conocen o entienden, paradójicamente
excluyen a su protagonista principal, que es el titular de los datos personales (Gil,
2016).
Por todo lo anterior y debido al impacto de las tecnologías de la información, el
cual ha ocupado un lugar preeminente en el debate científico y jurídico resulta
conveniente hacer referencia a la regulación normativa de la protección de datos
en la Unión Europea con carácter previo a la reciente publicación en el Diario
Oficial de la Unión Europea, de fecha 4 de mayo de 2016, del Reglamento (UE)
2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a
la protección de las personas físicas en lo que respecta al tratamiento de datos
personales y a la libre circulación de estos datos y por el que se deroga la
Directiva 95/46/CE (Reglamento general de protección de datos). Así, en cuanto a
la regulación jurídica de la protección de datos en Europa, cabe señalar que las
normas más relevantes en este ámbito han tenido una influencia indudable en las
18
normativas nacionales de los Estados miembros de la Unión Europea, implicando
un aumento del nivel de protección.
19
1. Cooperación y coherencia
2. Coherencia
3. Comité europeo de protección de datos
CAPÍTULO VIII. Recursos, responsabilidad y sanciones (artículos 77-84)
CAPÍTULO IX. Disposiciones relativas a situaciones específicas de tratamiento
(artículos 85-91)
CAPÍTULO X. Actos delegados y actos de ejecución (artículo 92 y 93)
CAPÍTULO XI. Disposiciones finales (artículo 94-99)
Por otra parte, el RGPD deroga expresamente la Directiva 95/46/CE con efecto a
partir del 25 de mayo de 2018, indicando además que cualquier referencia que se
contenga a la citada Directiva que se deroga, se entenderá hecha a dicho RGPD.
De la misma manera, cualquier referencia al Grupo de protección de las personas
en lo que refiere al tratamiento de datos personales establecido por el artículo 29
de la Directiva 95/46/CE se tiene que entender hecha al Comité Europeo de
Protección de Datos establecido por este RGPD (artículo 94). También se
contempla que el RGPD no impondrá obligaciones adicionales a las personas
físicas o jurídicas, en materia de tratamiento en el marco de la prestación de
servicios públicos de comunicaciones electrónicas en redes públicas de
comunicación de la Unión en ámbitos en los que estén sujetas a obligaciones
específicas con el mismo objetivo establecidas en la Directiva 2002/58/CE (artículo
95). Respecto a los acuerdos internacionales que impliquen la transferencia de
datos personales a terceros países u organizaciones internacionales que hubieren
sido ya celebrados por los Estados miembros con anterioridad al 24 de mayo de
2016, y que cumplan lo dispuesto en el Derecho de la Unión aplicable antes de
dicha fecha, se dispone que seguirán en vigor hasta que sean modificados,
sustituidos o revocados (artículo 96).
En cuanto a la entrada en vigor y aplicación de este RGPD, se declara que entrará
en vigor a los veinte días de su publicación en el Diario Oficial de la Unión
Europea, aunque será aplicable a partir del 25 de mayo de 2018 (artículo 99).
Finalmente, en relación con el ámbito territorial de aplicación del RGPD hay que
subrayar como novedad que se ha producido una importante extensión, ya que
conforme a lo dispuesto en su artículo 3 se aplica al tratamiento de datos
personales en el contexto de las actividades de un establecimiento del
responsable o del encargado en la Unión, independientemente de que el
tratamiento tenga lugar en la Unión Europea o no. Además, el RGPD se aplica
también al tratamiento de datos personales de residentes en la Unión Europea por
parte de un responsable o encargado no establecido en la Unión Europea, cuando
las actividades de tratamiento estén relacionadas con los aspectos que enumera:
a) la oferta de bienes o servicios a dichos interesados en la Unión Europea,
20
independientemente de si a estos se les requiere su pago, o b) el control de su
comportamiento, en la medida en que este tenga lugar en la Unión. En definitiva,
el RGPD resulta también de aplicación al tratamiento de datos fuera de la Unión
Europea, lo que amplía de forma considerable su ámbito de aplicación ya que
permitirá, por ejemplo, que sea aplicable a empresas que, hasta este momento,
podían estar tratando datos de personas en la Unión Europea y que, sin embargo,
se regían por normativas de otras regiones o países que no siempre ofrecen el
mismo nivel de protección que la normativa europea (Mayor Gómez, 2016).
21
legal. América Latina en general ha adoptado mayormente durante la década de
1990 leyes comprensivas para el procesamiento de datos personales, es decir,
leyes que regulan el procesamiento automático y manual de datos personales
tanto por el sector público como por el sector privado. De tal suerte ha seguido
también la tradición europea de protección comprensiva, a diferencia por ejemplo
de los Estados Unidos, cuya protección es fragmentada por sector y se basa, muy
sucintamente, en criterios de privacidad y datos de alta sensibilidad, no en la
autodeterminación informativa (Serrano, 2017).
El modelo de protección de datos personales latinoamericano se encuentra en una
fase de transición. La mayor parte de las principales economías de la región
cuentan con protecciones constitucionales y leyes comprensivas de protección
que regulan el procesamiento de datos personales tanto por el sector público
como el privado.
Por último, un análisis por país respecto de lo cual es posible identificar que hay
diferencias importantes entre los países:
La ley argentina establece como regla general que todo tratamiento de datos debe
realizarse con el consentimiento libre, expreso e informado del titular; de acuerdo
con las circunstancias, deberá ser hecho por escrito o por un medio que se le
equipare. Así, el consentimiento tácito o presunto no es considerado válido por la
ley, aunque dicha regla tiene excepciones.
Por su parte, la ley chilena establece que el consentimiento del titular de los datos
es necesario para el tratamiento de sus datos, salvo que una disposición legal lo
haya autorizado. La normativa establece que el consentimiento desde ser expreso,
informado y por escrito; y también contiene los casos en que el consentimiento
estará exceptuado.
En México, como regla general, los datos personales sólo podrán ser tratados con
el consentimiento de su titular, obtenido de manera libre, específica e informada.
El consentimiento deberá ser expreso si se trata de datos personales sensibles y
financieros o patrimoniales.
En Brasil, que no cuenta con una ley general de protección de datos personales,
varias disposiciones sectoriales requieren el consentimiento expreso del titular. Así
surge de la Ley General de Telecomunicaciones, del Código de Protección del
Consumidor y del Marco Civil de Internet.
22
COSTO-BENEFICIO
Las empresas que saben sacar provecho del Big Data pueden mejorar su
estrategia y así permanecer en el mercado posicionadas, pues hará uso de
nuevos conocimientos, con el gran volumen de datos o información que maneja a
diario, que inicialmente no se les dio la suficiente importancia, por no tener una
herramienta tecnológica que permitiera procesarla. Con la tecnología de Big Data,
las empresas pueden ofrecer mejores productos, desarrollar excelentes relaciones
con sus clientes, además, se transforman en más ágiles y competitivas [7].
Es importante tener en cuenta algunos pasos para la implementación de Big Data,
como se menciona en [2].
Entender el negocio y los datos. Este primer paso pide un análisis
detallado con las personas que hoy laboran y entienden los procesos y
los datos que la empresa maneja.
El segundo paso consiste en determinar los problemas y cómo los datos
pueden ayudar. Al momento de conocer los procesos es muy posible
que se encuentren los problemas de la empresa o del negocio.
Establecer expectativas razonables, es decir, definir metas alcanzables;
esto se puede lograr si al implementar la solución de un problema éste
no presenta alguna mejora, y se debe buscar otra solución.
Existe una recomendación especial, y es que cuando se inicia un
proyecto de Big Data es necesario trabajar en paralelo con el sistema
que hoy está funcionando.
23
Al tratar de implementar un proyecto de Big Data se debe ser flexible
con la metodología y las herramientas; esto se debe a que las dos
anteriores son recientes y pueden llegar a presentar problemas al
implementarlas. Esto se puede solucionar realizando investigación e
inversión en este tipo de tecnología.
Es importante mantener el objetivo de Big Data en mente; esto porque el
proceso es pesado y porque no es tedioso, máxime cuando los métodos
y herramientas que usan Big Data para el análisis de datos aún pueden
presentar problemas, y la idea es que se mantenga en mente la meta
final del proyecto sin desanimarse pronto
ALCANCES Y LIMITACIONES
Sin duda, los macrodatos y los métodos de evaluación de impacto pueden ser
insumos útiles para las discusiones sobre políticas en el contexto de las reformas
de políticas y la gobernanza global. Sin embargo, es esencial que sus limitaciones
sean comprendidas por quienes los producen y los utilizan para las reformas de
24
políticas, así como por los actores en todos los niveles. En la medida en que
dichos métodos se utilicen cada vez más para guiar la política pública en todo el
mundo, es esencial que los actores interesados, dentro y fuera de los sistemas
educativos, estén al tanto de sus debilidades metodológicas y de su incapacidad
para eliminar la política de la formulación de políticas. En efecto, si bien las
promesas del Big Data son seductoras, en general, no ha reemplazado el
elemento humano de la toma de decisiones. Es decir, aunque los datos pueden
construir una cierta visión del mundo, y la interpretación de esos datos, ya sea por
un investigador o por un programa de computadora, puede sugerir ciertas medidas
de política, es poco probable que las decisiones de políticas importantes se
automaticen pronto. La implicación es, entonces, que los políticos y altos
funcionarios y los métodos en los que se basan deben sujetarse a un estándar
más alto, uno que vaya más allá de la combinación de Big Data y la evaluación de
impacto. En lugar de llevar a la mejor o a las mejores prácticas, la intersección de
los macrodatos y las técnicas de evaluación de impacto puede conducir a estudios
y, posteriormente, a reformas que son costosas, perjudiciales, contextualmente
irrelevantes y/o inefectivas.
25
IMPACTO AMBIENTAL
Con el Big Data ambiental, podemos tomar mejores decisiones que nunca y saber
realmente qué está pasando con nuestro planeta y sus habitantes.
Ejemplos de Big Data ambiental
Algunas muestras de los múltiples datos que se recogen y analizan en el Big Data
ambiental son, por ejemplo:
La evolución de especies, tanto en peligro de extinción como invasoras,
y sus movimientos debido al cambio climático u otras circunstancias.
Información de satélites sobre evolución, en tiempo real y de manera
global, de desertización, reforestación, efectos de desastres
ambientales, sequías, etc.
Información globalizada y en tiempo real del clima en todas las partes
del planeta.
Calidad del aire y contaminación, etc.
Las fuentes de datos son muchísimas, y no se ciñen solo a un ámbito estricto. El
Big Data ambiental implica usar datos de campos relacionados, como el de la
salud de las personas, para ver la conexión que existe.
26
Debido a su actividad, las empresas son uno de los agentes que producen un
mayor impacto negativo sobre el medio ambiente. Desde el cambio de milenio ya
estamos viendo en las estrategias y acciones que están implementando para
minimizar dicho impacto. En los últimos años, el green data está contribuyendo a
hacer a las empresas más sostenibles a través de su participación en:
La optimización de la gestión energética y el uso de los recursos.
La reducción de las emisiones de dióxido de carbono derivadas de la
producción.
La reducción de las emisiones de las flotas de vehículos al mejorar las
rutas.
La anticipación a las necesidades de reparación y sustitución de la
maquinaria monitorizada a través de sensores.
En definitiva, ayuda a las empresas a ser conscientes, no solo de sus impactos
directos, sino de los más difíciles de controlar, los producidos a lo largo de toda su
cadena de valor.
El big data aplicado al medio ambiente persigue conseguir un mundo mejor para
todos y ya se ha convertido en una poderosa herramienta de monitorización y
control del desarrollo sostenible.
Solo en 2017 hemos generado más datos que en los 5.000 años previos. El 'big
data' es la tecnología que nos está permitiendo analizar esa explosión de
información para desarrollar nuevos avances y soluciones. La aplicación de datos
masivos para la protección del medio ambiente está contribuyendo, asimismo, a
optimizar la eficiencia del sector energético, a hacer a las empresas más
sostenibles y a crear ciudades inteligentes, por citar tan solo algunos ejemplos.
La información se está multiplicando de manera exponencial: el 90% de los datos
que existen hoy en Internet se han generado —únicamente— desde 2016. Y de
acuerdo con estimaciones de IBM, en 2020 habrá en el mundo 300 veces más
información de la que había en 2005. Un caótico universo de datos en perpetua
expansión. Y es que la vida en el siglo XXI aparece codificada en forma de
números, palabras clave y algoritmos.
La aplicación de datos masivos para frenar el calentamiento global es lo que se
conoce ya como green data. Europa cuenta con diferentes modelos generadores
de green data y uno de ellos es Copernicus. Se trata de un programa de
observación de la Tierra por satélite capaz de calcular, entre otras cosas, la
influencia del aumento de las temperaturas en el caudal de los ríos. Copernicus ya
está aportando información clave para optimizar la gestión de los recursos
27
hídricos, la biodiversidad, la calidad del aire, la pesca o la agricultura. Otros
proyectos internacionales que utilizan el green data para combatir el cambio
climático son:
Aqueduct: mide los peligros asociados al agua, analizando su calidad y cantidad, y
pone a disposición del público mapas de riesgo interactivos.
Global Forest Change: calcula la deforestación contando los árboles de uno en
uno gracias a imágenes por satélite de alta resolución.
Danger Map: determina la contaminación gracias a los datos aportados por
millones de ciudadanos.
28
La ONU asegura que en 2030 dos tercios de la población mundial se
concentrará en las grandes ciudades. Esta realidad plantea retos
medioambientales que el green data ya está ayudando a resolver. Entre las
iniciativas que están utilizando el análisis de datos masivos para crear ciudades
más inteligentes y sostenibles destacan:
El proyecto Trash Track instala sensores con GPS en la basura para
comprender mejor los caminos del reciclaje.
El sistema AllAboard optimiza la planificación del transporte público
utilizando los datos de localización de los teléfonos móviles.
La comunidad Crisis Mappers Net analiza datos de diferentes fuentes
(imágenes de satélite, plataformas geoespaciales, simuladores, etc.)
para alertar de desastres naturales y favorecer una rápida respuesta.
La Copenhagen Wheel es una rueda de bicicleta que recoge datos
sobre la calidad del aire, el nivel de ruido y las condiciones de la
carretera.
La empresa Solar Roadways pretende sembrar el mundo de carreteras
inteligentes hechas con paneles solares que permiten generar energía.
Dispositivos que monitorizan la contaminación en las ciudades y que se
han utilizado para realizar restricciones de tráfico.
29
BIBLIOGRAFIA.
30
i
Referencias
[1] ZDNet.com, CBS Interactive,What is “Big Data?”.
Disponible en: http://www.zdnet.com/ topic-big-data/, 2013.
[2] thinkupapp.com,(2012).
Disponible en: http:// thinkupapp.com/, 2012.
[3] E. Dans.
Disponible en: http://www.enriquedans.com/2011/10/big-dataunapequenaintroduccion.html,
2011.
[4] E. Plugge, P. Membrey & T. Hawkins, The Definitive Guide to MongoDB: The NoSQL
Database for Cloud and Desktop Computing, Published Apress Media LLC, New York, 2010
.
[5] B. Hopkins, Beyond the Hype of Big Data.
Disponible en: http://www.cio.com/ article/692724/Beyond_the_Hype_of_Big_Data, 2011.
Deaton, Aangus y Cartwright, Nancy (2016). “The limitations of randomized controlled trials”,
Vox, 9 de noviembre. Disponible en: http://voxeu.org/article/limitations-randomised-controlled-
trials
Edwards Jr., D. Brent (2018). Global education policy, impact evaluations, and alternatives:
The political economy of knowledge production, Nueva York: Palgrave MacMillan. Disponible
en:
https://www.academia.edu/36174726/Global_Education_Policy_Impact_Evaluations_and_Alt
ernatives_The_Political_Economy_of_Knowledge_Production?source=swp_share
Gorur, Radhika; Sellar, Sam y Steiner-Khamsi, Gita (2018). “Big Data and even bigger
consequences”, en R. Gorur, S. Sellar y G. Steiner-Khamsi (eds.), World Yearbook of
Education 2019: Comparative methodology in the era of Big Data and global networks, Nueva
York: Routledge.
Grek, Sotiria (2009). “Governing by numbers: The PISA ‘effect’ in Europe”, Journal of
Education Policy, vol. 24, núm. 1, pp. 23-37. Disponible en:
https://www.research.ed.ac.uk/portal/files/14608705/Governing_by_Numbers.pdf
Klees, Steven (2016). “Inferences from regression analysis: Are they valid?”, Real-world
Economics Review, vol. 74, pp. 85-97. Disponible en:
http://www.paecon.net/PAEReview/issue74/Klees74.pdf
Gil, E. (2016). Big data, privacidad y protecció n de datos. In Agencia Estatal Boletín Oficial del
Estado (Issue June 2016).
https://www.researchgate.net/profile/Elena_Gil_Gonzalez/publication/324831404_Big_dat
a_privacidad_y_proteccion_de_datos/links/5ae608220f7e9b9793c79b21/Big-data-
privacidad-y-proteccion-de-datos.pdf
Mayor Gó mez, R. (2016). Contenido Y Novedades Del Reglamento General De Protecció n De
Datos De La Ue (Reglamento Ue 2016/679, De 27 De Abril De 2016). Gabilex: Revista Del
Gabinete Juridico de Castilla-La Mancha, 6, 25. www.gabilex.jccm.es
Serrano, I. (2017). Transparencia & sociedad.