Está en la página 1de 14

Big Data: qué es y cómo funciona

En nuestro día a día compartimos fotos, vídeos, gustos, aficiones…Enviamos gran cantidad de información constantemente.
Proporcionamos datos que son analizados a conciencia por las empresas para conocer mejor a sus consumidores. Lo hacen
gracias a lo que se conoce como Big Data, un sistema en el que muchas ya han invertido grandes sumas de dinero. Pero,
¿qué es realmente?
Definimos Big Data como el proceso de recolección y análisis de grandes cantidades de información. La complejidad y el
gran volumen de datos impiden que estos puedan ser analizados por los medios tradicionales. Lo que hace diferente al Big
Data respecto a otro tipo de mecanismos utilizados para la gestión y el análisis son las 5Vs: volumen, velocidad, variedad,
veracidad y valor.
Volumen Como destacábamos anteriormente, los niveles de datos que maneja Big Data son muy elevados (terabytes o
petabytes), estos anteriormente no podían manejarse porque no existía tecnología pertinente para ello.
Variedad La información proviene diversas fuentes lo que hace que se puedan comparar diferentes puntos de vista.
Velocidad La rapidez es una de las características comunes de los últimos avances tecnológicos. Vivimos en una sociedad a
la que no le gusta la espera y valora de forma positiva el poder tener los datos que demanda, ya clasificados y procesados,
en el menor tiempo posible.
Veracidad Que sean verdaderos y se ajusten lo máximo posible a la realidad permite matizar las decisiones futuras.
Valor Los datos tienen que ser útiles para quien los va a manejar, el valor se añade tras su análisis.
¿Para qué sirve el Big Data?
En el mundo de los negocios, el Big Data proporciona información a las empresas. Les permiten fijar de forma más
estratégica sus objetivos, centrando sus acciones en utilizar y sacar partido a las nuevas oportunidades que pueden
aparecer entre estos datos e incluso, abandonar aquellos objetivos o estrategias que les resulten más problemáticas. Uno
de los campos donde es más útil este sistema es el marketing. El análisis de más variedad de datos permite conocer mejor
los gustos o deseos de los clientes y poder ofrecer así productos nuevos que satisfagan sus necesidades
La industria del turismo, la salud o los mercados financieros lo utilizan en sus sistemas de trabajo. Recopilar valoraciones
de clientes, registrar el número de pacientes de un hospital con sus informes clínicos o evaluar de forma eficaz los posibles
riesgos que pueda tener una inversión, son algunos de los ejemplos de su función.
¿Cómo se organizan los datos?
Existen tres categorías. La primera recoge datos que incluyen informaciones sobre clientes o fechas y se agrupan en tablas
aunque, existen otros tipos de datos como imágenes, vídeos o audios que se clasifican como datos no agrupados porque
no se pueden clasificar con este método. La segunda recoge datos más detallados y que están relacionados con actividades
comerciales como pueden ser las valoraciones, encuestas, registros de ventas, etc. Los últimos están relacionados con las
interacciones sociales como por ejemplo, los datos que aportan las redes sociales.
Desventajas del Big Data.
Analizar gran cantidad de datos también conlleva que los estándares de calidad disminuyan. Es complicado seleccionar
datos bajo unos criterios de calidad y ofrecerlos con la máxima inmediatez posible ya que se necesita tiempo para poder
estructurar los datos obtenidos y desechar aquellos que no valgan.
Estos datos están en constante cambio. Se analizan de forma muy rápida pero la validez de muchos de ellos puede ser muy
corta. La solución a este problema la encontramos en la capacidad de procesamiento, cuanto más alto sea, mayor vida útil
tendrán. La volatilidad de los datos puede desencadenar errores que trasciendan a la hora de tomar decisiones.
La protección de datos es otra de las vertientes para analizar. Según la normativa los datos personales no pueden utilizarse
con una finalidad diferente a la inicial. Esto hace referencia al principio de finalidad, que limita los proyectos del Big Data.
Desde que surgieron las primeras formas de escritura hasta los centros de datos modernos, la raza humana no ha dejado
de recopilar información. El crecimiento del sector tecnológico ha provocado el aumento desmesurado del volumen de
datos, por lo que son necesarios sistemas de almacenamiento de datos más sofisticados.
Orígenes de Big Data
Ya sabemos qué es Big Data. Ahora vayamos a sus inicios. Alan Turing, padre de la computación, matemático, científico y
filósofo, soñaba en los años 30 con una máquina capaz de ejecutar tareas y pasar a otras distintas de forma autónoma.
Parecía utópico en un época en la que la tecnología existente no se acercaba ni lo más mínimo a la idea de Turing.
Durante la II Guerra Mundial, Alan Turing lideró un equipo de inteligencia en Bletchley Park. El objetivo era descifrar Enigma,
una de las máquinas de cifrado que utilizaba el ejército nazi. El trabajo de Turing consiguió descifrar parte de los mensajes
alemanes. Esto permitió según los expertos acortar entre 2 y 4 años la Gran Guerra. Es así cómo Alan Turing puso la primera
piedra de lo que hoy conocemos como ‘Big Data’.
El Big Data desde años 50 a los 80
Tras la II Guerra Mundial, ¿cómo ha evolucionado la tecnología que ha tenido una incidencia directa en el Big Data actual?
Repasamos los hitos más importantes:
1956: Nace la Memoria Virtual. El físico Fritz Rudolf Güntsch desarrolla esta idea que trataba el almacenamiento finito como
infinito. Permite que los datos se procesasen ajenos a la limitación de memoria del hardware.
1962: William C. Dersch presenta la máquina ‘Shoebox’. Este sistema es capaz de comprender voz por primera vez. 16
palabras y 10 dígitos en inglés hablado.
1966: Es a finales de la década de los 60 cuando las organizaciones, gracias a la cantidad de información existente, diseñan
y desarrollan sistemas de computación más avanzados. Lo cual les permite automatizar sus sistemas de inventario.
1980: En una charla, I. A. Tjomsland comentó la primera Ley de Parkinson. Esta dice que “el trabajo se expande hasta llenar
el tiempo disponible para que se termine”. Se podía parafrasear para la industria de aquella época de la siguiente manera:
“Los datos se expanden hasta llenar el espacio disponible para el almacenamiento”.
Nacimiento de la WWW y recorrido del Big Data hasta hoy
Con el nacimiento de la WWW (World Wide Web) e Internet se abren los primeros caminos a la generación masiva de
datos. De esto deriva la aparición de sistemas de gestión y almacenamiento de información. Hoy en día permite que seamos
capaces de procesar e interpretar el Big Data.
1989: La World Wide Web nace de la mano de Tim Berners-Lee. Es el sistema que distribuye documentos de hipertexto
accesibles a través de Internet.
1992: Se crea la primera base de datos simple con Windows. Este avance de Crystal Reports facilita el trabajo a las empresas.
También motiva la compra de más memoria para su uso en técnicas de programación más avanzadas.
1997: Se utiliza por primera vez el término ‘Big Data’. Los investigadores de la NASA Michael Cox y David Ellsworth afirman
en un artículo (en inglés) que el gran aumento de datos se estaba convirtiendo en un problema para los sistemas
informáticos actuales. Esto se da a conocer como el “problema del Big Data”.
2009-2011: Empresas como Cloudera, en primer lugar, y Hortonworks, dos años más tarde, nacen para gestionar datos,
reunirlos y centralizarlos en lugares seguros y completamente administrados. Estos servicios abren un mundo de
posibilidades para las empresas.
2012: Por primera vez en la historia el Big Data es utilizado para fines políticos. Barack Obama, en su campaña, lo usó para
conocer las opiniones de los votantes más indecisos y saber qué canales utilizaban. Lanzaba así los mensajes con un impacto
más personalizado.
2014: Nace el concepto ‘Location Intelligence’ (Inteligencia de Ubicación, en español). Se trata de una tecnología que
obtiene información de valor gracias a la geolocalización. Según Gartner, en 2021 se cuadruplicarán las empresas que
utilicen esta tecnología.
2015: Smart Cities, los datos y el IoT. Gartner estimó que en ese año,más de 1.000 millones de elementos conectados serán
utilizados por ciudades inteligentes. El futuro de las Smart Cities pasa por el tratamiento y la gestión del Big Data.
En este mismo año, Gartner publica de su curva de sobre expectación al Big Data. Rrepresenta gráficamente la madurez,
adopción y aplicación comercial de tecnologías. El Big Data deja de aparecer en lo más alto de esta curva. Ya no es por lo
tanto una tecnología emergente. El Big Data ya está instaurado.
¿Qué le tiene preparado el futuro al Big Data?
En 2020 se espera que la generación anual de datos haya aumentado hasta un 4.300%. El crecimiento estará motivado por
el cambio de las tecnologías analógicas a digitales y por la cantidad de información generada tanto por los usuarios como
por las empresas.
Según Gartner, en 2020 habrá más de 25.000 millones de dispositivos conectados a Internet. A finales de 2013, la cantidad
de datos generados por los dispositivos era de 4.4 billones de GB. Cifra que se espera se multiplique por 10 en 2020. Esta
gran cantidad de datos requerirá de nuevas técnicas. También de una capacidad de gestión mayor y tener muy en cuenta
las 3 Vs del Big Data: Velocidad, Variedad y Volumen.
Lo conseguido ya con el Big Data permite ver el futuro con optimismo. Será siempre y cuando la tecnología crezca al nivel
que lo hacen los datos. Áreas como el medio ambiente, la salud, la productividad o la vida personal podrán verse
beneficiadas por esos miles de millones de bytes que generamos diariamente.

¿De dónde provienen todos estos datos?


• Generados por las propias personas. El hecho de enviar correos electrónicos o mensajes por WhatsApp, publicar un
estado en Facebook, publicar relaciones laborales en Linkedin, tuitear contenidos o responder a una encuesta por la
calle son cosas que hacemos a diario y que crean nuevos datos y metadatos que pueden ser analizados. Se estima que
cada minuto al día se envían más de 200 millones de correos electrónicos, se comparten más de 700 000 piezas de
contenido en Facebook, se realizan dos millones de búsquedas en Google o se editan 48 horas de vídeo en YouTube. 56
Por otro lado, las trazas de utilización en un sistema ERP, incluir registros en una base de datos o introducir información
en una hoja de cálculo son otras formas de generar estos datos.
• Obtenidas a partir de transacciones. La facturación, tarjetas de fidelización, las llamadas telefónicas, las conexiones
torres de telefonía, los accesos a wifis públicas, el pago con tarjetas de crédito o las transacciones entre cuentas
bancarias generan información que tratada puede ser datos relevantes. Por ejemplo transacciones bancarias: Lo que
el usuario conoce como un ingreso de X euros, el sistema lo capturará como una acción llevada a cabo en una fecha y
momento determinado, en un lugar concreto, entre unos usuarios registrados, y con ciertos metadatos.
• Mercadotecnia electrónica y web. Se genera una gran cantidad de datos cuando se navega por internet. Con la web 2.0
se ha roto el paradigma webmaster-contenido-lector y los mismos usuarios se convierten en creadores de contenido
gracias a su interacción con el sitio. Existen muchas herramientas de seguimiento utilizadas en su mayoría con fines
de mercadotecnia y análisis de negocio. Los movimientos de ratón quedan grabados en mapas de calor y queda
registro de cuánto pasamos en cada página y cuándo las visitamos.
• Obtenidos a partir de las interacciones máquina a máquina (M2M). Son datos obtenidos a partir de la recogida de
métricas obtenidas desde dispositivos (medidores, sensores de temperatura, de luz, de altura, de presión, de sonido…)
que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la
llegada de las comunicaciones inalámbricas (wifi, Bluetooth, RFID, etc.) ha revolucionado el mundo de los sensores.
Algunos ejemplos son los GPS en la automoción, los sensores de signos vitales (muy útil para seguros de vida), pulseras
en los festivales57, monitorizadores del funcionamiento y conducción de autoḿoviles (se obtiene información muy útil
para la aseguradoras)58, los smartphone (son sensores de localización).
• Datos biométricos recolectados. En general provienen de servicios de seguridad, defensa y servicios de inteligencia.59
Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales,
o lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar
custodiados por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce
de ADN entre una muestra de un crimen y una muestra en nuestra base de datos.

¿Cómo funciona?
Las soluciones basadas en Big Data tienen como objetivo extraer información de valor mediante el análisis de grandes
conjuntos de datos. Este análisis se fundamenta en técnicas matemáticas, generalmente basadas en la estadística, y que
provienen de campos diversos como la minería de datos, el aprendizaje automático, el análisis de series temporales o la
investigación operacional.
Mediante estas técnicas pueden explotarse datos de cualquier naturaleza: bases de datos, registros numéricos, texto libre,
actividad en una red social, audios, imágenes, vídeos… Mediante los tratamientos adecuados, cualquier tipo de datos es
susceptible de ser analizado. Escenarios donde haya diversidad de datos en diferentes formatos también podrán tratarse
mediante estrategias de integración de la información, enriqueciendo así la solución.
1. ¿Qué es Big Data?
Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño
(volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento
o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas
convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.
Aunque el tamaño utilizado para determinar si un conjunto de datos determinado se considera Big Data no está firmemente
definido y sigue cambiando con el tiempo, la mayoría de los analistas y profesionales actualmente se refieren a conjuntos
de datos que van desde 30-50 Terabytes a varios Petabytes.
La naturaleza compleja del Big Data se debe principalmente a la naturaleza no estructurada de gran parte de los datos
generados por las tecnologías modernas, como los web logs, la identificación por radiofrecuencia (RFID), los sensores
incorporados en dispositivos, la maquinaria, los vehículos, las búsquedas en Internet, las redes sociales como Facebook,
computadoras portátiles, teléfonos inteligentes y otros teléfonos móviles, dispositivos GPS y registros de centros de
llamadas.
En la mayoría de los casos, con el fin de utilizar eficazmente el Big Data, debe combinarse con datos
estructurados (normalmente de una base de datos relacional) de una aplicación comercial más convencional, como un ERP
(Enterprise Resource Planning) o un CRM (Customer Relationship Management).
2. ¿Por qué el Big Data es tan importante?
Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona respuestas a muchas preguntas
que las empresas ni siquiera sabían que tenían. En otras palabras, proporciona un punto de referencia. Con una cantidad
tan grande de información, los datos pueden ser moldeados o probados de cualquier manera que la empresa considere
adecuada. Al hacerlo, las organizaciones son capaces de identificar los problemas de una forma más comprensible.
La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de los datos permiten que las empresas
se muevan mucho más rápidamente, sin problemas y de manera eficiente. También les permite eliminar las áreas
problemáticas antes de que los problemas acaben con sus beneficios o su reputación.
El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos y utilizarlos para identificar nuevas oportunidades.
Eso, a su vez, conduce a movimientos de negocios más inteligentes, operaciones más eficientes, mayores ganancias y
clientes más felices. Las empresas con más éxito con Big Data consiguen valor de las siguientes formas:
• Reducción de coste. Las grandes tecnologías de datos, como Hadoop y el análisis basado en la nube, aportan importantes
ventajas en términos de costes cuando se trata de almacenar grandes cantidades de datos, además de identificar
maneras más eficientes de hacer negocios.
• Más rápido, mejor toma de decisiones. Con la velocidad de Hadoop y la analítica en memoria, combinada con la
capacidad de analizar nuevas fuentes de datos, las empresas pueden analizar la información inmediatamente y tomar
decisiones basadas en lo que han aprendido.
• Nuevos productos y servicios. Con la capacidad de medir las necesidades de los clientes y la satisfacción a través de
análisis viene el poder de dar a los clientes lo que quieren. Con la analítica de Big Data, más empresas están creando
nuevos productos para satisfacer las necesidades de los clientes.

Por ejemplo:
• Turismo: Mantener felices a los clientes es clave para la industria del turismo, pero la satisfacción del cliente puede ser
difícil de medir, especialmente en el momento oportuno. Resorts y casinos, por ejemplo, sólo tienen una pequeña
oportunidad de dar la vuelta a una mala experiencia de cliente. El análisis de Big data ofrece a estas empresas la
capacidad de recopilar datos de los clientes, aplicar análisis e identificar inmediatamente posibles problemas antes de
que sea demasiado tarde.
• Cuidado de la salud: El Big Data aparece en grandes cantidades en la industria sanitaria. Los registros de pacientes, planes
de salud, información de seguros y otros tipos de información pueden ser difíciles de manejar, pero están llenos de
información clave una vez que se aplican las analíticas. Es por eso que la tecnología de análisis de datos es tan importante
para el cuidado de la salud. Al analizar grandes cantidades de información - tanto estructurada como no estructurada -
rápidamente, se pueden proporcionar diagnósticos u opciones de tratamiento casi de inmediato.
• Administración: La administración se encuentra ante un gran desafío: mantener la calidad y la productividad con unos
presupuestos ajustados. Esto es particularmente problemático con lo relacionado con la justicia. La tecnología agiliza las
operaciones mientras que da a la administración una visión más holística de la actividad.
• Retail: El servicio al cliente ha evolucionado en los últimos años, ya que los compradores más inteligentes esperan que
los minoristas comprendan exactamente lo que necesitan, cuando lo necesitan. El Big Data ayuda a los minoristas a
satisfacer esas demandas. Armados con cantidades interminables de datos de programas de fidelización de clientes,
hábitos de compra y otras fuentes, los minoristas no sólo tienen una comprensión profunda de sus clientes, sino que
también pueden predecir tendencias, recomendar nuevos productos y aumentar la rentabilidad.
• Empresas manufactureras: Estas despliegan sensores en sus productos para recibir datos de telemetría. A veces esto se
utiliza para ofrecer servicios de comunicaciones, seguridad y navegación. Ésta telemetría también revela patrones de
uso, tasas de fracaso y otras oportunidades de mejora de productos que pueden reducir los costos de desarrollo y
montaje.
• Publicidad: La proliferación de teléfonos inteligentes y otros dispositivos GPS ofrece a los anunciantes la oportunidad de
dirigirse a los consumidores cuando están cerca de una tienda, una cafetería o un restaurante. Esto abre nuevos ingresos
para los proveedores de servicios y ofrece a muchas empresas la oportunidad de conseguir nuevos prospectos.
• Otros ejemplos del uso efectivo de Big Data existen en las siguientes áreas:
o Uso de registros de logs de TI para mejorar la resolución de problemas de TI, así como la detección de infracciones de
seguridad, velocidad, eficacia y prevención de sucesos futuros.
o Uso de la voluminosa información histórica de un Call Center de forma rápida, con el fin de mejorar la interacción con
el cliente y aumentar su satisfacción.
o Uso de contenido de medios sociales para mejorar y comprender más rápidamente el sentimiento del cliente y
mejorar los productos, los servicios y la interacción con el cliente.
o Detección y prevención de fraudes en cualquier industria que procese transacciones financieras online, tales como
compras, actividades bancarias, inversiones, seguros y atención médica.
o Uso de información de transacciones de mercados financieros para evaluar más rápidamente el riesgo y tomar
medidas correctivas.

3. Desafíos de la calidad de datos en Big Data


Las especiales características del Big Data hacen que su calidad de datos se enfrente a múltiples desafíos. Se trata de las
conocidas como 5 Vs: Volumen, Velocidad, Variedad, Veracidad y Valor, que definen la problemática del Big Data.
Estas 5 características del big data provocan que las empresas tengan problemas para extraer datos reales y de alta calidad,
de conjuntos de datos tan masivos, cambiantes y complicados.
Hasta la llegada del Big Data, mediante ETL podíamos cargar la información estructurada que teníamos almacenada en
nuestro sistema ERP y CRM, por ejemplo. Pero ahora, podemos cargar información adicional que ya no se encuentra dentro
de los dominios de la empresa: comentarios o likes en redes sociales, resultados de campañas de marketing, datos
estadísticos de terceros, etc. Todos estos datos nos ofrecen información que nos ayuda a saber si nuestros productos o
servicios están funcionando bien o por el contrario están teniendo problemas.
Algunos desafíos a los que se enfrenta la calidad de datos de Big Data son:
1. Muchas fuentes y tipos de datos
Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de integración de datos aumenta.
Las fuentes de datos de big data son muy amplias:
• Datos de internet y móviles.
• Datos de Internet de las Cosas.
• Datos sectoriales recopilados por empresas especializadas.
• Datos experimentales.
Y los tipos de datos también lo son:
1. Tipos de datos no estructurados: documentos, vídeos, audios, etc.
2. Tipos de datos semi-estructurados: software, hojas de cálculo, informes.
3. Tipos de datos estructurados
Solo el 20% de información es estructurada y eso puede provocar muchos errores si no acometemos un proyecto de calidad
de datos.
2. Tremendo volumen de datos
Como ya hemos visto, el volumen de datos es enorme, y eso complica la ejecución de un proceso de calidad de datos
dentro de un tiempo razonable.
Es difícil recolectar, limpiar, integrar y obtener datos de alta calidad de forma rápida. Se necesita mucho tiempo para
transformar los tipos no estructurados en tipos estructurados y procesar esos datos.
3. Mucha volatilidad
Los datos cambian rápidamente y eso hace que tengan una validez muy corta. Para solucionarlo necesitamos un poder de
procesamiento muy alto.

Si no lo hacemos bien, el procesamiento y análisis basado en estos datos puede producir conclusiones erróneas, que
pueden llevar a cometer errores en la toma de decisiones.
4. No existen estándares de calidad de datos unificados
En 1987 la Organización Internacional de Normalización (ISO) publicó las normas ISO 9000 para garantizar la calidad de
productos y servicios. Sin embargo, el estudio de los estándares de calidad de los datos no comenzó hasta los años noventa,
y no fue hasta 2011 cuando ISO publicó las normas de calidad de datos ISO 8000.
Estas normas necesitan madurar y perfeccionarse. Además, la investigación sobre la calidad de datos de big data ha
comenzado hace poco y no hay apenas resultados.
La calidad de datos de big data es clave, no solo para poder obtener ventajas competitivas sino también impedir
que incurramos en graves errores estratégicos y operacionales basándonos en datos erróneos con consecuencias que
pueden llegar a ser muy graves.
¿Tienes dudas de cómo empezar tu proyecto de Big Data? Resuelve tus dudas con un experto
Big Data es uno de los conceptos de moda en el mundo informático. En la actualidad contamos con una gran cantidad de
artículos, e información, y en todas las encuestas a los CIOS aparece entre los primeros lugares la necesidad de implantar un
sistema de Big Data.
Sin embargo, observamos una gran confusión sobre "en qué consiste realmente". En las mismas encuestas, cuando se
pregunta sobre, qué es Big Data, comprobamos una gran dispersión en las respuestas ofrecidas. Empecemos entonces por
tratar de aclarar "qué es Big Data".
Denominamos Big Data a la gestión y análisis de enormes volúmenes de datos que no pueden ser tratados de manera
convencional, ya que superan los límites y capacidades de las herramientas de software habitualmente utilizadas para la
captura, gestión y procesamiento de datos.
Dicho concepto engloba infraestructuras, tecnologías y servicios que han sido creados para dar solución al procesamiento
de enormes conjuntos de datos estructurados, no estructurados o semi-estructurados (mensajes en redes sociales, señales
de móvil, archivos de audio, sensores, imágenes digitales, datos de formularios, emails, datos de encuestas, logs etc,) que
pueden provenir de sensores, micrófonos, cámaras, escáneres médicos, imágenes?
El objetivo de Big Data, al igual que los sistemas analíticos convencionales, es convertir el Dato en información que facilita la
toma de decisiones, incluso en tiempo real. Sin embargo, más que una cuestión de tamaño, es una oportunidad de negocio.
Las empresas ya están utilizando Big Data para entender el perfil, las necesidades y el sentir de sus clientes respecto a los
productos y/o servicios vendidos. Esto adquiere especial relevancia ya que permite adecuar la forma en la que interactúa la
empresa con sus clientes y en cómo les prestan servicio.
No obstante, el asociar el concepto Big Data a grandes volúmenes de datos no es nuevo. La gran mayoría de las empresas
ya llevan mucho tiempo manejando grandes volúmenes de datos y han desarrollado DataWarehouses y potentes
herramientas analíticas que les permiten tratar de forma adecuada esos grandes volúmenes. La evolución de la tecnología y
los menores costes del almacenamiento han hecho que los volúmenes manejados por estas aplicaciones hayan aumentado
de manera muy importante.
Las 'Vs' del Big Data
¿Cuál es entonces la diferencia entre las aplicaciones analíticas y de gestión y los nuevos conceptos de Big Data? Las
diferencias se asocian, en la mayoría de los artículos de referencia, a tres palabras, las tres 'Vs' del Big Data: Volumen,
Variedad y Velocidad (3Vs). Sin embargo, en base a la experiencia adquirida por las empresas pioneras en esta aventura, se
ha ampliado la definición original, añadiendo nuevas características como son la Veracidad y Valor del dato (5Vs)
Hablamos de Big Data cuando los volúmenes superan la capacidad del software habitual para ser manejados y gestionados.
Este concepto se encuentra en continuo movimiento porque los avances tecnológicos permiten tratamientos de volúmenes
mayores. Cuando hablamos de grandes volúmenes nos referimos a tratamientos de Terabytes o Petabytes. Esto permite
incluir en este tipo de proyectos informaciones (por ejemplo logs) que hasta la fecha no se utilizaban porque la tecnología
no permitía procesarlos en un tiempo razonable. El concepto de volumen es muy variable y cada día que pasa eleva lo que
podemos considerar grandes volúmenes de datos.
En el concepto de variedad nos referimos a la inclusión de otros tipos de fuentes de datos diferentes a las que se utilizan de
forma tradicional. Nos referimos a información obtenida en diferentes Redes Sociales, en el número cada vez mayor de
dispositivos electrónicos conectados, la explotación de sensores que permiten conocer los movimientos y hábitos de vida,
de información externa de diversas fuentes, etc.
La información que procesan los Datawarehose es información estructurada que ha pasado por numerosos filtros de calidad
para poder garantizar que la información de salida tiene una precisión y una exactitud determinada. Sin embargo, cuando
hablamos de Big Data nos referimos a información que puede estar semiestructurada o no tener ninguna estructuración. La
gestión de esta información desestructurada precisa de una tecnología diferente y permite tomar decisiones basadas en
información que tiene importantes grados de inexactitud. Muchos de estos algoritmos se relacionan con los tratamientos
de sistemas avanzados de lógica difusa.
Por último, el concepto de velocidad se refiere a la rapidez con que los datos se reciben, se procesan y se toman decisiones
a partir de ellos. A la mayoría de los sistemas tradicionales les es imposible analizar de forma inmediata los grandes
volúmenes de datos que les llegan, sin embargo, incorporar el concepto de tiempo real es imprescindible para sistemas de
detección del fraude o la realización de oferta personalizadas a los clientes.
Pero, no menos importante al barajar este concepto, es la veracidad, esto es, confianza de los datos, extraer datos de calidad
eliminado la imprevisibilidad inherente de algunos, como el tiempo, la economía etc, para, de esta forma, llegar a una
correcta toma de decisiones
Finalmente, se añade el valor. La importancia del dato para el negocio, saber que datos son los que se deben analizar, es
fundamental. Tanto que ya se empieza a hablar del científico de datos, un profesional con perfil científico, tecnológico...y
visión de negocio.

1. Introducción
El primer cuestionamiento que posiblemente llegue a su mente en este momento es ¿Qué es Big Data y porqué se ha vuelto
tan importante? pues bien, en términos generales podríamos referirnos como a la tendencia en el avance de la tecnología
que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir
enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y
sería muy costoso cargarlos a un base de datos relacional para su análisis. De tal manera que, el concepto de Big Data aplica
para toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales.
Sin embargo, Big Data no se refiere a alguna cantidad en específico, ya que es usualmente utilizado cuando se habla en
términos de petabytes y exabytes de datos. Entonces ¿Cuánto es demasiada información de manera que sea elegible para
ser procesada y analizada utilizando Big Data? Analicemos primeramente en términos de bytes:
Gigabyte = 109 = 1,000,000,000
Terabyte = 1012 = 1,000,000,000,000
Petabyte = 1015 = 1,000,000,000,000,000
Exabyte = 1018 = 1,000,000,000,000,000,000
Además del gran volumen de información, esta existe en una gran variedad de datos que pueden ser representados de
diversas maneras en todo el mundo, por ejemplo de dispositivos móviles, audio, video, sistemas GPS, incontables sensores
digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc., los cuales pueden medir
y comunicar el posicionamiento, movimiento, vibración, temperatura, humedad y hasta los cambios químicos que sufre el
aire, de tal forma que las aplicaciones que analizan estos datos requieren que la velocidad de respuesta sea lo demasiado
rápida para lograr obtener la información correcta en el momento preciso. Estas son las características principales de una
oportunidad para Big Data.
Es importante entender que las bases de datos convencionales son una parte importante y relevante para una solución
analítica. De hecho, se vuelve mucho más vital cuando se usa en conjunto con la plataforma de Big Data. Pensemos en
nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales para cada tarea en específico. Por ejemplo, un
beisbolista sabe que una de sus manos es mejor para lanzar la pelota y la otra para atraparla; puede ser que cada mano
intente hacer la actividad de la otra, mas sin embargo, el resultado no será el más óptimo.
2. ¿De dónde proviene toda esa información?
Los seres humanos estamos creando y almacenando información constantemente y cada vez más en cantidades
astronómicas. Se podría decir que si todos los bits y bytes de datos del último año fueran guardados en CD's, se generaría
una gran torre desde la Tierra hasta la Luna y de regreso.
Esta contribución a la acumulación masiva de datos la podemos encontrar en diversas industrias, las compañías mantienen
grandes cantidades de datos transaccionales, reuniendo información acerca de sus clientes, proveedores, operaciones,
etc., de la misma manera sucede con el sector público. En muchos países se administran enormes bases de datos que
contienen datos de censo de población, registros médicos, impuestos, etc., y si a todo esto le añadimos transacciones
financieras realizadas en línea o por dispositivos móviles, análisis de redes sociales (en Twitter son cerca de 12 Terabytes
de tweets creados diariamente y Facebook almacena alrededor de 100 Petabytes de fotos y videos), ubicación geográfica
mediante coordenadas GPS, en otras palabras, todas aquellas actividades que la mayoría de nosotros realizamos varias
veces al día con nuestros "smartphones", estamos hablando de que se generan alrededor de 2.5 quintillones de bytes
diariamente en el mundo.
1 quintillón = 10 30 = 1,000,000,000,000,000,000,000,000,000,000
De acuerdo con un estudio realizado por Cisco[1], entre el 2011 y el 2016 la cantidad de tráfico de datos móviles crecerá a
una tasa anual de 78%, así como el número de dispositivos móviles conectados a Internet excederá el número de habitantes
en el planeta. Las naciones unidas proyectan que la población mundial alcanzará los 7.5 billones para el 2016 de tal modo
que habrá cerca de 18.9 billones de dispositivos conectados a la red a escala mundial, esto conllevaría a que el tráfico global
de datos móviles alcance 10.8 Exabytes mensuales o 130 Exabytes anuales. Este volumen de tráfico previsto para 2016
equivale a 33 billones de DVDs anuales o 813 cuatrillones de mensajes de texto.
Pero no solamente somos los seres humanos quienes contribuimos a este crecimiento enorme de información, existe
también la comunicación denominada máquina a máquina (M2M machine-to-machine) cuyo valor en la creación de
grandes cantidades de datos también es muy importante. Sensores digitales instalados en contenedores para determinar
la ruta generada durante una entrega de algún paquete y que esta información sea enviada a las compañías de
transportación, sensores en medidores eléctricos para determinar el consumo de energía a intervalos regulares para que
sea enviada esta información a las compañías del sector energético. Se estima que hay más de 30 millones de sensores
interconectados en distintos sectores como automotriz, transportación, industrial, servicios, comercial, etc. y se espera que
este número crezca en un 30% anualmente.
3. ¿Qué tipos de datos debo explorar?
Muchas organizaciones se enfrentan a la pregunta sobre ¿qué
información es la que se debe analizar?, sin embargo, el
cuestionamiento debería estar enfocado hacia ¿qué problema es el
que se está tratando de resolver?.[2]
Si bien sabemos que existe una amplia variedad de tipos de datos a
analizar, una buena clasificación nos ayudaría a entender mejor su
representación, aunque es muy probable que estas categorías
puedan extenderse con el avance tecnológico.
Figura 1. Tipos de datos de Big Data[2]

1.- Web and Social Media: Incluye contenido web e información que
es obtenida de las redes sociales como Facebook, Twitter, LinkedIn,
etc, blogs.
2.- Machine-to-Machine (M2M): M2M se refiere a las tecnologías
que permiten conectarse a otros dispositivos. M2M utiliza dispositivos como sensores o medidores que capturan algún
evento en particular (velocidad, temperatura, presión, variables meteorológicas, variables químicas como la salinidad, etc.)
los cuales transmiten a través de redes alámbricas, inalámbricas o híbridas a otras aplicaciones que traducen estos eventos
en información significativa.
3.- Big Transaction Data: Incluye registros de facturación, en telecomunicaciones registros detallados de las llamadas (CDR),
etc. Estos datos transaccionales están disponibles en formatos tanto semiestructurados como no estructurados.
4.- Biometrics: Información biométrica en la que se incluye huellas digitales, escaneo de la retina, reconocimiento facial,
genética, etc. En el área de seguridad e inteligencia, los datos biométricos han sido información importante para las
agencias de investigación.
5.- Human Generated: Las personas generamos diversas cantidades de datos como la información que guarda un call center
al establecer una llamada telefónica, notas de voz, correos electrónicos, documentos electrónicos, estudios médicos, etc.

5. Big Data y el campo de investigación


Los científicos e investigadores han analizado datos desde ya hace mucho tiempo, lo que ahora representa el gran reto es
la escala en la que estos son generados.
Esta explosión de "grandes datos" está transformando la manera en que se conduce una investigación adquiriendo
habilidades en el uso de Big Data para resolver problemas complejos relacionados con el descubrimiento científico,
investigación ambiental y biomédica, educación, salud, seguridad nacional, entre otros.
De entre los proyectos que se pueden mencionar donde se ha llevado a cabo el uso de una solución de Big Data se
encuentran:
• El Language, Interaction and Computation Laboratory (CLIC) en conjunto con la Universidad de Trento en Italia, son un
grupo de investigadores cuyo interés es el estudio de la comunicación verbal y no verbal tanto con métodos
computacionales como cognitivos.
• Lineberger Comprehensive Cancer Center - Bioinformatics Group utiliza Hadoop y HBase para analizar datos producidos
por los investigadores de The Cancer Genome Atlas(TCGA) para soportar las investigaciones relacionadas con el cáncer.
• El PSG College of Technology, India, analiza múltiples secuencias de proteínas para determinar los enlaces evolutivos y
predecir estructuras moleculares. La naturaleza del algoritmo y el paralelismo computacional de Hadoop mejora la
velocidad y exactitud de estas secuencias.
• La Universidad Distrital Francisco Jose de Caldas utiliza Hadoop para apoyar su proyecto de investigación relacionado con
el sistema de inteligencia territorial de la ciudad de Bogotá.
• La Universidad de Maryland es una de las seis universidades que colaboran en la iniciativa académica de cómputo en la
nube de IBM/Google. Sus investigaciones incluyen proyectos en la lingüistica computacional (machine translation),
modelado del lenguaje, bioinformática, análisis de correo electrónico y procesamiento de imágenes.
El Instituto de Tecnología de la Universidad de Ontario (UOIT) junto con el Hospital de Toronto utilizan una plataforma de
big data para análisis en tiempo real de IBM (IBM InfoSphere Streams), la cual permite monitorear bebés prematuros en las
salas de neonatología para determinar cualquier cambio en la presión arterial, temperatura, alteraciones en los registros
del electrocardiograma y electroencefalograma, etc., y así detectar hasta 24 horas antes aquellas condiciones que puedan
ser una amenaza en la vida de los recién nacidos.
Los laboratorios Pacific Northwest National Labs(PNNL) utilizan de igual manera IBM InfoSphere Streams para analizar
eventos de medidores de su red eléctrica y en tiempo real verificar aquellas excepciones o fallas en los componentes de la
red, logrando comunicar casi de manera inmediata a los consumidores sobre el problema para ayudarlos en administrar su
consumo de energía eléctrica.[3]
La esclerosis múltiple es una enfermedad del sistema nervioso que afecta al cerebro y la médula espinal. La comunidad de
investigación biomédica y la Universidad del Estado de Nueva York (SUNY) están aplicando análisis con big data para
contribuir en la progresión de la investigación, diagnóstico, tratamiento, y quizás hasta la posible cura de la esclerosis
múltiple.[4]
Con la capacidad de generar toda esta información valiosa de diferentes sistemas, las empresas y los gobiernos están
lidiando con el problema de analizar los datos para dos propósitos importantes: ser capaces de detectar y responder a los
acontecimientos actuales de una manera oportuna, y para poder utilizar las predicciones del aprendizaje histórico. Esta
situación requiere del análisis tanto de datos en movimiento (datos actuales) como de datos en reposo (datos históricos),
que son representados a diferentes y enormes volúmenes, variedades y velocidades.
6. Conclusiones
La naturaleza de la información hoy es diferente a la información en el pasado. Debido a la abundacia de sensores,
micrófonos, cámaras, escáneres médicos, imágenes, etc. en nuestras vidas, los datos generados a partir de estos elementos
serán dentro de poco el segmento más grande de toda la información disponible.
El uso de Big Data ha ayudado a los investigadores a descubrir cosas que les podrían haber tomado años en descubrir por
si mismos sin el uso de estas herramientas, debido a la velocidad del análisis, es posible que el analista de datos pueda
cambiar sus ideas basándose en el resultado obtenido y retrabajar el procedimiento una y otra vez hasta encontrar el
verdadero valor al que se está tratando de llegar.
Como se pudo notar en el presente artículo, implementar una solución alrededor de Big Data implica de la integración de
diversos componentes y proyectos que en conjunto forman el ecosistema necesario para analizar grandes cantidades de
datos.
Sin una plataforma de Big Data se necesitaría que desarrollar adicionalmente código que permita administrar cada uno de
esos componentes como por ejemplo: manejo de eventos, conectividad, alta disponibilidad, seguridad, optimización y
desempeño, depuración, monitoreo, administración de las aplicaciones, SQL y scripts personalizados.
IBM cuenta con una plataforma de Big Data basada en dos productos principales: IBM InfoSphere BigInsights™ e IBM
InfoSphere Streams™, además de su reciente adquisición Vivisimo, los cuales están diseñados para resolver este tipo de
problemas. Estas herramientas están construidas para ser ejecutadas en sistemas distribuidos a gran escala diseñados para
tratar con grandes volúmenes de información, analizando tanto datos estructurados como no estructurados.
Dentro de la plataforma de IBM existen más de 100 aplicaciones de ejemplo recolectadas del trabajo que se ha realizado
internamente en la empresa para casos de uso e industrias específicas. Estos aplicativos están implementados dentro de la
solución de manera que las organizaciones puedan dedicar su tiempo a analizar y no a implementar.

5 formas geniales (y sorprendentes) de usar el Big Data


El Big Data está en todas partes. Cada vez más empresas encuentran nuevas e interesantes formas de aprovechar los datos
y la tecnología para ofrecer productos y servicios divertidos o informativos. Aunque el Big Data es útil para resolver muchos
problemas importantes (como informes médicos, inteligencia artificial, servicios de comunicación, etc.), las empresas están
sacando su lado más creativo para usarlo en una gran variedad de cosas. Hoy día los algoritmos pueden procesar el Big
Data para mejorar la vida de los consumidores de formas muy interesantes e innovadoras. Estas son algunas de ellas:

5. Spotify
Spotify es una de las empresas que realmente ha aprovechado el Big Data. Usan muchas técnicas de datos innovadoras
para revolucionar el consumo y disfrute de la música. La empresa, con más de 100 millones de usuarios, funciona
totalmente con datos. Usan inteligencia sobre factores como la duración de las canciones, dónde se escuchan, cuándo y en
qué tipo de dispositivo. Toda esa información proporciona a la industria de la música conocimiento fascinante que puede
causar un impacto en la experiencia del oyente.

Spotify ha sacado recientemente Spotify for Artists, que ofrece a los artistas y a su dirección acceso a los datos para mejorar
su marketing y contenido. Spotify también usa Big Data para su iniciativa “fans first”. Eso les permite ofrecer a sus fans más
dedicados acceso a ofertas especiales en tickets para conciertos, merchandising, singles y más.

4. eHarmony
Las empresas de citas como eHarmony usan Big Data para aumentar las posibilidades de sus usuarios de encontrar el amor.
Algunas de las estadísticas que usan son sorprendentes. Antes, las webs de citas usaban encuestas o tests de personalidad
para determinar las preferencias de cada persona. Entonces, usaban los algoritmos para emparejar a las personas que
tenían un porcentaje elevado de llevarse bien.

Ahora, con la suma del Big Data esas mismas empresas pueden usar factores más detallados para crear parejas con futuro.
Los dispositivos portátiles pueden recopilar datos como patrones de sueño, frecuencia cardíaca y niveles de actividad física.
Todos esos son factores importantes a la hora de escoger la pareja perfecta. Aunque alguien diga que es “muy activo” o
“madrugador”, las apps de citas pueden revisar sus datos reales. Eso permite no solo determinar la idoneidad de una pareja,
sino también ver si son sinceros sobre sus hábitos. Entonces, usan esos datos para generar mejores coincidencias.
3. Snow Leopard Trust + Nature Conservation Foundation
Otra forma muy interesante de usar Big Data es para salvar animales raros rastreando y atrapando a los cazadores furtivos.
Se está usando, más concretamente, en la India, para salvar a los tigres.

Los cazadores furtivos se desplazan en grupos nómadas pequeños y rastrean a su presa, lo cual hace que sean difíciles de
atrapar en la India. Los huesos de tigre son muy valiosos para la medicina tradicional china, por lo que los tigres de la India
valen mucho dinero. La Snow Leopard Trust y la Nature Conservation Foundation trabajaron conjuntamente para luchar
contra el problema. Recopilaron y analizaron datos, desde los más recientes hasta datos de 1972, de 605 distritos de la
India. Mediante el análisis del Big Data pueden predecir dónde y cuándo es más probable que actúen los cazadores furtivos.

Mejor aún, mediante los rastreadores portátiles, los ecologistas pueden recopilar más datos. Eso les permite centrar el
objetivo en un rastreo más concreto en el futuro. Ese es solo un ejemplo de como se puede usar el Big Data para luchar
contra la delincuencia y los cazadores furtivos.

2. Magic Mirror
El Big Data también puede usarse para crear una experiencia totalmente nueva para los compradores. Nuestro Magic Mirror
no solo funciona como espejo normal y corriente, sino que también ofrece a los compradores recomendaciones
personalizadas para piezas que pueden interesarles. Puede analizar su expresión, su estado de ánimo y su estilo personal
para darles esa información.
La protección de datos es otra de las vertientes para analizar. Según la normativa los datos personales no pueden utilizarse
con una finalidad diferente a la inicial. Esto hace referencia al principio de finalidad, que limita los proyectos del Big Data.
Además de eso, el Big Data correlaciona su historial personal de compras con sus preferencias, información
sociodemográfica, etc. El espejo les ofrece el producto perfecto que no podrán resistirse a comprar. Puedes leer más sobre
Magic Mirror aquí.

Alice Magic Mirror Bismart

1. Juegos
El Big Data es genial para los juegos. ¿Te suenan los libros “Elige tu propia aventura”? Pues bien, ahora, con Big Data e
inteligencia artificial podemos interactuar directamente con tramas que anticiparán cómo tomaremos las decisiones. Por
ejemplo, podremos jugar a ajedrez con un ordenador que aprende constantemente de nuestros movimientos. El ordenador
se va volviendo más inteligente con cada movimiento y recuerda partidas anteriores.

Eso es genial para entrenarse en diversos ámbitos, pero desde una perspectiva más divertida, el Big Data se usa para que
los videojuegos se vuelvan cada vez más difíciles. Puedes practicar con tu ordenador a jugar a tu juego de mesa o puzzle
favorito e imagina lo bueno que serás la próxima vez que juegues con tus amigos.

Big Data: qué es y cómo funciona


En nuestro día a día compartimos fotos, vídeos, gustos, aficiones…Enviamos gran cantidad de información constantemente.
Proporcionamos datos que son analizados a conciencia por las empresas para conocer mejor a sus consumidores. Lo hacen
gracias a lo que se conoce como Big Data, un sistema en el que muchas ya han invertido grandes sumas de dinero. Pero,
¿qué es realmente?

Definimos Big Data como el proceso de recolección y análisis de grandes cantidades de información. La complejidad y el
gran volumen de datos impiden que estos puedan ser analizados por los medios tradicionales. Lo que hace diferente al Big
Data respecto a otro tipo de mecanismos utilizados para la gestión y el análisis son las 5Vs: volumen, velocidad, variedad,
veracidad y valor.

¿Para qué sirve el Big Data?

En el mundo de los negocios, el Big Data proporciona información a las empresas. Les permiten fijar de forma más
estratégica sus objetivos, centrando sus acciones en utilizar y sacar partido a las nuevas oportunidades que pueden
aparecer entre estos datos e incluso, abandonar aquellos objetivos o estrategias que les resulten más problemáticas. Uno
de los campos donde es más útil este sistema es el marketing. El análisis de más variedad de datos permite conocer mejor
los gustos o deseos de los clientes y poder ofrecer así productos nuevos que satisfagan sus necesidades.
La industria del turismo, la salud o los mercados financieros lo utilizan en sus sistemas de trabajo. Recopilar valoraciones
de clientes, registrar el número de pacientes de un hospital con sus informes clínicos o evaluar de forma eficaz los posibles
riesgos que pueda tener una inversión, son algunos de los ejemplos de su función.

¿Cómo se organizan los datos?

Existen tres categorías. La primera recoge datos que incluyen informaciones sobre clientes o fechas y se agrupan en tablas
aunque, existen otros tipos de datos como imágenes, vídeos o audios que se clasifican como datos no agrupados porque
no se pueden clasificar con este método. La segunda recoge datos más detallados y que están relacionados con actividades
comerciales como pueden ser las valoraciones, encuestas, registros de ventas, etc. Los últimos están relacionados con las
interacciones sociales como por ejemplo, los datos que aportan las redes sociales.

Desventajas del Big Data.

Analizar gran cantidad de datos también conlleva que los estándares de calidad disminuyan. Es complicado seleccionar
datos bajo unos criterios de calidad y ofrecerlos con la máxima inmediatez posible ya que se necesita tiempo para poder
estructurar los datos obtenidos y desechar aquellos que no valgan.

Estos datos están en constante cambio. Se analizan de forma muy rápida pero la validez de muchos de ellos puede ser muy
corta. La solución a este problema la encontramos en la capacidad de procesamiento, cuanto más alto sea, mayor vida útil
tendrán. La volatilidad de los datos puede desencadenar errores que trasciendan a la hora de tomar decisiones.

¿Te has preguntado alguna vez que es el fenómeno Big Data y qué utilidades tiene a nivel de empresa?
Big Data está es una solución para gestionar de grandes volúmenes de datos. Para que te hagas una idea para el año 2020
el volumen de datos gestionado mundialmente alcanzará los 40 zetta bytes, es decir, 5.247 GB por cada habitante del
planeta.

El análisis de datos es una herramienta estratégica para apoyar la toma de decisiones empresariales, a partir del análisis de
datos históricos podemos predecir futuros comportamientos o tendencias que pueden ayudarnos a prevenir situaciones
negativas para el negocio. Casi el 80% de las empresas utiliza Big Data con esta finalidad.

Pues bien, en el siguiente post explicaremos las ventajas del uso de Big Data en una empresa y mostraremos algunos
ejemplos prácticos de su aplicación así como el valor añadido que proporciona.

¿Qué utilidad tiene big data en una empresa?


Las nuevas tecnologías han hecho que se generen cantidades infinitas de datos diariamente y que estos datos sean
compartidos cada día entre usuarios.

Los programas tradicionales de almacenamiento de datos se han quedado obsoletos debido al incremento de datos e
información y el 80% de estos datos se encuentran desordenados de manera que no son fácilmente gestionables ni
aprovechables para que sean útiles y la empresa no puede sacar demasiado provecho.

Con la implementación de soluciones tecnológicas Big Data este volumen de datos pueden ser gestionados con mayor
facilidad, retenidos, clasificados, analizados de una manera mucho más precisa, interpretados y convertidos en
herramientas de provecho para la empresa. Estos datos correctamente gestionados se convierten en herramientas útiles
que ayudan a la toma de decisiones estratégicas en las empresas para aumentar sus beneficios.

Aplicando estas nuevas herramientas tecnológicas se consigue agilizar los sistemas de información, lo que permitirá a la
empresa ser más ágil en la toma de decisiones y prever la demanda de manera más ajustada, de manera que tendrá más
capacidad de reacción y podrá hacer frente más rápidamente a esta.

Ejemplos del uso del big data en una empresa


A continuación, explicamos algunos casos donde las empresas están implementando Big Data y algunos ejemplos prácticos
en las diferentes áreas unidades de negocio y se están consiguiendo los mayores resultados.

1. Conocimiento de clientes. El área de ventas es generalmente más importante para cualquier compañía y quizás la de
mayor aplicación de Big Data actualmente. Los datos se utilizan para conseguir un conocimiento total del cliente, estudiar
su comportamiento y sus preferencias. El objetivo es entender el comportamiento del cliente y predecir sus futuras
acciones, para obtener estos datos necesitaremos fuentes internas y externas de información que nos ayudarán a entender
mejor al cliente y poder ofrecerle soluciones que beneficien a ambos.

Un ejemplo de aplicación en el uso de Big Data es el que ha implementado una cadena de supermercados para tener un
mayor conocimiento de los clientes. Realiza un análisis de los datos de la compra de sus clientes y les ofrece descuentos
que caducan en días concretos. Con esta acción pretenden incrementar la periodicidad de las visitas a sus centros y el
volumen de la cesta de la compra.

Una entidad financiera analiza a través de Big Data las operaciones que realizan sus clientes VIP con su tarjeta para conocer
su estilo de vida y poder ofrecerles productos relacionados que se adecuen a sus necesidades como descuentos en el
establecimiento que más frecuenten o más gasto hagan.

2. Recursos Humanos. En el área de Recursos Humanos cada vez más, son las empresas que tienen una estrategia para la
gestión del talento basada en métricas. A través de un enfoque analítico la gestión de recursos humanos puede realizarse
de manera más objetiva, rigurosa y permite tomas decisiones más acertadas en base a los resultados de estas métricas y
análisis, y una mayor alineación con los objetivos del negocio.

Una empresa de cosméticos conjuntamente con una consultora especializada desarrolló un mapa con 100 indicadores.
Esto les permitió detectar lo que más valoran los empleados e identificar en los que la empresa debía invertir para
incrementar la satisfacción de sus empleados.

También tomó medidas respecto la gestión del reclutamiento la empresa de cosméticos y una entidad bancaria, lo que les
permitió saber qué perfiles se requieren en las distintas áreas de negocio y segmentar con mayor facilidad qué perfiles se
adaptaban mejora a una posición concreta para cumplir con los objetivos de la empresa.

Estas medidas permiten facilitar el proceso de toma de decisiones y planes de acción, lo que permite a la gestión de
Recursos Humanos estar alineada con la estrategia del negocio.

Otras áreas en las que la implementación de Big Data y análisis de datos puede aportar grandes beneficios a la empresa es
en el área de operaciones con los casos siguientes:

Elección de proveedores
Cuellos de botella de procesos existentes
Valor del inventario
Mejora de la puntualidad en las entregas

10 ejemplos de usos reales de Big Data Analytics


El término Big Data continua siendo el vocablo de moda en entornos empresariales y mediáticos. Muchos aún desconfían
y opinan que es todo humo y hay poco concreto. Esta afirmación no puede estar más alejada de la realidad. En este artículo
quiero mostrar algunos ejemplos reales de cómo el big data se está utilizando hoy para crear valor.

En cualquier momento los aspectos más cotidianos de nuestras vidas se ven afectados por el big data. Cuando ponemos
modo aleatorio el reproductor streaming de Spotify o Netflix, cuando usamos Google Maps o pedimos un Uber, cuando
Amazon nos presenta las recomendaciones de compra en base a nuestros gustos, cuando Twitter nos muestra los trending
topics, … Aunque no veamos la cantidad y velocidad de datos, en esa pantalla tan simple con un interfaz tan amigable,
detrás se están utilizando tecnologías de machine learning, en sistemas in-memory, actuando en data lakes.

10 ejemplos de aplicación de Big Data


Sin embargo, hay unas áreas donde el big data está marcando la diferencia. Hemos resumido a continuación las aplicaciones
de big data en 10 áreas donde actualmente se están concentrando las instalaciones y obteniendo los mejores resultados.

1. Entendiendo y segmentando a los clientes


Marketing y ventas son quizá las áreas de mayor aplicación de big data en la actualidad. Los datos se utilizan para
comprender mejor a los clientes, sus comportamientos y preferencias. Las empresas están dispuestas a ampliar los centros
de datos tradicionales con los de redes sociales, logs de navegación, análisis de textos y datos de sensores para obtener
una imagen completa de su cliente. El objetivo principal es en la mayoría de casos crear modelos predictivos. Como vimos
en un artículo anterior, tuvo bastante repercusión la noticia de que la cadena de distribución Target fue capaz de detectar
cuándo sus clientes esperaban un bebé. Las empresas de telecomunicaciones pueden gracias al big data predecir mejor el
churn de clientes. Los hipermercados pueden predecir mejor qué productos se venderán mejor, y las aseguradoras de
coches pueden comprender mejor cómo conducen sus clientes. Incluso las campañas electorales pueden optimizarse
gracias a big data analytics. Hay quienes sostienen que las recientes elecciones presidenciales en varios países han sido
ganadas por los equipos con mayor capacidad de entender y aplicar el análisis de datos para buscar las preferencias de
votantes y llegar a ellos por sus canales preferidos.

2. Entendiendo y optimizando los procesos de negocio


El big data se está utilizando cada vez más para optimizar los procesos de negocio en las empresas. En el sector de retail
los negocios están optimizando su stock basándose en predicciones generadas gracias a datos de redes sociales, tendencias
de búsquedas en la web y predicciones meteorológicas. Un proceso que se está transformando particularmente gracias al
big data es el de la cadena de suministro y la optimización de rutas de reparto. Gracias al posicionamiento geográfico y
sensores de identificación por radiofrecuencia se puede realizar un seguimiento de las mercancías y vehículos de reparto,
optimizando las rutas, integrando datos de tráfico en tiempo real. Los procesos de recursos humanos también están siendo
mejorados gracias al análisis del big data. Desde la detección y adquisición de talento, como en la película Moneyball, hasta
la medición de la cultura empresarial y la involucración de la plantilla gracias a herramientas de big data.

3. Cuantificación y optimización de rendimiento personal


El big data no sólo es para empresas y para instituciones públicas o grandes organizaciones. Todos podemos beneficiarnos
de los datos generados de dispositivos wearables como smart watches o pulseras. Estos dispositivos registran
automáticamente datos de consumos de calorías (Fitbit), niveles de actividad y condición física (Google Fit, Apple Watch),
o patrones de sueño. Aunque a nivel particular ya nos desvelan información interesante, el verdadero valor reside en
analizar el conjunto de datos de todo el colectivo. Una de estas empresas, Jawbone, recoge en torno a 60 años de datos de
sueño cada noche. Analizando estos volúmenes de datos desvelarán insights que beneficiarán a todos los usuarios.

Otro ejemplo donde la gente se beneficia del análisis del big data es para buscar a cupido. A la hora de encontrar a la mejor
pareja compatible hacerlo sin la ayuda de algoritmos y técnicas de big data sería prácticamente imposible.

4. Mejorando la Salud Pública


Otra área de uso de datos masivos colectivos es el de la codificación de material genético. Cuantos más usuarios participan
más beneficios se obtienen, bien para saber más sobre nuestros ancestros, qué dieta o alimentos son más adecuados para
nuestro genotipo, o para descubrir cómo o porqué se activan determinados genes que pueden derivar en enfermedades
crónicas. La capacidad de procesamiento de plataformas de análisis de big data nos permite ya descodificar cadenas enteras
de ADN en cuestión de minutos y permitirá encontrar nuevos tratamientos y comprender mejor las enfermedades, sus
desencadenantes y los patrones de propagación. Piense qué sucederá cuando todos los dispositivos y sensores que
llevamos encima (y cada vez llevaremos más) con marcadores de nuestro cuerpo se apliquen a millones de otras personas.
Los ensayos clínicos del futuro no tendrán que estar limitados a muestras pequeñas sino que todo el mundo podrá formar
parte.

Las técnicas de big data ya están empleando por ejemplo para monitorizar bebés en la unidad de neonatos de un hospital
en Toronto. Grabando y analizando latidos y el patrón de respiración de cada bebé, la unidad ha desarrollado unos
algoritmos que pueden predecir infecciones 24 horas antes de que los primeros síntomas aparezcan. De esta manera, el
equipo médico puede intervenir y salvar vidas en un entorno en el que cada hora cuenta.

El análisis de datos masivos también se utiliza a la hora de controlar y predecir la evolución de las epidemias y brotes de
enfermedades. Integrando datos de historiales clínicos con análisis de datos de redes sociales pueden detectar brotes de
gripe en tiempo real simplemente escuchando lo que la gente publica en sus perfiles públicos.

Otras aplicaciones científicas prácticas llevan más tiempo: reconocimiento del habla, procesamiento imágenes en el
cerebro para ciegos,… pero es con el big data cuando los resultados están consiguiendo avances significativos.

5. Mejorando el rendimiento deportivo


La mayor parte de deportistas de élite están ya adoptando técnicas de análisis de grandes volúmenes de datos. En tenis se
lleva mucho tiempo utilizando la herramienta SlamTracker (basada en la tecnología de IBM SPSS de análisis predictivo) en
los torneos más prestigiosos del mundo (Wimbledon, Roland Garros, Open de Australia). La plataforma lleva registrados
más de 8 años de datos de Grand Slams (unos 41 millones de data points) para determinar patrones y estilos de jugadores
ganadores.
Aplicando análisis a las grabaciones de vídeo de cada jugador de fútbol y tecnología de sensores en equipamiento deportivo
como balones o palos de golf, podemos obtener retroalimentación de los datos generados y mostrar los resultados para
mejorar el rendimiento o para mostrar una visión enriquecida de la retransmisión a los espectadores. Muchos equipos de
élite realizan ya seguimiento de sus atletas fuera del entorno de competición, usando dispositivos inteligentes para
monitorizar desde la nutrición, la preparación física y el sueño, hasta las conversaciones en redes sociales en las que
participan para controlar el bienestar emocional.

6. Mejorando la Ciencia y la Investigación


La investigación científica se está viendo transformada por las nuevas posibilidades que ofrece el big data.

El CERN (laboratorio suizo de física nuclear con su gran colisionador de hadrones), uno de los mayores generadores de
datos, intenta descubrir los secretos del universo gracias a los datos del acelerador de partículas. Aunque el centro de datos
del CERN cuenta con 65.000 procesadores para analizar los 30 petabytes de datos, no es suficiente. Por ello distribuyen la
capacidad de computación entre miles de ordenadores repartidos entre otros 150 centros de datos por todo el mundo
para analizar los datos. Esta capacidad de computación distribuida que de otra manera sería imposible de procesar también
se emplea en muchas otras áreas de la ciencia.

7. Optimizando el rendimiento de máquinas y dispositivos


El análisis de big data está ayudando a máquinas y dispositivos a ser más inteligentes y autónomos. Un ejemplo que ya es
una realidad, el coche autopilotado de Google.
Los coches que usan para el proyecto están equipados con cámaras, GPS, conexión a internet, y un abanico de
computadoras y sensores que permiten al vehículo circular de forma segura por la vía pública sin necesidad de intervención
humana.

También se usan herramientas de análisis de big data para optimizar las redes de energía a partir de datos de los medidores
inteligentes. podemos también aprovechar estas tecnologías para optimizar el rendimiento de servidores y
datawarehouses.

8. Mejorando la seguridad y el cumplimiento de la ley


El análisis de big data se está empleando de forma intensiva en la mejora de la seguridad y en los cuerpos de aplicación de
la ley. La noticia que se filtró via Wikileaks de que la NSA ha estado espiando en todas las comunicaciones de todos los
ciudadanos. El objetivo es la protección de ataques terroristas.

Otros usos de tecnología big data lo encontramos a la hora de detectar y prevenir ciberataques. El sistema de IA creado en
el MIT predice el 85% de los ciberataques. Otros ejemplos: Las fuerzas policiales están empezando a utilizar herramientas
de big data para dar con criminales e incluso prevenir actividades criminales.Otro ejemplo que lleva años empleándose es
en la detección de transacciones fraudulentas con tarjetas de crédito.
9. Mejorando y optimizando las ciudades
El big data se está usando también para mejorar aspectos de nuestras ciudades y países. La tecnología permite optimizar
los flujos de tráfico basándose en datos que llegan en tiempo real del tráfico, de las redes sociales y del tiempo
metereológico. Un número creciente de ciudades están embarcadas en proyectos de Smart Cities, donde la infraestructura
de transportes y los procesos de suministros trabajan colaborativamente. Algunos ejemplos: un autobús espera a salir
automáticamente por el retraso de un avión, las señales de tráfico y semáforos actúan automáticamente para minimizar
embotellamientos.
10. Trading financiero
El último área de ejemplos de uso de Big Data que vamos a revisar, aunque no de menor volumen ni importancia es el de
la aplicación del big data en los mercados de capitales. Las actividades relacionadas con High-Frequency Trading (HFT) es
donde se da el mayor uso del big data. Una serie de algoritmos para realizar decisiones de compra venta de valores por
millones en fracciones de segundo, teniendo en cuenta además de las señales tradicionales que tienen en cuenta los traders
humanos como análisis técnicos, comportamientos de materias primas, resultados de empresas, sectores, índices, … se le
añaden noticias en tiempo real, mensajes de redes sociales, foros, declaraciones públicas de personalidades, etc. Es decir
un nuevo tipo de datos (estructurados y no estructurados) que anteriormente al big data eran imposible de manejar.

Este ha sido un resumen de 10 áreas donde el big data se está utilizando más en la actualidad. Obviamente hay muchas
más áreas y aplicaciones, ¿se le ocurre alguna situación donde se le esté sacando provecho? ¿Está de acuerdo con esta
revolución de los datos? Por favor comparta su punto de vista y deje su comentario abajo.

También podría gustarte