Está en la página 1de 2

Para que sirve big data

Los macrodatos,1 también llamados datos masivos, inteligencia de datos, datos a gran escala o big
data (terminología en idioma inglés utilizada comúnmente) es un término que hace referencia a
conjuntos de datos tan grandes y complejos que precisan de aplicaciones informáticas no
tradicionales de procesamiento de datos para tratarlos adecuadamente. Los datos son la
reproducción simbólica de un atributo o variable cuantitativa o cualitativa; según la RAE
«Información sobre algo concreto que permite su conocimiento exacto o sirve para deducir las
consecuencias derivadas de un hecho».2 Por ende, los procedimientos usados para encontrar
patrones repetitivos dentro de esos datos son más sofisticados y requieren un software
especializado. En textos científicos en español, con frecuencia se usa directamente el término en
inglés big data, tal como aparece en el ensayo de Viktor Schönberger La revolución de los datos
masivos.34

El uso moderno del término "big data" tiende a referirse al análisis del comportamiento del
usuario, extrayendo valor de los datos almacenados, y formulando predicciones a través de los
patrones observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las
tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades
relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más
habituales vinculadas a la gestión de estos grandes volúmenes de datos se centran en la
recolección y el almacenamiento de los mismos,5 en las búsquedas, las comparticiones, y los
análisis,6 y en las visualizaciones y representaciones. La tendencia a manipular enormes
volúmenes de datos se debe en muchos casos a la necesidad de incluir dicha información para la
creación de informes estadísticos y modelos predictivos utilizados en diversas materias, como los
análisis sobre negocios, sobre publicidad, sobre enfermedades infecciosas, sobre el espionaje y el
seguimiento a la población, o sobre la lucha contra el crimen organizado.7

El límite superior de procesamiento ha ido creciendo a lo largo de los años.8 Se estima que el
mundo almacenó unos 5 zettabytes en 2014. Si se pone esta información en libros, convirtiendo
las imágenes y todo eso a su equivalente en letras, se podría hacer 4500 pilas de libros que lleguen
hasta el sol.9 Los científicos con cierta regularidad encuentran límites en el análisis debido a la
gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica,10 la
conectómica (una aproximación al estudio del cerebro; en inglés:Connectomics; en francés:
Conectomique), las complejas simulaciones de procesos físicos11 y las investigaciones
relacionadas con los procesos biológicos y ambientales.12 Las limitaciones también afectan a los
motores de búsqueda en internet, a los sistemas de finanzas y a la informática de negocios. Los
data sets crecen en volumen debido en parte a la recolección masiva de información procedente
de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANET), el constante
crecimiento de los históricos de aplicaciones (por ejemplo de los registros), las cámaras (sistemas
de teledetección), los micrófonos, los lectores de identificación por radiofrecuencia.1314 La
capacidad tecnológica per cápita a nivel mundial para almacenar datos se dobla aproximadamente
cada cuarenta meses desde los años 1980.15 Se estima que en 2012 cada día fueron creados cerca
de 2.5 trillones de bytes de datos.16
Los sistemas de gestión de bases de datos relacionales y los paquetes de software utilizados para
visualizar datos, a menudo tienen dificultades para manejar big data. Este trabajo puede requerir
"un software masivamente paralelo que se ejecute en decenas, cientos o incluso miles de
servidores".17 Lo que califica como "big data" varía según las capacidades de los usuarios y sus
herramientas, y las capacidades de expansión hacen que big data sea un objetivo en movimiento.
"Para algunas organizaciones, enfrentar cientos de gigabytes de datos por primera vez puede
provocar la necesidad de reconsiderar las opciones de administración de datos. Para otros, puede
tomar decenas o cientos de terabytes antes de que el tamaño de los datos se convierta en una
consideración importante".18

También podría gustarte