Está en la página 1de 3

Asignatura:

Electiva 1

Facilitador:
Amaurys Vargas

Estudiante:
Ricardo Alexis 2019-8170

Fecha de entrega:
8 Febrero 2022
Como funciona el Big Data

¿Qué es Big Data?

Big Data es la gestión y el análisis masivo de datos a un coste accesible: un conjunto de


datos estructurados, semiestructurados y no estructurados, de gran volumen, complejos y de
diferente índole que requieren una serie de aplicaciones informáticas concretas y
específicas para su procesamiento y uso. También recibe otros nombres, como datos
masivos o a gran escala, macrodatos o inteligencia de datos.
El Big Data engloba:
• Un conjunto masivo de datos.
• Las herramientas donde se almacenan esos datos.
• Los softwares con los que se procesan esos datos.
• Cómo se aplican esos datos: qué se hace con esa información una vez procesada.

El análisis de un gran volumen de datos mediante técnicas de Ciencia de Datos o Data Science
permite hacer predicciones de comportamiento certeras. Las empresas emplean los
resultados, mayoritariamente, para adelantarse a posibles problemas y para detectar qué
necesitan sus clientes actuales y sus clientes potenciales.

Al final, la inclusión del Big Data combinado con la Ciencia de Datos deriva en negocios
más eficientes, porque podemos adelantarnos y dar las respuestas antes incluso de que
lleguen preguntas.

En este contexto, una de las características del Big Data es que es un habilitador tecnológico
para la Ciencia de Datos. Es decir, que permite que los modelos de Ciencia de Datos se
construyan sobre un volumen virtualmente infinito de datos. Al mismo tiempo, permite
procesar y entrenar los modelos de modo mucho más rápido.
Cuáles son las mejores prácticas del Big Data

Céntrese en las necesidades empresariales, no en la tecnología.


La tecnología, especialmente en el área del análisis de macrodatos, avanza rápidamente.
Los equipos de análisis y gestión de datos ahora pueden manejar volúmenes de datos y
complejidades analíticas que solo las corporaciones y agencias gubernamentales más
avanzadas eran hace unos años. Podemos dejarnos llevar por la tecnología en sí, siempre
que cuando haya una nueva característica, su uso tenga algún beneficio.

Recopilar una gran cantidad de datos es algo bueno, no un problema.


Muchos científicos y analistas de datos se quejan de sentirse abrumados por los datos y ven
el big data como parte de ese problema. Por supuesto, no debe inundar ni siquiera a los
analistas experimentados con más datos de los que pueden absorber y comprender
cómodamente.
Aun así, no todos los datos tienen que ser analizados por humanos. Los algoritmos de
aprendizaje automático y las herramientas de inteligencia artificial pueden aprovechar
grandes cantidades de datos que los equipos de ciencia de datos no podrían manejar por sí
mismos.
Utilice la visualización de datos para permitir el descubrimiento y el análisis de datos.
Cuando trabajamos con información de escala, nuestra capacidad visual es incomparable
para comprender cualquier cosa. Incluso las personas que no tienen las habilidades de
codificación para escribir un algoritmo de agrupación en clústeres o describir cómo
funciona pueden elegir fácilmente una serie de puntos de datos en un gráfico generado por
ese algoritmo. Y aquellos que no puedan encontrar valores atípicos mediante programación
en una variedad de macrodatos encontrarán fácil detectar algunos valores que simplemente
no encajan en el patrón visual que ven. Con visualizaciones de datos adecuadas, todos
somos analistas de datos naturales.

También podría gustarte