Está en la página 1de 2

Conclusiones Lago de datos

La aplicación del Lago de datos es conveniente ya que se concentrarían todos los


proyectos (censos, encuestas, proyectos especiales, etc) en él, debido a que se
almacena grandes cantidades de información sin procesar en formato nativo y ya
procesada, utiliza una arquitectura plana para almacenar los datos actualizados y con
niveles se seguridad muy altos para su uso en el momento en el que se necesitan, es
decir cuando se plantea una pregunta o posiblemente la presentación de resultados, el
usuario puede rescatar los datos relevantes del lago de datos para analizarlos y
aportar las respuestas o la información.

Sería muy conveniente tener en cuenta que el desarrollo de un Lago de datos requiere
de mucho tiempo, tecnología, análisis, personal calificado y mucha interacción con los
usuarios.

Conclusiones Webinars
Analítica de datos:
Las aplicaciones analíticas pueden organizarse ya sea en modelos de segmentación,
pronóstico y de negocio mediante el Big Data para almacenar, gestionar, transformar y
analizar los tipos de datos mediante la utilización de técnicas de visualización de datos
(Tableau, PowerBI, SAS, etc), que se utilizan para crear gráficos y otras
visualizaciones diseñadas para hacer que las consultas sean más fáciles de
comprender, o bien por otro lado el científico de datos pueda desarrollar el modelo
analítico y utilizar lenguajes de programación como Python, Scala, R y SQL para su
análisis.

BIG DATA:
Al utilizar el Big Data tenemos un gran volumen de información organizado y con los
niveles de seguridad necesarios almacenada en un solo lugar, por el cual se tendrían
las 5 Vs implementadas (volumen, velocidad, variedad, veracidad y valor) que
ayudarían a los científicos de datos a realizar las consultas requeridas para su análisis.

Roles de ciencia de datos:


Al definir correctamente cada función y actividad que realizará el personal se puede
llegar a realizar el diseño, construcción, integración de datos de varias fuentes y
administración de los datos, la gestión de proyectos, etc., que ayudará a los científicos
de datos a utilizar técnicas matemáticas y enfoques algorítmicos para derivar
soluciones a complejos problemas empresariales y científicos mediante las
herramientas que le faciliten la labor (R, JAVA, Python, SQL, Tableau, SPSS, etc.)

Visualización o virtualización
La virtualización de datos nos proporciona información actualizada, centralización de la
seguridad y gobernanza, reducción de la necesidad de programar de forma manual, por
lo que permite a los usuarios acceder (sin importar la fuente) a la información más
actualizada: informes, paneles de visualización, portales, aplicaciones móviles y web,
etc., con un acceso más rápido, simple y unificado obteniendo así un BI más ágil,
análisis de big data, integración de datos web y en la nube, vistas unificadas de
información y servicios analíticos empresariales.

Azure Databricks

Herramienta de ingeniería de datos basada en la nube líder en la industria que se


utiliza para procesar y transformar cantidades masivas de datos y explorar los datos a
través de modelos de aprendizaje automático, para que los científicos de datos,
ingenieros de datos y analistas comerciales realicen análisis de forma rápida e
interactiva, creen modelos e implementen flujos de trabajo por ser una plataforma de
análisis de datos (sin procesar o estructurados) optimizada para una canalización de big
data, utilizando Python, Scala, R, Spark SQL y .Net o bien Azure Data Factory, Azure
Data Lake Storage, Azure Machine Learning y Power BI, aportando confiabilidad y
escalabilidad al lago de datos actual con una capa de almacenamiento transaccional de
código abierto.

Orden de las herramientas de Azure para el análisis de los datos:


- Automatización del movimiento de los datos con Azure Data Factory
- Carga de datos en Azure Data Lake Storage
- Transformación y limpieza con Azure Databricks
- Análisis con Azure Synapse Analytics.

También podría gustarte