Está en la página 1de 18

Creación de una

arquitectura
analítica moderna
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

En la actualidad, los datos


son indispensables

En el mundo actual, los datos y el análisis son indispensables para las


organizaciones. Quienes generen valor de negocio a partir de sus datos
con éxito superarán a sus pares. Un estudio de Aberdeen determinó que las
organizaciones que implementaron una plataforma de análisis de lago de datos
moderna superaron a empresas similares al obtener un crecimiento orgánico
de los ingresos un 9 % mayor. Estos líderes lograron realizar nuevos tipos de
análisis; por ejemplo, aplicaron el aprendizaje automático sobre diferentes
fuentes de datos, como archivos de registro, datos de secuencias de clics, redes
sociales y dispositivos conectados a Internet almacenados en el lago de datos.

El análisis de lagos de datos moderno ayuda a las organizaciones a:

• Identificar oportunidades y actuar en consecuencia más rápidamente


• Desarrollar el negocio con mayor rapidez
• Atraer y retener a más clientes
• Estimular la productividad
• Mantener dispositivos de forma proactiva
• Tomar decisiones mejor informadas

analytics
2
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

¿Cuáles son los obstáculos para obtener los datos que necesita?
Constantemente, las organizaciones nos dicen que están buscando extraer más
valor de sus datos, pero tienen dificultades para capturar, almacenar y analizar
todos los datos generados por los negocios modernos y digitales de la actualidad.
Los datos crecen exponencialmente, provienen de nuevas fuentes y son cada vez
más diversos. Además, una gran cantidad de aplicaciones y personas necesitan
acceder a ellos y analizarlos de forma segura en tiempos cada vez más cortos.
El tamaño, la complejidad y la diversidad de fuentes de datos significan que la misma
tecnología y los mismos enfoques que funcionaban en el pasado ya no lo hacen.

A medida que se acumulan datos, los clientes los almacenan en diferentes silos,
lo cual dificulta la realización del análisis. Para que sea más fácil, los clientes
desean tener todos los datos en un único repositorio, es decir, un lago de datos.
Las organizaciones deben almacenar los datos de forma segura en cualquier
escala y a un bajo costo con los formatos de datos basados en estándares de su
elección. Desean tener la flexibilidad para analizar los datos en una diversidad de
formas mediante un conjunto amplio de motores de análisis. Así, se aseguran de
que sus necesidades estén cubiertas para sus casos de uso de análisis actuales
y futuros. Además, necesitan ir más allá de la información, de la generación de
informes operativos sobre datos históricos a la realización de análisis y aprendizaje
automático en tiempo real, para poder predecir resultados futuros de forma precisa.

analytics
3
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

El desafío de las infraestructuras


de datos existentes

Casi todas las organizaciones han construido almacenes de datos para fines
de generación de informes y análisis. Usan datos de una diversidad de fuentes,
incluidos sus propios sistemas de procesamiento de transacciones y otras bases de
datos. Muchas organizaciones también han construido marcos de trabajo Hadoop
para analizar lo que normalmente se denomina “big data”, es decir, datos que no
encajan bien en almacenes de datos altamente estructurados. Construir y manejar
un almacén de datos y un marco de trabajo de big data han sido tareas complicadas
y costosas.

Desafíos de los almacenes de datos tradicionales


Los sistemas de almacenamiento de datos tradicionales crean varios problemas
y exigencias:

• Cuestan millones de dólares en gastos iniciales de software y hardware


• Llevan meses de planificación y obtención
• Son difíciles de instalar
• Precisan tiempo para los procesos de implementación
• Exigen que se definan los modelos de datos y los datos de entrada
• Requieren que se contrate un equipo de administradores de almacenes de datos
• Precisan que maneje rápidamente las consultas y se proteja de la pérdida de datos
• Solo se necesitan datos altamente normalizados para el análisis esencial de la
misión
• Muchos datos (datos oscuros) en muchos almacenes de datos en silo
• Los datos oscuros nunca llegan a los almacenes de datos para su análisis
• Dificultad de escalamiento

analytics
4
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Cuando los volúmenes de datos crecen o se desea que el análisis y los


informes estén disponibles para más usuarios, se debe elegir entre aceptar un
rendimiento lento de las consultas o invertir tiempo y esfuerzo en un proceso
de mejora costoso. De hecho, algunos equipos de TI desalientan el aumento de
datos o el agregado de consultas para proteger los acuerdos de nivel de servicio
(SLA) existentes. Para mitigar esto, las organizaciones a menudo instalan varios
almacenes de datos tipo “data mart”. Estos contienen copias de un subconjunto
de los datos del almacén. Por lo tanto, las consultas especializadas y largas
no afectan el rendimiento ni los SLA de las operaciones comerciales y la toma
de decisiones esenciales para la misión. Esto complica la infraestructura de
datos y análisis, y limita aún más a las organizaciones a trabajar solo con los
proveedores elegidos para sus almacenes y data marts.

Se necesita un motor de análisis para nuevas variedades


de datos
Además, los almacenes tradicionales no son eficientes para manejar la diversidad
de datos semiestructurados y no estructurados que provienen de secuencias de
clics, registros, redes sociales, sensores de IoT y otras fuentes de datos modernas.
Estos tipos de datos no encajan bien en el modelo de datos estructurado y
normalizado. Se necesita un motor de análisis diferente, uno que pueda procesar
estos nuevos tipos de datos como un marco de trabajo Hadoop para big data.
Esto complica ampliamente la estrategia de datos, dónde se los almacena, quién
puede accederlos y qué motor de análisis funciona mejor con qué datos.

Demoras en la carga de datos en lote


La carga de datos en lote supone un desafío. Los trabajos de extracción,
transformación y carga (ETL) generalmente se ejecutan durante la noche,
cuando la carga de análisis sobre el almacén de datos es mínima. Los trabajos
de ETL nocturnos no funcionan bien para las organizaciones globales que
necesitan un acceso ininterrumpido a los datos. Los trabajos de ETL nocturnos
también retrasan el tiempo en que se obtiene la información para los usuarios
que necesitan respuestas inmediatas. En el mundo acelerado de hoy, esperar a
mañana puede ser demasiado tarde.

analytics
5
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Soporte limitado para el análisis moderno


Los almacenes de datos tradicionales no son compatibles con las cargas
de trabajo predictivas o de aprendizaje automático sofisticadas o solo son
compatibles con ellas de forma limitada. Por lo tanto, no permiten casos de
uso moderno, como análisis predictivo o en tiempo real, y aplicaciones que
necesitan un aprendizaje automático avanzado.

Proteger los datos requiere de soluciones alternativas


La seguridad y la privacidad de los datos también son un problema. Las industrias
como la atención médica y los servicios financieros que usan información
altamente confidencial requieren almacenes de datos que cumplan con las
normas ISO, las normas de la HIPAA, las normas de FedRAMP y otras. Las Reglas
Generales de Protección de Datos (RGPD) agregan aún más peso a la carga
que tiene TI para asegurar que los datos confidenciales de clientes se cifren en
todos los estados, tanto en descanso como en movimiento. Algunas de estas
reglamentaciones también exigen que las organizaciones reaccionen rápidamente
para recuperar y actualizar o eliminar un registro con poco aviso. Los almacenes
de datos tradicionales a menudo requieren que las organizaciones implementen
soluciones alternativas costosas, lo que suele dejar la información confidencial
fuera del alcance del analista.

La complejidad de los sistemas de big data


Las plataformas de big data han experimentado problemas similares, que se
agravan por el volumen y la diversidad de los datos, los algoritmos complejos
necesarios para realizar análisis y una falta de trabajadores calificados. Además,
analizar datos de almacenes de datos y sistemas de big data es complejo
y demanda mucho tiempo.

analytics
6
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Almacenamiento de datos óptimo

A medida que se acumulan los datos, las organizaciones los almacenan en


diferentes silos, lo cual dificulta la realización del análisis. Para que sea más
fácil, las organizaciones desean tener todos los datos en un único repositorio,
es decir, un lago de datos. Deben almacenar los datos de forma segura en
cualquier escala y a un bajo costo mediante los formatos de datos basados en
estándares de su elección. Y desean tener flexibilidad para analizar los datos en
una diversidad de formas mediante un conjunto amplio de motores de análisis.
Así, se aseguran de que sus necesidades estén cubiertas para sus casos de uso
de análisis actuales y futuros.

¿Qué es un lago de datos?


Un lago de datos es un repositorio centralizado que le permite almacenar
todos sus datos estructurados y no estructurados en cualquier escala.
Puede almacenar sus datos tal como se encuentran, sin tener que primero
estructurarlos, y ejecutar diferentes tipos de análisis, desde paneles y
visualizaciones hasta procesamiento de big data, análisis en tiempo real y
aprendizaje automático, para ayudarlo a tomar mejores decisiones. Los datos
necesarios para la toma de decisiones ahora pueden procesarse, limpiarse
y cargarse desde el lago de datos en el almacén de datos.

La necesidad de tener un almacén de datos y un lago de datos


Según los requisitos, una organización típica necesitará tanto un almacén de
datos como un lago de datos, dado que atienden diferentes necesidades y
casos de uso. A medida que las organizaciones con almacenes de datos ven
los beneficios de los lagos de datos, modifican sus almacenes para incluirlos y
permitir diferentes capacidades de consulta, casos de uso de ciencia de datos y
capacidades avanzadas para descubrir nuevos modelos de información. Gartner
llamó a esta evolución “Solución de Gestión de Datos para Análisis” o “DMSA”.

analytics
7
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Características Almacén de datos Lago de datos

No relacionales y
Relacionales provenientes
relacionales de dispositivos
de sistemas de transacción,
de IoT, sitios web,
Datos bases de datos operativas
aplicaciones móviles, redes
y aplicaciones de líneas
sociales y aplicaciones
comerciales
corporativas

Diseñado antes de la
implementación del Escrito en el momento del
Esquema
almacén de datos análisis (schema-on-read)
(schema-on-write)

Resultados de consultas más Resultados de consultas más


Precio/rendimiento rápidos con almacenamiento rápidos con almacenamiento
más costoso menos costoso

Datos altamente curados Cualquier dato que puede


Calidad de datos que sirven como versión o no ser curado (es decir,
central de la verdad datos crudos)

Científicos de datos,
desarrolladores de datos
Usuarios Analistas comerciales
y analistas comerciales
(mediante datos curados)

Aprendizaje automático,
Informes en lotes,
análisis predictivo, detección
Análisis inteligencia empresarial y
de datos y creación de
visualizaciones
perfiles

analytics
8
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Crear una canalización


de análisis

Antes de analizar los datos, se los debe recopilar, procesar y almacenar. Puede
imaginarlo como una canalización de análisis que extrae los datos de sistemas fuente,
los procesa y luego los carga en almacenes para su análisis. Las canalizaciones de
análisis están diseñadas para manejar grandes volúmenes de datos entrantes de
fuentes heterogéneas, como bases de datos, aplicaciones y dispositivos.

1. Recopilar datos
2. Procesar datos
3. Almacenar datos
4. Analizar y visualizar datos
5. Predecir resultados futuros

Para ver un ejemplo, consulte la figura 1 a continuación.

Figura 1: Canalización de análisis

analytics
9
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Recopilar datos
Considere los diferentes tipos de datos (transaccionales, de registros, de
streaming y de IoT). Cada tipo puede almacenarse en almacenes más aptos
para los datos y su uso. Algunos almacenes de datos están optimizados para
datos transaccionales o relacionales. Otros, para datos no relacionales o no
estructurados. Como estrategia, debe usar la base de datos construida para un
propósito específico que mejor se adapte a los datos y a las aplicaciones que
producen o consumen los datos.

• Datos transaccionales: los datos como transacciones de compras


electrónicas y transacciones financieras generalmente se almacenan en
sistemas de gestión de bases de datos relacionales (RDBMS) o sistemas
de bases de datos NoSQL. La elección de una solución de base de datos
depende del caso de uso y de las características de la aplicación. Una solución
de RDBMS es apta para registrar transacciones y cuando es necesario que
las transacciones actualicen varias filas de tablas. Una base de datos NoSQL
es apta cuando los datos no están bien estructurados para encajar en un
esquema definido o cuando el esquema cambia con frecuencia.

• Datos de registro: capturar registros generados por el sistema de forma


fiable lo ayuda a solucionar problemas, realizar auditorías y llevar a cabo
análisis a través de la información almacenada en los registros. Un lago de
datos es una solución de almacenamiento popular para datos de registro
que se usan para análisis.

• Datos de streaming: las aplicaciones web, los dispositivos móviles y


muchas aplicaciones y servicios de software pueden generar cantidades
asombrosas de datos de streaming (a veces, terabytes por hora) que
deben recopilarse, almacenarse y procesarse continuamente. Estos datos
son muy variados y a menudo se describen como semiestructurados o no
estructurados.

• Datos de IoT: los dispositivos y sensores alrededor del mundo envían


mensajes continuamente. En la actualidad, hay una mayor necesidad de que
las organizaciones capturen estos datos y obtengan información de ellos.

analytics
10
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Procesar datos
El proceso de recopilación reúne o extrae datos de fuentes de datos, los transforma
y los almacena en un destino diferente, como otra base de datos o un lago de
datos, o un servicio de análisis, como un almacén de datos donde estos se pueden
procesar o analizar.

Datos en lote y en tiempo real


Hay dos tipos de flujos de trabajo de procesamiento: en lote y en tiempo real.

La carga de datos en lote ha sido, y sigue siendo, generalizada. Los trabajos en


lote nocturnos extraen datos de un sistema, los transforman en un formato listo
para consumir para su análisis y los cargan en un destino. Esto genera demoras
antes de que los datos estén disponibles para quienes los necesitan.

El procesamiento en tiempo real realiza transformaciones de datos incorporados


en la memoria mientras los datos siguen en tránsito antes de que se almacenen.
Estas tecnologías de streaming permiten que los datos se agreguen de manera
masiva, en tiempo real, de modo que pueda realizar análisis casi inmediatos.

• Extraer, transformar y cargar (ETL): ETL es el proceso de tomar o extraer


datos de varias fuentes, transformarlos para que encajen en un esquema
objetivo definido (schema-on-write) y cargarlos en un almacén de datos de
destino. El proceso de ETL es un proceso generalmente continuo con un
flujo de trabajo bien definido que ocurre en momentos específicos, p. ej.,
a la noche. La implementación y ejecución de trabajos de ETL puede ser una
tarea tediosa, y algunos de los trabajos pueden tomar horas en realizarse.

• Extraer, cargar y transformar (ELT): el proceso de ELT es una variante


del ETL donde los datos extraídos se cargan en el sistema objetivo antes
de hacerse las transformaciones. El esquema se define cuando los datos
se leen o usan (schema-on-read). El ELT generalmente funciona bien
cuando el sistema objetivo es lo suficientemente potente para manejar
transformaciones y cuando se desea explorar los datos en formas que no
son coherentes con un esquema predefinido.

analytics
11
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

• Procesamiento en tiempo real: los servicios de streaming de datos en


tiempo real permiten recopilar, procesar, analizar y entregar datos de streaming
continuos a escala a las aplicaciones y soluciones de análisis en tiempo real.
La clave es que los datos están disponibles para análisis inmediatamente,
sin tener que esperar que se complete un trabajo de ETL en lote nocturno.
Los desarrolladores pueden construir fácilmente aplicaciones en tiempo real
y aprovechar los servicios completamente administrados que son seguros,
altamente disponibles, duraderos y escalables. Puede procesar los datos de
streaming de forma secuencial y en incrementos según cada registro o en
ventanas de tiempo móviles y usar los datos procesados para una diversidad
de análisis, incluidas correlaciones, acumulaciones, filtrados y muestreos.

Almacenar datos
Puede almacenar sus datos en un lago de datos o una herramienta de análisis,
como un almacén de datos.

Un lago de datos es un repositorio centralizado de todos los datos, incluidos


los estructurados y los no estructurados. En un lago de datos, el esquema no
es definido, lo que permite tener tipos adicionales de análisis, como análisis de
big data, búsqueda de texto completo, análisis en tiempo real y aprendizaje
automático. Cada vez más, las organizaciones usan lagos de datos como un
repositorio central para todos los datos, de manera que puedan ser usados por
aplicaciones y herramientas de análisis descendentes.

Un almacén de datos usa un esquema predefinido optimizado para el análisis,


y los datos son altamente curados y funcionan como una única fuente de la
verdad de varias fuentes de datos.

• Lago de datos: los lagos de datos pueden manejar la escala, la agilidad y la


flexibilidad necesarias para combinar diferentes tipos de datos y enfoques
de análisis para obtener más información en formas que los silos de
datos y almacenes de datos no pueden. Les brindan a las organizaciones
la flexibilidad para usar una gama muy amplia de servicios de análisis y
aprendizaje automático, con un acceso fácil a todos los datos relevantes, sin
comprometer la seguridad o la gobernanza.

analytics
12
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

• Almacenes de datos: un almacén de datos es un repositorio central de


información que viene de una o más fuentes de datos (o su lago de datos)
donde los datos se transforman y limpian, y las duplicaciones se eliminan
para encajar en un modelo de datos predefinido. Un almacén de datos
está diseñado especialmente para el análisis de datos, lo cual implica leer
grandes cantidades de datos para comprender relaciones y tendencias entre
ellos. Una base de datos se usa para capturar y almacenar los datos, como
registrar detalles de una transacción. Mediante almacenes de datos, puede
ejecutar análisis rápidos en grandes volúmenes de datos y hallar patrones
escondidos en ellos, mediante herramientas de inteligencia empresarial.
Los científicos de datos necesitan un almacén de datos para realizar análisis
fuera de línea y detectar tendencias. Los usuarios de toda la organización
consumen los datos a través de consultas SQL ad hoc, informes periódicos
y paneles para tomar decisiones de negocio esenciales.

• Data marts: un data mart es un tipo simple de almacén de datos que se


centra en un área funcional o materia específicas y contiene copias de un
subconjunto de datos del almacén de datos. Por ejemplo, puede tener
data marts específicos para cada división de su organización o data marts
segmentados basados en regiones. Puede construir data marts a partir de
un almacén de datos grande, almacenes operativos o un híbrido de ambos.
Los data marts son fáciles de diseñar, construir y administrar. Sin embargo,
dado que los data marts se centran en áreas funcionales específicas, hacer
consultas entre áreas funcionales puede volverse complejo, debido a la
distribución de datos.

Analizar los datos

Libere el verdadero valor de los datos


Una canalización analítica moderna puede usar una diversidad de herramientas
para liberar el valor escondido en los datos. Una única solución no sirve para
todos los casos. Las herramientas de análisis deben poder acceder y procesar
cualquier dato de la misma fuente, como el lago de datos.

analytics
13
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Acceda al almacén de datos y al lago de datos de forma fácil


Los datos pueden copiarse del lago de datos al almacén de datos para encajar
en un modelo de datos estructurado y normalizado que aprovecha el motor
de consultas de alto rendimiento. Al mismo tiempo, algunos casos de uso
requieren el análisis de datos no estructurados en contexto con los datos
normalizados del almacén de datos. Aquí, es esencial extender las consultas
de almacenes de datos para que incluyan los datos que residen tanto en el
almacén como en el lago, sin la demora de la transformación y el movimiento
de los datos, para obtener información de forma oportuna.

Otras herramientas de análisis de big data deben poder acceder a los mismos
datos del lago de datos. Esto permite que todas las personas de la organización,
desde los usuarios comerciales hasta los científicos de datos tengan confianza
tanto en los datos como en los resultados del análisis.

• Análisis interactivo: el análisis interactivo generalmente usa herramientas


de consultas SQL estándar para acceder a los datos y analizarlos. Los
usuarios finales desean resultados rápidos y la capacidad de modificar
consultas rápidamente y volver a ejecutarlas.

• Almacenamiento de datos: el almacenamiento de datos brinda la


capacidad de ejecutar consultas analíticas complejas en grandes volúmenes
de datos (petabytes) mediante un motor de consultas de alto rendimiento
optimizado para el análisis.

• Análisis de lagos de datos: está surgiendo un nuevo tipo de almacén de


datos que extiende las consultas a un lago de datos para procesar datos
estructurados o no estructurados en el almacén o el lago de datos, y escalar
hasta exabytes sin mover los datos.

• Análisis de big data: el procesamiento de big data usa marcos de trabajo


Hadoop y Spark para procesar cantidades enormes de datos.

• Análisis operativo: el análisis operativo se centra en mejorar las


operaciones existentes y usa datos tales como supervisión de aplicaciones,
registros y datos de secuencias de clics.

analytics
14
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

• Inteligencia empresarial: el software de inteligencia empresarial es una


aplicación fácil de usar que recupera, analiza, transforma e informa datos
para la toma de decisiones de negocios. Las herramientas de inteligencia
empresarial generalmente leen datos que se almacenan en un servicio de
análisis como un almacén de datos o un sistema de análisis de big data.
Las herramientas de inteligencia empresarial crean informes, paneles y
visualizaciones y les permiten a los usuarios sumergirse más profundamente
en datos específicos de forma ad hoc. Los resultados les dan a las
organizaciones el poder de acelerar y mejorar la toma de decisiones,
aumentar la eficiencia operativa, identificar nuevas oportunidades y
posibilidades de obtener ingresos, identificar tendencias de mercado
e informar indicadores de rendimiento clave (KPI).

Aplicar el aprendizaje automático


A medida que las organizaciones generan, almacenan y analizan cantidades
crecientes de datos, existe el deseo de usar estos conjuntos enormes de datos
en formas automatizadas para generar resultados comerciales. Dependen cada
vez más del aprendizaje automático para automatizar tareas, brindar servicios
personalizados a usuarios finales y clientes, y aumentar la eficiencia de las
operaciones mediante el análisis de sus datos. El aprendizaje automático a menudo
parece mucho más difícil de lo que debería, porque el proceso de construir y
entrenar modelos e implementarlos en la producción es complicado y lento.

Proceso de aprendizaje automático


Primero, debe recopilar y preparar sus datos de entrenamiento para descubrir
qué elementos de su conjunto de datos son importantes. Luego, debe
seleccionar qué algoritmo y qué marco de trabajo usar. Después de decidir
su enfoque, debe enseñarle al modelo a hacer predicciones mediante el
entrenamiento, lo que requiere muchos cálculos. Luego, debe ajustar el modelo
para que genere las mejores predicciones posibles, lo cual es a menudo un
esfuerzo tedioso y manual. Después de desarrollar un modelo completamente
entrenado, debe integrarlo con su aplicación e implementar la aplicación en
una infraestructura que se escalará. Todo esto requiere de mucha experiencia
especializada, acceso a grandes cantidades de cálculos y almacenamiento,
y mucho tiempo para experimentar y optimizar cada parte del proceso.
analytics
15
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Implementar el aprendizaje automático con facilidad


Servicios de aprendizaje automático: los servicios de aprendizaje automático
les permiten a los desarrolladores y los científicos de datos construir,
entrenar e implementar modelos de aprendizaje automático en cualquier
escala de forma rápida y fácil. Eliminan la complejidad que obstaculiza
la implementación exitosa del aprendizaje automático en distintos casos
de uso e industrias, desde la ejecución de modelos para la detección de
fraude en tiempo real, hasta el análisis del impacto biológico de potenciales
medicamentos de manera virtual o la predicción de intentos de robo de base
exitosos en el béisbol.

• Servicios de inteligencia artificial: los servicios de inteligencia artificial


brindan inteligencia ya entrenada para las aplicaciones y los flujos de trabajo.
Se integran fácilmente con las aplicaciones para abordar casos de uso
comunes, como recomendaciones personalizadas, modernización del centro
de contacto, mejoras en la seguridad y aumento de la lealtad de los clientes.

• Marcos de trabajo de aprendizaje automático: estos marcos de trabajo


le permiten experimentar con algoritmos de aprendizaje automático y
personalizarlos. Brindan a los profesionales e investigadores del aprendizaje
automático la infraestructura y las herramientas necesarias para acelerar el
aprendizaje profundo en la nube a cualquier escala.

analytics
16
CREACIÓN DE UNA ARQUITECTURA ANALÍTICA MODERNA

Lagos de datos: el camino


de la innovación futura

Los lagos de datos se vuelven masivos


Los lagos de datos en la nube se están volviendo una estrategia masiva
para muchas organizaciones, dado que brindan la promesa de una mayor
flexibilidad en la forma en que se manejan los datos y se ponen a disponibilidad
de las personas encargadas de tomar decisiones. Un lago de datos puede
almacenar datos procesados y sin procesar en cualquier formato para que
luego se transfieran y transformen según lo demanden las aplicaciones y los
usuarios finales. El razonamiento detrás de este concepto es que el análisis o
las preguntas que deben aplicarse en los datos posiblemente aún no se hayan
identificado, y al mantener los datos en un entorno de fácil acceso, quedan
abiertos a la innovación futura.

Evitar silos de datos a nivel empresarial


Sin embargo, al igual que con cualquier iniciativa de datos importante de una
empresa, el concepto debe venderse a los líderes de la empresa. Los lagos de
datos absorben datos de una diversidad de fuentes y los almacenan todos en
un mismo lugar, con todos los requisitos necesarios para la integración y la
seguridad. Los lagos de datos son una respuesta al eterno problema de los silos
de datos, en un intento por omitir estos entornos fragmentados para mantener
finalmente todos los datos en un mismo lugar. El lago de datos también reduce
el requisito de procesar o integrar inmediatamente la gran variedad de formatos
de datos que se presentan en los big data.

Para obtener más información, visite Lagos de datos y análisis en AWS.

analytics
17
ACERCA DE AWS
Durante 13 años, Amazon Web Services ha sido la plataforma de servicios en la nube más integral
y más adoptada a nivel mundial. AWS ofrece más de 165 servicios completos de informática,
almacenamiento, bases de datos, redes, análisis, robótica, aprendizaje automático (AA) e
inteligencia artificial (IA), Internet de las cosas (IoT), móviles, de seguridad, híbridos, de realidad
virtual y aumentada (RV y RA), de medios, de desarrollo de aplicaciones, de implementación y
de administración. Además, cuenta con 61 zonas de disponibilidad (AZ) dentro de 20 regiones
geográficas, que incluyen Estados Unidos, Australia, Brasil, Canadá, China, Francia, Alemania, India,
Irlanda, Japón, Corea, Singapur, Suecia y el Reino Unido. Millones de clientes (incluidas empresas
emergentes de crecimiento rápido, grandes empresas y agencias gubernamentales líderes)
confían en AWS para impulsar sus infraestructuras, volverse más ágiles y reducir los costos.
Para obtener más información acerca de AWS, visite https://aws.amazon.com.

analytics © 2019, Amazon Web Services, Inc. o sus empresas afiliadas. Todos los derechos reservados.
18

También podría gustarte