Está en la página 1de 21

Validación de técnicas de

migración y herramientas
ETCL
AA05 – EV1

Presentado por: Karla Marcela Rodríguez


TABLA DE CONTENIDO
OBJETIVOS .................................................................................................... 3
Objetivo general ............................................ 3
Objetivos específicos .................................... 3
1. MIGRACIÓN DE DATOS .......................................................................... 4
1.1. Metodología de migración de datos ... 4
2. TÉCNICAS MIGRACIÓN DE DATOS ....................................................... 8
2.1. Sincronización de base de datos ....... 8
2.2. Importación/Exportación de Archivos (CSV) o XML a través de
comandos de consola o interfaz gráfica. ....... 8
2.3. Sentencias DML ................................. 9
2.4. Procedimientos ETCL (Extracción, Transformación, Limpieza y
Carga)9
3. Tipos de migración de datos ....................................................................13
Migraciones en big bang ............................. 13
Migraciones en paralelo .............................. 13
Migraciones incrementales.......................... 13
Migración con cero tiempos de inactividad . 14
4. HERRAMIENTAS ETCL ..........................................................................15
4.1. Categorías........................................ 15
4.2. Elección del software de ETL ........... 15
4.3. Comparativa de herramientas en el mercado 16

ii
OBJETIVOS

Objetivo general

Consolidar los conceptos relacionados con las herramientas ETCL utilizadas para los procesos
de generación de copias de seguridad, restauración y recuperación de bases de datos a través
de la consulta proactiva en diferentes fuentes de información.

Objetivos específicos

• Identificar los requerimientos para la utilización de cada técnica.


• Exponer las ventajas y desventajas de la utilización de las técnicas o herramientas.
• Documentar al menos tres (3) herramientas ETCL. Identificando:
- Nombre del producto y versión.
- Tareas que realiza la herramienta.
- Formatos de archivo que maneja.
- Modo de gestión (gráfica, línea de comando).
- Requerimientos técnicos de instalación.
- Automatización.

3
1. MIGRACIÓN DE DATOS

La migración de datos en pocas palabras se refiere a la transferencia de datos entre diferentes


tipos de formatos de archivo, bases de datos y sistemas de almacenamiento. Sin embargo, la
'transferencia' no es el único aspecto de la metodología de migración de datos. Si los datos son
diversos, el proceso de migración incluye asignaciones y transformaciones entre los datos de
origen y destino1, por esta razón dentro de la migración de datos se plantean metodologías y
técnicas ordenadas que contienen las mejores prácticas para garantizar que la implementación
sea exitosa.
La complejidad de un proceso relacionado con el movimiento de los datos estará sujeto
principalmente a:
Número de fuentes y de destinos de datos: El flujo de datos maestros desde sus fuentes
hacia sus destinos puede describirse como muchos a uno (consolidación), uno a uno (migración
o actualización), y muchos a muchos (integración). Esto nos permite diferenciar estas técnicas
de movimientos de datos similares.
Diversidad de los modelos de datos de la fuente y el destino: Gran parte del tiempo
dedicado en los desarrollos de migración de datos se invierte en los mapeos y transformaciones
entre los modelos de datos maestros fuente y destino. Cuanto más divergentes sean (o mayor
el número de modelos de datos involucrados), más tiempo se tomará el desarrollo.

1.1. Metodología de migración de datos


El enfoque del proceso de migración de datos contiene diferentes fases con pasos ordenados
que permiten la transferencia exitosa. A continuación, se menciona las fases principales que
se deben tener en cuenta independientemente del framework aplicado.

1 Concepto tomado de la web: https://www.astera.com/es/type/blog/data-migration-software/

4
• Definición de objetivos, alcance, estrategias, requerimientos, riesgos, plan de
contingencia, condiciones actuales y resultados esperados.
• Factibilidad economica.
• Viabilidad técnica.
• Identificación de la situación actual: tamaño y tipo de datos, equipos y recursos que
componen el sistema, etc.
• Lista de chequeo de requerimientos.
Planeación • Cronograma de actividades a ejecutar.
• Matriz de responsabilidad.

• Instalación de herramientas de migración.


• Análisis detallado de los datos existentes.
• Evaluación de calidad de los datos de origen: Limpieza, homegenización,
enriquecimiento.
• Conversión de datos según los fortmatos requeridos en destino.

Migración • Mapeo y carga de datos hacia la fuente destino.

• Evaluación de datos finales en el sistema de destino para validar su integridad.


• Generación de reportes de migración.
• Aplicación de técnicas como contador de registros.
Validación

5
1.1.2 Mejores prácticas para un proyecto de migración de datos2

A la hora de llevar a cabo una migración de datos siempre resulta de utilidad el seguir unas
recomendaciones en forma de mejores prácticas, que puede ser interesante tener en cuenta
durante el proceso: proporciona la capacidad de extraer los datos de los sistemas de producción
y utilizarlos para las actividades relacionadas con procesos de calidad de datos (limpieza,
armonización y enriquecimiento). Contener la información aquí, permite ver los datos reales de
producción sin afectar a la operación de los sistemas actuales.

Repositorio
Disponer de un área intermedia con una estructura igual a la del origen para realizar la carga
de los datos de producción y poder llevar a cabo las tres fases que implica el proceso de calidad
de datos (limpieza, armonización y enriquecimiento). Este repositorio proporciona la capacidad
de extraer los datos de los sistemas de producción y clasificarlos, estando en continuo contacto
con los datos reales de producción, pero sin afectar a la operación de los sistemas actuales.

Contar con un área de pre-carga


Es una práctica muy recomendable para toda migración de datos ya que esta área presenta
una estructura similar a la de destino y es en ella donde se realizará la carga de los datos en el
momento en que finalice su conversión. El área de pre - carga permite practicar las validaciones
aplicando varios ciclos sin afectar el sistema destino.
Utilizar tablas de referencias y archivos de parámetros En el transcurso de la migración puede
surgir la necesidad de cambiar un código, por ejemplo, y es en casos como éste en los que la
utilización de tablas de referencia y parámetros asegurará una mayor flexibilidad y un menor
mantenimiento, ya que los códigos en origen siempre deben corresponderse con uno en
destino, dentro de unos parámetros configurables que el desarrollador debe conseguir.

Diseño modular

2Tomado de la web: Migración de datos, Evaluando Software. https://drive.google.com/file/d/0B45pcw_Ee6-


_VG9wS0xpN1g4YWM/view

6
Hace referencia a la necesaria definición de estándares para el desarrollo de múltiples procesos
simples, en vez de uno único más complejo y de mayores dimensiones. Actuar de este modo
mejora el desarrollo, aumenta la eficiencia en las pruebas y facilita el mantenimiento,
procurando mayor agilidad y simplicidad en el desarrollo, así como unos menores costos, junto
con un incremento en la eficacia general del proceso de migración de datos.

Reutilización
Implica reutilizar las asignaciones / estrategias / procesos / scripts / documentos de prueba
siempre y cuando sea posible, en procesos de extracción, transformación y/o carga; para
optimizar el tiempo de proceso y armonizar resultados.

7
2. TÉCNICAS MIGRACIÓN DE DATOS3

2.1. Sincronización de base de datos


Es una técnica muy utilizada en procesos de migración de datos, consiste en hacer que dos
bases de datos sean equivalentes en el mismo tiempo. Se logra mediante la copia de datos y
metadatos de una base de datos origen a una base de datos destino mediante una herramienta
tecnológica.
Los asistentes de sincronización de los SMBD son configurados con las bases de datos origen
y la base de datos destino, parametrizando la ubicación de particiones y métodos de seguridad.

2.2. Importación/Exportación de Archivos (CSV) o XML a


través de comandos de consola o interfaz gráfica.
Para las actividades de migración de datos es muy común utilizar archivos para el movimiento
de los datos. Se pueden utilizar diferentes tipos de archivos pero los formatos más usados son
los archivos de texto, llamados archivos planos, que guardan la información sin formato usando
solo caracteres. Los sistemas de codificación más comunes para estos archivos son: ASCII,
ISO-8859-1 o Latín-1 y Unicode.
Los archivos de texto pueden tener formato delimitado utilizando coma(,), punto y coma (;) o
Tabulaciones para delimitar los campos definiendo de esa forma columnas y filas. También
pueden tener formato de ancho fijo para los campos, que se utiliza para delimitar columnas y
filas.

Un formato de archivo plano muy usado es el “.CSV” (Comma-Separated-Values, en español


Valores Separados por Coma), donde el delimitador usado es una coma. Muy usado para
movimientos de datos con hojas de cálculo.

3 Tomado del documento Técnicas de Migración de Datos, Sena 2020.

8
Otro formato útil para la migración de datos es el “.XML” (eXtensible Marckup Language), que
utiliza un metalenguaje extensible de etiquetas las cuales sirven como estándar para
intercambio de información estructurada entre distintas plataformas.

2.3. Sentencias DML


Una posibilidad de los SMBD es la utilización de sentencias DML para generar scripts SQL que
permiten realizar migraciones de bases de datos existentes.
En un script SQL se pueden realizar las siguientes tareas:
Copia de seguridad para creación de todos los usuarios, grupos, inicios de sesión y permisos.
• Creación o actualización de código para la implementación de una base de datos.
• Creación de un entorno de pruebas.
Los procesos se orientan al uso de las sentencias DML, para realizar el paso de datos de la
base de datos de origen a la base de datos destino, a través de los entornos administrativos de
los SMBD.

2.4. Procedimientos ETCL (Extracción, Transformación,


Limpieza y Carga)
Esta técnica se basa en el diseño y construcción de procedimientos técnicos para realizar
Extracción, Transformación, Limpieza y Cargue de Datos (ETCL).
Los procedimientos o pasos necesarios para el desarrollo de un proyecto de migración de datos
utilizando la metodología ETCL son:

El enfoque de este documento será precisamente los procedimientos ETCL para la migración
de datos. A continuación se amplia el detalle

9
Descubrimiento/análisis de datos
Consiste en evaluar y comprender los datos existentes y, en particular, los que son requeridos
por el nuevo sistema. Para determinar la calidad de los datos orígenes hay que detectar si
existen datos erróneos, si un mismo concepto se encuentra definido con distintos términos o si
faltan datos, ya que todo ello evidenciaría una falta de calidad. Para poder extraer conclusiones
se debe realizar un perfilado de los datos, analizando cada uno en particular, así como sus
interrelaciones. En esta fase es fundamental:
▪ Trabajar sobre el total de datos a migrar.
▪ Obtener la guía experta del propietario del dato.
▪ Terminar el proceso con una validación al final de la migración.

El descubrimiento de los datos es a la vez un recordatorio de la importancia del trabajo con


datos y de su calidad, en un entorno de seguridad de la información; ya que muchas
organizaciones no son del todo conscientes de la forma que toma este activo hasta que tienen
ocasión de descubrirlo durante esta fase, que les facilita un contacto más directo con él.
El análisis de datos comienza con un reconocimiento de las reglas de negocio, no sólo por
entidad, sino también en lo relativo a su correlación, campo a campo, con el nuevo sistema.
Cuando esta etapa concluye, ya se puede comenzar a perfilar los datos.
El perfilado hace posible determinar cuál es la verdadera calidad de los datos.
Es más habitual que deseable encontrar claves duplicadas, descubrir la aplicación de distintos
términos para un mismo concepto, detectar inconsistencias o asumir la existencia de campos
vacíos que revelan datos inexistentes o perdidos.
Cuando se ha tomado conciencia de la situación de los datos, se pueden comenzar a identificar
y analizar los datos relevantes para la migración:
▪ Determinando cuáles son las reglas de negocio.
▪ Estableciendo las transformaciones requeridas.
▪ Correlacionando los datos campo a campo.
Como resultado del análisis se obtendrán las definiciones precisas para la limpieza de datos y
el mapeo de campos que tendrán lugar en etapas posteriores.

Calidad de datos
La calidad no está necesariamente adscripta a los procesos de migración de datos, ya que
puede darse en otros momentos. Por ejemplo, una instancia de limpieza para asegurar la
consistencia de los datos; o para cubrir distintas necesidades organizacionales, como la
búsqueda de la integridad de los datos con fines de elevar los estándares de seguridad

10
existentes. Con el proceso de calidad de datos se busca homogeneizar, tras evaluar la
corrección de los mismos, para alcanzar los niveles deseados.
Las fases de la etapa de calidad de datos Dentro de un proyecto de migración, llegar a la fase
de calidad de datos supone armonizar, normalizar y enriquecer los mismos. Este proceso
iterativo puede pasar por varios ciclos y conlleva distintas actividades que se resumen en:
▪ Limpieza de datos: es el momento en que se corrigen los datos que se consideran
incorrectos o inconsistentes. El input de este proceso es el perfilado realizado en la etapa
de análisis.
▪ Homologación: implica la unificación de criterios, necesaria porque un datos en un origen
puede ser correcto pero no estar manejado de la misma forma en diferentes lugares.
Requiere de la unificación de códigos, descripciones, etc.
▪ Enriquecimiento: se lleva a cabo al complementar y perfeccionar los datos maestros, si
les faltase completitud. Un ejemplo práctico sería agregar los códigos postales a las
direcciones en la base de datos de clientes, si se notificará dicha carencia.

Conversión de los datos


Adecuar los datos para facilitar su proceso de carga, en la etapa final de la migración de datos
es un paso muy relevante. Su criticidad reside en que de su incorrecta, o poco precisa, ejecución
pueden derivarse diferentes riesgos o errores, cuyas consecuencias podrían afectar a todo el
proyecto.
Las claves de una conversión de datos impecable Para poder pasar a la fase de mapeo y carga
de los datos en condiciones de seguridad, interesa:
▪ Poseer un profundo conocimiento de los requerimientos de los datos en destino: de esta
forma se minimizan los errores, por lo que se ahorran tiempo y recursos.
▪ Dominar las reglas de negocio: que son las directrices sobre las que la conversión se
estructurará.
▪ Incorporar la fase de conversión tan pronto como sea posible en cada caso: así se
adquiere una referencia que será muy útil tanto para la planificación como para el
seguimiento del proyecto, además de permitir encontrar respuesta a determinados
problemas iniciales que pueden presentarse en toda migración.
▪ Aumentar la frecuencia de conversión: porque cuando se incrementa el ritmo de
conversión y sus repeticiones se está logrando un ajuste óptimo al proceso que se ve
enriquecido con la constante actualización que proviene de producción.
▪ Emplear datos reales: ya que los datos provenientes de producción superan en fiabilidad
y realismo a los simulados; algo que desde su beneficio en cada iteración redunda en el
proceso global y que debe hacerse, por supuesto, sin producir menoscabo en el
rendimiento o resultado de las pruebas.

11
▪ Haber culminado la fase de calidad con garantías: ya que es sobre sus resultados sobre
los que se sustentan las etapas posteriores, incluida ésta.
Mapeo y carga
La fase de mapeo y carga es la culminación del proceso de migración de datos. Es en este
momento cuando los resultados se hacen evidentes y se descubre si se alcanzó el nivel de
calidad esperado, si se consiguió esa ausencia de errores tan necesaria, si se cumplieron los
plazos previstos para llevar a cabo el proyecto, si el nuevo sistema funciona a pleno rendimiento
o si, por el contrario, la operación ha sido un fracaso.
Cuando los datos han sido reconocidos, analizados, comprendidos, limpiados, homologados,
enriquecidos, adecuados y se han realizado las pruebas correspondientes en los repositorios
dispuestos a tal efecto, es el momento de proceder a la carga. En líneas generales, y más allá
de la dicotomía existente entre ELT y ETL, éste es el procedimiento habitual.
El nuevo sistema cuya infraestructura ya es conocida por el desarrollador, espera que los datos
vayan llegando, de forma directa o por etapas, procedentes de uno o varios módulos,
dependiendo de la metodología que se ha decidido emplear para llevar a cabo la migración de
datos.
Si la planificación es correcta, se observan las reglas de negocio y se trabajan los datos de
forma exhaustiva, esta etapa no entraña ninguna dificultad, ni demasiado tiempo. Cuando no
es así, si llegados a este punto, las cosas no suceden de esta forma, entonces ser necesario ir
volviendo hacia atrás en todos los pasos dados hasta encontrar el origen de las discordancias
que requiere de soluciones.

12
3. TIPOS DE MIGRACIÓN DE DATOS

Al planear una migración de datos debe considerarse la estrategia más adecuada de acuerdo
con las necesidades de la organización. La elección puede realizarse dependiendo de los
requisitos del proyecto y las ventanas de procesamiento disponibles. Existen dos enfoques
principales de migración: migraciones big bang y migraciones incrementales.

Migraciones en big bang


Implican completar toda la migración en una pequeña ventana de procesamiento definida. La
consecuencia de este enfoque es la inactividad del sistema mientras los datos se extraen de la
fuente, se procesan, se cargan en el destino, y luego se redirecciona el procesamiento al nuevo
entorno.
Este enfoque resulta atractivo, en la medida en que permite completar la migración en el menor
tiempo posible, pero conlleva riesgos, pues pocas organizaciones pueden vivir con un sistema
central no disponible por mucho tiempo, por lo que existe una intensa presión sobre la
migración. La verificación y aprobación de datos se encuentran en la ruta crítica.

Migraciones en paralelo4
Esta estrategia se basa en validar por un tiempo estipulado los resultados que tiene el nuevo
sistema comparado con el anterior, corriendo en forma paralela los dos sistemas.
Es usado en ambientes donde se requiere garantizar el funcionamiento del nuevo sistema en
un entorno real, antes de desactivar el viejo sistema.
Una desventaja es el costo de tener dos sistemas en funcionamiento, con personal para manejar
e ingresar datos a los dos sistemas y el uso de los recursos de hardware que se consumen.

Migraciones incrementales
En este caso, en lugar de intentar completar todo el evento en una ventana de tiempo breve, la
migración implica tener ejecutándose los sistemas antiguo y nuevo en paralelo y migrar los
datos en fases.

4 Tomado del documento Técnicas de Migración de Datos, Sena 2020.

13
Este método proporciona un tiempo de inactividad cero como lo requieren las aplicaciones de
misión crítica que operan 24/7. Este enfoque agrega cierta complejidad al diseño, ya que debe
ser posible rastrear qué datos se han migrado y qué datos no, para redireccionar las peticiones
cuando los sistemas operan en paralelo.

Migración con cero tiempos de inactividad5


En otros tipos de proceso, que no se pueden detener o que una falla o retardo en la migración
tendría drásticas consecuencias, se recomienda una opción de cero o casi cero tiempo de
inactividad.
Por ejemplo, un proyecto de migración que tenga 10 meses de duración que requiere apagar
todo el sistema por solo 5 minutos para el cambio de servidores, se puede considerar como una
migración con un tiempo muy cercano a cero de acuerdo con el tiempo total del proyecto.
Esta estrategia se puede basar en una combinación de otras estrategias como migraciones
incrementales y de ejecución en paralelo.

5 Tomado del documento Técnicas de Migración de Datos, Sena 2020.

14
4. HERRAMIENTAS ETCL

4.1. Categorías
Hay distintas herramientas ETL en el mercado, cada una con sus características concretas. Sin
embargo, a la hora de elegir la herramienta adecuada para nuestra empresa o proyecto, nos
encontramos frente a cuatro distintas categorías principales:

▪ Herramientas ETL Enterprise. Se trata de productos propietarios, con muchas


funcionalidades incluidas y soporte para conexión con una gran cantidad de fuentes y
suelen ser elegidas por grandes empresas ya que el coste de adquisición es elevado.
▪ Herramientas ETL open source. Se trata de herramientas de código libre y de uso
gratuito, lo que permite una mayor accesibilidad para empresas de tamaño reducido. Al
ser productos con un enfoque general, es necesaria a menudo una personalización para
que se adapten a objetivos concretos, lo que requiere consultoría especializada.
▪ Herramientas ETL personalizadas. Se trata de herramientas desarrolladas a medida y
de forma específica para una empresa o proyecto en concreto. Requieren un grande
esfuerzo inicial de desarrollo, pero el resultado se ajusta mejor a los requerimientos.
▪ Herramientas ETL Cloud. La nube nos puede proporcionar todas sus ventajas como una
alta flexibilidad y el pago por uso a la hora de elegir herramientas ETL que se ofrecen
como servicio.

4.2. Elección del software de ETL6


Existen muchas herramientas de ETL diferentes, como también hay infinidad de bases de datos,
sistemas y organizaciones distintas. En el momento de seleccionar la que liderará la migración
e integración de datos pueden tomarse en consideración las recomendaciones de Gartner en
cuanto a las cualidades que la herramienta ha de presentar:
▪ Adaptabilidad a distintos sistemas operativos y plataformas hardware.
▪ Capacidades de gestión de datos: en cuanto a minería, perfilado y calidad.

6 Tomado de Power Data.

15
▪ Habilidades para monitorizar, gestionar y controlar los procesos de integración de datos:
en lo relativo a gestión de errores, recolección
▪ de estadísticas de ejecución, controles de seguridad, etc.
▪ Capacidades SOA
▪ Capacidades de diseño y entorno de desarrollo: como soporte para test,
representaciones gráficas, modelos y flujos de datos y flujos de datos, etc.
▪ Cualidades de arquitectura e integración referidas al grado de interoperabilidad,
compactación y consistencia de los diferentes componentes que la formen.

Aunque la elección de un software de ETL no es sencilla, su repercusión en el curso del proyecto


es decisiva. Una decisión correcta pasa por la automatización y en base a ella quedan
garantizados:
▪ Un aumento en la velocidad de desarrollo del proyecto.
▪ La descentralización del control de la ejecución y de todos los procesos.
▪ Una mayor agilidad en el negocio.
▪ Mayor precisión.
▪ Minimización de errores.

4.3. Comparativa de herramientas en el mercado

IBM
Proporciona la suite de soluciones InfoSphere, en la cual destaca su herramienta DataStage.
▪ Características generales
Funciones de interfaz de usuario enriquecidas para ayudar a simplificar el proceso de diseño,
respaldadas por una gestión de metadatos sofisticada
Componentes de transformación, incluido un amplio conjunto de objetos prediseñados que
actúan sobre los datos para satisfacer requisitos de integración de datos simples y complejos
Objetos de conectividad, incluido el acceso nativo a la industria común bases de datos y
aplicaciones
Flexibilidad en tiempo de ejecución con un motor paralelo de alto rendimiento que proporciona
una escalabilidad casi ilimitada tanto en lotes como en tiempo real • Gestión sencilla del entorno
operativo, incluidos análisis creados para comprender e investigar • Administración de clase
empresarial mediante funciones intuitivas y sólidas para instalación, mantenimiento y
configuración

16
Más detalle en: https://cdn2.hubspot.net/hubfs/2383378/Cornerstone-Resources/PDF/IBM-
InfoSphere-DataStage-Data-Sheet.pdf

▪ Requerimientos técnicos

Requirement Minimum OS Minimum Minimum Minimum Additional


Memory Cores Disk Space

InfoSphere See: 8 GB 4
Information • InfoSphere
Server node Information
Server V11.7
detailed system
requirements
• InfoSphere
Information
Server V11.7.1
detailed system
requirements
• IBM Watson
Knowledge
Catalog
detailed system
requirements

Enterprise Red Hat Enterprise 32 GB 8 300 GB for persistent


Search node Linux v7.3 volume storage
(version 11.7)

Single-node Red Hat Enterprise 32 GB 8 300 GB for persistent


microservices Linux v7.3 and above volume storage
tier without
Watson
Knowledge
Catalog (version
11.7.1)

17
Single-node Red Hat Enterprise 64 GB 16 300 GB for persistent
microservices Linux v7.3 and above volume storage
tier with Watson
Knowledge
Catalog (version
11.7.1)

Multi-node Red Hat Enterprise 32 GB 8 (each 300 GB for persistent


microservices Linux v7.3 and above (each node) volume storage
tier without node)
The storage volume
Watson can be on any disk on
Knowledge
the system or an NFS
Catalog (version mount. With local
11.7.1) storage, each node
must meet this storage
requirement. With an
NFS mount, the same
disk or storage can be
mounted on any
number of nodes.

Multi-node Red Hat Enterprise 64 GB 16 300 GB for persistent


microservices Linux v7.3 and above (master (master volume storage
tier with Watson node) node) The storage volume
Knowledge 64 GB 16 (each can be on any disk on
Catalog (version (each worker the system or an NFS
11.7.1) worker node) mount. With local
node) storage, each node
must meet this storage
requirement. With an
NFS mount, the same
disk or storage can be
mounted on any
number of nodes.

18
Oracle
Proporciona la herramienta Oracle Data Integrator, que permite gestionar procesos de
integración de datos en sistemas de inteligencia de negocio.

▪ Características generales
Integración inmediata con bases de datos, Hadoop, ERP, CRM, sistemas B2B, archivos planos,
XML, JSON, LDAP, JDBC, ODBC
Marco de módulo de conocimiento para extensibilidad
Potente transformación de datos para bases de datos heterogéneas e infraestructuras de Big
Data
ETL enriquecido para bases de datos Oracle, incluido Oracle Exadata , con soporte de carga
de cubos y dimensiones complejas
Se integra con Oracle GoldenGate para almacenamiento de datos en tiempo real Linaje de
datos impulsados por metadatos y análisis de impacto con Oracle Enterprise Metadata
Management
Se integra con Oracle Enterprise Data Quality para perfiles avanzados, necesidades de
limpieza, emparejamiento y gobernanza de datos
Soporte de big data nativo
Desempeño líder Productividad mejorada
Flexibilidad Bajo costo total de propiedad
Heterogeneidad expandida a fuentes y objetivos de Big Data
Reduce los costos de hardware a través de una mejor utilización e integración de datos de alto
rendimiento
Unifica la integración basada en datos, basada en eventos y basada en servicios en una sola
solución
Reduce el costo total de propiedad y maximizando la productividad del diseñado
Abierto, 100% Java, SOA, basado en estándares Admite fuentes, objetivos y aplicaciones
heterogéneos

Mayor información en: https://www.oracle.com/technetwork/middleware/data-


integrator/overview/odi-ee-ds-2030747.pdf

19
▪ Requerimientos técnicos
Plataformas soportadas: Linux x86-64, Oracle Solaris on SPARC (64-bit), Oracle Solaris on x86-
64 (64-bit), IBM AIX on POWER Systems (64-bit), HP-UX Itanium 11.31
Hardware: Mínimo 10GB.
Software:
Se debe instalar la versión 12.1 del almacén de datos de Oracle Communications Data Model.
Base de datos Oracle, incluidas las opciones especificadas en "Requisitos de la base de datos
Oracle".
Oracle Business Intelligence Suite Enterprise Edition 11.1.1.7 o posterior. Consulte "Oracle
Business Intelligence Suite Enterprise Edition". Esto es opcional para instalar componentes de
complementos de Oracle Communications Data Model, pero es necesario para ver y utilizar los
informes asociados.
La versión del instalador de las herramientas cliente para desarrolladores de Oracle Business
Intelligence es 11.1.1.7.0 o posterior. Consulte "Oracle Business Intelligence Suite Enterprise
Edition".
Oracle Data Integrator Enterprise Edition 11g (11.1.1.5.0 o posterior). Consulte "Oracle Data
Integrator Enterprise Edition". Esto es opcional para instalar la instalación de complementos del
modelo de datos de comunicaciones de Oracle, pero es necesario cuando se ejecutan los
adaptadores de aplicaciones.
Oracle GoldenGate 11g (11.1.1.1 o posterior) Consulte "Oracle GoldenGate" (opcional para el
Adaptador BRM y para el Adaptador NCC, dependiendo de si está utilizando alimentación en
tiempo real)
Mayor información en: https://docs.oracle.com/cd/E64694_01/CDMAI/require.htm#CDMAI115

Microsoft Azure
Proporciona la herramienta Data Factory que opera totalmente en la nube.
▪ Características generales
No se necesita programación ni mantenimiento para crear canalizaciones de ETL y ELT híbrido
en el entorno visual de Data Factory.
Herramienta de integración de datos en la nube sin servidor totalmente administrada y muy
rentable que se escala a petición

20
Medidas de seguridad de Azure para conectarse a aplicaciones en el entorno local, en la nube
y de software como servicio sin preocupaciones
SSIS Integration Runtime para rehospedar fácilmente los paquetes SSIS locales en la nube con
las herramientas de SSIS que ya conoce
Mapping Data Flows: Desarrolle lógica de transformación de datos gráfica a escala sin
necesidad de escribir código con Mapping Data Flow.
Plantillas predefinidas: Use la creciente biblioteca de plantillas para realizar tareas comunes,
como la creación de canalizaciones, la copia de datos de una base de datos, la ejecución de
paquetes SSIS en Azure y ETL.
Desencadenadores: Automatice las ejecuciones de canalizaciones mediante la creación y
programación de desencadenadores. Data Factory admite tres tipos de desencadenadores:
basados en una programación, en una ventana de saltos de tamaño constante o en eventos.
Wrangling Data Flows: Explore sus datos a escala sin escribir código. Use Wrangling Data
Flows, que ahora está en versión preliminar pública, para preparar datos a escala sin necesidad
de escribir código.

21

También podría gustarte