Está en la página 1de 9

Laboratorio 1: Generar el Modelo del Data Warehouse

Objetivos:
Creación del Modelo De Datos en la Base de Datos Analítica

Ejecución

Luego de haber creado el modelo de Datos en Power Designer, ejecute los siguientes
pasos:

1. Seleccione la opción ​Change Current DBMS​ base de datos desde el menú


Database:

2. Del listado asegúrese de que esté seleccionada la opción ODBC 3.0


3. Desde el ODBC en Windows seleccione la opción ​Agregar ​para crear un ODBC de
64 bits para conectarse con la base de datos Analítica Exasol

Nota: ​Incluya el nombre del esquema DWH, el mismo que debió haber sido creado
previamente en la base de datos
4. Luego regrese a Power Designer y seleccione la opción menú ​Database->Generate
Database y escoja la opción Direct generation para seleccionar el ODBC
previamente creado

En esta pantalla usted puede guardar el script de creación de la base de datos en su


computador.

5. Finalmente de Clic en Aceptar y corra el script que generó la herramienta

6. Compruebe que los objetos se hayan creado en la Base de Datos


Laboratorio 2: Generar el proceso de carga para el poblado del Data Warehouse

Objetivos:
Generar un proceso de carga de datos ETL para llenar las tablas de la bodega de datos
Aprender el uso de una herramienta ETL de manera básica para generar procesos ETL
Ejecutar los procesos ETL

Ejecución

1. Abrir la herramienta Knime Analytics Platform para crear un proceso de carga.

2. En la ventana ​Knime Explorer​ en la Opción LOCAL, de un clic derecho y cree un ​New


Workflow Group
3. Luego asigne un nombre al Grupo de Workflows

4. Luego de un clic derecho en el Folder creado y seleccione la opción ​New Knime


Workflow

5. Asigne un nombre al Workflow


6. Arrastre hasta el área de trabajo el componente ​File Reader​ desde el ​Repositorio de
Nodos​ para conectarse a las fuentes de datos de archivos.

7. Configure los siguientes parámetros enn el Nodo File Reader dando un Doble Clic en el
mismo:
● Seleccione la ubicación y el archivo.
● Verifique que el check que lee los ids de filas y las cabeceras de columnas estén
desmarcados, esto debido a que las fuentes de datos no contiene los nombres de
las columnas.
● Finalmente cambie el nombre de cada columna dando un doble clic en el nombre de
la columna y poniendo los nombres que están en el modelo de datos.
8. Una vez configurado el acceso al archivo agregue al área de Trabajo el Nodo ​Database
Conector​ y configúrelo de acuerdo a los siguientes parámetros:
Database Driver: jdbc.Exadriver
Database URL: jdbc:exa:<<ipdelamaquinavirtual>>:8563
User & Name: Usuario de Exasol

Nota: recuerde haber instalado el jdbc de exasol


9. Luego agregue el componente ​Database Writer ​, conecte al nodo de lectura de archivo y
al node de conexión a la base de datos y posteriormente configúrelo.

10. Finalmente repita los pasos del 6 al 9 por cada una de las tablas.
11. Incluya un Código SQL antes de la ejecución del proceso para generar un TRUNCATE a
todas las tablas, ya que se desea ejecutar una carga total de datos.

12. Finalmente incluya un orden de ejecución de los nodos según un criterio lógico y de
acuerdo a su conveniencia activando la opción ​SHOW FLOW VARIABLE PORTS,
dando un clic derecho en cada nodo.
13. Finalmente el proceso debería visualizarse similar a lo siguiente:

Ejecute el proceso y compruebe datos mediante SQL:

1. Comparativo de Ventas en los años


2. Publicidad por cada estado
3. Utilidad por cada familia
4. Determine las ventas acumuladas por cada año para los locales correspondientes a
New York

También podría gustarte