Está en la página 1de 6

Que es Integration Services?

Integration Services es parte de SQL Server, es una herramienta para tareas de migracin de datos, integracin de datos, o crear flujos de datos entre aplicaciones. Es considerada una de las principales herramientas de ETL. Que es ETL? Extraer, Transformar y Cargar Extraer Traer datos de una fuente de datos Se usan DataSources, Data Sources Views, y Administrador de Conexiones

Transformar Cargar Insertar datos a un Destino, archivos de Texo, Base datos, Hojas de Excel o bien a un Datawarehouse. Se manipulan datos y se mueven a un destino Limpiarlos, formatearlos, transformarlos Puede ser simple o complejo como sea necesario

Cuando usarlo? Principalmente para cargar un Datawarehouse. Nos permite integrar datos, extraer de 1 o mucha fuentes, transformarlos y cargarlos a un destino. Ejemplo: Realizar tareas con archivos. Obtener informacin y enviarlos por correo. Mantenimiento de la Base datos

Paquetes de Integration Services La unidad fundamental de ejecucin. Tiene un extensin de archivo DTSX. Dentro del paquete esta la lgica de lo que quiero implementar. Es un archivo XML que se ejecuta

con la herramienta de SSIS e interpreta lo que se va a realizar. Una solucin consiste en uno o ms paquetes Tpicamente consisten en muchos componentes. Control Flows o Containers -- Loop, o la operacin de sequencia o Taks -- Describe los pasos para habilitar pasos de la lgica o Precedence Constraints -- Establece el orden de la operacin, quien precede a a quien y las condiciones si las se completan la tarea o no Data Flows o Es el Core de la funcionalidad de los datos Connection Managers o Representa las fuentes de datos de origen o destino

Herramientas Import and Export Wizard (DTSWizard) Business Intelligence Development Studio (BIDS) SQL Server Management Studio Notepad DTEXEC desde CMD SQL Server Agent

Ejercicio 1 Nuestro Primer Paquete 1. 2. 3. 4. 5. 6. 7. 8. Abrir el DTSWizard desde el men de Inicio o bien Ejecutar DTSWizard Conectarse a Northwind Luego Seleccionar Flat File Destination Hacer un Pre-View de los datos y de los tipos de datos. Guardar el paquete Fisicamente y Ejecutarlo Posteriormente Abrir el paquete y explorarlo. Adicionalmente cambiar la ruta del Archivo. Abrir el paquete desde Notepad. Abrir el paquete desde BIDS

NOTA: Recordar que un paquete no es un EXE sino un documento que se carga siempre y cuando tengamos SSIS instalado.

Ejercicio 2 - Conociendo BIDS Diferencias entre Control Flow y DataFlow ControlFlow : Permite crear la funcionalidad de Flujo de Datos, en que orden, en que secuencia, preparacin del ambiente de Trabajo DataFlow : Trabaja con los datos en s. 1. Crear un DataFlow y verificar la informacin de DataFlow 2. Crear otro DataFlow y verificar la informacin. Por tanto todo paquete tiene un ControlFlow y puede contener o no un Dataflow Task Versus Components Tareas dentro de ControlFlow 1. 2. 3. 4. 5. Agregar un Sequence Container Organizar los DataFlow dentro del Sequence Agregar una Tarea de Email Conectar el Sequence con el Email con los Constraints Agregar componentes a. Sources --- OLE DB Source b. Transformations -- Derived Column c. Destinations -- Excel Destination

Event Handler 1. Crear un Evento OnError para el paquete 2. Crear un Execute Task en el Evento OnError y luego enviar un Email Package Explorer Navegar en el Paquete. Creando Variables Las variables se crean en dependencia de Scope (mbito). Una variable a Nivel del Paquete puede ser accedida por los componentes existentes en el. Crear una variable para el paquete y una para el DataFlow.

Ejercicio 3 - Paquete Sencillo 1. Crear un nuevo paquete llamado CargaDatos

2. Desde el DataFlow crear un OLEDB Source 3. Utilizar Derived Column y Unir 2 Columnas UPPER ([Col1] + agregarlo como nueva columna 4. Crear un DataReaderDestination 5. Agregar vistas para verificar la transferencia de los Datos.

+ [Col2]) y

Ejercicio 4 Generando Archivos de Texto 1. 2. 3. 4. 5. 6. 7. 8. Crear Nuevo Proyecto llamado ManejoArchivos Desde Northwind cargar Products y exportarlos a un archivo CSV Primero Agregar Un DataFlow Desde el DataFlow crear un OLEDB Source Dirigirla hacia un Flat File Destination Configurar origen y destino y ejecutar el paquete. Verficar Archivo Crear un FTP Task y configurarlo con el FTP proporcionado por el Instructor y enviar el Archivo Creado.

Ejercicio 5 Usando Transformaciones 1. Crear nuevo paquete llamado Transformaciones 2. Crear 3 Conexiones para cada uno de los Archivos de Texto Proporcionados. Reds, Silvers, Blacks. 3. Crear un Union Transformation 4. Crear un Sort Transformation y Ordenar por Name, Color 5. Agregar Audit Transformation y Unirlo a Sort. Agregar Nombre Paquete, Tiempo de Ejecucin, Nombre de la Maquina, Usuario, Nombre de Tarea 6. Finalmente agregar un Excel Destination y ubicarlo en la Carpeta de Ejemplos. Todos.xls La Hoja llamada Todos. 7. Ejecutarlo y verificar el Archivo. 8. Agregar MultiCast Transformation 9. Ordenar el Flujo de Sort a MultiCast y de aqu a Audit y a Excel 10. Agregar un nuevo destino OleDB Destination y almacenar la informacin del Log.

Ejercicio 6 - Importando Archivos de Texto 1. Crear un nuevo Paquete ImportarArchivos 2. Crear una Nueva Base de Datos llamada SSIS_Demos 3. Ejecutar Script para crear Tabla Customers

4. Crear un Nuevo DataFlow Task llamado Load Customers. NOTA: Se podra cargar la informacin con un Bulk Insert Task pero no nos ofrece la capacidad de Tranformar nuestros datos. 5. Crear Nuevo Flat File Source, crear la conexin al Archivo de Clientes. Llamarla Archivo Customers 6. Quitar algunas Columnas que no se debern Cargar: RowID, Passwords. 7. Crear un OLBDDestination y crear una nueva conexin 8. Asignarle Origen Destino 9. Agregar a la Tabla Customers la columna Genero de Tipo nvarchar(1) --FechaCarga DateTime --- Usuario nvarchar(50) 10. Agregar un Componente Derived Column y Crear una Nueva columna derivada basado en Title y asignarlo a Genero. [Title] == "Mr." ? "M" : [Title] == "Ms." ? "F" : "U" 11. Asignarle la Funcion GetDate() y la Variable del Sistema User a las otras 2 Columnas. 12. Ejecutar Nuestro Paquete y ver la Pestana Progress y verificar los Warnings. 13. Regresar a Control Flow y agregar Execute SQL Task configurarla para hacer TRUNCATE TABLE Customers. 14. Agregar ForEachContainer 15. Crear variable en el mbito del proyecto para que sea accesible CustomerPath de Tipo String. 16. Configurar ForEachContainer para que escriba en la variable 17. Editar Constraint del ForEachContainer al DataFlow con 2 Condiciones que se ejecute correctamente y que tambin cumpla la condicin @CustomerPath = 18. Realizar pruebas y modificar nombre para verificar que no se ejecute el DataFlow de No encontrarla. 19. Agregar File System Task, Renombrar el Archivo CustomerLoaded La Conexin de Origen (Source) deber ser la misma que se utilizo para cargar el Archivo. Y la Destino seria Nueva Conexin Nuevo Archivo. Accion Rename File. 20. Agregar File System Task, Moverlo a un Folder OUT. Conexion de Origen la Anterior, Conexion Destino Nueva Conexion Folder Existente. Accion Move File 21. Verificar que se realice correctamente. 22. Agregar un Execute SQL Task. Verificar que si esta vacio el ForEachContainer ejecute la SQL Task y esta importe los datos a una Tabla de Log. Hay que crearla antes, poner Fecha y Hora de Ejecucion y un mensaje de no carga. 23. Reiniciar el Proceso.

También podría gustarte