Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 Training
Enero 2016
Curso Data Services 4.2 - Introdución
SAP Data Services ofrece una única solución de clase empresarial para la
integración, calidad, perfiles y procesamiento de datos de texto que:
Objetos de DS
Recomendación de
Desarrollo
Definición
Nomenclaturas
Arquitectura Perfiles de Soporte
Fuentes de Datos
Componentes Acciones de Soporte
Desarrollos Multi-
Recomendaciones Ejecución,
User
Hardware/Software Cancelación y
Cargas Batch
Usuarios y Perfiles Monitoreo de Cargas
Carga Real-Time
Administración de Monitoreo del
Bulk Loaders
Repositorios Servidor
Cargas en Paralelo
Importación/Exporta Principales puntos de
Cargas en Memoria
ción de Contenido Falla en DS
Revisiones Rapidas de
Respaldos y Planes FAQ´s
Desarrollo
de recuperación
Jobs Programados
Datos Anidados
Simulación Cargas
Administración de SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Administración de SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
SAP DS 4.2 - Definición
SAP Data Services ofrece una única solución de clase empresarial para la integración de datos,
calidad de datos, perfiles de datos y procesamiento de datos de texto.
Es una fusión de una serie de productos que incluyen Data Integrator y Data Quality. Data
Integrator es una solución ETL poderoso. Data Quality es un líder en la mejora de calidad de los
datos.
¿Qué es ETL?
ETL acrónimo es un término data warehousing y significa Extract, Transform, Load y. ETL
describe todo el proceso de cómo los datos se carga desde los sistemas de origen hasta que la
carga en el almacén de datos.
SAP DS 4.2 - Definición
SAP DS 4.2 - Definición
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Arquitectura
Repositorios de Datos
Job Server
El Servidor de tareas puede mover datos, ya sea en lotes o en modo de tiempo
real y utiliza la optimización de consultas distribuido, multi-threading, el
almacenamiento en caché en memoria, en memoria transformaciones de
datos y el procesamiento en paralelo para ofrecer un alto rendimiento de datos
y escalabilidad.
Access Server
El SAP BusinessObjects Data Services Access Server es un tiempo real, corredor
de mensaje de petición-respuesta que recoge las peticiones de mensajes, los
encamina a un servicio en tiempo real, y ofrece una respuesta de mensajes
dentro de un marco de tiempo especificado por el usuario.
Management Console
BusinessObjects Data Services Management Console es la aplicación basada en
Web con para la administración, Impacto y Análisis de Linaje, Dashboard
Operacional, Auto Documentación, validación de datos e informes de calidad
de datos.
Arquitectura
SAP Data Services tiene una arquitectura distribuida. Un servidor de acceso puede servir a múltiples Job
Servers y repositorios. La ampliación de la licencia multi-usuario permite que varios diseñadores trabajen
desde un repositorio central.
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Componentes de Data Services
Data Services Requerimientos
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Data Services – Requerimientos Mínimos
Máquina individual
Los siguientes son los requisitos totales para instalar todos los
productos de BI / IPS y servicios de datos en un sistema:
Requisitos mínimos de hardware
4 procesadores (o 2 procesadores de doble núcleo) con un
mínimo de 2 GHz recomendado
RAM 16-18 GB recomendados
Requisitos de espacio en disco (no incluye sistema operativo)
20 GB para la instalación predeterminada con el idioma Inglés
solamente instalado
23 GB para la instalación predeterminada con todas las lenguas
Data Services Below is the Best practice
Data Services – Mejores Practicas
Paisaje Distribuido
http://service.sap.com/PAM
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Gestión de Usuarios en Data Services
Account name Description
Data Services Administrator Los miembros de este grupo tienen acceso a todas las funciones de administración de Data Services.
Data Services Multi-user Administrator Miembros de este grupo se limitan a la gestión de repositorios centrales seguras. Este papel es un subconjunto de la función de
administrador de Data Services. Los Administradores Multi-usuario pueden:
Data Services Profiler Administrator Los miembros de este grupo se limitan a la gestión de repositorios de perfil. Este papel es un subconjunto de la función de
administrador. Los Administradores Profiler pueden::
Data Services Designer Members of this group have access to the Designer. Note that application rights and repository security rights are two separate sets
of rights.
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Administración de Repositorios
Antes de que pueda acceder a los repositorios de Data Services desde otros componentes
como Designer y Management Console, debe configurarlos adecuadamente.
En general, se sigue este flujo de trabajo para configurar un repositorio de Data Services.
1. Crear base de datos en el motor usado en la instalación.
2. Crear el repositorio en una base de datos usando el Repository Manager.
3. Registrar el repositorio en el Central Management Console (CMC).
4. Administrar la configuración de seguridad para el repositorio en el CMC.
3y4
1
2
Administración de Repositorios
Pasos para crear el repositorio en CMC.
1. Ingresar al CMC
2. En “Organice Column” dar clic en Data Services
3. Respecto los repositorios:
a) Si un repositorio local se configura durante la instalación del Job Server de Data Services,
será visualizado en el CMC.
b) Si añade un repositorio local después de la instalación con el Administrador de repositorio,
este no se agregará automáticamente a CMC y se deberá agregar de forma manual.
4. Para añadir un repositorio de Data Services en el CMC realice lo siguiente:
a) Haga clic en Administrar> Configurar repositorio
b) Haga clic en el icono Configurar un nuevo repositorio de Data Services
c) Haga clic en la carpeta Repositories y haga clic en Configurar repositorio
i. Introduzca un Nombre de repositorio.
ii. Opcionalmente, introduzca una descripción.
iii. Seleccione la lista aplicable en el tipo de base de datos desplegable.
iv. Introduzca los detalles de conexión. Los datos requeridos son la base de datos
dependiente.
v. Si el repositorio es un repositorio de perfiles Set es Profiler Repositorio a Sí.
vi. Introduzca el anfitrión Profiler Nombre del servidor
vii. Introduzca el puerto del servidor de perfiles
viii. Haga clic en Probar conexión.
ix. Haga clic en Aceptar.
x. Clic en Guardar.
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
SAP DS 4.2
Al_engine admite opciones que se utilizan sólo para las operaciones de exportación e
importación. Al_engine puede importar y exportar información del repositorio en dos formatos:
XML y ATL, lenguaje de scripting interno del software.
Parameter Description
-X Exports the entire repository in ATL format to repo_export.atl.
Nota: Al exportar objetos, debe especificar una contraseña, ya sea con el parámetro -passphrase
o el parámetro -epassphrase. Al importar objetos, la frase de paso es opcional. Sin embargo, si
no se especifica una contraseña, o la frase de contraseña especificada es incorrecta, se
eliminarán todas las contraseñas encriptadas en los objetos importados.
SAP DS 4.2
Tipos de código disponibles para exportación
SAP DS 4.2
Definición
Arquitectura
Componentes
Recomendaciones Hardware/Software
Usuarios y Perfiles
Administración de Repositorios
Importación/Exportacion de Contenido
Respaldos y Planes de recuperación
Respaldo SAP DS 4.2
Copia de seguridad de los repositorios, archivos de configuración y archivos de
Data Cleanse.
Un Job batch puede contener los Se puede ejecutar Jobs batch para recuperar
siguientes objetos: automáticamente tareas no se ejecutadas
Data flows correctamente. Específicamente, el software
• Sources recupera los resultados de los siguientes tipos de
• Transforms pasos:
• Targets Work flows
Work flows Data flows
Scripts Script statements
Conditionals Custom functions (stateless type only)
Try/catch blocks SQL function
While Loops EXEC function
get_env function
rand function
sysdate function
systime function
Batch Job en Data Services
Asegúrese de que sólo una instancia de un trabajo se ejecuta a la vez.
Usted puede prevenir varias instancias de un funcionamiento de trabajo marcando la casilla
instancia individual en la ventana Propiedades. Cuando se selecciona la casilla de
verificación de instancia única, el sistema cancelará todas las instancias adicionales del
trabajo mientras la instancia actual se está ejecutando. En la Consola de administración, en
la ficha Estado del trabajo por lotes, aparece una X roja junto a la segunda instancia de la
tarea.
Real-Time Job en Data Services
Un Job en tiempo real tiene los mismos atributos incorporados como un trabajo por lotes:
Nombre, Descripción y Fecha de creación.
Al igual que Jobs batch, los Jobs en tiempo real utilizan la depuración y traza de
propiedades para determinar qué información del software se recopila y numero de
registros cuando se ejecuta el trabajo. Sin embargo, los trabajos en tiempo real no se
habilitan opciones de depuración de recuperación.
Real-Time Job en Data Services
Se crea un Job de tiempo real en el Diseñador y luego configurar en el administrador como
un servicio en tiempo real asociado a un servidor de acceso a la consola de gestión. Esta
demostración le explicará brevemente la configuración de la consola de gestión.
Podemos ejecutar el trabajo en tiempo real desde cualquier herramienta de terceros
usemos SOAPUI (herramienta de terceros) para demostrar nuestro trabajo en tiempo real.
A continuación se muestra la pantalla de trabajo por lotes se utiliza para crear una tabla de
ejemplo en la base de datos (primer flujo de datos) y crear el archivo de destino XML
(segundo flujo de datos). El archivo de destino XML (Creado en el segundo flujo de datos) se
puede utilizar para crear la fuente del mensaje XML en el trabajo a tiempo real.
Creación de un Job
2. Desarrollo de SAP DS 4.2
Objetos de DS
Recomendación de Desarrollo
Nomenclaturas
Fuentes de Datos
Desarrollos Multi-User
Bulk Loaders
Cargas Batch/Real-Time
Cargas en Paralelo
Cargas en Memoria
Revisiones Rapidas de Desarrollo
Jobs Programados
Ejecuciones Múltiples de un Job en Data Services
Data Services admite la ejecución de varias instancias del mismo Job en paralelo. Sólo el
diseño de su Job va a limitar lo que se puede hacer. Por lo general, se podría agregar un
identificador para los datos que se procesan para que no interfiriera con los datos de otras
instancias.
Se puede controlar por medio de la base de datos la duplicidad de estas ejecuciones, esto
es. Puede ejecutar un mismo Job, pero con diferentes parámetros.
2. Desarrollo de SAP DS 4.2
Objetos de DS
Recomendación de Desarrollo
Nomenclaturas
Fuentes de Datos
Desarrollos Multi-User
Bulk Loaders
Cargas Batch/Real-Time
Cargas en Paralelo
Cargas en Memoria
Revisiones Rapidas de Desarrollo
Jobs Programados
Cargas en Memoria en Data Services
Data Services admite la ejecución de varias instancias del mismo Job en paralelo. Sólo el
diseño de su Job va a limitar lo que se puede hacer. Por lo general, se podría agregar un
identificador para los datos que se procesan para que no interfiriera con los datos de otras
instancias.
2. Desarrollo de SAP DS 4.2
Objetos de DS
Recomendación de Desarrollo
Nomenclaturas
Fuentes de Datos
Desarrollos Multi-User
Bulk Loaders
Cargas Batch/Real-Time
Cargas en Paralelo
Cargas en Memoria
Revisiones Rapidas de Desarrollo
Jobs Programados
Transformaciones en Data Services
Platform Transform
Transformaciones en Data Services
Se construye un Job desde inicio para visualizar el principal componente “Query”
transform y dar seguimiento a el mapeo y transformaciones que se pueden hacer
dentro de este componente.
Transformaciones en Data Services
Case Transform
Nos permite cambiar el código de operación para los registros. El código de operación
utiliza una bandera que indica cómo se aplica cada fila en blanco.
Transformaciones en Data Services
Merge Transform
Permite unir los datos de dos o mas tablas en una fuente de datos.
Transformaciones en Data Services
Row_Generation Transform
No hace nada más que la generación de una fila tras otra en INTEGER (consecutivo
numerico).
Transformaciones en Data Services
SQL Transform
Cuanto se tiene que cargar grandes cantidades de datos a través de un servicio web o una
BAPI pero tampoco desea cargar un registro a la vez ni se puede hacer una gran llamada con
todos los datos. La solución es XML_MAP.
Transformaciones en Data Services
Data Integrator Transform
Transformaciones en Data Services
Data_Transfer Transform
Cada vez que la funcionalidad de flujo de datos requiere múltiples tabla de destino, la
adición de un Data_Transfer (con tipo de transferencia = Tabla) entre la consulta y las tablas
de destino podrían ayudar en la solución de los problemas de rendimiento. El escaneo
completo de tabla (seguida por otras operaciones de procesamiento y de inserción de la
base de datos DS) ha sido sustituido por tres insertos (con sub-select) que están
completamente haciendo un Push Down a la base de datos.
Transformaciones en Data Services
Date_Generation Transform
Genera rango de fechas.
Transformaciones en Data Services
Effective_date Transform
Genera una columna adicional con la fecha efectiva, basada en una primary key’s “effective date”
IN
OUT
Transformaciones en Data Services
Hierarchy_flattening Transform
La History Preserving permite producir una nueva fila en la meta en lugar de actualizar una
ya existente fila. Podemos indicar en qué columnas del _ identifica los cambios que se
conservan.
Transformaciones en Data Services
Key_Generation Transform
Se utiliza para generar claves artificiales para nuevos registros en una tabla.
Transformaciones en Data Services
Map_CDC_Operation Transform
Se utiliza para apoyar la captura de cambio de datos relacional o una unidad central (CDC).
Transformaciones en Data Services
Pivot Transform
Pivot transform crea una nueva fila para cada valor en las columnas que identificamos como
columnas pivote.
Puede reorganizar los datos en una forma más simple y manejable, con todos los datos en
una sola columna, sin perder la información de categoría.
Transformaciones en Data Services
Reverse_Pivot Transform
Ayuda a comparar dos conjuntos de datos y genera la diferencia entre ellos como un
conjunto de datos resultantes establecidos con filas marcadas como INSERT, UPDATE o
DELETE.
Transformaciones en Data Services
XML_Pipeline Transform
XML Pipeline es una lógica readymade en forma de transform que ayuda a extraer la parte
de datos XML de forma dinámica.
2. Desarrollo de SAP DS 4.2
Objetos de DS
Recomendación de Desarrollo
Nomenclaturas
Fuentes de Datos
Desarrollos Multi-User
Bulk Loaders
Cargas Batch/Real-Time
Cargas en Paralelo
Cargas en Memoria
Revisiones Rapidas de Desarrollo
Jobs Programados
Jobs Programados en BODS 4.2
Gracias
Marco Antonio Contreras
marco.contrerasp@intellego.com.mx