Documentos de Académico
Documentos de Profesional
Documentos de Cultura
HIPOTESIS
El desarrollo de una nueva ETL
implementando la analitica de datos para
indentificar los envios de los clientes
certificados en pesos y medias, ayudara
en el aseguramiento de la informacion de
los envios y evitara reprocesos de
verificacion de pruebas de entrega en
area de prefacturacion
TARGET GROUP
OBJETIVO GENERAL
Generar una propuesta para que la
información que llegue al área de
prefacturación sea la misma con la que
se generaron los envíos en su respectivo
canal origen; Empleando analítica de
datos y proceso de transmisión la
información de manera eficiente;
Evitando reprocesos y cobros no
pactados con clientes certificados en
pesos y medidas; para los años 2022 -
2023
CONCEPTOS MACRO OBJETIVOS ESPECIFICOS
A) Que versión de SQL server se va a manejar para la utilización para crear la ETL
B) La ETL debe tener control de envíos de mensajes si por algún motivo falla
F) Se generar un proceso que se ejecutara para evitar perdida de información, la cual com
destino y replicara la información faltante o alguna modificada.
Encuesta auxiliar área MERF (área que genera prefacturas)
A) Al día que porcentaje de pruebas de entrega tiene que revisar para corroborar datos de
B) Cuanto tiempo aproximado gasta en verificar la prueba de entrega contra los datos del e
C) Se han tenido que anular prefacturas porque se realiza un cobro superior con clientes c
información no corresponde a lo pactado.
D) Cuantas prefacturas se tienen que anular cuando no se respeta los cobros pactados co
E) ¿Sería posible generar prefacturas de clientes certificados mientras los envíos se encue
C) En un porcentaje indique cuantos envíos no se tiene que tomar peso y medidas, esto en
i) Cual o cuales deben ser las tablas origen para la obtención de la información de los
clientes certificados
j) Cada cuanto debe correr la ETL, cada ejecución en intervalos de x minutos.
k) Que tanta información se debe procesar en cada ejecución para evitar bloqueos en
base de datos.
l) Para la creación de las tablas, se debe tener en cuenta los tipos de variables que se
debe utilizar para cada campo, se tiene un pronostico de cuantos datos se van a
almacenar cada semana, esto para determinar las variables correctas para evitar fallos
en las ejecuciones de la ETL
m) Que índices se deben crear para que al momento de consultar la información sea
más eficiente.
n) Para la obtención de la data se van a utilizar sentencias DISTINCT o TOP, tener en
cuenta que estas sentencias pueden producir lentitudes, en caso de no ser así, indicar la
forma más eficiente.
o) En que servidor se debe alojar la ETL, para así mismo poder realizar seguimiento a
cada ejecución.
p) Se van a manejar servidores intermedios para refinar la información.