Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Uso de la metodología Hefesto para un Data Mart en el proceso de ventas de una MYPE,
2022
Integrantes
Docentes
Lima, Perú
2022
1. Problema de Investigación
3. Justificación
En este contexto, Existen muchas metodologías que hacen que los almacenes
de datos puedan ser implementados de manera fácil, para el análisis histórico y actual
de la empresa, que permita a las partes interesadas conocer la situación de la empresa,
con el objetivo de tomar una decisión idónea [5]. Además, cabe mencionar que el uso
de herramientas de IN brinda a las empresas ventajas competitivas, las cuales ayudan
a fortalecer y competir con otras organizaciones que llevan más años en el mercado.
Por lo tanto, para llevar a cabo el mejoramiento de este proceso de toma de decisiones
se justipreciaron la eficiencia de metodologías de IN para juntar, perfeccionar y
transformar la información desestructurada. Se encontraron estudios que avalan la
eficiencia de la metodología Hefesto. En [6] se detalla que es una metodología propia,
cuya propuesta está basada en una amplia investigación, comparando muchas
otras metodologías existentes y experiencias propias en la creación de almacenes de
datos. Dicho esto, podemos decir que Hefesto es una metodología consistente que
sirve para la elaboración de un DM o de un DW, esto puede dividirse en 4 fases; La
primera fase es el análisis de requerimientos, como segunda fase tenemos el análisis
de los OLTP, en la tercera fase tenemos el modelo lógico del DM o DW y como
ultima fase esta la integración de datos; con esto logramos establecer todas las
necesidades principales de los actores del sistema, e identificar las fuentes de datos de
forma precisa, asimismo, con la creación del modelo de datos que se requiera
utilizar [7].
En ese sentido, los objetivos y resultados obtenidos por cada fase de esta
metodología son simples de comprender y cada una es autónoma de la otra, asimismo,
estos criterios cumplen con todas las expectativas que solicite el usuario, por lo tanto,
cualquier cambio que pueda presentar la entidad se da de manera fácil, así también,
acortando la resistencia al cambio. Esto ayuda mucho a la creación del Data Mart, ya
que podremos tener cambios notorios en corto tiempo. En [8] se menciona que es de
gran ventaja el uso de esta metodología, ya que, a diferencia de otras metodologías,
esta especifica cada uno de los pasos que se deben realizar de manera puntual.
Comparando con [3], menciona dos conceptos que describen bien el uso de un
DM y un DW y son importantes mencionar, por un lado, la metodología de Bill
Inmon, recalca que los Datamart se benefician de un DW para obtener la información
almacenada de una manera estructurada dentro de un modelo relacional, modelo
también conocido como enfoque top-Down. Por otro lado, la metodología de Ralph
Kimball proyecta una visión dimensional para el diseño de un DW, y asegura que la
unificación de todos los DM forma el DW, y esto a su vez es también conocido como
el enfoque bottom-up.
De lo descrito anteriormente se identifican que la metodología Inmon detalla
que los Data Mart (DM) trabajan de manera independiente del Data Warehouse (DW);
sin embargo, la metodología de Kimball menciona que los DM dependen del DW y la
metodología Hefesto realiza una combinación de las dos metodologías (Inmon y
Kimball), lo cual permite implementar el DW a partir de requerimientos de los
usuarios para realizar la construcción de un esquema lógico y la definición del
proceso ETL [9]. Por esta razón, el trabajo realizado será en base a la metodología
Hefesto.
Por esta razón, En [10] justifica la eficiencia de la metodología Hefesto y
menciona que sus características y el propio método es muy fácil de utilizar y aplicar
para realizar el modelado multidimensional a cualquier base de datos que tenga una
estructura relacional. Esto es cierto, ya que esta metodología facilita mucho la
construcción de un Data Mart (DM), este puede ser muy útil para apoyar a un área
específica fortaleciendo los procesos que se evalúan, así mismo, reduciendo el tiempo
para la elaboración de reportes y la mejora en el proceso de toma de decisiones.
Complementando lo anterior, un paso muy crucial que tiene Hefesto es la
última etapa que habla del modelo lógico, el cual trata de poblar los datos en las tablas
previamente definidas, mediante el proceso ETL, de manera que se almacenen los
datos en el DM de manera estructurada y sin ningún fallo.
Por otro lado, cabe recalcar que la función del proceso ETL, es poder integrar
los datos recolectados de las distintas fuentes proporcionadas por la entidad, de
manera que se transformen esos datos para ser cargados en el Data Mart, En ese
sentido, se recomienda el uso de herramientas ETL para agrupar todos los datos
almacenados para así formar el Data Mart.
5. Marco teórico
6. Hipótesis
6.1. Hipótesis General
7. Metodología
7.1. Enfoque de la investigación
El enfoque metodológico que toma la presente investigación es cuantitativo,
ya que está basado en una perspectiva positivista, verificando de manera objetiva el
estado actual de la empresa y analizando estadísticamente el objeto de estudio para
probar una hipótesis. El enfoque adoptado en la presente investigación se encuentra
sustentada en [2], donde los autores mencionan que existe evidencia comprobadas
estadísticamente que el promedio de los datos reales es igual al promedio de los datos
calculados, por ello concluyen que el modelo de pronóstico es aplicable.
El uso de este método tendrá como base la metodología Hefesto, ya que esta es
muy eficaz y utilizada en muchas organizaciones. Hefesto está constituida por 4 fases
fundamentales y cada fase contiene una serie de puntos que se deben realizar.
Como primera fase está el análisis de requerimiento, esta fase trata
básicamente de la recopilación de información para generar las preguntas y poder
analizar los requerimientos del proceso de ventas, esta información se recopila a
través de cuestionarios, entrevistas, observaciones, etc. Así mismo, se realiza la
identificación de indicadores y perspectivas de análisis, haciendo uso de la
información recopilada. Seguidamente se procede a realizar la construcción del
modelo conceptual, este modelo se realizará a partir de las perspectivas e indicadores
que se identificaron en el punto anterior, a partir de este modelo conceptual se podrá
identificar el alcance del proyecto para poder trabajar sobre ello.
Como Segunda fase está el análisis de los OLTP, en esta fase se examinará los
OLTP que contengan información requerida, de esa manera se podrá identificar la
correspondencia entre la fuente de datos y el modelo conceptual que se construyó en
la fase anterior.
Como tercera fase está la elaboración del modelo lógico DW, en esta fase se
procede a diseñar las tablas de hechos y dimensiones. Para diseñar las tablas de
dimensiones se procederá a tomar cada perspectiva con sus atributos relacionados, se
le asignará un nombre que identifique la dimensión, se asignará la clave principal a un
campo, etc. Así mismo, se procederá a diseñar las tablas de hechos, éstas son aquellas
que van a contener los indicadores del estudio. Finalmente se procederá a realizar las
uniones entre esas tablas.
7.6. Población
La población considerada en esta investigación será 20 subprocesos del
proceso de ventas. Según [11] afirma que la población es el conjunto de casos que
tengan relación con la cantidad de especificaciones que le demos a la investigación.
7.7. Muestra
Para esta investigación la muestra será para 20 subgrupos del proceso de
ventas. Según [11] indica que cuando la población es menor a 50 se toma la misma
cantidad para la muestra, asimismo, toda investigación tiene que ser transparente para
que sea explicito todo el proceso de selección de la muestra, sin considerar esto se
encuentra vulnerable a criticas y replicas.
ORIGEN DEL
TIPO CATEGORÍA RECURSO DESCRIPCIÓN MONTO
RECUSO
Licencia de powerBI
datos
usar las
Recursos necesarios Software Visual Studio Recursos propios S/99.09
herramientas de
Visual Studio.
[3] W. Castillo Rojas, M. Quispe Fernando, and M. Francisco Fariña, “Una Metodología para
Procesos Data WareHousing Basada en la Experiencia”, RISTI - Revista Ibérica de Sistemas
e Tecnologias de Informação, vol. 26, pp. 83-103, Feb. 2018, doi: 10.17013/risti.26.83-103.
[4] Q. Medina, M. Fernando Fariña, Francisco, and W. Castillo Rojas. “Data Mart para
obtención de indicadores de productividad académica en una universidad”, Ingeniare.
Revista chilena de ingeniería, vol. 26, pp. 88-101, Nov. 2018, doi: 10.4067/S0718-
33052018000500088.
[5] G. Silva Peñafiel, V. Zapata Yánez, K. Morales Guamán, and L, Toaquiza Padilla,
“Análisis de metodologías para desarrollar Data Warehouse aplicado a la toma de
decisiones”, Ciencia Digital, vol. 3, n°3.4, pp. 397-418, Sep. 2019, doi:
10.33262/cienciadigital.v3i3.4..922.
[6] R. Bernabeu and M. Garcia Mattío. (2017, Sep 28) “Hefesto data warehouing”. (3rd ed.)
[Online]. Available: https://troyanx.com/Hefesto/
[7] A. Arencibia Morales, and D. Castellano Pérez, “Herramienta informática para la toma
de decisiones de las Reacciones Adversas a Medicamentos en Cuba”, Revista Cubana de
Ciencias Informáticas, vol. 10, n° 3, pp. 144-158, Sep. 2016.
[8] X. Orellana, and L. Pauta, “Diseño de un Almacén de Datos utilizando metodología
HEFESTO. Caso de estudio: “Divorcios del año 2016 en el Ecuador"”, Convergence Tech,
[10] E. Casas Huamanta, and D. Camas Huamán, “Proceso de transformación de una base de
datos relacional a modelo multidimensional haciendo uso de la metodología Hefesto para la
elaboración de un Datamart”, Revista de Investigación Ciencia, Tecnología y Desarrollo, vol.
2, pp. 67–76, Jun. 2016, doi: 10.17162/rictd.v2i1.632
Cualquier duda al marcar uno de los siguientes criterios puede dirigirlas al Comité de Ética en la Investigación
comiteetica@utp.edu.pe
CRITERIO Marcar X
a. Estudios experimentales o cuasi experimentales en seres humanos, animales o plantas.
b. Estudios que involucren población vulnerable1.
c. Estudios que impliquen la utilización de muestras biológicas de origen humano.
d. Estudios que requieran la utilización de datos clínicos de seres humanos como sujetos de
investigación.
e. Que en su desarrollo causen posible daño al medio ambiente o a la cultura nacional.
f. Estudios que involucren a seres humanos dentro del campo educativo, psicológico y de
salud en los que no sea posible mantener el anonimato de los participantes, o estos sean
fácilmente identificables, o que aborden temas relacionados con:
- Conducta ilegal, adicción a drogas, conducta sexual, alcoholismo.
- Consulten sobre la intimidad o privacidad las personas naturales o jurídicas.
- Que no estén incluidos en los puntos a, b, c, d, e .
g. Estudios que involucren a seres humanos dentro del campo educativo, psicológico y de
salud que no incluyan información y datos que permitan identificar a los participantes y
que no estén incluidos en los puntos a, b, c, d, e, f.
h. Ninguna de las anteriores X
CALIFICACIÓN Marcar X
SI CORRESPONDE EVALUACIÓN ÉTICA, si la respuesta anterior fue a, b, c, d, e, f
CORRESPONDE EXONERACIÓN, si la respuesta fue g
NO CORRESPONDE EVALUACIÓN ÉTICA, si la respuesta anterior fue h X
1
Se considera población vulnerable a personas privadas de su libertad en instituciones penales, menores de edad, mujeres embarazadas,
personas adultas mayores, personas en situación de violencia explícita, personas con discapacidad física o mental, poblaciones en
extrema pobreza o indigencia, habitantes de calle o en situación de calle, personas dependientes o con tutores, personas en riesgo
de estigmatización y poblaciones LGTBI en riesgo de discriminación y/o comunidades nativas.
Revisado por:
Cargo Nombres y Apellidos Firma Fecha
Haga clic aquí
o pulse para
escribir una
fecha.
V1: Metodología Hefesto, Tomado - Palella y Martins (2012) Refieren cuando están en los
rangos 0,61 a 0,80 es alta, por ende, la prueba de confiabilidad para la muestra piloto es
confiable procediendo a realizar la muestra total.
Estadísticas de fiabilidad
Alfa de Cronbach N de elementos
.703 15
V2: Proceso de ventas, Tomado - Palella y Martins (2012) Refieren cuando están en los
rangos 0,81 a 1 es muy alta, por ende, la prueba de confiabilidad para la muestra piloto es
confiable procediendo a realizar la muestra total.
Estadísticas de fiabilidad
Alfa de Cronbach N de elementos
.908 15