Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Módulo 1. Introducción a
los conceptos de Business
Intelligence
1.1.1 Datawarehouse
El datawarehouse es uno de los componentes más destacados de la arquitectura
de business intelligence.
El datawarehouse es un repositorio de datos, integrado, no volátil, variable en
el tiempo y orientado al negocio (Inmon, 1992).
Integrado: la información proviene de sistemas heterogéneos, como ser base
de datos, sistemas transaccionales, archivos de textos, planillas de cálculos,
etcétera.
No volátil: los datos almacenados perduran en el tiempo (no es necesaria la
depuración).
Variable en el tiempo: es un repositorio de información histórica. El tiempo en
el cual son conservados los datos es mucho mayor que en sistemas
transaccionales o bases de datos tradicionales.
Orientado al negocio: los datos se organizan de manera tal que reflejan la
estructura que posee el negocio. El nivel de detalle a ser almacenado en el
datawarehouse se determina según las necesidades de información que tenga
el negocio.
El Datawarehouse está constituido con una organización interna (a nivel físico)
que facilita la administración y procesamiento de grandes volúmenes de datos,
1
con el objetivo de poder dar respuesta a las necesidades que posee el
negocio para la toma de decisiones (Kimball, 1996).
Figura 1: Ejemplo de fuentes de un datawarehouse
Fuente: elaboración propia
1.1.2 OLAP
OLAP es un acrónimo inglés que significa procesamiento analítico en línea (On-Line
Analytical Processing).
Debido a su conformación interna, y mediante la utilización de estructuras
multidimensionales, permite el almacenamiento de grandes volúmenes de
información que pueden ser consultados con tiempos de respuesta mucho
mejores que las bases de datos tradicionales.
Dependiendo del tipo de implementación física que se utilice, los sistemas
OLAP se dividen en ROLAP, MOLAP y HOLAP.
ROLAP (OLAP relacional): la implementación se realiza sobre bases de datos
relacionales. Los datos se estructuran utilizando distintas técnicas que tienen
como principal objetivo obtener fluidez y rapidez en las consultas que se
realicen. Algunas de las técnicas consisten en la desmoralización de las tablas
que almacenan la información, mayor redundancia de los datos y modelado
en estructuras que ayudan a obtener mejores tiempos de respuesta.
2
3
Fuente: elaboración propia.
4
Data mining, por su parte, utiliza software especializado en el procesamiento
de grandes volúmenes de información, cuyos resultados se obtienen en un corto
período. Sin embargo, el rol del experto en estadística sigue siendo necesario,
no para el procesamiento de los datos, sino para la interpretación de los
modelos resultantes.
Existen dos tipos de modelos para la aplicación de técnicas de data mining:
● Clasificación: mediante la aplicación de técnicas, condiciones o reglas
se busca obtener modelos que permitan dividir o relacionar en forma
lógica el universo de datos de estudio. Algunas de las técnicas más
conocidas en este tipo de modelos son las siguientes:
● Árboles de decisión.
● Teorema de Bayes.
● Redes neuronales.
● Basadas en asociaciones.
● Predicción: mediante la construcción de un modelo que surge del
aprendizaje o entrenamiento en base a datos históricos y conocidos, se
busca encontrar o predecir los datos futuros o desconocidos. Algunas
de las técnicas más conocidas en este tipo de modelos son las
siguientes:
● Regresión lineal.
● Regresión múltiple.
● Regresión logarítmica.
El proceso por el cual se realiza el estudio de data mining se denomina
proceso de descubrimiento del conocimiento (knowledge discovery in
database, KDD).
En la figura 3, puede observarse el proceso y cada uno de sus componentes:
● Determinación de objetivos:
¿Por qué se realiza el estudio y qué se espera obtener?
¿Cuáles son los datos que serán procesados y de dónde se obtienen?
¿Existe alguna regla que es necesario aplicar?
● Preparación de los datos:
Selección de la información: ¿Cuál es el conjunto de datos que se va a utilizar?
Preprocesado: se analiza qué tan sanos y completos están los datos. Se define
qué acciones se van a tomar con aquellos que sean erróneos.
5
Transformación y reducción: Se aplican las reglas de limpieza, llenado de
información faltante y corrección de errores. También, en el caso de ser
necesario, se reduce la información a ser utilizada.
● Data mining:
Se seleccionan las técnicas a aplicar según el objetivo del estudio.
Se determina el algoritmo a utilizar.
Se pone a prueba el algoritmo seleccionado y se analizan los datos obtenidos.
En el caso de no aproximarse a lo esperado, se vuelve a seleccionar otra
técnica u otro algoritmo y se repite el proceso.
● Evaluación:
Se visualizan los datos obtenidos.
Se eliminan los datos y patrones redundantes.
Se analiza si lo datos obtenidos proveen información para la toma de
decisiones.
● Uso del conocimiento:
Los patrones obtenidos se aplican a nueva información y se procede a
ponerlos disponible para su utilización.
Se guardan los patrones obtenidos en la base de conocimiento para que
sirvan de entrada en futuros estudios.
Figura 3: Proceso de descubrimiento del conocimiento
6
7
A modo de referencia, en la tabla 1 se ejemplifican distintas aplicaciones y
preguntas que pueden resolver cada una de estas técnicas.
Tabla 1: Análisis OLAP frente a Data Mining
8
Figura 5: Compontes de la arquitectura de business intelligence
Fuente: elaboración propia.
9
Fuente: Adaptado de Microstrategy Analytics Platform, 2014. Recuperado de
http://goo.gl/vXNWJ0
● Analizar:
o Análisis predictivo: comprende los procesos y metodología de data
mining.
o Análisis OLAP: comprende todas las técnicas de procesamiento de
información, utilizando cubos de información OLAP.
o Data discovery: comprende un conjunto de herramientas que tienen
como objetivo poner como disponible la información en diferentes
elementos de explotación (gráficos, filtros, etc.) de rápido acceso y de
fácil entendimiento.
10
● Monitorear:
o Reporting: comprende un conjunto de elementos tradicionales de
explotación de información, como ser grillas, gráficos y documentos.
o Tableros: comprende un conjunto de elementos avanzados de
visualización de información, con el objetivo de acceder en forma rápida
a los datos claves de negocio. Generalmente, se asocian a los conceptos
de indicadores o KPIs.
● Actuar:
o Alertas: comprende un conjunto de técnicas que utilizan distintos
disparadores (tiempo, eventos, resultado de una medición), que envían
información en forma proactiva sobre la situación de determina medida
de negocio.
o Transacciones: comprende un conjunto de herramientas que permiten
interactuar con la información presentada, ingresando datos y actuando
sobre el resultado de éstos.
1.2.3 Desafíos de Business intelligence
● Tener una única verdad: Una de las claves de las organizaciones es
que la información fluya en forma ordenada y normalizada. Esto
significa que las cifras sobre determinada medida deben interpretarse
de la misma manera por cualquier integrante de la organización. Esto
evitará las discusiones sobre el origen y procesamiento de la
información, dedicando ese tiempo a analizar el negocio y cómo
impacta esa medida. Si se sigue adelante en el ejercicio de
planeamiento estratégico de los recursos humanos, se debería llegar a
un esquema como el siguiente:
● Lograr una visión integral del negocio: toda organización está dividida en
diferentes componentes según su funcionalidad (unidades de negocio,
11
departamentos, gerencias, sectores, etcétera). En muchas oportunidades, esto
nos lleva a tener una visión de islas o silos de información, por lo que se
desaprovecha la integración y la posibilidad de ver todo como un conjunto.
● Poder acceder a la información en el momento que la necesito: se dice
habitualmente que las decisiones de negocio no pueden esperar, y en este
sentido los usuarios de negocio deberían poder acceder a la información
cuando lo requieran y con el grado de detalle que lo necesitan. Ya no se
hablan de tiempos de procesamientos medidos en segundos, minutos u horas,
ahora se indica que la información debe viajar del origen al destino tan
rápida como el negocio lo requiera.
12
Esta clasificación antes mencionada en el Cuadrante Mágico de Gartner (2016)
se actualiza año a año, y cada una de las herramientas se posiciona en cada uno
de estos cuadrantes de acuerdo a su desempeño.
Figura 6: Cuadrante mágico de Gartner
Otra clasificación que podemos abordar es un resumen de acuerdo a los estilos de
business intelligence antes estudiados, es así como podemos evaluar a las
herramientas en lo detallado a continuación:
● Herramientas de reporting, dashboard y scorecard.
● Herramientas de data Discovery.
● Herramientas de data mining.
● Herramientas de big data: esta no forma parte de los estilos de BI
definidos hasta el momento, pero su uso se está expandiendo.
En los gráficos siguientes se ejemplifican algunas de estas soluciones.
Figura 7: Reporting
13
Fuente: Adaptado de The 5 Styles of Business Intelligence, Microstrategy (2002). (Traducción
Propia)
Figura 8: Dashboard y scorecard
Fuente: Adaptado de Microstrategy Analytics Platform (2014). Recuperado de
http://goo.gl/vXNWJ0
14
15
Referencias
[Imagen intitulada sobre Markahall] (S.f.). Recuperado de
http://2.bp.blogspot.com/-miaU0wprBAg/T_T-pm3aEFI/AAAAAAAAACU/tAG1yiu
depU/s640/R2.png
[Imagen intitulada sobre SPSS]. (S.f.). Recuperado de http://goo.gl/W9J5ZL
[Imagen intitulada sobre Statsoft] (S.f.). Recuperado de
http://www.statsoft.nl/images/screenshot1.gif
Barrón, F. (2014). Big Data filos (un ejemplo). [Imagen]. Recuperado de
http://stf.filos.unam.mx/2014/04/big-data-filos-un-ejemplo/
BBVA (2015). Ejemplos reales del uso de Big Data. [Imagen]. BBVA. Recuperado
de
http://www.centrodeinnovacionbbva.com/noticias/ejemplos-reales-del-uso-de-
big-data
Garnet en Parenteau J. et al., (2016). Magic Quadrant for Business Intelligence
and Analytics Platforms. [ Imagen]. Recuperado de
https://www.gartner.com/doc/reprints?id=1-2XXET8P&ct=160204
Information Builders ( S.f.). Self-Service Data Discovery with InfoAssist+.
Information Builders. Recuperado de
http://www.informationbuilders.com/products/webfocus/data-discovery
Inmon, W. (1992). Building the DataWarehouse. Estados Unidos: Wiley.
Kimball, R. (1996). The Data Warehouse Toolkit: The Definitive Guide to
Dimensional Modeling.
Predictive Analytics Today ( S.f.). Data discovery and visualization using SAP
Lumira Edge Edition. ecuperado
R de
http://www.predictiveanalyticstoday.com/data-discovery-and-visualization-using
-sap-lumira-edge-edition/
SAS. The Power to know. (2016). Recuperado de
http://www.sas.com/en_gb/software/business-intelligence/visual-analytics.html
Timothy King (2016). T IBCO Updates Spotfire with Simple Data Discovery.
Solutions Review. Recuperado de
16
http://solutionsreview.com/business-intelligence/tibco-updates-spotfire-with-si
mple-data-discovery/
Urman M. (S.f.). Data Mining & Advanced Analytics Expandiendo el alcance de
sus modelos predictivos. Microstrategy Analytics Platform. R
ecuperado de
http://www.austral.edu.ar/ingenieria-posgrados/wp-content/uploads/2014/10/
Microstrategy-Mariano-Urman.pdf
Yobene ( 2013). I n-Memory analysis and reporting drives simplicity and
performance. Yobene. Recuperado de
http://www.yobene.com/Live/en_qlikview.Yobene?ActiveID=1239
17