Está en la página 1de 81

Inteligencia de

Negocios

Planeamiento Estratégico de la Información


2018
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL


FACULTAD DE INGENIERÍA ELECTRÓNICA E INFORMÁTICA
ESCUELA DE INGENIERÍA INFORMÁTICA

“INTELIGENCIA DE NEGOCIOS”
CURSO: Planeamiento Estratégico de la Información

DOCENTE: Dr. Ing. Edward José Flores Masías

INTEGRANTES:

JUAREZ CONTRERAS, Samuel


LAZO OSORIO, Sheyla Johana
MALON REYNA, Jeans Enrique
MARCHAND GÓNGORA, Claudia Aracelly

LIMA-PERÚ

2013

Página 2
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

ÍNDICE GENERAL

Índice 3
Introducción 5

CAPÍTULO I: BUSINESS INTELLIGENCE

1. ¿Qué Es El Business Intelligence? 7


2. Historia 11
3. Objetivo de Business Intelligence 11
4. Características 1Error! Bookmark not defined.
5. Evolución de Business Intelligence 13
6. Niveles de Realización de Business Intelligence 15
7. Elementos de Business Intelligence 15
8. Ventajas de Business Intelligence 16
9. Beneficios de Business Intelligence 16
10. Factores de Riesgos de Business Intelligence 18
11. Ciclos de Business Intelligence 18
12. Como hacer posible el Business Intelligence Error! Bookmark not defined.0

CAPÍTULO II: BUSINESS INTELLIGENCE EN LAS EMPRESAS


1. ¿Qué se puede hacer con BI? Error! Bookmark not defined.1
2. ¿Por qué Inteligencia de Negocios? 2Error! Bookmark not defined.
3. Áreas en donde se utiliza BI 23
4. ¿Cómo saber si una Empresa requiere una solucion BI? 24
5. ¿Quién necesita Soluciones BI? 25
6. ¿Qué tipo de Informacion puedo obtener? 27
7. Razones por las que invertir en BI 27
8. El Mejor análisis de BI 28
9. Modelo del Negocio 32
10. Decisiones Empresariales entorno a BI 35
11. Soluciones de BI mas reconocidas actualmente 37
12. Pasos para lograr un Proyecto de BI 39

Página 3
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO III: COMPONENTES DE BUSINESS INTELLIGENCE

1. Factores que influyen en BI 44


2. Factores que influyen a Nivel Organizacional 45
3. Componentes del BI 46
4 OLTP 47
5. OLAP 49
6. Data Mining 53
7. Data Mart 64
8. Data Warehouse 65
9. Arquitectura del Sistema Informatico de Soporte a la Decision 67

CAPÍTULO IV: BUSINESS INTELLIGENCE HOY Y MAÑANA

1. Business Intelligence en el presente 70


2. El futuro de Business Intelligence 71
3. La Inteligencia de Negocio en cualquier lugar y en cualquier momento 73
4 Casos de Business Intelligence 74
5. Ejemplos del mundo real de aplicación de Business Intelligence 74

Conclusión 76
Referencias Bibliográficas 64
Linkografía 77

Página 4
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Resumen
E n este ensayo nos hemos planteado el siguiente cuestionamiento: ¿Se puede considerar a
la Inteligencia de Negocios (BI) como una ventaja competitiva para las organizaciones? Se
señala y analiza las virtudes, ventajas competitivas y los beneficios del enfoque BI,
describiendo los componentes a tomar en cuenta al implantar una solución de BI así como las
aplicaciones de software de libre uso y acceso. Se explica la manera cómo la BI ayuda a los
gerentes de organizaciones a tomar decisiones que mejoren su rendimiento e impulsen su
ventaja competitiva en el mercado.

La BI esencialmente significa colocar información relevante en las manos de las personas que
toman decisiones en todos los niveles de la organización. Se soporta en sus componentes como
fuente de información, proceso de extracción, transformación y carga de los datos en el
datawarehouse y su visualización. Además, se nutre del área de la Computación que provee un
conjunto de herramientas y aplicaciones de software. BI es una ventaja competitiva para las
empresas con la que obtienen los beneficios tangibles, intangibles y estratégicos.

Página 5
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Introducción
En el presente módulo se ha estructurado algunos capítulos los cuales se describen a continuación:

Capítulo I. INTRODUCCIÓN A SOLUCIONES DE INTELIGENCIA DE NEGOCIOS.


Capítulo II. DATA WAREHOUSE Y DATA MARTS.
Capítulo III. DISEÑO Y CONSTRUCCIÓN UNA SOLUCIÓN DE INTELIGENCIA DE NEGOCIOS.

OBJETIVO

 Conceptualizar y caracterizar terminología de Inteligencia de Negocios mediante la revisión


de material de diferentes fuentes.

Página 6
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO I
INTRODUCCIÓN A BUSINESS
INTELLIGENCE

Página 7
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.1 Introducción

L
a información es la clave de nuestros tiempos para poder lograr una ventaja comparativa
en el mercado, el problema ha sido que muchas veces esta no logra ser bien
decodificada para separar aquella que no tiene utilidad con la que nos permita poder
generar escenarios, reportes y pronósticos para el futuro de nuestra empresa. La idea
principal del acumular información es que esta nos pueda ser de utilidad para la toma de
decisiones, a partir de esta necesidad nace el concepto de la “inteligencia de negocios”.

El BI es un conjunto de sistemas y metodologías que pueden ser enfocadas a diversas áreas de un


negocio, tales como ventas, finanzas, marketing, etc. Estos programas lo que hacen en esencia, es
transformar los datos existentes en su empresa en información valiosa y útil y a la vez esta
información transformarla en conocimiento, el que indicará los cursos de acción más
recomendables a seguir para la toma de decisiones.

En un nivel más técnico, podemos decir que este conjunto de metodologías, se traduce en la
identificación, análisis, registro y presentación de tanto las amenazas como las oportunidades que
influyen directamente a su empresa.
En lo concreto el BI se encarga de tomar todos los datos que han sido recopilados por una
compañía en el transcurso de los años, luego de un proceso de análisis, adquiere habilidades a
partir de las necesidades de esta, como por ejemplo, lograr que la empresa comprenda de mejor
manera el mercado de su entorno directo. Además de esto, tiene la capacidad de tomar el “capital
intelectual” de las personas que trabajan en la empresa para convertirlo en un recurso activo, para
optimizar el beneficio que traerá este en el futuro.

Lo más importante es que el sistema de BI nos permite hacer predicciones y detectar errores de
accionar, para así poder tomar decisiones de negocios a tiempo y así evitar consecuencias que
podrían ser perjudiciales o nefastas para un negocio.

Probablemente antes de 1996 resultaba impensable algún método que a partir de esos datos ya
acumulados, una entidad “no humana” pudiera ejercer una toma de decisiones instantáneas,
indicando los pasos más efectivos a seguir para resolver problemas típicos de una empresa, sin
necesidad de estar revisando una y otra vez cientos de informes de caso para recién ahí sacar
alguna conclusión y diseñar una estrategia.
Es en ese año cuando la empresa estadounidense Garner Group publicó un anunció que
revolucionaría la forma de comprender y analizar los datos de una empresa para desarrollar
estrategias de mercado. En este anuncio dictaba la necesidad de democratizar la información con
un conjunto de estrategias denominadas como “Inteligencia de negocios”, en el inglés Business
Intelligence más conocido como “BI”.

Un extracto de dicho escrito explica la relevancia que tendría el nuevo sistema:


“La clave para prosperar en un mercado competitivo es estar delante de la competencia. Tomar
decisiones empresariales basadas en información precisa y actual necesita más que intuición. El
análisis de los datos, informes y herramientas de consulta puede ayudar a los usuarios
empresariales a navegar a través de un mar de datos para sintetizar la información valiosa que hay
en cada uno de ellos…”

Página 8
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2. Inteligencia De Negocios


La Inteligencia de Negocios (Business Intelligence - BI) es un concepto que hace referencia a las
técnicas de análisis de datos destinados a encontrar información útil para la toma de decisiones,
incluido el conjunto del software que aportan las interfaces y funciones necesarias que apoyan
dicho proceso.

Descompongamos detalladamente esta definición:

 Proceso interactivo: al hablar de BI estamos suponiendo que se trata de un análisis de


información continuado en el tiempo, no sólo en un momento puntual. Aunque
evidentemente este último tipo de análisis nos puede aportar valor, es incomparable con lo
que nos puede aportar un proceso continuado de análisis de información, en el que por
ejemplo podemos ver tendencias, cambios, variabilidades, etc.

 Explorar: En todo proyecto de BI hay un momento inicial en el que por primera vez
accedemos a información que nos facilita su interpretación. En esta primera fase, lo que
hacemos es “explorar” para comprender qué sucede en nuestro negocio; es posible incluso
que descubramos nuevas relaciones que hasta el momento desconocíamos.

 Analizar: Pretendemos descubrir relaciones entre variables, tendencias, es decir, cuál puede
ser la evolución de la variable, o patrones. Si un cliente tiene una serie de características, cuál
es la probabilidad que otro con similares características actué igual que el anterior.

 Información estructurada y datawarehouse: La información que utilizamos en BI está


almacenada en tablas relacionadas entre ellas. Las tablas tienen
registros y cada uno de los registros tiene distintos
valores para cada uno de los atributos.

 Estas tablas están almacenadas en lo que


conocemos como datawarehouse o almacén
de datos. Más adelante lo definiremos con
mayor precisión, pero se trata de una base
de datos en las que se almacenan dichas
tablas.

 Área de análisis: Todo proyecto de BI


debe tener un objeto de análisis concreto.
Nos podemos centrar en los clientes, los
productos, los resultados de una
localización, etc. Que pretendemos analizar
con detalle y con un objetivo concreto: por ejemplo,
la reducción de costes, el incremento de ventas, el
aumento de la participación de mercado, el ajuste de previsiones de venta, el cumplimiento
los objetivos de venta presupuestados, etc.

 Comunicar los resultados y efectuar los cambios: Un objetivo fundamental del BI es que, una
vez descubierto algo, sea comunicado a aquellas personas que tengan que realizar los
cambios pertinentes en la organización para mejorar nuestra competitividad.

Página 9
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2.1. Evolución de la Inteligencia de Negocios


Los sistemas de información son bastante recientes si los comparamos con otras áreas de
conocimiento. Inicialmente, con la introducción de las computadoras en la década del 60, las
aplicaciones se corrían de forma individual en archivos maestros que almacenaban los datos en
medios magnéticos, con la limitante del acceso secuencial. El problema del acceso secuencial es la
necesidad de recorrer todos los registros antes de encontrar el que se está buscando. Además, al
almacenar operaciones individuales, pronto existió una cantidad enorme de cintas y medios de
almacenamiento con redundancia, que hacía difícil su administración.

En la década del 70, cuando aparecen los dispositivos de almacenamiento de acceso directo, se da
un gran paso en cuanto a la velocidad para acceder a los datos, pues con ellos las búsquedas ya no
eran lineales, sino directas. Junto con ello también aparecen sistemas de administración de bases
de datos (DBMS), cuyo propósito era facilitar al programador el acceso a la información al
encargarse del almacenamiento e índices. En ese entonces se definió a la base de datos como "una
fuente única de información para todo el procesamiento".

Tanto la implementación de las bases de datos para el procesamiento en línea como las nuevas
tecnologías y lenguajes de cuarta generación (4GL), proveyeron al usuario la facilidad de tener el
control directo de los sistemas y la información, dando origen a los primeros Sistemas de
Información formales. Pero también fueron el inicio del paradigma de una sola base de datos que
pudiera servir tanto al procesamiento operativo como al procesamiento de alto nivel.

La información almacenada en las bases de datos mantiene el registro total de lo que sucede en la
organización. Cuando un usuario operativo desea consultar transacciones unitarias o pequeños
grupos de transacciones, se puede acceder directamente y extraer la información en un lapso muy
breve (milisegundos); si la base de datos no es muy extensa, incluso un gerente puede también
realizar una consulta (vía Inteligencia de Negocios asistentes) que traiga información resumida
sobre muchos registros e, incluso, sobre toda la base de datos, los tiempos para consultas de ese
tipo son muy razonables (segundos). ¿Pero qué pasa cuando los datos sobrepasan los límites
permisibles para tener la información disponible?
Algunos de los factores causales de que las bases de datos se volvieran
poco operativas para consultas extensas son las fusiones, la
globalización, las alianzas, la diversificación de productos, el
crecimiento exponencial de las empresas y, en general, todas las
condiciones derivadas de la evolución natural de las
empresas que trajo consigo un aumento cuantitativo
de los datos que se necesitaba almacenar. A
esto hay que agregar que las
herramientas o software necesario para
obtener la información eran muy
especializados y rara vez una persona
que toma decisiones tenía el
background necesario para manipular
información.

La información primitiva se volvió muy


extensa y poco práctica para cierto
tipo de consultas, había que
desarrollar nueva tecnología que

Página 10
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

permitiera derivar información calculada o sumarizada para satisfacer las necesidades de la


administración, además, la información primitiva representa el valor actual, es utilizada y operada
en procesos repetitivos, por lo tanto, es posible su modificación. La información derivada no puede
ser actualizada porque, normalmente, contiene valores históricos, es operada y utilizada por
procesos que se ejecutan aleatoriamente. La información primitiva es operacional apoyando las
funciones de empleados de línea, la información derivada es para el soporte de decisiones que
normalmente apoya a administradores y ejecutivos.
Teniendo tantas diferencias es complicado entender que la misma información pueda residir en
una misma base de datos. De hecho así fue, la gente que toma decisiones demandó respuesta a sus
necesidades en los almacenes operativos encontrando muchas limitantes en tiempo y forma, a fin
de cuentas es posible satisfacer los requerimientos, pero no como los necesita quien toma
decisiones, la tecnología intervino para desarrollar arquitecturas especializadas para que resida la
información según su tipo y que sea operada por el software adecuado para desempeñar sus
funciones.

Inteligencia de Negocios (BI) es un concepto que se asocia 100% con los niveles directivos, surge de
la necesidad de contar con información para dirigir el rumbo de la empresa por los altos mandos,
sin embargo, con el tiempo se ha ido ampliando el alcance de este término hasta llegar
prácticamente a toda la empresa.

A pesar de relacionar completamente el término con conceptos 100% computacionales, sobre todo
las herramientas utilizadas para lograr implementar un desarrollo de este tipo, la verdad es que el
concepto no se construye basándose en herramientas computacionales, sino de la formulación de
estrategias efectivas de negocios que respondieran a los nuevos tiempos y sus demandas. El énfasis
es en los requerimientos y de ahí se desprenden las aplicaciones, es decir, los hombres de negocio
dictan las necesidades y la gente técnica investiga y adapta la tecnología para resolver
favorablemente esos requerimientos con todos los medios a su alcance. BI se plantea una sinergia
entre los Tomadores de Decisiones y las herramientas que emplean, la tecnología está claramente
vinculada al management de las empresas, teniendo como resultado obtener ventajas
competitivas, producto de decisiones mejor informadas. En función de esta se puede entender a BI
como una combinación de tecnología y desarrollo de negocios (Bitam, 2002).

1.2.2. Definiciones de Inteligencia de Negocios


Como muchos otros conceptos o términos, el de Inteligencia de Negocios no escapa a la
diversidad de interpretaciones. Se justifica su uso y se entiende el que sea considerado como una
Tecnología de Información, pero no existe un acuerdo en cuanto a su definición.

Existen diversos autores que definen el Business Intelligence. A continuación mencionaremos


algunos:

Según la empresa Abits (2005, http), la “Inteligencia de Negocios, es una alternativa tecnológica y
de administración de negocios, que permite manejar la información para la toma de decisiones
acertadas en todos los niveles de la organización, desde la extracción, depuración y transformación
de datos, hasta la explotación y distribución de la información mediante herramientas de fácil uso
para los usuarios”.

Según Nader J. (2006), "Es el conjunto de tecnologías que permiten a las empresas utilizar la
información disponible en cualquier parte de la organización para hacer mejores análisis, descubrir
nuevas oportunidades y tomar decisiones más informadas."

Página 11
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Hackney (2001) nos dice que el Business Intelligence se compone de todas las actividades
relacionadas a la organización y entrega de información así como el análisis del negocio. Esto
incluye Minería de Datos, Administración del Conocimiento, Aplicaciones Analíticas, Sistemas de
Reportes y principalmente Data Warehousing.

Michel (2000) afirma que el conjunto de tecnologías que usan Data Warehousing y OLAP (On-line
Analitic Procesing, procesamiento analítico en línea), combinado con herramientas de reporte, son
referidas como Business Intelligence, porque ayudan a las compañías a ganar inteligencia en
operaciones y desempeño.

Buksard, Mollot y Richards (2000) comentan en su artículo que la necesidad de nuevas


herramientas de acceso y reporte de información, para diversos tipos de usuarios, ha impulsado la
creación de nuevas herramientas, colectivamente conocidas como Business Intelligence. Business
Intelligence no es una sola tecnología o aplicación. No es una "cosa", sino que se trata de un "suite"
de productos que trabajan de manera conjunta para proveer datos, información y reportes
analíticos que satisfagan las necesidades de una gran variedad de usuarios finales.

Business Intelligence es la habilidad de consolidar información y analizarla con la suficiente


velocidad y precisión para descubrir ventajas y tomar mejores decisiones de negocios. Definición
compatible con la necesidad actual de los negocios que ante la presión de ser cada día más
competitivos, para mantenerse tienen la doble tarea no sólo de permanecer sino de ser lucrativos
(Cano, 1999).

Por último, el vicepresidente y director de investigaciones del Grupo Gartner, Howard Dresner,
citado en Hilson (2001) coincide con las anteriores definiciones, y el agrega: "Business Intelligence
es simplemente la habilidad de los usuarios finales para acceder y analizar tipos cuantitativos de
información y ser capaz de actuar en consecuencia".

Business Intelligence ha tomado la delantera en los últimos dos años, los proveedores de
soluciones cuentan con tecnología más amigable y presentan datos más fáciles de analizar,
apostando hacia la adopción masiva de dichos sistemas por parte de las organizaciones (Sullivan,
2001).

Las compañías actualmente usan una amplia gama de tecnologías y productos para saber qué es lo
que está pasando en la organización. Las herramientas más comunes (simple consulta y reporte de
datos, procesamiento analítico en línea, análisis estadístico, predicciones y minería de datos)
pueden ser usadas de una gran variedad de formas. El objetivo de todo esto es transformar las
montañas de datos en información útil para la empresa (McGeever, 2000).

El radical crecimiento de nuevas formas de "inteligencia" generada por computadora es una de las
dos revoluciones en materia de TI que se están dando en la actualidad. La segunda es el Internet,
del cual ya todo mundo conoce (Martín, 2001). Las dos revoluciones van a soportar y amplificar una
a la otra. El conjunto de ambas resultará en una radical reinvención de los negocios.

Como podemos observar, el punto en común que presentan las distintas definiciones es sin duda la
ventaja competitiva que una empresa adquiere con la implantación de un sistema inteligente de
negocio. Una ventaja competitiva que se adquiere utilizando una estrategia inteligente; esto es,
identificar qué información es de vital importancia para la empresa, identificar los factores clave de
rendimiento, es decir, aquello que la empresa cree que es importante medir y analizar.

Página 12
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

1.2.3 Objetivo
El objetivo primario del BI es ayudar a las personas a tomar decisiones que mejoren el
rendimiento de la compañía e impulsen su ventaja competitiva en el mercado. Pero es común una
larga brecha entre la información que los responsables en la toma de decisiones requieren, y las
grandes cantidades de datos que las organizaciones recopilan cada día. Para saltar esta brecha, las
organizaciones hacen significativas inversiones en desarrollar sistemas de BI para convertir los
datos originales en información de utilidad.

1.2.4 Proceso Business Intelligence


A fin de comprender cómo es que una organización puede crear inteligencia de sus datos, para,
como ya se ha mencionado, proveer a los usuarios finales oportuna y acertadamente acceso a esta
información, se describirá a continuación el proceso de BI. El mismo está dividido en cinco fases, las
cuales serán explicadas teniendo como referencia el siguiente gráfico, que sintetiza todo el
proceso:

 Fase 1 – Dirigir y Planear. En esta fase inicial es donde se deberán recolectar los sado en el
entendimiento del pasado. Requerimientos de información específicos de los diferentes
usuarios, así como en- tender sus diversas necesidades, para que luego en conjunto con
ellos se generen El usuario podrá consultar y analizar los datos de manera sencilla.
Efectivamente las preguntas que les ayudarán a alcanzar sus objetivos.

 Fase 2 – Recolección de Información. Es aquí en donde se realiza el proceso de extraer


desde las diferentes fuentes de información de la empresa, tanto internas como externas,
los datos que serán necesarios para encontrar las respuestas a las preguntas planteadas en
el paso anterior.

 Fase 3 – Procesamiento de Datos. En esta fase es donde se integran y cargan los datos en
crudo en un formato utilizable para el análisis. Esta actividad puede realizarse mediante la
creación de una nueva base de datos, agregando datos a una base de datos ya existente o
bien consolidando la información.

 Fase 4 – Análisis y Producción. Ahora, se procederá a trabajar sobre los datos ex- traídos e
integrados, utilizando herramientas y técnicas propias de la tecnología BI, para crear
inteligencia. Como resultado final de esta fase se obtendrán las respuestas a las preguntas,
mediante la creación de reportes, indicadores, etc.

Página 13
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Fase 5 – Difusión. Finalmente se les entregará a los usuarios que lo requieran las herramientas
necesarias, que les permitirán explorar los datos de manera veloz y sencilla.

1.2.4 Características
Este conjunto de herramientas y metodologías tienen en común las siguientes características:

 Información: Es la esencia de BI. Su finalidad es la de entregar información al usuario final


para apoyarlo en la toma de decisiones, y esta información puede provenir tanto de los
almacenes operacionales como de arquitecturas diseñadas mediante metodologías
específicas para el análisis como DataMart y Data Warehouse. El usuario puede necesitar
información de cualquier fuente o derivada para apoyarse en su labor, para lo cual una
solución de Business Intelligence recurre o construye fuentes de datos o de información ya
sea interna o externa, que son la principal materia prima de esta Tecnología.

 Apoyo a la toma de Decisiones: Otra característica de Business Intelligence es ordenar y


desplegar los datos relevantes para que realmente sea un apoyo un la Toma de Decisiones.
Esto implica tecnologías, metodologías, técnicas de análisis y todo lo necesario para obtener
de los datos, información relevante y útil al usuario. Recordando el origen de BI, surge en la
toma de decisiones para obtener ventajas competitivas producto de decisiones mejor
informadas. Si su origen cae en el desarrollo de negocios, es lógico entender que una
solución Business Intelligence sea un apoyo para tal efecto.

Las empresas deben formular una estrategia de gestión de la información que sea la base de
la gestión del rendimiento empresarial, permitiendo el soporte de decisiones y satisfaciendo
los requisitos legales.

 Proceso Orientación al Usuario Final: Un factor que incidió en la aparición del BI fue que el
usuario final no poseía conocimientos técnicos que le permitieran tener un acceso fácil y
directo a los datos operacionales. Por este motivo, el usuario final dependía de otras fuentes
para obtener la información que necesitaba y las consultas no definidas, que son las que
normalmente realiza un ejecutivo, eran ejecutadas por terceras personas, normalmente de
informática, con la dependencia consecuente. El BI incluye herramientas orientadas a usuario
final, para eliminar esta dependencia en terceros.

"Business Intelligence es una combinación de tecnologías de colección de datos y manejo de


información, que implementa soluciones orientadas al usuario final para apoyar la toma de
decisiones, aprovechando la información estratégica disponible en cualquier parte de la
organización."

1.2.4 Beneficios
Una organización es altamente competitiva si aplica BI. Sin embargo, una situación muy común
es que los responsables del Área de Tecnología de las organizaciones pueden estar seguros de las
ventajas de una solución de este tipo, pero los que toman las decisiones, en muchos casos, no
comprenden los beneficios de esta inversión y piensan que es un gasto más en tecnología para su

Página 14
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

organización, más aun si ésta es una Pequeña o Mediana empresa (PyME). Entonces, ¿Cómo
plantear los beneficios del BI?

Uno de los objetivos básicos de los sistemas de información es que nos ayuden a la toma de
decisiones. Cuando un responsable tiene que tomar una decisión pide o busca información, que le
servirá para reducir la incertidumbre. Sin embargo, aunque todos la utilicen, no todos los
responsables recogen la misma información: depende de muchos factores, como pueden ser su
experiencia, formación, disponibilidad, etc. Del mismo modo, los responsables pueden necesitar
recoger más o menos información dependiendo que su mayor o menor aversión al riesgo.

A partir de los datos que nos proporciona el sistema de Business Intelligence podemos descubrir
conocimiento. Por ejemplo, en un concesionario de coches descubrimos la relación entre el número
de visitas al concesionario y el número de vehículos vendidos en el mes siguiente.

Parece claro que el número de visitas al concesionario parece un indicador clave, pero ¿todos los
concesionarios lo recogen? Como hemos visto, Business Intelligence nos servirá como ayuda para la
toma de decisiones y, posteriormente, para descubrir cosas que hasta ahora desconocíamos.
Los beneficios que se pueden obtener a través del uso de BI pueden ser de distintos tipos:

 Beneficios tangibles: por ejemplo: reducción de costes, generación de ingresos, reducción de


tiempos para las distintas actividades del negocio.

 Beneficios intangibles: el hecho de que tengamos disponible la información para la toma de


decisiones hará que más usuarios utilicen dicha información para tomar decisiones y mejorar
la nuestra posición competitiva.

 Beneficios estratégicos: Todos aquellos que nos facilitan la formulación de la estrategia, es


decir, a qué clientes, mercados o con qué productos dirigirnos.

Algunos ejemplos concretos de cómo el Business Intelligence nos puede generar beneficios:

1.2.4.1 Beneficios tangibles:

Generación de ingresos:

 Mejorar la adquisición de clientes y su conversión mediante el uso de la segmentación.


 Reducir la tasa de abandono de clientes, incrementar su fidelidad, teniendo en cuenta cuál es
su valor.
 Incrementar los ingresos por crecimiento de las ventas.
 Aumentar los resultados, consiguiendo que nuestros clientes actuales compren más
productos o servicios.
 Evitar las pérdidas producidas por las ventas de nuestros competidores.
 Aumentar la rentabilidad por el acceso a información detallada de productos, clientes, etc.
 Conocer mejor cuáles son las características demográficas de nuestra zona de influencia.
 Hacer crecer la participación de mercado.
 Reducir el tiempo de lanzamiento de nuevos productos o servicios.
 Mejorar aquellas actividades relacionadas con la captura de datos.
 Analizar la cesta de la compra y la afinidad de venta entre los productos.
 Facilitar la adopción de los cambios en la estrategia.

Página 15
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Proveer el autoservicio de información a trabajadores, colaboradores, clientes y


proveedores.
 Medir la efectividad de las campañas rápidamente y ser capaces de hacer los ajustes durante
el ciclo de vida de las mismas.
 Optimizar las acciones de marketing.
 Identificar clientes rentables en segmentos no rentables.
 Analizar a la competencia cuando establecemos precios.
 Crear nuevas oportunidades.

Reducción de costes:

 Negociar mejores precios con los proveedores, identificar a los proveedores más
importantes, gestionar descuentos por cantidades de compra; permitir el análisis del
cumplimiento de los proveedores y asignar las compras de acuerdo con ello; medir el nivel de
calidad, servicio y precio.
 Reducir o reasignar el personal necesario para llevar a cabo los procesos.
 Incrementar la productividad con información más inmediata y mejor.
 Aumentar el control de costes.
 Disminuir los gastos.
 Eliminar ineficiencias y reducir los costes operativos al generar “una sola versión de la
verdad”.
 Menguar pérdidas detectando fraude.
 Reducir los créditos incobrables.
 Hacer bajar las reclamaciones (por ejemplo en el sector de seguros).
 Eliminarlas sobreproducciones de productos.
 Proveer inventarios “just-in-time”; gestionar los inventarios de productos acabados; mejorar
la gestión de materias primas y productos acabados; reducir los costes de mantenimiento del
stock.
 Acortar los tiempos de respuesta a las peticiones de informes.
 Analizar los problemas, reparaciones y defectos y proveerla información para hacer un
seguimiento y corregir los problemas recurrentes.
 Reducir el tiempo para recoger la información para cumplir con las
normativas legales.
 Evaluar el rendimiento de los activos y generar las
alertas cuando el mantenimiento preventivo se
debe llevar a cabo.
 Proveer el suministro dentro del plazo.
 Hacer un seguimiento de los problemas de los
productos desde el inicio de su vida hasta el fin.
 Retirar los viejos equipos para disminuirlos costes de
actividad.
 Reducir las devoluciones de
productos.
 Analizar la productividad de los
empleados.
 Dar soporte a las reclamaciones
de facturación.
 Abaratar los costes de las acciones de marketing.
 Hacer un mejor seguimiento de las acciones delictivas.

Página 16
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Saber qué comisiones se deben pagar.


 Hacer decrecer las pérdidas de créditos, analizando la utilización de los clientes, asignando
un análisis de riesgo.

1.2.4.2 Beneficios intangibles:

 Optimizar la atención a los clientes.


 Aumentar la satisfacción de los
clientes.
 Mejorar el acceso a los datos a través
de consultas, análisis informes.
 Información más actualizada.
 Dotar a la información de mayor
precisión.
 Conseguir ventajas competitivas.
 Controlar mejor de la información.
 Ahorrar costes.
 Menor dependencia de los sistemas desarrollados.
 Mayor integración de la información.

1.2.4.3 Beneficios estratégicos:

 Mayor habilidad para analizar estrategias de precios.


 Y para identificar y nutrir a aquellos clientes con mayor potencial.
 Mejorar la toma de decisiones, realizándola de forma más rápida, informada y basada en
hechos.
 Mayor visibilidad de la gestión.
 Dar soporte a las estrategias.
 Aumentar el valor de mercado.
Como vemos, los campos de aplicación son múltiples. Debe tenerse en cuenta que la lista de
beneficios no está completa: su objetivo no es ser exhaustiva, sino hacernos dar cuenta de sus
posibilidades; probablemente, a partir de la propia experiencia de los lectores podríamos ampliarla
todavía más.

1.2.5 Factores de riesgo del Business Intelligence

Muchas son las ventajas que aportan las herramientas Business Intelligence, sin embargo, las
factores de riesgo e inconvenientes de éstas también son importantes y deben tenerse en cuenta a
la hora de implantar una solución de estas características. Los proveedores de soluciones BI, como
profesionales del sector de la Tecnología de la
Información, han de identificar en cada implantación los riesgos y decidir qué solución es la más
adecuada para cada empresa.

Vitt E, Luckevich M, Misner S (2007) aseguran que los principales inconvenientes están
relacionados con la inversión económica que la empresas han de realizar y el cambio de mentalidad
que este tipo de soluciones originan.

Página 17
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Obligan a cambiar la mentalidad analítica del usuario consumidor de la información, y


normalmente este cambio supone un gran esfuerzo para los usuarios de las aplicaciones BI.
 Requieren un proceso continuo de extracción de datos y manipulación de la información para
generar los informes analíticos.
 Generalmente el coste del software Business Intelligence y coste de licencias por usuario es
elevado.
 Dificultad para identificar aplicaciones o decisiones que pueden ser soportadas por el
Business Intelligence.
 Resulta complejo conjugar las expectativas de los usuarios con las soluciones implementadas,
por lo que los aspectos de definición conceptual y selección de plataforma, junto a la gestión
del cambio en la implantación de los proyectos adquieren un papel relevante.

1.2.6 Ciclos de Business Intelligence

 BI es mucho más que una actitud empresarial o una tecnología a disposición de las
organizaciones. De hecho, es un marco de referencia para la gestión de rendimiento
empresarial, un ciclo continuo por el cual las organizaciones de finen sus objetivos, analizan
sus progresos, adquieren conocimiento, toman decisiones, miden sus éxitos y comienzan el
ciclo nuevamente.

 BI ayuda a los gerentes a tomar mejores decisiones más rápidamente en los niveles
estratégicos y operativos.

El ciclo consta de:

 Análisis: Está basado en la compresión básica por las suposiciones de cómo nuestro
negocio opera incluyendo por ejemplo lo importante para el cliente, proveedores y
empleados (modelo mental).

 Ideas: La idea es el producto del análisis amplio. Las ideas pueden ser operacionales y
estratégicas.

 Acción: La acción es lo que sigue a una mejor y más rápida toma de decisiones
proporcionada por el BI. Las decisiones bien fundamentadas proporcionan una motivación
extra al que emprende la acción.

Página 18
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Medición: A través de una mejor recopilación de información y una mayor frecuencia en la


generación de informes BI resulta posible medir los resultados de la compañía en
comparación con los estándares cuantitativos, con el fin de desembocar en un nuevo ciclo
de análisis, ideas y acciones correctivas. Medimos lo que creemos importante.

1.2.8 Como hacer posible la Inteligencia de Negocios (BI)

Los entes principales que contribuyen a facilitar el BI son: la tecnología, la gente y la cultura
corporativa.

Tecnología: Las organizaciones hoy pueden crear


amplios sistemas corporativos de BI que
calculan y supervisan métricas sobre cada
variable que sea importante para la gestión de
la organización. ¿Cómo es esto posible? La
respuesta es la tecnología. Estas tendencias son:

 Potencia de procesamiento.
 Almacenamiento.
 Tecnologías de redes.
 Estándares.
 Software BI.

La Gente: Entender el papel de la gente en el ciclo de BI permite a las organizaciones


sistemáticamente crear ideas y convertir éstas ideas en decisiones.

Los sistemas informáticos pueden informar de lo que está pasando en la empresa, pero adquirir
conocimiento de estos acontecimientos requiere la motivación de la gente y las organizaciones. Y
para que esto suceda necesita a la gente entusiasmada con el cambio (otra forma de pensar).
Los sistemas BI sirven a los gerentes en gran medida, de la misma forma que los instrumentos de
navegación sirven a los pilotos. El grado en que la instrumentación es esencial, depende del tamaño
y complejidad de la organización y del papel del gerente.

Cultura Organizacional: La extensión para la cual la actitud BI florece en una organización depende
en gran medida de su cultura organizacional.
Las culturas que son exitosas en posibilitar el BI son aquellas que sistemáticamente tienen éxito en
lo siguiente:

 Proporcionar amplio y fácil acceso a la información.


 Motivar análisis a amplia escala y tomar decisiones.
 Motivar el compartir resultados con amplias audiencias - Alentar la experimentación y
tolerar fallos.

Página 19
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO II
TECNOLOGÍA BUSINESS
INTELLIGENCE

Página 20
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.1. Introducción

Los antiguos sistemas de información a la Dirección, que convertían datos operacionales en


indicadores de gestión (la mayor parte de las veces de naturaleza económico-financiera), se han
visto absorbidos y superados por un nuevo concepto del tratamiento de la información para la
toma decisiones que, bajo el nombre de Business Intelligence, evoluciona con fuerza en el ámbito
de las Tecnologías de la Información. Este cambio ha sido propiciado por la propia evolución de las
TIC, que permiten un tratamiento cada vez más rápido, complejo e inmediato de los datos, la
información y, en definitiva, el conocimiento. (Ibermática, 2007)

Son muchos los conceptos, herramientas y tecnologías que se engloban dentro una solución
completa de Business Intelligence. Business Intelligence (la Inteligencia de Negocio) es
proporcionar la información adecuada, en el momento adecuado, para la persona adecuada y en el
formato adecuado. Los pasos para lograr estos cuatro objetivos es:

 Tener la información objeto de análisis registrado.


 Identificar las distintas fuentes de datos y recolectar toda la información.
 Transformar, combinar y almacenar la información en un almacén de datos (Data
warehouse).
 Crear informes a partir de la información almacenada y modelada en el data warehouse. Los
informes por tanto, es el resultado final de la solución BI, y éstos hay que hacerlos llegar en
el formato adecuado y en el tiempo adecuado.

Figura0. Esquema solución BI (Ibermática, 2007)

Desde un punto de vista más pragmático, y asociándolo directamente a las tecnologías de la


información, podemos definir Business Intelligence como el conjunto de metodologías, aplicaciones

Página 21
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e
información desestructurada (interna y externa a la compañía) en información estructurada, para
su explotación directa (reporting, análisis OLAP...) o para su análisis y conversión en conocimiento
soporte a la toma de decisiones sobre el negocio. (Ibermática, 2007)

Esta definición pretende abarcar y describir el ámbito integral del entorno Business Intelligence,
reflejado resumidamente en el gráfico de a continuación. Es importante considerar cualquier
proyecto Business Intelligence como un modelo objetivo integral. Algunas organizaciones han
desarrollado proyectos parciales, sin tener en cuenta esta visión global, comprometiendo la calidad
y efectividad de los resultados obtenidos.

2.2. Arquitectura de Inteligencia de Negocios


Según Rodríguez I. La “Inteligencia de Negocios se compone de diferentes tecnologías que se
integran para formar una solución empresarial, los componentes se orientan a transformar los
datos en información oportuna y confiable para el usuario final, por consiguiente, una arquitectura
BI se divide en las siguientes capas: Sistemas Fuentes, Capa DataWarehouse y la Capa BI”.

Figura 1. Arquitectura Típica de Soluciones Business Intelligence.

Página 22
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Sistemas Fuentes. Los datos administrados por los sistemas de aplicación operacionales
son la fuente principal de datos para el data warehouse. Estos sistemas son los encargados
de recolectar información diaria de las tareas operativas de la organización. Estos datos
operacionales constituyen la base de todo sistema business Intelligence ya que de estos
dependen la calidad de información que se entregue al usuario final. En muchas ocasiones
también se requiere de datos externos para alimentar al sistema como hojas electrónicas,
archivos de texto, debido a que algunas áreas de la institución no se encuentran
automatizadas por lo que no cuentan con un sistema transaccional donde almacenar los
datos.

 Capa Data Warehouse. La capa data warehouse es el centro de la arquitectura en un


sistema business intelligence, que se encarga de organizar y almacenar los datos para el
análisis de los mismos.

 Capa Business Intelligence. Comprende un conjunto de herramientas necesarias para


comprender los datos y utilizarlos para tomar decisiones inteligentes. Proporcionan toda la
funcionalidad de análisis y creación de informes empresariales dirigidos a una amplia gama
de posibles usuarios. Algunas de estas herramientas son: Query and Reporting, Cuadros de
mando, OLAP y Datamining.

2.3 Sistemas Operacionales


Por regla general, el punto de inicio de una solución Business Intelligence es identificar las
fuentes de datos origen. Esto es, se parte de los sistemas operacionales que la empresa gestiona
en su día a día. Sistemas que le permiten tener registrada la actividad corporativa, sistemas que
dan soporte a las transacciones del día a día del negocio.

Según (Vitt, Luckevich, Misner. 2002), estos sistemas pueden ser aplicaciones de líneas de negocio
tales como el sistema de recursos humanos, el sistema de la cadena de suministro, las aplicaciones
de planificación de los recursos empresariales (ERP) o los sistemas de gestión de relaciones con los
clientes (CRM). Estos sistemas operacionales son extremadamente eficientes para dar soporte a
procesos transaccionales. Sin embargo, no son nada efectivos para desarrollar análisis de negocio,
especialmente cuando el análisis requiere recopilar datos registrados en distintas fuentes.

De acuerdo a Óscar Alonso (Alonso, 2006), Jefe de Proyectos en Lantares, el objetivo es generar
información que pueda ser trabajada y analizada de forma intuitiva, más o menos en tiempo real, y
con la posibilidad de integrar diferentes fuentes de datos para ofrecer una visión global que puede
ser compartida y distribuida por todos los departamentos de la empresa. No es que todo el mundo
tenga acceso a toda la información, se trata de que todo el mundo tenga acceso y genere la
información que necesita para que su trabajo sea los más eficiente posible. Para esto, es necesario
limpiar e integrar los datos almacenados en las distintas fuentes mediante las herramientas ETL;
Extracción, Transformación y Carga (Extract, Transform, Load) y construir un reporsitorio de datos
global: el datawarehouse.

Página 23
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.4 El Data Warehouse


2.4.1 Concepto de data warehouse
El Data warehouse es el repositorio de datos de la compañía. En él encontramos la información
contable, de ventas, de recursos humanos, de manufacturación, y de otros sistemas de ingreso que
la companía quiere analizar. Este almacén de datos almacena tanto la información histórica como
la actual de la compañía. El objetivo es aprovechar al máximo la riqueza de información depositada
en él.

El concepto Data Warehouse proviene de finales de los años 80, cuando los investigadores de IBM
Barry Devlin y Paul Murphy desarrollaron el "Business Data Warehouse".

Esencialmente el Data Warehouse surgió con el propósito de proveer un modelo de arquitectura


del flujo de datos de los sistemas operacionales a los ambientes de soporte de decisiones. El
concepto intentaba enfocarse a varios problemas asociados con este flujo, principalmente los altos
costos. En su ausencia se requería de una enorme redundancia en los datos para respaldar
múltiples ambientes de soporte de decisiones, situación nada deseable y que empeoraba al
momento de reunir, limpiar o integrar nueva información. Es entonces cuando surge el Data
Warehouse con el propósito de ser colector, almacén y organizador de la información global de una
compañía, es así que la información podía ser recuperada desde un solo punto o distribuida
mediante el uso de retail stores o data marts. (SIS KLE, Marzo 2009).

A continuación describiremos las características distintivas de un Data Warehouse, las cuales nos
ayudarán a comprender mejor su concepto.

 Almacena Información Histórica. El tiempo es parte implícita de la información contenida en


un data warehouse. A diferencia de los sistemas transaccionales, que mantienen los datos
actualizados a un instante determinado en el tiempo, un DW puede mantener información de
más de un instante. La bodega se carga con los distintos valores que toma una variable en el
tiempo y de esta manera los datos pueden ser analizados y
comparados, facilitando las labores gerenciales.

 Contiene Información No volátil. La información de un DW


existe para ser leída y no modificada, por lo tanto, se carga una
sola vez y permanece igual en adelante. De esta manera la
actualización del DW es la incorporación de los últimos
valores que tomaron las distintas variables, sin ningún
tipo de acción sobre lo que ya existía. Esto está en
contraste con la información de un sistema
transaccional que está sujeta a permanentes
inserciones, actualizaciones, reemplazos o
borrados.

 Organiza la Información de forma Temática. El almacén de


datos está orientado a los principales temas o entidades de
la organización lo cual está en contraste con la mayoría de
los sistemas de hoy en día cuya orientación se basa en los
procesos o funciones.

Página 24
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Administra grandes cantidades de información. La mayoría de los Data Warehouse contienen


información histórica que se retira con frecuencia de los sistemas operacionales porque ya no
es necesaria para las aplicaciones operativas y de producción. Por el volumen de información
que un Data Warehouse debe manejar, también debe ofrecer opciones para la adición y la
condensación que clasifiquen esta inmensa cantidad de datos, es decir, un Data Warehouse
maneja información a diferentes niveles de detalle. Por lo tanto, el volumen de los datos que
debe almacenar es generalmente mayor al de los datos de las bases de datos operacionales.

 Gestiona múltiples versiones de un esquema de base de datos. Debido a que el Data


Warehouse tiene que guardar la información histórica y administrarla, y como esta
información histórica ha sido manejada en distintos momentos por diferentes versiones de
esquemas de bases de datos, en ocasiones el Data Warehouse tiene que controlar información
originada en organizaciones de bases de datos diferentes.

 Condensa y agrega información. Con frecuencia, es muy alto el nivel de detalle de la


información almacenada por bases de datos operacionales para cualquier toma de decisiones
sensata. Un Data Warehouse condensa y agrega información para presentarla en forma
comprensible a los usuarios finales.

2.4.2 Cronología del Data Warehouse


A continuación se presentan algunos de los acontecimientos más importantes en los primeros
años del desarrollo del Data Warehouse según (SIS KLE, Marzo 2009):

 1960s El Gral. Mills y el Colegio Darmouth durante un proyecto de investigación desarrollaron


los términos dimensiones y hechos (dimensions and facts).
 1970s ACNielsen e IRI proven Data Marts dimensionadaods para retails sales.
 1983 Terdata desarrolla un sistema de administración de base de datos específicamente
diseñados para el soporte de decisiones.
 1988 Barry Devlin y Paul Murphy publican el artículo " Una arquitectura para un sistema de
negocios e información" en el IBM Systems Journal. Introduce el término "Business Intelligence
Data Warehouse".
 1991 Bill Inmon publica el libro "Building the Data Warehouse".
 1995 Aparece el "Data Warehousing Institute", organización que promueve el uso del data
warehousing.
 1996 Ralph Kimball publica el libro "The Data Warehouse Tollkit".

2.4.3 Paradigmas del Data Warehouse


Han sido dos los especialistas en desarrollar una larga teoría sobre el concepto del data
warehouse. Aunque ambos coinciden en la definición del término data warehouse, existen
diferencias entre los puntos de vista sobre lo que es un data Warehouse, diferencias sobre todo
relativas a el concepto y uso del data mart (una parte del DW que contiene un subconjunto de
información del mismo, ya sea departamental o sectorial). Fruto de estas diferencias, se establecen
dos paradigmas sobre lo que es un data Warehouse.

Antes de ver las diferencias, es de gran utilidad introducir el término “data mart”. Este término es
base para comprender las diferencias existentes entre los dos paradigmas principales. Según

Página 25
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

(Ibermática, 2007) un data mart es: una base de datos especializada, departamental, orientada a
satisfacer las necesidades específicas de un grupo particular de usuarios (en otras palabras, un data
Warehouse departamental, normalmente subconjunto del corporativo con transformaciones
específicas para el área a la que va dirigido).

De acuerdo con (SIS KLE, Marzo 2009), las teorías de ambos especialistas de la Tecnología de la
Información son:

 Bill Inmon: el Data Warehouse es una parte del todo que conforma a un sistema de inteligencia.
Una empresa tiene un Data Warehouse, y los data marts tienen como fuente de información
ese Data Warehouse. Ésta aproximación también es conocida como "Top-Down"

 Ralph Kimball: bajo este paradigma, el Data Warehouse se compone por el conglomerado de
todos los Data Marts generados en una empresa. La información siempre se almacena en un
modelo dimensional. Otra forma forma de denominar ésta aproximación es como "Bottom-up".

 Un reflejo de estas dos teorías puede verse en las dos figuras siguientes. La figura uno
representa la teoría de Bill Inmon, mientras que la segunda figura representa el paradigma de
Ralph Kimball. (Vitt, Luckevich, Misner. 2002).

Figura1: Data Warehouse (Bill Inmon)

Figura2: Data Warehouse (Ralph Kimball)

Página 26
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Pese a las diferencias que se pueden apreciar de manera inmediata entre ambas arquitecturas,
también existen elementos en común. Todas las empresas requieren almacenar recursos, analizar
e interpretar la información que generan y acumulan con el fin de tomar decisiones críticas que
permitan su existencia pero sobre todo que maximicen su prosperidad; por lo que se vuelve
prioritario crear sistemas de análisis y retroalimentación para comprender su información (Data
Warehouse) y de esta manera contar con los elementos adecuados para la toma de decisiones.

2.4.4 Problemas que dan origen a un Data Warehouse


Los Data Warehouse surgen por los siguientes problemas:

 Falta de integración de la información. Muchos de los datos de que disponen las empresas se
encuentra en diversos almacenes de datos porque han evolucionado como sistemas
independientes, en diferentes lenguajes, desarrollados por diferentes personas y en diferentes
momentos. Estos almacenes de datos son incapaces de ofrecer a la empresa una visión
consolidada ya que no poseen vinculación entre ellos.

 Sobrecarga de información. En las últimas décadas, los sistemas operacionales han producido
una gran cantidad de datos, los que son difíciles de analizar para tomar decisiones de negocio. A
pesar de las grandes sumas invertidas en tecnología de la información, los distintos
departamentos dentro de las empresas todavía carecen de herramientas para explorar esos
datos de una manera ágil y eficaz.

 Exceso de información genérica y despersonalizada. Por lo general, los informes producidos por
un sistema operacional contienen una gran cantidad de datos. Sin embargo, ofrecen muy poca
información que ayude a la toma de decisiones. Estos informes no tienen la capacidad de
adaptarse a las necesidades actuales de los usuarios, y carecen de información personalizada
y/o relevante para los distintos perfiles que existen en un negocio.

2.4.5 Beneficios Asociados al Data Warehouse


Un Data Warehouse puede dar lugar a una serie de importantes beneficios para la organización. En
cualquier caso, su utilización permitirá que la información de gestión sea:

 Accesible, correcta, uniforme y actualizada. Estas características asociadas a la información


contenida en un Data Warehouse, junto con otra serie de aspectos inherentes al mismo dan
lugar a la obtención de un conjunto de ventajas.
 Menor costo en la toma de decisiones. Se suprime el desperdicio de tiempo que se podía
producir al intentar ejecutar consultas de datos largas y complejas con bases de datos que
estaban diseñadas específicamente para transacciones más cortas y sencillas.

 Posibilidad de encontrar relaciones ocultas. Facilita la aplicación de técnicas estadísticas de


análisis y modelización para encontrar relaciones ocultas entre los datos, obteniendo un valor
añadido para el negocio.

 Aprendizaje del pasado. Proporciona la capacidad de aprender de los datos del pasado y de
predecir situaciones futuras en diversos escenarios.

Página 27
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Mayor flexibilidad ante el entorno. El Data Warehouse convierte los datos operacionales en
información relacionada y estructurada, que genera el conocimiento necesario para la toma de
decisiones. Esto permite establecer una base única del modelo de información de la
organización, que puede dar lugar a una visión global de la información en base a los conceptos
de negocio que tratan los usuarios. Además, aporta una mejor calidad y flexibilidad en el análisis
del mercado, y del entorno en general. Esta visión global puede conllevar también la obtención
de otras ventajas competitivas, al permitir el desempeño de tareas que en los sistemas
tradicionales sufrirían un costo adicional, por ejemplo:

 Mejor servicio al cliente. Lo dicho en el punto anterior implica una importante mejora en la
calidad de gestión, lo que también repercute en la relación con el cliente. De hecho, el que un
Data Warehouse implique una mayor flexibilidad ante el entorno tiene una consecuencia directa
en una mayor capacidad para responder a las necesidades de los clientes.

 Rediseño de procesos. Ofrecer a los usuarios una capacidad de análisis de la información de su


negocio que tiende a ser ilimitada y permite con frecuencia obtener una visión más profunda y
clara de los procesos de negocio propiamente dichos, lo que a su vez permite obtener ideas
renovadoras para el rediseño de los mismos.

2.4.6 Data warehouse versus Sistemas Transaccionales (OLTP)


Hoy en día las empresas cuentan en su mayoría con sus procesos automatizados, manejando
gran cantidad de datos en forma centralizada y manteniendo sus sistemas en línea. En esta
información descansa el conocimiento de la empresa, constituyendo un recurso corporativo
primario y parte importante de su patrimonio.

El nivel competitivo alcanzado en las empresas les ha exigido desarrollar nuevas estrategias de
gestión. En el pasado, las organizaciones fueron típicamente estructuradas en forma piramidal con
información generada en su base fluyendo hacia lo alto; y era en el estrato de la pirámide más alto
donde se tomaban decisiones a partir de la información proporcionada por la base, con un bajo
aprovechamiento del potencial de esta información. Las empresas han reestructurado y eliminado
estratos de estas pirámides y han autorizado a los usuarios de todos los niveles a tomar mayores
decisiones y responsabilidades. Sin embargo, sin información sólida para ayudar y apoyar las
decisiones, la automatización no tiene sentido.

Esta necesidad de obtener información para una amplia variedad de individuos es la principal razón
de negocios que conduce al concepto de. El énfasis no está sólo en llevar la información hacia lo
alto sino a través de la organización, para que todos los empleados que la necesiten la tengan a su
disposición (Sperley, 1999). El DW (de ahora en adelante los términos Data warehouse,
Datawarehousing, Warehouse, Almacén de Datos y DW son utilizados en forma indistinta)
convierte entonces los datos operacionales de una organización en una herramienta competitiva,
por hacerlos disponibles a los empleados que lo necesiten para el análisis y toma de decisiones.

El objetivo del DW es el de satisfacer los requerimientos de información interna de la empresa para


una mejor gestión. El contenido de los datos, la organización y estructura son dirigidos a satisfacer
las necesidades de información de los analistas y usuarios tomadores de decisiones. El DW es el
lugar donde la gente puede acceder a sus datos. El DW puede verse como una bodega donde están
almacenados todos los datos necesarios para realizar las funciones de gestión de la empresa, de
manera que puedan utilizarse fácilmente según se necesiten. Los sistemas transaccionales son

Página 28
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

dinámicos, constantemente se encuentran actualizando datos. Analizar esta información puede


presentar resultados distintos en cuestión de minutos, por lo que se deben extraer y almacenar
fotografías de datos (snapshots, en inglés), para estos efectos, con la implicancia de un consumo
adicional de recursos de cómputo. Llevar a cabo un análisis complejo sobre un sistema
transaccional, puede resultar en la degradación del sistema, con el consiguiente impacto en la
operación del negocio. Los almacenes de datos (o Data warehouse) generan bases de datos
tangibles con una perspectiva histórica, utilizando datos de múltiples fuentes que se fusionan en
forma congruente. Estos datos se mantienen actualizados, pero no cambian al ritmo de los sistemas
transaccionales. Muchos data warehouse se diseñan para contener un nivel de detalle hasta el nivel
de transacción, con la intención de hacer disponible todo tipo de datos y características, para
reportar y analizar.

Así un data warehouse resulta ser un recipiente de datos transaccionales para proporcionar
consultas operativas, y la información para poder llevar a cabo análisis multidimensional. De esta
forma, dentro de un data warehouse existen dos tecnologías que se pueden ver como
complementarias, una relacional para consultas y una multidimensional para análisis (Sperley,
1999). Puede considerarse que el modelo relacional en el cual se basa OLTP - Procesamiento
Transaccional en Línea (OnLine Transational Procesing, en inglés), tiene como objetivo mantener la
integridad de la información (relaciones entre los datos) necesaria para operar un negocio de la
manera más eficiente. Sin embargo, este modelo no corresponde a la forma como el usuario
percibe la operación de un negocio.

DW está basado en un procesamiento distinto al utilizado por los sistemas operacionales, es decir,
este se basa en OLAP -Procesos de Análisis en Línea- (OnLine Analysis Process, en inglés), usado en
el análisis de negocios y otras aplicaciones que requieren una visión flexible del negocio.

Para ampliar los conceptos anteriores, en la Tabla se exponen las principales diferencias entre los
sistemas Transaccionales (OLTP) y los basados en Data warehouse.

Transaccionales Basados en Data warehouse


Admiten el acceso simultáneo de muchos Admiten el acceso simultáneo de muchos
usuarios -miles- que agregan y modifican usuarios -cientos- que consultan y no
datos. modifican datos.
Contienen grandes cantidades de datos, Contienen grandes cantidades de datos,
incluidos los datos extensivos utilizados para sumarizados, consolidados y transformados.
comprobar transacciones También de detalle pero solo los necesarios
para el análisis.
Tienen estructuras de base de datos Tienen estructuras de Base de datos simples.
complejas.
Se ajustan para dar respuesta a la actividad Se ajustan para dar respuesta a la actividad de
transaccional. consultas.
Proporcionan la infraestructura tecnológica Proporcionan la infraestructura tecnológica
necesaria para admitir las operaciones diarias necesaria para admitir análisis de los datos de
de la empresa. la empresa.
Los analistas carecen de la experiencia técnica Pueden combinar datos de orígenes
necesaria para crear consultas "ad hoc" contra heterogéneos en una única estructura
la compleja estructura de datos. homogénea y simple, facilitando la creación de
informes y consultas.
Las consultas analíticas que resumen grandes Organizan los datos en estructuras
volúmenes de datos afectan negativamente a simplificadas buscando la eficiencia de las
la capacidad del sistema para responder a las consultas analíticas más que del proceso de
transacciones en línea. transacciones.
El rendimiento del sistema cuando está Contienen datos transformados que son
respondiendo a consultas analíticas complejas válidos, coherentes, consolidados y con el

Página 29
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

puede ser lento o impredecible, lo que causa formato adecuado para realizar el análisis sin
un servicio poco eficiente a los usuarios del interferir en la operatoria transaccional diaria.
proceso analítico en línea.
Los datos que se modifican con frecuencia Proporcionan datos estables que representan
interfieren en la coherencia de la información el historial de la empresa. Se actualizan
analítica. periódicamente con datos adicionales, no con
transacciones frecuentes.

Tabla 2. Diferencias entre sistemas transaccionales y basados en data warehouse.


Fuente: Nader, Javier, 2006

2.4.7. Introducción a Datamarts (Tienda de datos)

El acceso a los datos de toda la empresa a veces no es conveniente (o necesario) para


determinados usuarios que solo necesitan un subconjunto de estos datos, en estos casos se utilizan
los Datamarts. El concepto Datamart es una especialización del data warehouse, y está enfocado a
un departamento o área específica, como por ejemplo los departamentos de Finanzas o Marketing.
Permitiendo así un mejor control de la información que se está abarcando (Poe et al., 1998).

 Los principales beneficios de utilizar Data marts son:


 Acelerar las consultas reduciendo el volumen de datos a recorrer
 Estructurar los datos para su adecuado acceso por una herramienta
 Dividir los datos para imponer estrategias de control de acceso
 Segmentar los datos en diferentes plataformas hardware
 Permite el acceso a los datos por medio de un gran número de herramientas del mercado,
logrando independencia de estas.

2.4.8 Arquitectura Data warehouse (DW)


Antes de describir la arquitectura data warehouse se señala la siguiente consideración ya
generalizada, presente en la literatura: el término Data warehouse se utiliza indistintamente para
hablar de la arquitectura en sí como también para uno de los componentes que la conforman,
específicamente el que tiene relación con el almacenamiento físico de los datos (Poe et al., 1998).
Ahora, con el propósito de facilitar el entendimiento por parte del lector, se hace especial énfasis
en esta parte del capítulo sobre el contexto del cual se estará hablando al hacer referencia al
término data warehouse.
La estructura básica de la arquitectura DW incluye:

1. Datos operacionales: un origen o fuente de datos para poblar el componente de


almacenamiento físico DW. El origen de los datos son los sistemas transaccionales internos de
la organización como también datos externos a ésta.

2. Extracción de Datos: selección sistemática de datos operacionales usados para poblar el


componente de almacenamiento físico DW.

3. Transformación de datos: procesos para sumarizar y realizar otros cambios en los datos
operacionales para reunir los objetivos de orientación a temas e integración principalmente.

4. Carga de Datos: inserción sistemática de datos en el componente de almacenamiento físico


data warehouse

Página 30
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

5. Data warehouse: componente de almacenamiento físico.

6. Herramientas de acceso a los datos en el componente de almacenamiento físico data


warehouse. Estas herramientas pueden ser de visualización multidimensional específicas para
el acceso a un data mart que está contenido en un data warehouse como también aplicaciones
desarrolladas dentro de la organización del tipo EIS/DSS.

Figura 17. Estructura básica Data warehouse


Fuente: Hernández J., 2003
Los pasos 2, 3 y 4 considerados en la figura anterior, conforman el proceso conocido como ETL (Extracción,
Transformación y Carga).

2.4.9 Metodologías de diseño y construcción de data warehouse


En los últimos años se han propuesto distintas metodologías para el diseño de Almacenes de
Datos (AD) o Data Warehouse (DW), aunque ninguna de ellas ha sido aceptada plenamente.
En algunos casos, las metodologías son extensiones de las metodologías clásicas para bases de
datos, en otros casos se ha adoptado un enfoque completamente nuevo.

Intentando analizar el trabajo hecho hasta el momento en el área del diseño, las propuestas
metodológicas pueden clasificarse en tres grupos: metodologías dirigidas por datos, metodologías
dirigidas por procesos y metodologías compuestas (datos-procesos). El objetivo de las
metodologías dirigidas por datos es obtener el esquema conceptual del DW a partir de la
descripción de las bases de datos operacionales de la organización, por el contrario, las
metodologías dirigidas por procesos derivan el esquema conceptual del DW a partir de los
requisitos de usuario. Finalmente, las metodologías compuestas realizan una combinación de las
dos aproximaciones anteriores, es decir, consideran los requisitos de usuario así como la
descripción de la base de datos operacional. A continuación se citan algunas:

 Metodología de Kimball. Kimball fue quien determinó que un data warehouse no era más que:
"la unión de todos los Data marts de una entidad". Defiende por tanto una metodología
ascendente (bottom-up) a la hora de diseñar un almacén de datos.

Página 31
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 18. Arquitectura bottom-up de un DW


Fuente: BERNABEU, Ricardo

 Metodología de Inmon. Inmon defiende una metodología descendente (top-down) a la hora de


diseñar un almacén de datos, ya que de esta forma se considerarán mejor todos los datos
corporativos. En esta metodología los Data marts se crearán después de haber terminado el
data warehouse completo de la organización.

Figura 19. Arquitectura top-down de un DW


Fuente: BERNABEU, Ricardo

 Model Driven Architecture 2.0 (MDA 2.0).Desarrollado por “The Object Management Group”
(OMG). Consiste en un conjunto de estándares que asisten en la creación, implementación,
evolución y desarrollo de sistemas dirigido por modelos. Los estándares que constituyen MDA
son: Lenguaje Unificado de Modelado (UML), Meta-Object-Facility (MOF), Meta-Data
Interchange (XMI) y Common Warehouse Metamodel (CWM).

 Multidimensional FactModel (DFM) propuesta por Golfarelly, M. y Dario. Permite hacer una
representación de los hechos y dimensiones con una notación gráfica propia, además proponen
una metodología semiautomática para obtener un esquema multidimensional a partir de un
diagrama Entidad Relación (ER). Un esquema en DFM se define como una colección de
esquemas de hechos, cuyos elementos básicos son los hechos, los atributos, las dimensiones y
las jerarquías.

Página 32
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Modelo Multidimensional (MD).Cabibbo y Torlone proponen el


método de diseñoMD, que definen como un modelo lógico para
sistemas OLAP, sin embargo los autores mencionan que es
independiente de cualquier implementación, por lo
que lo ubican en el nivel conceptual. El método de
diseño que proponen construye un es quema
MD a partir de una base de datos operacional
existente, el esquema MD consiste de un
conjunto finito de Dimensiones y un conjunto
finito de F-Tables (Hechos), donde las
dimensiones son categorías sintácticas que
permiten especificar múltiples caminos para la
búsqueda de información y cada dimensión se
organiza en una jerarquía de niveles
correspondientes.

 Metodología HEFESTO. Propuesta por Bernabéu D.


Es una metodología fundamentada en metodologías
existentes y experiencias propias del autor respecto al proceso de
confección de almacenes de datos. La construcción e implementación de un DW puede
adaptarse muy bien a cualquier ciclo de vida de desarrollo de software, con la salvedad de que
para algunas fases en particular, las acciones que se han de realizar serán muy diferentes. Lo
que se debe tener muy en cuenta, es no entrar en la utilización de metodologías que requieran
fases extensas de reunión de requerimientos y análisis, fases de desarrollo monolítico que
conlleve demasiado tiempo y fases de despliegue muy largas. Lo que se busca, es entregar una
primera implementación que satisfaga una parte de las necesidades, para demostrar las
ventajas del DW y motivar a los usuarios.

2.5 Datamining

2.5.1 Concepto de data minig


La minería de datos (DM, Data Mining) consiste en la extracción no trivial de información que
reside de manera implícita en los datos. Dicha información era previamente desconocida y podrá
resultar útil para algún proceso. En otras palabras, la minería de datos prepara, sondea y explora los
datos para sacar la información oculta en ellos.

Bajo el nombre de minería de datos se engloba todo un conjunto de técnicas encaminadas a la


extracción de conocimiento procesable, implícito en las bases de datos. Está fuertemente ligado
con la supervisión de procesos industriales ya que resulta muy útil para aprovechar los datos
almacenados en las bases de datos.
Las bases de la minería de datos se encuentran en la inteligencia artificial y en el análisis estadístico.
Mediante los modelos extraídos utilizando técnicas de minería de datos se aborda la solución a
problemas de predicción, clasificación y segmentación.

Página 33
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.5.2 Proceso Datamining

Un proceso típico de minería de datos consta de los siguientes pasos generales:

1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (aquellas que
se quiere predecir, calcular o inferir), como a las variables independientes (las que sirven para
hacer el cálculo o proceso), como posiblemente al muestreo de los registros disponibles.

2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de dispersión,
presencia de valores atípicos y ausencia de datos (valores nulos).

3. Transformación del conjunto de datos de entrada, se realizará de diversas formas en función


del análisis previo, con el objetivo de prepararlo para aplicar la técnica de minería de datos que
mejor se adapte a los datos y al problema, a este paso también se le conoce como pre
procesamiento de los datos.

4. Seleccionar y aplicar la técnica de minería de datos, se construye el modelo predictivo, de


clasificación o segmentación.

5. Extracción de conocimiento, mediante una técnica de minería de datos, se obtiene un modelo


de conocimiento, que representa patrones de comportamiento observados en los valores de las
variables del problema o relaciones de asociación entre dichas variables. También pueden
usarse varias técnicas a la vez para generar distintos modelos, aunque generalmente cada
técnica obliga a un preprocesado diferente de los datos.

6. Interpretación y evaluación de datos, una vez obtenido el modelo, se debe proceder a su


validación comprobando que las conclusiones que arroja son válidas y suficientemente
satisfactorias. En el caso de haber obtenido varios modelos mediante el uso de distintas
técnicas, se deben comparar los modelos en busca de aquel que se ajuste mejor al problema. Si
ninguno de los modelos alcanza los resultados esperados, debe alterarse alguno de los pasos
anteriores para generar nuevos modelos.

Si el modelo final no superara esta evaluación el proceso se podría repetir desde el principio o, si el
experto lo considera oportuno, a partir de cualquiera de los pasos anteriores. Esta
retroalimentación se podrá repetir cuantas veces se considere necesario hasta obtener un modelo
válido.

Una vez validado el modelo, si resulta ser aceptable (proporciona salidas adecuadas y/o con
márgenes de error admisibles) éste ya está listo para su explotación.

Tradicionalmente, las técnicas de minería de datos se aplicaban sobre información contenida en


almacenes de datos. De hecho, muchas grandes empresas e instituciones han creado y alimentan
bases de datos especialmente diseñadas para proyectos de minería de datos en las que centralizan
información potencialmente útil de todas sus áreas de negocio. No obstante, actualmente está
cobrando una importancia cada vez mayor la minería de datos desestructurados como información
contenida en ficheros de texto, en Internet, etc.

Página 34
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.5.3 Etapas de Dataminig

Aunque en datamining cada caso concreto puede ser radicalmente distinto al anterior, el
proceso común a todos ellos se suele componer de cuatro etapas principales:

 Determinación de los objetivos. Trata de la delimitación de los objetivos que el cliente desea
bajo la orientación del especialista en data mining.

 Pre procesamiento de los datos. Se refiere a la selección, la limpieza, el enriquecimiento, la


reducción y la transformación de las bases de datos. Esta etapa consume generalmente
alrededor del setenta por ciento del tiempo total de un proyecto de data mining.

Carga de trabajo en las fases de un proyecto de datamining

 Determinación del modelo. Se comienza realizando unos análisis estadísticos de los datos, y
después se lleva a cabo una visualización gráfica de los mismos para tener una primera
aproximación. Según los objetivos planteados y la tarea que debe llevarse a cabo, pueden
utilizarse algoritmos desarrollados en diferentes áreas de la Inteligencia Artificial.

 Análisis de los resultados. Verifica si los resultados obtenidos son coherentes y los coteja con
los obtenidos por los análisis estadísticos y de visualización gráfica. El cliente determina si son
novedosos y si le aportan un nuevo conocimiento que le permita considerar sus decisiones.

 En resumen, el datamining se presenta como una tecnología emergente, con varias ventajas:
por un lado, resulta un buen punto de encuentro entre los investigadores y las personas de
negocios; por otro, ahorra grandes cantidades de dinero a una empresa y abre nuevas
oportunidades de negocios. Además, no hay duda de que trabajar con esta tecnología implica
cuidar un sinnúmero de detalles debido a que el producto final involucra "toma de decisiones".

Página 35
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.5.4 Protocolo de un Proyecto de Datamining

Un proyecto de minería de datos tiene varias fases necesarias que son, esencialmente:

 Comprensión del negocio y del problema que se quiere resolver.


 Determinación, obtención y limpieza de los datos necesarios.
 Creación de modelos matemáticos.
 Validación, comunicación, etc. de los resultados obtenidos.
 Integración, si procede, de los resultados en un sistema transaccional o similar.

La relación entre todas estas fases sólo es lineal sobre el papel. En realidad, es mucho más compleja
y esconde toda una jerarquía de subfases. A través de la experiencia acumulada en proyectos de
minería de datos se han ido desarrollando metodologías que permiten gestionar esta complejidad
de una manera más o menos uniforme.

2.5.5 Técnicas de Datamining

Como ya se ha comentado, las técnicas de la minería de datos provienen de la Inteligencia


artificial y de la estadística, dichas técnicas, no son más que algoritmos, más o menos sofisticados
que se aplican sobre un conjunto de datos para obtener unos resultados.

Las técnicas más representativas son:

 Redes neuronales.- Son un paradigma de aprendizaje y procesamiento automático inspirado en


la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de
interconexión de neuronas en una red que colabora para producir un estímulo de salida.
Algunos ejemplos de red neuronal son:

o El Perceptrón
o El Perceptrón multicapa.
o Los Mapas Auto organizados, también conocidos como redes de Kohonen.

 Regresión lineal.- Es la más utilizada para formar relaciones entre datos. Rápida y eficaz pero
insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

 Árboles de decisión.- Un árbol de decisión es un modelo de predicción utilizado en el ámbito de


la inteligencia artificial, dada una base de datos se construyen estos diagramas de
construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven
para representar y categorizar una serie de condiciones que suceden de forma sucesiva, para la
resolución de un problema. Ejemplos:

o Algoritmo ID3.
o Algoritmo C4.5

 Modelos estadísticos.- Es una expresión simbólica en forma de igualdad o ecuación que se


emplea en todos los diseños experimentales y en la regresión para indicar los diferentes
factores que modifican la variable de respuesta.

Página 36
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Agrupamiento o Clustering.- Es un procedimiento de agrupación de una serie de vectores según


criterios habitualmente de distancia; se tratará de disponer los vectores de entrada de forma
que estén más cercanos aquellos que tengan características comunes. Ejemplos:

o Algoritmo K-means.
o Algoritmo K-medoids.

2.5.6 El Alcance de Datamining


El nombre de Datamining deriva de las similitudes entre buscar valiosa información de negocios
en grandes bases de datos - por ej.: encontrar información de la venta de un producto entre
grandes montos de Gigabytes almacenados - y minar una montaña para encontrar una veta
de metales valiosos. Ambos procesos requieren examinar una inmensa cantidad de material, o
investigar inteligentemente hasta encontrar exactamente donde residen los valores. Dadas bases
de datos de suficiente tamaño y calidad, la tecnología de Datamining puede generar nuevas
oportunidades de negocios al proveer estas capacidades:

 Predicción automatizada de tendencias y comportamientos. Datamining automatiza el proceso


de encontrar información predecible en grandes bases de datos. Preguntas que
tradicionalmente requerían un intenso análisis manual, ahora pueden ser contestadas directa y
rápidamente desde los datos. Un típico ejemplo de problema predecible es
el marketing apuntado a objetivos (targeted marketing). Datamining usa datos en mailing
promocionales anteriores para identificar posibles objetivos para maximizar los resultados de
la inversión en futuros mailing. Otros problemas predecibles incluyen pronósticos de problemas
financieros futuros y otras formas de incumplimiento, e identificar segmentos de población que
probablemente respondan similarmente a eventos dados.

 Descubrimiento automatizado de modelos previamente desconocidos. Las herramientas de


Datamining barren las bases de datos e identifican modelos previamente escondidos en un sólo
paso. Otros problemas de descubrimiento de modelos incluye detectar transacciones
fraudulentas de tarjetas de créditos e identificar datos anormales que pueden representar
errores de tipeado en la carga de datos.

2.5.7 Datamining basada en teoría de la información

Todas las herramientas tradicionales de minería de datos asumen que los datos que usarán para
construir los modelos contienen la información necesaria para lograr el propósito buscado: obtener
suficiente conocimiento que pueda ser aplicado al negocio (o problema) para obtener un beneficio
(o solución).
El inconveniente es que esto no es necesariamente cierto. Además, existe otro problema mayor
aún. Una vez construido el modelo no es posible conocer si el mismo ha capturado toda la
información disponible en los datos. Por esta razón la práctica común es realizar varios modelos
con distintos parámetros para ver si alguno logra mejores resultados.

Un enfoque relativamente nuevo al análisis de datos soluciona estos problemas haciendo que la
práctica de la minería de datos se parezca más a una ciencia que a un arte.
En 1948 Claude Shannon publicó un trabajo llamado “Una eoría Matemática de la Comunicación”.
Posteriormente esta pasó a llamarse Teoría de la información y sentó las bases de la comunicación

Página 37
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

y la codificación de la información. Shannon propuso una manera de medir la cantidad de


información a ser expresada en bits.
En 1999 Dorian Pyle publicó un libro llamado “Data Preparation for Data Mining” en el que propone
una manera de usar la Teoría de la Información para analizar datos. En este nuevo enfoque, una
base de datos es un canal que transmite información. Por un lado está el mundo real que captura
datos generados por el negocio. Por el otro están todas las situaciones y problemas importantes del
negocio. Y la información fluye desde el mundo real y a través de los datos, hasta la problemática
del negocio.

Con esta perspectiva y usando la Teoría de la información, es posible medir la cantidad de


información disponible en los datos y qué porción de la misma podrá utilizarse para resolver la
problemática del negocio. Como un ejemplo práctico, podría encontrarse que los datos contienen
un 65% de la información necesaria para predecir qué cliente rescindirán sus contratos. De esta
manera, si el modelo final es capaz de hacer predicciones con un 60% de acierto, se puede asegurar
que la herramienta que generó el modelo hizo un buen trabajo capturando la información
disponible. Ahora, si el modelo hubiese tenido un porcentaje de aciertos de solo el 10%, por
ejemplo, entonces intentar otros modelos o incluso con otras herramientas podría valer la pena.

La capacidad de medir información contenida en los datos tiene otras ventajas importantes.

Al analizar los datos desde esta nueva perspectiva se genera un mapa de información que hace
innecesario la preparación previa de los datos, una tarea absolutamente imprescindible si se desea
buenos resultados, pero que lleva enorme cantidad de tiempo.

Es posible seleccionar un grupo de variables óptimo que contenga la información necesaria para
realizar un modelo de predicción.

Una vez que las variables son procesadas con el fin de crear el mapa de información y luego
seleccionadas aquellas que aportan la mayor información, la elección de la herramienta que se
usará para crear el modelo deja de tener importancia, ya que el mayor trabajo fue realizado en los
pasos previos.

2.5.8 Tendencias

La Minería de Datos ha sufrido transformaciones en los últimos años de acuerdo con cambios
tecnológicos, de estrategias de marketing, la extensión de los modelos de compra en línea, etc. Los
más importantes de ellos son:

 La importancia que han cobrado los datos no estructurados (texto, páginas de Internet, etc.)
 La necesidad de integrar los algoritmos y resultados obtenidos en sistemas operacionales,
portales de Internet, etc.
 La exigencia de que los procesos funcionen prácticamente en línea (por ejemplo, que frente a
un fraude con una tarjeta de crédito).
 Los tiempos de respuesta. El gran volumen de datos que hay que procesar en muchos casos
para obtener un modelo válido es un inconveniente; esto implica grandes cantidades de tiempo
de proceso y hay problemas que requieren una respuesta en tiempo real.

Página 38
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.5.9 Ejemplos de Uso de la Minería de Datos

 Negocios: La minería de datos puede contribuir significativamente en las aplicaciones de


administración empresarial basada en la relación con el cliente. En lugar de contactar con el
cliente de forma indiscriminada a través de un centro de llamadas o enviando cartas, sólo se
contactará con aquellos que se perciba que tienen una mayor probabilidad de responder
positivamente a una determinada oferta o promoción.

Por lo general, las empresas que emplean


minería de datos ven rápidamente el
retorno de la inversión, pero también
reconocen que el número de modelos
predictivos desarrollados puede crecer muy
rápidamente.

En lugar de crear modelos para predecir qué


clientes pueden cambiar, la empresa podría construir
modelos separados para cada región y/o para cada tipo de
cliente. También puede querer determinar qué clientes van a ser
rentables durante una ventana de tiempo (una quincena, un mes, ...) y
sólo enviar las ofertas a las personas que es probable que sean rentables. Para mantener esta
cantidad de modelos, es necesario gestionar las versiones de cada modelo y pasar a una minería
de datos lo más automatizada posible.

 Hábitos de compra en supermercados: El ejemplo clásico de aplicación de la minería de datos


tiene que ver con la detección de hábitos de compra en supermercados. Un estudio muy citado
detectó que los viernes había una cantidad inusualmente elevada de clientes que adquirían a la
vez pañales y cerveza. Se detectó que se debía a que dicho día solían acudir al supermercado
padres jóvenes cuya perspectiva para el fin de semana consistía en quedarse en casa cuidando
de su hijo y viendo la televisión con una cerveza en la mano. El supermercado pudo incrementar
sus ventas de cerveza colocándolas próximas a los pañales para fomentar
las ventas compulsivas.

 Patrones de fuga: Un ejemplo más habitual es el de la detección de


patrones de fuga. En muchas industrias —como la banca, las
telecomunicaciones, etc.— existe un comprensible interés
en detectar cuanto antes aquellos clientes que
puedan estar pensando en rescindir sus
contratos para, posiblemente, pasarse a la
competencia. A estos clientes —y en
función de su valor— se les podrían
hacer ofertas personalizadas, ofrecer
promociones especiales, etc., con el
objetivo último de retenerlos. La minería
de datos ayuda a determinar qué clientes son
los más proclives a darse de baja
estudiando sus patrones de
comportamiento y comparándolos con
muestras de clientes que, efectivamente,
se dieron de baja en el pasado.

Página 39
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 Fraudes: Un caso análogo es el de la detección de transacciones de lavado de dinero o de fraude


en el uso de tarjetas de crédito o de servicios de telefonía móvil e, incluso, en la relación de los
contribuyentes con el fisco. Generalmente, estas operaciones fraudulentas o ilegales suelen
seguir patrones característicos que permiten, con cierto grado de probabilidad, distinguirlas de
las legítimas y desarrollar así mecanismos para tomar medidas rápidas frente a ellas.

 Recursos humanos: La minería de datos también puede ser útil para los departamentos de
recursos humanos en la identificación de las características de sus empleados de mayor éxito. La
información obtenida puede ayudar a la contratación de personal, centrándose en los esfuerzos
de sus empleados y los resultados obtenidos por éstos. Además, la ayuda ofrecida por las
aplicaciones para Dirección estratégica en una empresa se traducen en la obtención de ventajas
a nivel corporativo, tales como mejorar el margen de beneficios o compartir objetivos; y en la
mejora de las decisiones operativas, tales como desarrollo de planes de producción o gestión de
mano de obra.

 Comportamiento en Internet: También es un área en boga el del análisis del comportamiento


de los visitantes —sobre todo, cuando son clientes potenciales— en una página de Internet. O la
utilización de la información —obtenida por medios más o menos legítimos— sobre ellos para
ofrecerles propaganda adaptada específicamente a su perfil. O para, una vez que adquieren un
determinado producto, saber inmediatamente qué otro ofrecerle teniendo en cuenta la
información histórica disponible acerca de los clientes que han comprado el primero.

 Terrorismo: La minería de datos ha sido citada como el método por el cual la unidad Able
Danger del Ejército de los EE. UU. había identificado al líder de los atentados del 11 de
septiembre de 2001, Mohammed Atta, y a otros tres secuestradores del "11-S" como posibles
miembros de una célula de Al Qaeda que operan en los EE. UU. más de un año antes del ataque.
Se ha sugerido que tanto la Agencia Central de Inteligencia y su homóloga canadiense, Servicio
de Inteligencia y Seguridad Canadiense, también han empleado este método.

 Juegos: Desde comienzos de la década de 1960, con la disponibilidad de


oráculos para determinados juegos combinacionales, también llamados
finales de juego de tablero (por ejemplo, para las tres en raya o en finales
de ajedrez) con cualquier configuración de inicio, se ha
abierto una nueva área en la minería de datos que
consiste en la extracción de estrategias utilizadas por
personas para estos oráculos. Los planteamientos
actuales sobre reconocimiento de patrones, no parecen
poder aplicarse con éxito al funcionamiento de estos
oráculos. En su lugar, la producción de patrones
perspicaces se basa en una amplia
experimentación con bases de datos sobre
esos finales de juego, combinado con un
estudio intensivo de los propios finales de
juego en problemas bien diseñados y con conocimiento de la técnica (datos previos sobre el
final del juego). Ejemplos notables de investigadores que trabajan en este campo son Berlekamp
en el juego de puntos-y-cajas (o Timbiriche) y John Nunn en finales de ajedrez.

 Ciencia e Ingeniería: En los últimos años la minería de datos se está utilizando ampliamente en
diversas áreas relacionadas con la ciencia y la ingeniería. Algunos ejemplos de aplicación en
estos campos son:

Página 40
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

o Genética: En el estudio de la genética humana, el objetivo principal es entender la relación


cartográfica entre las partes y la variación individual en las secuencias del ADN humano y la
variabilidad en la susceptibilidad a las enfermedades. En términos más llanos, se trata de
saber cómo los cambios en la secuencia de ADN de un individuo afectan al riesgo de
desarrollar enfermedades comunes (como por ejemplo el cáncer). Esto es muy importante
para ayudar a mejorar el diagnóstico, prevención y tratamiento de las enfermedades. La
técnica de minería de datos que se utiliza para realizar esta tarea se conoce como "reducción
de dimensionalidad multifactorial".

o Ingeniería eléctrica: En el ámbito de la ingeniería eléctrica, las técnicas de minería de datos


han sido ampliamente utilizadas para monitorizar las condiciones de las instalaciones de alta
tensión. La finalidad de esta monitorización es obtener información valiosa sobre el estado
del aislamiento de los equipos. Para la vigilancia de las vibraciones o el análisis de los
cambios de carga en transformadores se utilizan ciertas técnicas para agrupación de datos
(clustering) tales como los mapas auto-organizativos (SOM: Self-organizing map). Estos
mapas sirven para detectar condiciones anormales y para estimar la naturaleza de dichas
anomalías.

o Análisis de gases: También se han aplicado técnicas de minería de datos para el análisis de
gases disueltos (DGA: Dissolved gas analysis) en transformadores eléctricos. El análisis de
gases disueltos se conoce desde hace mucho tiempo como la herramienta para diagnosticar
transformadores. Los mapas auto-organizativos (SOM) se utilizan para analizar datos y
determinar tendencias que podrían pasarse por alto utilizando las técnicas clásicas (DGA)

2.5 Procesos ETL


El concepto ETL proviene de los términos ingleses Extract, Transform y Load. Las herramientas
ETL juegan un papel principal en la creación de los data warehouses, de los que hemos hablado
anteriormente. Es además uno de los cuatro principales componentes por los que está formada una
solución completa de Business Intelligence; ETL, data Warehouse, reporting y herramientas
analíticas.

Figura7. Componentes y estructura de una herramienta ETL (Eckerson, White. 2002)

Página 41
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Como hemos mencionado, los procesos ETL son el corazón de una solución Business Intelligence.
Estos procesos combinan información proveniente de distintas fuentes de información y la
almacenan en el data Warehouse, permitiendo a los usuarios disponer de un almacén de datos
único, con la información integrada, limpia, estructurada, consistente y preparada para el análisis.
Como lo definen los autores en (Eckerson, White. 2002), el data warehouse ofrece una sóla versión
de la verdad.

De acuerdo a las afirmaciones de numerosos desarrolladores de este tipo de soluciones, el diseño y


creación de los procesos ETL consume entre el 60 y 80 por cien de un proyecto completo de
Business Intelligence. Este consumo se debe a que conlleva la integración de toda la información
colorativa, hallándose ésta en distintas fuentes, en distintos formatos, etc.

Es sin duda, el punto más crítico de un proyecto de Business Intelligence, en el cual, las
herramientas empleadas juegan un papel fundamental. Una buena herramienta de transformación
de datos (ETL) en manos de un buen consultor BI, puede acelerar el proceso de creación y
consolidación del data warehouse.

• Extraer e integrar información: Una vez especificada la información que se quiere analizar e
identificadas las fuentes en donde se encuentra localizada dicha información (ERPs, CRMs, archivos
planos, aplicaciones corporativas, etc.), se lleva a cabo el proceso de integración. Esto es, construir
las tablas del data Warehouse para albergar los datos en bruto. Extraer la información útil de las
fuentes de datos e incorporar dichos datos al data Warehouse.

Figura8. Tipos de fuentes de datos que las herramientas ETL procesan. (Eckerson,
White. 2002)

 Estandarización de la información: Estando disponibles los datos en bruto en el data Warehouse


se llevan a cabo los procesos de transformación: normalización y limpieza de datos. De esta forma
que los datos almacenados guarden una coherencia de formato, cambios de unidad, operaciones
entre campos, etc.

• Limpieza de datos: Generalmente, tras la extracción en bruto de la información, hay datos que no
interesan mantener, o son datos duplicados. Es frecuente realizar procesos de limpieza o de filtrado
para eliminar información innecesaria, redundante o errónea.

Página 42
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura9. Importancia que dan las empresas a los beneficios de ETL (Eckerson, White. 2002)

• Carga de datos: Tras aplicar todos los procesos de transformación, se lleva a cabo la carga
consolidada de los datos. Es habitual disponer de dos bases de datos separadas físicamente una
para la preparación de los datos y otra para el data Warehouse en sí. El proceso de volcado sería
pues el paso de la primera de estas bases de datos (llamada staging area o interfaz) al data
Warehouse. Es habitual que este proceso requiera el borrado de algunos datos del data Warehouse
que van a ser refrescados.

Figura10. Frecuencia de carga (refresco de datos) y previsión futura (Eckerson, White. 2002)

2.6 El Procesamiento Analítico en Línea (OLAP)


La tecnología de Procesamiento Analítico en Línea –OLAP- (Online AnalyticalProcessing) permite
un uso más eficaz de data warehouse para el análisis de datos en línea, lo que proporciona
respuestas rápidas a consultas analíticas complejas e iterativas utilizada generalmente para
sistemas de ayuda para la toma de decisiones. Primero y más importante, el OLAP presenta los
datos a los usuarios a través de un modelo de datos intuitivo y natural. Con este estilo de
navegación, los usuarios finales pueden ver y entender más efectivamente la información de sus
bases de datos, permitiendo así a las organizaciones reconocer mejor el valor de sus datos.

En segundo lugar, el OLAP acelera la entrega de información a los usuarios finales que ven estas
estructuras de datos como cubos denominadas multidimensionales debido a que la información es
vista en varias dimensiones.

Página 43
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Esta entrega es optimizada ya que se prepararan algunos valores calculados en los datos por
adelantado, en vez de de realizar el cálculo al momento de la solicitud. La combinación de
navegación fácil y rápida le permite a los usuarios ver y analizar información más rápida y
eficientemente que lo que es posible con tecnologías de bases de datos relacionales solamente. El
resultado final: se pasa más tiempo analizando los datos y menos tiempo analizando las bases de
datos.

A pesar del proceso de almacenamiento de datos de preparar información para el consumo del
usuario final se debe facilitar la búsqueda de la información.

Generalmente, las estructuras de datos de las bases tienen cierta complejidad para el usuario final,
principalmente para responder a preguntas tales como:

"¿Quiénes fueron los mejores vendedores de cada región durante el año pasado, mensualmente?"
son complejas cuando se expresan en lenguaje SQL.

Estos retos son enfrentados con herramientas avanzadas de peticiones (queries), las cuáles ocultan
al usuario final la complejidad de las base de datos. Esta es la función de las herramientas OLAP.
Todas las organizaciones tienen datos multidimensionales y la complejidad no es necesariamente
una función del tamaño de la compañía. Aún a las más pequeñas compañías les gustaría poder
rastrear sus ventas por producto, vendedor, geografía, cliente y tiempo. Las organizaciones han
buscado durante mucho tiempo herramientas para acceder, navegar y analizar información
multidimensional de una manera fácil y natural.

Las aplicaciones OLAP deberían proporcionar análisis rápidos de información multidimensional


compartida. Las características principales del OLAP son (Pence&Creeth, 2002):

 Rápido: proporciona la información al usuario a una velocidad constante. La mayoría de las


peticiones se deben de responder al usuario en cinco segundos o menos.

 Análisis: realiza análisis estadísticos y numéricos básicos de los datos, predefinidos por el
desarrollador de la aplicación o definido “ad hoc” por el usuario.

 Compartida: implementa los requerimientos de seguridad necesarios para compartir datos


potencialmente confidenciales a través de una gran población de usuarios.

 Multidimensional: llena la característica esencial del OLAP, que es ver la información en


determinadas vistas o dimensiones.

 Información: acceden a todos los datos y a la información necesaria y relevante para la


aplicación, donde sea que ésta resida y no esté limitada por el volumen.

 El OLAP es un componente clave en el proceso de almacenamiento de datos (data warehousing)


y los servicios OLAP proporcionan la funcionalidad esencial para una gran variedad de
aplicaciones que van desde reportes corporativos hasta soporte avanzado de decisiones.

Página 44
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.6.1 Vistas del Usuario


En un modelo de datos OLAP, la información es vista como cubos, los cuáles consisten de categorías
descriptivas (dimensiones) y valores cuantitativos (medidas). El modelo de datos multidimensional
simplifica a los usuarios el formular peticiones complejas, arreglar datos en un reporte, cambiar de
datos de resumen a datos de detalle y filtrar o seccionar los datos en subconjuntos significativos.
Por ejemplo, las dimensiones típicas de un cubo que contenga información de ventas, incluiría
tiempo, geografía, producto, canal, organización y escenario (planeado o real). Las medidas típicas
incluirían ventas en euros (u otra moneda), unidades vendidas, número de personas, ingresos y
gastos.

Dentro de cada dimensión de un modelo de datos OLAP, los datos se pueden organizar en una
jerarquía que represente niveles de detalle de los datos.

La funcionalidad de los sistemas OLAP se caracteriza por ser un análisis multidimensional de datos
corporativos, que soportan los análisis del usuario y unas posibilidades de navegación,
seleccionando la información a obtener.

Normalmente este tipo de selecciones se ve reflejada en la visualización de la estructura


multidimensional, en unos campos de selección que permitan elegir el nivel de agregación
(jerarquía) de la dimensión, y/o la elección de un dato en concreto, la visualización de los atributos
del sujeto, frente a una(s) dimensiones en modo tabla, pudiendo con ello realizar, entre otras las
siguientes acciones (Pence&Creeth, 2002):

 Rotar (Swap): alterar las filas por columnas (permutar dos dimensiones de análisis)
 Bajar (Down): bajar el nivel de visualización en las filas a una jerarquía inferior
 Detallar (Drilldown): informar para una fila en concreto de datos a un nivel inferior
 Expandir (Expand): ídem anterior sin perder la información a nivel superior para éste y el resto
de los valores.

2.6.2 Arquitectura OLAP


Aunque en ocasiones se utilizan indistintamente, los términos data warehouse y proceso
analítico en línea (OLAP) se aplican a diferentes componentes de sistemas de ayuda a la toma de
decisiones o sistemas de inteligencia empresarial. Los datos contenidos en undata warehouse se
encuentran organizados para permitir el análisis por medio de herramientas OLAP.

La tecnología OLAP permite un uso más eficaz de los almacenes de datos para el análisis en línea, lo
que proporciona respuestas rápidas a consultas analíticas complejas e iterativas. Los modelos de
datos multidimensionales de OLAP y las técnicas de agregados de datos organizan y resumen
grandes cantidades de datos para que puedan ser evaluados con rapidez mediante el análisis en
línea y las herramientas gráficas. La respuesta a una consulta realizada sobre datos históricos a
menudo suele conducir a consultas posteriores en las que el analista busca respuestas más
concretas o explora posibilidades.

Los sistemas OLAP proporcionan la velocidad y la flexibilidad necesarias para dar apoyo al analista
en tiempo real. La figura 21 muestra la integración del data warehouse y los procesos OLAP, que
generalmente se implementan por medio de una aplicación servidora que accede al data
warehouse y realiza los procesos de análisis. A través de este servicio OLAP, los usuarios acceden a
la información residente en las bases de datos (Microsoft Corp, 2002).

Página 45
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 21. Arquitectura básica para OLAP.


Fuente: http://cgmlab.cs.dal.ca/Members/obaltzer/SOLAP/

A continuación se explica el modelo de datos donde se sustenta esta tecnología.

2.6.3 El modelo de datos OLAP


Un reto fundamental en la implementación del OLAP es mapear el esquema inicial de la base de
datos a un modelo multidimensional.

En la mayoría de las implementaciones de OLAP, se asume que los datos han sido preparados para
el análisis a través del almacenamiento de datos (data warehousing) y que la información se ha
extraído de sistemas operacionales, limpiado, validado y resumido antes de incorporarse en una
aplicación OLAP. Este es un paso vital en el proceso, que asegura que los datos que son vistos por el
usuario OLAP son correctos, consistentes y que llenan las definiciones organizacionales para los
datos.

Cada vez más, la información en un data warehouse se organiza en esquemas de estrella o de copo
de nieve. El esquema estrella, considerado como jerarquía de dimensiones lineal se basa en una
tabla de hechos central (las medidas) que se enlaza a las tablas de dimensiones relacionadas (las
categorías descriptivas de las medidas), mientras que el esquema copo de nieve, considerado como
estrella jerárquica o modelo no lineal , es una tabla de hechos central se enlaza a una tabla de
hechos contiene generalmente los valores o medidas que se quiere analizar, mientras las tablas de
dimensiones contienen las vistas en que se quiere analizar esas medidas.

Página 46
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 22. Modelo estrella.


Fuente: Hernández J., 2003.

Luego de analizar los dos tipos de esquemas, cabe una pregunta ¿Se puede recopilar toda la
información necesaria en un único esquema estrella o copo de nieve? La respuesta es NO.
Realmente se requiere de varios esquemas y cada uno de ellos se denomina data mart como se
ejemplifica en la figura.

Figura 24. Ejemplo de un almacén formado por 4 data marts.


Fuente: Hernández J., 2003

La figura 9 muestra un ejemplo de esquema de estrella. En este tipo de base de datos, una tabla de
hechos central se enlaza a las tablas de dimensiones relacionadas.

Página 47
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Figura 25. Un esquema de estrella.


Fuente: Nader, J.,2003

La figura muestra un ejemplo de esquema copo de nieve. Este tipo de esquema se caracteriza por
tener tablas dimensionales relacionadas con otras tablas dimensionales además de vincularse a la
tabla de hechos. A continuación se enumeran algunas de las principales ventajas del esquema
estrella:

Figura 26. Un esquema copo de nieve.


Fuente: Nader, J., 2003

Página 48
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Crea una base de datos con tiempos de respuesta rápido.


 Diseño fácil de modificar.
 Simula como ven los datos los usuarios finales.
 Simplifica la navegación.
 Facilita la interacción con herramientas.

Los esquemas de estrella y copo de nieve son aproximaciones relacionales del modelo de datos
OLAP y son un punto de partida excelente para construir definiciones de cubo OLAP. Pocos
productos OLAP han tomado ventaja de este hecho. Generalmente no han provisto herramientas
sencillas para mapear un esquema de estrella a un modelo OLAP y como resultado mantienen el
costo de construir el modelo OLAP extremadamente alto y el tiempo de desarrollo
innecesariamente largo.

Debido a la explosión de datos, las aplicaciones OLAP pueden sufrir aún más cuando los datos de
detalle o fuente están distribuidos dispersamente en todo lo amplio del cubo multidimensional. Los
valores faltantes o inválidos crean dispersión en el modelo de datos OLAP. En el peor caso, un
producto OLAP podría almacenar un valor vacío. Por ejemplo, una compañía podría no vender
todos los productos en todas las regiones, así que no aparecerían valores en la intersección donde
los productos no se venden en una región particular.

La dispersión de datos, un reto para las compañías de OLAP, se ha vencido con varios grados de
éxito. Las peores implementaciones resultan en bases de datos que almacenan valores vacíos, por
tanto teniendo baja densidad y desperdiciando espacio y recursos. Los servicios OLAP no
almacenan valores vacíos y como resultado, aún los cubos dispersamente poblados no se inflarán
de tamaño. Mientras que este asunto es frecuentemente subrayado como un factor decisivo de
arquitecturas OLAP, por algunos vendedores de OLAP, las diferencias entre las implementaciones
de las compañías en el manejo de la dispersión son mínimas comparadas a las más importantes
explosiones de datos causadas por precalcular demasiados agregados.

2.6.4 Implementación del OLAP


Los cubos, las dimensiones y las jerarquías son la esencia de la navegación multidimensional del
OLAP. Al describir y representar la información en esta forma, los usuarios pueden navegar
intuitivamente en un conjunto complejo de datos. Sin embargo, el solo describir el modelo de datos
en una forma más intuitiva, hace muy poco para ayudar a entregar la información al usuario más
rápidamente.
El Almacén de Datos y las herramientas OLAP se pueden basar físicamente en varias
organizaciones:

 Sistemas ROLAP: se implementan sobre tecnología relacional, pero disponen de algunas


facilidades para mejorar el rendimiento (índices de mapas de bits, índices de JOIN).

 Sistemas MOLAP: disponen de estructuras de almacenamiento específicas (arrays) y técnicas


de compactación de datos que favorecen el rendimiento del almacén.

 Sistemas HOLAP: sistemas híbridos entre ambos.

Página 49
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

2.7 KPI's
Medimos lo que creemos que es importante. El término empleado por el Business Intelligence
para designar las métricas importantes se denomina indicadores de gestión, KPI (Key Performance
Indicators). Los sistemas de Business Intelligence están específicamente diseñados para asimilar
grandes cantidades de datos complejos de diferentes fuentes y combinar estos datos utilizando
algoritmos complejos con el fin de asignar, agregar y, en definitiva, jugar con la información. El
resultado es la obtención sistemática de informes con las métricas, ratios e indicadores del negocio;
los auténticos KPI que los gerentes necesitan identificar, analizar y utilizar para tomar decisiones de
forma frecuente. (Vitt, Luckevich, Misner. 2002).

Un indicador de gestión (KPI) ha de cumplir las características recopiladas en el acrónimo SMART,


esto es:
 Specific (específico)
 Measurable (medible)
 Achievable (alcanzable)
 Realistic (realista)
 Timely (a tiempo)

Lo que realmente es importante acerca de un indicador de gestión es que los datos de los que
dependa el indicador deben ser consistentes y correctos y que dichos datos deben estar
disponibles a tiempo.

A continuación se muestra una tabla con los KPIs más comunes empleados en distintas áreas
funcionales de una empresa:

Figura14. KPI empleados en áreas funcionales (Vitt, Luckevich, Misner. 2002)

Página 50
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

CAPÍTULO III
HERRAMIENTAS BUSINESS
INTELLIGENCE

Página 51
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.1 Herramientas de Reportes


En este apartado se presenta una introducción a uno de los componentes quedan soporte a
la Inteligencia de Negocios, que son los reportes y las herramientas para su construcción. A
continuación se explica el estado actual de los reportes, su necesidad y las características
principales que deben reunir las herramientas que los construyen y administran.

3.1.1 Estado Actual de los Reportes


Tradicionalmente, los reportes han sido el medio principal para disponer de información.
Tanto reportes en papel como en el escritorio, el usuario depende de ellos para comunicar a la
gente lo que está ocurriendo en la empresa vía los almacenes de información. Los reportes tienen
en las bases de datos su principal fuente de alimentación y han brindado al usuario final entendido
éste como cualquier persona que requiera un reporte, la posibilidad de consultar y publicar lo que
las bases de datos poseen, la limitante que siempre ha existido en este sentido es que el generar un
reporte implica manejar algunas habilidades técnicas relacionadas con las bases de datos y las
herramientas de software.

Los reportes o las consultas son requeridos por cualquier persona dentro de la organización, de
hecho, no es una labor que esté limitada a un nivel jerárquico opuesto. Cuando un usuario con poca
preparación técnica (secretarias, ejecutivos, etc.) requiere de un reporte o consulta, lo hace vía
terceros, el tradicional entorno es hacer la solicitud de información a sistemas y obtenerla después
de cierto tiempo, el tiempo puede ser irrelevante o puede significar la pérdida de vigencia de la
información solicitada.

El usuario técnico realiza los reportes y para ello necesita conectarse a la base de datos,
posteriormente, diseñar el formato requerido y, al final, obtener los datos. Tanto la conexión a la
base de datos como la construcción del formato del reporte son tareas de sistemas, la obtención de
datos se comparte con el usuario final, con esta lógica se entiende que el usuario final no puede
manipular sus reportes en caso de necesitar modificaciones o adecuaciones al mismo, por lo tanto
continúa la dependencia, incluso, para modificaciones mínimas.

Los usuarios con algunas habilidades computacionales pueden hacer uso delas herramientas de
reportes orientadas a los usuarios de sistemas, pero solo para obtener reportes sencillos, no el
tradicional reporte complejo que es el más útil, además, la gente que toma decisiones no debe
perder su tiempo en procesarla información para después analizarla.

Algunas de las limitantes propias de la generación de reportes en la actualidad son:

 Integración
Los reportes complejos que necesitan de más de una fuente de información se realizan
extrayendo los datos en un primer momento y, posteriormente, procesándolos en una
herramienta que los integre (hojas de cálculo, archivos de texto, Access, etc.). Esto implica
preparar la información antes de que se encuentre lista para ser enviada al usuario y la
preparación normalmente llevan horas o hasta días con la consecuente pérdida de tiempo en
funciones secundarias improductivas.

 Distribución
Los reportes se imprimen y posteriormente se distribuyen de forma manual o mediante fax.
También se generan en pantalla y, luego, se envían mediante fax o correo electrónico, con lo

Página 52
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

que hay dos actividades involucradas que generan pérdida de tiempo en su ejecución: la
publicación y la distribución.

 Dependencias de sistemas
Las bases de datos se construyen en general para ser eficaces al almacenar datos no para
consultarlos. Los lenguajes de consulta se adaptan a la estructura de las bases de datos. En
función del conocimiento necesario, tanto de las bases de datos a consultar como de los
lenguajes técnicos necesarios, el usuario final no está en posibilidad real de obtener su propia
información, por tal motivo la dependencia de gente de sistemas es muy grande y provoca el
que se tengan los reportes cuando la gente de sistemas dispone de tiempo y recursos para
hacerlo, visto de otro modo, si la gente de sistemas no lo hace, el usuario final no los tendría a la
mano.

 Seguridad
Al dejar en manos de terceros la generación de reportes se puede incurrir en que la información
valiosa para la empresa pueda ser filtrada y utilizada por personas que no son los directamente
interesados en utilizarla. Un reporte de sueldos y prestaciones de los empleados, solicitado por
Recursos Humanos, puede ser un detonante de conflictos en manos de inconformes.

 Herramientas de consulta y reportes


Las herramientas de consulta y reportes (Query & Reporting Tools) son una categoría de
herramientas de BI. Con las herramientas de reportes orientadas al usuario final se pretende
mejorar la obtención de información mejorando el área de sistemas al disminuir una capa
intermedia entre complejidad técnica y usuario final.

Las herramientas de reportes orientadas al usuario final son software que aíslala compleja capa
técnica propia del lenguaje de sistemas, tal como lenguaje SQL, uniones de tablas y nombres
crípticos, al organizar los datos de la terminología de negocios. El resultado es que el usuario final o
intermedio tiene una vista mucho más parecida a su concepción del negocio, o al menos lo
suficiente como para poder generar sus propios reportes y publicación de los mismos, sin depender
delos usuarios técnicos.

El usuario de sistemas continúa participando, pero básicamente en el control sobre el acceso a


bases de datos, administración, mantenimiento, seguridad, impacto en la red e incluso, creación
única de reportes complejos; el usuario final tiene solo un ambiente amigable en el que es posible
crear sus propias consultas y reportes. Una herramienta de reportes puede también publicar los
datos que se encuentran almacenados en un Data Warehouse. Desde ese punto de vista, se brinda
con la tecnología, la posibilidad de que el usuario final no solo consulte y publique la información a
detalle, sino información concentrada y agrupada; de ahí que también sea considerada como el
soporte último para el máximo nivel de detalle de un DSS.

Cierta duda ha surgido en cuanto a la verdadera posibilidad para que el usuario final realice sus
reportes y posteriormente los explote. Definitivamente depende del nivel en el cual ubiquemos al
usuario final y, evidentemente, del nivel de conocimientos en materia de computación que pueda
tener. Un usuario final puede ser cualquier persona que requiera hacer una consulta o reporte y
éste puede ir desde una secretaria, un asistente, un gerente o un director, cualquiera que necesite
información procesada de fuentes de datos es un usuario potencial.

Sin embargo, a pesar de que el manejo de una herramienta como Excel se ha considerado un
estándar que pueda utilizar cualquier administrativo de cualquier nivel, no todas las personas
pueden decir que verdaderamente saben utilizar, para fines prácticos, esa herramienta.

Página 53
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Precisamente, para ese tipo de usuarios, las herramientas de reportes no serán útiles más que para
explotar los reportes que previamente se hayan realizado, es decir, ejecutar reportes. Otro tipo de
usuario, con algunos conocimientos, si podrá construir sus propios reportes, que siguen siendo
tarea de gente de sistemas, pues requieren de un procesamiento de la información antes de que
sea "pintada" y, para ello, son necesarios procedimientos externos a los datos con lenguajes de
consulta altamente técnicos.

Dependiendo del nivel del usuario puede disminuirse o eliminarse la dependencia de sistemas y
pueden las herramientas de reportes mantener 3 niveles de dificultad:

 Usuarios poco expertos (gerentes tácticos, directores ejecutivos) quienes solicitan la ejecución
de reportes o consultas predefinidas, según parámetros predeterminados.
 Usuarios con cierta experiencia (asistentes, gerentes operativos, secretarias especializadas)
pueden generar consultas o reportes flexibles, apoyándose en una interfaz gráfica intuitiva.
 Usuarios muy experimentados (sistemas) pueden crear e incluso escribir, total o parcialmente,
la consulta en un lenguaje de consulta.

3.1.2 Características de una herramienta de reportes


Una herramienta de reportes orientada al usuario final debe también poseer algunas utilidades
adicionales que faciliten la generación y publicación de reportes.

 Intuitivo
Como cualquier herramienta de BI, la característica común es su facilidad de uso e intuición. Con
apoyo en interfaces gráficas y visuales, un usuario con una formación estándar podrá hacer uso
de una herramienta de este tipo.

 Seguridad
Deben brindar seguridad para el acceso a los reportes, tanto a nivel usuario como por grupos e,
incluso, en el grado de profundidad de cada usuario a la información. Esto con la idea de que la
información privada no sea accesible por cualquier persona.

 Publicación y distribución.
Una función importante de las herramientas es eliminar la doble actividad de ejecutar y publicar
primero un reporte y, posteriormente, distribuirlo a quien lo necesita. La publicación de una
consulta normalmente se realiza mediante fax, correo electrónico, archivo e, incluso, de mano
en mano. El objetivo con las nuevas herramientas es facilitar estas actividades. En el momento
que un usuario pueda ejecutar, desde cualquier lugar, una consulta y mandarla imprimir on-site,
se está eliminando la doble función de publicación y distribución. Las herramientas de reportes
deben permitir realizar consultas desde su PC en modo Cliente / Servidor, Intranet o Internet e
imprimir cualquier consulta.

Página 54
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.2 Herramientas Para Inteligencia De Negocios


3.2.1 Herramientas Propietarias
El Cuadrante Mágico

Figura 4. Cuadrante mágico de las Plataformas BI.

Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado
por la empresa Gartner en enero del 2009 (ver Figura 13), se observa que las plataformas de BI
predominantes siguen siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS,
Micro Strategy e Information Builder.

Página 55
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

A continuación se describen y se muestra la arquitectura de las plataformas BI propietarias más


relevantes:

 COGNOS

Proveedor de tecnología y servicios para el Business Intelligence (BI) y la Gestión del


Rendimiento, ofrece una plataforma basada en estándares abiertos para generación reportes,
análisis y scorecards que se integran con los presupuestos, planes, proyecciones e informes
financieros conducidos por finanzas.

Según el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado
por la empresa Gartner en enero del 2009, se observa que las plataformas de BI predominantes siguen
siendo propietarias, destacándose Cognos de IBM, Microsoft, Oracle, SAP, SAS, Micro Strategy e
Information Builder.

A continuación se describen y se muestra la arquitectura de las plataformas BI propietarias más


relevantes:

Figura 5. Arquitectura BI de IBM Cognos.

Página 56
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 MICROSOFT:

La plataforma Business Intelligence de Microsoft comprende aplicaciones de servidor, cliente y


programador. Está basada en Microsoft SQL Server 2008, que incluye administración de bases de
datos relacionales, SQL Server Integration Services, SQL Server Analysis Services, SQL Server
ReportingServices y las capacidades de análisis de datos SQL Server Data Mining y está integrada
con la plataforma de desarrollo Microsoft Visual Studio 2010 y con Microsoft Office 2010.

Figura 6. Arquitectura BI de Microsoft.



 ORACLE BUSINESS INTELLIGENCE SUITE ENTERPRISE EDITION (OBIEE):

Integra tecnología de Siebel con Oracle


Fusion Middleware. Incluye: consulta y
análisis relacional y OLAP de entornos
Oracle y de otros proveedores,
herramientas de análisis y consulta ad-hoc,
dashboards analíticos, creación de informes
y herramientas de publicación, alertas en
tiempo real, capacidades analíticas para
dispositivos móviles e integración con las
herramientas de escritorio de Microsoft.

Página 57
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Arquitectura BI de OBIEE.

 BUSINESS OBJECT DE SAP


La empresa SAP compró en el 2008 a Business
Object, convirtiéndose en un fuerte competidor de
tecnologías de inteligencia de negocios. Suministra
a los usuarios el poder acceder de forma sencilla a
los datos, analizar la información almacenada y
creación de informes.

Arquitectura BI de SAP Business Objects XI 3.1.

Página 58
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 MICROSTRATEGY
Provee soluciones a clientes de cualquier industria y/o área funcional con el fin de ayudarlos en la
obtención de un mayor conocimiento sobre la información manejada en su empresa.

Figura 9. Arquitectura BI de Microstrategy

Página 59
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 SAS

SAS provee una Plataforma de Inteligencia abierta y extensible que sirve de base para la creación y
entrega de inteligencia a la organización; incluye herramientas: ETL para extracción, transformación
y carga independiente a la plataforma; Intelligence Storage para distribuir información a
aplicaciones de BI y analíticas desde SAS o terceros; SAS Enterprise BI Server brinda acceso a la
información en diferentes formatos; SAS Analytic Technologies para manejo y modelación de
información analítica, algorítmica y matemática.

Figura 10. Arquitectura BI de SAS

Página 60
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.3 Herramientas Open Source


El software libre dispone al día de hoy de casi todas las herramientas necesarias para el trabajo
informático. Incluso hay campos en donde su supremacía no se discute y ni siquiera se contempla la
posibilidad de usar otro tipo de software.

En el informe de investigación “Magic Quadrant for Business Intelligence Platforms” presentado por
la empresa Gartner en enero del 2009, que trata de un estudio de mercado de las plataformas de
inteligencia de negocios a nivel mundial, dio seria consideración a la inclusión de proveedores de
código abierto de BI; pero aún no generan los suficientes ingresos para su visualización en el Magic
Quadrant; sin embargo, destacan la presencia en el mercado a Jasper Soft y Pentaho.

A continuación se describen los productos open source más relevantes para BI:

 PENTAHO

De todas las iniciativas, la más completa es la de


Pentaho, que abarca una serie de componentes
Open Source muy utilizados y fiables: Mondrian
OLAP server, JPivot, Firebird RDBMS, Enhrydra ETL,
Shark and JaWE, JBoss, Hibernate, JBoss Portal,
Weka Data Mining, Eclipse, BIRT, JOSSO, Mozilla
Rhino.

Figura 11. Arquitectura BI de Pentaho

Página 61
Universidad Nacional Federico Villarreal-Inteligencia de Negocios


JASPERSOFT

JasperSoft a través de su plataforma de BI en código abierto JasperIntelligence proporciona productos


propios actualizados como: JasperAnalysis, JasperReports, iReports, JasperETL y JasperServer.
JasperAnalysis, diseñado para proporcionar a las empresas medianas análisis online en tiempo real de
grandes volúmenes de datos. JasperServer, dirigido a la integración de fuentes de datos y otros
servicios, aporta funciones como scheduling y control de la seguridad de acceso de los usuarios.
JasperReports e iReport incluyen un plug-in para JasperServer. JasperSoftofrece sus productos sin
coste y licencias comerciales que incluyen soporte y servicios.

Figura 12. Arquitectura BI de JasperSoft

Página 62
Universidad Nacional Federico Villarreal-Inteligencia de Negocios



ECLIPSE BIRRT

JasperSoft a través de su plataforma de BI en código abierto JasperIntelligence proporciona productos


propios actualizados como: JasperAnalysis, JasperReports, iReports, JasperETL y JasperServer.
JasperAnalysis, diseñado para proporcionar a las empresas medianas análisis online en tiempo real de
grandes volúmenes de datos. JasperServer, dirigido a la integración de fuentes de datos y otros
servicios, aporta funciones como scheduling y control de la seguridad de acceso de los usuarios.
JasperReports e iReport incluyen un plug-in para JasperServer. JasperSoftofrece sus productos sin
coste y licencias comerciales que incluyen soporte y servicios.

Figura 13. Arquitectura BI de Eclipse BIRT

Página 63
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 SPAGOBI

SpagoBIofrece un conjunto de nuevas funcionalidades para apoyar actividades de usuarios de toma


de decisiones y operacional. Consta de 5 módulos: SpagoBI Server que abarca SpagoBI Studio, un
entorno de desarrollo único eintegrado, SpagoBI Meta entorno enfocado en metadatos; SpagoBI SDK
para integración con aplicaciones externas y Spago BI Applications para mantener los modelos
verticales de análisis.

Figura 14. Arquitectura BI de SpagoBI

Página 64
Universidad Nacional Federico Villarreal-Inteligencia de Negocios


PALO DE JEDOX

La firma alemana Jedox presenta Palo como una plataforma de código abierto para soluciones BI
basado en la planificación, análisis y presentación de informes. Las soluciones que provee PALO son:
Indicadores de rendimiento clave (KPI), Gestión de liquidez y Previsión, Presupuesto y Planificación y
Balanced Scorecards, Cockpits, Dash boards. Las herramientas que integran esta plataforma son: Palo
OLAP Server, Palo ETL Server, Palo Supervisión Server, Palo WorkSheet Server y Open-API

Figura 15. Arquitectura BI de Palo

Página 65
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 OPENI.ORG
 Openi es una aplicación de Inteligencia de Negocios, diseñado para el uso basado en
la web. Basado en J2EE y sus aplicaciones corren sobre Apache Tomcat, OpenI es una
solución para la construcción y publicación de informes de XMLA compatible con
fuentes de datos OLAP, como Microsoft Analysis Services o Mondrian. Su objetivo es
proporcionar análisis consolidado de los principales componentes de datos de una
aplicación inteligente, incluyendo: fuentes de datos OLAP, bases de datos relacionales,
modelos de datos estadísticos y modelos de minería de datos.

Figura 16. Arquitectura BI de Openi

Página 66
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.4 Comparativa de Herramientas BI Propietarias


versus Opensource

3.4.1 Determinación de Categorías y Capacidades de Comparación de


Herramientas BI
Para el establecimiento del proceso comparativo, se realizó un estudio las diferentes plataformas de
inteligencia de negocios (BI) tanto propietarias como open source; por otra parte se buscaron
fuentes científicas que caracterizaran a la tecnología BI, tal es el caso de la empresa Gartner que
define una plataforma de BI como una plataforma de software que debe ofrecer 12 capacidades
clasificadas en 3 categorías: “Integración, presentación de la información y Análisis”. A continuación
se describen las categorías con sus respectivas capacidades.

A. INTEGRACIÓN

1. Infraestructura BI. Todas las herramientas en la plataforma deben utilizar las mismas normas
de seguridad, los metadatos, la administración, la integración del portal, el modelo de
objetos, el motor de consulta y deben poseer consistencia en el interfaz.

2. Gestión de metadatos. Herramientas para buscar, capturar, almacenar, publicar y reutilizar


objetos de metadatos tales como dimensiones, jerarquías, medidas, parámetros de
rendimiento y plantillas de diseño de informes. En esta capacidad se incluye ETL y
construcción de data marts.

 ETL. Es el proceso que permite a las organizaciones mover datos desde múltiples fuentes,
reformatearlos y limpiarlos, y cargarlos en otra base de datos, data mart, o data warehouse
para analizar, o en otro sistema operacional para apoyar un proceso de negocio.

 Cubos de información (Data marts). Son subconjuntos de datos con el propósito de ayudar a
que un área específica dentro del negocio pueda tomar mejores decisiones. Los datos
existentes en este contexto pueden ser agrupados, explorados y propagados de múltiples
formas para que diversos grupos de usuarios realicen la explotación de los mismos de la
forma más conveniente según sus necesidades.

3. Herramientas de Desarrollo - Una plataforma BI debe proporcionar un conjunto de


herramientas de desarrollo de aplicaciones BI que pueden ser integrados en un proceso de
negocio y / o incrustados en otra aplicación. Una plataforma de BI también debe permitir a
los desarrolladores construir aplicaciones BI sin codificación mediante el uso de asistentes. El
entorno de desarrollo debería utilizar servicios Web para controlar el desempeño de las
tareas comunes tales como la programación, la entrega, la administración y la gestión.

4. Flujo de trabajo (Workflow) y colaboración - Esta capacidad permite a los usuarios de BI


compartir y discutir información a través de carpetas públicas y foros de discusión y realizar
seguimiento de eventos o tareas asignadas a usuarios específicos. A menudo, esta capacidad
ha sido controlada mediante un portal o herramienta de trabajo.

Página 67
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

B. PRESENTACIÓN DE LA INFORMACIÓN

5. Presentación de informes (Reporting) - Permitir la posibilidad de crear informes formateados,


interactivos y altamente escalables en su distribución y capacidad de programación. Además, los
proveedores de plataformas BI deben manejar una amplia gama de estilos de presentación de
informes (por ejemplo, financieros, operativos y paneles de rendimiento).

6. Paneles de administración o tableros (Dashboards).Proporcionan una representación gráfica del


rendimiento empresarial incluyendo todas las áreas de actividad. Incluyen la capacidad de publicar la
información de forma gráfica e intuitiva como tablas, gráficos, indicadores o medidores, semáforos y
otros controles. Estas pantallas indican el estado de las métricas de rendimiento, en comparación
con una meta o valor objetivo. Cada vez más, los paneles se utilizan para difundir en tiempo real los
datos de las aplicaciones operacionales.

7. Consultas específicas (Ad hoc query).Esto implica que el sistema permite al usuario personalizar
una consulta en la base de datos en tiempo real, en vez de estar atado a las consultas prediseñadas
para informes. En particular, las herramientas deben tener una sólida capa semántica o GUI que
permita a los usuarios navegar por las fuentes de datos disponibles. Además, estas herramientas de
consulta deberían ofrecer la capacidad de gestión y auditoría para asegurar que las consultas
funcionen bien.

8. Integración a distribución. A Microsoft Office. En algunos casos, se utilizan plataformas de BI como


un nivel medio para gestionar, asegurar y ejecutar tareas de BI, pero Microsoft Office (especialmente
Excel) actúa como cliente de la BI. En estos casos, es indispensable que el proveedor de BI
proporcione integración con herramientas de oficina, incluyendo soporte para formatos de
documentos, fórmulas, refrescamiento de datos y tablas de pivote.

C. ANÁLISIS

9. OLAP(On-Line Analytical Processing).Permite a los usuarios finales un uso más eficaz de los data
warehouse para el análisis de datos en línea, lo que proporciona respuestas rápidas a consultas
analíticas complejas e iterativas utilizadas generalmente para sistemas de ayuda para la toma de
decisiones; ofrece la capacidad de consultar y estudiar las diferentes dimensiones de un conjunto de
datos relacionales, multidimensionales o híbridos.

10. Visualización avanzada (Advanced visualization). Proporcionar la capacidad de mostrar


numerosos aspectos de los datos de manera más eficiente mediante el uso interactivo de imágenes y
gráficos, en lugar de filas y columnas.

11. Modelado predictivo y data mining. Esta capacidad permite a las organizaciones clasificar por
categorías a las variables y estimar su continuidad utilizando avanzadas técnicas matemáticas e
inteligencia artificial.

12. Tableros de Control (Scorecards).Proporcionan una representación visual de los indicadores


claves de rendimiento (KPI): métricas cuidadosamente seleccionadas que permiten a las empresas
medir y gestionar el rendimiento alineado sus objetivos estratégicos (planificación). Además, debe
permitir crear un número ilimitado de KPI’s basándose en una metodología específica, como
Balanced Scorecard, Six Sigma, gestión basada en actividades o un diseño empresarial concreto.

Página 68
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Debido a que las 3 categorías y 12 capacidades definidas por Gartner corresponden a la Capa BI y
Capa Data Warehouse(según Rodríguez I.) y teniendo en consideración que la arquitectura de una
solución de inteligencia de negocios abarca también las: Fuente de Datos, entonces se ha visto
conveniente incluir la categoría de “Aprovisionamiento” y “Plataformas de soporte”.

D. APROVISIONAMIENTO

13. Fuentes de datos. Los datos administrados por los sistemas de aplicación operacionales son la
fuente principal de datos para el data warehouse. Estos sistemas son los encargados de recolectar
información diaria de las tareas operativas de la organización. Es posible dividir las fuentes de
información en las siguientes: (1) Información generada por los sistemas transaccionales, (2)
Información externa, (3) Información generada por los departamentos de la empresa que no
corresponden a un sistema transaccional oficial, (4) Datos tomados de bases de datos relacionales
que forman parte de los sistemas transaccionales. Estas fuentes pueden ser de varios tipos,
dependiendo del tamaño de la organización y de los niveles de tecnología y sistemas de información
que se utilicen en la empresa.

E. PLATAFORMAS DE SOPORTE

14. Sistemas operativos. Que soporta la plataforma BI.

15. DBMS Servers para Data Warehouse. Sistemas manejadores de bases de datos que brinde
soporte a almacenes de datos.

16. Servidor web y/o aplicaciones web. Que las aplicaciones de BI corran en servidores web o
servidores de aplicaciones web.

Además de las categorías citadas se incluye el factor costo como un indicativo preponderante a la
hora de decidir por una u otra plataforma.

F. COSTO

17. Costo de Licencia. Involucra el precio de la Licencia(s) de la plataforma BI

3.5 Proveedores Business Intelligence


Una vez identificada la necesidad de información en la organización, es hora de seleccionar una
herramienta de desarrollo. Para ello, se debe profundizar en los criterios de selección que marcarán
la elección.

Cano, J.L (2007) descarta en su libro “Business Intelligence: Competir con Información”, los aspectos
fundamentales discutidos en la conferencia mundial The Datawarehouse Institute en Boston (EEUU)
en Agosto de 2003. El primer componente a tener en cuenta sobre la selección de las herramientas
es a quién van dirigidas: a los usuarios de Business Intelligence. ¿Cuáles son las funcionalidades que
necesitan? ¿Lanzar consultas, OLAP, informes dinámicos, informes estáticos?

El segundo aspecto a tener en cuenta es el proveedor de la herramienta, concretamente:

Página 69
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 La estrategia del proveedor:

o Si cuenta con otros productos (ETL, bases de datos propia, etc)


o Principales competidores y cuáles son sus diferencias respecto a ellos
o Posibles evoluciones de la herramienta

 La arquitectura tecnológica del proveedor:

o Arquitectura orientada a servicios (SOA).


o Procesamiento en el servidor o en el cliente.
o Desarrollo por capas.
o Conectividad con terceros (por ejemplo excel).

Por otro lado, es recomendable analizar la complejidad o la magnitud del desarrollo:

 Las funcionalidades de consultas:

o Proteger a los usuarios de las complejidades del motor de base de datos.


o Consultas ad hoc.
o Consultas totalizadas y detalladas.
o Acceder a distintas fuentes de datos.
o Complejidad del lenguaje de las consultas.
o Acceso desde cliente servidor o vía web.

• Las funcionalidades de informes:

o Estructura de los documentos y flexibilidad.


o Complejidad del documento (distintas fuentes de datos, tablas combinadas, gráficos).
o Formatos de tablas.
o Tipos de gráficos.
o Cálculos basados en el informe.
o Entrega de información Planificada (tiempo, eventos, versiones, etc.)
o Formatos de entrega (Excel, PDF, HTML, etc.)

 Las funcionalidades OLAP:

o Tipo de arquitectura: MOLAP, ROLAP, HOLAP.


o Jerarquías alternativas.
o Análisis de atributos.
o Navegar a detalle (drill through).
o Deshacer en análisis que pasaría si (What if).
o Tiempo de respuesta.
o Ranking.
o Alertas y semáforos.

Y por último, pero no por ser menos importante, hay que tener en cuenta el coste que acarrea a la empresa
el contar con una solución Business Intelligence, y valorar la inversión.

 Los precios:

o Licencias (nominales, concurrentes, por servidor, por CPU).


o Mantenimiento (importe, actualizaciones y soporte).

Página 70
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

o 1.4.3.2. CUADRO COMPARATIVO ENTRE HERRAMIENTAS DE BI PROPIETARIAS VERSUS OPEN SOURCE

Plataformas de Business Intelligence Propietarias Plataformas de Business Intelligence Open Source


Categorías y

Microsoft

JasperSoft
Business
Capacidades de

COGNOS

SpagoBI
(Oracle)

Microstr

Pentaho

Eclipse
Object

a-tegy
OBIEE

Jedox

Openi
BIRT
Comparación de

Palo
IBM

SAP

SAS
soluciones BI

A. INTEGRACIÓN
Business Microstra- Pentaho BI Jasper Eclipse
1. Infraestructura BI COGNOS MS BI OBIEE Object tegy SAS Suite Intelligence BIRT SpagoBI Palo BI Suite Openi

Data Sql Server Oracle BI: SAP MicroStrateg SAS Pentaho


2. Gestión de metadatos Manager 2008 Server, Business y: Desktop, Metadata Data
Administration Objects Architect Server Integration
Sql Server Enterprise ETL SAS Kettle SpagoBI -
i. ETL X 2008 Option Rapid Marts X Workspace Spoon ETL JasperETL Meta Palo ETL i. ETL
Server Server
Cognos SAS OLAP Workbench,
ii. Diseño de cubos(Data Power Sql Server Warehouse Rapid Marts Server, Pentaho SpagoBI Palo OLAP Workbench
marts) Cubes 2008 Builder X OLAP Cube Cube - - Server Server
Studio Designer
Eclipse
3. Herramientas de J2EE SDK, 3.2 y SpagoBI
Desarrollo Cognos .NET 2008 DeveloperSuit .NET SDK X JDK JDK o J2EE JDK o J2EE JDK, Studio con MS .NET J2EE, JDK
SDK Web con Eclipse IDE,
J2EE SpagoBI
SDK
Office
4. Flujo de trabajo X SharePoint Workflow SAP X X - - - X - -
(Workflow) y colaboración Server Workflow
2007
Office BIRT
2007, Report Server, SAP B.O.: MicroStrateg Web JasperRepor Report SpagoBI Palo JFreeChart
B. PRESENTACIÓN DE IBM SharePoint Presentation Xcelsius, y Reporting application Pentaho BI ts y Designer Server, Worksheet and
LA INFORMACIÓN Cognos BI Server Services Web Suite server Suite JasperServe , BIRT SpagoBI Server JasperRepor
2007 Intelligence r Report Applications ts
Engine
5. Presentación de SAS Web
informes (Reporting) en Excel Report
formatos Excel, PDF, XML, X 2007, X X X Studio, Pentaho iReport X X X X
HTML y CSV y envío por Outlook OLAP Viewer Reporting
correo electrónico for Java
6. Paneles de SAS Pentaho
administración o tableros X Excel 2007 X X X Dashboard Dashboards X X X X X
(Dashboards).
7. Consultas específicas SQL Server SAS Web
(Ad hoc query). X ReportingS X X X Report X X X X - -
ervices Studio
Palo
8. Integración y SAS Data Worksheet
distribución a: Integration Server, Palo

Página 71
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Studio Server
Service

i. Microsoft Office(Excel) X X X X X SAS Add-In X X X X Palo OLAP -


for
Microsoft Server, Palo
Office Excel Add-in
SAP
ii. Dispositivos móviles X X X Netweaver X - - - - - - -
Mobile
MS
iii. Portales web IBM Office SharePoint,
WebSpher SharePoint Oracle IBM SAS IBM
e, SAP Server Application X WebSphere, Information J2EE server WebSphere, - - - J2EE server
Enterprise 2007, .NET Server Portal, SAP Delivery BEA
Portal, 2008 WebSphere NetWeaver, Portal WebLogic
Plumtree BEA
WebLogic
IE, Firefox, IE, Firefox
iv. Navegadores web: Opera, IE IE, Firefox IE, Firefox, Mozilla, IE, Firefox IE, Firefox IE, Firefox X X X IE, Firefox
otros Netscape Safari, Mozilla Mozilla Mozilla Mozilla
Netscape
Performanc
IBM e-Point, Oracle BI SAP MicroStrateg SpagoBI Palo OLAP
C. ANÁLISIS Cognos BI SqlServer PresentationSe Business yIntelligence SAS BI Pentaho BI JasperAnaly Server, Server, Palo Mondrian,
Analysis rvices Objects Server Suite sis SpagoBIApp Worksheet SSAS
Services(S lications Server
SAS)
OLAP Viewer JPivot, JPivot y JPivot,
9. OLAP (On-Line X Excel X Voyager X for Java, servidor X - servidor X Mondrian
Analytical Processing) Help Viewer Mondrian Mondrian OLAP
OLAP OLAP
10. Visualización SAS
avanzada (Advanced X X X X X Information X X - X - X
visualization) Map Studio
SAS Pentaho
11. Modelado predictivo y X X X PredictiveWo X Enterprise Data - - X X X
data mining rkbench Miner Mining con
WeKa
12. Tableros de Control X X X Performance X X X - X X X -
(Scorecards-KPI) Manager
D.APROVISIONAMIENTO

13. Fuentes de datos

DB2, SQL Server, JDBC, JDBC,Oracle Apache


Informix, Oracle, SQL DB2, Oracle, Oracle,DB2, Oracle, IBM , IBM DB2, Derby
Oracle, Sql Server, SQL Server, Server,HP Teradata, Teradata, DB2, MS MS SQL Data RDBM’s RDBM’s
i. Bases de datos SQL ORACLE, DB2, Neoview, Sybase, ODBC, MS SQL Server, Base, accedidos RDBM’s accedidosme
Server, IBM, ODBC Teradata, Netezza, Postgre, SQL Server, Server, MySQL, MySql, mediante diante JDBC
Sybase, ODBC Teradata, MySQL, Sybase MySQL, PostgreSQL, JDBC, JDBC
Teradata, ODBC Otras PostgreSQL EnterpriseD otras
ODBC , B, otras
EnterpriseD

Página 72
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

B, otras

SAP R/3,
SAP BW, XMLA, Oracle SAP Siebel, OLAP
SAP R/3 y OLAP Option, NetWeaver Oracle databases
ii. Multi-dimensional, Siebel SAP, Siebel MS Analysis BI, SAP BW, X applications, via XML/A X - - X -
ERP’s CRM Services, SAP otros PeopleSoft, and MDX
BW SAS OLAP standards,
cubes
ERP’s

Mainframe SAS data


s, Web Mainframe, XML, Excel, sets, SAS XML/A, EJB,
iii. Otras fuentes services, Microsoft Text XML, CRM X SPD Engine X POJO, XML XML X XMLA
otras Dinamics tables, SAS Hybernate
SPD Server
E. PLATAFORMAS DE
SOPORTE
Windows, Windows, Windows,
IBM AIX Debian, Windows XP, IBM AIX, HP-UX,UNIX, Windows, Linux, Windows Windows, Windows Windows,
14. Sistemas operativos (UNIX), Windows Mandriva, Server HP-UX, Windows, Linux Novell SUSE , Linux, Linux, Linux,
Sun Novell, Red 2003, Vista SuSE Linux, z/OS Linux, Sun UNIX
Solaris, Hat, Ubuntu Redhat Solaris,
HP-UX Linux, OpenSolaris,
Oracle Mac OS X,
Linux, Sun HP-UX,
Solaris FreeBSD,
IBM AIX
SQL Server, Oracle,DB2, JDBC,Oracl
SQL Server, DB2, Oracle, Teradata, e, IBM
DB2, HP Neoview, Teradata, ODBC, SQL DB2, MS RDBM’S RDBM’S SQL Server,
15. DBMS Servers para Teradata, Sql Server Oracle DB Netezza, Sybase, Server, SQL accedidos accedidos otros MySQL,
Data Warehouse HP, otros 2008 Teradata, Postgre, Sybase, SAS Server, con JDBC - con JDBC RDBM’s otras
ODBC MySQL, SPD Server MySQL, 2.0 2.0
Otras PostgreSQL
, Enterprise
DB, otras
IIS, IIS, Apache
iPlanet, WebSphere, JBoss, Tomcat,
IBM Http IIS, Tomcat, IIS, Tomcat Apache/Tom WebSphere, Apache JBoss, Apache Apache Apache
16. Servidor web y/o Server, IIS Websphere, cat, Oracle BEA Tomcat, WebSphere, Tomcat, Tomcat, IIS Tomcat,
aplicaciones web Apache iPlanet App. Server, WebLogic JBoss WebLogic, JBoss JBoss JBoss
Tomcat, BEA Server Sun
BEA WebLogic GlassFish
Weblogic
F. COSTO.

SQLServer
2008:
Licencia $3900 x 5 OBIEE Plus:
por clientes ó $ 2000 x user
Usuario: $12000 x (min 5)
17. Costo de Licencia Consumido CPU ó $295.000 x $575 x CPU Versión
r: $1100. Office 2007 CPU $350 x user No publica ó $220 x Comunitari $0.00 $0.00 $0.00 $0.00 $0.00
BI profesional BI Server costos User min. 5 a: $0.00

Página 73
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Profesional : $1100 EE:$580 x


:$4000 VS .NET user ó
2008: $86.500 x CPU
$1700
Share
Point: $500

Notación: Si se observa una (X) significa que posee la capacidad pero integrada a una herramienta. (-) No posee la capacidad.
Tabla 1. Estudio Comparativo Entre Herramientas de BI Propietarias Versus Open Source

Página 74
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.6 Resultados de la Comparación entre Herramientas de BI


propietarias VS Open Source
Del estudio realizado, se evidencia que las herramientas de Inteligencia de Negocios propietarias
cumplen en su mayoría las Capacidades definidas, se evidencia una fuerte competencia entre las
herramientas propietarias como: IBM COGNOS, Oracle, Microsoft, Micro Strategy, SAP Business Object, SAS
y otras. Las herramientas BI propietarias por sus altos costos de licencias están dedicadas a grandes
empresas; por otra parte, los costos y el tiempo de implementación se ven reducidos por las facilidades que
brindan. SAP y SAS parecen ser las de menos costo.
En cambio, a las herramientas BI open source aún les falta desarrollarse para cumplir con todas las
capacidades planteadas en este estudio, lo que corrobora la investigación realizada por la empresa Gartner,
que aún no ubica a ninguna herramienta BI open source en el cuadrante mágico; a pesar de ello, en su
informe destaca el esfuerzo realizado por Pentaho y Jaspersoft. A continuación se mencionan algunas
conclusiones en base al cuadro comparativo y a la revisión de fuentes bibliográficas:

 La mayoría de las herramientas BI open source son jóvenes, tienen máximo unos 5 0 6 años de haber
incursionado en el mercado, aún están en proceso de desarrollo y fusión. Por ejemplo Pentaho
apareció en el 2004.

 De entre todas las herramientas BI open source la más importante es Pentaho, debido a que cumple
la mayoría de capacidades y sobre todo porque tiene muchos seguidores que han formado
comunidades de desarrollo y aprendizaje a nivel mundial. Se observa en el cuadro comparativo de
cumplimiento de capacidades que es la plataforma más destacada entre sus homólogas open source.
Pentaho tiene un promedio de 3.8/4 de cumplimiento y la menor desviación estándar (0.45); a este
análisis incluimos el costo de licencia comunitaria que es gratis lo que la convierte en una opción
viable y conveniente para implementar soluciones BI.

 La mayoría de las herramientas BI open source se han desarrollado bajo plataforma Java tal es el
caso de Pentaho, JasperSoft, Eclipse BIRT, SpagoBI y Openi. Sólo Jedox Palo se evidencia su
desarrollo en plataforma .NET de Microsoft.

 Pentaho, SpagoBI y Openi utilizan algunas herramientas comunes, tal es el caso de JPivot, el servidor
OLAP Mondrian y WorkBench. Así también ciertos componentes Jasper y Eclipse son
igualmentecompartidos.

 Tanto Pentaho como las otras herramientas BI opensource no son 100% gratuitas; manejan
versiones de costo y una versión comunitaria, en la cual se limita sus capacidades y tanto el soporte
técnico como el documental es escaso.

 Al proporcionarse escaso soporte técnico y documental de las versiones comunitarias, se elevan los
costos y el tiempo de aprendizaje, desarrollo e implementación y esto puede ser un factor decisivo al
momento de elegir.

 Sin embargo las personas que deciden dedicar su tiempo al aprendizaje de estas herramientas BI
open source tienen grandes oportunidades debido a que la mayoría de las empresas existentes son
PYMES y es posible proporcionarles soluciones parciales y de bajo costo; de bajo costo porque solo
involucra el servicio técnico, más no a las licencias del producto.

 A pesar de las conclusiones no tanto favorables para las herramientas BI open source se destaca su
importancia y su incursión en el mercado debido a que son una alternativa viable y quizá la única
para las pequeñas y medianas empresas (PYMES).

Página 75
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

3.7 Referencias Bibliográficas


 ARIAS, Emilio. Stratebi Business Solutions.
(URL: http://www.stratebi.com)

 ARIAS, Emilio. El recurso en español sobre Business Intelligence.


(URL: http://www.TodoBI.com)

 BALLARD, C. HERREMAN, D. SCHAU, D. BELL, R. KIM, E. VALNCIC, A.:Data Modeling Techniques for Data Warehousing.
SG24-2238-00. IBM Red Book. 1998.

 BIRTREPORT. (2012). http://www.eclipse.org/birt/. Consultado el 08 de junio de 2012.

 BITAM. Business Intelligence. Febrero 2002.


(URL: http://www.bitam.com/spanish/AcercaDeBI.htm)

 BUTTERWORTH, Heinemann. Oracle Database 10 g Data Warehousing. Ed. Digital Pr.

 CABENA, Peter; HADJINIAN, Pablo; STADLER, Rolf; VERHEES, Jaap; ZANASI, Alessandro. Discovering Data Mining: From
Concept to Implementation. Prentice Hall. 1998. ISBN: 0-13-743980-6.

 CABIBBO, L. TORLONE, R.:"A Logical Approach to MultidimensionalDatabases", EDBT, 1998.

 CANO, J. L. (2007). Business Intelligence: Competir con Información, ESADE Business School, Universidad Ramon Lluli,
España.

 CARPANI, F.: CMDM: A conceptual multidimensional model for Data Warehouse. Master Thesis. Advisor: Ruggia. InCo -
Pedeciba, UdelaR, Uruguay, 2000.

 CASARES, Claudio. Data Warehousing.Programación en Castellano.


(URL: http://www.programacion.com/bbdd/tutorial/warehouse/)

 CSI, I. Development Datawarehousing. Julio 2002.


(URL: http://www.data warehousecenter.com)

 ESTEVAS, R. (2012). Social Web Intelligence - SWI. Mánager Responsable de desarrollo SWI.
http://socialwebintelligence.com/. Consultado el 08 de junio de 2012.

 FRANCONI, E. SATTLER, U.:A Data Warehouse Conceptual Data Model for Multidimensional Aggregation, DMDW’99,
Germany, 1999.

 Gartner. Magic Quadrant for Business Intelligence Platforms. Enero 2009


(http://mediaproducts.gartner.com/reprints/oracle/article56/article56.html)

 GOLFARELLI, M. MAIO, D. RIZZI, S.:Conceptual Design of Data Warehouses from E/R Schemes, HICSS’98, IEEE, Hawaii,
1998.

 GROTH, Robert. Data Mining: A Hands On Approach for Business Professionals. Prentice Hall. 1998. ISBN: 0-13-756412-
0.

Página 76
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 GUPTA, V. An introduction to Data Warehousing. Febrero 2002. (URL:http://www.system-services.com/dwintro.htm)

 HERNANDEZ, José. Análisis y Extracción de Conocimiento en Sistemas de Información: Data warehouse y Datamining.
Departamento de Sistemas Informáticos y Computación, Universidad Politécnica de Valencia. (URL.
http://www.dsic.upv.es/~jorallo/cursoDWDM/).

 HÜSEMANN, B. LECHTENBÖRGER, J. VOSSEN, G.:Conceptual Data Warehouse Design. DMDW’00, Sweden, 2000.

 INMON, W. H.; Hackathorn; Richard D. 1994. Using the Data Warehouse. New York: John Wiley & Sons. ISBN: 0-471-
05966-8.

 Kenan Technologies:An Introduction to Multidimensional Databases. White Paper, Kenan Technologies, 1996.

 KIMBALL, R.: The Data warehouse Toolkit. John Wiley & Son, Inc., 1996.

 MANZANO, Oscar. A Bit of an apple.


(URL:http://oscarmanzano.f2o.org/applebit/)

 MICROSOFT. (2012): www.microsoft.com/latam/casos/peru/Farmindustria/Farmindustria.pdf. Consultado el 08 de junio


de 2012.

 MOSS L., A. S. (2003). Business Intelligence Roadmap. The Complete Project Lifecycle for Decisión-Support Applications.
EE.UU.

 NADER, Javier. Sistema de Apoyo Gerencial. Tesis de Grado. 2006.

 OLSZAK C. M., ZIEMBA E. (2007). Approach to Building and Implementing Business Intelligence Systems,
Interdisciplinary Journal of Information, Knowledge, and Management, Volume 2.

 OPENPYME. (2012). Catálogo de Software Libre, Oficina de Software Libre de la Universidad de La Laguna - España, bajo el
marco de colaboración científico-tecnológico entre la Agencia Canaria de Investigación, Innovación y Sociedad de la
Información del Gobierno de Canarias y la Universidad de La Laguna., http://openpyme.osl.ull.es/

 PENTAHO. (2012). http://www.pentaho.com/. Consultado el 08 de junio de 2012.

 PEÑA A., A. (2006). Inteligencia de Negocios: Una Propuesta para su Desarrollo en las Organizaciones. Instituto
Politécnico Nacional, Dirección de Publicaciones, México.

 PICERNO, A. FONTAN, M.: Un editor para CMDM. Undergraduate Project. Advisor: Carpani. InCo, UdelaR, Uruguay. 2000.

 PINEDA, O. & DÍAZ, C. (2006). Que hace que un proyecto de business intelligence sea exitoso. Memoria para optar al
Título en Maestría en administración, Universidad EAFIT, Medellín, Colombia.

 RAPIDMINER. (2012). http:// www.rapidminer.com/. Consultado el 08 de junio de 2012.

 RODRÍGUEZ, Ivonne.Soluciones Tecnológicas Integrales para las Empresas. Presentación electrónica .PPT.

 SAPIA, C. BLASCHKA, M. HÖFLING, G. DINTER, B.: Extending the E/R Model for the Multidimensional Paradigm. DWDM’98,
Singapure, 1998.

Página 77
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

 SCHLEGEL, K. (2006). Components of Business Intelligence — Rationalizing Your Business Intelligence Portfolio.

 SHEN-HSIEH, A. (2008). A Fresh Perspective on Business Intelligence Systems Information Management Special Reports.

 SPAGOBI. (2012): http:// www.spagobi.org/. Consultado el 08 de junio de 2012.

 THOMSEN, E.:OLAP Solutions. Building Multidimensional Information. John Wiley & Sons, Inc. 1997.
 VITT E., LUCKEVICH M. y MISNER S. (2002). “Business Intelligence Técnicas de análisis para la toma de decisiones
estratégicas”, España.

 Web Site Tic &Tac. (URL:http://tikitak.blogspot.com/)

 WILEY, John & SONS. Inmon W.H. Building the Data Warehouse., 3rd edition, 2002.

Página 78
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Glosario
 Bajar (Drill-Down): Es una operación de acceso a datos en cubos multidimensionales que significa bajar el nivel de
visualización en las filas a una jerarquía inferior.

 Balanced Scorecard: Término utilizado para expresar un sistema de medicióndel logro de objetivos de una empresa que
permite traducir la visión de la organización, expresada a través de su estrategia, en términos y objetivos específicos.

 Colapsar (Collapse): Es una operación de acceso a datos en cubos multidimensionales que significa ocultar los detalles
hacia un nivel superior mostrando los resúmenes correspondientes.

 Data mart: Conjunto de hechos y datos organizados para soporte decisional basados en la necesidad de un área o
departamento específico. Los datos son orientados a satisfacer las necesidades particulares de un departamento dado
teniendo sólo sentido para el personal de ese departamento y sus datos no tienen por qué tener las mismas fuentes que
los de otro Data mart.

 Dataminig: Análisis de los datos para descubrir relaciones, patrones, o asociaciones desconocidas.

 Data warehouse: Base de datos que almacena una gran cantidad de datos transaccionales integrados para ser usados
para análisis de gestión por usuarios especializados (tomadores de decisión de la empresa).

 Dimensión: Entidad independiente dentro del modelo multidimensional de una organización, que sirve como llave de
búsqueda (actuando como índice), o como mecanismo de selección de datos.

 Drill-Down: Es una operación de acceso a datos en cubos multidimensionales, que significa exponer progresivamente más
detalle (dentro de un reporte o consulta), mediante selecciones de ítems sucesivamente.

 Drill-Up:Es una operación de accesos a datos en cubos multidimensionales, es el efecto contrario a drill-down. Significa
ver menos nivel de detalle. Sobre la jerarquía significa generalizar o sumarizar, es decir, subir en el árbol jerárquico.

 DSS (Decisión Support System- Sistema de Soporte de Decisiones): Sistema de aplicaciones automatizadas que asiste a la
organización en la toma de decisiones mediante un análisis estratégico de la información histórica.

 EIS (Executive Information System – Sistema de Información Ejecutiva): Se refiere a cualquier sistema de software que
muestre información ejecutiva delas diferentes áreas del negocio en un solo sistema, facilitando el monitoreo de la
empresa.

 Esquema Constelación de Hechos: Es un esquema de base de datos en donde varias tablas de hechos se enlazan a las
tablas de dimensiones.

 Esquema Copo de Nieve: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de
dimensiones relacionadas, pero éstas a su vez se enlazan con otras tablas dimensionales.

 Esquema Estrella: Es un esquema de base de datos en donde una tabla de hechos central se enlaza a las tablas de
dimensiones relacionadas.

Página 79
Universidad Nacional Federico Villarreal-Inteligencia de Negocios

Página 80