Está en la página 1de 105

UNIVERSIDAD NACIONAL DEL

CENTRO DEL PERU

FACULTAD DE INGENIERÍA DE SISTEMAS

TESIS

IMPLEMENTACIÓN DE BUSINESS INTELLIGENCE


PARA MEJORAR EL FLUJO DE INFORMACIÓN Y LA
TOMA DE DECISIONES EN LA ENCUESTA
NACIONAL DE HOGARES ENAHO - INEI

PRESENTADA POR:

GONZALES SEGOVIA, Erick Roger

PARA OPTAR EL TÍTULO PROFESIONAL DE:

INGENIERO DE SISTEMAS

HUANCAYO – PERÚ

2016

i
ASESOR:

Dr. Richard Mercado Rivas

ii
AGRADECIMIENTOS:

Deseo expresar muestras de agradecimiento:


A DIOS
Por guiar mi camino con su luz.

A MIS PADRES
Por su ejemplo, amor y aliento constante para ser cada día mejor.

A MI ALMA MATER
Por sembrar en mí enseñanzas que conducen a mi formación profesional.

A MI ASESOR
Por su apoyo y por compartir su vasto conocimiento.

A MIS MAESTROS DE LA FIS


Por su dedicación a la enseñanza a mi paso por la Universidad.

AL INSTITUTO NACIONAL DE ESTADÍSTICA E NFORMÁTICA- INEI


Por darme la oportunidad de desarrollar mis conocimientos en sus filas.

iii
DEDICATORIA:

A mi familia, mi madre Aida por creer siempre en


mí, a mi padre Luis por su gran apoyo y mi
hermano Henry por ser un guía para mi vida
profesional. Son ellos el motor de mi dicha y
felicidad.

iv
RESUMEN

La presente tesis titulada “Implementación de Business Intelligence para mejorar el flujo de


información y la toma de decisiones en la Encuesta Nacional de Hogares ENAHO - INEI”

Para el desarrollo de este proyecto se utilizó la metodología de Ralph Kimball, ya que es una
de las más usadas, seguras y comprobadas al implementar un proyecto de Business
Intellingence, con él se cubre todas las fases de ciclos de vida que tiene un proyecto BI, desde
la planificación hasta el mantenimiento y administración.

En el desarrollo del proyecto se utilizó las herramientas que brinda la Suite de Pentaho.
Pentaho Data Integration para la generación del proceso ETL, Pentaho Schema Workbench
para el diseño y la creación de cubos, Saiku Analitycs para la creación de tablas dinámicas
Pivot, Pentaho Dashboard Editor CDE para la elaboración de tableros de control, finalmente
para la utilización y visualización de todos los resultados, se usó Pentaho Bi Server.

El uso de Business Intelligence permite reunir, transformar y depurar los datos que se
encuentran en forma no estructurada procedente de bases de datos operacionales, evitando
la existencia de datos irrelevantes. Los jefes y analistas requieren tener un acceso rápido y
sencillo a una información organizada y depurada en tiempo real, para así tener una toma de
decisiones acertada.

v
ABSTRACT

The present thesis its titled " Business Intelligence Implementation to improve the information
flow and decision making in the National Household Survey: ENAHO - INEI ".

For the development of this project it was used Ralph Kimball methodology because it is one
of the most widely used, safe and proven to implement a project of Business Intellingence,
covering all phases of the life cycles that has a BI project, since the planning to maintenance
and management.

In the project development were used tools provided by the Pentaho suite.Pentaho Data
Integration for the generation of ETL process, Pentaho Schema Workbench for designing and
building cubes, Saiku Analitycs for creating pivot dynamic tables, Pentaho Dashboard Editor
CDE for making dashboards process, finally for use and display of all results, was used
Pentaho BI Server.

The use of Business Intelligence allows transform and cleanse data that are found in
unstructured form coming from operational databases, avoiding irrelevant data existence.
The chiefs and analysts require to have quick and easy access to an organized and debugged
real-time information, in order to have a correct decision making.

vi
ÍNDICE
Pág.
ASESOR…………………………………………………………………………………. ii
AGRADECIMIENTOS …………………………………………………………………. iii
DEDICATORIA …………………………………………………………………………. iv
RESUMEN……………………………………………………………………………….. v
ABSTRACT…………………………………………………………………………….... vi
ÍNDICE ................................................................................................................... vii

INTRODUCCIÓN………………………………………………………………………... 1
CAPÍTULO I
GENERALIDADES
1.1. Planteamiento del problema……………………………………………………. 3
1.1.1 Instituto Nacional de Estadísticas e Informática – INEI………………….. 3
1.1.2 Encuesta Nacional de Hogares ENAHO…………………………………... 6
1.2 Formulación del problema……………………………………………………….. 9
1.3 Objetivos de la investigación……………………………………………………. 9
1.4 Justificación………………………………………………………………………... 9
1.4.1 Justificación Teórica…………………………………………………………. 9
1.4.2 Justificación Metodológica…………………………………………………... 10
1.4.3 Justificación Práctica………………………………………………………… 10
1.5 Hipótesis…………………………………………………………………………….. 10
1.6 Diseño metodológico……………………………………………………………... 11
1.6.1 Tipo de Investigación………………………………………………...……….. 11
1.6.2 Nivel de investigación ………………………………………………...……… 11
1.6.3 Sistema de Referencia…………………………………………………...…… 11

CAPÍTULO II
MARCO DE REFERENCIA
2.1 antecedentes……………………………………………………………………….. 12

vii
A.1 Implementación de una solución Business Intelligence para el análisis de
la gestión del Ministerio de Desarrollo urbano y vivienda…………………. 12
A.2 Análisis, Diseño e implementación de una solución Business Intelligence
para la generación de Indicadores y control de desempeño, en la empresa 13
OTECEL S.A. utilizando la Métodología Hefesto V2.0…………………….
A.3 Análisis, Diseño e implementación de una solución de Inteligencia de
Negocios para el área de compra y ventas de una empresa
comercializadora de electrodomésticos…………………………………….. 13
A4. Boada Byron, Tituaña Alvaro (2012). Desarrollo de una aplicación de
Business Intelligence (BI) para la empresa Empaqplast………………….. 14
A5. Tana Paspuel Gloria Estefanía (2014). Data Mart para el análisis de
información del sistema académico de la Universidad Técnica del Norte
con herramientas de software libre………………………………………….. 14
2.2 Marco teórico……………………………………………………………………….. 15
2.2.1 Inteligencia de negocios (Business Intelligence - BI)…………………..… 15
2.2.2 Características BI……………………………………………………….……. 16
2.2.3 Fuente de datos……………………………………………………….……… 16
2.2.4 Almacén de datos (Data Warehouse)…………………………………...…. 17
2.2.5 Data Mart……………………………………………………………………… 18
2.2.6 Cubos OLAP............................................................................................ 18
2.2.7 Estructura de cubos de almacén de datos………………………………... 19
2.2.7.1. Tabla de hechos …………………………………………………… 19
2.2.7.2. Tabla de dimensiones……………………………………………… 19
2.2.7.3. Relaciones de las tablas de hechos……………………………… 20
2.2.8 Esquema para el modelo de datos………………………………………….. 20
2.2.8.1. Esquema en estrella .................................................................. 20
2.2.8.2. Esquema de copo de nieve……………………………………….. 20
2.2.9 Cuadro de mando…………………………………………………..………... 20
2.2.10 Metodologías de desarrollo de un proyecto BI………………………...... 22
2.2.8 Herramientas……………………………………………………………...….. 23
2.3 Modelo aplicativo……………………………………………………….………….. 24
2.4 Marco conceptual……………………………………………………………..….... 29

CAPÍTULO III 31
INTERVENCIÓN METODOLÓGICA 31
3.1 Planificación y administración del proyecto………………………………….. 31
3.1.1 Definición del proyecto………………………………………………………. 31
3.1.2 Preparación del proyecto……………………………………………………. 31

viii
3.1.3 Alcance……………………………………………………………………..…. 32
3.1.4 Justificación………………………………………………………….……..… 32
3.1.5 Planificación del proyecto…………………………………………..……..... 32
3.1.6 Administración del proyecto………………………………………..……..... 32
3.2. Definición de los requerimientos.................................................................. 33
3.3. Diseño de la arquitectura………………………………………………………... 37
3.3.1 Estándares………………………………………………………………….… 37
3.3.3 Entorno Back Room................................................................................ 37
3.3.3 Entorno Front Room……………………………………………………….... 38
3.4 Selección de productos e Instalación……………………………………...….. 38
3.5 Modelado Dimensional………………………………………………………….... 42
3.6 Nivel de granulidad………………………………………………………………… 43
3.7 Diseño y desarrollo de la presentación de datos…………………………….. 45
3.7.1 Proceso de Extracción Transformación y carga de datos……………...... 45
3.7.2 Creación de cubos………………………………………………………….... 50
3.8 Desarrollo de la aplicación para usuarios finales……………………………. 54
3.9 Mantenimiento y crecimiento…………………………………………………….. 66
3.10 Gestión del proyecto……………………………………………………………... 67

CAPÍTULO IV 68
ANÁLISIS Y DISCUSIÓN DE RESULTADOS 68
4.1 Porcentaje de alcance en la implementación del sistema y nivel de
verificación de resultados…………………………………………………….……… 68
4.2 Flujo de la Información………………………………………………...…………. 69
4.2 Toma de decisiones……………………………………………………………….. 71

CONCLUSIONES………………………………………………………………………… 74
RECOMENDACIONES…………………………………………………………………... 75
REFERENCIAS…………………………………………………………………………… 76
ANEXOS 78
Anexo A: Plan de trabajo
Anexo B: Termino de referencia

ix
LISTADO DE CUADROS

CUADRO N° 01: Tiempo de demora en la generación de reportes..……………... 9


CUADRO N° 02: Definición de las variables…………………………………………. 11
CUADRO N° 03: Herramientas a utilizar……………………………………………… 23
CUADRO N° 04: Cronograma de trabajo……………………………………………... 33
CUADRO N° 05: Requerimientos del sistema………………………………………... 33
CUADRO N° 06: Cuadro de análisis de riesgos……………………………………... 38
CUADRO N° 07: Herramientas a utilizar de la Suite de Pentaho………………….. 39
CUADRO N° 08: Cuadro comparativo requerimiento vs implementación………… 68
CUADRO N° 09: Verificación de la información……………………………………… 69
CUADRO N° 10: Cuadro comparativo del flujo de la información (minutos)...……. 70
CUADRO N° 11: Cuadro comparativo del flujo de la información (meses)……….. 72

x
LISTADO DE FIGURAS

FIGURA N° 01: Proceso de campo realizado en la ENAHO……....……………... 6


FIGURA N° 02: Proceso de recepción y consistencia final de la información….. 7
FIGURA N° 03: Proceso de solicitud de reportes..………………………………… 8
FIGURA N° 04: Tipo de fuentes de datos…………………………………………... 16
FIGURA N° 05: Esquema de un Data Warehouse….……………………………... 18
FIGURA N° 06: Esquema de un cuadro de mando………………………………... 21
FIGURA N° 07: Definición de un indicador.………………………………………… 22
FIGURA N° 08: Arquitectura Kimball………………………………………………… 25
FIGURA N° 09: Arquitectura back room……..……………………………………… 27
FIGURA N° 10: Arquitectura front room…………………………………….....……. 27
FIGURA N° 11: Diagrama relacional de la Base de Datos de captura………….. 36
FIGURA N° 12: Entorno back room…………………………………………………. 37
FIGURA N° 13: Entorno front room…………………………………………………. 38
FIGURA N° 14: Captura de carpeta contenedora de la Suite Pentaho…………. 40
FIGURA N° 15: Creación de la variable de sistema JAVA_HOME……………… 40
FIGURA N° 16: Ubicación de la variable JAVA_HOME en el Path……………… 41
FIGURA N° 17: Creación de la variable de sistema PENTAHO_JAVA_HOME.. 41
FIGURA N° 18: Verificación de la versión de Java………………………………... 42
FIGURA N° 19: Diagrama tipo estrella del Data Mart……………………………... 42
FIGURA N° 20: Indicador del avance de campo…………………………………… 44
FIGURA N° 21: Indicador de la Tasa de Problema de Marco……………………. 44
FIGURA N° 22: Indicador de Tasa de No Respuesta……………………………... 45
FIGURA N° 23: Pentaho Data Integration………………………………………….. 45
FIGURA N° 24: Configuración del Data Souce – Data Integration………………. 46
FIGURA N° 25: Tabla input – Data Integration…………………………………….. 46
FIGURA N° 26: Selección de datos a cargar – Tabla de hechos………………… 47
FIGURA N° 27: Preview – Tabla de Hechos……………………………………….. 47
FIGURA N° 28: Insertar tabla output – Data Integration………………………….. 48

xi
FIGURA N° 29: Parámetros de conexión – Tabla Output ………………………… 48
FIGURA N° 30: Configuración de campos input y output………………………….. 49
FIGURA N° 31: Diagrama ETL……………………………………………………….. 49
FIGURA N° 32: Pantalla de inicio – Schema Workbench…………………………. 50
FIGURA N° 33: Configuración del DataSource – Schema Workbench………….. 51
FIGURA N° 34: Creación de un nuevo Schema – Schema Workbench…………. 51
FIGURA N° 35: Asociación de la tabla de hechos con el cubo creado…………... 52
FIGURA N° 36: Visualización final de cubo ENAHO – Schema Workbench……. 53
FIGURA N° 37: Publish Schema – Schema Workbench…………………………... 53
FIGURA N° 38: Login Sistema de Monitoreo – Pentaho…………………………… 54
FIGURA N° 39: Intefaz de Ingreso – Pentaho BI Server ………………………….. 54
FIGURA N° 40: Ingreso a administración de usuarios……………………………... 55
FIGURA N° 41: Gestión de usuarios…………………………………………………. 55
FIGURA N° 42: Gestión de roles de usuarios……………………………………….. 56
FIGURA N° 43: Funciones de los usuarios en el Sistema…………………………. 56
FIGURA N° 44: Gestionar fuentes de datos – Pentaho BI Server………………… 57
FIGURA N° 45: Conexión al Data Mart – Pentaho BI Server……………………… 57
FIGURA N° 46: Modo de ingreso a Saiku Analitics – Pentaho BI Server………... 58
FIGURA N° 47: Opción añadir medida - Saiku Analitics…………………………… 59
FIGURA N° 48: Construcción de una nueva medida - Saiku Analitics…………… 59
FIGURA N° 49: Diagrama de líneas - Saiku Analitics……………………………… 60
FIGURA N° 50: Indicador de avance de campo - Saiku Analitics………………… 60
FIGURA N° 51: Guardar un reporte creado - Saiku Analitics……………………… 61
FIGURA N° 52: Visualización de reportes guardados - Saiku Analitics………….. 61
FIGURA N° 53: Diagrama de barras - Saiku Analitics……………………………… 62
FIGURA N° 54: Mapa de calor de los resultados - Saiku Analitics……………….. 62
FIGURA N° 55: Opción de filtro de información - Saiku Analitics…………………. 63
FIGURA N° 56: Resultado de cuadro filtrado - Saiku Analitics……………………. 63
FIGURA N° 57: Crear un nuevo CDE Dashboard………………………………….. 64
FIGURA N° 58: Menú Layou Panel – CDE Dashboard……………………………. 64
FIGURA N° 59: Menú componets – CDE Dashboard …………………………….. 65
FIGURA N° 60: Menú datasources panel – CDE Dashboard…………………….. 65
FIGURA N° 61: Problemas de Marco – CDE Dashboard…………………………. 66
FIGURA N° 62: Tasa de no Respuesta – CDE Dashboard……………………….. 66
FIGURA N° 63: Cuadro de resultados generados en STATA…………………….. 71
FIGURA N° 64: Cuadro de resultados generados en STATA…………………….. 73

xii
INTRODUCCIÓN

Buiness Intelligence es una solución que permite a las empresas e instituciones acceder a su
información de una manera fluida, rápida y sencilla. Esta información puede provenir de
diversas fuentes porque esta solución permite integrarlas y transformarlas para luego
almacenarlas con una estructura especial llamada Data Warehouse. El Data Warehouse
cumple con ciertas características para su construcción contando principalmente con dos tipos
de elementos, las tablas de hechos y de dimensiones el cual nos permite realizar diversos
cruces de información de una manera sencilla y de respuesta rápida.
Teniendo en consideración estos puntos es que nace la idea de la elaboración de este
proyecto, para tener la información de toda la recolección de campo que se hace en la
Encuesta Nacional de Hogares almacenadas de una manera sencilla de la cual se puede
obtener resultados a múltiples reportes. Para ello, este proyecto está comprendido en cuatro
capítulos que va desde las generalidades hasta la validación y presentación de resultados.
En el primer capítulo; se contempla el planteamiento del problema que describe la realidad
actual y se enfoca en la situación problemática. Los aspectos mostrados evidencian de como
hasta ahora principalmente en la lectura de la información obtenida, el tiempo de demora que
se tiene en la obtención de una información estructurada entendible para reporte a las
instituciones que necesitan dicha información y la manera tardía de entender que había puntos
a reforzar por algún inconveniente en alguna parte del proceso. Es de ahí que se realiza una
formulación específica del problema incluyendo luego los objetivos que se persigue a través
del presente trabajo, continuando después de la justificación, hipótesis y demás elementos
metodológicos que guían la investigación.
En el segundo capítulo; se muestra el marco de referencia el mismo que contiene los
antecedentes o investigaciones anteriores relacionadas con nuestro tema de estudio. El
marco teórico está directamente relacionado con el Business Intelligence y con la Metodología
de Raph Kimaball para el desarrollo del mismo, ya que cubre el desarrollo del proyecto desde
su planificación hasta la presentación de los resultados incluyendo el mantenimiento y
administración.
En el tercer capítulo; contempla la Intervención Metodológica donde se aplica todos los puntos
expuestos en el apartado del marco teórico, realizando como punto aparte el modo de uso y
1
configuración de las distintas herramientas utilizadas para dar solución a nuestro problema
planteado y todo el proceso que Raph Kimball proporciona para la elaboración de un proyecto
en Business Intelligence.
En el cuarto capítulo: denominado Análisis y discusión de resultados, se realiza la validación
de la hipótesis y las presentaciones finales de los resultados del proyecto.
Se finaliza con las conclusiones y recomendaciones, siendo la conclusión más importante: La
implementación de Business Intelligence para la Encuesta Nacional de Hogares ENAHO –
INEI, permite obtener información en tiempo real, con data actualizada de las bases de datos
transaccionales de una forma sencilla y amigable, lo cual ayuda a los Supervisores y jefes
Encargados, mantener un control sobre las tareas que se realizan y a tener tiempos de
respuestas rápidas ante posibles desaciertos o determinar acciones de mejora que se puedan
realizar a los procesos que se manejan actualmente

E. Gonzales S.

2
CAPÍTULO I
GENERALIDADES

En este capítulo se abordará aspectos referidos al problema, mostrando evidencias de cómo


se trabaja actualmente la información obtenida después de la recolección de campo en la
Encuesta Nacional de Hogares ENAHO cuyo proceso no es muy óptimo ya que presenta
tiempos de demora los cuales pueden ser mejorados. En base a todo ello se procederá a
formular el problema y establecer los objetivos de la investigación; además de ellos plantear
la hipótesis.

1.1 Planteamiento del problema


1.1.1. Instituto Nacional de Estadísticas e Informática – INEI.
El Instituto Nacional de Estadística e Informática – INEI, es un organismo técnico
especializado, con personería jurídica de derecho público interno, con autonomía
técnica y de gestión, dependiente del Presidente del Consejo de Ministros.
Es el organismo central y rector del Sistema Estadístico Nacional, responsable de
normar, planear, dirigir, coordinar y supervisar las actividades estadísticas oficiales
del país.

1.1.1.1. MISIÓN
Producir y difundir información estadística oficial que el país necesitan con
calidad, oportunidad y cobertura requerida, con el propósito de contribuir
al diseño, monitoreo y evaluación de políticas públicas y al proceso de toma
de decisiones de los agentes socioeconómicos, el sector público y la
comunidad en general.

1.1.1.2. VISIÓN
Somos un organismo líder a nivel nacional e internacional, que utiliza los
más altos estándares metodológicos y tecnológicos para la producción y
3
difusión de estadísticas oficiales que contribuyan eficazmente en el diseño
de políticas públicas para el desarrollo del país.

Para que el INEI pueda lograr con su misión cuenta en su estructura con diferentes
órganos institucionales las cuales son:

 La Alta Dirección, integrada por: La Jefatura, Sub Jefatura de Estadística y


Secretaría General.
 Órganos de Asesoramiento, conformada por: la Oficina Técnica de
Planificación, Presupuesto y Cooperación Técnica, Oficina Técnica de
Asesoría Jurídica y la Oficina de Defensa Nacional.
 Órganos de Apoyo, integrada por: las Oficinas Técnicas de Administración,
Difusión, Informática y de Estadísticas Departamentales.
 Órganos Desconcentrados conformados por: La Escuela Nacional de
Estadística e Informática y el Centro de Investigación y Desarrollo.
 Los órganos de línea estadísticos, constituidos por: la Dirección Nacional de
Censos y Encuestas, Dirección Nacional de Cuentas Nacionales, Dirección
Técnica de Indicadores Económicos y la Dirección Técnica de Demografía
e Indicadores Sociales.

Los órganos de línea estadística en el INEI son los encargados de producir


información estadística de calidad de las cuales se alimentan los demás órganos
de la institución como también otras instituciones estatales o privadas,
gubernamentales y no gubernamentales, personas jurídicas o naturales que lo
necesiten. Esto se da por medio de diferentes Censos o Encuestas que se
realizan a nivel Nacional o si fuera el caso a niveles que los interesados lo
soliciten.
El INEI cuenta ya con diferentes Encuestas que se realizan periódicamente (o en
algunos casos permanentemente) las cuales tienen cada una de ellas un
propósito específico. A continuación, se presentan las diferentes encuestas con
las que el INEI cuenta actualmente.

 Encuesta Económica Anual


 Encuestas Mensuales de Servicios
 Registro Nacional de Municipalidades
 Encuesta Nacional de Hogares
 Registro Estadístico de Exportadores de Servicios y Sectores
 Encuesta Permanente de Empleo
4
 Encuesta Nacional Agropecuaria
 Encuesta Nacional de Satisfacción de Usuarios del Aseguramiento
Universal en Salud
 Encuesta Demográfica y de Salud Familiar
 Encuesta Nacional de Programas Presupuestales
 Encuesta a Establecimientos de Salud en la Atención del Control de
Crecimiento, Desarrollo y Vacunas
 Registro Nacional de Delitos en las Dependencias Policiales
 Encuesta Nacional Especializada sobre Discapacidad
 Encuesta sobre Transición de la Escuela al Trabajo
 Encuesta Salud y Desarrollo en la Primera Infancia
 Encuesta Composición Nutricional de Alimentos Consumidos Fuera del
Hogar
 Encuesta de Micro y Pequeña Empresa
 Empadronamiento Distrital de Población y Vivienda
 Primera Encuesta Mundial a la Comunidad Peruana en el Exterior
 Encuesta Nacional a Instituciones Educativas
 Estudio de Impacto del Programa Beca 18
 Evaluación Censal de Estudiantes
 Encuesta a Egresados Universitarios y Universidades
 Censo Nacional De Comisarias
 Encuesta de Salud y Bienestar del Adulto Mayor
 Encuesta a Establecimientos de Salud con Funciones Obstétricas y
Neonatales
 Encuesta a Establecimientos de Salud en la Atención del Control de
Crecimiento, Desarrollo y Vacunas
 Encuesta Nacional de Empresas
 Encuesta Nacional Especializada de Trabajo Infantil - ETI
 Encuesta de Hogares para la Evaluación del Programa Juntos
 Encuesta Nacional de Innovación en la Industria Manufacturera
 Encuesta a Establecimientos de Salud Sobre Productos Priorizados Del
Programa Articulado Nutricional
 Registro Nacional de Denuncia de Delitos y Faltas

5
1.1.2. Encuesta Nacional de Hogares ENAHO.
La Encuesta Nacional de Hogares, es una investigación estadística continua que
genera indicadores trimestrales y permiten conocer la evolución de la pobreza, del
bienestar y de las condiciones de vida de los hogares. Mide el alcance de los
programas sociales y sirve de fuente de información a instituciones públicas y
privadas, así como a investigadores, permitiendo la comparabilidad con
investigaciones similares. Cuyos objetivos son los siguientes:

 Generar indicadores, que permitan conocer la evolución de la pobreza, del


bienestar y de las condiciones de vida de los hogares.
 Efectuar diagnósticos sobre las condiciones de vida y pobreza de la población.
 Medir el alcance de los programas sociales alimentarios y no alimentarios en la
mejora de las condiciones de vida de la población.
 Servir de fuente de información a instituciones públicas y privadas, así como a
investigadores.

La encuesta se realiza en el ámbito nacional, en el área urbana y rural, en los 24


departamentos del país y en la Provincia Constitucional del Callao.
En la ENAHO hasta el año 2015 las encuestas se realizan bajo las entrevistas con
cuestionarios físicos, con la cual los encuestadores se acercan al hogar
seleccionado en la muestra y tiene que rellenar a mano las diversas respuestas que
les proporcionaban los encuestados. El problema se genera en la demora de la
entrega de la información a la sede central, ya que para el procesamiento de dicha
información se hacen procesos repetitivos la cual les toma demasiado tiempo.

Figura N° 1: Proceso de campo realizado por la ENAHO.


Fuente: Encuesta Nacional de Hogares – INEI
Elaboración: propia.
6
En la figura N° 01, se indica cual es el flujo para el procesamiento descentralizado
de la información la cual se lleva a cabo en cada una de las ODEIS distribuidas a
nivel nacional, el cual inicia con la digitación la cual consiste en pasar los datos
obtenidos en campo a un repositorio de datos. Terminada la digitación los
supervisores locales son los encargados de una evaluación de la cobertura que se
tiene en comparación a lo planificado para luego realizar una consistencia primaria
y generación de algunos indicadores de calidad de la información. Después de
estos pasos recién se procede enviar la Base de Datos a la Sede central en la cual
se tiene un repositorio nacional.
Pasado todo el proceso anterior, cuando los datos llegan a la Sede Central, también
se siguen ciertos procesos los cuales son realizados por los supervisores
nacionales y los metodólogos estadísticos, estos procesos se muestran en la figura
N° 02 el cual empieza en la verificación de la cobertura lograda a nivel nacional y
por sedes en comparación con la estimada, luego se realiza una consistencia final
de los datos y la generación de algunos indicadores de calidad de la información.
Terminado todo este proceso empieza la generación de los indicadores y reportes
teniendo ya una confiabilidad en los datos obtenidos.

Figura N° 02: Proceso de recepción y consistencia final de la información.


Fuente: Encuesta Nacional de Hogares – INEI
Elaboración: propia.

Con todo este proceso realizado, la ENAHO logra cumplir sus objetivos planteados,
pero se tiene una cierta demora para poder entregar la información consolidada ya
que después del proceso de digitación pasa por cierta validación de los datos que
se obtiene, y si esta no cumple las condiciones limitadas por ciertos criterios, se
7
deben de tomar algunas medidas de recuperación de la información o si no fuese
posible los jefes encargados tomarán las medidas pertinentes.
Estas decisiones son tomadas por las personas encargadas del proyecto, y las
observaciones van ser devueltas a las sedes locales para su posterior trabajo y
subsanación. Actualmente gracias a un esfuerzo conjunto de las Direcciones
Técnicas de Informática y la de Demografía e Indicadores Sociales se elaboró un
Aplicativo de ingreso de información por tabletas, y con esto se espera unir los
procesos de recopilación de la información y la digitación en uno solo con la finalidad
que datos sean enviados al repositorio único en la Sede Central tal como viene
siendo recogida de campo. Como ya se dijo, con esta medida se viene solucionando
algunos problemas con la recopilación de la información, pero la fase de
procesamiento de la información se viene trabajando con la generación de vistas
en SQL Server para luego ser exportados para tener su visualización en el Software
SPSS y Stata para la generación de los cuadros estadísticos.
La figura N° 03 resalta todo el proceso que genera para que los jefes encargados
puedan tener un reporte estadístico de los datos que se vienen trabajando en
campo.

Figura N° 03: Proceso de solicitud de reportes.


Fuente: Encuesta Nacional de Hogares – INEI
Elaboración: propia.

Al analizar la figura, se visualiza que se viene generando un cuello de botella con


las labores de los metodólogos, que son las personas encargadas de la generación
de los cuadros estadísticos y la interpretación de la información (conjuntamente con
los jefes encargados), y los encargados de la base de datos, ya que ellos son los
encargados de administrar todas las fuentes de todas las encuestas,

8
adicionalmente se pierde tiempo importante (representadas en el cuadro N° 01) en
la formalidad de la petición (solicitud vía correo institucional) y la adquisición de la
información.

Cuadro N° 01: Tiempo de demora en la generación de reportes


Tiempo
de espera
Solicitud Solicitud de Análisis y Estudio y
en Generación
de Informació generación análisis de la Total
atención de scripts
Reporte n deseada de reportes información
por parte
del DBA
Julio 5 min 30 min 240 min 50 min 45 min 20 min 390 min
Agosto 5 min 25 min 260 min 40 min 40 min 25 min 395 min
Setiembre 5 min 30 min 300 min 45 min 50 min 20 min 450 min
Fuente: ENAHO -OTIN
Elaboración: propia.

Todo este tiempo transcurrido al final es un tiempo perdido para tomar alguna
medidas de reajuste que puedan mejorar algunas deficiencias o inconvenientes
imprevistos que se puedan estar generando en algunas de las etapas del proceso
en general del proyecto.

1.2 Formulación del problema


¿Cómo influye el Business Intelligence en agilizar el flujo de la información y mejorar la
toma de decisiones en el análisis de la información de la Encuesta Nacional de Hogares
del INEI – ENAHO?

1.3 Objetivos de la investigación


Determinar la influencia del Business Intelligence en agilizar el flujo de la información y
mejorar la toma de decisiones en el análisis de la información de la Encuesta Nacional de
Hogares del INEI – ENAHO.

1.4 Justificación
1.1.1. Justificación Teórica
La importancia de los datos en toda institución es sin duda un tema que debe ser
cuidadosamente atendido y se tiene que prestar mucha atención. Pero el exceso
de información no es poder, el conocimiento si lo es; con demasiada frecuencia la
transformación y el análisis de toda la información y los datos que toda entidad
genera se convierte en un verdadero problema y por lo tanto la toma de decisiones
se vuelve desesperadamente lenta, desperdiciando recursos humanos, financieros

9
y tiempo en tareas repetitivas para obtener un reporte, lo cual con una solución BI
se puede obtener en segundos.

1.1.2. Justificación Metodológica


Las tecnologías BI ayudan a las personas a entender los datos más rápidamente a
fin de que se pueda tomar mejores y más rápidas decisiones.
Por otra parte, Business Intelligence es la máxima prioridad tecnológica para los
CIO1 según una importante encuesta realizada por Gartner 2en el año 2014.

1.1.3. Justificación Práctica


El Instituto Nacional de Estadísticas e Informática es la institución del estado que
brinda la información a todas las entidades sean estatales o privadas a nivel
nacional, es por eso que necesita tener acceso a la información en forma fluida y
de una forma que sea fácilmente entendida y/o interpretada por aquellas
instituciones que desean hacer uso de aquella información. Es por eso que es
necesario la implementación de nuevas tecnologías que ayudaran al INEI a cumplir
con sus objetivos.

1.5 Hipótesis
La implementación de Business Intelligence ayuda a agilizar y optimizar el flujo de la
información y así mejorar la toma de decisiones en el análisis de la información de la
Encuesta Nacional de Hogares.

1CIO.- Acrónimo de Chief Information Office (Director de Tecnologías de Información)


2Gartner.- Empresa consultora y de investigación de Tecnologías de Información.
http://www.gartner.com/
10
Cuadro N° 02: Definición de variables.
Variable Definición Conceptual Indicadores
Business Crear conocimiento a través del  Porcentaje de alcance
Intelligence análisis de los datos existentes y en la implementación de
difundirlo de manera sencilla. requerimientos
 Nivel de verificación de
resultados.
Flujo de la Paso de la información desde el  Tiempo de demora en la
información almacén de Base de Datos hasta interpretación de la
la obtención de resultados. información.
Toma de Formas de resolver situaciones  Número de acceso a la
decisiones en diferentes escenarios. información actualizada
 Tiempos de respuesta.
Fuente: Encuesta Nacional de Hogares – INEI
Elaboración: propia

1.6 Diseño Metodológico


1.1.4. Tipo de investigación:
Por el tipo de investigación, el presente estudio reúne las condiciones
metodológicas de una investigación aplicada, ya que en el proceso se
implementará una herramienta con la cual se quiere dar solución a la problemática.

1.1.5. Nivel de investigación:


Se realizará en un nivel explicativo ya que al término se necesita interpretar la
influencia causada por la implementación de la solución.

1.1.6. Sistema de referencia.


El sistema de referencia se plantea básicamente en la gamma de colaboradores
que laboran en la sede central del INEI (en Lima), específicamente de las
direcciones Técnicas de: Informática y de Demografía e Indicadores Sociales.

En este capítulo se centró principalmente en evidenciar los puntos donde se encuentra la


situación problemática que aqueja a la Encuesta ENAHO y evidencia la falta de eficiencia
operativa. Implementar una solución BI para agilizar las respuestas y la toma de decisiones
es una alternativa que buscará solucionar la situación problemática expuesta.

11
CAPÍTULO II
MARCO DE REFERENCIA

En el este capítulo se presenta las investigaciones semejantes a la que se está estudiando,


con el objeto de evaluarlas, lo que ha permitido comprender el análisis de las variables.
Además, es necesario establecer las bases teóricas que sustente nuestro estudio, aspectos
del Business Inteligence y su aplicación, y la metodología que se usara para su
implementación. Se incluye también el modelo aplicativo la cual guiará la intervención
metodológica.

2.1 Antecedentes.
A1. Subía García Jorge Luis. Implementación de una solución Business Intelligence
para el análisis de la gestión del Ministerio de Desarrollo urbano y vivienda. Tesis
de grado. Universidad Central del Ecuador. (Subía García, 2013)
El Ministerio de Desarrollo Urbano y Vivienda - Ecuador (MIDUVI) ha venido gestionado
la emisión, ejecución y seguimiento de incentivos de vivienda destinados a la población
ecuatoriana desde el 10 de Agosto de 1992, desde aquella fecha hasta la actualidad se
han implementado distintas aplicaciones de software con diferentes tecnologías y bases
de datos, siendo la última aplicación vigente y oficial el sistema SIIDUVI 3, todas estas
aplicaciones tienen datos relevantes acerca de la gestión que ha realizado a lo largo del
tiempo esta cartera de estado.
El problema que afronta el ministerio es la falta de información concisa, coherente y
verdadera, acerca de su gestión, es por eso el presente proyecto de tesis aspira proveer
de una herramienta informática que ayude a resolver esta falta de información, mediante
el desarrollo de una solución Business Intelligence que mediante procesos de ingeniería
de software, consolide toda la información dispersa en distintas bases de datos, archivos
planos, hojas de cálculo, entre otros; en un solo almacén de datos, comúnmente conocido

12
como Data warehouse, y la implementación reportes dinámicos, tableros de mando y
cubos OLAP.

A2. Bustos Barrera Sofía Anabel, Mosquera Artieda Verónica Nathaly. Análisis,
Diseño e implementación de una solución Business Intelligence para la generación
de Indicadores y control de desempeño, en la empresa OTECEL S.A. utilizando la
Métodología Hefesto V2.0. Tesis de grado. Escuela Politécnica del Ejercito.
Sangolqui – Ecuador (Bustos Barrera, Mosquera Artieda, 2014)
En la actualidad el área de pruebas de la gerencia de Construcción de la empresa de
telefonía OTECEL S.A. no cuenta con una herramienta que permita ágilmente reportes a
los jefes y directivos encargados de la toma de decisiones, este proceso se maneja de
manera manual, lo cual genera retrasos en tiempos de respuesta y cargas operacionales
innecesarias.
La toma de decisiones dentro de esta área, debe de manejarse de estratégica e
inmediata, pero al realizar estos procesos manuales existe un retardo en tiempos de
entrega de resultados, lo que repercute en demoras en toma de decisiones que ocasionan
pérdida competitiva
Con la implementación de un Sistema BI se logra un gran apoyo a esta área para la
obtención de reportes, ya que en las reuniones gerenciales imprevistas (que suelen tener
muy a menudo).se tiene una información oportuna, veraz, explicita y confiable; y de esta
manera ayuda a que las decisiones tomadas sean las más acertadas en beneficio del
crecimiento de la empresa.

A3. Rodriguez Cabanillas Keller Gradys, Mendoza Peña Angela Lucía (2011).
Análisis, Diseño e implementación de una solución de Inteligencia de Negocios
para el área de compra y ventas de una empresa comercializadora de
electrodomésticos. Tesis de grado. Pontificia Universidad Católica del Perú.
(Rodriguez Cabanillas, Mendoza Peña, 2011)
Las pequeñas y medianas empresas comercializadoras de electrodomésticos crecen en
el mercado peruano generando ingresos y empleo. El rápido avance de la tecnología
permite a más familias acceder a productos que faciliten su trabajo diario en el hogar y
en el trabajo. Esto obliga a dichas empresas a volverse más competitivas en cuanto a
precios, promociones, publicidad, tecnología, infraestructura y recursos humanos. Las
actividades principales de este tipo de empresas comercializadoras son la compra de
electrodomésticos y negociación con los proveedores, así como la venta dirigida y el
servicio brindado a sus clientes.
Para volverse más competitivas muchas empresas de este rubro toman decisiones a base
de la experiencia y resultados anteriores y debido a que estas decisiones generalmente

13
no se toman de manera estructurada, se plantea como solución el uso de una herramienta
de inteligencia de negocios que permita en tiempo real a los gerentes y jefes de producto
generar escenarios, pronósticos y reportes que apoyen a la toma de decisiones en la
compra y venta de electrodomésticos. El uso de esta herramienta se traduce en una
ventaja competitiva y son muchas las empresas que se han beneficiado por la
implementación de un sistema de inteligencia de negocios, además se pronostica que
con el tiempo se convertirá en una necesidad de toda empresa.

A4. Boada Byron, Tituaña Alvaro (2012). Desarrollo de una aplicación de Business
Intelligence (BI) para la empresa Empaqplast. Tesis de grado. Escuela Politécnica
del ejército – Departamento de ciencias de la computación - Ecuador. (Boada Byron,
Tituaña Alvaro, 2012)
La empresa EMPAQPLAST S.A. es una empresa de plásticos que se dedica a soplar,
inyectar, extruir, coextruir, transformar e imprimir envases de plástico. La dificultad de la
empresa va que los datos están almacenados en base de datos operaciones y no se tiene
la facilidad para el análisis de una forma específica y personalizada por cada área. Los
gerentes requieren tener acceso a la información de una manera más personalizada ya
que en ocasiones se pierde demasiado tiempo en tomar acciones en eventualidades por
la falta de información estructurada, de forma que se pueda analizar y tener un soporte a
la toma de decisiones.
Con la realización del proyecto se brindará soporte para la toma de decisiones
gerenciales, principalmente de las áreas de ventas, inventarios y compras. La solución
está basada en la elaboración de una aplicación Business Intelligence que estará
conformada por los Data Mart de dichas áreas. Lo que se busca es relacionar los datos
con el negocio para así obtener la información relevante de la situación de la empresa.

A5. Tana Paspuel Gloria Estefanía (2014). Data Mart para el análisis de información
del sistema académico de la Universidad Técnica del Norte con herramientas de
software libre. Tesis de grado. Universidad Técnica del Norte - Ecuador. (Tana
Paspuel, 2014)
Actualmente las pequeñas y medianas empresas necesitan depositar su confianza, en la
toma de decisiones que el personal encargado de analizar la información reporta sobre
sus negocios, y para que dichas decisiones sean lo más reales posible es necesario tener
hechos y cifras, se puede evidenciar que la competencia tecnológica crece a pasos
agigantados, es por ello que las organizaciones buscan lugares acertados y seguros
donde albergar su información; el gran reto de cada organización es saber qué hacer
cuando se tiene una montaña de información la misma que necesita ser analizada,
organizada y clasificada, lógicamente que el personal encargado de tener en orden esta

14
información necesitará mucho más tiempo de lo estimado, pero con el actual desarrollo
de nuevas herramientas de business intelligence para analizar la información es una
realidad de presentar información en muy poco tiempo.
Por ese motivo, se está dando auge a las herramientas de software libre que permitan
minimizar el tiempo de respuesta para analizar grandes volúmenes de información con la
mayor velocidad y precisión posible; al hacer uso de herramientas con licenciamiento de
bajo costo se está logrando que las organizaciones mantengan su rendimiento
competitivo y a la orden del día. Hay muchos factores que influyen en el desarrollo de las
pequeñas y medianas empresas, como son: la globalización del mercado, la presión de
la competencia, los avances tecnológicos, el crecimiento de las microempresas, etc., esto
hace que las organizaciones se vuelvan más competitivas en la rama de inteligencia de
negocios esta es una clara muestra por la que las empresas invierten en tecnología y
soluciones informáticas, las empresas no dependen únicamente de factores geográficos
sino también de conocimientos en tecnología que es muy importante para mantener una
ventaja competitiva.

2.2 Marco Teórico


2.2.1 Inteligencia de negocios (Business Intelligence - BI)
La inteligencia de negocios (business intelligence por sus siglas en ingles), es una
arquitectura y conjunto de tecnologías que buscan mejorar a las organizaciones,
proporcionando vistas de aspectos de negocio a todos los empleados (estratégico,
táctico, operacional) para que tomen mejores y más relevantes decisiones en
menos tiempo y con la mayor información posible y disponible. (Josep Curto, 2010)
La base de la tecnología BI, son los datos (estructurados y no estructurados)
empíricos que las empresas tienen, estos datos se procesan para generar
información. También es posible generar información a partir de mensajes que lleva
encapsulada la información, la cual en general, no está estructurada. (Josep Cano,
2014)
Los datos y los mensajes no tienen individualmente mayor significado, pero su
volumen es grande y con crecimientos considerables cada día de operación del
negocio.
La información, sea producto del procesamiento de datos o de estructuración de
mensajes, tiene mayor significado y por lo tanto mayor valor para el negocio,
reduciéndose su volumen.
Mediante un proceso que no se analizara en esta tesis, la información se convierte
en conocimiento, cuyos componentes, además de la información, son la experiencia
y los valores. Por su naturaleza el conocimiento tiene menor volumen, pero más
valor para la organización.
15
Finalmente, si al conocimiento se lo adiciona el buen juicio y el entendimiento, se
obtiene la sabiduría que es escasa, pero de un inmenso valor para la organización.
En la siguiente figura podemos observar un cuadro de obtención de las distintas
cualidades nombradas anteriormente.

2.2.2 Características BI
 Ayuda en la toma de decisiones: posee herramientas de visualización
avanzadas como: gráficos, tablas, velocímetros, que ayudan a obtener rápidos
tiempos de respuesta, permite una gran navegabilidad, seleccionar y manipular
información que le interese al usuario.
 Acceso a la información: brinda datos de calidad, completos, correctos y
coherentes. Permite el ingreso a los datos de manera independiente.
 Orientación al usuario final: se busca el manejo de interfaces amigables, que
permitan al usuario cierta intuición, sin necesidad de conocimiento técnico para
su uso.

2.2.3 Fuente de datos


Se refiere a todos y cada uno de los sistemas transaccionales diseñados e
implementados para realizar operaciones del negocio. Estos sistemas deben
cumplir un requisito fundamental: deben estar consolidados en cuanto al registro de
operaciones del negocio, aunque no debe ser una limitante que un sistema
transaccional carezca de reportes o resúmenes de información, ya que este vacío
cubrirá la solución de inteligencia de negocios.
Cabe recalcar que en muchas de las ocasiones no únicamente los sistemas
transaccionales (sus bases de datos) son fuentes de datos (OLTP), sino que
también podemos tener como fuentes conexiones a bases de datos externas a la
organización, consumo de servicios web, denominas como (EXT). También
podemos tener como fuentes de datos hojas de cálculo, archivos planos, datos no
estructurados, entre otros, denominadas (INT).

Figura N° 04: Tipo de fuentes de datos


Fuente: Sinnexus – Business Intelligence
Elaboración: propia.

16
2.2.4 Almacén de datos (Data Warehouse)
Un almacén de datos mayormente conocido Data warehouse en idioma ingles es
un conjunto de datos orientado a temas, integrado, no volátil, estable y que se usa
para el análisis y toma de decisiones. A continuación, se analiza cada una de sus
cualidades:

 Orientado a temas: Un Data warehouse siempre debe estar orientado a temas


de la organización, no se puede construir un almacén de datos que este fuera
del negocio de la empresa, por decir, si la organización se dedica a la venta de
artículos, sonaría ilógico que se construya un Data warehouse para dicha
organización que analice la entrega de viviendas en el país.
 Integrado: Un Data warehouse es integrado, puesto que este reúne la
información desde los origines mencionados en el punto 2.2.3.1 y los consolida
en un solo almacén.
 No volátil: Los Data warehouse no son volátiles puesto que guardan toda la
información histórica de la organización permitiendo así el análisis de dichos
datos consolidados.
 Estable: Esta cualidad de los Data warehouse se refiere a que un cambio en
los sistemas OLTP7 no debe afectar al data warehouse, es decir, el Data
warehouse aísla los sistemas operacionales de las necesidades de información
para la gestión.

Un componente importante de los Data warehouse son los Data mart, que son un
subconjunto sectorial del Data warehouse, que a menudo pertenece a un
departamento en particular, por ejemplo, un Data mart para el análisis de la gestión
del departamento de recursos humanos de una organización.
El Data warehouse se alimenta de datos operacionales mediante las herramientas
ETL (Extract, Transform, Load).

 Extract (Extracción): Hace referencia a la captura de información desde los


sistemas fuente, tales como, bases de datos de sistemas transaccionales,
hojas de cálculo, servicios web, entre otros.
 Transform (Transformación): Hace referencia a la adaptación de los datos
fuente al formato destino definido en el Data warehouse, por ejemplo, agregar
datos numéricos, transponer información, funciones de validación de datos,
entre otros.

17
 Load (Carga): Hace referencia al proceso en que los nuevos datos son
finalmente almacenados en el Data warehouse en el formato definitivo.

Finalmente, la siguiente figura es un esquema general de un data warehouse.

Figura N° 05: Esquema de un Data Warehouse


Fuente: Todo sobre Data Warehouse
Elaboración: Cristhian Herrera – www.adictosaltrabajo.com.

2.2.5 Data Mart.


Los Data Marts son base de datos departamentales es decir subconjunto de datos
de áreas específicas de la organización, se caracteriza por tener una estructura
óptima de los datos que pueden ser alimentados desde una base de datos
transaccional y son los que formarán parte de un Data Warehouse.

Características de un Data Mart.


 Mayor rapidez de consulta,
 Área específica.
 Tiene un propósito específico.
 Consultas SQL sencillas,
 Permite llevar un historial de la información.
2.2.6 Cubos OLAP
Los cubos OLAP (OnLine Analytical Processing) se crean en función a bases de
datos multidimensionales, que permitan procesar grandes volúmenes de
información, en campos bien definidos, dando un acceso inmediato a los datos,
para su consulta y posterior análisis,

2.2.6.1 Formas de almacenamiento de los cubos.


MOLAP: los datos fuente del cubo son almacenados junto con sus
agregaciones, en una estructura multidimensional de alto rendimiento. El
18
almacenaje de MOLAP, provee excelente rendimiento y comprensión de los
datos.
Tiene el mejor tiempo de respuesta, dependiendo solo en el porcentaje y
diseño de las agregaciones del cubo. En general este método, es muy
apropiado para cubos con uso frecuente por su rápida respuesta.

ROLAP: toda la información del cubo, sus datos, su agregación, sumas, son
almacenadas en una base de datos relacional ROLAP no almacena copia
de la base de datos, tiene acceso a las tablas originales cuando se necesita
responder a preguntas, es generalmente, mucho más lenta que las otras
formas de almacenaje. Típicamente ROLAP se usa, para largos conjuntos
de datos que no son frecuentemente buscados, tales como datos históricos
de los años más recientes.

HOLAP: combina atributos de MOLAP y ROLAP, la agregación de datos es


almacenada en una estructura multidimensional usada por MOLAP, y la
base de datos fuentes, en una base de datos relacional. Para
procedimientos de búsqueda que accedan datos sumarizados, HOLAP es
equivalente a MOLAP, por el contrario estos procesos accesarán datos
fuentes como los drilldown, estos deben de buscar los datos en la base de
datos relacional y esto no es tan rápido comparado a si los datos estuvieran
almacenados en una estructura MOLAP.
Los cubos almacenados como HOLAP, son más pequeños que los MOLAP
y responden más rápidos que los ROLAP. HOLAP es generalmente usado
para cubos que requieren rápida respuesta, para sumarizaciones basadas
en una gran cantidad de datos.

2.2.7 Estructura de cubos de almacén de datos


2.2.7.1 Tabla de hechos.
Contiene todas las claves primarias de cada una de las dimensiones y las
medidas que nos ayudarán en el análisis de los cubos.

2.2.7.2 Tabla de dimensiones.


En estas tablas encontraremos todos los valores que se utilizarán en la tabla
de hechos.

19
2.2.7.3 Relaciones de las tablas de hechos
Las tablas de hechos de almacén de datos se relacionan entre si a través
de las dimensiones que comparten.

2.2.8 Esquema para el modelo de datos


2.2.8.1 Esquema en estrella
Este esquema se caracteriza por tener una tabla de hechos en el centro de
su estructura, a la cual llegan las tablas de dimensiones mediante las claves
primarias simples de cada dimensión. Concentrado de esta manera la
información en una tabla de datos denominada tabla de hechos.

2.2.8.2 Esquema de copo de nieve


En este esquema encontramos la particularidad que na tabla de
dimensiones puede estar formada por más de una tabla de datos lo que le
hace diferente a el esquema de estrella permitiéndonos tener varios caminos
para llegar a los datos influyendo directamente sobre el rendimiento de la
consulta.

2.2.9 Cuadro de mando


Los cuadros de mando son herramientas que concentran grandes volúmenes de
información en entornos muy llamativos y prácticos, mediante el uso de gráficas,
mapas, entre otros elementos.
Estas herramientas consiguen hacer sencillo, complejos modelos de datos,
formulas y relaciones entre variables.
Los cuadros de mando se encuentran en conexión con la estrategia de la empresa
y, además, es un instrumento para la puesta en práctica de la misma. Esto es
importante, porque sitúa en el centro la estrategia y no el control.
Permiten medir el funcionamiento de una organización mediante la identificación de
unas métricas clave (KPI’s, Key Performance Indicators). Los scorecards ayudan a
determinar si una organización está consiguiendo determinados objetivos, si hace
progresos o hay aspectos claramente con dificultad de cumplimiento que inciden
directamente en el resultado global de la empresa.
Todas las organizaciones independientemente de su naturaleza tienen una misión,
la cual es su razón de ser, a su vez de la misión se desprenden objetivos
estratégicos, los cuales son los mecánicos a realizar para cumplir con la misión de
la organización. De estos nacen los indicadores de gestión los cuales nos permiten
visualizar un panorama de cómo se encuentra la organización

20
Figura N° 06: Esquema de un cuadro de mando.
Fuente: Todo sobre Data Warehouse
Elaboración: propia.

Los indicadores a generarse en un cuadro de mando deben tener las siguientes


características:

 Selectivos: Deben centrarse únicamente en lo verdaderamente importante

para la organización, evitando caer en el error de hiperinflación de indicadores

que dificulte las labores de análisis.

 Informativos: Cada indicador debe llevar una carga de información asociada,

cuya lectura permita la obtención de conclusiones.

 Oportunos: Entendido como la disponibilidad de información en el momento y

lugar precisos para agilizar la toma de decisiones.

 Contrastables: Los indicadores deben resultar mensurables contra un nivel de

resultados deseado. Incluso en el caso en que es difícil una medición precisa,

los resultados deben poder encuadrarse dentro de un rango de valores o

definirse como un grado de magnitud.

 Sencillos: Evitando la sofisticación en su contenido y método de obtención,

debiendo resultar, en la medida de lo posible, auto explicativos e intuitivos.

 Aceptados: Para que resulten realmente operativos, los indicadores deben ser

elementos admitidos como útiles por los miembros de la organización.

21
La explotación de la información debe plasmarse en salidas de información
concretas que reflejen la situación y la evolución respecto al fin. Para definir estas
salidas es necesario combinar dos elementos: los ratios y las dimensiones.

Figura N° 07: Definición de un Indicador.


Fuente: Encuesta Nacional de Hogares – INEI
Elaboración: propia.

Los ratios establecen las unidades de medida claves en el control y seguimiento de


las subvenciones.
Las dimensiones (ejes de agregación) muestran dimensiones para comparar los
indicadores definidos agrupándolos por diversos conceptos.

2.2.10 Metodologías de desarrollo de un proyecto BI


Para la selección de una metodología de desarrollo de un proyecto BI se debe de
tener en cuenta varios factores como, las necesidades de los usuarios en lo que
se refiere a la presentación de informes y análisis, también se debe entender como
están estructurados los datos de los diferentes sistemas dentro de la organización
y como se dan las relaciones entre los mismos. (Ralph Kimball, 2013)
Existen varias metodologías para el desarrollo de un proyecto, estas se clasifican
en dos grupos: Metodologías Top-down y metodologías Bottom-up, en cada una
de estas metodologías existen autores que son los más representativos, Bill Inmon
“Top-down” y Ralph Kimball “Bottom up” que son considerados precursores de las
metodologías y del desarrollo de Data Warehouse.
El enfoque de Bill Inmon principalmente está basado en que el Data Warehouse
debe ayudar a las necesidades de todos los usuarios en la organización y no solo
de un grupo en particular. Se trata de un método que minimiza los problemas de
integración, pero es costoso debido a que se trabaja con una gran cantidad de
datos. Este método realiza un resumen del sistema sin especificar detalles y
después cada parte se va refinando con detalle. Esta metodología no cumple el
22
ciclo de vida normal de las aplicaciones, sino que los requisitos acompañan al
proyecto según este se vaya comprobándose su necesidad. Muchas veces esta
perspectiva puede atraer riesgos a la organización ya que se invierte grandes
esfuerzos para el desarrollo de un Data Warehouse y solo hasta la aparición de
los Data Marts es cuando se empieza a tener los beneficios y el retorno de la
inversión.
Por la contraparte el enfoque de la metodología de Ralph Kimball está basada en
la elaboración de experimentos y prototipos, no requiere grandes inversiones por
que la idea cosiste en construir Data Marts independientes que se diseñan con
detalle y después se relacionen con otros Data Marts para formar un sistema
completo.
Ya descritas las metodologías más utilizadas para el desarrollo de un Data
Warehouse, se podrá seleccionar cuál de ellas es la que se va ajustar mejor el
planteamiento de proyecto y brindará mayores ventajas.

2.2.11 Herramientas:
Las herramientas a utilizar en el desarrollo del proyecto se muestran en el
siguiente cuadro. (Rland Bouman & Jos Van Dongen, 2009)

Cuadro N° 03: Herramientas a utilizar.


Productos Software Características

Pentaho BI Server 5.3 Servidor OLAP


Pentaho Data Integration Integración
Pentaho Schema Work Bench Diseñador de cubos dimensionales
Saiku Analitycs Creador de cuadros Pivot.
Community Dashboard Edition Elaboración de cuadros de mando
Fuente: Suite Pentaho.
Elaboración: propia.

2.2.11.1 Plataforma Pentaho Open Source Business Intelligence


La herramienta Open Source Pentaho Business Intelligence permite
realizar análisis de los datos y de informes empresariales. Estas soluciones
están escritas en lenguaje java y su ambiente de implementación de igual
manera.

Reporting: permite realizar informes de manera ágil y de gran capacidad


para usuarios. Los reportes pentaho permiten la distribución de los

23
resultados del análisis en múltiples formatos como PDF, XLS, HTML y
texto.

Análisis: proporciona al usuario un sistema avanzado de análisis mediante


tablas dinámicas que facilita el análisis de los datos a través de una tabla
cruzada donde podemos navegar por las diferentes dimensiones definidas
en el modelo dimensional para desarrollar este esquema dimensional se
puede utilizando Schema Workbench. Teniendo definidos nuestros
esquemas dimensionales podemos haber el análisis utilizando Saiku a
nivel de interfaz de usuario.

Dashboards: todos los componentes de Pentaho pueden formar de un


Dashboar. En pentaho dashboard se puede incorporar una variedad en
tipos de gráficos, tablas y velocímetros e integrarlos en forma visual para
realizar informes y análisis OLAP.

Integración de datos: es el componente responsable de la extracción,


transformación y carga ETL. La herramienta de ETL frecuentemente es
utilizada en un ambiente para desarrollo de los Data Marts. También puede
ser usado para otro tipo de propósitos como:

 Migración de datos entre aplicaciones o base de datos.


 Exportación de datos desde base de datos a archivos planos.
 Carga de datos en forma masiva.
 Integración de aplicaciones.

Diseño de cubos: utiliza el schema workwench para el diseño de cubos


OLAP, para luego ser visualizadas en la plataforma Pentaho. Crea un
archivo XML en la cual se refleja la existencia de la tabla de hechos y
dimensiones.

2.3 Modelo Aplicativo


Para el modelo aplicativo, se tomó como referencia al Modelo Raph Kimball.Ralph Kimball
es considerado uno de los representantes más importantes del Data Warehouse y
Business Intelligence. Su metodología ha sido probada en muchos escenarios de negocio
y se podría decir que se ha llegado a convertir en un estándar de proyectos BI.
En el año 1998 se publica la primera edición del libro “The Data Warehouse Lifecycle
Toolkit” donde se expone dicha metodología.
24
Figura N° 08: Arquitectura Kimball
Fuente: The Data Warehouse Toolkit
Elaboración: Ralph Kimball.

2.3.1 Planificación y administración del proyecto


La planificación busca identificar la definición y el alcance del proyecto, incluyendo
las justificaciones del negocio y las evaluaciones de factibilidad.
La metodología en esta etapa propone identificar el alcance basado en
requerimientos de negocios y no en fechas establecidas. Así el cumplimiento del
proyecto será directamente relacionado con el negocio de la empresa.

 Definición del proyecto: como paso inicial para el desarrollo de un proyecto


BI se debe identificar de donde proviene la necesidad de información la cual
puede darse de un sector específico como los directivos o gerentes de la
organización o a su vez puede provenir de varios sectores de la empresa.

 Preparación de un proyecto de Data Warehouse: Ralph Kimball indica que


se debe de tener en cuenta factores como el apoyo y patrocinio de la gerencia,
intereses de la empresa en un proyecto BI, apoyo del departamento de
sistemas y tecnología de la empresa, la empresa debe presentar un entorno
factible para la realización del proyecto.
 Alcance: se debe definir los límites del proyecto para poder desarrollarlo
satisfactoriamente en base a los requerimientos del negocio.

 Justificación: se debe tener en cuenta cual será la inversión para el proyecto


y cuál será el beneficio para la empresa. En esta fase se debe definir
justificaciones en términos de negocio que sustenten el proyecto y hacer las
respectivas evaluaciones de factibilidad.

25
 Planificación del proyecto: A nivel de planificación del proyecto se establece
la identidad del mismo, es decir se lo maneja con un nombre, el personal (los
usuarios, gerentes del proyecto, equipo del proyecto, desarrolladores),
desarrollo del plan del proyecto, el seguimiento y la monitorización.

 Administración del proyecto: En esta etapa se verifica mediante reuniones


con los involucrados en el proyecto el avance del mismo y el cumplimiento de
los requerimientos.

2.3.2 Definición de los requerimientos del negocio


El punto clave para el proceso de desarrollo un Data Warehouse es la manera como
se interpretan y se analizan los requerimientos la interpretación correcta de los
diferentes niveles de requerimientos proporcionará la visión de cómo se realizará el
diseño del Data Warehouse.
Para iniciar con el proceso de obtención de requerimientos se debe de hablar con
los principales encargados del negocio, se debe enfocar el proceso de toma de
requerimientos en cosas como: en base a qué información se toman decisiones, en
que consisten sus trabajos, que información es la que se manejan con más
frecuencia, en que actividades invierten más tiempo.

2.3.3 Diseño técnico de la arquitectura


El diseño de un Data Warehouse requiere la integración de varias tecnologías por
lo que se debe de tener en cuenta elementos como: requerimientos del negocio, el
entorno técnico y las estrategias de diseño. (Maria Perez, 2014)

Entorno Back Room: es el sitio donde se toman lugar los procesos de Data Staging
(adquisición de los datos) consiste en el proceso de Extracción, Transformación y
carga (ETL) de los datos desde las fuentes de origen y la carga de los mismos en
el Data Warehouse.

26
Figura N° 9: Arquitectura back room
Fuente: The Data Warehouse Toolkit
Elaboración: Ralph Kimball.

Entorno Front Room: Es la carta de todo Data Warehouse por tanto debe ser
capaz de explotar al máximo todas las funcionalidades y características que puede
ofrecer el sistema en general.
Entre los servicios del Front Room se encuentra la navegación, seguridad,
monitoreo, generación de reportes y por supuesto manejo de consultas y otros
servicios de escritorio. El Front Room corresponde a la capa que representa los
datos al usuario, escondiendo toda la complejidad y el origen de los datos.

Figura N° 10: Arquitectura front room


Fuente: The Data Warehouse Toolkit
Elaboración: Ralph Kimball.

2.3.4 Modelo dimensional:


Ralph Kimball menciona que el modelo dimensional proporciona varias ventajas en
el desempeño del sistema BI en cuanto a consultas.

27
El modelado dimensional, según su creador Ranph Kimball, “es el diseño físico y
lógico que transformará las antiguas fuentes de datos en las estructuras finales del
Data Warehouse, a través de una técnica que busca la presentación de los datos
en un marco de trabajo estándar que es intuitivo y permite un acceso de alto
desempeño. Cada modelo dimensional está compuesto de una tabla que tiene una
llave compuesta llamada tabla de hechos y un conjunto de tablas más pequeñas
llamadas dimensiones. Cada tabla dimensión tiene una llave primaria simple, que
corresponde exactamente a una de las partes de la llave compuesta en la tabla de
hechos. Esta estructura característica es usualmente llamada esquema estrella”.
Los pasos necesarios para convertir un Diagrama Entidad Relación (ERD) a un
conjunto de diagramas de modelado dimensional son:

Separar el ERD de la organización: se debe de separar los procesos de negocios


y modelar cada uno por separado.

Seleccionar las relaciones: las relaciones de varios a varios en el ERD que


contengan cantidades numéricas y aditivas se las designa a las tablas de hechos.

Desnormalizar tablas: las tablas restantes con llaves simples se conectan


directamente a las tablas de hechos son las tablas se convierten en las
dimensiones. En los casos que una tabla dimensión se conecte a más de una tabla
de hechos, se representa esta misma tabla dimensión en ambos esquemas estas
tablas adquieren el nombre de dimensiones conformadas.
El objetivo de aplicar el modelo dimensional a una estructura de Data Warehouse
proporciona un marco de trabajo predecible, que se obtiene al utilizar dimensiones
conformadas, esto mejora la presentación y también el desempeño, ya que las
uniones entre tablas de hechos son sencillas.
Soporta cambios inesperados en el comportamiento del usuario y es fácilmente
extensible para acomodar nuevos elementos de datos inesperados y nuevas
decisiones de diseño.

2.3.5 Modelo Físico:


En lo que se refiere a la estructura física la etapa incluye tareas como la
configuración de la base de datos, nombres de las columnas, los tipos de dato, etc.
La creación de las tablas para datos y metadato donde se alojarán dimensiones y
tablas de hechos.
Generación de scripts y diagramas de Base de Datos.

28
2.3.6 Diseño y desarrollo de la presentación de datos.
Esta etapa está conformada primeramente por las actividades ETL. Se realiza un
análisis de los datos como se van a integrar y como se pueden resolver problemas
de inconsistencias.

 Actividades para el proceso ETL.


 Realizar un plan de proceso.
 Seleccionar la herramienta ETL.
 Carga de datos.
 Creación de cubos.

2.3.7 Desarrollo de aplicaciones para usuarios finales.


Los usuarios acceden a la información por medio de BI Server herramienta gráfica,
que contiene toda la información del negocio, se pueden desplegar reportes, vistas
de análisis, tableros de control.

2.3.8 Mantenimiento y crecimiento:


Como en todo proyecto se necesita tener actualizaciones de forma constante para
poder dar un ciclo de vida adecuado al producto. Es importante estableces
prioridades para poder manejar los nuevos requerimientos de los usuarios y de esa
forma poder evolucionar y crecer.

2.3.9 Gestión del proyecto.


La gestión del proyecto asegura que las actividades del ciclo de vida se lleven a
cabo de manera sincronizada. La gestión del proyecto acompaña todo el ciclo de
vida. Entre sus actividades principales se encuentra la monitorización del estado
del proyecto y el acoplamiento entre los requerimientos del negocio y las
restricciones de los sistemas de información para poder manejar correctamente las
expectativas en ambos sentidos.

2.4 Marco conceptual

• Flujo de información: Recorrido de la información desde su recopilación hasta su


interpretación.
• Reportes: Presentación de cuadros, gráficos y/o esquemas estadísticos de fácil
lectura e interpretación.
• Indicadores: Resúmenes de datos totales comparativos.

29
• Consistencia de datos: Revisión de la información por estándares de tipo de dato y
congruencia en la secuencialidad de las respuestas proporcionadas.
• Operación de campo: Proceso de recolección de la información de la entrevista de
las personas y los encuestadores.
• ODEI: Son las oficinas descentralizadas que operan en el interior del país y que están
supeditadas por el INEI.
• Digitación. Proceso de pasar los datos obtenidos en una encuesta física, a ser
almacenadas en una Base de Datos computacional.
• Recuperación: Etapa en la cual se procede en volver a entrevistar al hogar
encuestado con el fin de subsanar o completar datos faltantes de una primera
entrevista.
• Información: Interpretación de los datos obtenidos, evidencias de algo.
• Usuario: Persona capacitada que será la encargada de la manipulación final de un
producto informático.
• Consolidado: Información, final, robusta, que al analizar proporciona resultados con
un fin en particular.
• Requerimientos: son declaraciones de los servicios que proveerá el sistema, la
manera que este reaccionará ante casos particulares.
• Desnormalizar: proceso de procurar optimizar el desempeño de una Base de Datos
por medio de agregar datos redundantes.
• Monitorear: proceso mediante el cual se reúne, observa, estudia y emplea
información para luego poder realizar un seguimiento de un hecho particular.
• Granulidad: se refiere a la especificidad a la que se define un nivel de detalle de una
tabla, empezando de la parte de más alta jerarquía a la más mínima.

Business Inteligence es un conjunto de tecnologías que buscan mejorar a las


organizaciones proporcionando vistas de negocios a todo su personal para que tomen
mejores decisiones en un tiempo menor. Su finalidad es darle un valor agregado a la
información almacenada en las organizaciones para que se puedan convertir en
conocimiento.

30
CAPITULO III
INTERVENCIÓN METODOLÓGICA

En este capítulo se aplica la metodología Kimball, que contempla los procesos para elaborar
un proyecto BI, comienza desde la planificación y administración del proyecto, hasta la
implementación y mantenimiento del mismo. Para la realización de la implementación, se
utilizará como herramienta de Software la Suite de Pentaho por brindarnos una amplia gama
de productos para el desarrollo desde los procesos de extracción hasta la publicación.

3.1 Planificación y administración del proyecto.


3.1.1 Definición del proyecto:
Para desarrollar el proyecto se determinó la necesidad de implementar una solución
BI con el fin de mejorar el flujo de la información y facilitar el control y toma de
decisiones por parte de los jefes del proyecto de la Encuesta ENAHO en el INEI, que
requieren tener monitoreadas las tareas que realizan los encuestadores en sus
labores de campo y la calidad de datos que se va obteniendo, además se necesita
tener algunos reportes de calidad de la información, por lo cual se necesita generar
indicadores con respecto a los datos. Con el desarrollo del proyecto BI se pretende
dar independencia a la extracción de la información para no necesitar de procesos
manuales u operacionales que solo retrasan las tareas diarias.

3.1.2 Preparación del proyecto:


El INEI muestra interés en el desarrollo del proyecto, ya que con él se daría un punto
de partida para el desarrollo de soluciones BI similares para todas las encuestas que
son desarrolladas por la institución. La Oficina Técnica de Informática OTIN fue la
encargada de presentar el proyecto como soporte para el análisis de la información
y toma de decisiones para los jefes encargados del proyecto mencionado.

31
3.1.3 Alcance:
El proyecto se focalizará en la elaboración de Indicadores, que permitan, bajo el
esquema de reportes, visualizar tiempos, cantidades, responsables, resultados por
distribución geográfica, los cuales facilitarán tener tiempos de respuesta menor para
la toma de decisiones y planes de acción en caso lo requieran.
Los indicadores que se desarrollarán en esta fase de la aplicación, será los
siguientes.

 Avance de lo programado.
 Tasa de problemas de marco.
 Tasa de no respuesta total.

3.1.4 Justificación:
Se busca relacionar los datos para obtener una información de fácil acceso y que
sirva de fuente para una toma de decisiones más rápida efectiva. Se considerará el
uso de Pentaho BI que es una herramienta OpenSource de libre distribución, que por
su amplia gama de productos nos ayudará a implemetar una solución completa de
Business Intelligence.

3.1.5 Planificación del proyecto:


Se asigna roles a las personas involucradas en el ciclo de vida del desarrollo del
proyecto con el objetivo de tener responsables en cada fase del desarrollo.

 Patrocinador del proyecto: Encuesta Nacional de Hogares ENAHO -INEI.


 Administrador de Base de Datos: Ing. Agustín Beretta.
 Director del proyecto: Lucia Gaslac (jefa del proyecto ENAHO)
 Metodólogo: Ing. Alex Mamani.
 Desarrollador: Bach. Erick Gonzales Segovia.
 Arquitecto de Datos: Bach. Erick Gonzales Segovia.
 Diseñador: Bach. Erick Gonzales Segovia.
 Monitoreo de la información: Lic. Adam Carhuas.

3.1.6 Administración del proyecto:


Se realizará reuniones semanales para monitorear el avance del proyecto, estas
reuniones estarán a cargo de la Jefa del Proyecto, conjuntamente con sus
colaboradores encargados.

32
Se realizó un cronograma de actividades a realizar las cuales serán monitoreadas
por todo el equipo de desarrollo. El cuadro N° 04 muestra la información de cómo se
irá desarrollando el proyecto.

Cuadro N° 04: Cronograma de trabajo.


SET OCT NOV DIC ENE FEB
N° ACTIVIDAD
1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4
Planificación y administración
1
del proyecto.

2 Definición de requerimientos.
Diseño de la arquitectura del
3
Data Mart.
Selección de productos e
4
instalación.

5 Modelado dimensional.

6 Nivel de granulidad.
Diseño y desarrollo de la
7
presentación de datos.
Desarrollo de la aplicación
8
para usuarios finales.
9 Mantenimiento y crecimiento.

10 Gestión del proyecto.


Fuente: Equipo de trabajo.
Elaboración: propia.

3.2 Definición de los requerimientos:


El proyecto ENAHO solicitó la contratación de un personal informático para que
específicamente realice el seguimiento a sus datos obtenidos en campo. Los términos de
referencia solicitados se especifican en el ANEXO B.
Se realizaron reuniones con el Administrador de Base de Datos (DBA) y el Metodólogo del
proyecto para así poder conocer el origen de toda la información y el como acceder a ella.
Para ello se solicitó un informe detallado con los requerimientos las cuales se adjunta en
el ANEXO A.

Cuadro N° 05: Requerimientos del sistema.


Tipo de Título del Descripción Filtros
Indicador Reporte
Permite obtener el porcentaje
de avance que se viene Mes.
Indicador de Avance de lo Periodo.
logrando en cada una de las
Cobertura programado ODEI.
ODEI’s distribuida a nivel
nacional.

33
Permite realizar el seguimiento Mes.
de las actividades de cada Periodo.
encuestador los cuales ODEI
pertenecen a un ODEI Encuestadores.
específico.

Permite revisar el estado de Mes.

cada uno de los Periodo.

conglomerados de las cuales ODEI

se hacen responsable un único Encuestador.

encuestador. Conglomerados.

Mes.

Permite obtener el resultado Periodo.

de cada uno de las viviendas ODEI

que forman parte del Encuestador.

conglomerado. Conglomerado.

Indica el margen de error que


se cometió al hacer la Mes (solo año

Tasa de segmentación de las viviendas en curso)

problemas de a trabajar. Este reporte debe ODEI.

marco ser comparativo con los datos Encuestador.

de años pasados para ver la Conglomerado.

Indicadores evolución de las cifras.


de calidad Este indicador muestra el
detalle de las viviendas en las Mes (solo año

cuales no se encuentra la en curso)


Tasa de no ODEI.
información suficiente para un
respuesta Encuestador.
análisis. Estas viviendas pasan
a tener una etapa de Conglomerado.

recuperación o de sustitución.
Fuente: Encuesta Nacional de Hogares - INEI
Elaboración: propia.

3.2.1 Esquema original de la base:


ENAHO cuenta con una base de datos estructural relacional soportada en SQL
server, cuya base de datos se alimenta de datos obtenidos de campo, recogidas por
vía Tablet las cuales se envían mediando código xml.

34
Esta base de datos cuenta con diversas tablas relacionadas entre si, las cuales
almacenan diferentes tipos de información. A continuación, se lista las tablas
principales.

Campo_conglomerado: En esta tabla se almacena la segmentación realizada por


conglomerado donde se realizará la encuesta, contiene datos como el mes y el
periodo de trabajo.

Campo_vivienda_marco: Es la tabla que almacena los datos iniciales de la vivienda,


el marco que se espera abarcar a nivel de viviendas encuestadas.

Campo_hogar: Es la tabla donde se inscriben los hogares encuestados, es una de


las tablas principales ya que contiene el resultado final que se obtiene del hogar
entrevistado.

CampoEna01_cap100: Almacena todas las características de la vivienda y el hogar.

CampoEna01_cap200: Contiene información de las personas que son miembros del


hogar encuestado, datos como sexo, edad, estado civil etc.

CampoEna01A_cap300: En esta tabla va almacenada toda la información a nivel


educativo de los miembros del hogar.

CampoEna01A_cap400: Es la tabla donde se almacena los datos de salud, las


cuales permitirá evaluar las condiciones de riesgos de los hogares.

CampoEna01A_cap500: Es la tabla de empleo e ingresos, permite estudiar las


características económicas de los miembros del hogar.

CampoEna01A_cap601: Es la tabla que almacena datos de las características de


los gastos que realiza el hogar en la adquisición de alimentos y bebidas. Es para
analizar el nivel de bienestar de las familias.

Después de revisar y analizar los requerimientos, se diseña un esquema que parte


de la base de datos original de donde se extraen los datos para la creación de nuestro
Data Mart. En la Figura 11 se muestra el diagrama de relaciones de la base de datos
con sus principales tablas.

35
Figura N° 11: Diagrama relacional de la Base de Datos de captura.
Fuente: Oficina Técnica de Informática OTIN – INEI.
Elaboración: Oficina Técnica de Informática OTIN – INEI.

36
3.3 Diseño de la arquitectura:
3.3.1 Estándares:
Se definió estándares para el modelado y el proceso ETL con el objetivo de que este
sistema BI pueda crecer y puede ser entendido sin mucho esfuerzo técnico.

3.3.1.1 Estándares para el modelado:


Se tiene palabras claves para los nombres de campo, tablas de dimensiones
y de hechos.

Id -> Prefijo para los campos identificadores.


DIM -> Prefijo para las Dimensiones.
FACT -> Prefijo para las tablas de hechos.

3.3.1.2 Estándares para el proceso ETL


Para la carga de las tablas en nuestro Data Mart se utilizará las siguientes
herramientas del Spoon.

Table Input: Se asignará el mismo nombre de la tabla original de la base de


datos de la institución.
Add Sequence: Deberá de tener el mismo nombre de la tabla creada en el
Data Mart.
Table Output: Se tendrá el nombre de la tabla creada en el Data Mart.

3.3.2 Entorno Back Room:


Los datos serán extraídos de la Base de Datos de la institución que se encuentra en
SQL server, el proceso ETL se realizará con la herramienta Pentaho Data Integration
(PDI) de la suite de Pentaho, el alojamiento de los datos se realizará en un Data Mart
alojada en otro servidor SQL server.

Figura N° 12: Entorno Back Room.


Fuente: Metodología de Ralph Kimball.
Elaboración: Propia.

37
3.3.3 Entorno Front Room:
Una vez poblado el Data Mart con los datos respectivos, se podrá visualizar los
resultados a través del Servidor de biserver-ce de Pentaho.

Figura N° 13: Entorno Front Room.


Fuente: Metodología de Ralph Kimball.
Elaboración: Propia.

3.4 Selección de productos e Instalación.


Para el desarrollo del proyecto BI se trabajó con las herramientas del Pentaho
Community.

Análisis de riesgos de usar Open Source. El uso de cualquier herramienta de software


libre trae consigo un riesgo para la institución, para el desarrollo del proyecto y su
mantenimiento. En el cuadro N° 06 se identifican estos riesgos, se les realiza una
valorización y se plantea una solución para que el proyecto no se vea amenazado.

Cuadro N° 06: Cuadro de análisis de riesgos.


Impacto
Identificación del riesgo Cuantitativo Respuesta
Cualitativo
(1 - 5)
Contar con permisos de administrador a
Instalación y
un servidor de desarrollo en el cual se
configuración inicial del Medio 3
podrán realizar todas las pruebas
servidor.
necesarias.
Tener un personal del área de redes
Monitoreo constante del monitoreando por lo menos 3 veces al
funcionamiento del Bajo 2 día del funcionamiento del servidor y
servidor. notificar si se encuentra alguna
anomalía.
Incentivos para la investigación
Pocos profesionales con constante del personal.
conocimientos en Alto 5 Capacitación y charlas constantes entre
software libre. las personas que conforman el área de
trabajo.

38
Compartir el conocimiento alcanzado.
Tener una documentación desde el inicio
del proyecto hasta el final, para que la
Cambio de personal de
Medio 3 persona encomendada a seguir con el
trabajo
proyecto no encuentre dificultades.
Compartir el conocimiento alcanzado.
Fuente: Open Source
Elaboración: Propia

Teniendo en cuenta este análisis de riesgo, se considera factible para el desarrollo


de este proyecto el uso de la tecnología proporcionado por la Suite de Pentaho
comunity, de la cual se selecciona ciertos productos de su amplia gamma las
cuales se pueden observar en el cuadro N° 07

Cuadro N° 07: Herramientas a utilizar de la Suite de Pentaho.


Producto Características Uso
Pentaho BI Server 5.2 Servidor OLAP Administración de usuarios.
Publicación de reportes y cubos.
Diseño de tableros de mando.
Pentaho Report Designer Reporteador Diseño y construcción
Pentaho Data Integration Integración de Datos Diseño y desarrollo del proceso del
ETL proceso ETL
Pentaho Schema Work Diseñador de cubos Diseño y construcción de cubos
Bench dimensionales multidimensionales.
CDE Comunity Dashboard Diseño y construcción de tableros
Editor. de control.
Saiku Analitycs Creador de pivot. Diseña cuadros dinámicos donde
se puede realizar cruce de
variables.
Fuente: Pentaho Community
Elaboración: Propia.

En primer lugar, se creó una carpeta que almacenará todos los recursos de Pentaho como
se muestra en la Figura N° 14.

39
Figura N° 14: Captura de Carpeta contenedora de la Suite de Pentaho.
Fuente: Propia.
Elaboración: Propia.

Para que los productos de esta versión de Pentaho puedan funcionar, en primer lugar, se
deben de hacer algunas configuraciones previas en nuestro servidor de uso, en este caso
un servidor con el sistema Windows instalado.
Se debe de tener instalado como mínimo la versión de java 7 y tiene que estar inicializado
en nuestro path de sistema. En la figura N° 15 y ° 16 se muestra como es la manera de
crear la variable de sistema y donde tiene que estar ubicada para su inicialización.

Figura N° 15: Creación de la variable de sistema JAVA_HOME.


Fuente: Propia.
Elaboración: Propia.

40
Figura N° 16: Ubicación de la Variable JAVA_HOME en el Path.
Fuente: Propia.
Elaboración: Propia.

También se debe de crear una nueva variable de entorno con el nombre de


PENTAHO_JAVA_HOME la cual también debe de estar inicializada en el PATH como se
puede observar en la figura N° 16.

Figura N° 17: Creación de la variable de sistema PENTAHO_JAVA_HOME.


Fuente: Propia.
Elaboración: Propia.

Para asegurarse que las configuraciones previas se realizaron con éxito; se puede revisar
la versión del java en ejecución desde la pantalla de comandos con una simple consulta
la cual es java -version, y con ello el CMD mostrará como respuesta la versión del Java
que viene ejecutándose como muestra la figura N° 18.

41
Figura N° 18: Verificación de la versión de Java.
Fuente: Propia.
Elaboración: Propia.

Ya se tiene el soporte de java para poder empezar con la ejecución de las diversas
herramientas de Pentaho Community.

3.5 Modelado Dimensional:


En esta etapa se empieza a trabajar con la parte de la realización de las especificaciones
técnicas y a desarrollar la parte operativa del proyecto.
Se empieza con la estructuración de nuestro Data Mart, cuáles serán las tablas de
dimensiones y la tabla Fact conteniendo en ella las medidas a utilizar.
La figura N° 19 muestra el diagrama de Data Mart propuesto para empezar con el desarrollo
del proyecto, teniendo en cuenta que es un proyecto que recién entrará en implementación
y posteriormente puede crecer con la posibilidad de crear más Data Mart de distintos
proyectos y convertirse en un Data Warehouse.

Figura N° 19: Diagrama tipo estrella del Data Mart.


Fuente: Propia.
Elaboración: Propia.

42
Fact_Resultados: es la tabla de hechos, en la cual se encuentra referenciadas todas las
tablas dimensiones. Esta tabla tiene un identificador único llamado idFact la cual es creada
automáticamente al agregar una nueva fila de información a la tabla.

Dim_departamento: es la tabla que hace referencia a los Departamentos del Perú ya que
la encuesta es aplicada a nivel nacional.

Dim_encuestador: en esta tabla se encuentra el personal solo encuestadores del


proyecto.

Dim_conglomerado: los departamentos son sectorizados en pequeños números de


conglomerados para así poder abarcar por zonas estratégicas el alcance de la encuesta.
En esta dimensión se pueden observar a todos los conglomerados que se trabajaran en el
año.

Dim_vivienda: es el último engranaje de visualización, ya que todo se basa en los


resultados que se obtiene por vivienda a nivel nacional.

Dim_mes: es una dimensión de tipo tiempo, con él se pueden observar los resultados en
una escala según se avanza el proceso.

Dim_periodo: también es una escala de tiempo. Es más precisa que la escala mes y es
utilizada para analizar los resultadas en átomos más pequeños.

3.6 Nivel de granulidad:


De acuerdo a las correspondencias establecidas, se analizaron los campos que serán
utilizados para el desarrollo de los reportes, de los cuales se determinaron las perspectivas
y los indicadores.
Primero se realizó un análisis de los datos, para ello se consultó con el metodólogo y el
personal de Base de datos para comprender y definir los campos que permitirán obtener
los indicadores deseados.
En las figuras N° 20, 21 y 22 se muestra en diagrama los primeros requerimientos de los
usuarios.

43
Figura N° 20: Indicador de Avance de Campo.
Fuente: Propia.
Elaboración: Propia.

Figura N° 21: Indicador de Tasa de Problemas de Marco.


Fuente: Propia.
Elaboración: Propia.

44
Figura N° 22: Indicador Tasa de No Respuesta.
Fuente: Propia.
Elaboración: Propia.

3.7 Diseño y desarrollo de la presentación de datos:


3.7.1 Proceso de Extracción Transformación y carga de datos.
El proceso de ETL se realizó con la herramienta Spoon de Pentaho y en esta sección
se describe el procedimiento para el proceso.

Figura N° 23: Pentaho Data Integration.


Fuente: Propia.
Elaboración: Propia.

Para empezar el procedimiento se necesita crear una transformación, pero para ello
se debe configurar la conexión a nuestra Base de datos, en este caso se está usando
el motor SQL Server y por ello se debe realizar la conexión a dicha Database
configurando los parámetros como son el Host donde se encuentra ubicada, el
nombre de la Base de Datos y el String de conexión.
En la figura 24 se muestra como se debe proporcionar los parámetros de conexión.

45
Figura N° 24: Configuración del DataSource - Data Integration.
Fuente: Propia.
Elaboración: Propia.

Para empezar el diseño ETL se debe de insertar un table input que se encuentra en
las herramientas de Desing en la carpeta input en la cual se debe de ejecutar la
sentencia SQL que trae consigo los datos que serán usados en el Data Mart.

Figura N° 25: Tabla Input – Data Integration.


Fuente: Propia.
Elaboración: Propia.

Para insertar el código SQL basta con realizar doble click en el icono de la tabla para
que aparezca una ventana con las opciones necesarias para insertar y validar nuestro
código. Se debe de usar la conexión de base de datos creada, y si es necesario tener
otra conexión también se puede realizar desde ahí con la opción New.
En las figuras siguientes, se muestra el modo de elaboración para la tabla de hechos,
ya que es la tabla que contiene todas las dimensiones y la de códigos más extensos.
El modo de trabajo de las tablas de dimensiones es muy similar. El código SQL
insertado se presenta en el ANEXO C.

46
Figura N° 26: Selección de datos a cargar – Tabla de hechos.
Fuente: Propia.
Elaboración: Propia.

Para poder observar si se obtiene los resultados esperados, en la misma ventana se


encuentra la opción de pre visualizar los resultados, con los cuales se pueden
depurar algunos errores que se van cometiendo en el camino.

Figura N° 27: Preview –Tabla de Hechos.


Fuente: Propia.
Elaboración: Propia.

Para poder omitir ciertos pasos de creación en el proceso de ETL, al momento de


hacer la consulta se ha creado los procesos matemáticos, encargando al motor de la
base de datos realizar ese trabajo para ya no depender del SPOON con su
herramienta operaciones.

47
Con esto se logra obtener los datos desde la fuente de datos originales, lo que se
necesita hacer ahora es poder ingresarlos a nuestra data wharehouse a la tabla que
le corresponde.
Para esto es necesario insertar una tabla OUPUT que se encuentra también en las
herramientas Designer del Data integration de Pentaho y configurar sus parámetros
de recepción de datos.

Figura N° 28: Insertar tabla Output – Data Integration.


Fuente: Propia.
Elaboración: Propia.

Como la Data Wharehouse se encuentra en otro servidor es necesario también


configurar nuestros parámetros de conexión del servidor para poder hacer nuestro
ingreso de información.
La forma de configurar y los nuevos parámetros de conexión se pueden observar en
la figura N° 29.

Figura N° 29: Parámetros de conexión de la Tabla Output.


Fuente: Propia.
Elaboración: Propia.

48
Para poder manejar en que columnas se van almacenar los datos, en el caso que
tengan distintos nombres, SPOON brinda la opción de sincronizar nuestros campos
de entrada como de salida, como se muestra en la figura N° 30.

Figura N° 30: Configuración de campos input y output.


Fuente: Propia.
Elaboración: Propia.

Este es el proceso para la carga de datos de la tabla Fact_Resultados, de manera


similar se realiza su configuración para las demás tablas dimensiones, y con eso
nuestro diagrama ETL quedaría de la manera que se muestra en la figura N° 31.

Figura N° 31: Diagrama ETL.


Fuente: Propia.
Elaboración: Propia.

49
En el grafico anterior se puede observar que todas las tablas al final van hacia Mail,
eso se hace para que cada vez que se ejecuta estos procesos al terminar envíe un
correo a las personas encargadas de supervisar el estado de las tablas, esto es una
opción válida para tener como información del proceso ETL.
Estos procesos se ejecutarán diariamente en horarios de 1 y 13 horas, ya que la
actualización de las tablas de campo de la Base de datos de Captura de información
se ejecuta a las 0 y 12 horas, y se necesita tener la data completamente actualizada.

3.7.2 Creación de cubos:


Para la creación del cubo se hace uso de la herramienta de Pentaho, el Schema
WorkBench. Para iniciar la herramienta simplemente basta con ejecutar en Windows
workbench.bat.
Después de cargar la consola con todos los atributos del Pentaho, se inicializa la
herramienta para poder empezar con el diseño de los cubos.
La figura N° 32 muestra una vista de la pantalla principal del Schema Workbench

Figura N° 32: Pantalla de inicio del Schema Workbench.


Fuente: Propia.
Elaboración: Propia.

Al igual que Data Integration, se tiene que configurar en primer lugar la conexión a
nuestro servidor. En este caso solo es necesario la conexión de nuestro servidor del
Data Mart porque es de ahí de donde se va a extraer la información para los análisis.
En la figura N° 33 se muestra los parámetros a ingresar para una conexión OK.

50
Figura N° 33: Configuración del DataSource - Schema Workbench.
Fuente: Propia.
Elaboración: Propia.

Después de tener la conexión establecida se procede a crear un nuevo esquema


eligiendo las opciones File -> New -> Schema.
Al elegir estas opciones automáticamente se presenta el campo donde se empezará
a crear el cubo como muestra la figura N° 34.

Figura N° 34: Creación de un nuevo Schema – Schema Workbench.


Fuente: Propia.
Elaboración: Propia.

A continuación, se le asigna un nombre al Schema, en este caso se le asignó


Schema ENAHO, luego se procede a crear el cubo el cual almacenará nuestra
información en cual se asociará con nuestra tabla de Hechos. Al cubo también se le
asigna un nombre, en este caso Cubo ENAHO. Posteriormente con click derecho

51
sobre el cubo se va a la opción de add dimensión, con el cual se crea cada una de
las dimensiones para el cubo, se empieza con la dimensión de los encuestadores
cuyo proceso es el mismo para todas las demás dimensiones.

Figura N° 35: Asociación de la tabla de hechos con el cubo creado.


Fuente: Propia.
Elaboración: Propia.

Como se muestra en la imagen, al lado izquierdo de Schema y Cubo aparece un


símbolo de color rojo, eso nos indica que algo en el proceso esta incorrecto y no se
puede dar por terminado, si en el caso fuera, la creación del cubo. Esto es porque un
cubo debe contener en su interior medidas de las cuales se va a mostrar nuestros
resultados y que aún no se ha agregado en el cubo. Solucionando este error de
proceso y agregando nuestras demás dimensiones, nuestro cubo quedaría de la
forma que se muestra en la figura N° 36.

52
Figura N° 36: Visualización final de Cubo ENAHO – Schema Workbench.
Fuente: Propia.
Elaboración: Propia.

Una vez terminada la elaboración del cubo, se procede a publicarlo y con esto
automáticamente aparecerá en opciones de selección en nuestro servidor de
Pentaho Bi Server (el cual veremos en el punto a continuación). Para publicar el
Schema se debe de seleccionar el menú File -> Publish Schema con lo cual
autorizamos que el cubo sea ingresado a nuestro servidor Bi de pentaho.

Figura N° 37: Publish Schema – Schema Workbench.


Fuente: Propia.
Elaboración: Propia.

53
3.8 Desarrollo de la aplicación para usuarios finales.
3.8.1 Pentaho Bi Server:
Es el servidor incorporado a la suite de Pentaho, en él se puede realizar las
publicaciones de cubos y reportes, contiene una administración de usuarios a los
cuales se les brinda distintos roles dependiendo de su grado de afinidad y
conocimiento del tema.
El Pentaho Bi Server la parte de su código de presentación, código el cual se puede
manipular para temas de customizar y hacer una presentación más acorde con la
institución. En la figura N° 38, se muestra la pantalla de inicio como quedaría el Front
de ingreso al sistema.

Figura N° 38: Login Sistema de Monitoreo – Pentaho.


Fuente: Propia.
Elaboración: Propia.

Después de haber brindado unas credenciales correctas al sistema, se puede


observar una pantalla con diversas opciones (opciones que varían dependiendo del
perfil de usuario), como se muestra en la figura N° 39.

Figura N° 39: Interfaz de ingreso – Pentaho BI Server.


Fuente: Propia.
Elaboración: Propia.

54
El uso de esta plataforma es muy intuitivo y se explora de manera muy sencilla, en
la parte superior izquierda cuenta con un menú de opciones de administración y en
la parte del medio un menú más operativo.
En primer lugar, se tiene que administrar la parte de credenciales de los usuarios que
podrán tener acceso al sistema, eso se realiza en el módulo de Inicio ->
Administración, Como se muestra en la figura N° 40.

.
Figura N° 40: Ingreso a Administración de Usuarios – Pentaho BI Server.
Fuente: Propia.
Elaboración: Propia.

En esta sección se puede administrar a los usuarios, sus roles y sus funciones en el
sistema.
En las figuras 41, 42 y 43 se pueden observar las distintas opciones que brinda
Pentaho BI Server para el mantenimiento de usuarios.

Figura N° 41: Gestión de Usuarios.


Fuente: Propia.
Elaboración: Propia.

55
Figura N° 42: Gestión de roles de Usuarios.
Fuente: Propia.
Elaboración: Propia.

Figura N° 43: Funciones de los usuarios en el Sistema.


Fuente: Propia.
Elaboración: Propia.

3.8.1.1 Tablas Pivot.


Para la elaboración de cuadros dinámicos, actualmente Pentaho maneja un
Plugin llamado Saiku Analitycs, el cual puede fácilmente integrarse con
nuestros cubos publicados y muestra la información de manera fácil y
dinámica. Para ello se debe de realizar la conexión con nuestro servidor de
base de datos, brindándole los parámetros con los cuales el servidor Bi tendrá

56
acceso al Data Mart. Esta configuración se realiza ingresando al menú de la
parte central en Gestionar Fuente de Datos, con lo cual se muestra en pantalla
la imagen que refleja la figura N° 44.

Figura N° 44: Gestionar Fuente de Datos – Pentaho BI Server.


Fuente: Propia.
Elaboración: Propia.

Se selecciona la opción de New data Source donde se abrirá un cuadro para


poder ingresar nuestra configuración del servidor como lo muestra la Figura
N° 45,

Figura N° 45: Conexión al Data Mart – Pentaho BI Server.


Fuente: Propia.
Elaboración: Propia.

Habiendo concluido con la configuración previa, se procede a ingresar a la


herramienta Saiku analitycs, para poder ingresar simplemente nos dirigimos
al menú de opciones de la parte central en crear nuevo -> Saiku Analitycs

57
Figura N° 46: Modo de ingreso a Sailu Analitycs – Pentaho BI Server.
Fuente: Propia.
Elaboración: Propia.

Una vez abierta la pestaña de Saiku Analitycs, se puede observar el cubo que
se creó en el Schema Workbench con el nombre de Cubo Enaho el cual ya
se encuentra disponible para poder crear e interactuar con sus variables.
Se selecciona el cubo y en la parte baja se desplegará todas las dimensiones
y medidas creadas anteriormente las cuales pueden usarse libremente para
crear cualquier tabla, solo basta con seleccionar la variable que se quiera usar
y colocarlas en una de las opciones que aparecen al costado, en el caso de
las medidas solo pueden ir en el espacio que es reservado para ellas y el de
las dimensiones pueden ir bien en columnas o en filas, eso depende del
usuario de la manera que quiera observar su información.
Saiku también permite poder agregar medidas adicionales de las que se envía
en el cubo, se realiza para poder dar una mejor forma a las tablas creadas,
esto se logra gracias a la opción de añadir que se encuentra en la parte
superior de donde se presenta las medidas. Para este caso se agrega algunas
medidas para que sea más fácil la lectura y entendimiento del reporte. La
forma de creación de la nueva medida se pueden observar en las figuras N°
47 y 48

58
Figura N° 47: Opción añadir medida – Saiku Analitycs.
Fuente: Propia.
Elaboración: Propia.

Figura N° 48: Construcción de una nueva medida – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Saiku Analitycs brinda también la opción de generar gráficos y hasta mapas,


para ello solo basta con elaborar un cuadro y seleccionar el modo de gráfico
que se encuentra en el menú de la parte derecha. Con ellos se pueden
generar gráficos de análisis más comunes y de fácil entendimiento. Como en

59
este caso que se genera un diagrama de líneas como lo muestra la figura N°
49.

Figura N° 49: Diagrama de Lineas – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Reporte de avance de campo: utilizando la herramienta de Saiku Analitics


se elabora el reporte de avance de campo, para monitorear el avance que se
tiene en campo, con respecto a lo que se está proyectado tener.
Se solicitó un cuadro considerando las metas de las viviendas que se tienen,
el tipo de respuestas de las viviendas, la cantidad de viviendas que faltan por
entrevistar, el porcentaje de viviendas con respuesta, y el porcentaje del
avance que se tiene.
El detalle de ese reporte quedaría de la siguiente manera, como se muestra
en la figura N°.50.

Figura N° 50: Indicador de Avance de Campo – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

60
Este reporte puede ser guardado para para ser observado posteriormente en
otra oportunidad cuando los datos sean modificados o simplemente otro
usuario desee verlo.
Para ello se da en la opción de guardado que es el símbolo de diskette que
se encuentra en la parte superior. Luego se dirige a la carpeta donde se
almacenará el reporte. La Figura N° 51 muestra el modo y la ubicación donde
se debe guardar el reporte para que pueda ser visualizado por cualquier otro
usuario que tenga permisos de ingreso al sistema.

Figura N° 51: Guardar un reporte creado – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Con ello se tiene que asegurar que cualquier usuario que tenga acceso al
servidor pueda poder observar el detalle del reporte simplemente ingresando
a la opción de examinar que se encuentra en la parte superior derecha y luego
inspeccionando en la carpeta public, como lo muestra la figura N° 52.

Figura N° 52: Visualización de reportes guardados – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Posterior a eso también se solicita un diagrama de barras conteniendo solo


los resultados de las viviendas y un mapa de calor de los datos ya que la
recolección de la información se realiza a nivel nacional. Estos reportes son
visualizados en la figura N° 53 y 54 respectivamente.

61
Figura N° 53: Diagrama de barras – Saiku Analitycs.
Fuente: Propia.
Elaboración: Propia.

Figura N° 54: Mapa de calor de los resultados – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Ahora se procede a guardar estos reportes de igual modo como se hizo con
el primer cuadro, y así cuando algún usuario esté interesado en observarlo,
pueda acceder en cualquier momento.
Lo interesante de esta herramienta, es que personas con muy poco
conocimiento de informática pueden utilizarla con solo algunas charlas de
capacitación, e incluso ellos mismos pueden generar sus reportes
dependiendo de la información que almacena el cubo.
Por ejemplo, si un usuario en el primer reporte creado quiere visualizar a todos
los encuestadores solo del departamento de Junín, basta con retirar la
dimensión Departamento de las filas y colocar en su lugar la dimensión de
Encuestador y en el apartado de Filtros colocar la dimensión Departamento y

62
seleccionar solo el Departamento de Junín. Con ellos en el resultado solo
tendremos a encuestadores del Departamento de Junín con todas las
columnas anteriormente creadas. El modo de efectuar este proceso se
visualiza en las figuras N° 55 y 56 correlativamente.

Figura N° 55: Opción de filtro de información – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

Figura N° 56: Resultado de cuadro filtrado – Saiku Analitycs.


Fuente: Propia.
Elaboración: Propia.

3.8.1.2 Cuadros de mando:


Para la presentación de los resultados en Cuadros de Mando. Se utilizó el
Plugin de Pentaho CDE (Community Dashboard Edition). Es una herramienta
que permite la elaboración de distintas capas de presentación, especializadas
en muestreo de información en forma gráfica.
Para poder ingresar a la herramienta, se debe ir a la opción de Crear Nuevo -
> CDE Dashboard, así como se muestra en la figura N° 57.

63
Figura N° 57: Crear Nuevo CDE Dashboard.
Fuente: Propia.
Elaboración: Propia.

Para la elaboración de un cuadro de mando, CDE se trabaja en tres grandes


grupos los cuales son:

Layou Panel: Permite dar una estructura de HTML a nuestra presentación, la


estructura que se trabaja es en forma de tablas, y es aquí donde permite
agregar columnas y filas donde se colocaran los elementos creados en la
sección de Components Panel.

Figura N° 58: Menú Layou Panel - CDE Dashboard.


Fuente: Propia.
Elaboración: Propia.

Components Panel: en esta sección se encuentra todos los elementos que


queramos visualizar en nuestro cuadro de mando, elementos como gráficos
de barra, líneas, tablas, selectores, radio buttons, etc. Estos elementos debes
ser posicionados en algun row o column creada en la sección de Layout Panel
para poder ser observada en el reporte.

64
Figura N° 59: Menú Components Panel - CDE Dashboard.
Fuente: Propia.
Elaboración: Propia.

Datasources Panel: esta es la sección que se encarga de conectarse con


nuestra fuente de datos, es la que trabaja en forma Back para traer todos los
datos que se mostrarán en los reportes. Se crean distintas consultas al
servidor y sus respuestas son almacenadas en algunos de los elementos
anteriormente creadas en el Components Panel.

Figura N° 60: Menú datasources Panel - CDE Dashboard.


Fuente: Propia.
Elaboración: Propia.

Se utilizará la herramienta CDE para la realización de los reportes de


Problemas de Marco y Tasa de no Respuesta.

Problemas de Marco: A los reportes se le agrega unos filtros de selección


por mes y por periodo, para así tener un reporte más detallado y granulado.

65
Figura N° 61: Problemas de Marco - CDE Dashboard.
Fuente: Propia.
Elaboración: Propia.

Tasa de no Respuesta: Se utilizó la misma forma de presentación del reporte


de problemas de marco.

Figura N° 62: Tasa de no respuesta - CDE Dashboard.


Fuente: Propia.
Elaboración: Propia.

3.9 Mantenimiento y crecimiento.


El mantenimiento y crecimiento del proyecto, estará ligado en primer lugar a la Oficina
Técnica de Informática y a la jefatura del Proyecto de ENAHO.
Al concluir con la presentación y aprobación del proyecto, se presentará ante las demás
encuestas, para así formar un Meta proyecto BI en el INEI.

66
3.10 Gestión del proyecto:
Toda la gestión del proyecto fue supervisada por el jefe del área de Encuestas de la Oficina
Técnica de Informática la Ing. Marlene Reyes.

La implementación de un Sistema Bi, siguiendo la Metodología de Raph Kimball, ayudó a


realizar un trabajo planificado, siguiendo una estructura definida para el logro de los objetivos.
Además, sirve como guía para acoplar muchos más proyectos, ya que el paso realizado, es
el inicio de un proyecto mayor, donde se puedan no solo relacionar datos de fuentes, sino
también lograr las relaciones entre cubos y Data Marts; para tener como producto un Data
Wharehouse.

67
CAPITULO IV
ANALISIS DE RESULTADOS

Una vez implementado el proyecto BI para La Encuesta Nacional de Hogares, se empezaron


a percibir los cambios desde la perspectiva de los usuarios finales. En este capítulo se expone
un análisis de las reacciones obtenidas luego de la puesta en funcionamiento del servidor que
contiene la solución BI.

4.1 Porcentaje de alcance en la implementación del sistema y nivel de verificación de


resultados:
La Encuesta Nacional de Hogares, en su plan de trabajo de la primera etapa, realiza tres
requerimientos específicos a los cuales se trató de dar solución en el desarrollo del
proyecto.
El Cuadro N° 08 realiza una comprobación de lo solicitado en referencia a lo que se logró
implementar en la solución BI desarrollada.

Cuadro N° 08: Cuadro comparativo de requerimientos vs implementación.


Requerimientos ENAHO
Solución BI
Reporte Detalle
Departamento. 
Avance de campo Encuestador. 
Conglomerado. 
Departamento. 
Tasa de Problemas de Marco Mes 
Periodo 
Departamento. 
Tasa de no Respuesta. Mes 
Periodo 
Fuente: Propia
Elaboración: propia.

68
Una vez concluida la implementación del sistema, se realizó una capacitación del uso de
la herramienta a los encargados del manejo de la información en la Sede Central del INEI.
Después de la implementación del Sistema BI, en los meses posteriores, se empezó con
el mantenimiento del sistema, la cual corresponde en primer lugar a la verificación de la
información que muestra el sistema con los datos obtenidos de la forma manual
anteriormente trabajada. Esta validación se realizó para poder estar 100% seguros que
los resultados obtenidos sean realmente confiables.
El cuadro N° 09 muestra el seguimiento realizado a los tres indicadores solicitados. Es un
seguimiento general realizado a las muestras nacionales (totales).

Cuadro N° 09: Verificación de la información


Enero Febrero Marzo
Manual BI Manual BI Manual BI
Avance de lo
3088 3041 3066 3030 3090 3090
programado (hogares)
Tasa Problemas de
13.94 14.11 15.54 15.43 14.77 14.77
Marco (%)
Tasa de no
9.84 10.02 10.41 10.30 7.55 7.55
Respuesta. (%)
Fuente: Resultado del Sistema BI y metodólogo de ENAHO
Elaboración: propia.

Con los resultados obtenidos, se puede revisar que en los primeros dos meses se
obtienen diferencias en los resultados, para los cuales se debieron realizar algunos
ajustes en los códigos con los cuales se generan las tablas, teniendo en el tercer mes ya
resultados similares. Cabe señalar que estos son los resultados finales del mes al que
representa.
Al obtener el mismo resultado con el Sistema BI y el proceso manual el cual era generado
por medio del software SPSS, se puede concluir que el proceso queda completo y que la
información que el sistema muestra arroja los mismos resultados que el proceso confiable
que anteriormente realizaban.

4.2 Flujo de la Información.


Para revisar si mejoró el flujo de la información con la implementación del Sistema BI, se
comparan resultados de 6 meses antes de la implementación con los siguientes 6 meses
post implementación.
Se realiza un cuadro comparativo de los tiempos expresados en minutos promedio que
se tardaba en realizar un reporte que ahora se tiene implementado en sistema BI. El
cuadro N° 10 la información resultante.

69
Se realiza una comparación de cómo se realizaba el modo de acceso a la información
anteriormente y después de la implementación de la solución BI.

Cuadro N° 10: Cuadro comparativo del flujo de información (minutos)


Tiempo
Estudio y
de espera
Solicitud Solicitud de Análisis y análisis de
en Generación
de Informació generación la Total
atención de scripts
Reporte n deseada de reportes informaci
por parte
ón
del DBA
Julio 5 min 30 min 240 min 50 min 45 min 20 min 390 min
Agosto 5 min 25 min 260 min 40 min 40 min 25 min 395 min
Setiembre 5 min 30 min 300 min 45 min 50 min 20 min 450 min
Octubre 5 min 27 min 350 min 30 min 45 min 30 min 487 min
Noviembr
e 5 min 25 min 240 min 40 min 60 min 20 min 390 min
Diciembre 5 min 22 min 340 min 40 min 90 min 15 min 512 min
Post implementación
Enero 5 min 15 min 200 min 10 min 20 min 15 min 265 min
Febrero 5 min 8 min 180 min 5 min 10 min 15 min 223 min
Marzo 5 min 5 min 150 min 5 min 5 min 10 min 180 min
Abril 5 min 5 min 100 min 5 min 5 min 10 min 130 min
Mayo 5 min 5 min 50 min 5 min 5 min 10 min 80 min
Junio 5 min 5 min 50 min 5 min 5 min 10 min 80 min
Fuente: DBA de los proyectos y metodólogo de ENAHO.
Elaboración: propia.

Para realizar la comparación de periodos evaluados se utiliza la t’ student, con los tiempos
totales obtenidos, siendo el resultado del análisis es el siguiente.

Planteamiento de hipótesis.
H0: µ1 - µ2 = 0: El tiempo de los procesos es el mismo después de la implantación del
sistema BI.
Ha: µ1 - µ2 > 0: El tiempo de los procesos es menor después de la implantación del
sistema BI.

Nivel de Significancia
α =0.05 La prueba será a un nivel de significancia al 5 %

70
Regla de Decisión
Si el valor de probabilidad de la diferencia de medias según la distribución de t’ student
es menor que el nivel de significancia rechazamos la hipótesis nula.
P [t(µ1 - µ2 )] < α , Rechazamos la hipótesis Nula
Calculo de valor de distribución y valor de probabilidad
Para el cálculo del estadístico t y su probabilidad se usó el software STATA.

Figura N° 63: Cuadro de resultados generados en STATA.


Fuente: Propia
Elaboración: propia.

Donde se observa que la probabilidad P [t(µ1 - µ2 )] = 0.000


Decisión.
Como P [t(µ1 - µ2 )] =0.000 es menor a α=0.05, se rechaza la hipótesis nula, entonces a
un nivel de significancia del 5 % existen evidencias de que el tiempo de los procesos se
han reducido después de la implementación del sistema BI, concluyéndose que el sistema
BI reduce el tiempo de demora en el flujo de la información obtenida.

4.3 Toma de decisiones:


Actualmente se viene usando con más frecuencia el reporte de Avance de Campo. Por lo
que en el mes de febrero se incorporó al equipo un supervisor nacional del monitoreo de
la información. La persona encargada de realizar esta labor es el Lic. Adam Carhuas.
La evolución de las consultas de las viviendas que se vienen trabajando en respecto a
meses anteriores se muestra en el cuadro N° 11.

71
Cuadro N° 11: Cuadro comparativo del flujo de información (meses)
N° de accesos a la
información por mes

Julio 2
Agosto 2
Setiembre 4
Octubre 2
Noviembre 2
Diciembre 4
Implementación del Sistema BI
Enero 4
Febrero 10
Marzo 15
Abril 20
Mayo 22
Junio 22

Fuente: DBA de los proyectos y metodólogo de ENAHO


Elaboración: propia.

Para realizar la comparación, al igual que en la hipótesis anterior, se usa el t’ student.

Planteamiento de hipótesis.
H0: µ1 - µ2 = 0: El número de veces de revisión de la información es el mismo después
de la implantación del sistema BI.
Ha: µ1 - µ2 < 0: El número de veces de revisión de la información es mayor después
de la implantación del sistema BI.

Nivel de Significancia
α =0.05 La prueba será a un nivel de significancia al 5 %

Regla de Decisión
Si el valor de probabilidad de la diferencia de medias según la distribución de t’ student
es mayor que el nivel de significancia rechazamos la hipótesis nula.
P [t(µ1 - µ2 )] > α , Rechazamos la hipótesis Nula

Calculo de valor de distribución y valor de probabilidad

Para el cálculo del estadístico t y su probabilidad se usó el software STATA.

72
Figura N° 64: Cuadro de resultados generados en STATA.
Fuente: Propia
Elaboración: propia.

Donde se observa que la probabilidad P [t(µ1 - µ2 )] = 0.0008


Decisión.
Como P [t(µ1 - µ2 )] = 0.0008 es menor a α=0.05, se rechaza la hipótesis nula, entonces
se concluye que si se tiene un mayor acceso a la información y que los usuarios están
mayor informados de cómo se va desarrollando el proceso, lo cual ayuda a detectar
problemas en tiempos menores y a brindar soluciones y acciones rápidas.

En general, se observa que los resultados han sido alentadores, ya que se cambió el modo
de trabajo. Queda pendiente el ingreso de nuevos requerimientos para poder enriquecer al
Data Mart y tener un servidor completo, de la cual se pueda extraer todo tipo de información
y ser considerado como primer sistema abastecedor de información consistenciada para los
resultados de las Encuestas en el Instituto Nacional de Estadísticas – INEI.

73
CONCLUSIONES

1. La implementación de Business Intelligence para la Encuesta Nacional de Hogares


ENAHO – INEI, permite obtener información en tiempo real, con data actualizada de
las bases de datos transaccionales de una forma sencilla y amigable, lo cual ayuda a
los Supervisores y jefes Encargados, a mantener un control sobre las tareas que se
realizan y a tener tiempos de respuestas rápidos ante posibles desaciertos ya que se
logró implementar sus requerimientos en un solo sistema de fácil acceso e
interpretación sencilla de resultados.

2. Con el uso de la Metodología Kimball se aseguró el desarrollo óptimo del proyecto BI


para la encuesta ENAHO, gracias a su mantenimiento constante e intercambio de
información con los usuarios finales se logró obtener un sistema con datos confiables
disponibles para el análisis final por parte de los interesados.

3. El objetivo de usar una metodología como la de Raph Kimball como guía y modelo a
aplicar para el desarrollo del Sistema BI de la encuesta ENAHO es porque facilita el
desarrollo del proyecto, dividiéndolo por etapas al ciclo de vida, donde cada etapa
puede ser evaluada y corregida a tiempo. Empezando desde la planificación,
crecimiento del Data Mart e implementación de los indicadores.

4. El uso de la herramienta Open Source Pentaho, previamiente investigada y analizada.


Permite la implementación de un Data Mart con datos de la Encuesta Nacional de
Hogares de una manera ágil, fácil de entender y brindando la estabilidad necesaria a
todos los procesos. Y al ser una herramienta Open Source su código para el desarrollo
se encuentra disponible sin restricciones para todas aquellas instituciones que deseen
implementar por primera vez una solución BI.

74
RECOMENDACIONES

1. Para poder explotar más toda la funcionalidad del uso de una solución BI, se
recomienda implementar el mayor número de indicadores pre-calculados al proyecto,
lo cual significa que debe ampliarse número de Data Mart existentes en el servidor y
por consiguiente llegar a una estructura de Data Warehouse diseñada y mantenida en
el tiempo.

2. La iniciativa de realizar una herramienta de Business Intelligence por parte de la


Encuesta ENAHO, debería de servir como un referente para las demás encuestas del
INEI, para que así puedan reducir tiempos en la obtención de sus indicadores, respecto
a los procesos llevados en cada una de ellas y así contribuir a la facilidad en la toma
de decisiones y planes de acción.

3. A los usuarios finales del producto, se recomienda brindar toda su experiencia en la


forma del análisis de la información, casos que deberían ser tomadas en cuenta
cuando se realice el análisis de sus datos, ya que solo ellos con su experiencia tienen
un vasto conocimiento de los pequeños detalles que al final pueden definir el éxito o
fracaso de un proyecto en Business Intelligence.

4. Al público, se recomienda tener una base en la teoría del Business Intelligence para
poder realizar una interpretación de cómo se va desarrollando cada etapa del proyecto
y así colaborar un poco en su búsqueda de conocimientos.

75
REFERENCIAS

REFERENCIAS BIBLIOGRÁFICAS:

1. Boada Byron, Tituaña Alvaro (2012). Desarrollo de una aplicación de Business


Intelligence (BI) para la empresa Empaqplast. Tesis de grado. Escuela Politécnica del
ejército – Departamento de ciencias de la computación - Ecuador, 2011.
2. Bustos Barrera Sofá Anabel, Mosquera Artieda Verónica Nathaly. Análisis, Diseño e
implementación de una solución Business Intelligence para la generación de Indicadores
y control de desempeño, en la empresa OTECEL S.A. utilizando la Metodología Hefesto
V2.0. Tesis de grado. Escuela Politécnica del Ejercito. Ecuador, 2014.
3. Elizabeth Vitt, Michael Luckevich y Stacia Misner. Busines Intelligence: Técnicas de
análisis para la toma de decisiones estratégicas, España 2002.
4. Josep Curto Díaz. Introducción al Business Intelligence. 1ra edición. Editorial UOC, mayo
de 2010.
5. Josep Lluis Cano. Business Intelligence: Competir con información. ESADE, 2014.
6. Maria Perez Marquez. Business Intelligence. Técnicas herramientas y aplicaciones, 1ra
Edición, Pearson Educación S.A, Madrid, España, diciembre 2014.
7. Margy Ross, Ralph Kimball. The Data Warehouse Toolkit: The Definitive Guide to
Dimensional Modeling, 3rd Edition, Julio 2013
8. Rland Bouman, Jos Van Dongen - Pentaho Solutionts. Business Intelligence and Data
Warehousing with Pentaho and MySQL, Wiley Publishing. Indiana 2009.
9. Rodriguez Cabanillas Keller Gradys, Mendoza Peña Angela Lucía. Análisis, Diseño e
implementación de una solución de Inteligencia de Negocios para el área de compra y
ventas de una empresa comercializadora de electrodomésticos. Tesis de grado. Pontificia
Universidad Católica del Perú. Perú 2011.
10. Subía García Jorge Luis. Implementación de una solución Business Intelligence para el
análisis de la gestión del Ministerio de Desarrollo urbano y vivienda. Tesis de grado.
Universidad Central del Ecuador. Ecuador 2013
11. Tana Paspuel Gloria Estefanía (2014). Data Mart para el análisis de información del
sistema académico de la Universidad Técnica del Norte con herramientas de software
libre. Tesis de grado. Universidad Técnica del Norte – Ecuador, 2014

76
REFERENCIAS ELECTRÓNICAS

1. Arquitectura BI. Disponible en http://www.es.atosconsulting.com/es-


es/servicios/soluciones/consultoria_tecnologica/business_intelligence/defalut.htm.
Accedido el [04 abril 2016]
2. Canales Inocencio Beatriz. (2004, julio 14). Procesos de la inteligencia de negocios.
Disponible en http://www.gestiopolis.com/procesos-inteligencia-negocios/ Accedido el [21
abril 2016].
3. Conceptos de Inteligencia de negocios. Disponible en: http://mondrian.pentaho.com/
documentation/installation_es.php. Accedido el [18 marzo 2016].
4. Hide Julian. Mondrian Documentation. Accedido de: http://mondrian.pentaho. com/
documentation/installation_es.php. Accedido el [10 mayo 2016].
5. Open source Business Intelligence. Pentaho Disponible en Http://www.pentaho.com.
Accedido el [15 marzo 2016].
6. Roberto Espinoza. Kimball vs Inmon. Ampliación de conceptos del Modelado Dimensional.
Disponible en: http://churriwifi.wordpress.com/ 2010/04/19/15-2-ampliacion-conceptos-del-
modelado-dimensional/. Accedido el [28 abril 2016].
7. Sinnexus. Datawarehouse. Obtenido de http://www.sinnexus. com/ business_
intelligence/datawarehouse.aspx. Accedido el [02 mayo 2016].
8. TodoBI. Business Intelligence. Disponible en: http://todobi.blogspot.pe/2012/05/ libro-
sobre-business-intelligence-para.html. Accedido el [23 abril 2016].

77
ANEXOS

78
ANEXO A:
DOCUMENTO ENVIADO POR ENAHO PARA LA GENERACIÓN DE SUS INDICADORES.

Encuesta Nacional de Hogares 2015

SISTEMA DE GESTION PARA


MONITOREO Y EVALUACION DE LA
RECOLECCION DE INFORMACION
PLAN DE TRABAJO – Primera Etapa

Lima, Mayo del 2015

ENCUESTA NACIONAL DE HOGARES 2015

79
SISTEMA DE GESTION PARA MONITOREO Y EVALUACION DE LA RECOLECCION DE
INFORMACION

1. FINALIDAD:

Desarrollar el Sistema Monitoreo de los procesos de la recolección de información en la


Encuesta Nacional de Hogares, para proporcionar información en forma oportuna a los
analistas de la información, a fin de que puedan tomar acciones preventivas y/o corregir
en el momento oportuno la información tomada en el proceso de la recolección de campo.

2. OBJETIVOS:

 Realizar el seguimiento y control de las diferentes actividades de la encuesta,


contribuyendo a proporcionar información oportuna, a fin de que puedan tomar las
acciones preventivas y correctivas.
 Mejorar la calidad de la información mediante el Monitoreo de la recolección de la
información a través de indicadores de calidad y la evaluación de variables
monetarias.
 Constituirse en un instrumento de consulta del personal a cargo del análisis de la
información que facilite la detección de sesgos y/o inconsistencias en la
información recopilada de campo.

3. INDICADORES DE MONITOREO:
i. Muestra el avance de lo programado vs lo ejecutado por departamentos, ODEI
y encuestador(a)
ii. Tasa de problemas de marco por departamentos, ODEI y encuestador(a)
iii. Tasa de no respuesta total por departamentos, ODEI y encuestador(a)

4. META

Mejorar los indicadores de calidad manteniendo su confiabilidad, además de proveer


valores monetarios suficientes para el análisis de los gastos e ingresos en periodos
trimestrales.

5. PRODUCTOS

 Avance de la operación de campo en periodos cortos para prevención


 Conocer el seguimiento del error de marco, avance de la operación de campo
(cobertura).
 Seguimiento de los indicadores de calidad generales y el comportamiento de los
valores monetarios.

80
 Menores tasa de no respuestas e información indirecta, además de tasas de
información indirecta y problemas de marco controlados.
 Gastos e ingresos consistenciados y suficientes para el análisis de hasta periodos
trimestrales.

6. ACCIONES

 Implementar y Probar el sistema de monitoreo con los indicadores de calidad y


evaluación de indicadores de monitoreo.
 El usuario del sistema de calidad será todo el personal responsable relacionado
con la recolección y tratamiento de la información, es decir tanto el personal de
campo, consistencia básica y final según jerarquías, además de los responsables
del monitoreo, para ello una vez concluida la implementación del sistema, se
realizara la capacitación correspondiente.
 El sistema de monitoreo proveerá seguimiento de los indicadores de monitoreo en
periodos más cortos de los que actualmente se realizan, en vista que estos se
alimentarán constantemente (diariamente).
 Una vez concluida y puesta en operación del presente sistema, en base al
seguimiento de los indicadores, se asegurara la calidad con las observaciones que
deriven de ello, corrigiendo y levantando correctamente la información, que servirá
para las estimaciones correspondientes.

7. CRITERIOS PARA LA CONSTRUCCIÓN DE LOS INDICADORES PROPUESTOS EN


EL SISTEMA

Para la construcción de los indicadores presentes en el sistema:

o Debe considerarse que las tasas se observaran según departamentos.

o Para la tasa de no respuesta, tasa de no respuesta parcial y tasa de información


indirecta además de observarse según departamentos se pasaran a rechazo
hogares que no tienen información suficiente para el análisis, este proceso solo
corresponde al año actual, es decir solo para el 2015 .

Mencionaremos los criterios para formar los criterios para formar la variable
departamento y los criterios para pasar hogares con resultado completa o incompleta
a rechazo.

81
GENERAR LA VARIABLE DEPARTAMENTO (DPTO):
ubigeo aa bb cc
aa : dpto (Departamento)
aa bb: Provincia
aa bb cc : Distrito

Construyendo la variable departamento (dpto):


dpto = aa
Reemplazar dpto. (15) : ubigeo=07011 : 070108.

Asignar las etiquetas de valor a la variable:

Dpto.
1=Amazonas.
2=Ancash.
3=Apurímac.
4=Arequipa.
5=Ayacucho.
6=Cajamarca.
8=Cusco.
9=Huancavelica.
10=Huánuco.
11=Ica.
12=Junín.
13=La Libertad.
14=Lambayeque.
15=Lima.
16=Loreto.
17=Madre de Dios.
18=Moquegua.
19=Pasco.
20=Piura.
21=Puno.
22=San Martin.
23=Tacna.
24=Tumbes
25=Ucayali

Hogares que pasan a rechazo por información insuficiente.

Según el propósito de la investigación de hogares, es necesario información de los


hogares sean suficientes, por lo los hogares que no cumplan con los requisitos
suficientes son pasados a rechazo, los criterios son :

De la base: enaho01-2015-100 generar la tabla “nro.hogares”


Con resultados completa o incompleta:
result<=2
La tabla “nro.hogares” tendrá las varibles:
conglome, vivienda, hogar, mes, result y tipenc

De la base: enaho01-2015-200 generar la tabla “total-resid-hog200”


Con hogares con el número de residentes habituales, cuyo criterio es:
(p203>3&(p204==1 | (p204==2 & p206==1)))

82
Generar la tabla con la variable:
Cap200 = suma de personas con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap200

De la base: enaho01-2015-601 generar la tabla “hogares601=1SI”


Con hogares con el número de alimentos consumidos, cuyo criterio es:
Sea la variable P601a= abcd
P601a(cd)=="00" & p601b==1
Generar la tabla con la variable:
cap601_1 = suma del número de alimentos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap601_1

De la base: enaho01-2015-601 generar la tabla “hogares601-SIen49”


Con hogares que consumen alimentos preparedos fuera del hogar, cuyo criterio
es:
p601b==1 & p601a=="4900"
Generar la tabla con la variable:
cap601_1 = hogares con el criterio anterior.
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, grup_49

De la base: enaho01-2015-601 generar la tabla “hogares601=1NO”


Con hogares con el número de alimentos no consumidos, cuyo criterio es:
Sea la variable P601a= abcd
P601a(cd)=="00" & p601b==2
Generar la tabla con la variable:
cap601_2 = suma del número de alimentos no consumidos con el
criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap601_2

De la base: enaho01-2015-601 generar la tabla “hogares601=1NO”


Con hogares con el número de alimentos omitidas, cuyo criterio es:
Sea la variable P601a= abcd
P601a(cd)=="00" & p601b==9
Generar la tabla con la variable:
cap601_9 = suma del número de alimentos omitidos con el criterio
anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap601_9

De la base: enaho01a-2015-300 generar la tabla “hogares300missing”


Con hogares con el número de miembros que omitieron el capítulo 300, cuyo
criterio es:
codinfor=="00"
Generar la tabla con la variable:
cap300= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap300

83
De la base: enaho01a-2015-400 generar la tabla “hogares400missing”
Con hogares con el número de miembros que omitieron el capítulo 400, cuyo
criterio es:
codinfor=="00"
Generar la tabla con la variable:
Cap400= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap400

De la base: enaho01a-2015-500 generar la tabla “hogares500missing”


Con hogares con el número de miembros que omitieron el capítulo 500, cuyo
criterio es:
codinfor=="00"
Generar la tabla con la variable:
Cap500= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cap500

De la base: enaho01a-2015-500 generar la tabla “personaporhogarsin559”


Con hogares con el número de miembros sin gastos en alimentos fuera del
hogar en el capítulo 500, cuyo criterio es:
p204==1 & p203 !=9 & p559_01==2 & p559_02==2 & p559_03==2 &
p559_04==2
Generar la tabla con la variable:
sg559_1= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, sg559_1

De la base: enaho01a-2015-500 generar la tabla “personaporhogarsin559”


Con hogares con el número de miembros con gastos en alimentos fuera del
hogar en el capítulo 500, cuyo criterio es:
p204==1 & p203 !=9 & (p559_01==1 | p559_02==1 | p559_03==1 |
p559_04==1)
Generar la tabla con la variable:
cg559_1= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, cg559_1

De la base: enaho01-2015-602 generar la tabla “hogaressinp602”


Con hogares con el número de miembros sin gastos en el capitulo 602,
Generar la tabla con la variable:
cg559_1=1, si suma (p602)>=14
cg559_1=0, si suma (p602)<14
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, sin602

De la base: enaho01-2015-200 generar la tabla “totalpersonascap300”


Con hogares con el número de miembros que debieron informar en el capítulo
300, cuyo criterio es:
p203>0 & (p204==1 |(p204==2& p206==1)) & p208a>=3
Generar la tabla con la variable:

84
resi30_1= suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, resi300

De la base: enaho01-2015-200 generar la tabla “totalpersonascap400”


Con hogares con el número de miembros que debieron informar en el capítulo
400, cuyo criterio es:
p203>0 & (p204==1 | (p204==2 & p206==1))
Generar la tabla con la variable:
resi40_1 = suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, resi40_1

De la base: enaho01-2015-200 generar la tabla “totalpersonascap500”


Con hogares con el número de miembros que debieron informar en el capítulo
500, cuyo criterio es:
p203>0 & (p204==1 | (p204==2 & p206==1)) & p208a>=14
Generar la tabla con la variable:
resi50_1 = suma del número de miembros omisos con el criterio anterior
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, resi50_1

De la base: enaho01a-2015-500 generar la tabla “hogconing”


Con hogares con ingresos por trabajo en el capitulo 500, cuyo criterio es:
ingr0 = p523+
p524a1+p530a+p538a1+p541a+p544t+p556t1+p556t2+p557t+p558t
Generar la tabla con la variable:
Ingr_max = 1 si algún miembro del hogar tiene ingr0 > 0
Ingr_max = 0 si algún miembro del hogar tiene ingr0 = 0
La tabla a nivel de hogar tendrá las variables:
conglome, vivienda, hogar, mes, ingr_max

Anexar los archivos usando la llave: sort conglome vivienda hogar


 nro.hogares
 total-resid-hog200
 hogares300missing
 hogares400missing
 hogares500missing
 hogares601=1SI
 hogares601-SIen49
 hogares601missing
 hogares601=2NO
 personaporhogarsin559
 personaporhogarcon559
 hogaressinp602
 totalpersonascap300
 totalpersonascap400
 totalpersonascap500
 hogconing

85
Generar la variable h300: Proporción de informantes omisos por hogar en el
capítulo 300
h300=cap300/resi30_1
Generar la variable h400: Proporción de informantes omisos por hogar en el
capítulo 400
H400=cap400/resi40_1
Generar la variable h500: Proporción de informantes omisos por hogar en el
capítulo 300
H500=cap500/resi50_1

Hogares que pasan a rechazo por omisión en la información del consumo de


alimentos.
Rx = 1 si cap601_9>25
Rx = 1 si cap601_9<=25 y (h300>=0.8 ó h400>=0.8 ó h500>=0.8)
Rx = 1 si cap601_9<=25 y h300<0.8 y h400<0.8 y h500<0.8 y ingr_max =0

Hogares que pasan a rechazo que no consumen alimentos dentro del hogar.
Rx = 2 si cap601_2==50 y cg559_1==0 y sin602==1
Rx = 2 si cap601_2==50 y (cg559_1>0 ó sin602==2) y ingr_max=0

Hogares que pasan a rechazo que no omiten la informacion de alimentos, y


proporción de informantes omisos mayor a 0.8 en algún capítulo 300, 400, 500.

Rx= 3 si cap601_9==0 & (h300>=0.8 | h400>=0.8 | h500>=0.8)


Rx= 3 si cap601_9==0 & h300<0.8 & h400<0.8 & h500<0.8 & ingr_max==0

INDICADORES DE COBERTURA

Avance de campo por departamentos, ODEI y encuestador(a)

El avance de las entrevistas serán monitoreadas por periodo para el año de estudio en
curso, de manera que se tendrá el avance por periodo, acumulado mensual, y finalmente
anual.

El avance estará relacionado con las viviendas programadas, las entrevistadas

según resultado final y las viviendas no entrevistadas considerándose que:

Para generar este indicador tendremos la secuencia siguiente:

Usar la tabla: Enaho01-2015-100.

Anexando variable factor basico


Tabla FactorBasico.
Llave : año, conglomerado

Generando Variable Vivienda Programada: < VivProg >


Hogar(ab)
VivProg =1, si hogar a=1
VivProg = 0, si (tipenc != 3 & result > 4)

86
Generando Variable Resultado de la Entrevista: <res_entrv>
res_entrv = 1; si (result==1|result==2)
res_entrv = 2; si (result==3|result==4)
res_entrv = 3; si (result==5|result==6|result==7)
Asignar las etiquetas de valor a la variable:
1 : Hogar Entrevistado
2: Rechazos Ausencias
3: Problemas de Marco

res_entr(1)
− % Viviendas con Respuesta =
res_entr(1,2)

result(1 − 7)
− % Viviendas de avance =
VivProg(1)

Los resultados se presentaran según los cuadros siguientes:

El avance según las odeis del periodo xxxx.


AVANCE DE VIVIENDAS ENTREVISTADAS POR ODEI
Entrevistados Viviendas
Viviendas % De Viviendas
ODEI Vivienda por % Avance
Programadas Completa Incompleta Rechazo Ausente Otro con Respuesta
Desocupada Entrevistar
Nacional 10
Ancash 80
Amazonas
….
Tacna
Tumbes

El avance según las odeis periodo acumulado del:……… al:………..


AVANCE DE VIVIENDAS ENTREVISTADAS POR ODEI
Entrevistados Viviendas
Viviendas % De Viviendas
ODEI Vivienda por % Avance
Programadas Completa Incompleta Rechazo Ausente Otro con Respuesta
Desocupada Entrevistar
Nacional 10
Ancash 80
Amazonas
….
Tacna
Tumbes

El avance por departamentos según conglomerados


DEPARTAMENTO XXXXXXX: AVANCE DE VIVIENDAS ENTREVISTADAS POR CONGLOMERADO
Entrevistados
Viviendas
Viviendas % De Viviendas % De Viviendas con
ODEI Vivienda por
Programadas Completa Incompleta Rechazo Ausente Otro con Respuesta Respuesta
Desocupada Entrevistar

000001 9
000002 81
000003
….
000020
000010

87
El avance por departamentos según Encuestador

DEPARTAMENTO XXXXXXX: AVANCE DE VIVIENDAS ENTREVISTADAS POR ENCUESTADOR


Entrevistados
Viviendas
Viviendas % De Viviendas
Encuestador Vivienda por % Avance
Programadas Completa Incompleta Rechazo Ausente Otro con Respuesta
Desocupada Entrevistar

Perez Juan 9
Freitas Susan 81
Dias Susana
….
Figueroa Milet
Medina Magaly

- El avance del número entrevistas es la frecuencia absoluta de la variable result.

Los resultados de la entrevista se observaran a nivel nacional ODEI y

Encuestadores según el grafico siguiente.

Resultado de la Entrevista
80

60

40

20

Completa Incompleta Rechazo Ausente Vivienda Desocupada Otro

Reporte de Viviendas pasadas a rechazo por información insuficiente por


Departamento.
Se reportan las viviendas con los hogares pasados a rechazo por falta de información
por departamento.
DEPARTAMENTO XXXXXXX: RELACION DE HOGARES CON RECHAZO POR INFORMACION INSUFICIENTE

Conglomera Resultado
ODEI Mes vivienda Hogar Miembros Sin Ingresos Sin Gastos
do inicial
del Hogar
Ancash
Amazonas
…..
….
Tacna
Tumbes

88
Tasa de problemas de marco
La tasa de problemas de marco es el resultado del número de viviendas
programas con resultados: ausente, desocupada y otros, entre el total de
viviendas programadas.

𝑽𝒊𝒗. 𝑷𝒓𝒐𝒈. (𝒂𝒖𝒔𝒆𝒏𝒕𝒆 + 𝒅𝒆𝒔𝒐𝒄𝒖𝒑𝒂𝒅𝒂 + 𝒐𝒕𝒓𝒐)


− 𝑻𝒂𝒔𝒂 𝑷𝒓𝒐𝒃. 𝑴𝒂𝒓𝒄𝒐 = ∗ 𝟏𝟎𝟎
𝑽𝒊𝒗𝒊𝒆𝒏𝒅𝒂𝒔 𝑷𝒓𝒐𝒈𝒓𝒂𝒎𝒂𝒅𝒂𝒔

Anexar las siguientes bases de datos:


Enaho01-2012-100. Enaho01-2013-100
Enaho01-2014-100 Enaho01-2015-100.

Anexando variable factor basico


Tabla FactorBasico.
Llave : año, conglomerado

Generando Variable Vivienda Programada: < VivProg >


Hogar(ab)
VivProg =1, si hogar a=1
VivProg = 0, si (tipenc != 3 & result > 4)

Generando Variable Resultado de la Entrevista: <res_entrv>


res_entrv = 1; si (result==1|result==2)
res_entrv = 2; si (result==3|result==4)
res_entrv = 3; si (result==5|result==6|result==7)
Asignar las etiquetas de valor a la variable:
1 : Hogar Entrevistado
2: Rechazos Ausencias
3: Problemas de Marco

Generando Variable Problemas de Marco: <PDM>


PDM = 0, si (res_entrv=1 ó res_entrv=2)
PDM = 1, si (res_entrv=3)

REPORTES:
Los reportes serán en serie anual, considerándose desde el año 2012 – al
año de estudio actual.
Reporte General.

Grafico del Mapa del Perú por grupos de departamentos según Problemas de
Marco

Según la información de la tasa de problemas de Marco, los departamentos con


colores más oscuros representan el grupo de las tasas más altas y disminuyendo el color a
tasas más bajas. Este Grafico nos permitirá tener una visión dinámica a nivel departamental
de la distribución de los problemas de marco para el año en curso

89
La representación gráfica de los problemas de Marco en Serie, nos permite
una visualización en el tiempo que es vital pues debe tener un mismo
comportamiento a lo largo de los años, teniendo en cuenta el ejemplo
siguiente:

Tasa de no respuesta
La tasa de problemas de marco es el resultado del número de viviendas
programas con resultados: ausente, desocupada y otros, entre el total de
viviendas programadas.
𝑽𝒊𝒗. 𝑷𝒓𝒐𝒈. (𝒓𝒆𝒄𝒉𝒂𝒛𝒐 + 𝒂𝒖𝒔𝒆𝒏𝒕𝒆)
− 𝑻𝒂𝒔𝒂 𝑷𝒓𝒐𝒃. 𝑴𝒂𝒓𝒄𝒐 = ∗ 𝟏𝟎𝟎
𝑽𝒊𝒗. 𝑷𝒓𝒐𝒈. (𝒄𝒐𝒎𝒑𝒍𝒆𝒕𝒂 + 𝒊𝒏𝒄𝒐𝒎𝒑𝒍𝒆𝒕𝒂 + 𝒓𝒆𝒄𝒉𝒂𝒛𝒐 + 𝒂𝒖𝒔𝒆𝒏𝒕𝒆)

Anexar las siguientes bases de datos:


Enaho01-2012-100. Enaho01-2013-100
Enaho01-2014-100 Enaho01-2015-100.

Anexando variable factor basico


Tabla FactorBasico.
Llave : año, conglomerado

Generando Variable Vivienda Programada: < VivProg >


Hogar(ab)
VivProg =1, si hogar a=1
VivProg = 0, si (tipenc != 3 & result > 4)

Generando Variable Resultado de la Entrevista: <res_entrv>


res_entrv = 1; si (result==1|result==2)
res_entrv = 2; si (result==3|result==4)
res_entrv = 3; si (result==5|result==6|result==7)
Asignar las etiquetas de valor a la variable:
1 : Hogar Entrevistado
2: Rechazos Ausencias
3: Problemas de Marco
Generando Variable Tasa de No Respuesta: <TNR>
TNR = 0, si (res_entrv==1)
TNR = 1, si (res_entrv==2)

90
ANEXO B:
TERMINO DE REFERENCIA PARA CONTRATACION DE UN PERSONAL INFORMÁTICO
PARA REALIZAR EL SISTEMA DE SEGUIMIENTO.

TÉRMINOS DE REFERENCIA

CONTRATACIÓN DE UN (01) PROFESIONAL INFORMÁTICO I (Analista de Sistema) para la ENCUESTA NACIONAL DE HOGARES
ENAHO
I. ASPECTOS GENERALES
1.1 Dependencia : Dirección Técnica de Demografía e Indicadores Sociales (DTDIS)
1.2 Naturaleza Jurídica del Contrato : Locación de Servicios
1.3 Fuente de Financiamiento : RO
1.4 Meta : 0048
1.5 Sede : Lima
II. OBJETIVOS DEL SERVICIO
Contar con los servicios de personal para el seguimiento de la implantación y capacitación del Sistema de Monitoreo, gestión y
seguimiento de procesos y control de calidad de los datos que se obtienen en la operación de campo de la Encuesta Nacional de
Hogares ENAHO.
III. REQUISITOS DE LA CONTRATACIÓN
3.1 Formación Académica
 Bachiller universitario en Ingeniería de Sistemas.
 De preferencia pertenecer al tercio superior.
3.2 Experiencia Laboral
 Experiencia mínima de un (01) año en entidades públicas o privadas en el desarrollo de Sistemas informático |
 Experiencia mínima de seis (06) meses en desarrollo con Java Web, Spring FrameWork,
3.3 Capacitación
 Curso de Java y/o PHP.
 Conocimiento SQL Server 2008, vistas, procedimientos almacenados, triggers, DML, DDL.
 Conocimiento en JQuery, AngularJS
IV. PERIODO DE CONTRATACIÓN
 El período de contratación será de neventa (90) días a partir de la suscripción del contrato, extendible.
V. SERVICIOS A REALIZAR
 Seguimiento de procesos y control de calidad de los datos que se obtienen en la operación de campo en la Encuesta Nacional
de Hogares ENAHO.
 Implementar un sistema de monitoreo de la información para la Encuesta Nacional de Hogares ENAHO.
 Elaboración de la documentación técnica del sistema de seguimiento de procesos y control de calidad de la Encuesta Nacional
de Hogares ENAHO.
VI. PRODUCTO A ENTREGAR
 Primer Producto: Informe técnico de la realización de procedimientos para la actualización de la información de campo obtenido de
la Tablet y migración para el sistema de monitoreo de la ENAHO.
 Segundo Producto: Informe técnico de la implementación del sistema de monitoreo de la información de la encuesta ENAHO.
 Tercer Producto: Informe Técnico de la documentación del uso del sistema de monitoreo de la información para la Encuesta ENAHO.

VII. ASPECTOS ECONÓMICOS


La contraprestación total del servicio ha sido establecido en S/. -,---.-- (Nueve mil 00/100 nuevos soles), retribuidos en 3 armadas,
previa entrega de los productos indicados en el Ítem VI y de conformidad de la Oficina Técnica de Informática, según el detalle
siguiente:

Nº de Unidad Monto por


Personal Monto Total Requisitos
Pagos Monetaria Armada

3 1 Nuevos soles -,---.-- -,---.--


Previa conformidad de la Dirección Técnica de Informática
TOTAL -,---.--

91
ANEXO C:
Código SQL para la creación de la tabla de hechos.

select ROW_NUMBER() OVER (ORDER BY ff.depto) as id, aa.depto ccdd,


case when ee.codencue IS null then aa.codencue else ee.codencue end as usuario,
aa.Conglome as conglomerado,
aa.Vivienda,cd.Mes, cd.Periodo, bb.RESULT,
case when bb.result = 1 then 1 else 0 end completa,
case when bb.result = 2 then 1 else 0 end incompleta,
case when bb.result = 3 then 1 else 0 end rechazo,
case when bb.result = 4 then 1 else 0 end ausente,
case when bb.result = 5 then 1 else 0 end desocupada,
case when bb.result = 6 then 1 else 0 end noEntrevista,
case when bb.result = 7 then 1 else 0 end otro

from (select ac.Conglome, ac.Vivienda, ad.ubigeo , ac.tipovivienda, ad.codencue,


ad.nomencue, ac.activo, ad.depto

from dbo.Campo_Vivienda_Marco ac
left join (select cc.Conglome, cc.Mes, cc.Periodo, cc.Estrato, cc.ODEI, DPTO +
PROV + dist as ubigeo
, re.codencue, re. nomencue, case when DPTO = '07' then '15' else DPTO end depto
from dbo.Campo_Conglomerado cc
left join rutaEncuestador re on re.conglome = cc.Conglome
) ad on ac.Conglome = ad.Conglome
) aa
left join (select cc.Conglome , cc.Vivienda, cc.hogar,cc.RESULT, cc.ubigeo ,cc.Mes,
cc.año,cc.Periodo,cc.longitud, cc.Latitud,
ccdd = case when substring(cc.UBIGEO,1,2) = '07' then '15' else
substring(cc.UBIGEO,1,2) end
from dbo.Enaho01_100 cc where cc.hogar like '1%' and cc.año = 2016 group by
cc.Conglome , cc.Vivienda,cc.RESULT, cc.hogar, cc.ubigeo,cc.Mes,
cc.año,cc.Periodo,cc.longitud, cc.Latitud) bb on aa.Conglome = bb.Conglome and
aa.Vivienda
= bb.Vivienda
left join (
select * from dbo.enaho_rpt_restriccion p where p.hogar like '1%'
)i on i.Conglome = aa.Conglome and i.Vivienda = aa.Vivienda
left join Campo_Conglomerado cd on cd.Conglome = aa.Conglome
left join (select m.CCDD, case when m.NombreDD = 'CALLAO' then 'LIMA' else
m.NombreDD end as NombreDD from dbo.Dpto m) dd on dd.CCDD =
substring(bb.UBIGEO,1,2)
left join (select * from (select *,ODEI = case when ab.ccdd = '01' then 1
when ab.ccdd = '02' and (substring(ab.UBIGEO,1,4) <> '0218' and
substring(ab.UBIGEO,1,4) <> '0208' and substring(ab.UBIGEO,1,4) <> '0211' and
substring(ab.UBIGEO,1,4) <> '0215') then 2
when ab.ccdd = '02' and (substring(ab.UBIGEO,1,4) = '0218' or
substring(ab.UBIGEO,1,4) = '0208' or substring(ab.UBIGEO,1,4) = '0211' or
substring(ab.UBIGEO,1,4) = '0215') then 3

92
when ab.ccdd = '03' then 4
when ab.ccdd = '04' then 5
when ab.ccdd = '05' then 6
when ab.ccdd = '06' then 7
when ab.ccdd = '08' then 8
when ab.ccdd = '09' then 9
when ab.ccdd = '10' then 10
when ab.ccdd = '11' then 11
when ab.ccdd = '12' then 12
when ab.ccdd = '13' then 13
when ab.ccdd = '14' then 14
when ab.ccdd = '15' then 15
when ab.ccdd = '16' then 16
when ab.ccdd = '17' then 17
when ab.ccdd = '18' then 18
when ab.ccdd = '19' then 19
when ab.ccdd = '20' then 20
when ab.ccdd = '21' then 21
when ab.ccdd = '22' and (substring(ubigeo,1,4)<>'2209' and
substring(ubigeo,1,4)<>'2207' and substring(ubigeo,1,4)<>'2206' and
substring(ubigeo,1,4)<>'2202' and substring(ubigeo,1,4)<>'2210') then 22
when ab.ccdd = '22' and (substring(ubigeo,1,4)='2209' or substring(ubigeo,1,4)='2207'
or substring(ubigeo,1,4)='2206' or substring(ubigeo,1,4)='2202' or
substring(ubigeo,1,4)='2210') then 23
when ab.ccdd = '23' then 24
when ab.ccdd = '24' then 25
when ab.ccdd = '25' then 26 end
from (
select xx.AÑO, xx.MES,xx.CONGLOME, xx.VIVIENDA, xx.HOGAR, xx.UBIGEO,
ccdd = case when SUBSTRING(xx.UBIGEO , 1,2) = '07' then '15' else
SUBSTRING(xx.UBIGEO , 1,2) end,
xx.PERIODO,xx.RESULTADO, xx.CODENCUE, xx.NOMENCUE
from dbo.EnahoHogarEncuestador xx )ab) ab where ab.AÑO = 2016 and ab.HOGAR
like '1%') ee on ee.CONGLOME = aa.Conglome and ee.VIVIENDA = aa.Vivienda and
ee.ODEI = aa.ODEI
left join dbo.Odei ff on ff.CodOdei = aa.odei
left join dbo.DPTO dpto on dpto.CCDD = aa.depto
where aa.Conglome is not null and aa.tipovivienda in (1,4) and (aa.activo = 1 or aa.activo
is null)

93

También podría gustarte