Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tesis
Agradecimientos
CONTENIDO
PARTE I
PARTE II
ÍNDICE DE TABLAS
Tabla 1.1.2-1 Pasos a seguir en las distintas etapas del proceso DMAIC ................................. 29
Tabla 1.1.5-1 Herramientas de Six Sigma utilizadas en distintas fases del proyecto ................. 32
Tabla 2.4-1 Estatuto del grupo .................................................................................................. 83
Tabla 4.1.1-1 Test de bondad de ajuste ...................................................................................140
Tabla 4.1.1.1-1 Análisis estadístico descriptivo (RT). Servicios 2007 .......................................141
Tabla 4.1.2.1-1 Análisis estadístico descriptivo (RT). Servicios 2006 .......................................146
Tabla 4.1.3.1-1 Análisis estadístico descriptivo (RT). Servicios 2005 .......................................151
Tabla 4.1.4.1-1 ANOVA – Media de Servicios vs. Año 2005 al 2007 ......................................158
Tabla 4.1.4.2-1 ANOVA – Media de Servicios vs. Año 2005 y 2007 ........................................162
Tabla 4.1.6-1 ANOVA – Media de problemas vs. Año 2005 al 2007 .........................................185
Tabla 4.1.7-1 ANOVA – Media de problemas vs. Año 2006 y 2007 ..........................................188
Tabla 4.1.11-1 ANOVA – Media de problemas vs. Miembros de TI 2005 .................................201
Tabla 4.1.12-1 ANOVA – Media de problemas vs. Perfil de tickets 2005 ..................................204
Tabla 4.1.13-1 ANOVA – Media de problemas vs. Miembros de TI 2007 .................................213
Tabla 4.1.14-1 ANOVA – Media de problemas vs. Perfil de tickets 2007 ..................................217
Tabla 5.4.3-1 Métrica: Encuesta de satisfacción al cliente por incidentes .................................240
Tabla 5.4.3-2 Métrica: Costo de la no calidad ..........................................................................243
Tabla 5.4.3-3 Métrica: Costo de la calidad ................................................................................245
Tabla 5.4.3-4 Métrica: Esfuerzo de entrenamiento ...................................................................248
Tabla 5.4.3-5 Métrica: Tiempo de remoción de vulnerabilidades e incidentes de seguridad .....250
Tabla 5.4.3-6 Métrica: Tiempo de resolución de incidentes en IT .............................................254
Tabla 5.4.3-7 Métrica: Gastos financieros reales vs. presupuestados ......................................260
ÍNDICE DE GRÁFICOS
Gráfico 3.6.1-2 Valores individuales (RT) por mes – Servicios 2006 ......................................... 91
Gráfico 3.6.1-3 Valores individuales (RT) por mes – Servicios 2005 ......................................... 92
Gráfico 3.6.2-1 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007 ............................. 94
Gráfico 3.6.2-2 Gráfico de cajas de Tickets (RT) por mes – Servicios 2006 .............................. 95
Gráfico 3.6.2-3 Gráfico de cajas Tickets (RT) por mes – Servicios 2005 ................................... 95
Gráfico 3.6.3-1 Resumen de estadística Tickets (RT) – Servicios 2007.................................. 96
Gráfico 3.6.3-2 Resumen de estadística Tickets (RT) – Servicios 2006................................... 97
Gráfico 3.6.3-3 Resumen de estadística Tickets (RT) – Servicios 2005................................... 97
Gráfico 3.6.4-1 De comportamiento de Tickets (RT) por mes – Servicios 2007 ......................... 98
Gráfico 3.6.4-2 De comportamiento de Tickets (RT) por mes – Servicios 2006 ......................... 99
Gráfico 3.6.4-3 De comportamiento de Tickets (RT) por mes – Servicios 2005 ........................ 99
Gráfico 3.6.5-1 Pareto de Tickets por severidad – Servicios 2007 ............................................101
Gráfico 3.6.5-2 Pareto de Tickets por severidad – Servicios 2006 ............................................101
Gráfico 3.6.5-3 Pareto de Tickets por severidad – Servicios 2005 ............................................102
Gráfico 3.6.5-4 Pareto de Tickets por impacto – Servicios 2007 ...............................................102
Gráfico 3.6.5-5 Pareto de Tickets por impacto – Servicios 2006 ...............................................103
Gráfico 3.6.5-6 Pareto de Tickets por impacto – Servicios 2005 ...............................................103
Gráfico 3.6.5-7 Pareto de Tickets por miembros de TI – Servicios 2007...................................104
Gráfico 3.6.5-8 Pareto de Tickets por miembros de TI – Servicios 2006...................................104
Gráfico 3.6.5-9 Pareto de Tickets por miembros de TI – Servicios 2005...................................105
Gráfico 3.6.5-10 Pareto de Tickets por días (agrupados) – Servicios 2007 ..............................105
Gráfico 3.6.5-11 Pareto de Tickets por días (agrupados) – Servicios 2006 ..............................106
Gráfico 3.6.5-12 Pareto de Tickets por días (agrupados) – Servicios 2005 ..............................106
Gráfico 3.6.5-13 Pareto de Tickets por días de espera (agrupados) – Servicios 2007 ..............107
Gráfico 3.6.5-14 Pareto de Tickets por días de espera (agrupados) – Servicios 2006 ..............107
Gráfico 3.6.5-15 Pareto de Tickets por días de espera (agrupados) – Servicios 2005 ..............108
Gráfico 3.6.5-16 Pareto de satisfacción del cliente por ticket – Servicios 2007 .........................109
Gráfico 3.6.5-17 Pareto de satisfacción del cliente por ticket – Servicios 2006 .........................109
Gráfico 3.6.5-18 Pareto de satisfacción del cliente por ticket – Servicios 2005 .........................110
Gráfico 3.6.5-19 Pareto de tickets reabiertos – Servicios 2007 .................................................111
Gráfico 3.6.5-20 Pareto de tickets reabiertos – Servicios 2006 .................................................111
Gráfico 3.6.5-21 Pareto de tickets reabiertos – Servicios 2005 .................................................112
Gráfico 3.7.1-1 Valores individuales (RT) por mes – Problemas 2007 ......................................113
Gráfico 3.7.1-2 Valores individuales (RT) por mes – Problemas 2006 ......................................114
Gráfico 3.7.1-3 Valores individuales (RT) por mes – Problemas 2005 ......................................114
Gráfico 3.7.2-1 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2007 ..........................115
Gráfico 3.7.2-2 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2006 ..........................116
Gráfico 3.7.2-3 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2005 .........................116
Gráfico 3.7.3-1 Resumen de estadística Tickets (RT) – Problemas 2007 ..............................117
Gráfico 3.7.3-2 Resumen de estadística Tickets (RT) – Problemas 2006 ..............................118
Gráfico 3.7.3-3 Resumen de estadística Tickets (RT) – Problemas 2005 ..............................118
Gráfico 3.7.4-1 De comportamiento de Tickets (RT) por mes – Problemas 2007 .....................119
Gráfico 3.7.4-2 De comportamiento de Tickets (RT) por mes – Problemas 2006 .....................120
Gráfico 3.7.4-3 De comportamiento de Tickets (RT) por mes – Problemas 2005 .....................120
Gráfico 3.7.5-1 Pareto de Tickets por severidad – Problemas 2007 .........................................121
Gráfico 3.7.5-2 Pareto de Tickets por severidad – Problemas 2006 .........................................122
Gráfico 3.7.5-3 Pareto de Tickets por severidad – Problemas 2005 .........................................122
Gráfico 3.7.5-4 Pareto de Tickets por impacto – Problemas 2007 ............................................123
Gráfico 3.7.5-5 Pareto de Tickets por impacto – Problemas 2006 ............................................124
Gráfico 3.7.5-6 Pareto de Tickets por impacto – Problemas 2005 ............................................124
Gráfico 3.7.5-7 Pareto de Tickets por miembros de TI – Problemas 2007 ................................125
Gráfico 3.7.5-8 Pareto de Tickets por miembros de TI – Problemas 2006 ................................125
Gráfico 3.7.5-9 Pareto de Tickets por miembros de TI – Problemas 2005 ................................126
Gráfico 3.7.5-10 Pareto de Tickets por días (agrupados) – Problemas 2007 ............................126
Gráfico 3.7.5-11 Pareto de Tickets por días (agrupados) – Problemas 2006 ............................127
Gráfico 3.7.5-12 Pareto de Tickets por días (agrupados) – Problemas 2005 ............................127
Gráfico 3.7.5-13 Pareto de Tickets por días de espera (agrupados) – Problemas 2007 ...........128
Gráfico 3.7.5-14 Pareto de Tickets por días de espera (agrupados) – Problemas 2006 ...........128
Gráfico 3.7.5-15 Pareto de Tickets por días de espera (agrupados) – Problemas 2005 ...........129
Gráfico 3.7.5-16 Pareto de satisfacción del cliente por ticket – Problemas 2007 ......................130
Gráfico 3.7.5-17 Pareto de satisfacción del cliente por ticket – Problemas 2006 ......................130
Gráfico 3.7.5-18 Pareto de satisfacción del cliente por ticket – Problemas 2005 ......................131
Gráfico 3.7.5-19 Pareto de tickets reabiertos (cero) – Problemas 2007 ....................................132
Gráfico 3.7.5-20 Pareto de tickets reabiertos (cero) – Problemas 2006 ....................................132
Gráfico 3.7.5-21 Pareto de tickets reabiertos – Problemas 2005 ..............................................133
Gráfico 4-1 Análisis de oportunidades ......................................................................................134
Gráfico 4.1.1-1 Valores individuales (RT) por mes – Servicios 2007 ........................................136
Gráfico 4.1.1-2 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007 ...........................136
Gráfico 4.1.1-3 Resumen de estadística Tickets (RT) por mes – Servicios 2007 ..................137
Gráfico 4.1.1-4 Valores individuales (RT) por mes – Servicios 2007 - corregida.......................138
Gráfico 4.1.1-5 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007 - corregida ...........138
Gráfico 4.1.1-6 Resumen de estadística Tickets (RT) por mes – Servicios 2007 - corregida .139
Gráfico 4.1.10-5 Gráfico de cajas (RT) debido al perfil del ticket de servicio -06/07.................200
Gráfico 4.1.11-1 Grafico de cajas de problemas (RT) por miembros de TI – 05 - ANOVA ........202
Gráfico 4.1.11-2 Gráfica de Residuos problemas (RT) por miembros de TI -05- ANOVA .......203
Gráfico 4.1.11-3 Test de Varianzas iguales – Problemas (RT) vs miembros de TI .................204
Gráfico 4.1.12-1 Grafico de cajas de problemas (RT) por perfil del ticket – 05 - ANOVA ..........210
Gráfico 4.1.12-2 Gráfica de Residuos problemas (RT) por perfil del ticket -05- ANOVA ...........211
Gráfico 4.1.12-3 Test de Varianzas iguales – Problemas (RT) vs perfil del ticket ...................212
Gráfico 4.1.13-1 Grafico de cajas de problemas (RT) por miembros de TI – 07 - ANOVA ........215
Gráfico 4.1.13-2 Gráfica de Residuos problemas (RT) por miembros de TI -07- ANOVA .........215
Gráfico 4.1.13-3 Test de Varianzas iguales – Problemas (RT) vs miembros de TI .................216
Gráfico 4.1.14-1 Grafico de cajas de problemas (RT) por perfil del ticket – 07 - ANOVA .........219
Gráfico 4.1.14-2 Gráfica de Residuos problemas (RT) por perfil del ticket -07- ANOVA ...........220
Gráfico 4.1.13-3 Test de Varianzas iguales – Problemas (RT) vs miembros de TI .................221
Gráfico 5-1 Mejora de la performance ......................................................................................225
Gráfico 5-2 Herramientas para generar ideas sobre mejoras ..................................................226
Gráfico 5.1-1 Proceso de mejora de 7 pasos (ITIL V3) ............................................................229
Gráfico 5.2.1-1 Diagrama de flujo de toma de decisiones basada en datos..............................231
Gráfico 5.3.1-1 CMMI - Actividades de mediciones y análisis de procesos ...............................233
Gráfico 5.3.2-1 Mapeo de las actividades de medición del CMMI ............................................234
Gráfico 5.4-1 ¿Cómo son generados y usados los datos?........................................................237
Gráfico 5.4-2 Ejemplo de indicadores incluidos en un BSC .....................................................237
Gráfico 5.5.1-1 IT Dashboard – Relojes indicadores................................................................264
Gráfico 5.5.1-2 IT Dashboard - Gráfico de barras de incidentes ..............................................264
Gráfico 5.5.1-3 IT Dashboard - Gráfico de barras de presupuesto............................................265
Gráfico 5.5.1-4 IT Dashboard - Gráfico de barras de satisfacción al cliente ..............................265
Gráfico 5.6-1 Modelos de calidad, relevancia y abstracción .....................................................267
Gráfico 6-1 Control de la performance ......................................................................................268
Gráfico 6.2.3-1 Ejemplo de procesos bajo SPC ........................................................................271
Gráfico 6.2.3-2 Proceso estable en el tiempo ...........................................................................272
Gráfico 6.2.3-3 Proceso inestable en el tiempo ........................................................................272
Gráfico 6.2.3-4 Gráfico de un proceso con límites de control....................................................273
Gráfico 6.2.3-5 Ejemplo de estabilidad y capacidad de un proceso ..........................................273
ÍNDICE DE APÉNDICES
III. Introducción
La falta de un sistema marco para la gestión de la calidad, asociada con las áreas de la
tecnología de la información (Information Technology, IT), en la mayoría de las
empresas del sector electrónico -donde principalmente la gestión de calidad está
focalizada sólo al desarrollo o producción, dejando de lado otras áreas de soporte-
conlleva a poca o mínima alineación con los objetivos del negocio. Esto determina una
gestión deficiente, que debiera impulsar la búsqueda de información para la generación
de indicadores y un plan de métricas que permitan tomar decisiones adecuadas
relacionadas a la IT. Por otro lado, la mayoría de las empresas han desarrollado
históricamente sus controles gerenciales resumiendo los parámetros considerados
claves en su momento (e.g. ventas, gastos, beneficios, calendario y productividad); con
una orientación únicamente financiera que cegaba muchos eventos que impactan
directamente en los resultados finales. En aquel contexto, las áreas de tecnología de la
información solo merecían un rol de soporte, y no su verdadero rol estratégico, que hoy
da cuenta de su importancia y evoluciona rápidamente.
Otra situación problemática que se observa -de modo más habitual que extraordinario-
es que la integración funcional de los indicadores de control de la IT en muchos casos
es omitida o construida de modo incorrecto, provocando la filtración de información
clave para la toma de decisiones adecuada.
Como destaca claramente Blanco Illescas1, una correcta construcción del sistema
integrado de control ―debe asegurar que no existan lagunas en las medidas que
1
BLANCO ILLESCAS, F. El control integrado de gestión. Méjico: Editorial Limusa, 1995.
afectarán el resultado final, para lo cual, deben articularse controles que asignen
responsabilidades por productos y traduzcan las desviaciones‖. La implementación de
controles permite, a su vez, evaluar las responsabilidades y desempeño de cada área
organizacional. Para cada período en análisis, deberán enfrentarse los resultados
obtenidos, a las metas y objetivos que la empresa ha planteado para ese lapso, y que
deben estar explicitados en el planeamiento estratégico de la misma. Esto ayudaría a la
alineación de los resultados de todas las áreas con los objetivos claves del negocio,
logrando una mayor consistencia y solidez en la actuación presente y futura de la
organización.
2
Métrica: se la utiliza, en cierta literatura específica, como una función matemática que asocia a una
serie de elementos, con el objeto de cuantificarlos y/o cualificarlos. Como sinónimo de métrica
habitualmente se utiliza el concepto de indicador, como aspecto cuantitativo de un sistema.
El método de medición definido y la escala de medición. [ISO 14598-1:1999]
3
Medición: proceso de asignar un número a un concepto.
4
Medida: valor asignado al fenómeno.
Número o categoría asignada a un atributo de una entidad mediante una medición. [ISO 14598-1:1999]
A quantitative measure of the degree to which a system, component, or process possesses a given
attribute. [IEEE 610.12:1990]
5
Benchmarking: proceso de comparación, que puede ser continuo. Consiste en medir productos,
servicios y prácticas, contra competidores fuertes, o aquellas compañías reconocidas como líderes en la
industria.
6
DETORO, I. The 10 pitfalls of benchmarking. New York: Quality Progress, 1995.
7
KAPLAN, R.S. y NORTON, D.S. Implantando el cuadro de mando integral. Barcelona: Gestión 2000.
Por ello, y hasta hace muy pocos años atrás, los TC no incluían el comportamiento del
sistema con respecto a la calidad, excluyendo de ellos también a todas las áreas y
variables, que en ese entonces -bajo el paradigma contable clásico- no eran
consideradas como críticas para el logro de los objetivos. Dentro de tal grupo de
factores, visualizados como no críticos en el desempeño organizacional, se encontraba
área de la IT. Esto sucedió –y aún continúa- particularmente en pequeñas y medianas
empresas, aunque también este fenómeno ocurre en ciertas empresas con presencia
global.
8
BLANCO ILLESCAS, op.cit.
9
JURAN, J.M. Juran y el liderazgo para la calidad – un manual para directivos, Madrid: Diaz de Santos,
1990.
Avanzando en este sentido, se aseguran las acciones necesarias para un mejor control
de las funciones básicas en cada área en particular y permite un monitoreo en forma
real, a través de todos los indicadores establecidos en su tablero de gestión integrado,
el cual formará parte del general de la compañía.
Además, Blanco Illescas observa que mejorar la calidad es un asunto central para cada
una de las áreas que integran la empresa. Cada proyecto de mejora requiere una
inversión en dos formas:
El rendimiento resultante de tal inversión, se halla entre los más altos que puedan
encontrarse en la actividad empresarial y ha provocado, en algunos directivos, avanzar
sobre la idea de que ―el mejor negocio es mejorar la calidad‖.
A los efectos del trabajo de tesis que se plantea aquí, el marco teórico que se viene
explicitando puede complementarse de modo muy conveniente con el modelo de
10
KAPLAN, R.S. y NORTON, D.S., op. cit.
11
BLANCO ILLESCAS, F., op. cit.
12
CROSBY, P.B. Calidad sin lágrimas – El arte de administrar sin problemas. Méjico: Compañía editorial
continental, 1992.
El sistema de gestión Six Sigma integra la filosofía de trabajo con las estrategias de
negocios, basadas en el enfoque hacia el cliente y el diseño robusto, con un manejo
eficiente de los datos y metodologías. Su objetivo es eliminar la variabilidad en los
procesos y alcanzar un nivel de defectos mínimo, sino nulo. Adicionalmente, se obtienen
otros beneficios, como la reducción en los tiempos del ciclo productivo y su variabilidad,
reducción de costos, elevada satisfacción de los clientes y, más importante aún, efectos
claves en el desempeño financiero de la empresa. Es una de las más exitosas
estrategias de gerencia del último cuarto del siglo. De allí que, un buen número de
empresas y organizaciones comprometidas con la satisfacción del cliente -en la entrega
oportuna de productos y servicios, libres de defectos y a costos razonables- aplican Six
Sigma (e.g. Motorola, Allied Signal, G.E., Polaroid, Sony, Lockheed, NASA, Black &
Decker, Bombardier, Dupont, Toshiba, entre otras).
La ejecución de estos proyectos es llevada a cabo por personal idóneo, que ha recibido
un entrenamiento avanzado en tratamiento estadístico de datos, análisis de procesos,
técnicas de trabajo en equipo y diversas herramientas de gestión.
13
MOTOROLA. 2007. ―Six Sigma Programs‖. [en línea]. Disponible en Internet:
http://www.motorola.com/content.jsp?globalObjectId=3049-11525 [Consulta: 11 Diciembre 2007]
14
HARRY, Mikel y SCHROEDER, Richard. Six Sigma: The Breakthrough Management Strategy
Revolutionizing the World’s Top Corporations. New York, NY: Doubleday,2000.
Las herramientas y técnicas claves, que se utilizan, son las manejadas en la disciplina
de la gestión estratégica de calidad total (TQM, diseño/rediseño de procesos, análisis de
varianza, ANOVA, cuadro de mando integral, benchmarking, voz del cliente, torbellino
de ideas, pensamiento creativo, diseño de experimentos, gerencia de los procesos,
control estadístico de procesos, entre otras)15.
Así, el tema en estudio y sus resultados, permitirán orientar a aquellos que tengan que
administrar el área de la IT -como área de servicios dentro del sector electrónico- a
establecer métricas o indicadores críticos como instrumentos de control, en pos de
generar mayor efectividad y eficiencia, permitiendo controlar los procesos de acuerdo a
las expectativas y los requerimientos planteados por sus clientes. Los indicadores o
métricas organizacionales de potencial uso común permitirán la comparación dentro de
distintas unidades del negocio pues, de lo contrario, se corre el riesgo de que cada una
realice sus estimaciones en base a factores diferentes; generándose índices no
comparables entre sí. En esa adopción simultánea estriba una dificultad adicional,
producto de cierta resistencia al cambio, conseguir que otras áreas de tecnología de la
información implementen esta colección de métricas estandarizadas en su rutina diaria
de trabajo.
15
PYZDEK, Thomas. The six sigma handbook, New York: McGraw-Hill, 2001.
El desarrollo de los contenidos comienza con la mención de las tres clases posibles de
proyectos para llevar a cabo la implementación de la metodología Six Sigma, conocidos
como DMAIC (Definition, Measurement, Analysis, Improvement, Control), DMADV
(Define, Measure, Analyze, Design, Validate) y DMADDD (Define, Measure, Analyze,
Design, Digitize, Draw Down). Dentro de esta primer parte se describe en profundidad el
marco de trabajo. También allí se detallan las herramientas y estándares a utilizar para
hacer posible su despliegue en el contexto citado.
Luego, a partir del segundo capítulo, se hace énfasis en el proyecto DMAIC, el cual
supone las siguientes fases: definición, medición, análisis, mejora y control. Cada una
de las etapas que involucra este proyecto será especificada en los sucesivos capítulos,
para obtener el adecuado seguimiento de la evolución del proceso de mejora.
Con tales fines, en un principio se llevó adelante un exhaustivo análisis del marco
vigente en las actividades, y se demostró que no era unívoco en las diferentes unidades
de negocio, en relación al reporte de indicadores. Por lo tanto se comenzó con un
trabajo de investigación que permitiera el reordenamiento y definición necesarios. Se
examinaron distintas metodologías, estándares y normas internacionales relacionadas,
que pudieran brindar una base sólida referente al área de la IT; para contar con los
mejores procesos y prácticas conducentes a los objetivos deseados.
Los datos disponibles fueron estudiados para determinar su consistencia dentro del
proyecto propuesto. Fueron elegidos aquellos concernientes a los pedidos de servicios y
problemas, recolectados a lo largo de tres años consecutivos. Con ellos se realizó la
comparación entre las medias anuales para ver si existían diferencias significativas, en
cuyo caso, se rastrearon los factores que podían ser determinantes en mayor o menor
medida de tales cambios.
Con los resultados de las etapas anteriores se llevó a cabo un análisis de estabilidad y
capacidad del proceso para advertir si se cumplía con los requerimientos del cliente,
establecidos en el acuerdo de servicio interno del área de IT. Se definieron indicadores
críticos, plan de desempeño y un tablero de gestión y control de la IT, que facilitan la
aplicación de la metodología planteada.
Finalmente, para la ejecución y puesta en marcha del proyecto, se concluye con una
etapa de control que da lugar al monitoreo, implementación de mejoras, resolución de
problemas y toma de decisiones en base a datos. Todo esto permitirá introducir un ciclo
de mejora continua en los procesos y en la determinación de nuevas necesidades del
negocio.
PARTE I.
MARCO DE TRABAJO
Para comenzar el análisis, se hará una breve revisión de los conceptos y herramientas,
mencionados en el párrafo anterior, que ayudarán al entendimiento y definición del
marco o estructura de trabajo. Considerando, además, su interrelación; dada la
necesidad e importancia de que cada empresa pueda adaptarlos al ambiente en el que
se encuentran.
16
ISO 20000.‖ISO20000 - the IT Service Management standard‖ [en línea]. Disponible en Internet:
http://www.itgovernance.co.uk/iso20000.aspx?gclid=CNzMtPHo0JMCFQE4GgodsVfGhw [Consulta: 11
Diciembre 2007]
17
ISO 27000. ―An Introduction to ISO 27001, ISO 27002....ISO 27008‖ [en línea]. Disponible en Internet:
http://www.27000.org [Consulta: 11 Diciembre 2007]
La aplicación de Six Sigma brinda beneficios como: reducción en los tiempos del ciclo
productivo y su variabilidad, reducción de costos, elevada satisfacción de los clientes y,
más importante aún, efectos claves en el desempeño financiero de la empresa.
En la metodología Six Sigma (SS) son comúnmente reconocidas las herramientas que
se utilizan en ella, llamadas Design For Six Sigma tools (DFSS tools), en Motorola18, la
compañía tiene un sitio donde se puede encontrar diferente material y programas
relacionados a ella, hacemos referencia a este sitio debido a que inicialmente en esa
compañía se implementó SS aunque en otras compañías grandes como General
Electric se obtuvieron mejores retornos sobre la inversión (ROI) en su implementación e
inserción en los negocios.
A través del siguiente gráfico se puede observar que todos los procesos están
relacionados por fases comunes, pero existen derivaciones, que dependen del objetivo
propuesto al aplicar la metodología.
18
MOTOROLA. , op. cit.
19
KERRY, SIMON. ―DMAIC versus DMADV Methodologies‖. [en línea] I SIX SIGMA. Disponible en
Internet: http://www.isixsigma.com/library/content/c001211a.asp [Consulta: 11 Diciembre 2007]
20
CSC. ―Patch Management using Six Sigma‖ [en línea]. Disponible en Internet:
http://phoenix.issa.org/Six%20Sigma.ppt [Consulta: 11 Diciembre 2007]
21
PYZDEK, THOMAS.2003. ―DMAIC and DMADV‖. [en línea]. Disponible en Internet:
http://www.pyzdek.com/DMAICDMADV.htm [Consulta: 11 Diciembre 2007]
Tabla 1.1.2-1 Pasos a seguir en las distintas etapas del proceso DMAIC
Definición (Define):
Se establecen claramente los objetivos y métricas –indicadores- relevantes. Con
los cuales, se podrá apreciar la línea base, brechas, impedimentos y barreras
estructurales para el proceso de cambio, y finalmente, la evolución hacia las metas
Los objetivos más importantes son obtenidos de los clientes o usuarios finales. En
los niveles superiores, los objetivos serán estratégicos para la organización, tales
como mejorar la lealtad de los clientes, lograr un alto retorno sobre la inversión
D (Return Over Investment, ROI), incrementar la porción de mercado, generar mayor
satisfacción del empleado, entre otros. A nivel operativo, se podría, además,
incrementar la efectividad y la eficiencia, y reducir el tiempo de resolución de
problemas del departamento; mientras que, a nivel del proceso, se busca reducir
los costos de calidad y de no calidad (Cost Of Quality, COQ y Cost Of Poor
Quality, COPQ), reducir el nivel de defectos e incrementar la salida de un
determinado proceso. Se pueden plantear objetivos a partir de la comunicación
directa con clientes, accionistas y empleados.
Medición (Measure):
Se analiza en detalle el desempeño, a lo largo del proceso, y se obtienen las
relaciones causa-efecto entre todas las variables claves involucradas
A partir del sistema existente, se establecen métricas válidas y confiables para
M
ayudar a monitorear el progreso hacia los objetivos definidos en el paso anterior.
Es decir, la situación actual determina la línea base del proyecto, luego se usan
métodos de análisis de datos exploratorios y descriptivos que ayuden a entender la
información.
Análisis (Analyze):
Se construyen relaciones y niveles de causalidad, entre los procesos y sus
resultados. Se identifican los aspectos críticos, a partir de los cuales, se puede
modificar la situación actual, utilizando herramientas y métodos estadísticos que
A guían el análisis. Se estudian los modos de falla y los efectos de la variabilidad.
Todo ello, para determinar los efectos principales e interacciones, derivadas del
análisis pasivo, y los compromisos, tanto operacionales como financieros. Es decir,
conocer las causas o entradas al proceso, que tienen impacto directo en los
resultados del mismo.
Mejora (Improve):
Se realizan ejercicios interactivos de los procesos, mediante pruebas y
experimentación estadística. Se definen las estrategias para lograr los cambios en
el desempeño, la socialización, aceptación y definiciones claves para los planes de
puesta en marcha o mejoramiento del diseño de control.
Será necesaria la creatividad, para encontrar nuevas maneras de hacer las cosas,
I de forma tal que sean mejores, más baratas o más rápidas; por medio del
gerenciamiento del proyecto u otras herramientas de administración, para
implementar una nueva mirada; y usando métodos estadísticos para validar la
mejora.
Es aconsejable la aplicación de estándares, como las normas ISO 9000 e ISO
17799, el modelo CMMI, mejores prácticas a partir de ITIL y CObIT, para alinear
la propuesta al negocio.
Control:
Una vez definidos los métodos y mediciones para implementar y sustentar la
mejora a través el tiempo; se monitorean y documentan, constantemente, las
variables críticas, para conocer la estabilidad del proceso mejorado. A la vez que
C se realiza el desarrollo de competencias al personal operativo.
El nuevo sistema debe ser institucionalizado a través de modificaciones en las
políticas y procedimientos de compensación e incentivos, presupuestos,
instrucciones operativas de trabajo y otras herramientas de gerenciamiento.
En los capítulos próximos, se vuelve sobre el proyecto DMAIC, para abarcar, en mayor
detalle, lo que representa e incluye cada una de sus fases. Se enfatiza que, DMAIC se
utiliza cuando un producto o proceso, que existe dentro de la compañía, no cumple con
ciertas especificaciones, o bien, no funciona adecuadamente.
23
Publicado por Six Sigma US. ―What is Six Sigma‖
22
SIX SIGMA US. ―Step Six Synergize‖ [en línea]. Disponible en Internet: http://www.6sigma.us/dmaic-
step-six-synergize.php [Consulta: 20 Mayo 2008]
23
SIX SIGMA US. ―What is Six Sigma‖ [en línea]. Disponible en Internet: http://www.6sigma.us/six-
sigma.php [Consulta: 11 Diciembre 2007]
24
Publicado por iSix Sigma, ―DMAIC Project Cycle Graphic‖
24
ISIX SIGMA. ―DMAIC Project Cycle Graphic‖. Disponible en Internet:
http://www.isixsigma.com/me/dmaic/ [Consulta: 11 Diciembre 2007]
Tabla 1.1.5-1 Herramientas de Six Sigma utilizadas en distintas fases del proyecto
Fase del
Herramientas sugeridas
Proyecto
Carátula o capítulo del proyecto.
Voice Of Customer tools (VOC), incluye las herramientas que
reflejan la voz del cliente (tales como encuestas, grupos de
trabajos, cartas y tarjetas de comentarios).
Mapas de procesos.
Definir Quality Function Deployment (QFD), llamada casa de
calidad, diagramas de Suppliers-Inputs-Process-Outputs-
Customers (SIPOCs), que corresponde a proveedores,
entradas, proceso, salidas y clientes.
Benchmarking.
Diagramas de causa-efecto.
Diagramas de estructura de árbol.
Torbellino de ideas.
Sheet - Process - Chart (SPC), o cartas de control estadístico
de procesos.
Mapas de procesos.
Analizar Diseño de experimentos.
Test de hipótesis, estadística enumerativa.
Estadística de inferencias (Xs e Ys).
Failure mode and effects analysis (FMEA), o análisis de
modos de fallas y efectos.
Simulaciones.
SPC.
FMEA.
Controlar ISO 9000.
Modelos de estimación de costos, presupuestos y cotizaciones.
Sistema de reportes.
Con todo esto, se espera contar con la información suficiente de las fases del DMAIC
para SS, y las herramientas que se pueden utilizar para el desarrollo e implementación
de la metodología.
En caso de ser necesario, se podrá indagar más profundo y realizar las consultas
pertinentes a especialistas en la metodología, comúnmente llamados Green Belt
(Cinturón Verde) o Black Belt (Cinturón Negro).
Aunque todos los modelos presentan ciertas debilidades e imprecisiones, cada uno
posee determinadas fortalezas. En este caso, BSC proporciona una descripción clara
en cuanto a los puntos clave que las compañías deberían medir, para ―balancear‖ la
perspectiva financiera.
Kaplan y Norton27 evalúan la aplicación del BSC "para dirigir y evaluar la información
que las compañías deben considerar, para crear valor futuro, que son la inversión en
clientes, proveedores, empleados, procesos, tecnología e innovación‖. En este sentido,
el BSC sugiere ver la organización a partir de cuatro perspectivas:
En el siguiente gráfico se reflejan las interacciones entre los factores claves y la visión
organizacional de la empresa, de manera más clara.
25
ARVESON, PAUL.1998. ―What is the Balanced ScoreCard‖. [en línea]. Disponible en Internet:
http://www.balancedscorecard.org/basics/bsc1.html [Consulta: 11 Diciembre 2007]
26
KAPLAN, R.S. y NORTON, D.S., op. cit.
27
KAPLAN, R.S. y NORTON, D.S., op. cit.
Finanzas
Para ser exitosos
financieramente, cómo
deberiamos aparecer antes
nuestros accionistas
Aprendizaje y Crecimiento
Para lograr nuestra visión, cómo
sustanciaremos nuestra habilidad
al cambio y a la mejora
28
ARVESON, PAUL.1998. ―What is the Balanced Scorecard?‖ [en línea]. Disponible en Internet:
http://www.balancedscorecard.org/basics/bsc1.html [Consulta: 11 Diciembre 2007]
Observó además que, las variaciones pueden ocurrir en cualquiera de los pasos del
proceso productivo, y sus causas debían ser identificadas y solucionadas allí. Si esto
podía ser realizado, entonces sería una manera de reducir los defectos y mejorar la
calidad del producto indefinidamente. Para establecer tal actividad, Deming remarcó que
todos los procesos del negocio deben ser parte de un sistema retroalimentado. Los
datos de la retroalimentación deben ser examinados por los encargados o responsables
de los procesos, para determinar las causas de la variación, y las etapas con problemas
significativos, para centrar allí la atención y encontrar soluciones.
El BSC incorpora la retroalimentación de las salidas del proceso, como en TQM, pero
también agrega un lazo alrededor de los resultados de las estrategias de negocio. Esto
genera un proceso de ―retroalimentación de doble lazo".
Una frase muy difundida, de Lord Kelvin, dice: ―si no puedes medirlo, no puedes
mejorarlo‖ (“If you can not measure it, you can not improve it” 29).
Las métricas deben definirse en base a las prioridades del plan estratégico, que
proveerán a la gerencia los indicadores que desean monitorear. Los procesos serán
entonces diseñados para recolectar la información relevante de tales métricas, que
llevadas a un valor numérico o cualitativo, permitan su almacenamiento, visualización y
su posterior análisis.
Las personas que toman las decisiones examinaran las salidas de los procesos
medidos, las estrategias y registraran los resultados para guiar a la compañía,
implementando la retroalimentación en el proceso.
El logro de realizar mediciones –monitoreo- es que permite a los gerentes ver su propia
compañía más claramente, desde distintas perspectivas y, por ende, poder tomar
decisiones a largo plazo más sabias.
29
LORD KELVIN. ―Quotations from Lord Kelvin‖ [ en línea]. Disponible en Internet:
http://zapatopi.net/kelvin/quotes/ [Consulta: 11 Diciembre 2007]
Los conceptos hasta aquí expuestos irán complementando el desarrollo del estudio,
mencionando los puntos comunes o nexos entre ellos, y extrayendo su aplicación a
nuestro caso.
30
BALDRIGE NATIONAL QUALITY PROGRAM. ‖Criteria for Performance Excellence‖ [en línea].
Disponible en Internet: http://baldrige.nist.gov/Business_Criteria.htm [Consulta: 11 Diciembre 2007]
El CObIT incluye una serie de recursos como, por ejemplo, sumario ejecutivo,
framework, control de objetivos, mapas de auditoría y un conjunto de procesos de
trabajo ya establecidos y empleados por el mercado entre los cuales se incluye el CMM
(Capability Maturity Model), la ISO 9000 (para calidad), BS7799/ISSO 17799 (normas
para seguridad de la información) y el ITIL (para gestión del departamento de IT).
La metodología está dirigida a tres niveles diferentes: para gerentes que necesitan
evaluar los riesgos y controlar las inversiones de TI; para los usuarios que necesitan
asegurar la calidad de los servicios prestados a los clientes internos y externos; y para
auditores que necesitan evaluar el trabajo de gestión de la IT y aconsejar el control
interno de la organización. El foco principal es apuntar dónde deben realizarse las
mejoras.
31
ISACA. ―CObIT Executive Summary & Framework‖.[en línea] Disponible en Internet:
http://www.isaca.org/Template.cfm?Section=COBIT6&Template=/TaggedPage/TaggedPageDisplay.cfm&
TPLID=55&ContentID=7981 [Consulta: 11 Diciembre 2007]
Los recursos de CObIT deben utilizarse como fuente de asesoría con respecto a las
mejores prácticas; proporciona un conjunto detallado de controles y de técnicas de
control para el entorno de la administración/gestión de sistemas de información. La
selección del material más relevante en CObIT, aplicable al alcance de la auditoría en
particular, se basa en la selección de procesos específicos de para la IT, considerando
además sus criterios de información. CObIT está destinado para ser utilizado por la
gerencia de la empresa y de la IT, así como por los auditores de sistemas de
información; por lo tanto, su uso permite la comprensión de los objetivos del negocio, la
comunicación de las mejores prácticas y las recomendaciones que deben hacerse, con
base en estándares de referencia comúnmente comprendidos y respetados.
ISACA ha definido una guía como el nivel mínimo de desempeño aceptable, requerido
para cumplir con las responsabilidades profesionales, indicadas en el Código de Ética
Profesional de ISACA. La publicación no debe considerarse como excluyente de otros
procedimientos y pruebas que estén razonablemente dirigidos a la obtención de los
mismos resultados. Para determinar la aplicabilidad de cualquier procedimiento o
prueba específicos, el profesional de control debe aplicar su buen juicio a las
circunstancias específicas presentadas por el entorno particular de sistemas o de la
tecnología de información.
32
HARRIS, TRISH. ‖COSO Releases Discussion Document with Guidance on Monitoring Internal
Control‖. [en línea]. 17 Septiembre 2007. Disponible en Internet:
http://www.theiia.org/theiia/newsroom/news-releases/?search=COSO&C=1042&I=4153 [Consulta: 11
Diciembre 2007]
Para que la IT tenga éxito en satisfacer los requerimientos del negocio, la dirección
debe implantar un sistema de control interno o un marco de trabajo. El marco de
trabajo de control CObIT contribuye a estas necesidades de la siguiente manera:
La orientación al negocio que enfoca CObIT consiste en vincular las metas de negocio
con las metas de IT, brindando métricas y modelos de madurez para medir sus logros,
e identificando las responsabilidades asociadas de los propietarios de los procesos de
negocio y de IT.
Pero, ¿cómo puede la empresa poner bajo control la IT de tal manera que genere la
información que la empresa necesita? ¿Cómo puede administrar los riesgos y asegurar
los recursos de IT de los cuales depende tanto? ¿Cómo puede la empresa asegurar
que IT logre sus objetivos y soporte los del negocio?
8
Publicado por ISACA. ―CObIT Executive Summary & Framework‖
Medición del desempeño rastrea y monitorea la estrategia de implementación, la terminación del proyecto, el uso de los recursos,
el desempeño de los procesos y la entrega del servicio, con el uso, por ejemplo, de balanced scorecards que traducen la estrategia
en acción para lograr las metas que se puedan medir más allá del registro convencional.
Para lograr un gobierno efectivo, los ejecutivos esperan que los controles a ser
implementados por los gerentes operacionales se encuentren dentro de un marco de
control definido para todos los procesos de IT. Los objetivos de control de IT de CObIT
están organizados por proceso de IT; por lo tanto, el marco de trabajo brinda un vínculo
claro entre los requerimientos de gobierno de IT, los procesos de IT y sus controles.
CObIT se enfoca en qué se requiere para lograr una administración y un control
adecuado de la IT, y se posiciona en un nivel alto.
CObIT ha sido alineado y armonizado con otros estándares y mejores prácticas más
detallados de IT. Actúa como un integrador de todos estos materiales guía, resumiendo
los objetivos clave bajo un mismo marco de trabajo integral que también se vincula con
los requerimientos de gobierno y de negocios.
COSO33 (y similares marcos de trabajo) es generalmente aceptado como el marco de
trabajo de control interno para las empresas. CObIT es el marco de trabajo de control
interno generalmente aceptado para la IT.
33
HARRIS, TRISH, op.cit.
Modelos de madurez
Los modelos de madurez empezaron a ser requeridos por los directivos de empresas
corporativas y públicas al considerar qué tan bien se estaba administrando la IT. Para
poder responder a esto, se debe desarrollar un plan de negocio para mejorar y
alcanzar el nivel apropiado de administración y control sobre la infraestructura de
información. Se debe considerar el equilibrio del costo beneficio y estas preguntas
relacionadas:
Los niveles de madurez están diseñados como perfiles de procesos de IT que una
empresa reconocería como descripciones de estados posibles, actuales y futuros. No
están diseñados para ser usados como un modelo limitante, donde no se puede pasar
al nivel superior sin haber cumplido todas las condiciones del nivel inferior. En CObIT
se evalúan los 34 procesos definidos, identificando:
8
Publicado por ISACA. ―CObIT Executive Summary & Framework‖
8
Publicado por ISACA. ―CObIT Executive Summary & Framework‖
En el siguiente gráfico se trata de reflejar cómo interactúan todos y cada uno de los
procesos y estándares hasta aquí mencionados en el modelo de la IT.
39
Publicado por la IEEE Argentina. ―Que es ITIL‖
34
ITIL(INFORMATION TECHNOLOGY INFRASTRUCTURE LIBRARY). ―ITIL FAQ‖ [en línea]. Disponible
en Internet: http://www.itlibrary.org/index.php?page=ITIL_FAQ [Consulta: 11 Diciembre 2007]
35
CARNEGIE MELLON UNIVERSITY. 2007. ―What is CMMI?‖ [en línea]. Disponible en Internet:
http://www.sei.cmu.edu/cmmi/general/index.html [Consulta: 11 Diciembre 2007]
36
IT GOVERNANCE. 2007. ―What is ISO/IEC 27001?‖ [en línea]. Disponible en Internet:
http://www.27001.com/27001.aspx [Consulta: 11 Diciembre 2007]
37
OFFICE OF GOVERNMENT COMMERCE. 2007. ―What does PRINCE2 work?‖ [en línea]. Disponible
en Internet: http://www.ogc.gov.uk/methods_prince_2__whatisit.asp [Consulta: 11 Diciembre 2007]
38
THE INSTITUTE OF INTERNAL AUDITORS. 2007. ―About us‖. [en línea]. Disponible en Internet:
http://www.theiia.org/theiia/ [Consulta: 11 Diciembre 2007]
39
IEEE ARGENTINA. ―Que es ITIL‖ [en línea]. Disponible en Internet: www.ieee.org.ar/downloads/2006-
hrabinsky-itil.pdf [Consulta: 11 Diciembre 2007]
Sarbanes-Oxley40 (SOx).
Basel II41.
Payment Card Industry Data Security Standard 42 (PCI- DSS).
Wet Bescherming Persoonsgegevens43 (Personal Data Protection Act) (WBP).
Generally Accepted Accounting Principles in the United States44 (US GAAP).
US Export Control Regulations for encryption technologies 45.
40
SARBANES-OXLEY. ―Sarbanes-Oxley Act of 2002‖. [en línea]. Disponible en Internet:
http://www.sarbanes-oxley.com/section.php [Consulta: 04 Marzo 2008]
41
BASEL II - REVISED INTERNATIONAL CAPITAL FRAMEWORK. ―Convergencia internacional de
medidas y normas de capital‖. [en línea]. Disponible en Internet: http://www.bis.org/publ/bcbs107esp.htm
[Consulta: 04 Marzo 2008]
42
PCI SECURITY STANDART COUNCIL. ‖PCI Data Security Standard‖. [en línea]. Disponible en
Internet: https://www.pcisecuritystandards.org/ [Consulta: 04 Marzo 2008]
43
WET BESCHERMING PERSOONSGEGEVENS (WBP). ―Personal Data Protection Act‖. [en línea].
Disponible en Internet: http://home.planet.nl/~privacy1/wbp_en_rev.htm [Consulta: 04 Marzo 2008]
44
US GAAP. ―US GAAP by Topic‖. [en línea]. Disponible en Internet: http://cpaclass.com/gaap/gaap-us-
101.htm [Consulta: 04 Marzo 2008]
45
US DEPARTMENT OF COMMERCE. ―Introduction to Commerce Department Export Controls‖. [en
línea]. Disponible en Internet: http://www.bis.doc.gov/licensing/exportingbasics.htm [Consulta: 04 Marzo
2008]
Existe también la función Service Desk, que describe las mejores prácticas para
establecer y administrar un punto central de contacto entre los usuarios de los servicios
de la IT. Sus responsabilidades más importantes son monitorear los incidentes y la
comunicación con los usuarios.
En la figura siguiente se muestra como la función del Service Desk sirve como punto de
contacto para varios procesos de ITSM.
46
ITIL GLENFIS PORTAL. ―What is ITIL‖.[en línea]. Disponible en Internet:
http://www.itil.org/en/index.php [Consulta: 25 de Febrero del 2008]
47
ITIL OFFICIAL SITE. [en línea]. Disponible en Internet: http://www.itil-officialsite.com/home/home.asp
[Consulta: 25 de Febrero del 2008]
Publicado por Security Focus. ―How ITIL can improve Information Security‖48
48
SECURITY FOCUS. ―How ITIL can improve Information Security‖.[en línea]. Disponible en Internet:
http://www.securityfocus.com/infocus/1815 [Consulta: 25 de Febrero del 2008]
49
ITIL GLENFIS PORTAL, op.cit.
Con el gráfico 1.4.2-1 se tiene una rápida visión acerca de cómo funciona el servicio de
soporte y sus componentes. Las diferentes herramientas que se usan en ellos, como así
también sus respectivas interrelaciones.
50
ITIL GLENFIS PORTAL. ―ITIL V2 – ITSM Processes‖. [en línea]. Disponible en Internet:
http://www.itil.org/en/itilv2-itservmgmtprozesse/itilv2-itservicemanagementprozesse.php [Consulta: 25 de
Febrero del 2008]
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Support – Incident Management‖51
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Support – Problem Management‖52
51
ITIL GLENFIS PORTAL, op.cit.
53
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Support – Change Management‖
El manejo de todas las actividades asociadas con las nuevas y críticas versiones de
software (Sw), hardware (Hw) y documentación asociada, entrenamiento y plan de
comunicación, se conoce como gestión de nuevas versiones de Hw y Sw (Release
Management).
52
ITIL GLENFIS PORTAL, op.cit.
53
ITIL GLENFIS PORTAL, op.cit.
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Support – Release Management‖54
Dentro del modelo lógico de la infraestructura de la IT, existe una base de datos de
configuración (Configuration Management DataBase, CMDB), donde se registran
todos los ítems correspondientes a ella (Configuration Items, CI). Gestiona tareas que
incluyen identificación, control y verificación de todos los elementos de configuración y
versiones (infraestructura, hardware, software, aplicaciones, redes, documentación
relacionada con políticas, procedimientos, etc.)
55
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Support – Configuration Management‖
54
ITIL GLENFIS PORTAL, op.cit.
56
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Delivery‖
55
ITIL GLENFIS PORTAL, op.cit.
56
ITIL GLENFIS PORTAL, op.cit.
57
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Delivery- Level Management‖
57
ITIL GLENFIS PORTAL, op.cit.
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Delivery- Availability Management‖58
58
ITIL GLENFIS PORTAL, op.cit.
59
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Delivery- Capacity Management‖
59
ITIL GLENFIS PORTAL, op.cit.
60
Publicado por ITIL Org. ―ITIL V2 – ITSM Processes – Service Delivery- IT Service Continuity Mgmt‖
60
ITIL GLENFIS PORTAL, op.cit.
61
UNSW. ―Fundamentals of IT Security‖. [en línea]. Disponible en Internet:
http://www.itee.adfa.edu.au/coursework/ZITE2302/pdfs/FundamentalsOfITSecurity.pdf [Consulta: 01 de
Marzo del 2008]
Para entender mejor el alineamiento entre ITIL, ISO 17799 y CObIT, se hace mayor
referencia a ellos en los apéndices respectivos, donde cada sección de los procesos de
CObIT y los objetivos de control de alto nivel han sido mapeados a las secciones
específicas de ITIL e ISO 17799. Esta alineación está basada en un punto de vista
subjetivo y, por lo tanto, intentan ser solamente una guía. Existe, por parte de las
organizaciones que administran ITIL y CObIT, un plan para la armonización entre la
terminología y contenido de sus prácticas con otras deferentes, para permitir una fácil
integración.
La efectividad del uso de la IT es crítica para el éxito de la estrategia del negocio, como
menciona el IT Governace Institute62 (ITGI): ―El uso de la IT tiene el potencial para ser el
conductor principal de la riqueza económica en el siglo veintiuno. La IT es crítica para el
éxito de empresa, proporciona oportunidades de obtener ventajas competitivas y ofrece
un medio para aumentar la productividad; y será tanto más importante en el futuro".
62 nd
ITGI. 2003. ―Board Briefing of IT Governance 2 Edition‖.[en línea]. Disponible en Internet:
http://www.itgi.org [Consulta: 25 de Febrero del 2008]
63
SEI. ―What is CMMI?‖. [en línea]. Disponible en Internet:
http://www.sei.cmu.edu/cmmi/general/index.html [Consulta: 24 de Junio del 2008]
El proceso de mejora de objetivos permite que estos se alineen con los objetivos
empresariales.
El CMMI está a la vanguardia del proceso de mejora, ya que proporciona las últimas
mejores prácticas para productos y servicios de desarrollo y mantenimiento,
incorporando continuamente los hallazgos importantes.
El siguiente gráfico ilustra los objetivos genéricos, que son muestra de madurez,
acrónimo, área y categoría del proceso (gestión del proceso, de proyectos, ingeniería o
soporte).
Las capacidades de las diferentes áreas de proceso se combinan para evaluar el nivel
de madurez de la organización. En el gráfico 1.6.2-2 se puede observar la metodología;
para evaluar por ejemplo el nivel de madurez 2 (Managed), todas las áreas de proceso
son mostradas como el perfil buscado 2 (Target Profile 2), y deben ser evaluados los
objetivos específicos de las áreas de procesos involucradas, indicando si cumplen con
los objetivos genéricos y prácticas de capacidad del nivel correspondiente.
Esta sección contiene el resultado del mapeo de las áreas de procesos de CMMI con el
framework de alto nivel de objetivos de control y procesos, CObIT. El mapeo muestra en
la primera columna la lista de objetivos de control CObIT, la segunda es la cobertura,
indicada por las siglas.
Las áreas de procesos de CMMI se mapean con cada objetivo de control de CObIT de
acuerdo al nivel de madurez. Las reseñas adicionales del CMMI hacen referencia a los
objetivos y prácticas genéricas, las cuales se aplican a todas las áreas de procesos
mapeadas.
Por último, los productos integrados y los procesos de desarrollo (Integrated Product
and Process Development, IPPD) son una cobertura adicional cuando se hace
referencia a los mapas CObIT de requisitos. IPPD es un acercamiento sistemático que
integra todas las actividades del concepto de producto usando un equipo multifuncional,
para optimizar simultáneamente el producto y su fabricación, y encontrar objetivos de
interpretación y costos.
64
Publicado por ISACA
64
ISACA. ―COBIT MAPPING: MAPPING OF CMMI FOR DEVELOPMENT V1.2 WITH COBIT 4.0‖.[en
línea]. Disponible en: http://www.isaca.org/ContentManagement/ContentDisplay.cfm?ContentID=31452
[Consulta: 24 de Junio del 2008]
En el caso de las empresas de servicios la materia prima de los negocios son las
personas -con el aporte de conocimiento-. En las pertenecientes al sector electrónico,
el área de IT juega un factor fundamental ya que provee la infraestructura necesaria,
como así también los servicios, para que las personas proporcionen su capital
intelectual como materia prima, análogamente a aquellos sistemas que consisten en
líneas de producción de las manufactureras.
Todo esto en combinación con el modelo de madurez, da una idea del avance de los
procesos de la IT dentro de la empresa, que consta de los seis estados expuestos
anteriormente:
Como complemento Norton y Kaplan mencionan en su modelo de BSC que se debe ver
a la organización a partir de cuatro perspectivas (del aprendizaje y crecimiento, del
proceso de negocio, de clientes, y financiera) y desarrollar las métricas, recoger datos y
analizar lo concerniente a cada una de ellas. Estas perspectivas serán consideradas y
representadas a través de indicadores que reflejen una imagen representativa de la IT a
los directores y accionistas, como así también permitirán la comparación para el
benchmarking y la mejora continua, alineándose al mercado.
Los factores críticos para el éxito surgen de observar algunas preguntas tradicionales,
y las herramientas que la gerencia usa examinar las respuestas, como los tableros de
control, dashboards o scorecards, necesitan indicadores. Los cuadros de resultados,
de mediciones y las mejores prácticas o benchmarking de otras empresas líderes o
áreas de negocio, necesitan una escala común para la apropiada comparación entre
ellos. Dada la importancia de estos parámetros, se definirán cuales serían los
indicadores críticos para el éxito, las métricas que los representan y su integración en
un BSC, para proveer de ellos a las personas que necesitan tomar decisiones de valor
o alto impacto en la empresa.
La gerencia tiene conocimiento acerca del significado de las métricas, pero suele haber
falencias en cuanto a la base del cálculo para las mismas. Su frecuencia o ciclo de
actualización es mensual y en la mayoría de los indicadores no están fijados los límites
de control, y solamente en caso de no conformidad de una encuesta individual se
investiga la causa de la no satisfacción por parte de usuario final. Esto ocurre en la
totalidad de las sucursales a lo largo del mundo.
su denominación o nombre,
el propósito u objetivo de su adopción,
la fuente de datos,
la metodología de cálculo,
la responsabilidad sobre la colección de datos,
las herramientas a utilizar,
el lugar de reposición de los datos,
el período del reporte,
criterios de colección de datos y análisis de los mismos.
1) Su denominación o nombre.
2) El propósito u objetivo de su adopción.
3) La fuente de datos.
4) La metodología de cálculo.
5) La responsabilidad sobre la colección de datos.
6) Las herramientas a utilizar.
7) El lugar de reposición de los datos.
8) El período del reporte.
9) Criterios de colección de datos y análisis de los mismos.
Además, es indispensable que las métricas seleccionadas utilicen datos tanto obtenidos
del proceso como del repositorios de datos, asociados a mediciones de procesos
anteriores y que son relativamente estables o están bajo control.
PARTE II.
PROYECTO DMAIC. FASES
2. DEFINICIÓN DE OPORTUNIDADES
En conclusión esta etapa le permite a las empresas reconocer como sus procesos
afectan la rentabilidad y la satisfacción del cliente desarrollando un proyecto de mejora.
Durante esta etapa de implementación del Six Sigma:
- Se documenta la voz del cliente.
- Se crean mapas de proceso de alto nivel.
- Se forma un equipo de proyecto.
- Se crean los estatutos del proyecto.
Una herramienta comúnmente utilizada para recolectar datos del cliente es conocida
como Voice Of Customer (VOC). Se obtiene la información a través de encuestas o
entrevistas, lo que permite desarrollar específicamente los requerimientos críticos del
cliente (Customer Critical Requirements, CCR) y las prioridades asociadas.
Frecuentemente es empleada para generar entradas adicionales, desde el punto de
vista del cliente, tales como ideas y sugerencias, para la mejora o retroalimentación.
No se usan herramientas estructuradas, ya que la información puede estar incompleta y
desviada o no ser imparcial, debido a subjetividades en el punto de vista del cliente.
Para una visión más certera de las condiciones en las cuales estas métricas son
obtenidas y analizadas, se realizaron entrevistas a los responsables administrativos. Por
un lado, el Gerente Regional de IT (responsable para toda América, Europa y Asia)
planteó la necesidad de implementar este tipo de proyectos, las diferencias en cuanto a
formar, definir y calcular métricas, las formas de reportarlas, y las particularidades de
cada lugar. También enfatizó la relevancia de unificar criterios para lograr, con
indicadores inequívocos, tomar decisiones rápidas y acertadas al respecto.
Por otro lado, dos Directores de Negocios manifestaron lo significativo de contar con
gráficos de métricas que representen el estado del acuerdo de servicio firmado o
convenido. Con estos se examinan los valores y tendencias de los indicadores, para
realizar análisis adecuados del servicio recibido.
Por último, se mantuvieron entrevistas telefónicas con los Gerentes de IT de lugares
específicos (Canadá, Italia, Australia, India, China, Malasia, entre otros), y se los indagó
acerca de las definiciones de métricas y su implementación. Entre otros, los
cuestionamientos fueron:
1) Todos contaban con métricas relacionadas con la IT, que fueron surgiendo por la
necesidad de monitorear procesos, por reportes a clientes internos, o debido a
acuerdos de servicios brindados por ellos, que no eran estándares, sino
particulares definidos o indefinidos.
2) El listado fue variado, no existía en ese entonces un repositorio donde se las
pudiera encontrar fijadas por lugar. Cabe señalar que en el 2006 se comenzó a
trabajar en un tablero de control donde fuera más fácil acceder a las mismas por
sitios (ejemplos de estos se pueden encontrar en los apéndices respectivos),
con ello se logro el establecimiento de ciertas métricas –repositorio- pero no la
estandarización, ya que en cada lugar las fuentes y fórmulas de cálculo son
distintas aunque tengan el mismo nombre.
3) La frecuencia de reporte coincidió ser mensual, aunque en ciertos casos se
hacían semanales (si se encontraban en una situación crítica por requerimientos
externos o internos).
4) Respecto a las definiciones, objetivos y formas de cálculo se produce un vacío,
ya que en la mayoría de los lugares, incluido Argentina, no se cuenta con algún
marco de referencia sentado con toda esta información.
5) Los métodos de obtención de datos y las fuentes fueron diversos. Solo existe en
algunos sitios la herramienta de soporte de mesa de ayuda (Remedy - Help
Desk System), que provee datos de manera consistente, relacionados con
soporte de pedidos y solución de problemas referidos a la IT. Muchas oficinas
usaban herramientas propias, en vez de estándares de la empresa global.
A partir del VOC, trasladado a los requerimientos críticos del cliente (CCR), es posible
vislumbrar la necesidad, planteada como objetivo de la tesis, de definir y desarrollar
Métrica
Citando a McCarty et. al.65, en su libro The Six Sigma Black Belt Handbook sugieren que
las métricas debe ser:
Válida: Típicamente, múltiples métricas deben ser seleccionadas para hacer un seguimiento de
los logros de los objetivos estratégicos. El liderazgo asevera eso, sumado el conjunto, cada grupo
de las métricas soportadas muestran una razonable figura del estado de las metas estratégicas y
sus objetivos relacionados. A esto le llaman validez de la métrica.
Confiable: Las métricas no se puedan medir directamente sin tener en cuenta que el sistema de
medición de métricas; debe ser algo concreto para que cada uno pueda convenir en el mismo
valor medido de cada métrica. Esto es llamado confiabilidad de la métrica. Estas deben ser
confiables o de lo contrario son inútiles. Son sinónimos de confiabilidad: seguridad, consistencia,
repetibilidad, confianza. La confiabilidad la podemos plantear como la proporción entre la varianza
verdadera y la varianza total.
Calculadas con precisión: Diferenciando escalas, las métricas deben proveer datos precisos que
muestren cambios significativos en los objetos que se están midiendo. Precisión indica bajo error
en la medición.
65
MCCARTY, THOMAS; DANIELS, LORRAINE; BREMER MICHAEL; AND GUPTA, PRAVEEN. The
Six Sigma Black Belt Handbook. New York: McGraw-Hill Publishers, 2004.
Scorecard
Dashboard
Similar al scorecard, se utiliza para colectar y reportar información vital acerca de los
requerimientos del cliente y de la actuación del negocio con los clientes claves,
proveyendo de un rápido resumen de la performance de los procesos.
Benchmarking
En el marco CObIT fueron definidas las relaciones entre estas herramientas y sus
entradas o inputs en el gráfico 1.3.3 - 1 (bajo el nombre de ―Información gerencial‖)
2.3. SIPOC
Un diagrama SIPOC es una herramienta utilizada para identificar los elementos para la
mejora de los procesos en la empresa. Sus siglas corresponden a los siguientes
elementos: proveedores, entradas, proceso, salidas y clientes (Suppliers, Inputs,
Process, Outputs, Customers – SIPOC). Facilita la identificación de todos los
elementos relevantes, refinando el alcance y complejidad de los proyectos. Permite
crear un mapa de proceso de alto nivel que defina el alcance del mismo y sus
principales ingresos, salidas, proveedores y clientes. La herramienta SIPOC puede ser
entonces utilizada para identificar proyectos potenciales al separar las áreas de proceso
que necesitan ser mejoradas.
SIPOC Diagram
Suppliers Inputs Process Outputs Customers
Servicios Regionales Metas y Objetivos de Reducir el cicle time Cicle Time Áreas Internas del
de TI de la compañía. Negocios. de los procesos Satisfacción Negocio.
Servicios Scorecards. relacionados con las del cliente Gerencia Local
contratados a Acuerdo de niveles métricas respectivas Cost Gerencia Regional
terceros. de servicios de TI. Mejorar la Reduction Directorio
Sistema de Help Satisfacción del Accionistas
Desk. cliente.
Herramientas de
Monitoreo de TI.
Sistemas ERP.
Otra herramienta utilizada son los factores rápidos de éxito (Quick Wins) son aquellos
con los que se consigue un rápido impacto, con poco esfuerzo; se los conoce también
como ―las frutas más bajas del árbol‖ (low hanging fruits), que incluyen: la definición
de métricas estándares y la construcción de un BSC de IT, que permiten la
representación e interpretación ágil de las mismas, para la toma de decisiones basadas
en valores reales y actualizados.
Por último, en esta fase de definición, se presenta el Team Charter o listado de los
estatutos o compromisos del grupo y del proyecto en sí. Allí podemos identificar el caso
del negocio, los objetivos, el plan del proyecto, las oportunidades y alcance del mismo,
como así también las personas que participan.
En la segunda fase del proyecto DMAIC se mide el sistema existente. A partir de este,
se establecen métricas válidas y confiables para ayudar a monitorear el progreso hacia
los objetivos definidos en el paso anterior. Es decir, la situación actual determina la línea
base del proyecto, en primera instancia se usan métodos de análisis de datos
exploratorios por ejemplo para detectar errores en la digitación, códigos no validos,
valores atípicos, valores extremos, supuestos de normalidad y luego análisis de datos
estadísticos descriptivos que ayuden a entender la información más en detalle.
Se analiza en detalle el desempeño, a lo largo del proceso, y se obtienen las relaciones
causa-efecto entre todas las variables claves involucradas
Los indicadores de salida de los procesos (outputs) relacionados con CTQ, también son
comunes para CTP, y tienen por objeto:
Reducir el ciclo del proceso (cicle time), es decir tiempo que conlleva
realizar el mismo, mejorando la productividad y eficiencia (CTQ & CTP).
Mejorar la satisfacción del cliente (CTQ & CTP).
Reducir costos, o bien no incrementarlos, agregándoles tareas que no
tengan valor (CTP).
Es importante también analizar los factores de éxito rápido (Quick Wins), respecto a
lo planteado para el negocio, a la confiabilidad de datos, a la fuente de información,
unificación y representación a través de métricas comunes estándares.
6. Satisfacción del cliente – Satisfacción total del cliente con los servicios de
la IT (Customer Satisfaction – Overall Satisfaction with IT Services).
Para la determinación de esta métrica también existen valores mínimos y
esperados previamente definidos. Lo importante aquí, además de la escala y
objetivos uniformes en cada dependencia, es la confección de encuestas
comunes en todos los lugares. Estas deberían ser realizadas por terceros, tal que
asegure el anonimato, independencia y no desviación o tendencia de datos,
generadas por subjetividades entre las partes. Esto último es conducido y
analizado por el área de Procesos y Calidad, para asegurar que las encuestas
sean anónimas e independientes. Entre los apéndices 11 y 15 se pueden
observar los análisis realizados por este área.
Una correcta selección de los inputs asegura que las mejoras a introducir serán
superiores, y se denotan en los outputs. Para ello se emplea una matriz de causa-
efecto, en la cual se asignan prioridades a los inputs.
1. La performance de la medida.
2. La definición de operadores.
3. Fuente y ubicación de los datos.
4. Tamaño de la muestra.
5. Quién recolectará los datos.
6. Cuándo se recolectarán.
7. Cómo se recolectarán. .
8. Otros datos que deberían ser recolectados al mismo tiempo.
9. Para qué van a ser usados.
10. Cómo van a ser mostrados.
Los datos registrados entre enero del 2005 y octubre del 2007 serán
incluidos en el análisis, pero aquellos con causa asignable y los
excepcionales o especiales serán excluidos y analizados individualmente.
Aquellos outliers que correspondan al 5% o menos del tamaño de la muestra,
que son mayores al percentil 97.5; también serán excluidos del estudio,
siempre y cuando la exclusión provoque mejoras significantes en algunos de
los análisis realizados. Los outliers con análisis de causa ya realizada e
identificada y planes de acción definidos no serán contados tampoco.
66
MINITAB® 15.1.1.0. [en línea]. Disponible en Internet: http://www.minitab.com/products/
[Consulta: 25 de Febrero del 2008]
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10
Month
200
150
Resolution Time (hs)
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
250
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
Para otros modelos como ANOVA67 se usan gráficos de residuales versus valores
ajustados. También existen diagnósticos de medidas tales como Cook’s68 o DFITS69
para determinar si el outlier es una observación influyente.
67
ANOVA [en línea]. Disponible en Internet: http://www.uaem.mx/ebe/stat/secc7.html
[Consulta: 20 de Mayo del 2009]
68
COOK’S DISTANCE [en línea]. Disponible en Internet: http://en.wikipedia.org/wiki/Cook%27s_distance
[Consulta: 20 de Mayo del 2009]
69
DFFITS [en línea]. Disponible en Internet: http://en.wikipedia.org/wiki/DFFITS
[Consulta: 20 de Mayo del 2009]
Gráfico 3.6.2-1 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10
Month
Gráfico 3.6.2-2 Gráfico de cajas de Tickets (RT) por mes – Servicios 2006
200
150
Resolution Time (hs)
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
Gráfico 3.6.2-3 Gráfico de cajas Tickets (RT) por mes – Servicios 2005
250
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
M ean 13.755
S tDev 26.205
V ariance 686.687
S kew ness 3.0996
Kurtosis 11.3452
N 5283
M inimum 0.006
1st Q uartile 0.337
M edian 2.116
3rd Q uartile 18.981
0 35 70 105 140 175 210 M aximum 227.167
95% C onfidence Interv al for M ean
13.048 14.462
95% C onfidence Interv al for M edian
1.958 2.284
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
25.714 26.714
Mean
Median
2 4 6 8 10 12 14
M ean 11.785
S tDev 23.328
V ariance 544.185
S kew ness 3.5115
Kurtosis 14.8936
N 6429
M inimum 0.005
1st Q uartile 0.516
M edian 2.308
3rd Q uartile 16.415
0 30 60 90 120 150 180 M aximum 197.988
95% C onfidence Interv al for M ean
11.214 12.355
95% C onfidence Interv al for M edian
2.154 2.447
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
22.931 23.738
Mean
Median
2 4 6 8 10 12
M ean 13.849
S tDev 27.431
V ariance 752.466
S kew ness 3.4758
Kurtosis 15.4668
N 4701
M inimum 0.009
1st Q uartile 0.654
M edian 2.224
3rd Q uartile 17.968
0 40 80 120 160 200 240
M aximum 259.533
95% C onfidence Interv al for M ean
13.065 14.633
95% C onfidence Interv al for M edian
2.080 2.410
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
26.888 27.997
Mean
Median
2 4 6 8 10 12 14
Los gráficos de comportamiento (Run Charts) exhiben los datos en el orden en que
ellos fueron observados, se puede advertir si existen patrones obvios. Este test está
basado en el número total de corridas que ocurren por encima y por debajo de la de
mediana (Number of run about median), muestra si los datos están cerca de la
mediana (Mixtures) y si se aglomeran (Clustering).
Infiriendo sobre el comportamiento en los distintos años se tiene que: en el año 2005
existían valores de p>0.05, se tenían mezclas y no existían clusters (grupos o
conjuntos) de los datos; para los años 2006 y 2007 ya no había mezcla ni cluster de
acuerdo a los valores de p. Respecto al análisis de tendencia y oscilación (Number of
run up or down), hubo oscilaciones todos los años, pero no tendencias sistemáticas.
200
Resolution Time (hs)
150
100
50
0
1 20 40 60 80 100 120 140 160 180 200
Sample
Number of runs about median: 110 Number of runs up or down: 139
Expected number of runs: 103.5 Expected number of runs: 136.3
Longest run about median: 11 Longest run up or down: 4
Approx P-Value for Clustering: 0.819 Approx P-Value for Trends: 0.671
Approx P-Value for Mixtures: 0.181 Approx P-Value for Oscillation: 0.329
200
Resolution Time (hs)
150
100
50
0
1 20 40 60 80 100 120 140 160 180 200 220 240 260 280
Sample
Number of runs about median: 149 Number of runs up or down: 213
Expected number of runs: 145.0 Expected number of runs: 191.7
Longest run about median: 7 Longest run up or down: 4
Approx P-Value for Clustering: 0.682 Approx P-Value for Trends: 0.999
Approx P-Value for Mixtures: 0.318 Approx P-Value for Oscillation: 0.001
250
Resolution Time (hs)
200
150
100
50
0
1 20 40 60 80 100 120 140 160
Sample
Number of runs about median: 128 Number of runs up or down: 145
Expected number of runs: 85.0 Expected number of runs: 111.7
Longest run about median: 4 Longest run up or down: 3
Approx P-Value for Clustering: 1.000 Approx P-Value for Trends: 1.000
Approx P-Value for Mixtures: 0.000 Approx P-Value for Oscillation: 0.000
Antes de comenzar a examinar los gráficos de Pareto, cabe aclarar los conceptos de
definiciones de severidad e impacto que maneja la empresa estudiada.
MONET es el sistema de mesa de ayuda con el que cuenta la empresa.
Con lo anterior, puede observarse en los gráficos de Pareto, que reflejan los servicios
por severidad, que no más de un 5% del total corresponden a severidad alta o media.
Esto da una idea clara de la distribución de la población en cuanto a la severidad, lo
cual hace que un ticket de más alta severidad deba aguardar menos en su resolución
debido a su importancia, es decir, priorizado sobre los otros.
Las categorías están definidas previamente y la IT tiene la facultad de re-categorizar los
datos de acuerdo a ellas.
MONET
Severity = Critical Severity = High Sy stem
4800 of Record
MONET
3600
2400
1200
Count
3 8
0
Severity = Low Severity = Medium
4928
4800
3600
2400
1200
344
0
MONET
System of Record
4500
3000
13 1500
Count
0
Severity = Medium
6000
4500
3000
345
1500
0
MONET
Tickets
3000
2000
1000
Count
7
0
Severity = Medium
4000
3000
2000
1000
247
0
MONET
Tickets
En el caso de los gráficos de Pareto de los servicios por impacto, se observa que
aproximadamente un 2% del total corresponden a aquellos individuales.
4500
3000
1500
Count
6 81
0
Impact = External Customer Impact = Individual
6000 5437
4500
3000
1500
3
0
MONET
Ticket
4500
3000
1500
9 96
Count
0
Impact = External Customer Impact = Individual 6308
6000
4500
3000
1500
13
0
MONET
Tickets
3000
2000
1000
3 70
Count
0
Impact = External Customer Impact = Individual 4627
4000
3000
2000
1000
1
0
MONET
Tickets
Los integrantes del grupo de la IT tienen asignadas diferentes actividades. Hay quienes
están enfocados principalmente al soporte de primer nivel, y son aquellos que más
tickets resueltos tienen; otros miembros con más experiencia manejan otras tareas del
área y sólo parcialmente dedicados a la resolución de tickets, que dependerá de su
complejidad.
Se advierte que quizás se debería analizar más en profundidad la utilización del tiempo
destinado a la resolución de tickets, correspondiente a cada uno de los recursos, en
función a sistema de reportes de actividades.
Tick ets -
Serv ice
1000 763 2007
305 MONET
0
O w ner C ore ID = F M XP 43 O w ner C ore ID = F Q G 846 O w ner C ore ID = Q BWD64
2000
Count
962
754
1000
557
0
O w ner C ore ID = TC Q N 73
2000 MO NET
1000
64
0
MO NET
System of Record
1000
256
0
O w ner C ore ID = A RG 031 O w ner C ore ID = F M XP 43 O w ner C ore ID = F Q G 846
2000
Count
831 1000
270
120
0
O w ner C ore ID = Q BWD64
MO NET
2000
1000
445
0
MO NET
Tickets
1500
1268
1000
500
240
Count
0
IT Members = AMT038 IT Members = ARC038 IT Members = ARG031
2000
1500
1000
521 543
500
2
0
MONET MONET
Tickets
2000
1000
474
Count
30
0
Bucket = 3 DA YS Bucket = 4 DA YS Bucket = 6 DA YS
4000
3000
2000
1000
183 124 110
0
MO NET MO NET
System of Record
4500
3000
1500
448
Count
30
0
Buck et = 3 DAYS Buck et = 4 DAYS Buck et = 6 DAYS
6000
4500
3000
1500
173 119 95
0
MONET MONET
Tickets
3000
2000
1000
267
Count
36
0
Buck et = 3 DAYS Buck et = 4 DAYS Buck et = 6 DAYS
4000
3000
2000
1000
163 133 78
0
MONET MONET
Tickets
De los gráficos que prosiguen, los pertenecientes al año 2005 indican que el tiempo en
cola (Backlog Bucket) o espera de un ticket que no tiene asignada una persona del
área de IT o agente era como máximo de 6 días. Por otro lado, el 82% de los outliers
no pasaban de un día en espera. En el 2006 se pasó a un máximo de entre 7 y 14 días,
Gráfico 3.6.5-13 Pareto de Tickets por días de espera (agrupados) – Servicios 2007
2400
1200
Count
5 109
0
Backlog Bucket = 3 DA YS Backlog Bucket = 4 DA YS Backlog Bucket = 6 DA YS
4800
3600
2400
1200
94 37 23
0
MO NET MO NET
System of Record
Gráfico 3.6.5-14 Pareto de Tickets por días de espera (agrupados) – Servicios 2006
4500
3000
1500
Count
13 176
0
Backlog Buck et = 3 DAYS Back log Buck et = 4 DAYS Back log Buck et = 6 DAYS
6000
4500
3000
1500
118 64 42
0
MONET MONET
Tickets
Gráfico 3.6.5-15 Pareto de Tickets por días de espera (agrupados) – Servicios 2005
60
40
20
3
Count
1
0
Back log Buck et = 4 DAYS Back log Buck et = 6 DAYS MONET
80
60
40
20
4 4
0
MONET
Tickets
En el año 2007 el 99,84% de las encuestas de satisfacción del cliente (CSS) fueron
positivas. Para el 2006 este valor fue del 99,86%, y en el 2005 del 99,91%. Lo que
denota una disminución en la satisfacción, aunque no significativa.
Por otro lado el porcentaje de las encuestas individuales por ticket de satisfacción, que
no fueron contestadas, en el 2007 alcanzaron el 37%, siendo que en el 2005 fue del
22%, con lo cual se concluye que ha aumentado la falta de retroalimentación disponible
por el usuario sobre el servicio recibido.
En lo que respecta a estas cuestiones, se podría considerar como costo de la calidad
(Cost Of Quality, COQ) a la cantidad de tickets cuyas CSS fueron reportadas como
satisfechas, de allí se obtuvo:
Esto indica que el COQ estaría dentro del 0,2 % en relación con los servicios.
Gráfico 3.6.5-16 Pareto de satisfacción del cliente por ticket – Servicios 2007
1000
5
Count
0
M onet C S S Results = S urv ey not C ompleted
3000
1954
2000
1000
0
MONET
Tickets
Gráfico 3.6.5-17 Pareto de satisfacción del cliente por ticket – Servicios 2006
3000
2000
1000
Count
6
0
M onet C S S Results = S urv ey not C ompleted
4000
3000
2125
2000
1000
0
MONET
Tickets
Gráfico 3.6.5-18 Pareto de satisfacción del cliente por ticket – Servicios 2005
3000
2000
1000
Count
3
0
M onet C S S Results = S urv ey not C ompleted
4000
3000
2000
1062
1000
0
MONET
Tickets
En base al mismo criterio anterior, fue analizado el costo de la no calidad o COPQ (Cost
Of Poor Quality) de acuerdo a tickets que fueron reabiertos (re-opened). Los COPQ
implican un re-trabajo, ya que no fueron resueltos desde el punto de vista del usuario
final. Aunque, el área de la IT los había considerado como solucionados. Los datos
reflejaron los siguientes porcentajes por año:
Esto indica que el COPQ se mantuvo aproximadamente constante, dentro del 0,5%
en relación con los servicios.
Con esto tenemos que el CTQ está alrededor del 0,7% del total de servicios, dado
que: CTQ = COQ + COPQ.
4000
Count
3000
2000
1000
26
0
MONET
Tickets
5000
Count
4000
3000
2000
1000
31
0
MONET
Tickets
4000
3000
Count
2000
1000
27
0
MONET
Tickets
Cabe señalar que en esta sección 3.7 (tickets relacionados con problemas) se
realizara el mismo análisis estadístico que el realizado en la sección 3.6 (tickets
relacionados con servicios) por ende aquellos que no estén interesados en ver los
resultados estadísticos podrán obviar la lectura de esta sección.
Se lleva a cabo el análisis de aquellos tickets clasificados como problemas. Al igual que
en el ítem anterior, se abarcan los años 2005, 2006 y 2007. En esta sección se
representan los gráficos y tablas estadísticas más comunes, que permiten estimar el
comportamiento de los mismos.
En estos gráficos se reflejan las distribuciones de los tickets de problemas por mes. En
los años registrados se obtuvo que los valores máximos entre las 100 y 120 horas
(equivalente a 5 días), considerando el tiempo fuera del horario de soporte, como así
también feriados y fines de semana. También aquí, es importante destacar que el
tiempo de resolución (Resolution Time, RT) es calculado como el tiempo total desde
que se abrió el ticket, menos el tiempo que está en espera de una respuesta del usuario
sobre más información o disponibilidad; en caso de requerir soporte solicitado a terceras
empresas, como contratación de equipos, este también es restado del total.
Como resultado se manifiestan las variaciones en las cantidades, dependiendo del mes,
y se concluye que en el 2006 los tiempos individuales máximos tuvieron un mejor
tiempo de respuesta que en los otros dos años.
100
80
Resolution Time (hs)
60
40
20
01 02 03 04 05 07 08 09 10
Month
70
60
Resolution Time (hs)
50
40
30
20
10
01 02 03 04 05 06 07 08 09 10 11 12
Month
120
100
Resolution Time (hs)
80
60
40
20
01 02 04 05 06 07 08 09 10 11 12
Month
En el caso de análisis de problemas se tiene poca cantidad de tickets por mes, y existe
variación del RT entre ellos, por lo que los boxplots son más extensos que aquellos
obtenidos para servicios, demostrando mayor diferencia entre cuartiles.
La cantidad de datos es de 85 tickets para el 2005, 71 tickets para el 2006 y 27 tickets
para el 2007.
Las gráficas evidencian que en el año 2006 existe una mayor perfomance en cuanto al
RT de los problemas, algunos de mayor complejidad suelen corresponder a los outliers.
Se revelan más detalles al ir analizando el resto de los gráficos, que brindan información
diversa para poder tener una idea más global de los datos y su significado.
Gráfico 3.7.2-1 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2007
100
80
Resolution Time (hs)
60
40
20
01 02 03 04 05 07 08 09 10
Month
Gráfico 3.7.2-2 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2006
70
60
Resolution Time (hs)
50
40
30
20
10
01 02 03 04 05 06 07 08 09 10 11 12
Month
Gráfico 3.7.2-3 Gráfico de Cajas de Tickets (RT) por mes – Problemas 2005
120
100
Resolution Time (hs)
80
60
40
20
01 02 04 05 06 07 08 09 10 11 12
Month
M ean 20.056
S tDev 29.688
V ariance 881.387
S kew ness 1.61790
Kurtosis 1.75041
N 27
M inimum 0.059
1st Q uartile 0.614
M edian 1.728
3rd Q uartile 24.535
0 20 40 60 80 100 M aximum 99.040
95% C onfidence Interv al for M ean
8.312 31.800
95% C onfidence Interv al for M edian
0.923 24.213
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
23.380 40.686
Mean
Median
0 5 10 15 20 25 30
M ean 18.584
S tDev 22.860
V ariance 522.587
S kew ness 1.08048
Kurtosis -0.22835
N 71
M inimum 0.026
1st Q uartile 1.538
M edian 5.414
3rd Q uartile 28.696
0 16 32 48 64 M aximum 71.791
95% C onfidence Interv al for M ean
13.173 23.994
95% C onfidence Interv al for M edian
2.872 20.615
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
19.621 27.391
Mean
Median
0 5 10 15 20 25
M ean 22.706
S tDev 34.735
V ariance 1206.552
S kew ness 1.72738
Kurtosis 1.70031
N 85
M inimum 0.029
1st Q uartile 0.646
M edian 4.315
3rd Q uartile 24.435
0 20 40 60 80 100 120 M aximum 123.203
95% C onfidence Interv al for M ean
15.213 30.198
95% C onfidence Interv al for M edian
2.244 14.373
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
30.184 40.916
Mean
Median
0 5 10 15 20 25 30
Los gráficos de comportamiento (Run Charts) exhiben los datos en el orden en que
ellos fueron observados, se puede advertir si existen patrones sistemáticos o no
aleatorios.
Este test está basado en el número total de corridas que ocurren por encima y por
debajo de la de mediana (Number of run about median), muestra si los datos están
cerca de la mediana (Mixtures) y aglomeramiento (Clustering).
El comportamiento advertido en los años 2005, 2006 y 2007 muestra que no existían
valores de p<0.05, no hubo mezcla, ni aglomeramiento de datos. A su vez, no se
hallaron tendencias ni oscilaciones entre ellos.
80
Resolution Time (hs)
60
40
20
0
1 2 3 4 5 6 7 8 9 10
Sample
Number of runs about median: 4 Number of runs up or down: 7
Expected number of runs: 6.0 Expected number of runs: 6.3
Longest run about median: 4 Longest run up or down: 2
Approx P-Value for Clustering: 0.090 Approx P-Value for Trends: 0.710
Approx P-Value for Mixtures: 0.910 Approx P-Value for Oscillation: 0.290
60
50
40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14
Sample
Number of runs about median: 7 Number of runs up or down: 8
Expected number of runs: 8.0 Expected number of runs: 9.0
Longest run about median: 4 Longest run up or down: 4
Approx P-Value for Clustering: 0.289 Approx P-Value for Trends: 0.248
Approx P-Value for Mixtures: 0.711 Approx P-Value for Oscillation: 0.752
120
Resolution Time (hs)
100
80
60
40
20
0
1 2 3 4 5 6 7 8 9 10 11 12
Sample
Number of runs about median: 9 Number of runs up or down: 9
Expected number of runs: 7.0 Expected number of runs: 7.7
Longest run about median: 3 Longest run up or down: 2
Approx P-Value for Clustering: 0.887 Approx P-Value for Trends: 0.839
Approx P-Value for Mixtures: 0.113 Approx P-Value for Oscillation: 0.161
El análisis expuso que en el 2005 menos del 20% del total corresponden a severidad
alta o media. Para el 2006 el valor alcanzó el 21% y el mismo para el 2007 fue de 18%.
15
10
3 5
Count
0
Severity = Medium
20
15
10
5
2
0
MONET
Tickets
45
30
15
Count
1
0
Severity = Medium
60
45
30
15 14
0
MONET
Tickets
45
30
15
Count
1
0
Severity = Medium
60
45
30
15
15
0
MONET
Tickets
En el caso de los gráficos de Pareto de los servicios por impacto, se observa entre el
7,5 y 8,5% del total corresponden a aquellos individuales.
20
Count
15
10
5
2
0
MONET
Tickets
45
30
15
4
Count
0
Impact = Motorola
60
45
30
15
2
0
MONET
Tickets
70
60
50
Count
40
30
20
10 7
0
MONET
Tickets
0
IT M embers = C KR024 IT M embers = F M XP 43 IT M embers = Q BWD64
10
Count
0
IT M embers = TC Q N 73
10 MO NET
0
MO NET
Tickets
20
15
11
10
1
0
IT M ember = Q BWD64
MO NET
20
10
1
0
MO NET
Tickets
45
30
10 15
8
Count
0
IT Members = ARC038 IT Members = ARG031 MONET
60
45
30
15
6
1
0
MONET
Tickets
En los gráficos que prosiguen, se indica el tiempo de resolución de los tickets (Bucket
Time) de problemas, agrupándolos en días. Se tiene que un gran porcentaje
(aproximadamente el 66%) de los mismos son resueltos dentro del mismo día, y la
distribución muestra una disminución en el transcurso de los días subsiguientes.
15
10
4 5
3
Count
0
Buck et = 4 DAYS Buck et = 6 DAYS MONET
20
15
10
5
1 1
0
MONET
Tickets
30
20
12
10
Count
0
Bucket = 3 DAYS
40
30
20
12
10
0
MONET
Tickets
45
30
15
6
Count
1
0
Buck et = 3 DAYS Buck et = 4 DAYS Buck et = 6 DAYS
60
45
30
15
7
4 4
0
MONET MONET
Tickets
El primer gráfico indica que en el 2005 el tiempo en cola o espera de un ticket, que no
tenía asignado un agente de IT, era como máximo de 6 días. Aunque los outliers, y con
alto porcentaje (82%), no pasaban de un día en espera. En el 2006 se pasa a un
máximo de 2 días, pero un 83% no demoraba más de un día. Finalmente en el 2007, el
máximo fue de 3 días, aunque el 92% contaba con tiempos menores al día.
Gráfico 3.7.5-13 Pareto de Tickets por días de espera (agrupados) – Problemas 2007
18
12
6
Count
1
0
Backlog Bucket = 3 DAYS
24
18
12
6
1
0
MONET
Tickets
Gráfico 3.7.5-14 Pareto de Tickets por días de espera (agrupados) – Problemas 2006
40
Count
30
20
10 12
0
MONET
Tickets
Gráfico 3.7.5-15 Pareto de Tickets por días de espera (agrupados) – Problemas 2005
60
40
20
3
Count
1
0
Back log Buck et = 4 DAYS Back log Buck et = 6 DAYS MONET
80
60
40
20
4 4
0
MONET
Tickets
Esto indica que el COQ estaría dentro del 0,2 % en relación con los servicios.
Gráfico 3.7.5-16 Pareto de satisfacción del cliente por ticket – Problemas 2007
15
Count
10
8
0
MONET
Tickets
Gráfico 3.7.5-17 Pareto de satisfacción del cliente por ticket – Problemas 2006
40
30 28
Count
20
10
0
MONET
Tickets
Gráfico 3.7.5-18 Pareto de satisfacción del cliente por ticket – Problemas 2005
50
40
Count
30 26
20
10
0
MONET
Tickets
Con esto tenemos que el CTQ está alrededor del 0,3% del total de servicios, dado
que: CTQ = COQ + COPQ.
80
20
Percent
Count
60
15
40
10
5 20
0 0
Tickets MONET
Count 27
Percent 100.0
Cum % 100.0
60
80
50
Percent
Count
60
40
30 40
20
20
10
0 0
Tickets MONET
Count 71
Percent 100.0
Cum % 100.0
80
70
60
Count
50
40
30
20
10
1
0
MONET
Tickets
4. ANÁLISIS DE OPORTUNIDADES
Esta es la etapa que ayuda a las empresas a establecer la relación entre las variables
de respuesta (Ys) y las de control (Xs) de proceso. Durante esta etapa de
implementación de Six Sigma:
Este análisis permite identificar las maneras de eliminar la diferencia entre la actual
performance del sistema y el objetivo deseado; guiado a través de herramientas
estadísticas.
Como es práctica común, en empresas que hacen manejo de cálculos estadísticos para
estudios de capacidad y estabilidad de los procesos, se analizarán aquellos puntos que
son outliers. Estos implican casos especiales, y para ellos se definen planes de acción,
teniendo en cuenta la regla de no remover más del 5% del total de la muestra.
Los perfiles habilitados para los tickets son los servicios, problemas y pedidos de
cambio. Cabe mencionar que estos últimos han sido implementados recientemente y no
existe historia suficiente para su análisis en profundidad.
600
500
Resolution Time (hs)
400
300
200
100
01 02 03 04 05 06 07 08 09 10
Month
Gráfico 4.1.1-2 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007
600
500
Resolution Time (hs)
400
300
200
100
01 02 03 04 05 06 07 08 09 10
Month
Gráfico 4.1.1-3 Resumen de estadística Tickets (RT) por mes – Servicios 2007
M ean 14.189
StDev 29.035
V ariance 843.015
Skew ness 5.2145
Kurtosis 62.9354
N 5291
M inimum 0.006
1st Q uartile 0.338
M edian 2.119
3rd Q uartile 19.024
0 100 200 300 400 500 600 M aximum 668.903
95% C onfidence Interv al for M ean
13.406 14.971
95% C onfidence Interv al for M edian
1.968 2.287
95% C onfidence Interv al for StDev
9 5 % Confidence Inter vals
28.492 29.599
Mean
Median
2 4 6 8 10 12 14
Con tales correcciones (remoción del 0.1% outliers) se reelaboraron los gráficos,
presentados a continuación.
Gráfico 4.1.1-4 Valores individuales (RT) por mes – Servicios 2007 - corregida
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10
Month
Gráfico 4.1.1-5 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2007 - corregida
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10
Month
Gráfico 4.1.1-6 Resumen de estadística Tickets (RT) por mes – Servicios 2007 -
corregida
M ean 13.755
S tDev 26.205
V ariance 686.687
S kew ness 3.0996
Kurtosis 11.3452
N 5283
M inimum 0.006
1st Q uartile 0.337
M edian 2.116
3rd Q uartile 18.981
0 35 70 105 140 175 210 M aximum 227.167
95% C onfidence Interv al for M ean
13.048 14.462
95% C onfidence Interv al for M edian
1.958 2.284
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
25.714 26.714
Mean
Median
2 4 6 8 10 12 14
Minitab aplica el LRT70 (likelihood ratio test) que es un test estadístico de bondad de
ajuste entre diferentes modelos, en este caso Minitab utiliza 10 modelos para el ejecutar
el mismo.
El test de bondad de ajuste o LRT determina cuando un modelo estadístico se ajusta a
los datos analizando la diferencia de los valores observados y los valores esperados en
el modelo. Para datos continuos, se puede valorar la bondad de ajuste visualmente con
un grafico de probabilidad, o cuantitativamente con test de hipótesis tal como el de
Anderson-Darling test.
Cuanto menor sea el valor de p, el test rechaza más fuerte la hipótesis nula, es decir,
aceptando la hipótesis propuesta (H1).
Precisamente, los diferentes test estadísticos permiten conocer la magnitud de este tipo
de error alfa. También, si no rechazamos la hipótesis nula, existe la posibilidad de que
en realidad no sea cierta, es decir, que haya diferencias entre los grupos. El error que
se comete en este segundo caso se denomina error tipo II o tipo beta.
Así mismo, se entiende que si somos muy exigen aumentamos las posibilidades de no
rechazarla cuando en realidad no es cierta (tendremos mayor posibilidad de cometer un
error beta).
Por el contrario si somos menos exigentes con el error alfa, disminuimos el error beta y
aumentamos la potencia del test estadístico para detectar diferencias.
Distribution AD P LRT P
Normal 786.331 <0.005
Box-Cox Transformation 36.039 <0.005
Lognormal 54.980 <0.005
3-Parameter Lognormal 58.053 * 0.000
Exponential 2369.525 <0.003
2-Parameter Exponential 2371.853 <0.010 0.132
Weibull 36.042 <0.010
3-Parameter Weibull 28.179 <0.005 0.000
Smallest Extreme Value 1009.694 <0.010
Largest Extreme Value 645.698 <0.010
Gamma 77.189 <0.005
Observando con mayor detenimiento los datos y haciendo referencia al teorema central
del límite y plantea que para un tamaño de muestra grande, la distribución de la
media muestral será aproximadamente normal; se decidió realizar el análisis basado
en las medias semanales -en vez de mensuales- para aumentar el tamaño de muestra.
Una vez calculadas las medias semanales de los tickets por servicio del año 2007, se
aplicó un programa conveniente para su evaluación. Se obtuvo la siguiente tabla:
M ean 13.904
S tDev 5.046
V ariance 25.459
S kew ness 0.176600
Kurtosis 0.220309
N 43
M inimum 2.139
1st Q uartile 10.300
M edian 14.300
3rd Q uartile 17.120
6 12 18 24
M aximum 25.420
95% C onfidence Interv al for M ean
12.351 15.457
95% C onfidence Interv al for M edian
11.841 15.109
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
4.160 6.413
Mean
Median
12 13 14 15
El error estándar de la media (SE media) es una indicación de cuan cerca la media
muestral esta de la media de población cuya ecuación es σ / √ n.
También podemos decir que SE media es la desviación estándar de aquellas medias
muestrales tomadas desde la población.
Con la distribución anterior se consigue un valor de P=0.669, que cumple con el test de
normalidad, posibilitando el apropiado análisis de los datos. Empleando la herramienta
six pack analisis de Minitab, se logra un gráfico integrado, con los datos estadísticos
necesarios para realizar aquellos correspondientes al control de calidad.
Se evidencia, con la nueva distribución, que los datos son normales, y otorgan los
valores de límites -superior e inferior- de procesos y de la capacidad de este. Es
preciso señalar que en este caso existe un límite físico inferior, dado que un servicio no
puede resolverse en menos de cero horas.
Se hace un estudio posterior de la capacidad del proceso, fijando el límite inferior como
boundary; luego se realizan los cálculos del Cp (Process Capability) y del Cpk
(Process Capability Index), que se relacionan con el límite superior de especificaciones
(upper limit). Con esta restricción, se logra centrar el proceso y hacer que coincida el
índice Cpu (Process Capability relative to upper specification limit) con el Cpk.
Todos los índices mencionados permiten medir la capacidad del proceso, mientras
mayores a 1 sean sus valores indican que aquel es más capaz de cumplir con las
especificaciones que se le demandan.
Se obtuvieron índices de Cpu y Cpk mayores a 2, lo que asegura una apropiada
capacidad del proceso; además se muestra centrado con más de seis sigmas.
20
_ LS L 0
X=13.90 U S L 720
10
LCL=2.79
0
1 5 9 13 17 21 25 29 33 37 41 0 96 192 288 384 480 576 672
8
__
MR=4.18
0 LCL=0
1 5 9 13 17 21 25 29 33 37 41 0 10 20 30
Cp 32.38 Pp 23.78
16 O v erall
C pk 1.25 P pk 0.92
C pm *
8 S pecs
20 25 30 35 40
Observation
LB Target USL
P rocess Data Within
LB 0 Ov erall
Target 360
USL 720 P otential (Within) C apability
S ample M ean 13.9043 Cp *
S ample N 43 C PL *
S tDev (Within) 3.7055 C P U 63.52
S tDev (O v erall) 5.04573 C pk 63.52
O v erall C apability
Pp *
PPL *
PPU 46.65
P pk 46.65
C pm 0.34
En cuanto al año 2006, los datos fueron tratados del mismo modo que aquellos
correspondientes al 2007.
Haciendo referencia al teorema central del límite y plantea que para un tamaño de
muestra grande, la distribución de la media muestral será aproximadamente
normal; se decidió realizar el análisis basado en las medias semanales -en vez de
mensuales- para aumentar el tamaño de muestra.
200
150
Resolution Time (hs)
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
Gráfico 4.1.2-2 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2006
200
150
Resolution Time (hs)
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
M ean 11.785
S tDev 23.328
V ariance 544.185
S kew ness 3.5115
Kurtosis 14.8936
N 6429
M inimum 0.005
1st Q uartile 0.516
M edian 2.308
3rd Q uartile 16.415
0 30 60 90 120 150 180 M aximum 197.988
95% C onfidence Interv al for M ean
11.214 12.355
95% C onfidence Interv al for M edian
2.154 2.447
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
22.931 23.738
Mean
Median
2 4 6 8 10 12
Una vez calculadas las medias semanales de los tickets por servicio del año 2006, se
aplicó un programa conveniente para su evaluación. Se obtuvo la siguiente tabla.
M ean 11.588
S tDev 3.494
V ariance 12.207
S kew ness 0.318824
Kurtosis 0.376165
N 53
M inimum 5.990
1st Q uartile 8.305
M edian 11.900
3rd Q uartile 13.875
8 12 16 20
M aximum 22.590
95% C onfidence Interv al for M ean
10.625 12.551
95% C onfidence Interv al for M edian
10.858 13.092
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
2.933 4.323
Mean
Median
Con la distribución anterior se consigue un valor de P=0.091, que cumple con el test de
normalidad, posibilitando el apropiado análisis de los datos. Empleando la herramienta
six pack análisis de Minitab, se logra un gráfico integrado, con los datos estadísticos
necesarios para realizar aquellos correspondientes al control de calidad.
Se evidencia, con la nueva distribución, que los datos son normales, y otorgan los
valores de límites -superior e inferior- de procesos y de la capacidad de este. Es
preciso señalar que en este caso existe un límite físico inferior, dado que un servicio no
puede resolverse en menos de cero horas.
Se hace un estudio posterior de la capacidad del proceso, fijando el límite inferior como
boundary; luego se realizan los cálculos del Cp (Process Capability) y del Cpk
(Process Capability Index), que se relacionan con el límite superior de especificaciones
(upper limit). Con esta restricción, se logra centrar el proceso y hacer que coincida el
índice Cpu (Process Capability relative to upper specification limit) con el Cpk.
S pecifications
Individual Value
UCL=18.24 LS L 0
16
_ U S L 720
X=11.59
8
LCL=4.93
1 6 11 16 21 26 31 36 41 46 51 0 94 188 282 376 470 564 658
UCL=8.17
5
__
MR=2.50
0 LCL=0
1 6 11 16 21 26 31 36 41 46 51 5 10 15 20
15 Cp 54.11 Pp 34.35
O v erall
C pk 1.74 P pk 1.11
10 C pm *
S pecs
30 35 40 45 50
Observation
LB USL
P rocess Data Within
LB 0 Ov erall
Target *
USL 720 P otential (Within) C apability
S ample M ean 11.5882 Cp *
S ample N 53 C PL *
S tDev (Within) 2.21781 C P U 106.47
S tDev (O v erall) 3.4939 C pk 106.47
O v erall C apability
Pp *
PPL *
PPU 67.59
P pk 67.59
C pm *
Al igual que en el año 2007, para el año 2006 los datos del proceso quedan centrados, y
coinciden los índices Cpu y Cpk. Asimismo son mayores a 2, asegurando un proceso
con adecuada capacidad y centrado con más de seis sigmas.
Nuevamente se aplican los criterios hasta aquí usados para los años anteriores (2007 y
2006). Obteniendo para el 2005 los resultados que se exponen en lo que siguientes
gráficos en forma mensual de los servicios.
250
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
Gráfico 4.1.3-2 Gráfico de Cajas de Tickets (RT) por mes – Servicios 2005
250
200
Resolution Time (hs)
150
100
50
01 02 03 04 05 06 07 08 09 10 11 12
Month
Gráfico 4.1.3-3 Resumen de estadística Tickets (RT) por mes – Servicios 2005
M ean 13.849
S tDev 27.431
V ariance 752.466
S kew ness 3.4758
Kurtosis 15.4668
N 4701
M inimum 0.009
1st Q uartile 0.654
M edian 2.224
3rd Q uartile 17.968
0 40 80 120 160 200 240 M aximum 259.533
95% C onfidence Interv al for M ean
13.065 14.633
95% C onfidence Interv al for M edian
2.080 2.410
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals 26.888 27.997
Mean
Median
2 4 6 8 10 12 14
Tampoco en este año se encuentra una distribución normal al trabajar con medias
mensuales de servicios, y se procede con la evaluación de las semanales.
M ean 13.707
S tDev 4.754
V ariance 22.602
S kew ness 0.533858
Kurtosis -0.310965
N 52
M inimum 5.850
1st Q uartile 10.260
M edian 13.270
3rd Q uartile 16.718
5 10 15 20 25
M aximum 26.360
95% C onfidence Interv al for M ean
12.384 15.031
95% C onfidence Interv al for M edian
11.031 15.025
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
3.984 5.896
Mean
Median
11 12 13 14 15
Con la distribución anterior se consigue un valor de P=0.109, que cumple con el test de
normalidad, posibilitando el apropiado análisis de los datos. Empleando la herramienta
six pack análisis de Minitab, se logra un gráfico integrado, con los datos estadísticos
necesarios para realizar aquellos correspondientes al control de calidad.
Se evidencia, con la nueva distribución, que los datos son normales, y otorgan los
valores de límites -superior e inferior- de procesos y de la capacidad de este. Es
preciso señalar que en este caso existe un límite físico inferior, dado que un servicio no
puede resolverse en menos de cero horas.
Se hace un estudio posterior de la capacidad del proceso, fijando el límite inferior como
boundary; luego se realizan los cálculos del Cp (Process Capability) y del Cpk
(Process Capability Index), que se relacionan con el límite superior de especificaciones
(upper limit). Con esta restricción, se logra centrar el proceso y hacer que coincida el
índice Cpu (Process Capability relative to upper specification limit) con el Cpk.
S pecifications
20
_
LS L 0
X=13.71 U S L 720
10
LCL=2.61
0
1 6 11 16 21 26 31 36 41 46 51 0 95 190 285 380 475 570 665
10
5 __
MR=4.17
0 LCL=0
1 6 11 16 21 26 31 36 41 46 51 0 10 20 30
Cp 32.43 Pp 25.24
12 O v erall
C pk 1.23 P pk 0.96
C pm *
6 S pecs
30 35 40 45 50
Observation
LB USL
P rocess Data Within
LB 0 Ov erall
Target *
USL 720 P otential (Within) C apability
S ample M ean 13.7071 Cp *
S ample N 52 C PL *
S tDev (Within) 3.70011 C P U 63.63
S tDev (O v erall) 4.75415 C pk 63.63
O v erall C apability
Pp *
PPL *
PPU 49.52
P pk 49.52
C pm *
Luego de examinar gráficas y resultados, se pueden inferir para el año 2005 las mismas
conclusiones que aquellas correspondientes a los años anteriores. Es decir, un proceso
centrado, con índices Cpu y Cpk coincidentes y mayores a 2.
Cp = (USL – LSL)/6σ
Six Sigma supone en su metodología que los procesos siempre operan dentro de ±1.5σ
de su media. Asumiendo esta desviación como el peor caso tenemos:
Para tener una visión global del período abordado y ver si existen diferencias
significativas entre sus medias respectivas, en relación a la resolución de tickets
por servicios, se llevará a cabo un test ANOVA (análisis de varianza).
En la tabla siguiente se presenta el análisis ANOVA mencionado, pudiendo concluir a
través de este, que en los años 2005 y 2007 no existen tales diferencias, pero sí ocurre
en el 2006, aunque no es demasiado relevante.
Se han representado las diferentes pruebas de acuerdo a valores discretos o continuos
y al tipo de comparación.
DF (Degree of freedom): Son los grados de libertad de cada fuente. Si un factor tiene
tres niveles, los grados de libertad son de 2 (n-1). Si usted tiene un total de 30
observaciones, los grados de libertad total son 29 (n - 1).
Como hipótesis nula, Ho, se postula que “no existen diferencias significativas en las
medias entre años 2005 y 2007”. La hipótesis alternativa, Ha, será por lo tanto, que
“existen diferencias significativas en las medias por año”.
La regla del pulgar indica rechazar la Ho si el valor de p es menor a 0.05. Esto implica
que se asume un error del 5% al rechazarla, siendo la Ha verdadera (conocido como
Error Type I o Alfa Risk).
Se resalta que los índices Cpu y Cpk en el 2006 fueron mejores que en los otros dos
años; aunque estos valores no indican la significatividad de tal diferencia, para ello se
utiliza el test ANOVA, que permite averiguarlo.
Source DF SS MS F P
Year 2 166.8 83.4 4.23 0.016
Error 145 2856.8 19.7
Total 147 3023.6
25
20
15 13.9043
Mean
13.7071
11.5882
10
0
2005 2006 2007
Year
Residuos versus valores ajustados: Esta gráfica deberá mostrar un patrón aleatorio de
residuos a ambos lados de 0. Si un punto se encuentra lejos de la mayoría de los
puntos, puede ser un valor atípico. No deberá haber algún patrón reconocible en la
gráfica de residuos. Por ejemplo, si la dispersión de valores de residuos tiende a
incrementarse a medida que se incrementan los valores ajustados, entonces esto puede
violar el supuesto de varianza constante.
Residuos versus orden de datos: Esta es una gráfica de todos los residuos en el orden
en el que se colectaron los datos y puede utilizarse para hallar errores no aleatorios,
especialmente de efectos relacionados con el tiempo. Esta gráfica le ayuda a revisar el
supuesto que establece que los residuos no se correlacionan unos a otros.
Residuos versus predictores: Esta es una gráfica de los residuos versus un predictor.
Esta gráfica deberá mostrar un patrón aleatorio de residuos a ambos lados de 0. Los
patrones no aleatorios, tales como el ejemplo de la derecha, pueden violar el supuesto
que establece que las variables predictoras no se relacionan con los residuos. Pudo
haber utilizado una forma funcional incorrecta para modelar la curvatura.
50 0
10 -5
1 -10
0.1
-10 0 10 12 13 14
Residual Fitted Value
20 5
Residual
0
10 -5
-10
0
-12 -8 -4 0 4 8 12 1 10 20 30 40 50 60 70 80 90 00 10 20 30 40
1 1 1 1 1
Residual
Observation Order
El intervalo de confianza para las diferencias entre medias de los años 2005 y 2007, con
respecto al 2006, es significante. Esto se deduce por dos hechos: el intervalo en el
análisis individual no incluye el cero y el valor de p = 0.016 en el análisis general. En
base a todo lo anterior corresponde rechazar la hipótesis nula Ho.
Por otro lado vemos en el análisis de los gráficos de los residuos que la normalidad de
los mismos, el histograma muestra que tienen una distribución normal, que los residuos
versus los valores ajustados están proporcionalmente distribuidos del cero y que las
observaciones son aleatorias en el tiempo.
En esta sección se realiza un análisis de los años 2005 y 2007 solamente, donde se
plantea:
Source DF SS MS F P
Year 1 0.9 0.9 0.04 0.845
Error 93 2222.0 23.9
Total 94 2222.9
25
20
15 13.7071 13.9043
Mean
10
0
2005 2007
Year
El intervalo de confianza para las diferencias entre medias de los años 2005 y 2007 no
es significativo, debido a que el intervalo en el análisis individual incluye el cero y el
valor de p es 0.845 (mayor a 0.05). Con esto se acepta la hipótesis nula, es decir, no
existen diferencias significativas entre las medias del 2005 y 2007.
50 0
10 -5
1 -10
0.1
-10 0 10 13.70 13.75 13.80 13.85 13.90
Residual Fitted Value
15 5
Frequency
Residual
10 0
-5
5
-10
0
-10 -5 0 5 10 1 10 20 30 40 50 60 70 80 90
Residual Observation Order
0 20 40 60 80 100
Resolution Time (hs)
100
80
Resolution Time (hs)
60
40
20
M ean 20.056
S tDev 29.688
V ariance 881.387
S kew ness 1.61790
Kurtosis 1.75041
N 27
M inimum 0.059
1st Q uartile 0.614
M edian 1.728
3rd Q uartile 24.535
0 20 40 60 80 100 M aximum 99.040
95% C onfidence Interv al for M ean
8.312 31.800
95% C onfidence Interv al for M edian
0.923 24.213
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
23.380 40.686
Mean
Median
0 5 10 15 20 25 30
Ramos Wunderler, Alberto. “Estudos de capacidade para dados ñao-normais”. [en línea]. Disponible
71
En función del tipo de familia seleccionada para el ajuste, Johnson propone diferentes
tipos de funciones:
En resumen:
Nicolas R. Farnum (1996-97) ha dado una detallada descripción en el uso de las curvas
de Johnson. El sistema de Johnson usa tres transformadas para normalizar datos
descriptas en arriba.
En este caso la transformada de Johnson sugerida por Minitab es la del tipo SB,
limitada, válida en el intervalo (Los valores límites del proceso y de
especificaciones serán iguales, los que dará como resultado un Cpu y Cpk mucho
menores a los reales. Por otro lado, no se pudo encontrar una forma de introducir los
límites de especificaciones, dado que no existe una transformada válida para el rango,
siendo este mayor a los límites del proceso.
También se han realizado los cálculos con la transformada de Box-Cox con
sugerida por un Black Belt de la compañía en una primera instancia. Por lo tanto se
graficaron y estimaron con ambos métodos los ticket clasificados como problemas
desde el 2005 al 2007.
Por el mismo argumento de la sección anterior, aquí también se toma como límite
inferior fijo el cero, por ser imposible resolver un problema en un tiempo menor. Siendo
esto coincidente, la comparación del tiempo de resolución de servicios y problemas se
enfoca en el límite superior (upper limit).
Lower CL -0.23
35
Upper CL 0.18
25
20
15
10
Limit
Specifications
5
LSL* -6.90776
_
X=1.32 USL* 6.22258
0
-5 LCL=-4.62
1 4 7 10 13 16 19 22 25 -6 -4 -2 0 2 4 6
4
__
MR=2.234
0 LCL=0
1 4 7 10 13 16 19 22 25 -5 0 5
Cp 1.11 Pp 1
0 O v erall
Cpk 0.83 Ppk 0.75
Cpm *
-3 S pecs
5 10 15 20 25
Observation
LB* U S L*
P rocess Data transformed data Within
LB 0.001 O v erall
Target *
USL 540 P otential (Within) C apability
S ample M ean 20.0561 Cp *
S ample N 27 C PL *
S tDev (Within) 23.9364 C P U 0.84
S tDev (O v erall) 29.6882 C pk 0.84
LB* -6.90776 Pp *
Target* * PPL *
U S L* 6.29157 P P U 0.76
S ample M ean* 1.31761 P pk 0.76
S tDev (Within)* 1.98022 C pm *
S tDev (O v erall)* 2.18077
-6 -4 -2 0 2 4 6
O bserv ed P erformance E xp. Within P erformance E xp. O v erall P erformance
P P M < LB 0.00 P P M < LB* * P P M < LB* *
P P M > U S L 0.00 P P M > U S L* 6005.46 P P M > U S L* 11279.31
P P M Total 0.00 P P M Total 6005.46 P P M Total 11279.31
Se advierte que aplicando Box-Cox, para el análisis de problemas del año 2007, se llega a un
P=0.014, valor que indica que la transformada no es normal.
Independientemente se hizo un análisis de capacidad y estabilidad en el tiempo, los resultados
muestran un valor de CpK=0.84 y PpK=0.76, denotando que el proceso no está cumpliendo con
las especificaciones dadas.
Cabe destacar que al no estar normalizados los datos, estos dos últimos análisis no están
soportados por la teoría estadística.
0.050
50
0.025
10 0.000
0.2 0.4 0.6 0.8 1.0 1.2
1 Z Value
-50 0 50 100 (P-Value = 0.005 means <= 0.005)
10
1
-2 0 2 4
60
50
40
30
20
10
1
-3 -2 -1 0 1 2 3
Johnson
2
LS L -2.45
_
0 X=0.006 U S L 3.34
-2
2 LCL=-2.832
1 4 7 10 13 16 19 22 25 -2 -1 0 1 2 3
2
__
MR=1.067
0 LCL=0
1 4 7 10 13 16 19 22 25 -2 0 2 4
0 Cp 1.02 Pp 0.93
O v erall
C pk 0.87 P pk 0.79
-2 C pm *
S pecs
5 10 15 20 25
Observation
O bserv ed P erformance
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
-2 -1 0 1 2 3 4
Para el año 2007 se utiliza la transformada de Johnson sugerida por Minitab es la del tipo
SB, limitada, válida en el intervalo (
El método de Johnson para este análisis arroja un P=0.103, que señala que la transformada es
normal. Por su parte, un análisis de capacidad y estabilidad en el tiempo, lleva a un valor de
PpK=1.51, lo cual sugiere que el proceso cumple con las especificaciones dadas.
LB USL
P rocess Data O v erall C apability
LB 0 Pp *
Target * PPL *
USL 504 PPU 1.20
S ample M ean 20.0561 P pk 1.20
S ample N 27
E xp. O v erall P erformance
S hape 0.51674
P P M < LB *
S cale 10.9171
P P M > U S L 713.93
O bserv ed P erformance P P M Total 713.93
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
Para el tratamiento de datos del año 2006 también se realizo el test de bondad de ajuste
y surgieron tres posibles ajustes diferentes (Box-Cox, Johnson y Weibull), las cuales
fueron consideradas como más apropiadas para el tipo de información que se maneja.
Arrojando los resultados que se reúnen a continuación.
0 10 20 30 40 50 60 70 80
Resolution Time (hs)
70
60
Resolution Time (hs)
50
40
30
20
10
M ean 18.584
S tDev 22.860
V ariance 522.587
S kew ness 1.08048
Kurtosis -0.22835
N 71
M inimum 0.026
1st Q uartile 1.538
M edian 5.414
3rd Q uartile 28.696
0 16 32 48 64 M aximum 71.791
95% C onfidence Interv al for M ean
13.173 23.994
95% C onfidence Interv al for M edian
2.872 20.615
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
19.621 27.391
Mean
Median
0 5 10 15 20 25
Lower CL -0.07
100 Upper CL 0.21
60
40
20
Limit
0
-1.0 -0.5 0.0 0.5 1.0 1.5
Lambda
Specifications
5
_ LSL* -6.90776
X=1.66 USL* 6.22258
0
LCL=-4.09
-5
1 8 15 22 29 36 43 50 57 64 71 -4.8 -2.4 0.0 2.4 4.8
4
__
MR=2.162
2
0 LCL=0
1 8 15 22 29 36 43 50 57 64 71 -5 0 5 10
Cp 1.14 Pp 1.11
0 O v erall
Cpk 0.79 Ppk 0.77
Cpm *
-4 S pecs
50 55 60 65 70
Observation
LB* U S L*
P rocess Data transformed data Within
LB 0.001 O v erall
Target *
USL 504 P otential (Within) C apability
S ample M ean 18.5835 Cp *
S ample N 71 C PL *
S tDev (Within) 21.3517 C P U 0.79
S tDev (O v erall) 22.8602 C pk 0.79
LB* -6.90776 Pp *
Target* * PPL *
U S L* 6.22258 P P U 0.77
S ample M ean* 1.65637 P pk 0.77
S tDev (Within)* 1.91685 C pm *
S tDev (O v erall)* 1.9722
Aplicando Box-Cox, para el análisis de problemas del año 2006, se obtiene un P<0.005, valor
que indica que la transformada no es normal. Independientemente se hizo un análisis de
capacidad y estabilidad en el tiempo, los resultados muestran un valor de CpK=0.79 y
PpK=0.77, que revelan que el proceso no está cumpliendo con las especificaciones dadas. Se
reitera que al no estar normalizados los datos, estos dos últimos análisis no están soportados
por la teoría estadística.
50 0.050
0.025
10
0.000
1 0.2 0.4 0.6 0.8 1.0 1.2
0.1 Z Value
-50 0 50 100 (P-Value = 0.005 means <= 0.005)
10
1
0.1
-4 0 4
60
50
40
30
20
10
5
0.1
-4 -3 -2 -1 0 1 2 3 4
Johnson
2
_
0 X=-0.037
-2
LCL=-3.102
1 8 15 22 29 36 43 50 57 64 71 -3 -2 -1 0 1 2
2
__
MR=1.152
0 LCL=0
1 8 15 22 29 36 43 50 57 64 71 -4 0 4
0 Scale 1.05746
Pp *
-2 Ppk * Specs
50 55 60 65 70
Observation
O bserv ed P erformance
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
En el añ0 2006 la transformada de Johnson sugerida por Minitab es la del tipo SB, limitada,
válida en el intervalo (
Al emplear el método de Johnson para este análisis, se obtiene un P=0.114, que señala una
transformada normal. Por otra parte, un análisis de capacidad y estabilidad en el tiempo, entrega
un valor de PpK=1.67, lo cual sugiere que el proceso cumple con las especificaciones dadas.
LB USL
P rocess Data O v erall C apability
LB 0 Pp *
Target * PPL *
USL 504 PPU 1.85
S ample M ean 18.5835 P pk 1.85
S ample N 71
E xp. O v erall P erformance
S hape 0.6228
P P M < LB *
S cale 13.3101
P P M > U S L 66.74
O bserv ed P erformance P P M Total 66.74
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
Al igual que para el resto de los años, en el 2005 también se emplean los métodos
estadísticos: Box-Cox, Johnson y Weibull. En las gráficas se resumen los resultados
de ellos.
120
100
Resolution Time (hs)
80
60
40
20
120
100
Resolution Time (hs)
80
60
40
20
M ean 22.706
S tDev 34.735
V ariance 1206.552
S kew ness 1.72738
Kurtosis 1.70031
N 85
M inimum 0.029
1st Q uartile 0.646
M edian 4.315
3rd Q uartile 24.435
0 20 40 60 80 100 120 M aximum 123.203
95% C onfidence Interv al for M ean
15.213 30.198
95% C onfidence Interv al for M edian
2.244 14.373
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
30.184 40.916
Mean
Median
0 5 10 15 20 25 30
50
StDev
40
30
20
10 Limit
0
-1.0 -0.5 0.0 0.5 1.0 1.5
Lambda
Specifications
5
LSL* -6.90776
_
X=1.42 USL* 6.22258
0
2
22 22
-5 LCL=-4.86
1 9 17 25 33 41 49 57 65 73 81 -6 -4 -2 0 2 4 6
4
__
MR=2.362
22
0 22
LCL=0
2 2
1 9 17 25 33 41 49 57 65 73 81 -5 0 5 10
Cp 1.05 Pp 0.96
0 O v erall
Cpk 0.76 Ppk 0.7
Cpm *
-4 S pecs
65 70 75 80 85
Observation
LS L* U S L*
P rocess Data transformed data Within
LS L 0.001 O v erall
Target *
USL 504 P otential (Within) C apability
S ample M ean 22.7058 Cp 1.05
S ample N 85 C P L 1.33
S tDev (Within) 26.8033 C P U 0.76
S tDev (O v erall) 34.7355 C pk 0.76
LS L* -6.90776 Pp 0.96
Target* * PPL 1.22
U S L* 6.22258 PPU 0.70
S ample M ean* 1.42335 P pk 0.70
S tDev (Within)* 2.09387 C pm *
S tDev (O v erall)* 2.28326
-6 -4 -2 0 2 4 6
O bserv ed P erformance E xp. Within P erformance E xp. O v erall P erformance
P P M < LS L 0.00 P P M < LS L* 34.63 P P M < LS L* 131.74
P P M > U S L 0.00 P P M > U S L* 10951.92 P P M > U S L* 17780.24
P P M Total 0.00 P P M Total 10986.56 P P M Total 17911.98
Con Box-Cox se obtuvo P=0.011, es decir, una transformada no normal. Los análisis de
capacidad y estabilidad en el tiempo, arrojaron CpK=0.76 y PpK=0.70, por lo tanto el proceso
no estaría cumpliendo con las especificaciones dadas. Nuevamente, al no estar normalizados
los datos, estos dos últimos análisis no tienen soporte estadístico.
0.30
50
0.15
10 Ref P
0.00
1 0.2 0.4 0.6 0.8 1.0 1.2
0.1 Z Value
-100 0 100 (P-Value = 0.005 means <= 0.005)
10
1
0.1
-4 0 4
60
50
40
30
20
10
5
0.1
-4 -3 -2 -1 0 1 2 3 4
Johnson
2
_
LSL* -3.12436
0 X=0.095 USL* 3.29736
-2
LCL=-2.813
1 9 17 25 33 41 49 57 65 73 81 -3 -2 -1 0 1 2 3
2
__
MR=1.093
0 LCL=0
1 9 17 25 33 41 49 57 65 73 81 -4 0 4
0 Scale 1.06949
Pp 1.00
Ppk 1.00 Specs
-2
65 70 75 80 85
Observation
O bserv ed P erformance
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
En el año 2005 la transformada de Johnson sugerida por Minitab es la del tipo SB, limitada,
válida en el intervalo (
El método de Johnson muestra un P=0.599, que indica que la transformada es normal. Por otra
parte, un análisis de capacidad y estabilidad en el tiempo, entrega un valor de PpK=1.57, lo cual
sugiere que el proceso cumple con las especificaciones dadas.
LB USL
P rocess Data O v erall C apability
LB 0 Pp *
Target * PPL *
USL 504 PPU 1.04
S ample M ean 22.7058 P pk 1.04
S ample N 85
E xp. O v erall P erformance
S hape 0.51628
P P M < LB *
S cale 12.472
P P M > U S L 1169.10
O bserv ed P erformance P P M Total 1169.10
P P M < LB 0.00
P P M > U S L 0.00
P P M Total 0.00
Para analizar la variabilidad entre los años 2005 y 2007 de la media anual, y averiguar si
existen o no diferencias significativas, se realizó un test de One Way ANOVA. Como se
ha dicho antes, es el recomendado para medias y variables continuas, y cuando se
tienen más de dos muestras.
Al igual que para servicios, como hipótesis nula, Ho, se plantea que “no existen
diferencias significativas en las medias entre años 2005 y 2007”. La hipótesis
alternativa, Ha, será por lo tanto, que “existen diferencias significativas en las
medias por año”.
Se recuerda que se debe rechazar la Ho si el valor de p es menor a 0.05. Esto implica
que se asume un error del 5% al rechazarla, tomando la Ha como verdadera.
Los datos usados como fuente del análisis de capacidad, aplicando la transformada
de Johnson, dieron como resultado:
Se puede ver que los índices Cpu y Cpk en el 2007 fueron mejores que en los otros dos
años; aunque estos valores no indican significativamente tal diferencia, para ello se
utiliza el test ANOVA, que permite averiguarlo.
Source DF SS MS F P
Year 2 98.96 49.48 18.05 0.000
Error 180 493.45 2.74
Total 182 592.40
Gráfico 4.1.6-1 Grafico de cajas de medias de Problemas Año 2005 al 2007 - ANOVA
2 1.62832 1.31761
Johnson
0 0.0815816
-1
-2
-3
-4
2005 2006 2007
Year
Residual
Percent
0
50
-2
10
-4
1
0.1 -6
-5.0 -2.5 0.0 2.5 5.0 0.0 0.4 0.8 1.2 1.6
Residual Fitted Value
Residual
0
12
-2
6 -4
0 -6
-4.5 -3.0 -1.5 0.0 1.5 3.0 1 20 40 60 80 100 120 140 160 180
Residual Observation Order
El intervalo de confianza para las diferencias entre medias de los años 2006 y 2007, con
respecto al 2005, es significante. Esto se deduce por dos hechos: el intervalo en el
análisis individual no incluye el cero y el valor de p = 0.000 en el análisis general. En
base a lo anterior corresponde rechazar la hipótesis nula Ho. Corresponde decir
que existen diferencias significativas entre las medias de los años analizados
Aquí se realiza un análisis de los años 2006 y 2007 solamente, donde se plantea:
Source DF SS MS F P
Year 1 0.22 0.22 0.22 0.639
Error 96 96.70 1.01
Total 97 96.92
Con un P=0.639 se puede decir que no existe diferencia significativa entre los
dos años.
Gráfico 4.1.7-1 Grafico de cajas de medias de Problemas Año 2006 y 2007 - ANOVA
-0.0369202
-0.143678
0
Johnson
-1
-2
-3
-4
2006 2007
Year
90
Residual
0
Percent
50
10 -2
1
0.1 -4
-4 -2 0 2 4 -0.150 -0.125 -0.100 -0.075 -0.050
Residual Fitted Value
18
Frequency
Residual
0
12
-2
6
0 -4
-3 -2 -1 0 1 2 1 10 20 30 40 50 60 70 80 90
Residual Observation Order
El intervalo de confianza para las diferencias entre medias de los años 2006 y 2007 no
es significativo, debido a que el intervalo en el análisis individual incluye el cero y el
valor de p es 0.639. Con esto se acepta la Ho, es decir, no existen diferencias
significativas entre las medias del 2006 y 2007.
Los gráficos de efecto principal son mayormente útiles cuando se tienen varios factores,
allí se pueden comparar los cambios en los niveles de la media para ver cuáles de ellos
son más influyentes en la respuesta. Para esto se comenzará con los servicios, de allí
surge que:
Tanto en el año 2006 como 2007, el RT en función de la severidad, muestra que en los
tickets de severidad baja tiende a ser igual a la media; mientras que los de alta prioridad
se resuelven en menos tiempo y los de media tardan más.
15
Mean
10
0
Critical High Low Medium
Severity
Gráfico 4.1.8-2 Efectos de severidad e impacto sobre la media (RT) - Servicios 2006
Severity Impact
1.1
1.0
0.9
Mean
0.8
0.7
0.6
0.5
0.4
t er al
gh w m ny en
Hi Lo iu pa m du
ed m rtm to
di
vi
M Co pa C us In
De na
l
r
te
Ex
Gráfico 4.1.8-3 Efectos de severidad e impacto sobre la media (RT) - Servicios 2007
Severity Impact
1.0
0.8
Mean
0.6
0.4
0.2
0.0
l t er l
ca gh w m ny en ua
ir ti Hi Lo diu pa tm o m
vi
d
e m st di
C M Co ar
p Cu In
De na
l
r
te
Ex
Gráfico 4.1.8-4 Efectos: Miembros de TI, tipo de ticket, media semanal de servicios 2006
Main Effects Plot for Days - IT Team & Ticket Profile Service 06
Data Means
1.5
Mean
1.0
0.5
0.0
Help Desk
Network
Security
Telephony
Account
Business Apps
Desktop Apps
EBusiness
Engineering Apps
Facilities
File Services
Privileges
Remote Access
Support Services
System Operations
Internal IT
Non-IT
Desktop/Workstation
Operating System
Messaging
Printing
AJO023
ALM045
ARG031
FMXP43
FQG846
QBWD64
TCQN73
Backup/Restore
Collaborative
Database
Hardware
Out Of Scope
Software
LAN
Server
Gráfico 4.1.8-5 Efectos: Miembros de TI, clase de ticket, media semanal servicios 2007
Main Effects Plot for Days - ITIS Team & Ticket Profile Services 07
Data Means
1.2
1.0
Mean
0.8
0.6
0.4
0.2
0.0
Help Desk
Network
Security
Telephony
Account
Business Apps
Desktop Apps
Engineering Apps
Facilities
File Services
In-scope Applications
Privileges
Remote Access
Support Services
System Operations
Internal IT
Non-IT
Desktop/Workstation
Messaging
Operating System
Printing
Userid
AJO023
ALM045
ARG031
FMXP43
FQG846
QBWD64
TCQN73
Backup/Restore
Collaborative
Database
Hardware
Out Of Scope
Software
LAN
Server
Los factores tratados en esta sección son generalmente usados en conjunto con el
análisis de varianza. Cada gráfico presentado muestra la interacción entre dos factores.
Una interacción ocurre cuando el cambio en la respuesta, desde un nivel de un factor a
otro, difiere del cambio en la respuesta en el mismo nivel del segundo factor. Esto es,
cuando el efecto de un factor depende del otro.
Los gráficos de interacción (o de perfil) sirven para comparar las medias marginales en
un modelo, y se crean para cada variable dependiente. Son gráficos de líneas en el que
cada punto indica la media marginal estimada de una variable dependiente, en un nivel
de un factor. Los niveles de un segundo factor se pueden utilizar para generar líneas
diferentes. Cada nivel en un tercer factor se puede utilizar para crear un gráfico.
Gráfico 4.1.9-1 Interacción media de servicios y los efectos impacto y severidad – 2006
Sev erity
1.4 High
Low
Medium
1.2
1.0
Mean
0.8
0.6
0.4
0.2
Company Department External Customer Individual
Impact
Gráfico 4.1.9-2 Interacción media de servicios y los efectos impacto y severidad – 2007
0.8
Mean
0.6
0.4
0.2
0.0
Company Department External Customer Individual
Impact
En los dos gráficos siguientes de interacción de IT Members (Team) con Service tickets
profile, se advierte la variabilidad que existe en ambos efectos, de los integrantes entre
sí, dentro del mismo año para la resolución de determinado perfil de ticket; como así
también la de su comportamiento en el año siguiente (2007) respecto del 2006.
Gráfico 4.1.9-3 Interacción: media de servicios con miembros de TI y perfil del ticket –
2006
Gráfico 4.1.9-4 Interacción: media de servicios con miembros de TI y perfil del ticket –
2007
Gráfico 4.1.10-1 Intervalos de la media (RT) debido al impacto del servicio – 06/07
er
om
t st
en Cu al
ny m al du
pa rt rn i
m pa t e d iv
Co De Ex In
2006 2007
3
2
Days
1
0
-1
ny t er al
en du
pa t m t om i
m r s d iv
Co pa Cu In
De na
l
t er
Ex
Impact
Panel variable: Year
0.9
0.6
Days
0.3
0.0
Gráfico 4.1.10-4 Intervalos de la media servicios debido al perfil del ticket – 06/07
Gráfico 4.1.10-5 Gráfico de cajas (RT) debido al perfil del ticket de servicio -06/07
Examinando en detalle cada conjunto de gráficos, se buscaron los factores que podrían
ser las causas de las diferencias encontradas entre los años 2005 y 2007. Se
plantearon como posibilidad los factores miembros de IT y tipo de ticket profile. Para
corroborar estas inferencias, se hicieron análisis estadísticos de variabilidad para estos
años, que se presentan en la sección siguiente.
En una primera etapa se revisan los datos correspondientes al año 2005, realizando un
análisis de varianza, One-Way ANOVA.
Luego se ejecuto un test de varianzas iguales versus los factores para determinar la
validez de ANOVA equilibrado, para estos casos se ejecutaron ambos tests que vienen
incluidos en Minitab, basado ambos en el nivel de confidencia de Bonferroni. El test de
Bartlett se usa cuando provienen de una distribución normal y el test de Levene
cuando los datos vienen de una distribución continua, pero no necesariamente
normal.
La hipótesis nula, Ho, será que no existen diferencias significativas entre los
miembros de IT, en cuanto a tiempo de resolución de tickets (RT). La hipótesis
alternativa, Ha, por tanto, será que si existen tales diferencias.
Source DF SS MS F P
IT Members 4 6.42 1.61 1.43 0.231
Error 80 89.66 1.12
Total 84 96.08
Boxplot of Johnson
3
1
0.42023
Johnson
0.131279 0.22201
0
-0.588509
-0.805696
-1
-2
-3
AJO023 AJR037 ALM045 ARC038 ARG031
IT Members
Gráfico 4.1.11-2 Gráfica de Residuos problemas (RT) por miembros de TI -05- ANOVA
90
1.5
Residual
Percent
50 0.0
10 -1.5
1
-3.0
0.1
-4 -2 0 2 4 -0.5 0.0 0.5
Residual Fitted Value
15 1.5
Frequency
Residual
10 0.0
5 -1.5
-3.0
0
-3 -2 -1 0 1 2 1 10 20 30 40 50 60 70 80
Residual Observation Order
Bartlett's Test
ALM045
ARG031
Para este análisis se tomará como hipótesis nula, Ho, que no existen diferencias
significativas entre los tipos de tickets, de acuerdo al perfil del problema (Tickets
Profile), con el tiempo de resolución de los mismos (RT). Por lo tanto, la hipótesis
alternativa, Ha, será que si existen tales diferencias.
Source DF SS MS F P
Profile Level 2 13 14.15 1.09 0.94 0.515
Error 71 81.93 1.15
Total 84 96.08
Hardware (-------*--------)
Messaging (----------*---------)
Network (---------*----------)
Operating System (----------*---------)
Printing (------------*------------)
Security (-------*-------)
Software (-------*--------)
+---------+---------+---------+---------
-7.0 -3.5 0.0 3.5
Security (----*---)
Software (-----*----)
+---------+---------+---------+---------
-7.0 -3.5 0.0 3.5
Profile
Level 2 Lower Center Upper +---------+---------+---------+---------
Printing -3.702 0.866 5.434 (------------*-------------)
Security -2.707 0.112 2.932 (-------*-------)
Software -2.211 0.834 3.879 (-------*--------)
+---------+---------+---------+---------
-7.0 -3.5 0.0 3.5
Profile
Level 2 Lower Center Upper +---------+---------+---------+---------
Security -4.614 -0.754 3.107 (----------*----------)
Software -4.060 -0.032 3.997 (-----------*----------)
+---------+---------+---------+---------
-7.0 -3.5 0.0 3.5
Profile
Level 2 Lower Center Upper +---------+---------+---------+---------
Software -1.098 0.722 2.542 (----*----)
+---------+---------+---------+---------
-7.0 -3.5 0.0 3.5
Gráfico 4.1.12-1 Grafico de cajas de problemas (RT) por perfil del ticket – 05 - ANOVA
Boxplot of Johnson
3
2
1.64162
1.19011
1 0.298113
0.661196
Johnson
-2
-3
t
un ps ed se ps ss ps re ng or
k
em tin
g ity ar
e
co Ap ort ba A p sine Ap dwa a gi tw st in cur w
a y t
Ac es
s pp Dat op u g r
es
s
Ne S Pr Se So
f
is n Su skt EB e r in Ha M ing
Bu
C De ne at
CS ngi per
E O
Profile Level 2
Gráfico 4.1.12-2 Gráfica de Residuos problemas (RT) por perfil del ticket -05- ANOVA
90
1.5
Residual
Percent
50 0.0
10 -1.5
1
-3.0
0.1
-4 -2 0 2 -0.5 0.0 0.5 1.0 1.5
Residual Fitted Value
15 1.5
Frequency
Residual
0.0
10
-1.5
5
-3.0
0
-3 -2 -1 0 1 2 1 10 20 30 40 50 60 70 80
Residual Observation Order
Test de varianzas iguales: Tiempo de respuesta de problemas vs perfil del ticket - 2005
También en los gráficos de residuos (residual vs. fitted value) observamos que se
alternan entre el cero pero existen menos concentraciones de los mismos pocos puntos
superando el intervalo [-2,2] reflejando una distribución aleatoria de los mismos.
En cuando a la distribución de residuos vemos que se asemeja a un comportamiento
normal con una distribución de observaciones aleatorias.
En principio el perfil del ticket no sería significativo en el tiempo de resolución de
problemas del 2005.
El gráfico siguiente muestra que los perfiles de tickets de IT que tiene mayor amplitud y
que a priori podría ser las varianzas que introducen las variaciones mayores.
Gráfico 4.1.12-3 Test de Varianzas iguales – Problemas (RT) vs perfil del ticket
EBusiness
Engineering Apps
Hardware
Messaging
Network
Operating System
Printing
Security
Software
0 50 100 150 200 250
95% Bonferroni Confidence Intervals for StDevs
Para este análisis se tomará como hipótesis nula, Ho, que no existen diferencias
significativas entre los miembros de IT en cuanto a tiempo de resolución de
tickets (RT). De allí que, la hipótesis alternativa, Ha, será que si existen tales
diferencias.
Source DF SS MS F P
IT Members 6 10.635 1.773 2.06 0.105
Error 20 17.242 0.862
Total 26 27.877
Boxplot of Johnson
0
Johnson
-1
-2
-3
AJO023 ALM045 CDT012 CKR024 FMXP43 QBWD64 TCQN73
IT Members
Gráfico 4.1.13-2 Gráfica de Residuos problemas (RT) por miembros de TI -07- ANOVA
90
1
Residual
Percent
50 0
-1
10
1 -2
-2 -1 0 1 2 -1.0 -0.5 0.0 0.5 1.0
Residual Fitted Value
6
Residual
0
4
-1
2
0 -2
-2 -1 0 1 2 2 4 6 8 10 12 14 16 18 20 22 24 26
Residual Observation Order
Bartlett's Test
AJO023
Test Statistic 2.07
P-Value 0.913
ALM045 Lev ene's Test
Test Statistic 0.28
P-Value 0.938
CDT012
IT Members
CKR024
FMXP43
QBWD64
TCQN73
Source DF SS MS F P
Profile Level 2 5 3.50 0.70 0.60 0.698
Error 21 24.37 1.16
Total 26 27.88
Level -----+---------+---------+---------+----
Account (-----------*--------------)
CSC Supported (----------*--------------)
Engineering Apps (-------*-------------)
Hardware (--------------*----------------)
Network (----------*--------------)
Software (-----------*---------------)
-----+---------+---------+---------+----
Profile
Level 2 Lower Center Upper ---------+---------+---------+---------+
Hardware -4.289 -0.811 2.666 (-------------*-------------)
Network -2.621 -0.491 1.638 (-------*--------)
Software -3.391 -0.856 1.678 (----------*---------)
---------+---------+---------+---------+
-2.5 0.0 2.5 5.0
Profile
Level 2 Lower Center Upper ---------+---------+---------+---------+
Network -3.568 0.320 4.208 (--------------*---------------)
Software -4.169 -0.045 4.079 (----------------*---------------)
---------+---------+---------+---------+
-2.5 0.0 2.5 5.0
Profile
Level 2 Lower Center Upper ---------+---------+---------+---------+
Software -3.439 -0.365 2.709 (------------*-----------)
---------+---------+---------+---------+
-2.5 0.0 2.5 5.0
Gráfico 4.1.14-1 Grafico de cajas de problemas (RT) por perfil del ticket – 07 - ANOVA
Boxplot of Johnson
0
Johnson
-1
-2
-3
Account CSC Supported Engineering Apps Hardware Network Software
Profile Level 2
Gráfico 4.1.14-2 Gráfica de Residuos problemas (RT) por perfil del ticket -07- ANOVA
90 1
Residual
Percent
50 0
-1
10
1 -2
-2 -1 0 1 2 -0.6 -0.4 -0.2 0.0 0.2
Residual Fitted Value
1
3.6
Frequency
Residual
0
2.4
1.2 -1
0.0 -2
-2 -1 0 1 2 2 4 6 8 10 12 14 16 18 20 22 24 26
Residual Observation Order
Test de varianzas iguales: Tiempo de respuesta de problemas vs perfil del ticket – 2007
Bartlett's Test
Account
Test Statistic 10.00
P-Value 0.040
Lev ene's Test
CSC Supported
Test Statistic 4.31
P-Value 0.011
Profile Level 2
Engineering Apps
Hardware
Network
Software
Estas condiciones permiten avanzar un paso más y poder guiar el enfoque hacia la
búsqueda de definiciones claras de las métricas. Las mismas serán incluidas dentro del
sistema de medición, que además abarca las condiciones, responsables, gráficos de
control, variables significativas, definiciones de indicadores que reflejen las métricas
seleccionadas de acuerdo a las necesidades del negocio, entre otras. Esto genera un
preciso nivel de indicadores de actuación del área, que lo hace comparable con otras
unidades de negocios o empresas.
Respecto a las métricas podemos asentar que los mayores esfuerzos están siendo
validados sólo en las empresas de USA, relacionadas con los sistemas financieros y de
contabilidad, a causa de Sarbanes-Oxley Act72 y otras reglamentaciones o normativas
internacionales mencionadas anteriormente. No es usual encontrar estos niveles de
diligencia en otros sistemas de métricas de los negocios o empresas.
Las cartas de control están siendo cada vez más utilizadas, señalando cómo los
gerentes buscan entender profundamente la performance o actuación del negocio y
cómo deben invertir en los recursos cada vez más escasos.
Los gráficos de Pareto se presentan como una herramienta efectiva para visualizar
donde deben ser concentrados los esfuerzos para lograr el mayor retorno sobre la
inversión (ROI).
Los diagramas de causa-efecto, conocidos comúnmente como diagramas de
espina de pescado (Fishbone) o de Ishikawa73, son usados por los miembros del
72
Sarbanes-Oxley Act [en línea]. Disponible en Internet:
http://fl1.findlaw.com/news.findlaw.com/hdocs/docs/gwbush/sarbanesoxley072302.pdf [Consulta: 25 de
Febrero del 2008]
73
Diagrama de Ishikawa [en línea]. Disponible en Internet:
http://es.wikipedia.org/wiki/Diagrama_de_Ishikawa [Consulta: 25 de Febrero del 2008]
Esta es la etapa en que las empresas tratan de reducir las mayores fuentes de variación
y redirigir el proceso. Durante esta etapa de implementación de Six Sigma:
Una vez identificadas y verificadas las causas raíces de los problemas en los procesos,
deben proponerse posibles soluciones. Existen cuantiosas formas de generar ideas
para mejorar y se puede usar una gran variedad de ellas para dar impulso a la
creatividad.
Global por uno basado en los lineamientos de ITIL. De allí también se extraerán las
mejores prácticas (Best Practices) como así también benchmarking con otras
empresas.
De todas formas, existen mapeos y relaciones equivalentes entre ITIL, CObIT, ISO
1779974.
En lo que sigue se explican los distintos pasos del proceso de mejora propuesto en ITIL:
Debería ser definido un conjunto de métricas que de soporte total a las metas de
la organización. El foco debería estar en identificar lo necesario para satisfacer
las metas completamente, sin considerar si el dato o información están
actualmente disponibles.
74
IT GOVERNANCE INSTITUTE. 2005. ―Aligning CoBIT, ITIL & ISO 17799 for Business Benefit:
Management Summary.‖ [en línea]. Disponible en Internet: http://www.itgi.org [Consulta: 25 de Febrero
del 2008]
75
ITSMF. ―An Introductory. Overview of ITIL. ®. V3‖. 2007‖ [en línea]. Disponible en Internet:
www.itsmf.si/Shared%20Documents/itSMF_ITILV3_Intro_Overview.pdf [Consulta: 02 de Junio del 2008]
La calidad es el objetivo clave del monitoreo, por lo tanto este ayuda a enfocarse
en la efectividad de un servicio, proceso, herramienta, organización o elemento
de configuración. Se pone énfasis en identificar donde pueden ser realizadas o
introducidas las mejoras, en el nivel de servicio existente, en la performance o
actuación de la IT, típicamente detectando excepciones y resoluciones.
Ahora más que nunca, la IT debería invertir tiempo para entender las metas
específicas del negocio y trasladarlas a métricas de su área, para reflejar su
impacto en tales metas. Frecuentemente existe diferencia entre lo que este área
reporta y lo que es de interés para el negocio.
Aunque la mayoría de los reportes tienden a concentrarse en problemas de
performance pobre, pero también las buenas noticias deben ser tenidas en
Para soporte de las actividades de CSI existen tres tipos de métricas fundamentales que
las organizaciones necesitan recolectar de los procesos:
Los proyectos de Six Sigma, donde eran validadas las mejoras de los procesos y
ahorros con métodos estadísticos, eran el núcleo que hacía a esta metodología
diferente y poderosa.
Si las organizaciones desean un verdadero éxito del programa de mejora continua
necesitan hacer énfasis en las decisiones basadas en datos.
De acuerdo a la teoría organizacional enfocada por los autores French y Raven, se
puede decir que las bases del poder social en las organizaciones derivan de tres
fuentes: autoridad, carisma y conocimiento. Sin embargo, hay autores que han
postulado algunas fuentes diferentes76. La metodología Six Sigma propone un
acercamiento más participativo hacia la gerencia.
Tradicional: toma de decisiones basada en la forma habitual de hacer las cosas, como
han sido realizadas anteriormente. El modo queda codificado en procedimientos,
estándares, regulaciones y doctrinas. Esto se vuelve inconsciente, es más fácil seguir
las reglas establecidas que cuestionarlas, y aparece como un mecanismo natural para
disminuir el stress y hacer uso eficiente de los recursos de las organizaciones.
A veces los procesos tradicionales y conocimientos codificados son necesarios y
poderosos, sin embargo, no siempre es así. En algún momento alguien puede encontrar
―una mejor forma‖ para conducir los negocios y resolver problemas. En estas
76
Wikipedia. ―Power Philosophy‖.[en línea]. Disponible en Internet:
http://en.wikipedia.org/wiki/Power_(sociology)#Types_and_sources_of_power [Consulta: 02 de Junio del
2008]
situaciones es donde las iniciativas de Six Sigma deberían de ser usadas como desafío
para repensar, rediseñar y mejorar.
Los datos que se manejan pueden ser mejorados implementando procesos estadísticos
de cálculo y control, obteniendo una mejor información, como muestra el gráfico 5.2.1-1.
El flujo puede ser pensado de una forma simplificada:
77
iSix Sigma.‖ Renew the Commitment to Data-Based Decision Making‖. [en línea]. Disponible en
Internet: http://www.isixsigma.com/library/content/c070514a.asp?action=print [Consulta: 02 de Junio del
2008]
La consecuencia de estos problemas puede ser significativa, por ejemplo un gráfico que
luce complejo podría carecer de fundamentos, no estar soportado en tiempo real o no
tener en cuenta decisiones de análisis de proyectos anteriores. Y aún peor, pueden
reflejar posiciones, tendencias y predicciones no reales, que crean interpretaciones
erróneas, obstaculizando comparaciones con la actuación histórica.
Las actividades de medición y análisis del área de procesos del CMMI se han
representado en el gráfico 5.3.1-1, donde se resaltan el plan de mediciones,
indicadores, repositorio, procedimientos y herramientas como los activos principales del
proceso de medición y análisis.
78
SEI. 2004. ―Applications of the Indicator Template for Measurement and Analysis‖.[en línea]. Disponible
en Internet: http://www.sei.cmu.edu/publications/documents/04.reports/04tn024.html [Consulta: 07 de
Junio del 2008]
Especificar los objetivos de medición y análisis, tales que estén alineados con la
necesidad de información identificada y con los objetivos del negocio.
Especificar las mediciones, recolección de datos y mecanismos de
almacenamiento, técnicas de análisis y reporte, como también aquellos de
retroalimentación.
Implementar la recolección, almacenamiento, análisis y reporte de datos.
Proveer de resultados objetivos que puedan ser usados en la toma de decisiones
basada en la información, tomando las acciones correctivas apropiadas.
A su vez, es posible mapear cada una de estas prácticas de mediciones del CMMI con
la plantilla de un indicador, resultando la cobertura de cada una de ellas en el mismo.
79
GORE, A. 1997. ―Serving the American Public: Best Practices in Performance Measurement‖.1997.[en
línea]. Disponible en: http://govinfo.library.unt.edu/npr/library/papers/benchmrk/nprbook.html
[Consulta: 07 de Junio del 2008]
80
ISO 15939. " Proceso medición del software" [en línea]. Disponible en Internet:
http://www.psmsc.com/ISO.asp [Consulta: 07 de Junio del 2008]
Alcance: conjunto herramientas en donde las métricas oficiales son definidas, como así
también su recopilación, y presentación de informes usando templates e información
predefinida para cada una de ellas.
Las métricas expresadas aquí deben tener un proceso definido de recolección,
almacenamiento y, si fuera necesario, herramientas automatizadas asociadas.
Una detallada descripción del indicador o métrica debe incluir al menos los siguientes
elementos o ítems:
Elemento Descripción
Nombre del Identifica la métrica.
indicador
Propósito/Objetivo Describe la métrica y su aplicación.
Fuente de entrada Almacenamiento de datos usados como parámetros de
entrada para el cálculo de la métrica.
Definición de Descripción de cada parámetro de entrada usado para
entradas el cálculo de la métrica.
Fórmula Expresión matemática para calcular la métrica.
Objetivo Performance o meta deseada para determinado plazo
de tiempo.
Responsable de la Rol o individuo designado para recolectar las métricas.
colección
Herramienta para Mecanismo utilizado en la recolección. Son obligatorias
la colección las herramientas recomendadas.
Repositorio de Almacenaje de datos de las métricas.
datos
Período de reporte Frecuencia para reportar la métrica.
Ejemplo de Muestra de las métricas en una tabla. Se deben
reporte graficar las métricas y sus primeras derivadas, como
entradas para el análisis de tendencias.
Criterio de Definir las reglas que determinan la recuperación de
colección de datos para calcular las métricas, esto es, especificar
datos bajo qué condiciones los datos de entrada serán
tomados en cuenta o descartados.
Análisis Enfoque de análisis de las métricas.
Mapeo con Opcional - Aquí se define con que parte de normas o
normas o reglamentaciones exigibles este indicador está
reglamentaciones orientado.
vigentes
Datos históricos Opcional - Gráficos del indicador del pasado año o
historia mínima requerida dentro de la organización.
Para mayor detalle de la plantilla propuesta por el SEI puede referirse al apéndice18.
Ejemplo de
reporte
Nota: Los gráficos
deben ser generados
para la métrica o
indicador y luego
derivados como
entrada para el
análisis de
tendencias.
Individual V alue
para la métrica o 5 _
indicador y luego X=3.52
8 U C L=7.870
M oving Range 6
4
__
M R=2.409
2
0 LC L=0
2 4 6 8 10 12 14 16
O bser vation
de la
colección
Audiencia Gerencia del negocio, usuarios finales y gerencia de la IT (niveles
regionales).
Repositorio EPMS Teamplay (Software Time Management) con intervalos mínimos
de datos de 30 minutos para su carga semanal de esfuerzos.
Período de A nivel de proyecto: semanalmente en las reuniones de revisión.
reporte A nivel organizacional: mensualmente con reporte a la gerencia
superior.
Ejemplo del I-MR Chart of COQ
reporte 80
U C L=68.34
Nota: Los 60
Individual V alue
gráficos deben 40
_
X=28.08
ser generados 20
para la métrica o 0
LC L=-12.18
indicador y luego 2 4 6 8 10 12 14 16
O bser vation
derivados como
entrada para 48 U C L=49.46
análisis de
M oving Range
36
tendencias. 24
__
M R=15.14
12
0 LC L=0
2 4 6 8 10 12 14 16
O bser vation
Ejemplo de
reporte
Nota: Los
gráficos deben
ser generados
para la métrica o
indicador y luego
derivados como
entrada para el
análisis de
tendencias.
150
100
50
01 02 03 04 05 06 07 08 09 10
Month
200
100
50
01 02 03 04 05 06 07 08 09 10
Month
M ean 13.755
S tDev 26.205
V ariance 686.687
S kew ness 3.0996
Kurtosis 11.3452
N 5283
M inimum 0.006
1st Q uartile 0.337
M edian 2.116
3rd Q uartile 18.981
0 35 70 105 140 175 210 M aximum 227.167
95% C onfidence Interv al for M ean
13.048 14.462
95% C onfidence Interv al for M edian
1.958 2.284
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
25.714 26.714
Mean
Median
2 4 6 8 10 12 14
M ean 13.904
S tDev 5.046
V ariance 25.459
S kew ness 0.176600
Kurtosis 0.220309
N 43
M inimum 2.139
1st Q uartile 10.300
M edian 14.300
3rd Q uartile 17.120
6 12 18 24
M aximum 25.420
95% C onfidence Interv al for M ean
12.351 15.457
95% C onfidence Interv al for M edian
11.841 15.109
95% C onfidence Interv al for S tDev
9 5 % C onfidence Inter vals
4.160 6.413
Mean
Median
12 13 14 15
Individual Value
20
_ LS L 0
X=13.90 U S L 720
10
LCL=2.79
0
1 5 9 13 17 21 25 29 33 37 41 0 96 192 288 384 480 576 672
Moving Range
8
__
MR=4.18
0 LCL=0
1 5 9 13 17 21 25 29 33 37 41 0 10 20 30
Cp 32.38 Pp 23.78
16 O v erall
C pk 1.25 P pk 0.92
C pm *
8 S pecs
20 25 30 35 40
Observation
LB Target USL
P rocess Data Within
LB 0 Ov erall
Target 360
USL 720 P otential (Within) C apability
S ample M ean 13.9043 Cp *
S ample N 43 C PL *
S tDev (Within) 3.7055 C P U 63.52
S tDev (O v erall) 5.04573 C pk 63.52
O v erall C apability
Pp *
PPL *
PPU 46.65
P pk 46.65
C pm 0.34
25
20
15 13.9043
Mean
13.7071
11.5882
10
0
2005 2006 2007
Year
Ejemplo de
reporte
Nota: Los
gráficos deben
ser generados
para la métrica o
indicador y luego
derivados como
entrada para el
análisis de
tendencias.
5.5. ¿Por qué usar un tablero de control (dashboard) para los indicadores?
Para el diseño de un panel eficaz se debe considerar el papel que desempeñan los
usuarios dentro de la organización, junto con las tareas específicas y responsabilidades
diarias. El primer paso para diseñar un tablero de instrumentos es comprender los
indicadores clave de desempeño, Key Performance Indicators (KPI), que aquí han
sido tratados como métricas o indicadores, de manera indistinta, seleccionados en base
a los objetivos del negocio. Como se mencionó anteriormente, en un principio es
indispensable contar con un plan de desempeño de indicadores (Measurement Plan),
que contenga toda la información referente a ellos. Luego, de acuerdo al template
sugerido por el SEI, se indicarán cuales se desean gestionar como solución a través del
tablero de instrumentos.
1) Finanzas
2) Entrega
3) Satisfacción al cliente
4) Calidad u otras áreas
81
COUSINS, TINA. 2007. "Dashboard" [en línea]. Disponible en Internet:
www.proms-g.bcs.org/histevents/pdfs/psg0606%20-%20Dashboard.pdf [Consulta: 07 de Junio del 2008]
A su vez, agrega que a través del dashboard es posible vislumbrar lo que sucede en la
organización, permitiendo el control de diversas situaciones en tiempo real y con una
visión global del negocio, por medio del registro de datos actuales e históricos para su
mayor análisis.
base teórica suficiente que permitiera seguir correctamente los pasos necesarios para
introducir una mejora sustancial y real al sistema existente.
Partiendo del proceso de mejora de 7 pasos de ITIL r3, se continuó con la toma de
decisiones basadas en datos (SS), el desarrollo de un plan de desempeño (MP) y la
construcción de indicadores (SEI-CMMI) basados en las mejores prácticas del mercado.
Por otro lado se recurrió a un template o formato predefinido, donde la experiencia del
SEI otorga un soporte confiable para la definición de indicadores y el método a seguir
para aquellos que se incorporarán a futuro.
Cada indicador fue claramente definido, para evitar confusiones entre ellos, y se
presentaron algunos ejemplos de los estimados como críticos, resaltando la importancia
de su integración en un tablero de mando o dashboard.
Esta metodología también es utilizada para otras unidades de negocio, y esto posibilita
el benchmarking entre ellas y la mejora continua planteada en el proceso de los 7 pasos
de ITIL.
Existen distintos ―modelos de calidad‖ que han surgido a lo largo del tiempo. Hallowell82
propone una jerarquía de relevancia y grado de abstracción de aquellos utilizados
habitualmente.
82
HALLOWELL, DAVE. SEI.‖A Measurement & Analysis Training Solution Supporting CMMI & Six Sigma
Transition‖. [en línea]. Disponible en Internet:
http://www.sei.cmu.edu/sema/presentations/training-solution.pdf
Debido a tal diversidad se llevaron a cado mapeos con los modelos CObIT, ITIL, ISO
27000, BSC y CMMI para cada indicador definido, para evaluar la superposición y
relación respecto a diferentes temas, según puntos de vista disímiles.
6. CONTROL DE LA PERFORMANCE
La etapa de control es la que facilita a las empresas el sostén del desempeño mejorado
del proceso, e incluye:
- Confirmar la integridad de medición de las variables de entrada críticas.
- Establecer la capacidad de proceso para las variables de entrada críticas
- Implementar el control estadístico del proceso.
- Identificar oportunidades para continuar la mejora.
La etapa de control del desempeño consta de varias fases, entre ellas se hará énfasis
en:
Plan de implementación de la solución.
Implementación del control estadístico de proceso (SPC).
Integración del proceso.
Cierre del proyecto y reconocimiento.
Las salidas de esta última fase del proyecto DMAIC de Six Sigma serán las siguientes:
20
_ LS L 0
X=13.90 U S L 720
10
LCL=2.79
0
1 5 9 13 17 21 25 29 33 37 41 0 96 192 288 384 480 576 672
8
__
MR=4.18
0 LCL=0
1 5 9 13 17 21 25 29 33 37 41 0 10 20 30
Cp 32.38 Pp 23.78
16 O v erall
C pk 1.25 P pk 0.92
C pm *
8 S pecs
20 25 30 35 40
Observation
Para cada indicador clave de proceso (KPI) es recomendable, siempre que sea posible,
aplicar un control estadístico de proceso para monitorearlos. Esto conducirá a actuar de
manera preventiva, la mayoría de las veces, gracias al análisis de tendencias y
comportamientos de los procesos en cuestión. También brindará la oportunidad de
introducir mejoras y medirlas una vez implementadas.
El objetivo del SPC es mantener el proceso estable, es decir, con la menor variabilidad
posible, distinguiendo las causas de variación comunes de las especiales.
En el siguiente gráfico podemos observar el comportamiento de un proceso que se
encuentra estable en el tiempo, repitiendo la forma distribución de la muestras en el
tiempo con una distribución normal de los datos.
Cuando se detecta una causa especial de variación debe indagarse si es una tendencia
o cambio en el proceso o es debida solo a un caso aislado.
En cambio en el gráfico siguiente se puede observar cual es el comportamiento de un
proceso que no se encuentra estabilizado en el tiempo, produciendo distintas
distribuciones no normales o repetibles lo cual no nos permite predecir que sucederá en
el próximo instante de tiempo.
Los limites de control superior e inferior se generan a través del la lectura de los datos,
su línea central y la variación respecto a las mismas, existen distintas reglas a partir de
los cuales a pesar de que el proceso este dentro de los límites impuestos o propios
podemos predecir si esta saliéndose de control o producir un ajuste que nos permita
aumenta la capacidad del proceso ajustándolo a la línea central o especificaciones. En
grafico siguiente vemos como se reflejan los datos dentro de un grafico de un proceso
dado con los límites de control establecidos.
Para tener un proceso bajo control hay que observar si ocurren cambios, si algún valor
ha quedado fuera de ciertos límites determinados, utilizando los gráficos respectivos.
Para analizar estos cambios y lograr que el proceso retorne a sus valores normales
existen varias metodologías de resolución de problemas, tales como FMEA 83 y/o Global
8D84, que serán aplicadas según criterios fijados por la empresa.
83
FMEA. ―Modo de FMEA o de fallo y análisis de los efectos‖. [en línea]. Disponible en Internet:
http://www.beyondlean.com/FMEA_es.html [Consulta: 04 de Julio del 2008]
84
Global 8D. ―The 8 Disciplines (8D) Process‖. [en línea]. Disponible en Internet:
http://www.siliconfareast.com/8D.htm [Consulta: 04 de Julio del 2008]
Deberán tenerse en cuenta el aspecto cultural, la carga de trabajo y actividad actual del
personal, como así también la capacidad de los mismos para absorber el esfuerzo que
implica la implementación de nuevos procesos o cambios a los existentes;
asegurándose de proveer los recursos humanos y financieros adecuados para que
sucedan en tiempo y forma de acuerdo a los factores del negocio, en cuanto a la
inversión que destine el mismo, la urgencia del mercado y el tiempo del año.
importancia, dado que a partir de los objetivos estratégicos del negocio se definen las
pautas óptimas de su procedimiento. Estos planes deben basarse en un patrón de
métricas estándar (template) sugerido, indicando el contenido mínimo para su
implementación.
Cabe señalar que es cada vez mayor la necesidad de una gestión integrada de la IT,
con las diferentes áreas dentro de la empresa, alineando sus objetivos a la estrategia
global. Esto ayuda a mejorar los resultados, tanto cualitativa como cuantitativamente,
permitiendo –como fuera expresado- optimizar su inteligencia competitiva.
Como se menciona en varios artículos y sitios de internet tales como Artemis 85, donde
resalta que la Gestión Integrada de IT, manteniendo y ampliando las estrategias y
objetivos de la organización, permite compartir una visión única de la demanda de
negocio de IT, tanto de inversiones en curso como previstas, además de agilizar la
asignación de fondos y de recursos para reflejar las prioridades del negocio, alinear el
plan de inversiones con el de ejecución y asegurar la obtención de beneficios.
85
ARTEMIS. ―IT Management and Governance‖. [en línea]. Disponible en Internet:
http://es.aisc.com/solution/2
[Consulta: 21 de Mayo del 2009]
V. Bibliografía
ISO 27000. ―An Introduction to ISO 27001, ISO 27002....ISO 27008‖ [en línea].
Disponible en: http://www.27000.org [Consulta: 11 Diciembre 2007]
IT GOVERNANCE INSTITUTE. 2005. ―Aligning CoBIT, ITIL & ISO 17799 for Business
Benefit: Management Summary.‖ [en línea]. Disponible en: http://www.itgi.org
[Consulta: 25 de Febrero del 2008]
IT GOVERNANCE. 2007. ―What is ISO/IEC 27001?‖ [en línea]. Disponible en:
http://www.27001.com/27001.aspx [Consulta: 11 Diciembre 2007]
ITGI. 2003. ―Board Briefing of IT Governance 2nd Edition‖.[en línea]. Disponible en:
http://www.itgi.org [Consulta: 25 de Febrero del 2008]
ITIL GLENFIS PORTAL. ―ITIL V2 – ITSM Processes‖. [en línea]. Disponible en:
http://www.itil.org/en/itilv2-itservmgmtprozesse/itilv2-
itservicemanagementprozesse.php [Consulta: 25 de Febrero del 2008]
ITIL GLENFIS PORTAL. ―What is ITIL‖.[en línea]. Disponible en:
http://www.itil.org/en/index.php [Consulta: 25 de Febrero del 2008]
ITIL OFFICIAL SITE. [en línea]. Disponible en: http://www.itil-
officialsite.com/home/home.asp [Consulta: 25 de Febrero del 2008]
ITIL(INFORMATION TECHNOLOGY INFRASTRUCTURE LIBRARY). ―ITIL FAQ‖ [en
línea]. Disponible en: http://www.itlibrary.org/index.php?page=ITIL_FAQ
[Consulta: 11 Diciembre 2007]
ITSMF. ―An Introductory. Overview of ITIL. ®. V3‖. 2007‖ [en línea]. Disponible en:
www.itsmf.si/Shared%20Documents/itSMF_ITILV3_Intro_Overview.pdf
[Consulta: 02 de Junio del 2008]
JURAN, J. M. and GRYNA, F.M. Quality planning and analysis. New York: McGraw-Hill,
1993.
JURAN, J. M. Juran y el liderazgo para la calidad – Un manual para directivos. Madrid:
Díaz de Santos, 1990.
KAN, Stephen. Metrics & Models in Software Quality Engineering. USA: Addison-
Wesley, 1995.
KAPLAN, R.S. y NORTON, D.S. Implantando el cuadro de mando integral. Barcelona:
Gestión 2000.
KAPLAN, R.S. y NORTON, D.S. Strategy Maps: Converting Intangible Assets into
Tangible Outcomes. Boston: Harvard Business School, 2004.
KERRY, SIMON. ―DMAIC versus DMADV Methodologies‖. [en línea] I SIX SIGMA.
Disponible en: http://www.isixsigma.com/library/content/c001211a.asp
[Consulta: 11 Diciembre 2007]
KOTTER, John P. What Leaders Really Do?. Boston: School Press, 1999. Limusa,
1995.
LORD KELVIN. ―Quotations from Lord Kelvin‖ [ en línea]. Disponible en:
http://zapatopi.net/kelvin/quotes/ [Consulta: 11 Diciembre 2007]
MANNS, T; Coleman, M. Software Quality assurance. Great Britain: Macmillan Press,
1996.
MARAKAS, George M. Decision Support Systems in the 21st Century. New Jersey:
Prentice-Hall, 1999.
MCCARTY, THOMAS; DANIELS, LORRAINE; BREMER MICHAEL; AND GUPTA,
PRAVEEN. The Six Sigma Black Belt Handbook. New York: McGraw-Hill
Publishers, 2004.
McLEOD, R. Sistemas de Información Gerencial. Méjico: Pearson Educación, 2000.
THE INSTITUTE OF INTERNAL AUDITORS. 2007. ―About us‖. [en línea]. Disponible
en: http://www.theiia.org/theiia/ [Consulta: 11 Diciembre 2007]
TINGEY, M.O. Comparing ISO 9000, Malcolm Baldrige and the SEI CMM for Software.
USA: Prentice Hall PTR, 1997.
UNSW. ―Fundamentals of IT Security‖. [en línea]. Disponible en:
http://www.itee.adfa.edu.au/coursework/ZITE2302/pdfs/FundamentalsOfITSecuri
ty.pdf [Consulta: 01 de Marzo del 2008]
US DEPARTMENT OF COMMERCE. ―Introduction to Commerce Department Export
Controls‖. [en línea]. Disponible en:
http://www.bis.doc.gov/licensing/exportingbasics.htm [Consulta: 04 Marzo 2008]
US GAAP. ―US GAAP by Topic‖. [en línea]. Disponible en:
http://cpaclass.com/gaap/gaap-us-101.htm [Consulta: 04 Marzo 2008]
WEINBERG, Gerald M. Quality Software management: Volume 2 First-Order
Measurement. USA: Dorset House Publishing, 1993.
WET BESCHERMING PERSOONSGEGEVENS (WBP). ―Personal Data Protection
Act‖. [en línea]. Disponible en: http://home.planet.nl/~privacy1/wbp_en_rev.htm
[Consulta: 04 Marzo 2008]
WIKIPEDIA. ―Power Philosophy‖. [en línea]. Disponible en:
http://en.wikipedia.org/wiki/Power_(sociology)#Types_and_sources_of_power
[Consulta: 02 de Junio del 2008]
VI. Apéndices
Network available
No CSC
Network Management - WAN -
99.923% 99.996% metrics
WAN/LAN Availability
available
No CSC
Network Management - WAN -
99.990% 99.999% metrics
Internet Access Availability
available
No CSC
Network Management - Circuit
99.862% 99.963% metrics
Quality
available
Network Management - No CSC
WAN/LAN Problem Resolution =>80% =>90% metrics
% available
MRD & Utility Server
Management - Application 98% 99.68% 98.0%
Server Availability
MRD & Utility Server
Management - Infrastructure 98% 99.68% 99.75%
and Utility Server Availability
Information Security - Maintain
security compliance levels as
per MIPS, Vulnerabilities 98% 100% 100%
remediation, Antivirus & MCERT
patch
<2 major non No non
Audit & Compliance - No major non
conformance, conformance,
Compliance ISO17799 conformance
Lvl 2 Lvl 3
On Site Audit On Site Audit
Audit & Compliance - Action 2006, Action 2006, Action
In Progress
item closure Status Items Items
Addressed addressed
Disaster Recovery - Compliance 90% by 3Q 100% by 3Q 100%
No Survey
Customer Satisfaction - Overall
=>3.75/5.0 =>3.25/5.0 Metrics
Satisfaction with IT Services
Available
Server Availability
MRD & Utility Server
Management - Infrastructure =>99.9% =>99.95% 99.9
and Utility Server Availability
Information Security - Maintain
98% 99% 99%
security compliance levels
<2 Major non
Audit & Compliance - No Major non-conformance,
conformance, Lvl
Compliance to ISO17799 Lvl 3
2
Audit & Compliance - Action Action items
Action Items addressed
item closure Status addressed
Disaster Recovery -
90% by 3Q 100% by 3Q 100%
Compliance
Customer Satisfaction -
Overall Satisfaction with IT >3.75/5.0 >4.0/5.0 4.02
Services
No CSC
Network Management - Circuit
99.862% 99.963% Metric
Quality
available
No CSC
Network Management - WAN/LAN
=>80% =>90% Metric
Problem Resolution %
available
MRD & Utility Server
Management - Application Server 98% 99.9% 98%
Availability
MRD & Utility Server
Management - Infrastructure and 99% 99.9% 98%
Utility Server Availability
Information Security - Maintain
98% 100% 99%
security compliance levels
Audit & Compliance - Compliance No major non
Lvl 2 Lvl 3
to ISO17799 confromances
Working on
Action
Audit & Compliance - Action item Action items the action
items
closure Status addressed items & target
addressed
dates
Disaster Recovery - Compliance 90% by 3Q 100% by 3Q 98%
Customer Satisfaction - Overall
=>3.75/5.0 =>4.25/5.0 Q3'2007
Satisfaction with IT Services
Network Management -
WAN/LAN Problem >57.8% >66.5% No Downtime
Resolution %
MRD & Utility Server
Management - Application 99.9% 99.995% 98.256%
Server Availability
MRD & Utility Server
Management -
99.9% 99.995% 100%
Infrastructure and Utility
Server Availability
Information Security -
Maintain security 99% 100% 100%
compliance
Compliant (Level
Audit & Compliance - Lvl 2. Internal
Lvl 2 2). Self audit
Compliance to ISO17799 audit 2007.
completed
Action items Action items Action items
Audit & Compliance -
identified and closure in closure in
Action item closure Status
addressed progress progress
Disaster Recovery -
90% by 3Q 100% by 3Q 100 %
Compliance
Customer Satisfaction -
Overall Satisfaction with >3.75/5.0 4.25/5.0 4.8
IT Services
Availability
Network Management - CSC metric is
99.862% 99.963%
Circuit Quality attached (graph)
Network Management -
WAN/LAN Problem =>80% =>90% 96.41%
Resolution %
MRD & Utility Server
Management - Application 99.9% 99.95% 100%
Server Availability
MRD & Utility Server
Management -
99.9% 99.95% 99,96%
Infrastructure and Utility
Server Availability
Information Security -
Maintain security 97% 100% 99,12%
compliance levels
<2 Major 0 Major non
Audit & Compliance - No Major
Nonconformance, conformance.
Compliance to ISO17799 Nonconformance
Lvl 2 Lvl 3
On-site Audit Self-audit
Audit & Compliance - Action items
2006, Action ISO17799+ in
Action item closure Status addressed
items addressed Oct'06
Disaster Recovery -
90% 100% 90%
Compliance
Customer Satisfaction -
Overall Satisfaction with IT >3.75 / 5.0 4.25/5.0 4.17/5.0
Services
1.0.0
© COPYRIGHT 2001
Revision History
Survey Identification
Survey Number 02
Section Name IT
Survey Date
Assigned QS XX
Section Representatives
Position Name Interview Time
Manager XX
The purpose of this Analysis will be to ascertain the IT Department customer satisfaction
survey validity. Also, Root Cause Analysis will be used to determine the main
antecedents of the level achieved. Finally some actions tending to improvement will be
delineated.
The Customer Satisfaction level was measured though a single question. The same
approach is used by the site to assess the satisfaction of customers.
Conclusions
Metrics
1.0.2
© COPYRIGHT 2001
Revision History
1 Survey Planning
1.1 Survey Identification and Requirements
Survey Number 01-Internal CSS
Section Name IT
Survey Date 02-Jul-03
Assigned Staff ZZZ
Section Representatives
Position Name
Software Eng. ZZZ
IT Manager XzZ
1.2 Schedule
Main Task Due Date Responsible % Complete
Obtain a draft of the Questions 01-Jul-03 Xzz 100%
Prepare the first draft of the survey 01-Jul-03 Xzz 100%
Validate the draft of the survey 01-Jul-03 ZZZ 100%
Run the survey 02-Jul-03 ZZZ 100%
Process the raw data 10-Jul-03 / 17-Jul-03 ZZZ 100%
Present the results to IT Manager 17-Jul-03 ZZZ 100%
2 Survey Results
2.1 Analysis Purpose and Scope
The purpose of this Analysis will be to ascertain the IT Department customer satisfaction
survey validity. Also, Root Cause Analysis will be used to determine the main
antecedents of the level achieved. Finally some actions tending to improvement will be
delineated.
For validate the survey contents we will perform test under WebSurvey tool environment
to determinate the accuracy of the body of questions presented to the final user.
2.2 Survey Design
The survey will be design using a basic template provide by IT Department at Argentina.
For prototyping proposes we will use WebSurvey tool and IT Manager will validate that
draft before sending it to site staff
2.3 Validity of the survey
The Customer Satisfaction level was measured though a single question. The same
approach is used by the site to assess the satisfaction of customers. Raw Data
Processing
4 Conclusions
Answers to question “AVERAGE NUMBER OF INDIVIDUALS / TIMES HAVE YOU
HAD TO CONTACT I.T. BEFORE PROBLEM RESOLUTION or SERVICE
DELIVERY” indicates more than one person needs to be contacted before problem
resolution in a 33.33% of the cases.
Answers to questions ―Employees are courteous, responsive‖ are overall
satisfactory, but 28.21% between Neutral to Very Dissatisfied should be kept in
mind for Help Desk planning. This answer impacts over others related such as
―I.T. staff is approachable, responsive, courteous and customer focused‖ where
Neutral to Very Dissatisfied account for 43.59% of the total.
Questions related to commitment to the external customers of the organization,
such as ―I.T. responsiveness to special project needs according to your plans‖
reflects to Neutral to Very Dissatisfied perception about 30%. Other questions
impacted by this issue are: ―I.T. Business Understanding to serve your business
needs & your planning‖ where the same range accounted for 25.64% of the
answers. All answers in this section are impacted by this perception.
In Overall Satisfaction & Qualitative Comments the results are remarkable. The
internal CSS score arise to 8.45 for local IT and 7.26 for IT Buenos Aires.
Regarding to this topic‖ Third Party‖ the most significant problem is VoIP with
56.41% answers in the range Neutral to Very Dissatisfied.
Regarding to open ended questions these are the comments of the survey:
On I.T. SERVICES SATISFACTION: (Provide your comments on what services
and capability you are most and least satisfied with and why)
Response
1. IT performs a very good job. Always is available to solve our area's problems and to
provide advice.
2. The capability to get the entire job done with few human resources.
3. The people should be more polite when other engineers request their services.
4. IT services always works excellent.
5. I am very satisfied with the efficiency of the team, how quickly they solve every
problem I might have, how they follow procedures and help me to do so too. I am also
very satisfied with the team behavior; they are very nice and patient.
6. In my opinion IT members responds to our requests properly. I think that IT should
research for free/available licenses from other centers (not only GSG). When buying
licenses those licenses should be purchased with the possibility of sharing within the
company.
Provide your comments on what services and capability you consider the IT strong
points
Response
1. * Organization. * Communication.
2. The quick IT response.
3. Time to solve tickets.
4. Strong capabilities in time response and server/service availabilities.
5. IT strong point: their proficiency in a variety of systems programs and processes. Very
helpful to clear out doubts and give tips.
6. High commitment with IT policies.
7. Fast Response in common problems
8. I am very satisfied with Day-to-day well known tasks and with the overall services and
security strategy.
9. The staff.
10. The responses you give for standard requests (without considering software
licenses...) and tickets.
11. Your internal organization.
12. Your responsibility and commitment.
Provide your comments on what services and capability you consider the IT
opportunities points
Response
1. * Customer care.
2. I know that the IT resources are not enough for all the job that is required, but
sometimes the IT people are not very kind to those who come with some doubt or a
simple question.
3. The MONET Ticket doesn't have a possibility to attached files, and some times it is
necessary to attach some files.
4. They could provide an even faster service if there were more people in the team.
There are too many of us at the Center for the support of just a group of three.
5. An opportunity to improve is that we have to do all the work related with getting the
license for all software installation requests. For some projects there are specific needs
and we can not install software until the fulfillment of all the policies. We feel alone
during this process.
6. Better understanding of customer business requirements that don't fit with the SLA
(need to adapt SLA)
7. I feel there is still room for improvement in projects special requests, odd
environments and installations. There should at least be a defined strategy and process
well communicated to all IT staff and ops engineers. That would save effort and time to
all of us.
8. Technology roadmap is not an IT responsibility, leave it to the SEPG.
9. Don't delay project due to licenses problems. Whenever there's the need of going on
with the project and the commitment to buy the licenses if necessary, avoid stopping the
project until you have clear what should be done. We can go on and purchase the
licenses once we have clear what we own and what we don't.
10. Be careful with the reading you do of the policies (mainly EISS) because in several
cases you've delayed project. Try to be more flexible.
Provide your comments on what services and capability you consider the Third Party
opportunities points
Response
1. Enhance responsiveness to unplanned requirements originated by changes from
customer.
2. VOIP could be much better. It cuts off often, there are "silence" spells during
conference calls. These are recurrent problems.
Provide your comments on what services and capability you consider GIS (Bs As) strong
points
Response
1. None. Not only that I cannot see any kind of work from their part, but also I can hear
the problems that they cause to our local IT dept.
5 Metrics
Effort (staff/hrs) Survey Identification and Requirements: 4hs
Analysis Purpose and Scope: 1hs
Survey Design: 1hs
Validity of the survey: 2hs
Raw Data Processing and Conclusions: 2hs
Product Versioning: 2hs
1.0.0
XXX
© COPYRIGHT 2004
Revision History
1 Survey Identification
Survey Id 2004Q1_ITCSS
Section Name I.T.
Survey Date 04-May-2004/28-May-2004
Assigned QS xxx
Section Representatives
Position Name Interview Time
Manager zzzz 0.5 hs
3 Results Analysis
1.1. Overall Customer Satisfaction
The Customer Satisfaction level was measured though a single question. The same
approach is used by the site to assess the satisfaction of customers.
As shown in figure 1, the average overall customer satisfaction was 8.87 (computed
including the 47 survey respondents), which is above the 8.75 goal. Nonetheless, further
analyses were made in order to determine the clustering of the responses. As shown in
figure 2 the overall satisfactions remains above the goal in all cases except for the oldest
group (the median for employees older than 18 month is below the established goal).
Figure 3 shows the distribution in percentages of the values obtained for the question.
M ean 8.8723
S tDev 0.8500
V ariance 0.7225
S kew ness 0.03053
Kurtosis -1.15801
N 47
M inimum 7.0000
1st Q uartile 8.0000
7 8 9 10 M edian 9.0000
3rd Q uartile 10.0000
M aximum 10.0000
95% C onfidence Interv al for M ean
8.6228 9.1219
95% C onfidence Interv al for M edian
95% Confidence Intervals 8.0000 9.0000
95% C onfidence Interv al for S tD ev
Mean
0.7063 1.0676
Median
17, 36.2%
16, 34.0%
For each primary service identify within the area, a question was included in the survey
in order to determine the overall customer satisfaction for the service. As shown in figure
4, all the services, showed a notably stability and a very low dispersion.
10
9
8.80851 8.85106
8.76596 8.75
8.6383
Data
An important remark is that the all identified services were highly correlated to the overall
customer satisfaction (as shown in Figure 5). This situation out stands the importance of
these items to the overall satisfaction of the customer.
For all the questions included in the survey a mean analysis was performed to determine
opportunities of improvement. Figure 6 and Figure 7 summarize both, the questions and
its results.
I.T. internal Customer Satisfaction Survey
1) How long have you been a ZZZ employee? * (Required)
2) How often (Average) do you need to contact I.T. for services? * (Required)
3) What method do you use to contact I.T. and find effective?* (Required)
4) Wich is your most frequently used environment? * (Required)
5) Average number of individuals / Times you had to contact I.T. before problem
resolution or service delivery: * (Required)
6) What is your overall satisfaction with the support given by your local I.T. department?
* (Required)
7) I.T. delivers quality solutions (Systems, Hardware, Software, Network, Mail, file server,
print server, Data Mgt etc) that meet your business requirements
8) I.T. delivers quality services (helpdesk etc) that meet your business requirements
9) Solutions are secure and integrity of data is preserved
10) Solutions and service add value to your business
11) Are you satisfied with the level of compliance of the SLA by IT area and approved by
the management.
12) What is your overall satisfaction with I.T. services availability? * (Required)
13) I.T. Services such as WAN, LAN, Servers and desktops are available to support the
business
14) Applications like Mail, tools like Clearcase are available
15) Duration, frequency of unscheduled systems & Network outages
16) Computer performance & Network responses are satisfactory
17) New Service / enhancements /migrations are implemented with minimal disruption
18) What is your overall satisfaction with I.T. Problem Management (Help Desk
Services)? * (Required)
19) Employees are courteous, responsive
20) Helpdesk/employees have the technical ability to resolve or escalate the problem or
service request
21) Availability of Helpdesk/employees satisfies your needs
22) I.T. updates you of status of your problem/request
23) Turnaround time for fixing your request meets your expectations & SLA
24) What is your overall satisfaction with I.T. responsiveness? * (Required)
25) I.T. Response to Routine Service Request
26) I.T. Response to Emergency Service Request according to the ticket priority you
select
27) I.T. staff is approachable, responsive, courteous and customer focused
28) I.T. Time Frame for Services provisioning adecuate
29) I.T. responsiveness to special project needs according to your plans
30) Have I.T. prioritized your requests into Routine, Emergency, etc according to the
SLA & your MONET selection
31) What is your overall satisfaction with I.T. capability? * (Required)
32) I.T. Technical capability to handle Services Provisioning and Problem Management
33) I.T. Business Understanding to serve your business needs & your planning
34) I.T. Planning and Project Management capability to meet commitments and
appointments with customer according your requests & planning
35) I.T. Communication Capability to convey plans, update customers
36) I.T. Deployment capability for new systems, software that meet customer
expectations & agree the SLA
37) I.T. Strategic Planning, Long-Range Planning, and Technology Roadmap Planning
for the Center
38) I.T. Capacity Planning & Growth expansion handling
39) Could you name some improvement opportunity for the I.T. Department?
40) Other comments
8.95122
8.93023
8.92105
8.88372
8.87234
8.85106
8.80851
8.81081
8.79545
8.76316
8.76596
9.0 8.825
8.72727
8.68421
8.68293
8.65789
8.61111
8.61111
8.60976
8.60465
8.6383
8.675
8.55263
8.75
8.3871
8.5
8.5
8.5
8.5
8.5
8.5
Data
8.17647
8.25
8.15
8.0
7.825
7.5
Figure 7 show that some services are consistently not reaching the expected goal (Q14,
Q17 and Q33). Although they do not have a remarkable influence over the overall
customer satisfaction, they can be used as opportunities to improve it.
4. Open ended questions, Could you name some improvement opportunity for the I.T.?
rules, but more tolerance is desirable. Other centers has the same hardware but the
efficiency of the software installed is superior. There are a lot of paperwork in IT related
work. All these management approvals are very time consuming and don't add any value
to our customers neither the center, since this data is just in paper and not metrics are
collected using that. IT did a great work in setting up a define process. Now is time to
improve the process doing it more efficient and not so defensive.
Apply a more rigorous project management approach to migrations, deployments, etc.
Clearcase need special attention, because is so slow that the work can hardly be done.
Please, let us define the priority of the tickets we generate. It's stupid to have the
possibility of giving different levels of priority to the tickets and not being allowed to use
them. IT shall have a more cooperative look at project needs that fall outside of any SLA.
It shall first consider the business (projects) needs, and then providers and its own
requirements. It doesn't make sense preventing a project from going-on just because of
a particular interpretation of a policy.
5. Conclusions
The data shows a remarkable low dispersion within questions. In consequence the
summary of data showed above seems to represent accurately the general perception of
the service provided by the I.T. department.
The analysis of the overall customer satisfaction shows the principal opportunity of
improvement in the ―clear case tool‖ area. Also, although a high level overall customer
satisfaction, services means by itself are in general not much above the goal and in a lot
of cases (21 out of 32) are under the goal.
Finally, a causal analysis is suggested in order to prioritize the areas to be adjusted in
the near future and to segregate the areas that really need improvement from those that
need maintenance.
1.0.0
XXX
© COPYRIGHT 2005
Revision History
1 Survey Identification
Survey Id 2005Q2_ITCSS
Section Name I.T.
Survey Date 01-Jun-2004/28-Jun-2004
Assigned QS XXX
Section Representatives
Position Name Interview Time
Manager ZXX 0.5 hs
3 Results Analysis
1.1. Overall Customer Satisfaction
The Customer Satisfaction level was measured though a single question. The same
approach is used by the site to assess the satisfaction of customers.
As shown in figure 1, the average overall customer satisfaction was 8.16 (computed
including the 66 survey respondents), which is below the 8.75 goal. Nonetheless, further
analyses were made in order to determine the clustering of the responses. As shown in
figure 2 the overall satisfactions remains below the goal in all cases except for the
newest group (the median for employees with less than 6 month as Motorolan is above
the established goal). Figure 3 shows the distribution in percentages of the values
obtained for the question.
For each primary service identify within the area, a question was included in the survey
in order to determine the overall customer satisfaction for the service. As shown in figure
4, all the services, showed a notably stability and a very low dispersion.
10
9
8.75
8.25758 8.36364 8.27273
8 8.09091
7
Data
An important remark is that the all identified services were highly correlated to the overall
customer satisfaction (as shown in Figure 5 ). This situation outstands the importance of
these items to the overall satisfaction of the customer.
For all the questions included in the survey a mean analysis was performed to determine
opportunities of improvement. Figure 6 and Figure 7 summarize both, the questions and
its results.
I.T. internal Customer Satisfaction Survey
1) How long have you been a Motorola employee? * (Required)
2) How often (Average) do you need to contact I.T. for services * (Required)
3) What method do you use to contact I.T. and find effective * (Required)
4) What is your overall satisfaction with the support given by your local I.T. department?
* (Required)
5) I.T. delivers quality solutions (Systems, Hardware, Software, Network, Mail, file server,
print server, Data Mgt etc) that meet your business requirements
6) I.T. delivers quality services (helpdesk etc) that meet your business requirements
7) Solutions are secure and integrity of data is preserved
8) Solutions and service add value to your business
9) What is your overall satisfaction with I.T. services availability? * (Required)
10) I.T. WAN Services are available to support the business
11) Applications like Mail, tools like Clearcase are available
12) Duration, frequency of unscheduled systems & Network outages
13) Computer performance & LAN Network responses are satisfactory
14) New Service / enhancements /migrations are implemented with minimal disruption
15) What is your overall satisfaction with I.T. Problem Management (Help Desk
Services)? * (Required)
16) Helpdesk/employees have the technical ability to resolve or escalate the problem or
service request
17) Availability of Helpdesk/employees satisfies your needs
36) How do you compare I.T. business understanding with last year?
37) Could you name some improvement opportunity for the I.T. Department
38) Other comments
8.75
8.40385
8.36364
8.34483
8.27273
8.25758
8.5
8.22727
8.4
8.16949
8.15556
8.14545
8.13725
8.10256
8.09091
8.01923
7.97368
7.95918
7.93103
7.90196
8
8.0
7.9
7.8
7.8
Data
7.53846
7.40476
7.34211
7.5
7.29268
7.5
7.0
5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2
Q Q Q Q Q Q 1 Q 1 Q 1 Q1 Q1 Q 1 Q 1 Q 1 Q 1 Q1 Q 2 Q 2 Q 2 Q 2 Q2 Q 2 Q 2 Q 2 Q 2 Q2 Q 3 Q 3 Q 3
Surveyed Comparisons
availability of applications comp. and network performance Category
2, 3.0% 4, 6.1%
21, 31.8%
Better
19, 28.8% 22, 33.3%
Equivalent
Worse
27, 40.9%
14, 21.2%
23, 34.8%
27, 40.9%
26, 39.4%
10
7
Data
As depicted in the figures above, the difference between this years overall customer
satisfaction and last year is in fact statistically significant, indicating that the reduction in
customer satisfaction is an actual phenomena and was not introduced by chance (as
indicated by the confidence interval between -1.18 and -0.22).
Finally, Appendix A shows a side by side comparison of the graphs included in both
surveys to ease the comparison of the reader.
5. Open ended questions, Could you name some improvement opportunity for the I.T.
Department
you need to show MORE patience and courtesy with your customers
take more risks and avoid 'avoiding' responsibilities
It would be great if less bureaucracy were needed for installing new software on the
user's workstations. I understand this decision is not in IT's hand (at least the local IT
staff), and I'm very much satisfied with its responsiveness, but there are two alternatives:
1. One is 'stuck' with the default software installations (Internet Explorer instead of
Firefox, Notepad instead of VIM, and so on), or 2. One must ask permission to his/her
manager, forward the OK (if this was the case) to IT, and then have the software
installed. I fully understand the need for controlled workstations, but nevertheless I think
it is a bit too much for me.
Clearly the IT Department should focus their improvement on the customer approach ,
courtesy and customer treatment.
Network operations (especially ClearCase operations) are slow.
Get more people. we are almost 200 persons and the department has not grown
accordingly.
Some easy improvements like availability of memory sticks would really facilitate the
management of files of the employees (e.g. if i want to work on weekends or at nights i
can't take a file with me) Individual PCs maintenance should be done periodically.
Increase responsibility over systems (not just maintaining but being responsible)
None at all, they do a great job!!
IT is an outstanding team, great skills, fast response and very kind, ALWAYS! Wonderful
supportive group for the Site. Congratulations.
Make procedures less burocracy and more agile
Customer adaptation. I suggest, less restriction in common usage of the PCs, restriction
in a good way is ok, but extremes are negative.
Improve technical capabilities.
Allow the free usage of pen drives
Focus on projects customers need please, do not the survey so long the next time
It should be great and important that IT area improve people treatment and focus more
in projects needs not only in policies.
They always try to feet to company's policies, and that's great, but they should take more
into account the special situations caused by the projects' needs.
technical skills
I think the only point where I could recommend a change is in the PC configuration. It
has too many security checks that are not required inside Motorola intranet, and those
checks use some processor capacity.
Go ahead as you're doing!!! GREAT JOB!!!
This survey must be an anonymous survey.
IT Dept. needs to understand its primary role as a service & support area improving its
flexibility to serve changing business needs and growing population in the center,
engineers are its end customers and require more focus. IT is quite good at handling
routine situations but there is room for improvement in the way they deal with specific
problems, escalation to the supplier of a solution may not be enough to solve an actual
problem, they should proactively offer alternatives and workarounds.
To be more up to date with the very new technologies so that they can be prepared
beforehand for new requirements and can implement improvements to the systems.
Though all the systems are working perfectly and I have absolutely nothing to say
against them.
Firewalls are not good enough. There are a lot of trash/spam emails
0. Conclusions
The data shows a remarkable low dispersion within questions. In consequence the
summary of data showed above seems to represent accurately the general perception of
the service provided by the I.T. department.
The analysis of the overall customer satisfaction shows the principal opportunity of
improvement in the ―business understanding area‖. Nonetheless, the rest of the services
still show a qualification near to 8 given the area an important start point from where to
build it improvement plans.
Finally, a causal analysis is suggested in order to prioritize the areas to be adjusted in
the near future and to segregate the areas that really need improvement from those that
need maintenance. In particular, the negative evolution of the overall customer
satisfaction should be analyzed to undercover any potential cause of dissatisfaction that
could be producing such a trend in the future.
1. Metrics
Graphics statistics
Time Time
No Status Detail Date System/s Reason Owner Cancel
From To
As informed by Tools they
need to empty a directory
where Room Booking
temporary files are stored. In
order to do that we need to Intranet
1 Closed 2007/11/19 14:00 14:30 Other alm045
stop Web services for a few services
minutes. This might solve the
problem with RB application.
Services affected: Intranet &
Intranet applications.
Due to a vulnerability in PHP
we have to upgrade PHP
2 Closed 2007/11/21 08:00 08:30 ZAR03DHP01 Other arg031
version. Service unavailable
MSG intranet.
On Friday Nov, 16th Clearcase
services hanged and did not
respond for an hour
approximately. As part of the
troubleshooting indicated by Clearcase
3 Closed 2007/11/21 20:00 21:00 Other alm045
Rational support we need to Services
try to reproduce the problem
to find the root cause. CC
services won't be available
during this window.
Due to an unsafe set in a
eeprom - autoboot variable.
We have to rebbot this server.
4 Closed 2007/11/23 18:00 19:00 ZAR03UNIX01 Other arg031
Service affected: VOB server,
home directories, /project
directory
Server will be rebooted at
6pm since we need to install
Software
5 Cancelled Partition Expert software to 2007/11/26 18:00 18:30 ZAR03DHP01 alm045
Installation
resize C:/ partition. Affected
services: Intranet.
Due to VBScript56 installation
we need to rebot this server. Software
6 Closed 2007/11/27 08:00 08:30 zar03ora02 arg031
Service affected: CQWeb; Installation
oracle 8 server.
On Friday Nov, 16th Clearcase
services hanged and did not
respond for an hour
approximately. As part of the
troubleshooting indicated by ClearCase
7 Cancelled 2007/12/05 18:00 19:00 Other tcqn73
Rational support we need to Services
try to reproduce the problem
to find the root cause. CC
services won't be available
during this window.
APÉNDICE 16. MAPPING ITIL & ISO 17799 TO COBIT CONTROL OBJECTIVES86
It is only a guide. The mapping is not considered to be definitive or prescriptive. Links are shown at the
high level.
86
IT GOVERNANCE INSTITUTE. 2005. ―Aligning CoBIT, ITIL & ISO 17799 for Business Benefit:
Management Summary.‖ [en línea]. Disponible en Internet: http://www.itgi.org [Consulta: 25 de Febrero
del 2008]
APÉNDICE 18. MAPPING OF CMMI FOR DEVELOPMENT V1.2 WITH COBIT 4.087
87
ISACA. ―COBIT MAPPING: MAPPING OF CMMI FOR DEVELOPMENT V1.2 WITH COBIT 4.0‖.[en
línea]. Disponible en Internet:
http://www.isaca.org/ContentManagement/ContentDisplay.cfm?ContentID=31452 [Consulta: 24 de Junio
del 2008]