Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Prefacio
Hoy en día existen excelentes textos publicados sobre evaluación. Algunos de ellos se
enfocan en la historia y la teoría de la evaluación; otros brindan un análisis comprensivo de
los modelos y conceptos de evaluación; y otros ofrecen principalmente un enfoque a la
metodología evaluativa. Mientras que este libro contiene estos conceptos, no intenta
replicar ni refutar ningún otro trabajo. Por el contrario, este libro ha sido organizado en
forma tal de poder ilustrar a la evaluación en un contexto de mejora del desempeño, en vez
de enfocarse puramente en una perspectiva evaluativa.
• Practicantes de la Mejora del Desempeño tanto que busquen realizar una buena
evaluación, como que deseen familiarizarse con ella para poder trabajar bien con los
evaluadores; o aquellos que deseen integrar una perspectiva evaluativa en todas las
fases de la mejora del desempeño, desde la detección necesidades, su implementación,
hasta la evaluación misma.
• Evaluadores que deseen realizar evaluaciones sistemáticas y enfocadas al desempeño,
con la finalidad última de mejorar no sólo programas o soluciones, sino las
organizaciones y los clientes cuyas necesidades busquen satisfacer.
• Estudiantes que deseen obtener una base conceptual acerca de la evaluación, y una
guía para aplicar esos conceptos tanto en cursos como en su propio trabajo.
• Instructores que estén buscando un texto que incluya los fundamentos más
importantes de la evaluación, y presente modelos conceptuales en el contexto del
mejoramiento del desempeño.
• Clientes que deseen sentirse consumidores mejores informados, y socios participantes
en los esfuerzos evaluativos.
Este libro está dividido en tres secciones, comenzando por la introducción a los
fundamentos de la evaluación, y una descripción general de los modelos que han sido
específicamente elegidos por su notoriedad y aplicabilidad en el área de mejora del
desempeño. La primera sección también incluye un enfoque al Proceso Para Evaluar
Impacto (Guerra-López 2007), un concepto de evaluación basado en la mejora del
desempeño.
Finalmente, la tercera sección concluye con una revisión de la mejora continua, y el futuro
de la evaluación respecto a la mejora del desempeño.
2
Índice
3
MÉTODO DEL CASO DE ÉXITO DE BRINKERHOFF ......................................................................... 47
Fortalezas y Limitaciones ....................................................................................................................... 48
MODELO DE EVALUACIÓN CIPP ........................................................................................................... 49
Contexto .................................................................................................................................................. 50
Insumos ................................................................................................................................................... 50
Procesos.................................................................................................................................................. 51
Productos ................................................................................................................................................ 51
Fortalezas y Limitaciones ....................................................................................................................... 51
¿QUÉ MODELO DEBO SELECCIONAR? ............................................................................................................ 52
CONCEPTUAR LA EVALUACIÓN .................................................................................................................... 52
CAPÍTULO 4 .................................................................................................................................................. 54
EL PROCESO PARA EVALUAR IMPACTO ........................................................................................... 54
INTRODUCCIÓN ............................................................................................................................................ 54
NOTA SOBRE LA NATURALEZA DE LA INVESTIGACIÓN DEL IMPACTO DEL PROCESO EVALUATIVO ............... 55
DESCRIPCIÓN................................................................................................................................................ 56
1. Identificación de los Stakeholders y Expectativas ............................................................................. 56
2. Determinar las Decisiones y Objetivos Clave .................................................................................... 59
¿DE DÓNDE SURGEN LAS PREGUNTAS ÚTILES? ............................................................................................. 60
3. Derivar Indicadores de Medición ....................................................................................................... 64
4. Identificación de las Fuentes de Información ..................................................................................... 64
5. Seleccionar los Instrumentos para la Recolección de Datos .............................................................. 65
6. Selección de las Herramientas para el Análisis de Datos .................................................................. 66
7. Comunicación de Resultados y Recomendaciones ............................................................................. 68
CONCLUSIÓN ................................................................................................................................................ 69
Fortalezas y Limitaciones ....................................................................................................................... 69
APLICACIÓN ................................................................................................................................................. 70
Antecedentes ........................................................................................................................................... 70
Metodología ............................................................................................................................................ 70
Hallazgos ................................................................................................................................................ 74
CAPÍTULO 5 .................................................................................................................................................. 78
EVALUAR EVALUACIONES ..................................................................................................................... 78
INTRODUCCIÓN ............................................................................................................................................ 78
DEFINICIÓN .................................................................................................................................................. 79
ESTÁNDARES DE EVALUACIÓN ..................................................................................................................... 80
SECCIÓN 2..................................................................................................................................................... 83
HERRAMIENTAS Y TÉCNICAS DE EVALUACIÓN ............................................................................. 83
CAPÍTULO 6 .................................................................................................................................................. 84
DATOS ............................................................................................................................................................ 84
DEFINICIÓN DE DATOS ................................................................................................................................. 84
CARACTERÍSTICAS DE LOS DATOS ................................................................................................................ 85
Datos Concretos (Hard Data) ................................................................................................................ 85
Datos Abstractos (Soft Data) ................................................................................................................. 86
Cualitativo y Cuantitativo ...................................................................................................................... 86
ESCALAS DE MEDICIÓN ................................................................................................................................ 87
DEFINICIÓN DE DATOS REQUERIDOS A PARTIR DE OBJETIVOS DE DESEMPEÑO ............................................ 89
DERIVAR INDICADORES DE MEDICIÓN ......................................................................................................... 91
FUENTES DE DATOS.................................................................................................................................... 101
Seguimiento de Preguntas y Datos ...................................................................................................... 104
4
CAPÍTULO 7 ................................................................................................................................................ 106
RECOLECCIÓN DE DATOS..................................................................................................................... 106
INTRODUCCIÓN .......................................................................................................................................... 106
METODOLOGÍA DE OBSERVACIÓN Y EL PROPÓSITO DE LA MEDICIÓN ........................................................ 107
Métodos de Observación Directa Basados en las Personas ................................................................ 108
Técnicas de Observación Indirecta, Centrada en las Personas.......................................................... 112
Métodos Centrados en Instrumentos ................................................................................................... 118
Examen de Conocimiento General...................................................................................................... 125
Confiabilidad y Validez de los Exámenes ............................................................................................. 128
Métodos Centrados en el Tratamiento ................................................................................................ 131
Investigación Experimental y Evaluación: Su Relación .................................................................... 131
Diseño del Experimento ....................................................................................................................... 132
PROBLEMAS CON ESTUDIOS EXPERIMENTALES CLÁSICOS Y ESCENARIOS APLICADOS .............................. 134
Estudios de Series Periódicas .............................................................................................................. 135
Métodos Centrados en la Documentación .......................................................................................... 137
CAPÍTULO 8 ................................................................................................................................................ 139
ANÁLISIS DE LOS DATOS DE EVALUACIÓN: HERRAMIENTAS Y TÉCNICAS........................ 139
MÉTODOS DEL ANÁLISIS CUALITATIVO ..................................................................................................... 139
ANÁLISIS DE MODELOS Y PATRONES ......................................................................................................... 139
ANÁLISIS UTILIZANDO UNA DISCUSIÓN ESTRUCTURADA .......................................................................... 140
ESTRUCTURA IMPUESTA PARA TEMAS EMERGENTES ................................................................................. 141
RELEVANCIA .............................................................................................................................................. 141
CONTROLES SOBRE UNA DISCUSIÓN ESTRUCTURADA ................................................................................ 142
MÉTODOS DEL ANÁLISIS CUANTITATIVO ................................................................................................... 142
ESTADÍSTICAS ............................................................................................................................................ 143
Dos tipos de estadísticas ....................................................................................................................... 143
Medición de Tendencia Central .......................................................................................................... 144
Medición de Dispersión (Variabilidad) ............................................................................................... 147
REPRESENTACIÓN GRÁFICA DE DATOS ...................................................................................................... 153
MEDICIÓN DE RELACIONES ........................................................................................................................ 155
ESTADÍSTICA INFERENCIAL: PARAMÉTRICA Y NO PARAMÉTRICA .............................................................. 156
CAPÍTULO 9 ................................................................................................................................................ 162
COMUNICACIÓN DE LOS HALLAZGOS ......................................................................................................... 162
RECOMENDACIONES ................................................................................................................................... 162
DESARROLLO DEL INFORME ....................................................................................................................... 164
Una Perspectiva Iterativa ..................................................................................................................... 164
El Rol del Evaluador Luego de la Presentación del Informe ............................................................... 172
CAPÍTULO 10 .............................................................................................................................................. 173
CONTRATACIÓN DE SERVICIOS DE EVALUACIÓN ....................................................................... 173
LA NATURALEZA DE LOS CONTRATOS ....................................................................................................... 173
Precio Fijo ............................................................................................................................................ 174
Costo Más Honorario Fijo ................................................................................................................... 174
Tiempo y Materiales ............................................................................................................................. 175
Anticipo de Consultas ........................................................................................................................... 175
CONTROLES DE CONTRATACIÓN ................................................................................................................ 176
Alcance del Trabajo .............................................................................................................................. 176
Declaración de Trabajo (SOW, Statement of Work) ............................................................................. 176
Otras Cláusulas Contractuales ............................................................................................................. 177
Plan de Gestión..................................................................................................................................... 177
Revisión del Programa ......................................................................................................................... 177
Cronogramas y Desglose de la Estructura de Trabajo ........................................................................ 177
5
Entrega y Aceptación ............................................................................................................................ 178
Ética y Profesionalismo ........................................................................................................................ 178
MUESTRA DE DECLARACIÓN DE TRABAJO ................................................................................................. 178
Información General............................................................................................................................. 178
Reunión de Contratación ...................................................................................................................... 180
Tareas Mandatorias Específicas y Entregas Asociadas ..................................................................... 181
Descripción de Tareas y Entregas Asociadas: ..................................................................................... 181
Cronograma de Entregas...................................................................................................................... 182
Cambios en la Declaración de Trabajo ................................................................................................ 182
Requerimientos de Informes ................................................................................................................. 182
Viaje y Visitas a Instalaciones .............................................................................................................. 183
Responsabilidades de la Corporación Vendomucho ............................................................................ 183
Requerimientos de Experiencia del Contratista ................................................................................... 183
Confidencialidad y No Divulgación...................................................................................................... 183
SECCIÓN 3................................................................................................................................................... 185
MEJORA CONTINUA ................................................................................................................................ 185
CAPÍTULO 11 .............................................................................................................................................. 186
ERRORES COMUNES EN LA EVALUACIÓN ...................................................................................... 186
ERRORES DE MAPEO DEL SISTEMA ............................................................................................................. 187
Error de camino causal ........................................................................................................................ 187
Error de una mala atribución ............................................................................................................... 187
Error de “el jugador faltante” ............................................................................................................. 187
Error de valor local .............................................................................................................................. 188
ERRORES DE LÓGICA .................................................................................................................................. 188
Error de conclusión falsa ..................................................................................................................... 188
Error del experto .................................................................................................................................. 188
Error de pensamiento de deseo............................................................................................................. 188
Error de asociación .............................................................................................................................. 189
Error de rápido arreglo ........................................................................................................................ 189
Error de explicación de arrastre .......................................................................................................... 189
ERRORES DE PROCEDIMIENTO .................................................................................................................... 189
Error de instrumento ............................................................................................................................ 189
Error de medición ................................................................................................................................. 190
Error del modelo................................................................................................................................... 190
Error del artefacto ................................................................................................................................ 190
Error del punto ciego............................................................................................................................ 190
Error de cambios de desplazamiento .................................................................................................... 191
Error del camino ahorquillado ............................................................................................................. 191
Error de población enmascarada ......................................................................................................... 191
Error de la persona promedio .............................................................................................................. 191
CAPÍTULO 12 .............................................................................................................................................. 193
MEJORA CONTINUA ................................................................................................................................ 193
¿QUÉ ES LA MEJORA CONTINUA? ............................................................................................................... 193
Monitoreo de Desempeño .................................................................................................................... 194
Ajuste de Desempeño ........................................................................................................................... 196
El Rol del Liderazgo............................................................................................................................. 197
CAPÍTULO 13 .............................................................................................................................................. 199
RECOPILACIÓN DE INTELIGENCIA PARA LA TOMA DE DECISIONES: SISTEMAS DE
MONITOREO DE DESEMPEÑO ............................................................................................................. 199
MEDICIÓN, INTELIGENCIA Y DECISIONES ................................................................................................... 199
6
SISTEMAS DE MEDICIÓN DE DESEMPEÑO ................................................................................................... 200
PUNTOS DE CONSIDERACIÓN EN LOS SISTEMAS DE MEDICIÓN DE DESEMPEÑO.......................................... 203
CONCLUSIÓN .............................................................................................................................................. 204
CAPÍTULO 14 .............................................................................................................................................. 206
EL FUTURO DE LA EVALUACIÓN EN LA MEJORA DEL DESEMPEÑO ..................................... 206
¿QUÉ NOS DEPARA EL FUTURO? ................................................................................................................ 207
CONCLUSIÓN .............................................................................................................................................. 208
REFERENCIAS Y LECTURA RELACIONADA .................................................................................... 209
7
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
8
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 1
Introducción a la Evaluación
Decisiones, Decisiones…
En nuestra vida cotidiana, nos encontramos casi continuamente en situaciones en las que
debemos tomar una decisión: ¿Debería hacer esto o debería hacer lo otro? ¿Debería tomar a
la derecha o a la izquierda? ¿Debería tomar la autopista o alguna calle alternativa? ¿Debería
llevar el paraguas o no? En este punto, la vida no es diferente a un marco organizacional, en
el que nos enfrentamos continuamente con la toma de decisiones acerca de qué programas
implementar, qué cambiar y qué abandonar, sólo para mencionar algunos de los dilemas
organizacionales. ¿Cómo toman las decisiones los miembros de una organización? Mediante
la utilización de información relevante, confiable y válida, obtenida durante un proceso
evaluativo que esté alineado con los resultados deseados a largo plazo.
9
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Todo esto ocurría en un contexto de mejora para justificar los billones de dólares que el
gobierno de los Estados Unidos de Norteamérica estaba invirtiendo en programas sociales,
de salud y educacionales (Fitzpatrick, et al., 2004; Patton, 1997). Con la finalidad de
justificar tales inversiones, las personas responsables de dichos programas comenzaron
pronto a consultar a los evaluadores, acerca de cómo sus programas podían ser mejorados.
Por lo que el propósito inicial de la evaluación de programas consistió en juzgar si los
programas valían la pena, como para continuar financiándolos.
10
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Una evaluación –una que pregunte y responda el interrogatorio correcto–, no sólo puede ser
utilizada para determinar resultados, sino que también puede utilizarse para conocer porqué
se encontraron esos resultados, y cómo modificar lo que está siendo evaluado, para que
pueda cumplir con los objetivos que la generaron dentro de un criterio requerido. Esto
11
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
resulta especialmente útil, no sólo para identificar qué funcionó mal o qué puede mejorarse,
sino también para identificar qué debe mantenerse tal cual está. Mediante una indagación
apreciativa (appreciative inquiry - Cooperrider & Srivastva, 1987), la evaluación nos puede
ayudar a identificar todo aquello que funciona correctamente. Una indagación apreciativa es
un proceso que busca lo mejor de las organizaciones, para encontrar oportunidades de mejora
de desempeño y creación. En este caso también, nos brinda un medio finalmente dedicado a
la mejora del desempeño.
Mientras que las intenciones de la mayoría de los evaluadores son sólo eso, el lenguaje y el
enfoque o perspectiva utilizada, es recargado con suposiciones de que las cosas andan mal.
Por ejemplo, el término resolución de problemas implica que desde el comienzo algo anda
mal, y aún cuando esta suposición no sea explícita en los cuestionarios generales de
evaluación, se hace su lugar en nuestros esfuerzos para recabar información. Naturalmente,
los parámetros de lo que estamos preguntando influenciarán la información que obtenemos –
y en último lugar–, nuestros hallazgos y conclusiones. Si nosotros preguntamos qué anda
mal, quienes respondan contestarán específicamente a esa pregunta. Si en cambio
preguntamos qué anda bien, ellos nos dirán. El punto clave es que la evaluación debe ser
imparcial (o al menos lo más imparcial posible). Debemos preguntar y responder un
interrogatorio correcto, para que la información que obtengamos sea de hecho representativa
de la realidad.
Mientras que los dos últimos tipos de evaluación están particularmente destinados a agendas
políticas, en realidad todas las evaluaciones pueden caer bajo esa categoría, y el reconocer la
factibilidad de conducir una evaluación honesta, requiere una evaluación introspectiva. Un
12
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
evaluador experimentado reconocerá –la mayoría de las veces–, si las personas interesadas
en la evaluación cuentan con un sincero interés en utilizar los resultados de dicha evaluación
para mejorar el desempeño, o para avanzar en sus intereses políticos. Prestando cuidadosa
atención a una planificación detallada, cada una de estas razones puede ajustarse al enfoque
de la evaluación, motivado por la información y orientado a los resultados. Pero si es tomada
en forma demasiado limitada –en forma aislada y sin el contexto propicio–, cada una de las
evaluaciones mencionadas contiene en sí misma una cantidad de problemas, puntos ciegos,
generación de información especial y problemas de colección. El modo en que se percibe el
propósito de la evaluación puede modelar y limitar la información que está siendo observada
(o no observada), recabada (o no recabada), e interpretada o ignorada. Por lo cual, tanto los
evaluadores como los stakeholders, deben comenzar planificando el proceso con una
articulación clara de qué decisiones deberán tomarse a partir de los resultados encontrados,
decisiones que están ligadas al propósito general de conducir la evaluación.
13
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Es en este contexto que la evaluación ha sido vista y descripta en este libro. La evaluación no
es un proceso aislado, sino parte de una serie de procesos y procedimientos que,
encontrándose apropiadamente alineados, pueden asegurar que los programas y
organizaciones logren resultados valiosos, efectiva y eficientemente.
Los stakeholders de una evaluación pueden ser categorizados en forma general, como
internos (propietarios, empleados y gerentes), y externos (clientes, los clientes de su cliente,
la comunidad, los proveedores, competidores, el gobierno y los medios sólo para nombrar
algunos), y ambas categorías pueden ser subdivididas en varios grupos.
1
Sin embargo existe algún debate acerca de esta terminología. Kaufman (2000) por ejemplo, llama a este
primer paso detección de necesidades (descripto más adelante en este capítulo), en el cual se identifican brechas
esenciales en los resultados en varios niveles de la organización. De hecho, el modelo A2DDIE propuesto por
Guerra-López (2003ª) fue propuesto con el propósito de destacar la diferencia entre el proceso de detección de
necesidades y el proceso de análisis de desempeño/ análisis causal.
14
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
No todos los individuos dentro de un grupo stakeholders tienen que participar directamente
en una evaluación, lo que resulta importante es que aquellos que participen sean
representativos de los miembros de su grupo. Cuanto más se involucren e influencien la
evaluación los stakeholders, menos posibilidades habrá de que se encuentre con resistencia,
tanto durante el proceso de evaluación como durante la exposición de sus hallazgos y
recomendaciones.
Mientras que idealmente quisiéramos seleccionar a los stakeholders que nos ayudarán a
definir las expectativas, preguntas y criterios útiles de evaluación, la realidad es que nos
encontraremos con individuos que tienen sus propios intereses o que representan a un grupo
poderoso con intereses propios. Mientras que el que los seres humanos tengan sus propios
intereses especiales no es particularmente inusual, lo que nosotros querremos neutralizar lo
más posible es que la evaluación se convierta en una herramienta de manipulación para los
intereses particulares de uno –o algunos–, a costa de otros.
La función común a todos ellos es –o debería ser–, su objetivo interno de documentar los
resultados e impacto logrados por una solución dada, ya sea un programa, un proyecto, una
15
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Existen por supuesto, algunas áreas básicas en las cuales los evaluadores efectivos deben ser
competentes. Sanders (1979) propuso como que como mínimo, los evaluadores deben ser
capaces de:
16
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Adaptado de: Guerra, I . (2003b). Asking and Answering the Right Questions: Collecting
Relevant and Useful Data. Performance Improvement 42(10). 24-28.
17
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Ambos enfoques para la recolección de datos deben ser sistemáticos, y diseñados para
responder a preguntas específicas que puedan ser utilizadas para mejorar el desempeño.
Mientras que los detectores de necesidad y los evaluadores pueden compartir técnicas de
recolección de datos, los tipos de preguntas que buscan responder son diferentes. En este
sentido, sus roles difieren en el propósito o función, en vez de diferir en importancia y
métodos.
De esta manera, aquellos que llevan a cabo la detección de necesidades ayudan a crear el
futuro, brindando información cuantitativa y cualitativa, para la identificación de una visión
basada en el desempeño a largo plazo, alineada con las misiones y que construyan objetivos
determinados, así como también para la identificación de las brechas existentes entre los
resultados actuales y los deseados. En forma adicional, ellos ayudan a identificar las mejores
soluciones para eliminar estas brechas, y por lo tanto lograr finalmente alcanzar la visión
organizacional. Por otro lado, los evaluadores ayudan a determinar si nos estamos dirigiendo
hacia el futuro que establecimos durante el proceso de detección de necesidades. Una de las
formas principales en que hacen esto, es determinando la efectividad y eficiencia de los
programas y soluciones implementados, así como también los factores asociados causantes
de la brecha existente entre los resultados esperados y los logrados. La medición de la mejora
organizacional y la mejora del desempeño individual, depende en gran parte de estos dos
roles y procesos.
Mientras que tanto detectores de necesidades como evaluadores recaban datos referentes a
los resultados actuales de un proceso o actividad, los evaluadores colectan información para
determinar si los resultados actuales coinciden con los resultados esperados de determinada
solución (por ejemplo: de nuevos programas, nuevas tecnologías, nuevos procesos o
cualquier otra herramienta que seleccionemos para ayudarnos a lograr nuestros objetivos),
que ya ha sido implementada. El detector de necesidades –en contraposición–, busca
anticipar el retorno a la inversión esperado, para potenciales intervenciones antes de que ellas
sean implementadas, mediante la recolección de información tanto acerca de resultados
actuales (lo que es), como de resultados potenciales (lo que debería ser). Con esta
información, quienes tomen las decisiones serán capaces de elegir la mejor alternativa.
18
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
1. Se identifican las decisiones importantes que deben ser tomadas por los interesados,
lo cual nos llevará a
2. Una guía de preguntas, propósitos o hipótesis que el proceso indagatorio debe
responder/probar, las cuales están relacionadas con
3. Variables o resultados claves que constituyan el enfoque central de nuestras
preguntas o hipótesis.
4. Cuando los resultados no sean directamente observables, se deben identificar
indicadores observables y mensurables.
5. Estos indicadores se convierten en los datos que buscamos recabar, y punto de
referencia de las fuentes de información que debemos utilizar.
6. El tipo de información que buscamos también nos revela las herramientas
apropiadas que utilizaremos para la recolección de datos.
7. Finalmente, el proceso concluye con un informe que debe incluir hallazgos,
interpretaciones y recomendaciones de acciones futuras, basadas en la
información recolectada.
La clave en la metodología, es básicamente la alineación de todos los elementos –desde el
valor agregado que significa para todos los interesados internos y externos, hasta su relación
con las fuentes de información y métodos utilizados–, para lograr resultados valiosos.
La Tabla 1.2 que se muestra a continuación, brinda una comparación lado a lado entre la
investigación básica, la investigación aplicada y la evaluación.
19
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Como las dimensiones de cada uno de estos procesos están descriptas en forma generalizada,
es posible que exista alguna modificación que nuble estas distinciones. Por ejemplo, un
informe de evaluación puede ser utilizado como insumo para la literatura utilizada en un
estudio de investigación básica, y por lo tanto puede influenciar qué preguntas de
investigación son estudiadas, y cómo.
20
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
21
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
2
Incidentemente, la implementación de preguntas también puede resultar apropiada en el enfoque de una
evaluación acumulativa (summative evaluation), en donde no sólo miramos los resultados y consecuencias sino
también los factores que pueden haber impactado esos resultados y consecuencias (por ejemplo: asuntos de
implementación). Obviamente, si nuestro interés es asegurar la efectividad de la solución, querremos saber si la
misma está siendo implementada efectivamente antes y durante el proceso de implementación, y no a
posteriori.
22
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La evaluación de procesos es crítica para ayudarnos a notar las variaciones en la entrega del
programa, y cuando mayor variación exista, mayor será el requerimiento de información útil
obtenida mediante la evaluación del proceso. Por ejemplo, pueden existir diferencias en el
personal, clientes, medioambiente o tiempo, sólo para nombrar algunas variables.
23
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Uno de los desafíos más serios con los que se encuentran los evaluadores –y probablemente
los investigadores en general–, es que la gente utilice tanto los hallazgos logrados como las
recomendaciones. Un estudio (Henderson, Davies & Willis, 2006) cita la falta de
participación tanto de interesados como de consumidores clave, como un factor que impacta
la aceptación de la evidencia para realizar cambios en la práctica. Otros factores identificados
también fue la falta de apoyo de la dirigencia. Si combina esto, obtendrá un apoyo que
equivale a cero, tanto para la creación como para la implementación del cambio. La postura
por defecto es la de mantener el status quo, aún cuando el “cambio” sea la propuesta lógica.
El temor y el cinismo son alimentados, no sólo por las evaluaciones pobres, sino por los
esfuerzos pasados para utilizar a la evaluación como una herramienta de control e
intimidación. Los hallazgos, o aún la sola “amenaza” de conducir una evaluación, han sido
utilizados al apuntar a desempeños inadecuados de programas, organizaciones y
competencias humanas. De hecho, aún cuando la evaluación haya brindado datos útiles para
la mejora de los programas, resulta muy común que la gente no crea en esta evidencia.
24
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
articular cómo sabrán si las cosas que han hecho o implementado han arrojado resultados
valiosos. Muchas culturas están basadas en la acción, y muchas veces existe la sensación de
logro falsa generada por sólo hacer algo. La verificación y documentación de los resultados
deseados son muy a menudo apreciados negligentemente, y no son vistos como una parte
integral de lo que hacemos, al menos que exista una fuente que fundamente o indique esto.
Tal vez nuestro mayor desafío, y el más importante, es ayudar a las personas que nos rodean
a entender que cada organización, programa, departamento, función, empleado y recurso
debe estar alineado con resultados y consecuencias positivos para la sociedad (Kaufman,
1992; 2002; 2006). Si lo que está siendo utilizado, realizado, producido o generado no agrega
ningún beneficio a la sociedad, probablemente esté haciendo todo lo contrario. La
evaluación, entre otras necesidades de medición, es una herramienta que ocupa un lugar
único en la ayuda que puede brindar a los interesados a tomar decisiones contundentes acerca
de qué dirección tomar, cuál es el mejor camino para llegar, qué tan lejos de los objetivos y
resultados finales nos encontramos hasta ahora, y qué mejoras pueden realizarse para
asegurar el logro de la finalidad organizacional y social.
De hecho, aún la comunidad de negocios está adoptando esta realidad mediante movimientos
como la responsabilidad social corporativa. El viejo paradigma de Milton Freedman acerca
de “el negocio del negocios es el negocio”, está siendo disputado aún por destacados
dirigentes de firmas consultoras de administración de empresas como McKinsey, que discute
sosteniendo que “los temas sociales no son tan tangibles como los temas de negocios, sin
embargo son fundamentales para ellos” (Davis, 2005).
Existen una enorme cantidad de necesidades sociales que deben ser suplidas por la
educación, la salud física y mental, el desarrollo económico, el crimen y la discriminación,
sólo para mencionar algunas de ellas. La figura 1.1 muestra la Visión Ideal de Kaufman, que
ilustra los indicadores básicos de la sociedad, y las necesidades que surgen de ellos 3, y que
han sido utilizados como base de la planificación estratégica, la detección de necesidades y la
evaluación.
3
Kaufman define a las necesidades como las brechas entre lo que debe ser logrado y lo que está siendo logrado
actualmente. El proceso utilizado para la identificación de las necesidades es una detección de necesidades,
como ha sido previamente descripto en este capítulo.
25
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La finalidad social no está definida por una sola organización, ni se espera que ninguna
organización logre esas finalidades por sí misma. Estos objetivos a nivel estratégico
constituyen las ambiciones compartidas de las organizaciones, individuos y otras personas
que representan las comunidades y sociedad que compartimos.
Asegurar el Compromiso
Como aludiéramos en la sección previa, resulta vital que aquellos que definan, entreguen y
reciban objetivos organizacionales, productos y servicios, se “hagan cargo” de la evaluación
y desempeño. Usted y sus interesados deben definir las contribuciones requeridas de cada
uno, para poder crear una sociedad sólida y exitosa. La confianza, el entendimiento y el
26
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los datos resultantes de una evaluación, a veces pueden causar temor a los interesados.
Imagine la sensación de pérdida de control cuando se enfrentan con la evaluación: por un
lado ellos quieren saber qué temas deben resolver y cómo, y por otro lado, ellos recurren a
cualquier táctica pasiva o agresiva para evitar que usted encuentre cualquier cosa, por temor
a que el evaluador confirme sus peores temores. Considere esto: Un productor implementó
un programa piloto, y extendió un sistema de gestión de inventario y reposición automática a
algunos negocios. El programa fue diseñado para minimizar el inventario (liberando
efectivo), al mismo tiempo de maximizar la disponibilidad a clientes (incrementando las
ventas). El problema fue que rápida e inequívocamente el programa detectó un muy mal
estado de gestión en la mayoría de los negocios que lo adquirieron, así como en sus viejos y
costosos inventarios, evitando que los gerentes a cargo de esos inventarios quieran adquirir el
programa o participar en él. Aún cuando tenían un arduo trabajo, ellos estaban interesados en
mantener su status quo porque no querían que otras personas –sus jefes–, supieran lo
detectado por el programa. Un evaluador comprensivo querría obtener la participación de
esos gerentes para el propósito común de mejorar las cosas…en un sentido, para que ellos se
conviertan en parte de la solución, y no parte del “problema”.
Si hubieran buenas noticias, confiarán en ellas. Si hubieran malas noticias, será mejor darlas
en un ambiente de confianza y propósito común de continuar mejorando. Usted nunca debe
retener decepciones, aunque debe asegurarse que tanto los éxitos como los contratiempos o
fallas que exponga, estén basados en una evidencia sólida. La confianza, el propósito común
y el compartir el destino son las claves para obtener y mantener el compromiso.
La evaluación nos brinda la oportunidad de tener una relación abierta y honesta con nuestros
interesados, basada en los datos de desempeño, y no sólo en opiniones y percepciones. El
involucrar a nuestros interesados, es la mejor manera de asegurar que lo que hacemos
satisfacerá sus expectativas y brindará un valor demostrable.
Beneficios de la Evaluación
Mientras que el conducir una evaluación requiere recursos, los beneficios de realizar dicha
evaluación superan su costo, en la mayoría de las situaciones. Debajo encontrará un listado
no exhaustivo de los beneficios que se pueden incluir en una propuesta de evaluación o caso
de negocios:
Definiciones Básicas
Debajo encontrará algunas definiciones básicas que ayudarán a transmitir los conceptos
contenidos en este libro:
28
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
4
Si bien en algunos países de habla hispana, la denominación de metas y objetivos es precisamente inversa a la
descripta, por favor tenga en cuenta el criterio adoptado en este libro, para lograr un mejor entendimiento del
texto.
29
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 2
Principios del Desempeño Basado en la Evaluación
Al planificar programas legítimos, uno debe comenzar por identificar en primer lugar el
impacto organizacional deseado, tanto en clientes como en mercado y en la sociedad –es
decir, las necesidades de los mismos, no solo deseos–, moviéndose hacia dentro de la
organización para derivar las estrategias, tácticas y objetivos operacionales. A su vez, los
evaluadores deben asegurar que los programas, objetivos organizacionales e impacto externo
deseado, se encuentren alineados. Todo ello debe estar claramente alineado y enlazado. Estas
ideas constituyen las hebras esenciales que deben ser entrelazadas en la tela de todas y cada
una de las evaluaciones.
Las palabras y conceptos son rigurosamente definidas aquí, ya que la evaluación debe ser
utilizada para mejorar –mejora que debe estar sujeta a una medición–, lo que utilizamos, lo
30
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
que hacemos, producimos o entregamos. Las ideas mal definidas y una selección apresurada
de los métodos a utilizar no le servirán a nadie. Debido a esto, uno debe pensar y reflexionar
mucho al momento de crear la escena pragmática de la evaluación. El viaje hará que tanto el
tiempo como la atención invertidas valgan la pena.
31
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los distintos puntos de vista producen distintas series de preguntas. Cada uno de los
subgrupos que constituyen los clientes, propietarios, asociados, ejecutivos, gerentes,
administradores, empleados, y cualquier otro stakeholder, tiene su propio punto de vista.
Como evaluador, usted también cuenta con un punto de vista y una serie de preguntas para
realizar, que están relacionadas a cómo usted condujo su estudio evaluativo. Usted debe
también tener en cuenta las preguntas concientes o inconcientes cuestionadas por los
stakeholders. Tanto lo que ellos pregunten, como lo que no pregunten, estará expresado en el
desempeño que usted evaluará. Una de las tareas de un evaluador es asegurar que todos los
stakeholders estén buscando responder a la misma serie de preguntas, respecto a lo que ha
funcionado y lo que no ha funcionado. Si el programa y la organización mejorarán, ellos
deben encontrar qué es lo que les está brindando actualmente un valor agregado, y qué es lo
que debe ser mejorado.
32
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• La última serie de preguntas se cuestiona cómo las cosas encajan para hacer que el
sistema resulte funcional. Está interesada en la efectividad y posiblemente en la
eficiencia.
Para cada una de las situaciones con las que usted se encuentre cuando realice una
evaluación educacional, encontrará una serie de preguntas relacionada con el tema de fondo.
El desentrañar las fibras que conforman la estructura del cuestionario, que represente tanto la
situación actual como las expectativas y requerimientos de los stakeholders, es su trabajo. Si
luego de haber completado su investigación, usted puede identificar las brechas existentes
entre los resultados actuales y los esperados, estas brechas son las que conformarán la base
de las recomendaciones que usted presente.
• ¿Son efectivos los métodos, técnicas y herramientas utilizadas? ¿Son eficientes? ¿Son las
apropiadas?
• ¿Qué es lo que debemos mantener, cambiar o anular?
• ¿Qué resultados tenemos para justificar la continuidad de nuestros programas, proyectos
y actividades?
• ¿Cuáles son las recomendaciones para este sistema organizacional? ¿Qué debemos hacer
al respecto?
Medios: la forma, métodos y recursos que pueden ser utilizados para lograr una finalidad.
Existen abundantes guías para programar una evaluación, muy a menudo con criterios
propios como el número de participantes, las personas que llevarán a cabo el programa, los
costos y el cómo se realizará. Aunque estos elementos tienen un lugar, no son lo
suficientemente sólidos por sí mismos, al menos que pueda ser demostrado que estos
criterios llevarán a obtener el programa y los resultados organizacionales deseados. El
enlazar lo que nosotros utilizamos, lo que hacemos, producimos y entregamos a nuestros
clientes externos resulta esencial, sin embargo, este marco de trabajo holístico no se
encuentra presente en la mayoría de las evaluaciones y planificaciones convencionales.
34
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Las necesidades son las brechas entre resultados (entre lo que “debe ser” y lo que “es”),
no las brechas entre recursos o métodos.
• Las necesidades son recabadas a tres niveles de resultados y consecuencias (social,
organizacional y departamental/individual).
• Las necesidades son priorizadas determinando el costo que insumirá el cubrirlas –las
brechas entre resultados, en comparación con los costos de no eliminar esas brechas.
Al utilizar una “necesidad” como brecha entre resultados –y al recabar datos reales y
objetivos–, nosotros podemos demostrar el costo para cubrir las necesidades (usualmente,
cuando informamos el costo en forma independiente, obtenemos recortes), en comparación
con el costo de ignorar esas necesidades (la base para entregar la responsabilidad a quienes
toman decisiones, en caso de que decidan no cubrir las necesidades).
Las necesidades reales serán cubiertas al enlazar los métodos y recursos útiles, así como los
programas y soluciones, que nos lleven hacia los resultados deseados. Cuando decimos
“nosotros necesitamos…” normalmente eliminamos toda consideración de otras formas
posibles de obtener los resultados deseados, y asumimos que los métodos, soluciones, o
programas en los cuales nos embarcamos, cubrirán las necesidades y eliminarán las brechas
existentes en los resultados. Primero, enfóquese en identificar los resultados requeridos, y
luego establezca la brecha existente entre esos resultados y los resultados que actualmente
está obteniendo; esto legitimará la “necesidad”. Finalmente, considere todas las alternativas
para cubrir mejor las necesidades detectadas.
35
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Una visión organizacional es el resultado último que busca obtener una organización, y está
ligada al nivel estratégico de la organización. Se trata del impacto externo –a largo plazo–,
tanto sobre los clientes como sobre la sociedad. Ese es el punto de partida para la
planificación de una organización. La misión organizacional es un resultado más inmediato y
operacional que la organización se compromete a entregar, tal vez en el próximo año o dos.
Este es el nivel táctico de la organización, y es la base para la planificación y los procesos
operacionales que suceden dentro de la organización, en varias funciones o departamentos.
Uno no puede desarrollar planes operacionales, sin contar con un plan estratégico que defina
claramente los objetivos estratégicos de la organización. Bajo la misma óptica, un
departamento, programa o equipo, no puede crear su propio plan estratégico, sino que deben
desarrollar planes operacionales que estén claramente enlazados con los objetivos
estratégicos de la organización.
Si hemos de conducir una evaluación seria –comparando nuestros resultados con nuestras
intenciones–, entonces resulta vital que nos aseguremos de estar evaluando y midiendo las
cosas correctas sobre las cuales trabajaremos. Podemos hacer esto si pensamos y actuamos
para entregar un valor agregado a la sociedad. El logro de algo no tiene sentido, si ello no
resultará útil, o resultará equivocado, en primer lugar.
36
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El logro de una evaluación real y útil reside en enlazar lo que nosotros usamos, hacemos,
producimos y entregamos, para aportar un valor agregado a la sociedad. El comenzar con una
visión útil que esté ligada a un impacto externo positivo a largo plazo, asegura que todos
podamos alinear nuestras contribuciones únicas. ¿Por qué usted debería preocuparse acerca
de la estrategia, la alineación, la medición y los objetivos? Porque la supervivencia de su
organización depende de ello. Si esto suena demasiado duro como para creerlo, revise la lista
de compañías de la revista Fortune 500, y vea cuántas compañías pensaron estar en la cima
del mundo durante un año, o unos pocos años, y luego se salieron de la lista, no logrando
nunca ingresar en ella nuevamente. El porcentaje de eliminación del listado es de alrededor
del 80%. La receta para llegar a la cima no es la misma que la utilizada para “mantenerse” en
la cima. Los clientes eventualmente se darán cuenta cuáles son las organizaciones que tienen
su bienestar en mente, y cuáles sólo se preocupan por los balances económicos
convencionales. Piense por sólo un momento acerca del tipo de organizaciones que ganan su
lealtad y sus negocios. La mayoría de los clientes tienen los mismos criterios, eligen
organizaciones que les entregan productos y servicios de calidad, que realmente cubren sus
necesidades, desde la más básica hasta la más especializada.
El equipo evaluador debe formular una serie de estudios objetivos, basados en las preguntas
evaluativas. Esta serie de preguntas determinará las actividades que serán emprendidas y los
métodos que serán utilizados para observar, recabar y registrar los datos.
El equipo evaluador monitoreará el proceso teniendo presentes las metas y actividades. Los
criterios adoptados para la evaluación estarán basados en los resultados organizacionales
deseados y en todo el conocimiento relevante a los programas y soluciones efectivas,
relevantes a esa sub-evaluación.
La serie de preguntas evaluativas que usted desarrolla como resultado de esta amplia visión,
será comprensible, y le permitirá asegurarse que sus hallazgos y recomendaciones estén
basados en una serie de datos completa.
37
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 3
Resumen de los Modelos de Evaluación Existentes
38
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
adopción por parte del sistema escolar (Fitzpatrick, et al. 2004). Él propuso además en
sus trabajos (Scriven, 1991; 2002), una serie de criterios fundamentales para la
evaluación de cualquier producto educacional, denominándolo Key Evaluation Checklist
–KEC–, (Lista Clave de Comprobación, y de aquí en adelante referenciado como KEC).
Scriven refina este KEC continuamente, mientras que es utilizado como parte del proceso
de reducción de datos, donde enormes cantidades de datos son obtenidos y detectados, y
luego sintetizados en un juicio de valor general (Stufflebean & Shinkfield, 2007). El
KEC de Scriven también se aplica a la meta-evaluación.
39
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La discusión luego se continuará con el Case Succes Method (Método del Caso Exitoso), de
Robert Brinkerhoff (1981), el cual soluciona algunas de las limitaciones encontradas en los
modelos previamente mencionados. Su perspectiva está basada en el hallazgo de casos de
éxito extremos, y la falla en utilizar nuevas habilidades y herramientas obtenidas a partir del
entrenamiento y otros programas de desempeño, para alcanzar logros organizacionales
valiosos.
Otro modelo del cual nos ocuparemos es el Modelo CIPP de Daniel Stufflebeam (1967), el
cual contiene cuatro evaluaciones como enfoque central: contexto, ingreso, proceso y
producto. Este modelo va más allá de los modelos de evaluación tradicionales, e incorpora
40
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El siguiente capítulo brinda una visión detallada del Proceso Para Evaluar Impacto (Impact
Evaluation Process -Guerra-López, 2007), como el modelo más formal y recientemente
publicado, de los modelos incluidos en esta sección. Está basado en un flujo de proceso
reiterativo, que permite a los evaluadores y a los stakeholders enfocarse en la alineación:
entre el objeto evaluado y el impacto último de los resultados externos, tanto para los clientes
como para la sociedad; por sobre todos los pasos para la mejora del desempeño y por sobre
todos los pasos del impacto del proceso evaluativo.
41
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
que la gente no es buena para informar sus propias experiencias de aprendizaje (Hofstadter &
Dennett, 1981).
Figura 5.1. Modelo de Los Cuatro Niveles de Evaluación de Kirkpatrick, para las
Intervenciones de Aprendizaje
4. RESULTADOS
3. COMPORTAMIENTO
2. APRENDIZAJE
1. REACCIONES
Críticas
Holton (1996), critica la simpleza del modelo de los cuatro niveles como una taxonomía sin
relación causal entre los distintos niveles. Alliger y Janak (1989), reconocen la simpleza de
Los Cuatro Niveles de Evaluación de Kirkpatrick, pero critican su atribución de causalidad,
enfocándose en el rechazo de tres suposiciones críticas: (a) la capacitación causa un cambio
directamente; (b) cada nivel está causalmente ligado con el nivel superior próximo; y (c) las
42
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
correlaciones entre los niveles son positivas. Ellos coinciden con que los niveles tres
(comportamiento) y cuatro (resultados) usualmente sugieren una relación de causalidad, sin
embargo consideran que existen otras variables que influencian la mejora del desempeño
tanto como el entrenamiento. En particular, ellos citan la influencia de la motivación,
actitudes y contexto ambiental (factores de apoyo), como causas alternativas del cambio de
comportamiento.
En respuesta a las soluciones que no fueran de capacitación, que también resultan válidas y
que requieren evaluación, Kaufman y Keller (1994) proponen una variación de Los Cuatro
Niveles de Evaluación de Kirkpatrick. Su modelo agrega un quinto nivel: el impacto social; y
redefine el resto de los niveles incluyendo datos de desempeño, para la disponibilidad,
eficiencia y calidad de los recursos organizacionales. Su modelo expandido permite la
consideración del valor y mérito de los recursos de entrenamiento, así como de las
consecuencias sociales más amplias. Más aún, ellos enfatizan la planificación estratégica de
la evaluación, para anticiparse tanto a las consecuencias inesperadas de la organización como
de la sociedad, por igual.
1. Capacitación/Reacción,
2. Adquisición,
3. Aplicación,
4. Resultados organizacionales, y
5. Resultados sociales.
Fortalezas y limitaciones
• Fortalezas:
• Es simple de conceptualizar.
• Brinda un marco de trabajo que ayuda fácilmente a la gente a pensar acerca de la
medición del entrenamiento.
• Brinda 4 categorías básicas de indicadores de éxito del entrenamiento: reacción;
aprendizaje; comportamientos relevantes en el trabajo; resultados organizacionales.
• Su popularidad podría ayudar a promocionar la evaluación dentro de la organización.
43
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Limitaciones:
• Su simpleza puede llevar a un mal entendimiento y a amplias generalizaciones.
• Creado específicamente para intervenciones de entrenamiento y por lo tanto no resuelve
todas las categorías de indicadores importantes de intervenciones para la mejora del
desempeño en general.
• Sus niveles no son en realidad jerárquicos, ni existe evidencia que sugiera que están
correlacionados; sus niveles ilustran meramente un enfoque diferente, o tal vez aún pasos
en un esquema de evaluación más amplio.
• Los instrumentos de medición de los niveles 1 y 2 (por ejemplo: cuestionarios y pruebas)
son a menudo mal diseñados, lo que conlleva a interpretaciones y conclusiones
desacertadas.
• En la mayoría de los casos, el modelo no es aplicado en forma completa y las
evaluaciones se detienen en los niveles 1 y 2, dejando a las personas encargadas de tomar
decisiones, con una serie de datos incompletos.
• El valor agregado más a aya de la organización en si es ignorado.
44
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
las fuerzas económicas, tales como demostrar el valor del entrenamiento y educación, y que
puede ayudar a prevenir recortes realizados al azar, dentro de los presupuestos asignados
para entrenamiento. Esta metodología puede brindar credibilidad a los departamentos de
capacitación, al permitirles documentar el impacto monetario y por lo tanto alterar la
percepción gerencial tradicional de la capacitación.
Phillips (1997b), advierte que para que el proceso ROI resulte útil, debe balancear
factibilidad, simpleza, credibilidad y solidez. Él también identifica algunas barreras
comúnmente encontradas para la implementación del método ROI, como: (a) costo y tiempo;
(b) falta de habilidad; (c) detección de necesidades defectuosa; (d) temor; (e) falta de
disciplina y planificación y (f) suposiciones falsas.
Bates (2004)46, sin embargo, discute que la utilización del retorno de la inversión (ROI)
como una medida de impacto, confunde a los factores de corto y largo plazo que puedan
llevar a cambios en el desempeño. Bates argumenta que las medidas financieras sólo sirven
para ese fin y que dispersan la atención respecto a la meta de mejorar el aprendizaje. Agrega
además que la evaluación realizada con el método ROI daña la capacidad de las
organizaciones para desarrollar sistemas de entrenamiento que sean capaces de promover la
mejora continua. Bates sostiene además que quienes toman las decisiones utilizando un
enfoque de cuatro niveles, podrían potencialmente dañar a los programas, si las
consideraciones obtenidas mediante el ROI pesan más que las necesidades de los
stakeholders. En tales casos, quienes toman decisiones violan el principio de beneficencia,
meta mediante la cual las evaluaciones deben beneficiar a los stakeholders, promoviendo un
programa de mejora continua.
Para las organizaciones que eligen adoptar la metodología ROI, Cresswell & Lavigne (2003),
recomiendan no extender el nivel de detalle del análisis, más allá de lo que sea requerido
para tomar las decisiones propuestas. Esta recomendación yace primariamente en el hecho de
que muy a menudo se requieren recursos significativos para llevar adelante un análisis ROI.
Una recomendación, sugerida por Corcoran (1997), se basa en un proceso seguido por
American Express, el cual requiere que los proyectos sean categorizados en estratégicos,
requeridos, y ROI. El autor de proyectos Estratégicos es aquel que ayuda a la organización a
acercarse donde ella quiere estar posicionada a largo plazo. La estimación mediante el
método ROI, de este tipo de proyectos puede ser algo desalentador, ya que el retorno de la
inversión puede hacerse esperar por largo tiempo, y por lo tanto, el enfoque debe realizarse
sobre los beneficios intangibles. Los proyectos requeridos pueden ser aquellos que le
permitirán a la organización mantenerse viva, como los relacionados con la seguridad, las
regulaciones gubernamentales, la liquidación de sueldos y otros proyectos que cuentan con
beneficios que ya resultan obvios; por lo que el énfasis recae sobre seguir adelante con el
proyecto con la mejor relación costo-efectividad. Finalmente, los proyectos ROI constituyen
una categoría donde se incluyen aquellos proyectos que deben ser sometidos a una
evaluación, y que requieren un resultado del 30% antes de ser aprobados.
45
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Sintetizando, no todos los proyectos pueden ser apropiados para utilizar una evaluación ROI
tradicional. Y la consideración inicial debe comenzar durante la planificación del proyecto, y
no luego de su implementación.
Mientras que tanto el modelo ROI como el de Kirkpatrick han recibido una amplia
notoriedad, es interesante notar que la literatura del modelo ROI consiste primariamente en
aplicaciones y piezas conceptuales de Phillips en persona. Mientras que la literatura
disponible acerca del modelo de Kirkpatrick está balanceada entre investigación y piezas de
aplicación surgidas de varios autores, ya que su modelo ha sido utilizado como marco de
trabajo conceptual para numerosos estudios.
También vale la pena señalar, que mientras que Phillips popularizó su metodología en las
áreas de capacitación/entrenamiento y mejora del desempeño, el concepto de ROI y las
variaciones de su fórmula han sido parte de las áreas contables y financieras. De hecho, han
sido propuestos otros modelos para realizar la estimación de ROI específica al
entrenamiento. Otra cosas que vale la pena mencionar es que Phillips se basa en una
importante subjetividad, que consiste en que los informes son realizados por la persona
evaluadora, y esto tal vez, constituya una de las limitaciones de este método. Brinkerhoff
(2005), critica este intento de aislar los efectos del entrenamiento como una clara violación a
los sistemas lógicos de desempeño, dado que el desempeño se ve impactado por muchos
factores, y nunca sólo por el entrenamiento recibido.
Fortalezas y Limitaciones
• Fortalezas:
• Brinda una metodología de elaboración para la estimación real de las contribuciones y
retornos financieros de los programas.
• Brinda una dimensión adicional a las cuatro categorías básicas de Kirkpatrick
respecto a los indicadores de éxito del entrenamiento: reacción; aprendizaje;
aplicación en el trabajo; resultados organizacionales y retorno a la inversión.
• Brinda una perspectiva de evaluación que resulta familiar a muchos ejecutivos de
distintos departamentos.
• Creado primeramente para intervenciones de entrenamiento y desarrollo, este modelo
puede ser percibido por los departamentos de capacitación, como una perspectiva de
evaluación confiable.
• Limitaciones:
• Su metodología de elaboración puede resultar intimidante para los entrenadores que no
estén acostumbrados a manejarse con tales fórmulas.
• Puede ser percibido como un modelo que consuma demasiado tiempo y que resulta
costoso.
46
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El Método del Caso de Éxito (Success Case Model, y de aquí en adelante referenciado como
SCM) fue desarrollado para resolver las frustraciones de otras perspectivas de evaluación
más tradicionales. Específicamente, Brinkerhoff sintió que el Modelo de Evaluación de
Cuatro Niveles de Kirkpatrick (1976) no resultaba apropiado porque no incluye
investigaciones más allá de los factores de capacitación, ignorando por completo el ambiente
de desempeño. También sintió que las perspectivas de evaluación basadas en el diseño de un
marco de trabajo experimental eran insuficientes, dado lo incómodas que pueden ser en su
requerimiento de tiempo, recursos y experiencia, más allá del alcance del marco típicamente
profesional (Brinkerhoff 2005).
Brinkerhoff propone el SCM como un enfoque simple que puede ser implementado por
completo en un lapso de tiempo mínimo. Tiene la intención de producir evidencia concreta
del efecto de la capacitación, de un modo que los líderes de la organización y otros
encuentren altamente relevante y creíble, relacionando incidentes verificables de los
participantes del entrenamiento que hayan aplicado el contenido aprendido a su
comportamiento, demostrando el impacto de valor en los resultados organizacionales
obtenidos. Una suposición crítica subyacente es que el impacto del entrenamiento es
inevitablemente una función de la interacción del entrenamiento con otros factores del
sistema de desempeño. No intenta aislar el efecto del entrenamiento, dado que Brinkerhoff
sostiene (2005) que el hacer esto “escapa a todo lo que conocemos acerca del pensamiento de
los sistemas de desempeño, y de la inseparabilidad entre el aprendizaje y el desempeño”
(p88).
47
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
desempeño. El SCM identifica estos factores, para poder brindar crédito y retroalimentación
en forma apropiada. Asimismo, si el entrenamiento no ha funcionado, los datos de su modelo
CSM ilustran las limitaciones y debilidades en el sistema de desempeño y brinda
retroalimentación para aquellos que pueden resolver los problemas encontrados. La intención
del CSM puede ser presentada como la demostración a los stakeholders de lo que ha
funcionado y lo que no ha funcionado en el aprendizaje, cuáles son los resultados logrados
que valieron la pena, y qué puede hacerse para mejorar el desempeño en el futuro.
En forma adicional, Brinkerhoff (2005) sugiere que un marco de trabajo evaluativo debe
enfocarse en tres preguntas principales para responder a los factores de éxito de la
capacitación en toda la organización:
1. ¿Qué tan bien utilizó el aprendizaje nuestra organización como para facilitar el
desempeño requerido?
2. ¿Qué está haciendo la organización para facilitar la mejora del desempeño requerida a
partir del aprendizaje? ¿Qué debe continuar haciendo y fortalecer?
3. ¿Qué está haciendo la organización –o qué no está haciendo–, que impide alcanzar el
desempeño requerido a partir del aprendizaje? ¿Qué debe cambiar?
Estas preguntas fundamentales deben ser parte de un plan de evaluación que tenga el
propósito general de construir la capacidad organizacional, para incrementar el valor tanto
del desempeño como del negocio de acuerdo a su inversión en el área de capacitación. Para
implementar este tipo de evaluación, se requiere que el enfoque de la evaluación esté
centrado en factores del proceso general de aprendizaje-desempeño, para comprometer y
brindar retroalimentación a varias audiencias.
El SCM difiere de los métodos típicos más cuantitativos respecto a que no busca aprender
del típico participante del programa. Su propósito es buscar el mejor desempeño que un
programa esté produciendo, para ayudar a determinar si el valor de un programa vale la pena
la inversión, y si ese programa sirve para obtener los mismos resultados en un mayor número
de participantes. Tiene la intención de tomar una historia exitosa como una fuente verificable
que demuestre cómo una persona puede utilizar sus nuevas habilidades, capacidades o
herramientas y cuál es el valor o mérito de que esto ocurra.
Fortalezas y Limitaciones
• Fortalezas:
• Toma en cuenta experiencias específicas de los participantes del programa.
• Su simpleza incrementa la probabilidad de conducir la evaluación
• Toma en cuenta factores causales para el éxito y el fracaso.
48
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Limitaciones:
• Depende exclusivamente de métodos cualitativos y reportes propios.
• No toma en cuenta la mayoría de las experiencias, sólo los extremos.
• Los stakeholders consideran a este método insuficientemente riguroso.
Al igual que otros modelos de evaluación modernos, fue creado en respuesta a las
limitaciones encontradas en el diseño experimental tradicional –de evaluación basada en
objetivos y pruebas de logro estandarizadas–, al evaluar programas de evaluación que
inevitablemente existen en un marco social dinámico (Stufflebeam & Shinkfield, 2007). La
documentación formal más antigua que se encuentra de este modelo, la ofrece el trabajo
Educational Evaluation and Decision Making (Evaluación Educacional y Toma de
Dicisiones - Stufflebeam, Foley, Gephart, Guba, Hammond, Merriman, & Provus, 1971),
producto de un comité de estudio de evaluación designado por Phi Delta Kappa en 1969
(Stufflebeam & Shinkfield, 2007).
49
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
asistencia brindada a las organizaciones para liberar recursos y tiempo, desviándolos hacia
programas y soluciones que sí valen la pena.
Stufflebeam sugiere (2003) que el modelo fue creado con la intención de que se utilice en
evaluaciones internas, conducidas por evaluadores de la organización; en evaluaciones
propias conducidas por equipos o prestadores de servicios individuales del proyecto en
particular; y en evaluaciones externas ya sean contratadas u obligatorias.
Contexto
La evaluación del contexto se enfoca en guiar la futura dirección de la empresa. Durante esta
evaluación se detectan necesidades, se identifican oportunidades y se establecen prioridades
para el futuro. El propósito de esta evaluación es enfocarse en una serie de objetivos y
determinar cuáles son las prioridades.
Insumos
La evaluación de los insumos se centra en la identificación y selección de los mejores
programas o soluciones para alcanzar el logro de las metas de acuerdo a cómo éstas fueron
priorizadas, considerando planes competitivos de acción, planificación de personal y
presupuesto, para identificar su factibilidad y potencial relación costo-efectividad, con la
finalidad de cubrir las necesidades detectadas y alcanzar las metas establecidas. La idea
básica aquí es asegurar el enlace entre los métodos seleccionados y las finalidades deseadas.
El propósito de esta evaluación se enfoca en crear y/o mejorar la planificación.
Quienes tomarán las decisiones utilizarán las evaluaciones de insumos para seleccionar los
planes más competitivos, para escribir propuestas de fondos, para destinar recursos, asignar
personal, programar el trabajo y finalmente ayudar a otras personas a juzgar el esfuerzo de
los planes y presupuestos.
Stufflebeam (2003) sostiene que la evaluación de los insumos es la más ignorada, aunque sea
el tipo de evaluación más importante. De hecho, mientras usted lee los primero dos enfoques
iniciales de este modelo evaluativo, reconocerá algunas similitudes con otras perspectivas
investigativas presentadas en el Capítulo 1 de este libro, la detección de necesidades. Las
Evaluaciones de Contexto son análogas a la detección de necesidades, ya que tienen la
finalidad de identificar necesidades y oportunidades para ayudar a quienes toman decisiones
a definir y priorizar sus metas. Las Evaluaciones de Insumos del modelo CIPP también
coinciden en parte con las funciones de la detección de necesidades –particularmente con la
definición de detección realizada por Kaufman (1992; 2000)–, ya que tienen la finalidad de
50
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Procesos
La Evaluación de Procesos brinda un lineamiento respecto a la implementación de los
métodos seleccionados. La implementación es rastreada para poder mejorarla, asegurando
que ocurre de acuerdo a lo planeado, mientras que todo el proceso de implementación y los
costos asociados son documentados. El propósito de esta evaluación es monitorear el
desempeño.
Productos
La Evaluación de Productos brinda retroalimentación respecto a la necesidad de mantener,
mejorar o abandonar lo que está siendo evaluado. Aquí, las necesidades iniciales deben
utilizarse como estándar para determinar si los resultados son satisfactorios. El propósito del
enfoque de esta evaluación es juzgar los logros y tomar decisiones.
Fortalezas y Limitaciones
• Fortalezas
• No fue diseñado con un programa o solución específico en mente, por lo que puede ser
fácilmente aplicable a múltiples situaciones evaluativas.
• Brinda una perspectiva comprensiva de la evaluación, la cual puede ser aplicada desde la
planificación de un programa, hasta los resultados del programa y logro de su valor
intrínseco.
• Es un modelo bien establecido, con una larga historia de aplicabilidad.
51
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Limitaciones:
• Puede decirse que empaña la línea existente entre la evaluación y otros procesos
investigativos, como la detección de necesidades.
• No es tan conocido ni aplicado en el área de Mejora del Desempeño.
Conbach (1982) también apoya este punto de vista y declara que el diseño de la evaluación
debe comenzar a partir de un borrón y cuenta nueva de cada uno de los emprendimientos, y
avanzar en la resolución de las incontables decisiones que deben realizarse en cada situación.
Conceptuar la Evaluación
Nevo (1981) realizó la revisión de un listado de preguntas inicialmente propuestas por
Stufflebeam (1974), en un esfuerzo para conceptuar la evaluación y sus dimensiones clave:
53
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 4
El Proceso Para Evaluar Impacto
(Impact Evaluation Process)
Introducción
El Proceso Para Evaluar Impacto (Impact Evaluation Process – Guerra-López, 2007), es el
modelo de evaluación formalmente publicado más reciente, de todos los modelos
presentados en este libro. Fue la culminación de la investigación, el trabajo aplicado y la
enseñanza del autor. Una de las ideas subyacentes es que cada cosa que nosotros hacemos
está alineada con un propósito mayor –ya sea que seamos concientes de ello o no, y ya sea
que lo que hagamos esté bien alineado o no–, y la evaluación no es diferente a esto. Como
tutor y colega, la influencia más prominente de este modelo proviene del trabajo de Roger
Kaufman (1992; 2000; 2006) respecto a la detección de necesidades y planificación
estratégica. Guerra-López trabajó en varios proyectos relacionados con la detección de
necesidades y planificación estratégica, con Kaufman y sus contribuidores, brindándole la
experiencia que eventualmente la guió a desarrollar un enfoque dedicado a la medición y
evaluación.
54
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Si el objeto a evaluar fue la mejor alternativa para eliminar la brecha, entonces una hipótesis
de evaluación es que el objeto a evaluar debería haber contribuido con la eliminación o
reducción de tales brechas en los resultados/desempeño. La pregunta de evaluación básica
debería ser entonces: “¿contribuyó la solución x a la reducción o eliminación de la brecha de
desempeño x?” Esta perspectiva, por su puesto, es la filosofía prima del modelo para evaluar
discrepancias de Provus (1971).
En forma adicional, El Proceso Para Evaluar Impacto también está influenciado por la teoría
orientada a la decisión, y por la evaluación enfocada a la utilización desarrollada por Patton
(1997), enfoques evaluativos dedicados al diseño de evaluaciones útiles y valiosas para
informar a quienes toman decisiones.
impacto de una variable sobre el sistema, para entender qué es lo que está sucediendo con el
sistema. Sin embargo, mientras miramos dentro de las organizaciones y los programas de
distintos sectores, resulta obvio que no existe tal cosa como variables puramente
independientes. De hecho, todas las variables son interdependientes, y “a medida que los
sistemas se convierten en más sofisticados, la realidad de la interdependencia se convierte en
más y más pronunciada” (Gharajedaghi, 1999).
Descripción
La evaluación, en su fibra íntima puede ser muy directa, pero las situaciones a las cuales
aplicamos la evaluación pueden ser complejas, y a veces pueden hacer que el proceso
evaluativo sea realmente intimidante. El Proceso Para Evaluar Impacto está primariamente
dirigido a individuos que quieran un mapa claro que los guíe a través del proceso, y que los
ayude a mantener un enfoque pragmático. La idea es que con un plan bien articulado, el
proceso evaluativo real resultará mucho más simple y directo.
El Proceso Para Evaluar Impacto consiste en siete elementos, que mientras que transmiten
una secuencia, pueden ser considerados reiterativamente. Los pasos básicos y la perspectiva
están ilustrados en la figura 4.1, y cada una de las siete fases se describe debajo en detalle.
56
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
IMPACTO
Recomendaciones para Mejora
Análisis de Datos
Indicadores de Medición
FUNDAMENTO
Valor Agregado para
Clientes & Sociedad
Debe notarse que cada grupo de stakeholders tendrá su propio conjunto de expectativas.
Mientras que algunas de estas expectativas pueden superponerse a otras, algunas serán
particulares para la ventaja y respectivos intereses de un grupo dado. Las áreas de
expectativas relevantes incluyen preguntas específicas de la evaluación que deben ser
respondidas, así como límites de tiempos, contenido del informe final, y temas relacionados a
57
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
su formato, como también acceso a los datos/observación, entre otras. Un elemento común
que debe unir a estas expectativas individuales es la visión organizacional, que debe estar
basada en el impacto externo sobre la sociedad. De otro modo, cada grupo de stakeholders
podría terminar haciendo fuerza hacia distintas direcciones, impidiendo que la organización
mejore –o haciendo que empeore–, respecto a su estado anterior.
Debido a esto, resulta crítico que uno pueda entender cómo los stakeholders juzgarán a una
evaluación –o evaluador–, exitoso. Debajo encontrará algunas preguntas generales que deben
ser respondidas antes de proseguir:
También resulta crítico que usted lleve a cabo la alineación de las expectativas de los
stakeholders con las demandas externas de la sociedad. Mientras que no todos los
stakeholders ven este enlace fácilmente, el clarificar esos enlaces es su responsabilidad. No
se trata de si esos enlaces existen o no para esta organización en particular, sino de qué tan
bien ustedes pueden juntos clarificar y comunicar esos enlaces y consecuencias. Este es el
único modo en que pueda ver claramente hacia dónde va, y cómo los programas o soluciones
que usted está evaluando, impactarán en esa trayectoria.
Estas expectativas pueden convertirse en la base para el contrato –ya sea verbal o escrito–y
deben articular explícitamente qué es lo que se espera tanto del evaluador como de los
stakeholders. Si cualquiera se sintiera que no se está estableciendo algo razonable, este es el
momento adecuado para discutir el asunto y arribar a un consenso, y ciertamente no luego de
que el evaluador ha completado lo que en su mente considera una evaluación exitosa.
58
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La discusión acerca de las decisiones que debe ser realizada es –debe ser–, también acerca de
los objetivos que deben ser alcanzados. Todas las organizaciones tienen objetivos –tanto
externos como internos–, y todo dentro de la organización debe contribuir hacia el logro de
esos objetivos (Guerra, 2005). El valor relativo de cualquier programa o solución es
primariamente contingente de si está ayudando o empañando el logro de los objetivos de
desempeño organizacionales y contribuciones externas.
Mientras que algunos stakeholders pueden no brindar al evaluador los resultados específicos
que esperan, ellos le brindarán ‘ideas’ acerca de los efectos relevantes que esperan, aún
cuando se traten más de métodos que de resultados. Aquí la tarea del evaluador –al igual que
durante todo el proceso–, es ser tanto educador como facilitador, y generar la conversación
desde un punto de vista:…y si pudiéramos lograr eso, ¿cuál sería el resultado? Esta línea de
indagación debe continuar hasta que se hayan identificado los resultados clave.
Adicionalmente, otra fuente clave para la identificación de objetivos específicos de
desempeño para una solución, es mirar los informes pasados de detección de necesidades, si
los hubiere. Tales documentos deben incluir el problema inicial, por qué la solución fue
recomendada, y qué objetivos específicos se supone que lograría.
Una vez clarificadas estas decisiones y objetivos, las preguntas fundamentales que motivarán
el proceso evaluativo –y el propósito de la evaluación–, también deberán ser claras,
articuladas y establecidas de mutuo acuerdo.
La Figura 8.1 refleja las relaciones anidadas dentro de los siete elementos del Impacto del
Proceso Evaluativo, con los stakeholders y el impacto externo sobre la sociedad como base
para todo lo realizado en la evaluación.
El evaluador no contará siempre con un propósito claro para comenzar. A veces, las
decisiones que deben ser tomadas son más prominentes (por ejemplo: continuar con la
subvención de un programa o no), y a veces comienzan con preguntas específicas (por
ejemplo: ¿qué impacto está teniendo este programa en la retención de los empleados? ¿Cuál
59
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
es el retorno de la inversión que corresponde a este programa?). Cualquiera de las formas que
tenga su información inicial, la evaluación será más efectiva si antes de proceder clarifica
tres detalles importantes.
Las decisiones importantes deben estar primariamente avaladas por datos relevantes
(relacionados a los resultados de interés), confiables (consistentes), y válidos (una medida
verdadera de lo que se propone medir), y estos datos deben provenir de indicadores de los
resultados que queremos lograr (que podamos medir), que a su vez están relacionados con las
preguntas que querremos responder. Cada elemento depende del anterior, de tal manera que
queden completamente alineados.
Cualquiera que sea el caso, la recolección de datos debe ser sistemática, y diseñada para
responder a preguntas específicas que puedan ser utilizadas para mejorar el desempeño. Los
datos útiles le permitirán probar el valor del programa o solución, sin simplemente recostarse
en las opiniones acerca de qué parece estar funcionando, y qué no.
Finalmente, todas las preguntas que realizamos están relacionadas con los resultados que
deseamos lograr, ya sea que estén expresadas en estos términos o no. Parte del trabajo del
evaluador es ayudar a crear un enlace entre sus preguntas iniciales y los resultados a los que
son inherentemente –y que algunas veces ocultamente–, relacionados. Todas las
organizaciones tienen un resultado –o resultados– último que quieren alcanzar, y para
hacerlo posible, existen numerosos resultados básicos que deben ser logrados en el camino.
Todo lo demás que hacemos o utilizamos dentro de la organización debe contribuir a esos
resultados, si fuera de otro modo, estaríamos malgastando recursos valiosos y limitados sin
obtener ningún beneficio a cambio.
60
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Primero, la meta final que queremos que alcance nuestra organización se trata de su impacto
ideal sobre la comunidad y sociedad, y está establecida a través de la visión de la
organización. Kaufman (2006) remarca que todas las organizaciones, tanto públicas como
privadas, comparten la visión de agregar valor a la sociedad, y sugiere que cada organización
define una visión ideal compartida y sujeta a medición, basada en la creación del tipo de
mundo que todos los stakeholders quieren crear para los niños del mañana. Watkins (2006)
observa:
La finalidad social no está definida por una sola organización, ni se espera que ninguna
organización logre esas finalidades por sí misma. Estos objetivos a nivel estratégico
constituyen las ambiciones compartidas de las organizaciones, individuos y otras personas
que representan las comunidades y sociedad que compartimos (por ejemplo: la no pérdida
de vida ni eliminación o reducción de niveles de supervivencia, autosuficiencia o calidad de
vida a partir del abuso de sustancias, enfermedades, discriminación, etc.). Para definir su
misión, las organizaciones se identifican con estas intenciones estratégicas (las cuales
inherentemente alinean los Resultados organizacionales con los Resultados Sociales).
Pág. 29
Basados en que todas las organizaciones tengan la misma visión de valor agregado sobre la
sociedad, cada organización decide a qué parte de la visión ideal se comprometen a entregar
y a alcanzar o acercarse, pudiendo cada una de ellas derivar su misión comprensiva de
acuerdo a ello.
Por ejemplo, la misión relacionada con la Visión Ideal de una institución financiera, podría
ser:
En una detección de necesidades formal y/o en el proceso evaluativo, esto se utilizaría como
la base para derivar los indicadores de medición relevantes para la calidad de vida y otros
elementos de la Visión Ideal (como veremos más adelante en este libro). Resulta
particularmente importante que todos aquellos involucrados en la planificación, ejecución y
61
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
evaluación, –a todos los niveles de la organización–, entiendan esto, sin embargo, el lenguaje
utilizado para articular esta Visión Ideal puede no incluir siempre los detalles.
Recuerde, la Visión Ideal se trata del destino último para la sociedad que la organización
comparte, no se trata de lo que nos comprometamos a entregar para fines del próximo año.
Como tal, su propósito primario es guiar a la organización y a todos sus miembros hacia un
destino común, estratégico y a largo plazo. Por esto, la pregunta general que primero debe
realizarse a partir de un enfoque evaluativo es: ¿Qué tan cerca de nuestra Visión Ideal y de
nuestra misión nos acercamos como resultado de la solución (o soluciones) que
implementamos? A partir de esta pregunta general surgirán otras preguntas evaluativas
respecto a la visión o estrategia. Por ejemplo: ¿Qué tan bien estamos cumpliendo con
cubrir las necesidades (no sólo los deseos) de nuestros clientes?
A medida que vamos alineando nuestros resultados con la Visión Ideal, los resultados del
próximo nivel organizacional son expresados a través de las misiones organizacionales. Esto
es esencialmente, los resultados a nivel organizacional mediante los cuales la organización
busca como finalidad última alcanzar la Visión Ideal. Por lo tanto, la misión debe ser
derivada a partir de la visión misma. Para continuar con nuestros ejemplos anteriores, debajo
hay algunas misiones que sirven de ejemplo. Al respecto, y dado que esto es lo que la
organización utilizará como estándar de éxito, Roger Kaufman sugiere buscar la perfección
utilizando cifras ideales para los objetivos buscados, en vez de limitar a la organización
enfocándose en lo que puede lograr debajo de su potencial. ¿Por qué habremos de alentar a
los miembros de la organización a alentar la mediocridad en vez de la perfección…?
Note cómo esta misión está directamente enlazada con la Visión Ideal, al mismo tiempo que
establece resultados más específicos. Así, la pregunta general evaluativa que estableceremos
a este nivel será: ¿Qué resultados de nuestra misión nos ayudó a lograr nuestra solución
(o soluciones)? Otras preguntas evaluativas específicas derivarán como resultado a este
nivel; por ejemplo: ¿Ha tenido la solución que implementamos un impacto sobre nuestras
ganancias?
62
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Es esencial que aunemos las preguntas de los stakeholders a los resultados importantes en
varios niveles. Indudablemente habrán preguntas respecto a los medios (el mejor, el más
rápido, el más grande), y esto no debe ser pasado por alto, sino enlazado a esos resultados
mediante la formulación de preguntas útiles. Esto puede verse como una oportunidad para el
evaluador, de educar a los stakeholders respecto a cómo crear las cadenas de valor. La
63
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
pregunta guía en este caso será: Si es más rápido, ¿qué beneficios medibles ha agregado a la
organización, a los stakeholders externos (incluyendo la sociedad), y a nuestros stakeholders
internos? Este tipo de discusión ayudará a los stakeholders a sacar sus propias conclusiones
acerca de lo que realmente es importante. Resulta imperativo que los ayudemos a enfocarse
en los resultados y consecuencias de la solución, dado que eso es lo que habla de su
efectividad. Los métodos asociados nos hablan de la eficiencia, y eso no es suficiente.
Los indicadores son fenómenos observables que están enlazados a algo que no puede ser
directamente observado, y que pueden brindar información que responderá a la pregunta
evaluativa. Los resultados no siempre son observados prolija y directamente. Al medir los
resultados, existen un número de indicadores, o –tomando prestado el término de Gilbert
(1978)–, requerimientos de desempeño que pueden ser relevantes. Por ejemplo, la ganancia
es un resultado de varias mediciones, que colectivamente indican su nivel (por ejemplo:
dinero recolectado; pagos realizados; activos y otras posibilidades). Los indicadores del
servicio al cliente incluyen recomendaciones, retención de clientes leales, cantidad de
cuentas y resultados de encuestas de satisfacción.
64
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Existen un número de otras potenciales fuentes de datos que usted puede utilizar, pero la
fuente que el evaluador seleccione, dependerá del tipo de datos que esté buscando. Otras
fuentes pueden incluir: expertos, empleados y gerencia. Al igual que otros elementos de la
planificación evaluativa, estas fuentes serán presentadas en detalle en capítulos siguientes.
65
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Sin embargo la evaluación se trata de mucho más que la recolección de datos. Una
planificación considerable debe llevarse a cabo antes de en realidad comenzar a recabar
información, al igual que el análisis, síntesis e interpretación de los datos recabados. El
análisis de datos en un esfuerzo evaluativo consiste en la organización de los datos para
descubrir patrones que puedan ser utilizados en el apoyo de hipótesis, conclusiones o
argumentos evaluativos, como resultado de un estudio evaluativo (Kaufman, Guerra, & Platt,
2006); para brindar información útil que resulte en la toma de buenas decisiones.
técnicas cuantitativas es “correlación”, lo cual representa el grado en el cual los ítems están
relacionados, y está expresado en términos de coeficiente (variando de -/+ 0 a 1). Una
correlación positiva entre dos ítems significa que al incrementarse uno de los ítems o
puntajes, el otro también se ve incrementado. Por ejemplo, un buen desempeño escolar puede
estar positivamente correlacionado con técnicas efectivas para tomar notas. Una correlación
negativa entre dos puntajes (representados por un coeficiente negativo) significará por otro
lado, que si un ítem se incrementa, el otro decrece. Algo importante para mencionar aquí es
que la correlación no significa causalidad. Esto es, que una relación entre dos variables no
indica automáticamente que el cambio en una de ellas cambiará la otra. Una posibilidad
alternativa es que una tercera variable haya causado un cambio en las dos variables
consideradas. Nuevamente, se intima al evaluador a mirar la información recabada dentro del
contexto del sistema de desempeño completo, notando un listado de factores completo (o lo
más completo posible) que puedan haber impactado el desempeño de los indicadores de
interés.
Las estadísticas también muestran cómo comparar las diferencias en el desempeño de dos
grupos. Cuando el desempeño mejora luego de una intervención para la mejora del
desempeño humano (HPI intervention), la pregunta que surge es: ¿Existe una diferencia
entre el desempeño de un grupo que ha recibido la intervención/solución y el grupo que no la
ha recibido?
Los datos cualitativos también son sujetos de rutinas analíticas. Las observaciones
cualitativas pueden ser ordenadas por fuente o por impacto. El revisar la frecuencia de las
observaciones cualitativas comenzará a fusionar la información cualitativa en cuantitativa. El
reflejar y buscar continuamente por patrones existentes dentro de la información –aún
cuando el proceso de recolección de datos esté llevándose a cabo–, puede ayudar a los
evaluadores a ajustar y establecer nuevos enfoques, en forma pro-activa, respecto a la
recolección de datos que brindarán información útil.
Tanto la serie de datos cualitativos como cuantitativos deben ser obtenidos de fuentes de
datos válidas. Una vez que esto se ha realizado, usted debe revisar la información obtenida
para asegurarse que es relevante a cada uno de los temas o preguntas evaluativas de estudio.
Cualquiera que sean las herramientas estadísticas que haya elegido, el evaluador debe
asegurarse de que sean los vehículos correctos para responder a las preguntas evaluativas.
Diferentes preguntas demandan diferentes análisis, así como diferentes niveles de medición.
Utilice la herramienta correcta para la tarea específica en la que se encuentra trabajando. Si
uno o varios de sus stakeholders nota que existe una falla en sus métodos de análisis, o en
cualquier otro elemento de la evaluación, esto pondrá en duda su credibilidad, y la validez de
sus conclusiones y recomendaciones finales.
67
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Interpretación
Mientras que el análisis de datos se enfoca en la organización y resumen de la información,
usted comienza a seleccionar los elementos más importantes de sus hallazgos,
comprometiéndose en el proceso de transformar los datos (una medida de 18), en
información (el número de ítems promedio vendidos por día, por vendedor, en esta tienda es
de alrededor de 18). Sus hallazgos comienzan a ser personalizados, dándole significado a los
números obtenidos mediante el análisis, pero aún no está interpretando lo que significan.
Aún los evaluadores más justos y comprometidos con un trabajo bien significativo, se
encontrarán parcializando en alguna instancia. Nuestras percepciones son impactadas por
nuestras experiencias pasadas, nuestras preferencias, valores, hábitos (por ejemplo: el notar
algunos detalles mientras que no vemos otros). Por lo que el articular claramente nuestro
razonamiento, nos ayudará para que las interpretaciones que realicemos sean enlazadas con
los hallazgos, que están por supuesto basados en los datos que analizamos. Como lo
dijéramos antes, esta alineación resulta crítica a través de todo el proceso evaluativo…los
datos que recabamos son indicadores relevantes y válidos de los resultados que queremos
lograr, y que hemos previamente relacionado con preguntas evaluativas importantes, las
cuales queremos responder para que los stakeholders puedan tomar importantes decisiones
acerca de cómo mejorar el desempeño.
La comunicación con los stakeholders clave a lo largo del proceso evaluativo los mantiene al
tanto de lo que el evaluador está haciendo, y por qué lo está haciendo, lo que luego
incrementará la cantidad de confianza que depositen en el evaluador y en sus esfuerzos.
Además, le permite a los stakeholders la oportunidad de participar y brindar
68
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Más adelante en el libro se presentarán cosas a considerar para una comunicación positiva,
incluyendo medios, formatos, lenguaje, tiempos y otras variables.
Conclusión
Debido a lo nuevo del Proceso para Evaluar Impacto, se ha realizado poca investigación
referente a datos en la utilización de este marco de trabajo, sin embargo se han publicado
varias piezas conceptuales (Guerra-López, 2007a; Guerra-López, 2007b; Guerra-López,
2007c; Guerra-López, 2007d). Este marco de trabajo ha sido aplicado a proyectos de
evaluación con asociados en educación, negocios y salud. Al momento de la preparación de
este manuscrito, se encuentran en preparación dos publicaciones ilustrativas de dichas
aplicaciones.
Fortalezas y Limitaciones
• Fortalezas:
• Fuerte enfoque en la alineación de desempeño: entre los niveles de resultados
organizacionales; hasta el impacto y valor agregado final; y dentro de cada uno de sus
pasos.
• Brinda lineamientos detallados para asegurar que las recomendaciones sean
implementadas.
• No restringe el enfoque hacia indicadores de desempeño predeterminados (por ejemplo:
reacción, aprendizaje, comportamiento, etc.), más vale se enfoca en encontrar indicadores
de desempeño específicamente apropiados para el objeto a evaluar.
• Resulta apropiado para la evaluación de cualquier tipo de programas e intervenciones de
mejora del desempeño.
• Busca la alineación con otros procesos importantes de la mejora del desempeño (por
ejemplo: la detección de necesidades), mientras las reconoce en forma separada.
• Limitaciones:
• Los pasos del proceso pueden ser percibidos como lineales.
• El enlace con las contribuciones y el ambiente externo puede ser vistos como irrelevantes
para algunos miembros de la organización.
69
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Aplicación
Antecedentes
The Visionary Corporation (TVC) es un proveedor líder global de soluciones de información
integradas, para negocios y clientes profesionales. TVC brinda información mandataria, con
la utilización de tecnología y aplicaciones que permite a sus clientes tomar mejores
decisiones, más rápido. La herramienta de ventas EZ Maximizer de TVC (Sales EZ
Maximizer –SEZM) fue creada para mejorar la productividad de los representantes de ventas
a través de un mejor acceso a los datos, así como para mejorar la velocidad de los negocios
realizados. TVC quería saber si sus esfuerzos estaban acarreando los beneficios esperados.
Se le encomendó al evaluador ayudar a los stakeholders a determinar si debían o no
continuar con la utilización de la herramienta, o bien si debían probar algo diferente. El
evaluador pertenecía a la organización (era un empleado de tiempo completo de TVC), y
recibió este requerimiento de su jefe, el director de Capacitación y Desempeño de TVC. Sin
embargo, este no era el cliente directo. El cliente directo era el nuevo Vice-Presidente de
Operaciones de Ventas que estaba presionado (y solventado) la evaluación.
Metodología
Al hablar con su cliente, el evaluador identificó a varios stakeholders de la organización y del
proyecto de evaluación. Estos stakeholders incluían: representantes de ventas que utilizaban
la herramienta para generar cotizaciones; el departamento de Tecnología que había
desarrollado el software; el departamento de Finanzas que gestionaba los fondos para el
proyecto; el departamento de Ingreso de Órdenes, que utilizaba las cotizaciones para ingresar
las órdenes correspondientes; el departamento de Capacitación y Desempeño que había
implementado el programa; gerentes que tomaban decisiones respecto a desarrollos y
cambios; y finalmente, los clientes de TVC. Los intereses de todos estos stakeholders estaban
representados en el comité de evaluación.
Al discutir el nivel estratégico, los stakeholders expresaron que ellos querían que la
herramienta SEZM les permitiera cumplir con los requerimientos de sus clientes externos.
Los miembros del comité de evaluación estuvieron de acuerdo en que si los clientes recibían
cotizaciones rápidas y precisas, lo que contribuiría a continuar obteniendo la satisfacción de
clientes (que podía ser medido a través de las actitudes de los clientes; el lapso de tiempo que
tenían sus cuentas activas; la actividad de la cuenta–compras, devoluciones, etc.), así como
continuar incrementando las ganancias y un mejor lugar en el mercado. A nivel táctico la
70
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
herramienta SEZM brindó la oportunidad de incrementar las ventas. Ellos querían rastrear el
total del volumen de ventas, la cifra total de ventas; los ítems vendidos por cliente, y la cifra
de ventas por cliente. A nivel operacional, el evaluador encontró que la estandarización de la
herramienta de cotización SEZM tenía la intención de disminuir el tiempo que les tomaba a
los representantes de ventas el crear una cotización. Esto a su vez permitiría a los
representantes incrementar el contacto con los clientes; lo cual incrementaría la cantidad de
cotizaciones requeridas y enviadas a los clientes. Debido a que los clientes también tenían la
disponibilidad de utilizar la herramienta a través de la interfase en-línea de TVC, el número
de órdenes realizadas y su precisión, también eran importantes. Para apoyar el nivel de
Proceso, la herramienta SEZM reduciría el número de errores en las cotizaciones, así como la
cantidad de tiempo desperdiciada en la identificación y resolución de esos errores.
71
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
72
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Se utilizaron informes de ventas y ganancias para estudiar las cifras, antes y después de la
implementación de la herramienta de cotización SEZM. Informes especiales de ventas le
permitieron al evaluador medir la satisfacción del cliente, mirando los incrementos en la
actividad de las cuentas de esos clientes. Informes de producción y desempeño también
resultaron útiles en la identificación del incremento en la exactitud de cotizaciones y órdenes,
así como una disminución del tiempo invertido en la resolución de errores cometidos en las
órdenes de compra. También se consultaron informes de la industria para establecer la
porción del mercado, las ganancias y pérdidas para establecer ganancias netas, así como
informes de ventas a clientes para analizar las cifras de ventas y la actividad de las cuentas de
los clientes.
También se realizó una encuesta a clientes para recabar datos acerca de los beneficios
percibidos por los clientes en la utilización del SEZM, en particular, cómo TVG ayudó a
responder a los requerimientos de los clientes. El cuestionario fue breve y aprobado por el
comité de evaluación. Todas las preguntas se enfocaron hacia comportamientos observables
y sujetos a medición, lo que permitió a quienes respondieron el cuestionario, brindar
respuestas pensadas acerca de experiencias reales. Por ejemplo, una de las preguntas fue:
“Cuando utilicé SEZM para obtener una cotización, obtuve toda la información requerida
dentro de los cinco segundos posteriores a presentar el formulario de requerimiento.”. El
cuestionario fue administrado a una muestra estratificada y aleatoria de clientes, a través de
la interfase que SEZM había tenía, durante un período de dos semanas. Luego de hacer una
orden, algunos clientes fueron redireccionados a la pantalla de la encuesta, la cual incluía una
explicación de su propósito, el tiempo requerido para completarla, una declaración de
anonimato, y una oferta del 5% de descuento en su próxima compra, si completaban el
cuestionario.
Para obtener la información requerida para la evaluación, los miembros de los departamentos
que utilizaban SEZM (ventas; gerencia de ventas; departamento de recepción de órdenes de
compra) fueron elegidos para participar en grupos nominales. El facilitador les pidió a los
participantes que compartan en qué medida –si en realidad había sucedido– el SEZM redujo
el tiempo requerido para rastrear y arreglar errores en las órdenes; y segundo, cómo el SEZM
había contribuido a su productividad. El facilitador escribió las respuestas en un papel que
incluía cualquier cosa desde un incremento significativo en la disponibilidad de tiempo hasta
el enfoque en las ventas, o no haber encontrado el suficiente impacto en sus tareas, o haber
encontrado un impacto negativo en la productividad debido a caídas del sistema, o no haber
73
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
tenido la funcionalidad necesaria para cumplir con los requerimientos de los clientes. Luego
de apuntar las repuestas durante las sesiones, el facilitador –con la participación y el
consentimiento de los participantes–, hizo un ranking de todas las respuestas.
Hallazgos
Al analizar los datos existentes tomados de informes de ganancias e informes del mercado, el
comité de evaluación encontró que no había incrementos significativos en la porción de
mercado ni en las ganancias de la organización, luego de la implementación del SEZM. Esto
era de alguna manera esperable, debido al poco tiempo de funcionamiento de la herramienta
(alrededor de un año).
La encuesta de satisfacción del cliente fue una actividad relativamente útil, con el 52% de
participación entre aquellos encuestados. Dado que las respuestas estaban basadas en una
escala Likert (escala original), la respuesta media fue estimada como una medición de la
tendencia central. Además, también se estimó el porcentaje de selección de cada una de las
opciones de un ítem, brindadas por los clientes que respondieron la encuesta.
Las cifras de los informes de ingresos por ventas fueron analizadas cuidadosamente, mirando
el número total de las ventas generales, así como el número total de ventas por cuenta
individual. Además, y debido a que estaban tratando con números reales (por ejemplo: dinero
y números de venta), la media o promedio para cada cuenta fue estimada como la medición
para la tendencia central. Los totales reales y promedios fueron comparados con los
promedios obtenidos previamente a la implementación del SEZM. El período “anterior” de
tiempo consistió en los mismos meses del año anterior, confirmando que no hubiera habido
iniciativas de gran relevancia que pudieran impactar esos resultados encontrados en ese
período de tiempo.
El comité de evaluación encontró un incremento neto del 13% en la cifra general de ventas
con respecto al mismo período del año anterior (antes de la implementación del SEZM), lo
cual era casi el doble que la tendencia de incremento en ventas encontrada durante los
últimos 6 años (el crecimiento promedio anual de ventas había sido del 8%). El número
promedio de transacciones por cuentas también había incrementado durante el año último, en
alrededor del 7.5%. Esto también reflejaba un incremento mayor al encontrado en los últimos
6 años, si bien algo más modesto (el incremento promedio de la actividad de las cuentas de
un año a otro había sido de aproximadamente el 5%).
No existían datos disponibles para determinar si la precisión de las órdenes de compra había
incrementado, y por lo tanto, los grupos nominales fueron instrumentos para recabar las
74
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
percepciones de los empleados respecto al rol del SEZM en el impacto sobre la precisión de
las órdenes de compra y sobre el tiempo antes gastado en arreglar esos errores. Hubo un
consenso respecto a la contribución positiva del SEZM hacia el logro del incremento de
precisión en las órdenes de compra y la disminución del tiempo invertido para revertir
errores cometidos, aunque inicialmente, casi todos los participantes indicaron que la
transición hacia la herramienta no fue fluida o fácil. Durante los primeros dos o tres meses a
partir de la implementación, los empleados tenían que mantener su carga de trabajo habitual,
mientras aprendían a utilizar la nueva herramienta. Esto impactó negativamente sobre sus
números al comienzo, e hizo dificultosa la aceptación de la nueva herramienta, de hecho,
algunos ni siquiera la utilizaron durante las primeras semanas (durante la transición, ellos
podían utilizar la nueva herramienta o los viejos métodos para presentar las órdenes de
compra). Adicionalmente, ningún empleado fue capacitado para utilizar la herramienta antes
de tener que utilizarla. A algunos se les pidió que comenzaran a utilizar la herramienta aún
antes de programar la capacitación, y en algunos casos fue de 6 a 8 semanas. La mayoría vio
al período de transición con falta de coordinación e innecesariamente dificultoso, y algunos
empleados mencionaron que casi se daban por vencidos en su utilización. Una minoría de
empleados mencionó otros temas como que el sistema se caía, lo cual les impedía brindar
una respuesta rápida a los clientes. El sistema sí ayudó, pero sólo cuando funcionaba, y no
había ningún plan de contingencia para la caída del sistema. Un par de otros participantes
indicaron que la herramienta por sí misma resultaba “demasiado inflexible y sin permitir la
adaptación de campos para incorporar información adicional que el cliente estuviera
buscando”. Uno de los factores que les ayudó a afrontar estas limitaciones fue que aquellos
que dominaban y utilizaban el sistema por completo, daban fe de su gran utilidad y
amigabilidad. Otros citaron que la flexibilidad de sus gerentes durante el proceso era
inestimable.
Durante una de las últimas reuniones indagatorias del comité de evaluación, una de las cosas
que resultaron obvias es que mientras que resultaba esencial que la herramienta SEZM
contribuyera a los resultados estratégicos, era demasiado pronto para ver el impacto de la
herramienta sobre los resultados estratégicos a largo plazo. Los datos recabados respecto a la
porción ocupada en el mercado, ganancias y satisfacción al cliente fueron considerados como
primeras medidas de un momento dado, que sería parte de una serie de mediciones
periódicas utilizadas para monitorear estos indicadores. Una de las recomendaciones clave
fue que cualquier cambio de estos indicadores debía ser considerado en el contexto de toda la
gama de factores que pudieran haberlos impactado. Un indicador que apoyó la utilidad de la
herramienta fue la actitud de los clientes, según lo medido por el breve cuestionario. La
mayoría de los clientes encuestados –el 82%– dijo que la herramienta SEZM cubrió sus
requerimientos consistentemente y en tiempo y forma. Adicionalmente, la mayoría de ellos –
cerca del 76%– indicaron que preferían este método de cotización más que el anterior. Dado
que todos los ítems del cuestionario obtuvieron respuestas favorables de al menos el 55% de
los clientes encuestados, los stakeholders se sentían confiados de que la herramienta estaba
en realidad cubriendo las expectativas de sus clientes. Los stakeholders acordaron monitorear
la satisfacción del cliente en forma anual, y adaptar el cuestionario instrumento para que
refleje los nuevos cambios del proceso de cotización. Un incremento en las cifras de ventas
también apoyó la hipótesis de que la herramienta SEZM estaba teniendo un impacto positivo
75
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
76
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los datos de los empleados también sugirieron que la herramienta había sido de gran ayuda,
y en general, un mejor modo para crear y presentar las cotizaciones. También indicaron que
de acuerdo a su estimación, la herramienta había contribuido positivamente al incremento de
su productividad, ya que dedicaban un tiempo muy significativamente menor al rastreo y
arreglo de errores en las órdenes. En general, la información pareció sugerir que la
herramienta SEZM valía la pena la continua inversión, al menos hasta que el nuevo conjunto
de datos demostrara lo contrario. La información también reveló algunas formas de mejorar
la herramienta en sí y la implementación de iniciativas futuras.
Uno de los resultados claves de este proceso fue que los stakeholders sugirieron o apoyaron
el monitoreo continuo de varios indicadores, antes de arribar a conclusiones definitivas
acerca del bajo impacto percibido de esta solución. Es decir, desde ese punto en adelante, las
decisiones criticas serían tomadas en base a datos relevantes, confiables, y validos.
77
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 5
Evaluar Evaluaciones
Introducción
Allí donde los seres humanos se encuentren involucrados, seguramente encontrará
imparcialidad. La imparcialidad puede ser encontrada aún en la investigación científica más
básica. Por ejemplo, las preguntas que son cuestionadas y estudiadas pueden ser una función
de los intereses personales de los investigadores mismos, y por lo tanto, lo que se conoce
acerca de un tema en particular, es conocido porque alguien, o algún grupo eligió seguir ese
camino de investigación, no necesariamente porque eso es todo lo que hay para saber, o
porque es de hecho el único camino de investigación en el área del estudio en cuestión.
Así que los evaluadores también pueden estar influenciados por experiencias pasadas y
persuasiones de aquellos que toman decisiones, acerca de cómo y dónde conducir una
evaluación. Desde la elección de las preguntas evaluativas, pasando por los resultados,
indicadores y actividades que serían apropiadas para responder tales preguntas, hasta aún las
mismas herramientas de análisis, todo influencia las conclusiones de una evaluación. A
veces, el mero propósito de convocar una evaluación puede –especialmente a nivel
encubierto– ser un simple ejercicio político, en vez de una invitación honesta y abierta para
mejorar un programa o solución de desempeño, lo cual potencialmente conlleva al sabotaje
de las actividades como el bloqueo de acceso a datos relevantes, confiables y válidos, o
como descartar los hallazgos y recomendaciones que no confirmen los reclamos de un grupo
de interés especial, entre otras cosas.
El evaluar las evaluaciones, o conducir una meta evaluación, es tal vez una de las cosas más
importantes que uno puede hacer para confirmar la fidelidad de cualquier emprendimiento
evaluativo. El establecimiento de un mecanismo mediante el cual uno pueda establecer la
validez de su trabajo, es una práctica común en varios campos, desde contadores hasta
médicos, desde maestros hasta proveedores de servicios. Es una obligación profesional de los
evaluadores y profesionales dedicados a la mejora del desempeño. Para los clientes de la
evaluación, una meta evaluación los puede ayudar a decidir si deben aceptar e implementar
las conclusiones y recomendaciones de la evaluación.
Ciertamente, este tipo de evaluación tampoco tiene que realizarse luego de completada la
evaluación inicial, sino que puede ser un proceso paralelo que ayude a los evaluadores a
utilizar una retroalimentación relevante y a tiempo para mejorar el proceso evaluativo en
general. De hecho, Scriven (1968) presenta que la meta evaluación puede ser formativa, para
asistir al evaluador en el diseño y conducción de una evaluación sólida; o acumulativa, para
78
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Definición
Stufflebeam y Shinkfield (2007) definen a la meta evaluación como:
Pág. 705
Los autores describen al rol de un meta evaluador, como un rol que “puede ser extendido
para lograr el valor, mérito y probidad de todo lo que es y hace la profesión, servicios de
evaluación, uso de la evaluación, entrenamiento evolutivo, investigación evaluativa y
desarrollo organizacional.” (Pág. 705)
Stufflebeam y Shinkfield (2007) proponen una serie de calificaciones para los meta
evaluadores, principalmente:
79
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Estándares de Evaluación
Mientras que la meta evaluación ha existido tal vez tanto como la evaluación, fue en los años
1960 cuando los evaluadores comenzaron a disertar formalmente acerca de ella (Fitzpatrick
et al., 2004). Algunos de los primeros trabajos notorios al respecto fueron de Scriven (1967;
1974), Stake (1970) y Stufflebeam (1968). La mayoría de los evaluadores estaban a favor de
una evaluación de calidad de una evaluación realizada, dirigiéndose hacia la meta evaluación
como guía o estándar para asociarse a los clientes de la evaluación realizada, para que
puedan evitar aquellas evaluaciones que resultarían en pérdidas o pequeños valores
agregados. Al incrementarse los criterios y listados para juzgar la calidad de una evaluación,
también se acrecentó la confusión entre los evaluadores y clientes de la evaluación, lo cual
fue de hecho la guía más útil.
En 1975, Daniel Stufflebeam del Western Michigan University’s Evaluation Center (Centro
de Evaluación de la Universidad Western Michigan) tomó la iniciativa para desarrollar una
serie de estándares comprensibles y universales, dirigidos específicamente a las evaluaciones
del área educacional. Esta iniciativa fue supervisada por un Joint Committee on Standards
for Education Evaluation –The Joint Commitee– (Comité Conjunto de Estándares para la
Evaluación en la Educación), y como resultado se establecieron por ese comité los
Estándares para la Evaluación de Programas, Proyectos y Materiales Educacionales
(Standards for Evaluation of Educational Programs, Projects, and Materials –Joint
Committee, 1981; Fitzpatrick, et al., 2004). Los Estándares han sido actualizados (1994) y
son actualmente utilizados en varios escenarios, brindando un lenguaje común y una serie de
reglas para afrontar una variedad de temas relacionados con la evaluación.
Los Estándares brindan un marco de trabajo comprensivo para la meta evaluación. Los
estándares pueden ser utilizados durante las etapas de planificación de una evaluación,
durante la etapa de implementación para monitorear el progreso, y en la conducción de una
auditoría final de una evaluación implementada. Existen 30 estándares que se adecuan a
cuatro categorías: utilidad, propiedad, factibilidad y exactitud. En la Tabla 5.1, presentada
debajo como referencia, se brinda un listado de estos estándares, los cuales no serán
discutidos extensamente. Se recomienda al lector consultar dichos estándares (Standards by
Joint Comité, 1981).
80
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
81
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Vale la pena notar que los Estándares surgieron primariamente intencionados para objetos
educacionales y de entrenamiento a ser evaluados, y no se aplican fuera de las áreas de
educación y entrenamiento. En la evaluación de otras intervenciones para la mejora del
desempeño, y la meta evaluación relacionada, se aconseja a los evaluadores y meta
evaluadores el uso de estos estándares como una fuente potencial de criterios, pero que
además deben considerar criterios externos apropiados para sus situaciones y contextos
evaluativos.
Stufflebeam y Shinkfield (2007) también precaven acerca de que los estándares fueron
desarrollados expresamente para los Estados Unidos de Norteamérica y Canadá, y que el
Joint Committee recomendó que otros países consideraran para ellos los estándares que les
resultaran más apropiados y útiles. Al momento de escribir estas palabras, el mundo es
testigo de guerras, en las cuales los temas relacionados con los derechos humanos, la
libertad, el derecho a la privacidad, la libertad de información, y otros asuntos en juego. Por
lo que los desafíos de transferir estos estándares a otros países no son difíciles de imaginar.
82
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Sección 2
Herramientas y Técnicas de Evaluación
83
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 6
Datos
Una de las premisas centrales de la evaluación y la mejora del desempeño, es que utilicemos
datos completos y relevantes para hacer nuestras interpretaciones y generar recomendaciones
acerca de cómo mejorar el desempeño. Desafortunadamente, un error que es cometido muy a
menudo, es forzar las conexiones entre los datos que ya están disponibles y las preguntas
evaluativas. En realidad no hay nada malo (más vale lo contrario) en la utilización de datos
que ya se encuentran disponibles, si es que en realidad son relevantes y se adecuan a las
respuestas de las preguntas que hemos formulado, el hecho es que en muchos casos, no
resultan relevantes ni apropiados. La lógica que se suele usar resulta inversa. Esto es, que la
gente mira a la información disponible y luego se hace las preguntas cuyas respuestas están
disponibles. Lo que se pierde de vista son las preguntas importantes que no se derivan
naturalmente de esos datos…esas preguntas que deben ser formuladas y respondidas, pero
sobre las cuales no tenemos datos aún.
Definición de Datos
Para los propósitos de la evaluación, los datos pueden ser cualquier informe documentado
acerca de algo –un evento, un desempeño, un resultado–, que haya tenido lugar durante el
período estudiado, o que haya acontecido en otro momento pero sea relevante a la
evaluación. Los datos son lo que usted quiere conocer para responder las preguntas
evaluativas que hayan acordado responder. Los datos pueden incluir índices de retención de
cuentas, índices de producción, informes de incidentes, dominio y aplicación del contenido
de un programa de capacitación u otros esfuerzos e iniciativas de Desarrollo de Recursos
Humanos, resultados de cuestionarios realizados, notas de observación, votaciones que
expresen opiniones, fallecimientos, lesiones, quiebras, litigios legales resueltos con éxito,
premios, etc. Todos estos recursos corresponden a la definición de datos (por ejemplo: todo
ello puede acontecer en el flujo de eventos bajo estudio, o constituyen elementos observables
y relevantes para el estudio mediante una cadena racional o de lógica). Sin embargo, puede
ser que todos los datos no sean del mismo peso para el alcance de una conclusión imparcial,
y algunos datos pueden tener una influencia negativa y predisponer las conclusiones en una u
otra forma 5. Aquí hay algunas otras cosas para considerar acerca de los datos, para poder
mejorar el éxito de todas las funciones de su organización, y para encontrar qué es lo que le
está agregando valor, y qué no. Mientras vea cada uno de los siguientes elementos, mírelos
dentro del contexto de lo que usted y su organización están haciendo ahora, podrían hacer en
el futuro, y cómo usted puede utilizar los datos de desempeño para asegurar su éxito.
5
Información es el dato que puede llevar a la toma de una decisión exitosa.
84
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
85
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Por ejemplo, supongamos que se ha conducido una encuesta de servicio al cliente, y que la
misma logró una puntuación casi perfecta. Mientras que algunos podrían decir que la
satisfacción del cliente puede ser inferida como excelente en este caso, yo prevendría sobre
el hecho de que lo que la evidencia sugiere es que únicamente la opinión de aquellos
encuestados denota satisfacción; o que simplemente eligieron decir que estaban satisfechos
en el momento en que se les preguntó. Si incluyéramos luego nuestro conjunto de evidencia:
estadísticas de retención de clientes, cantidad de tiempo de cuentas activas, cuentas cerradas
dentro del período definido, y total de ventas por cuenta, lo que muy posiblemente podríamos
observar es que estos indicadores no cumplen con los objetivos y expectativas deseados,
independientemente de cuáles hayan sido las opiniones de satisfacción de los clientes. El
punto es que las opiniones acerca de la satisfacción son diferentes a los comportamientos
observables, indicativos de esa satisfacción… estos indicadores de servicio al cliente no
parecen ser positivamente correlacionados con los otros indicadores financieros, que
históricamente se consideran correlacionados…Uno podría decir que los clientes están
satisfechos, pero un indicador más válido sería aquel que demuestre que los clientes son en
realidad clientes leales y activos de la organización.
Mientras ciertas cosas como la representatividad de las muestras y la calidad del cuestionario
pueden haber alterado los resultados de la encuesta, aún la encuesta mejor diseñada e
implementada (y sus instrumentos), recabará opiniones…que como todos sabemos, pueden
resultar en contraste directo respecto a nuestro comportamiento.
Cualitativo y Cuantitativo
Los términos cualitativo y cuantitativo son términos relacionados y esenciales que se refieren
tanto a los datos como a las técnicas utilizadas para la recolección de esos datos. La técnica
86
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Por ejemplo, las encuestas de escala Likert, donde se les pide a encuestados que seleccionen
una respuesta que varíe de un fuerte desacuerdo a un fuerte acuerdo; o una variación que
cubra desde nunca hasta siempre, tienen a menudo números asociados con cada una de las
opciones de respuesta. Estos números son luego utilizados para la realización de cómputos
matemáticos, tales como la estimación de la respuesta promedio. Sin embargo, estos números
son meramente símbolos de una categoría cualitativa; no representan cifras reales. Aún
cuando estos datos abstractos sean cuantificados con la estadística descriptiva correcta, para
resumirlos –como puede ser un puntaje medio–, nunca debemos olvidar que estamos en
realidad tratando con opiniones.
La distinción entre cualitativo y cuantitativo no tiene que ser para el evaluador un sí o no,
esto o lo otro. El comenzar una evaluación con una observación cualitativa puede ayudar a
ordenar temas no previstos que surgen en cualquier estudio. Adicionalmente, los datos
cualitativos pueden ser suplementados con información cuantitativa y con un poco de
trabajo, los datos cualitativos pueden ser aún convertidos en –o expresados como– datos
cuantitativos (por ejemplo, el 70% de los participantes indicaron un fuerte acuerdo con la
pregunta #5), brindando una base directa para las interpretaciones. Por ejemplo, las opiniones
cualitativas pueden ser recabadas y contadas. Sólo piense en la importancia de la votación en
años de elección, donde las estadísticas cuantitativas son a menudo la base para la toma de
decisiones en la campaña electoral.
Escalas de Medición
Una de las cosas clave para considerar en la recolección de datos es la utilización del nivel de
medición apropiado. Existen cuatro niveles de medición que poseen sus características
propias y únicas:
87
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La Tabla 6.1 ilustra las características únicas de cada escala, y ejemplos de datos para cada
una de ellas.
88
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los datos nominales y ordinales son usualmente asociados con los datos cualitativos,
mientras que los datos tipo intervalo o proporción con los datos cuantitativos.
Algunos evaluadores, como Mohr (1992), limitan el enfoque de sus estudios al análisis de
impacto de sólo un resultado por programa. De acuerdo a sus palabras, Mohr no considera el
hecho de que el programa “valga o no la pena”, para concentrarse en la relación lógica entre
el programa y el resultado seleccionado. Lo que para uno es el logro en la precisión para
describir relaciones, para otros es una forma de evitar el tema central. El énfasis de este libro,
por ejemplo, argumenta que el criterio primordial para la evaluación es que el programa
valga o no la pena, considerando si el programa suple necesidades válidas 6. En el caso de
Mohr, el deseo de precisión (y el evitar consideraciones políticas) ha limitado la metodología
y el enfoque del estudio de evaluación. Otros evaluadores como Stake (2004) arrojan una red
mucho más amplia, adoptando metodologías que incluyen la inclusión de controversia,
política y sentido de justicia, para múltiples stakeholders y efectos secundarios.
Lo que hay que considerar respecto a los programas y sus objetivos, es que existen en ambas
jerarquías y redes. Esto es, en la organización –y de hecho en la sociedad–, todo está
relacionado con todo lo demás. Por eso, cuando evaluamos para determinar si una solución
dada –o un grupo de soluciones– cumple con los objetivos que la intencionaron, no debemos
sólo mirar a los objetivos directamente, sino también al objetivo final (y cualquier y todos los
6
Nuevamente, es importante que la evaluación esté basada en necesidades –brechas entre resultados–, y no en
los deseos o formas de eliminar esas brechas.
89
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
objetivos en medio de estos puntos), al cual debe contribuir. Como ha sido ilustrado en el
capítulo anterior, un marco de trabajo útil está dado por los niveles de resultados de Kaufman
(2000, 2006): impacto social (mejor expresado mediante una Visión Ideal); logros
organizacionales (según lo expresado mediante la misión de las organizaciones); y las
entregas internas (usualmente expresadas como metas u objetivos operacionales). Es en este
último nivel, donde la mayoría de las soluciones o intervenciones tienen influencia más obvia
e inmediata, y debe notarse que este último nivel puede ser subdividido en resultados
soporte. Por ejemplo, un objetivo operacional puede estar relacionado a un departamento, el
cual a su vez tiene objetivos para el desempeño de grupos de equipo y/o individuos, sobre los
cuales se apoya para alcanzar el objetivo operacional. Estas relaciones no solo existen de
forma jerárquicas, sino también en forma de red, puesto que otros resultados suporte de otros
departamento pueden también influir en el logro del objetivo operacional.
Sin embargo, la prueba final del valor de estas soluciones es si han o no contribuido al logro
de los resultados más altos: la misión y Visión Ideal de la organización. Debido a esto, y
para poder lograr una interpretación completa y exacta de la efectividad de la solución,
deben recolectarse datos relevantes que indiquen en impacto completo de las soluciones o
iniciativas sobre los resultados en todos los tres niveles: estratégico, táctico, y operacional.
La Tabla 6.2 ilustra cómo estos tres niveles de resultados pueden ser utilizados para crear un
plan de recolección de datos. La relación entre todas las columnas será elaborada más
detalladamente a través de este libro.
Evaluación
Impacto
Externo/Social
Logros
Organizacionales
Entregas internas
90
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
y productos
Es importante que haya pasado la cantidad de tiempo apropiada, para permitir que el
programa tenga un impacto notorio. Para determinar ese período de tiempo, e impacto
notorio, uno debe consultar el informe inicial de detección de necesidades, y referirse a los
objetivos que fueron establecidos en ese momento. Recuerde que un objetivo –expresado en
el formato más útil–, nos debe decir exactamente qué resultado debe lograrse, cuándo debe
producirse ese logro, bajo qué condiciones será logrado, y qué criterios serán utilizados para
determinar si se logró satisfactoriamente. Esos objetivos en sí mismos se convierten luego en
la base para la médula de las preguntas evaluativas.
Muchos marcos de trabajo establecidos por el desempeño de indicadores han sido propuestos
durante las últimas décadas. Por ejemplo, el Balanced Scorecard de Kaplan y Norton (1992)
91
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Si no existiera un marco de trabajo particular que mejor pueda identificar los indicadores de
desempeño claves, el evaluador puede seleccionar un conjunto específico de indicadores
relevantes al objeto que evaluará. Maskell (1992) propone los siguientes, entre otras
consideraciones importantes, para la selección de indicadores de desempeño: deben estar
específicamente relacionados con los objetivos estratégicos; el entendimiento de que estas
mediciones variarán de organización en organización; y que éstas variarán con el tiempo.
Debajo hay algunos indicadores financieros comúnmente utilizados, sugeridos por Niven
(2002, p.119). Note que estos indicadores financieros convencionales no incluyen el valor
agregado o sustraído en nuestra sociedad compartida, y deben ser entendidos en ese
contexto.
• Activos Totales
• Activos por empleado
• Ganancias como % de activos
• Retorno sobre los activos netos
• Retorno sobre los activos totales
• Margen Bruto
• Ingresos Netos
• Beneficios como % de ventas
• Beneficios por empleado
• Ingresos
• Ingresos de nuevos productos
• Ingresos por empleado
• Retorno sobre el capital (en inglés, ROE)
• Retorno sobre el capital empleado (en inglés, ROCE)
• Retorno sobre la inversión (en inglés, ROI)
• Valor económico agregado (en inglés, EVA)
• Valor de Mercado agregado (en inglés, MVA)
• Valor agregado por empleado
• Tasa de crecimiento compuesta
• Dividendos
• Valor de mercado
• Precio de acciones
• Distibución de accionistas
92
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Lealtad de accionistas
• Flujo de efectivo
• Costos totales
• Calificación crediticia
• Deuda
• Relación Deuda-Capital
• Tiempos de cobertura de intereses
• Tiempos de ventas a cobrar
• Volumen de cuentas a cobrar
• Índice de antigüedad de deudas
• Índice de antigüedad de inventario
• Índice de rotación del inventario
Mientras que estos son todos indicadores financieros, algunos indicadores específicos serán
relevantes para algunas metas financieras, mientras que otros no lo serán (por ejemplo:
crecimiento, beneficios, valor y riesgo gerencial).
Categoría Indicador
Tiempo • Recepción de entregas a tiempo.
• Tiempo cíclico de la orden.
• Variabilidad del tiempo cíclico de la orden.
• Tiempo de respuesta.
• Pronóstico/planificación del tiempo cíclico.
• Variabilidad de la planificación del tiempo cíclico.
Costo • Rotación de inventario de productos terminados.
• Períodos de cobranza
• Costo de servicios
• Tiempo de ciclo entre pago de clientes y pago a proveedores
• Costo total de entrega
o Costo de los productos
o Costo de transporte
o Costos de inventario
93
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Categoría Indicador
o Costo de manipulación de materiales
o Administrativos
o Otros
• Costo de exceso de capacidad
• Costo de no cubrir la capacidad
• Devoluciones reingresadas
• Costos de lograr la satisfacción del cliente
• Costo de demandas legales
• Costos de solución de quejas recibidas
Calidad • Satisfacción general del cliente
• Exactitud del proceso
• Proceso perfecto de las órdenes de compra
o Entrega a tiempo
o Orden completa
o Selección exacta de productos
o Libre de daños
o Facturación exacta
• Exactitud del pronóstico
• Exactitud en la planificación
• Cumplimiento del Cronograma Horario
• Beneficios, y beneficios en el tiempo
• Alcanzar requerimientos de responsabilidad organizacional social.
• Seguridad.
La Tabla 6.4 ilustra una gama de ejemplos más amplia, y la relación entre los resultados
esperados y los indicadores de medición requeridos para evaluar los resultados.
94
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Logros
Organizacionales
Dominio sobre Mercado • Participación en el Mercado
• Imagen pública
95
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
**Las ventas son otro tipo de resultados interesantes, que permiten ver tanto los macro-
resultados o los resultados a nivel organizacional –como los resultados internos–,
dependiendo de cómo la organización clasifica la jerarquía de los resultados. Sin tener en
cuenta el nivel, la idea clave es la de jerarquía…qué resultados apoyan las ventas, y a qué
resultados contribuyen las ventas. Lo que es más importante es representar claramente la
96
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
relación entre los varios niveles de resultados. Por ejemplo, la producción y alta calidad
contribuye al aumento de ventas, la cual contribuye a las ganancias, y cuando son continuas,
nos podría indicar que la organización está teniendo un impacto externo positivo.
Mientras nos movemos hacia la columna de la derecha, usted puede ver cómo la precisión
con la cual la organización define los resultados para lograr los incrementos, y por lo tanto, la
precisión de los esfuerzos –incluyendo una ubicación motivada estratégicamente para cada
uno de nuestros recursos limitados–, para lograrlos; y más aún, la precisión con la cual
pueden ser medidos para determinar si se han logrado. La alineación estratégica está dada por
este tipo de rigor, articulación y enlaces.
Considere el siguiente caso de estudio presentado en la Figura 6.1; un ejemplo del sector
público que prepara a la gente para sobrevivir en la sociedad que compartimos:
97
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Contexto: La División de Servicios para Ciegos (DSC) es una agencia estatal, dedicada a
brindar una gama de servicios para las personas ciegas y visualmente impedidas del estado, a
través de tres programas principales: el Programa de Rehabilitación Vocacional, y el
Programa Para Vivir Independientemente, el Programa para Chicos y Familias. Mientras que
el enlazar los resultados y los esfuerzos de los tres programas podría haber potenciado la
fortaleza de los tres programas, generando un mejor servicio a la comunidad, el alcance del
proyecto sin embargo fue limitado por los stakeholders al Programa de Rehabilitación
Vocacional.
Uno de los desafíos de trabajar con este programa fue moverse a partir de un enfoque en los
servicios brindados como su razón de ser, hacia un enfoque final en los resultados que sus
clientes requerían y esperaban. En este caso, los resultados a un nivel de Impacto
Externo/Social, eran los de autosuficiencia social, independencia y calidad positiva de vida de
los clientes actuales y potenciales. Conjuntamente con el desafío, existía también una gran
fortuna. Las dos personas clave de tomar decisiones en el Programa de Rehabilitación
Vocacional, y los contactos para este proyecto, contaban con la visión e integridad para
reconocer que los viejos modos de ver y hacer simplemente producirían más de lo mismo, sin
valor agregado demostrable, y con un consenso establecido para la revisión de la misión
actual.
c. Internos: Todos los clientes de DSC lograrán los objetivos de su plan de integración al
trabajo.
Indicadores: Con los resultados organizacionales clave definidos, la próxima tarea fue
identificar los indicadores mensurables que pudieran ser utilizados para medir estos
resultados. Para obtener una representación exacta de cada resultado, una revisión de
contenido de varios informes de calidad nacionales y estatales, informes internos y
documentos de DBS y el Programa de Rehabilitación Vocacional, manual de procedimientos,
políticas y regulaciones fue llevado a cabo, además de discusiones enfocadas con los
stakeholders. El resultado fue el siguiente marco de trabajo de medición, el cual consiste en
una lista de indicadores mensurables, categorizados por sus resultados asociados.
98
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
99
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Note que cuanto más limitada es nuestra definición de éxito, mejores parecen
nuestros resultados. Por el contrario, con una visión más amplia, podemos ver más
realísticamente el valor de nuestras soluciones, programas, actividades, etc.
100
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Una cosa que vale la pena notar aquí, es que mientras que nosotros queremos una lista de
indicadores lo más completa posible, pueden no encontrarse datos disponibles para todos y
cada uno de ellos. ¡Esta es información importante en sí misma! Resulta muy difícil
determinar si algo está siendo logrado, realizado o utilizado o no, si no contamos con los
datos en los cuales basar tales determinaciones. Al mismo tiempo, si nosotros no tenemos los
datos para hacer esas determinaciones, ¿cómo tomamos decisiones importantes acerca de qué
mantener, qué modificar o qué abandonar? Entonces, esta lista ideal de indicadores también
puede servir como entrada para la toma de decisiones acerca de qué datos adicionales deben
ser rastreados de ese punto en adelante, y cómo. Únicamente el mero rastreo de datos clave
puede ser una herramienta poderosa para lograr una mejora. Si es tomado seriamente, puede
incrementar la conciencia, promover los deseos de logro, incrementar la motivación y
facilitar la retroalimentación a tiempo.
Por supuesto, aún hay trabajo para hacer entre la identificación de los indicadores/datos
correctos, y su recolección real. Uno debe identificar las fuentes de datos. No es suficiente
identificar qué datos debemos recabar, si no hemos también encontrado dónde recolectarlos –
si es que están siendo recolectados, ¡lo cual por sí mismo constituye un hallazgo
importante!–. Los miembros del equipo evaluativo –el cual incluye a un grupo representativo
de stakeholders–, debe ser capaz de brindar conjuntamente excelentes ideas de dónde estos
datos pueden ser encontrados. La siguiente sección abocada a las fuentes de datos, le brindará
mayor información.
Fuentes de Datos
Otro tema importante para considerar antes de recolectar los datos, es determinar dónde los
encontrará. Los datos pueden ser encontrados en una serie de fuentes financieras, sociales,
políticas o tecnológicas. Hoy en día, nuestro acceso a este tipo de datos, es tan amplio como
nunca antes. Internet y los avances en las telecomunicaciones y otras tecnologías nos
permiten enlazar informes, documentos, bases de datos, expertos y otras fuentes de un modo
sin precedentes.
Por ejemplo, los indicadores sociales tales como los relacionados con la calidad de vida
(niveles promedio de ingresos, tazas de divorcio, niveles de criminalidad y similares), pueden
ser a menudo encontrados en los archivos de las Cámaras de comercio, informes de censos
realizados, informes policiales e informes de calidad de vida de la comunidad, muchos de los
cuales están disponibles electrónicamente. Otros como los relacionados al medioambiente –
101
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
contaminación y desperdicios tóxicos, para nombrar algunos–, también pueden ser obtenidos
de la Agencia de Protección del Medioambiente, así como estudios publicados en diarios y
revistas especializadas. Una cantidad de otras agencias gubernamentales e instituciones de
investigación –tanto nacionales como internacionales– también publican una serie de
estudios e informes oficiales que pueden probar ser valiosas fuentes de los datos que
necesitamos (por ejemplo el Programa de Naciones Unidas Para el Desarrollo (PNUD), La
Heritage Foundation, UNESCO, entre otras).
En muchos casos, usted puede encontrar los datos que busca dentro de la organización
misma. Los informes existentes acerca de desempeños pasados y actuales pueden estar
disponibles, pero recabados por distintas partes de su organización, o por razones diferentes.
Asegúrese de buscar estas fuentes potenciales de datos, ya que le servirán para ahorrar un
valioso tiempo, dinero y otros recursos. Debajo hay algunos ejemplos específicos y
descripciones de fuentes útiles, listados por Niven (2002):
• Plan Estratégico: Esta es la fuente guía de información para muchas de las iniciativas de
recolección de datos. Si se hace correctamente, debe contener declaraciones coherentes
de visión, misión, valores y otras funciones y objetivos clave que fueron derivados de un
proceso válido de detección de necesidades. A menudo brindará la razón por la cual las
soluciones fueron previamente seleccionadas.
• Informes Anuales: Estos informes brindan información de valor que no sólo contendrá
una detallada información financiera, sino que a menudo incluirá indicadores no
financieros. También podrían presentar posición en el mercado, productos clave y
oportunidades futuras.
• Planes Para Proyectos: Como pre-requisito, los proyectos exitosos están alineados con el
plan estratégico. Si usted encuentra que no lo están, esta puede ser la primera pista
importante acerca de si un proyecto en particular vale la pena –y tal vez el requerimiento
de revisión de la visión/misión.
• Estudios de Consultores: Existe una amplia gama de consultores expertos. A veces los
departamentos individuales contratan servicios de consultoría, sin necesariamente
compartir el hecho o los resultados del estudio con otros departamentos. Estos estudios
pueden contener información preciosa respecto a lineamientos base, o temas de fondo,
estado de la industria y otras piezas de información importantes.
• Informes de Desempeño: Particularmente si existe algún tipo de sistema de gestión de
desempeño, existen informes periódicos del desempeño individual, de equipos,
departamental y organizacional. Este también pude ser un buen lugar para encontrar
indicadores iniciales.
• Informes de Análisis Financiero: Si la organización cuenta con transacción pública, estos
informes le brindarán un buen sentido de cómo el mercado valora a la organización.
• Diarios, Boletines y Revistas: Si usted está particularmente interesado en la evaluación
del impacto en la opinión pública de una intervención, el encontrar lo que la prensa está
diciendo sobre la organización es un buen lugar para comenzar.
• Datos de Competidores: Mientras que el estar mirando lo que hace el vecino no es una
buena forma de encontrar ideas originales, ciertamente le puede brindar buenas lecciones
102
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
de qué cosas no hacer. También le puede brindar un ingreso preliminar para la generación
de nuevas ideas sujetas a pruebas.
La Tabla 6.2 ilustra un listado excelente de fuentes específicas de datos de acuerdo a una
categoría general de datos, ofrecida por Niven (2002).
103
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Las fuentes centradas en la gente también aplica y puede incluir a: clientes, ejecutivos,
empleados, gerentes, participantes, estudiantes, administradores, instructores, vendedores y
expertos en el tema particular.
Ciertamente, este y otro tipo de preguntas relevantes pueden haber sido formuladas desde el
principio, y de hecho, podrían haber estado agrupadas en conjuntos de preguntas relacionadas
a un resultado en particular. El beneficio de hacer esto, es que estas preguntas relevantes
podrían haber estado incluidas en el alcance inicial y en la planificación del proyecto,
habiendo ya construido sus tareas y lineamientos de tiempo. Debajo encontrará un ejemplo
de estos tipos de agrupación:
• Pregunta Central
Grupo de preguntas: ¿Logró el nuevo programa de Reclutamiento y Selección incrementar el
desempeño de las funciones de trabajo afectadas en al menos el 12%, y decreció la tasa
104
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
indeseada de rotación en al menos el 15%, al final del año fiscal YYYY, según lo indicado
por el Informe Anual sobre el Desempeño Organizacional y de Empleados?
Seguimiento Inicial:
4. ¿Fueron los beneficios del nuevo programa mayores a su costo? ¿Esto continuará en el
futuro o cambiará?
6. ¿Qué otras soluciones, eventos o factores implementados han tenido efecto sobre el
resultado esperado?
4. ¿Qué ocurriría si algo pudiera modificarse para que esta solución resulte exitosa de aquí
en adelante?
6. ¿Qué es específicamente lo que salió mal? ¿El diseño? ¿El desarrollo? ¿La
implementación?
Las preguntas pueden seguir y seguir, pero estas deben ser suficientes para ilustrar la
variedad de temas asociados a un cuestionario evaluativo general. Existen preguntas de
105
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
seguimiento que serán lógicamente identificadas desde el comienzo, mientras que otras no
serán consideradas hasta que sean reveladas a partir de los hallazgos iniciales.
El proceso para responder estas preguntas, es virtualmente el mismo que el utilizado para las
preguntas iniciales. Usted debe identificar los indicadores que resulten relevantes, confiables
y válidos, que lo ayudarán a encontrar las respuestas. En el próximo capítulo, discutiremos
cómo realizar la recolección de estos datos.
Capítulo 7
Recolección de Datos
Introducción
Al igual que las interpretaciones y recomendaciones que el evaluador hace dependen del
alcance de los datos recolectados, también la recolección de datos depende de las
herramientas utilizadas para llevar adelante dicho proceso. Sin embargo, el problema a
menudo se encuentra cuando los evaluadores limitan los datos recabados debido a la
utilización de una serie limitada de métodos de observación con los cuales se sienten
cómodos trabajando, y a veces, sin considerar otras alternativas viables. Los métodos
utilizados para la recolección de datos son seleccionados luego de haber identificado cuáles
son los datos requeridos pare responder a las preguntas evaluativas que haya formulado y que
fuentes consultar, y luego de haber considerado y confirmado qué métodos resultan más
apropiados para recolectar esos datos, de dichas fuentes. El gastar sus recursos recabando
datos irrelevantes o carentes de significado, simplemente porque usted conoce cómo utilizar
el método para conseguirlos, no agrega ningún valor a su trabajo. De hecho, como Ackoff lo
expone sucintamente: “la sobreabundancia de información irrelevante constituye un mayor
problema que la falta de información relevante, debido a que requiere más tiempo para filtrar
la información masiva que está disponible, con el fin de encontrar qué es lo realmente
relevante.” (Technos: Quarterly for Education and Technology, 2000). Todos los métodos
que usted seleccione deben estar enfocados a responder la pregunta “correcta” referente a si
usted ha logrado o no eso que haya establecido lograr; qué salió bien y qué salió mal.
métodos utilizados en la recolección de datos, produzcan en realidad los datos relevantes para
responder las series de preguntas evaluativas. Mientras que esto puede sonar repetitivo,
resulta esencial que usted lo entienda, ya que un error en la primera selección de las
herramientas a utilizar, limitará luego los datos que esa herramienta generará. Sí, yo (se
utiliza “nosotros” en la próxima página) escucho muy a menudo a evaluadores, gerentes y
empleados amateur –¿no sugiere gratuitos? Tal vez la palabra sea novicios, sin
experiencia…), encargados de recolectar información, así como también otras personas, decir
que planean conducir una encuesta, o grupos de enfoque o lo que tengan a mano, sin haber
pensado antes en las preguntas que quieren responder, ni en los datos que necesitan para
responder esas preguntas. Dicho simplemente, este es un acercamiento similar a la caza de
gansos salvajes.
Esta sección le brindará una visión general de las opciones disponibles para recolectar datos,
y le demostrará las ventajas y desventajas de cada una de las herramientas. Esta información
también le servirá para considerar cada una de las opciones dentro del contexto de su propio
proyecto de evaluación. Sin embargo, en forma inherente a estas ventajas y desventajas,
también debe considerar factores tales como las características de su muestra, el tiempo,
costo y presupuesto, experiencias pasadas en la utilización de un instrumento y la amplitud y
factibilidad, entre otros.
Aquí también, el éxito de la etapa de recolección de datos depende en gran parte del apoyo
y/o patrocinio de los stakeholders clave. Manténgalos involucrados y seguramente evitará
encontrarse con obstáculos innecesarios.
El primer enfoque de una evaluación es que los datos se relacionen con los resultados. Los
datos obtenidos en cuanto al proceso –cómo están yendo las cosas–, es el segundo enfoque de
la evaluación, pero se consigue antes de tener disponibles los datos resultantes. El proceso de
datos apoyará el análisis y la toma de decisiones, en el evento que los resultados no sean los
intencionados para poder lograr suplir las necesidades –brechas entre resultados–,
107
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
identificadas durante la planificación. Una tercera categoría de datos pueden ser obtenidos a
partir de factores y temas que intervienen en el apoyo o impedimento de la actividad. Los
efectos laterales tales como el mal tiempo, un repentino aumento presupuestario, la ruptura
de equipamiento y otras perturbaciones caen dentro de esta categoría. Los datos del
medioambiente también serán utilizados en el análisis de los resultados y la toma de
decisiones para modificar, mantener, o descartar, el programa que está siendo evaluado; qué
mantenemos como está, y qué debemos cambiar.
Tom Peters popularizó una técnica llamada managing by walking around (gestionar
caminando alrededor), donde el gerente se mantiene en la cima de la operación observando
directamente a los trabajadores para saber qué es lo que está pasando, hacer preguntas,
escuchar, y tal vez probar su trabajo. Se sugiere que la “evaluación de caminar alrededor” sea
incluida en su inventario de métodos, y sea utilizada cuando el tipo de eventos o tareas de
interés sean de hecho directamente observables.
La observación como un método para recabar datos puede ser ampliamente definida como en
Adler y Adler (1994, p.378), donde se describe a la observación como: “recabar impresiones
del mundo, mediante todas las facultades humanas relevantes”. La extensión práctica de esta
definición es que reconoce que en muchos casos, el evaluador puede ser un vehículo efectivo
de recolección de datos, que puede tomar el medioambiente completo y responder a cualquier
contingencia del evento, sin contar con anticipación con un encuadre mental o un
instrumento de recolección de datos que pueda limitar el potencial de la observación. El
encuadre mental es creado por las expectativas predeterminadas, y puede resultar
problemático si nos evita detectar otros aspectos del desempeño que puedan contribuir o
constituir impedimentos del desempeño. Como se había observado anteriormente en este
libro, Scriven (1973) inventó el término de evaluación libre de objetivos (goal free
evaluation) para prevenir el enfoque único de la evaluación en objetivos a veces limitados.
Por supuesto, es importante que los evaluadores tengan en cuenta los objetivos y los
resultados, pero al mismo tiempo, no queremos evitar recabar el tipo de datos que puedan
aparecer inesperadamente, especialmente cuando sean relevantes para determinar las razones
de por qué los objetivos fueron obtenidos o no. El punto aquí es que la observación directa
brinda al evaluador un conocimiento básico de lo que está pasando, y puede ser flexible y
receptiva respecto a la situación. Se pueden notar eventos inesperados. Las oportunidades de
observación subsecuentes pueden enfocarse en base al desarrollo de las tendencias y temas
encontrados. Aunque estas ventajas cuentan por supuesto con sus limitaciones, como
contraparte.
108
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Las opciones de observación directa son valiosas y pueden realizarse sin temores, si
contamos con un poco de cortesía para tratar a las personas que están siendo observadas.
Comience por hacer algunas visitas antes de tiempo, y que esas visitas sean a menudo, esto
facilitará la tensión y usted ganará la confianza de las personas involucradas.
109
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Controles de observación
Hay dos problemas serios que aparecen a partir de la observación directa: (1) las
observaciones pueden verse teñidas por la influencia o inclinación del observador, y (2) el
observador puede clasificar las instancias de comportamiento expresadas en el listado de
revisión estructurado, en forma incorrecta.
• Observación de Participantes
La observación de participantes es un método de recolección de datos utilizado en el campo
de la sociología, principalmente para la observación, descubrimiento y descripción. Está
siendo incrementalmente utilizado por los evaluadores, para obtener un acercamiento a los
grupos y organizaciones en sus encuadres naturales. Cuando los evaluadores de un programa
perciben que hay algo que está ocurriendo dentro de ese programa –que no es
110
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
inmediatamente aparente para alguien de afuera–, pueden probar este método para encontrar
qué es lo que está ocurriendo.
Esta perspectiva consiste en un observador que pueda funcionar como miembro de un grupo,
y que trabaje al lado de los otros miembros para la realización del trabajo, comprometiéndose
a mantener una comunicación normal con los miembros del grupo en cuestión. El observador
entonces informa las revelaciones internas, los problemas y descripciones de eventos al
equipo de evaluación. Como una fortaleza de este acercamiento, podemos señalar que el
observador puede encontrar información importante detrás de escena, así como prácticas
encubiertas que se escondan a personas ajenas al grupo. Adicionalmente, el observador puede
obtener la confianza de los otros miembros y aprender acerca de su punto de vista. Por otro
lado, el observador puede ser rechazado por el grupo o identificarse con él, perdiendo en
ambos casos el sentido de balance y objetividad en sus informes. Otro contratiempo potencial
es que el método demanda una inversión considerable de tiempo y recursos.
111
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
participante debe ser capaz de encajar en el grupo. Tanto su rango de edad, experiencia
general, habilidades y conocimientos, deben ser compatibles con los otros miembros del
grupo.
• Grupos de Enfoque
La facilitación de un grupo de enfoque es otra forma poderosa –y popular– de recolectar
información. El proceso consiste básicamente en la interacción del evaluador (es), frente a
112
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
frente, con un grupo que puede estar conformado de 6 a 12 personas, para recolectar datos
más profundos de un tema en particular, y puede tomar lugar en un período de 2 a 4 horas.
Como los cuestionarios, los grupos de enfoque tienden a ser utilizados para recabar datos
cualitativos, y sus preguntas clave deben estar basadas en los indicadores previamente
identificados. El propósito aquí no es necesariamente que todos estén de acuerdo con una
respuesta “correcta”, sino el aprendizaje que puede obtenerse a partir de una variedad de
perspectivas diferentes sobre un tema en particular. Los grupos de enfoque son
particularmente útiles si se requieren descripciones y explicaciones detalladas.
Una de las ventajas que este proceso tiene sobre los cuestionarios, es la capacidad del
evaluador/facilitador para “leer” las expresiones faciales y lenguaje corporal de los
participantes, lo cual puede constituir información útil en sí misma, y a su vez, puede ayudar
a descubrir temas clave subyacentes, que hayan permanecido encubiertos hasta el momento.
Esto también puede llevar a la derivación de preguntas de seguimiento espontáneas e
importantes, las que no pueden ser incluidas en un cuestionario. Adicionalmente, existe la
interacción entre los participantes, la cual puede estimular reflexiones y aclaraciones que
apoyan sus perspectivas.
Otra ventaja de utilizar grupos de enfoque es el meta-mensaje potencial que esto envía a los
participantes, con respecto a la importancia del esfuerzo de recolección de datos, y su
contribución. La participación en un grupo de enfoque parece provenir de un proceso más
selectivo que el sólo preguntar a alguien para que participe en un cuestionario enviado por
mail o para completar en línea, y por lo tanto, la contribución de uno puede ser percibida
como más valiosa. La limitación de este escenario es sin embargo, que no se puede garantizar
el anonimato al mismo nivel que en los cuestionarios. Aún así, las mediciones pueden ser
tomadas asegurando a los participantes que su contribución no será enlazada a ningún
individuo, al momento de informar los hallazgos. Este en un punto muy importante ya que
para obtener contribuciones abiertas y honestas, los participantes en cualquier proceso de
recolección de datos deben sentirse seguros y confiar que el evaluador no los comprometerá
identificándolos individualmente en un informe a los stakeholders— ¡bajo ninguna
circunstancia!
Proceso
Cuando se planifiquen los grupos de enfoque, debe prestarse un especial cuidado a la
generación de grupos homogéneos, respecto a las características relevantes al tipo de datos
que se está buscando. Por ejemplo, si los datos requeridos son percibidos como el valor
113
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
agregado de un programa en particular, y existen varios stakeholders que pueden brindar los
datos que deben ser recabados (por ejemplo, empleados, gerentes, clientes y vendedores),
cualquier grupo de enfoque dado debe únicamente consistir en un solo tipo de stakeholder.
Esto significa que el grupo debe ser homogéneo y al mismo tiempo representativo de un tipo
de stakeholder en particular. En este caso, su rol con respecto al programa en cuestión
seguramente tendrá un impacto en su percepción.
Aún cuando las sesiones de grupo de enfoque pueden tener una estructura simple, debe
desarrollarse de antemano un protocolo que le brindará al facilitador un marco de trabajo
organizado, tanto para conducir el proceso como para ordenar los datos recabados. Los
elementos básicos de un protocolo deben incluir: una introducción que agradezca a los
participantes el haberse tomado el tiempo para estar allí, un contexto breve, y un propósito
por el cual se conducen los grupos de enfoque. El protocolo también debe incluir una visión
general de la agenda y proceso (por ejemplo, presentación de los participantes, dinámicas de
la discusión y recesos). Con este contexto básico, el protocolo debe además incluir las
preguntas/ítems clave que deben ser cubiertos por el grupo de enfoque. Finalmente, debe
contener marcas o puntos de conclusión general, incluyendo un agradecimiento a los
participantes por su cooperación, con lo cual el facilitador puede cerrar la cesión. Este
protocolo debe ser utilizado como lineamiento general por el facilitador, y no utilizarse como
una agenda estricta que se lea en voz alta a los participantes.
El tono de voz de los participantes, las expresiones faciales y posturas corporales pueden ser
muy reveladoras, por esta razón el facilitador debe mantenerse en estado de alerta, y detectar
intuitivamente emociones clave que existieran detrás de los comentarios realizados. Estos
elementos pueden relevar temas subyacentes que, aunque no hayan estado inicialmente
planeados para debatir, pueden convertirse en datos importantes.
114
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
También es importante que el facilitador reconozca esos temas subyacentes. Mientras que las
técnicas de análisis de datos cualitativos pueden ser utilizadas para detectar patrones una vez
que los datos hayan sido recabados, también resulta útil el estar informado de este tipo de
temas durante el grupo de enfoque, ya que le permite al facilitador formular importantes
preguntas de seguimiento.
Luego de concluir con el proceso de grupo de enfoque, resulta crítico que el evaluador revise
y registre los datos recabados. Los datos deben estar ordenados de acuerdo a los ítems o
secuencia incluida en el protocolo. Si hubieran aparecido temas importantes inprevistos, los
mismos deben ser ordenados en relación a los ítems que dispararon su aparición. Es posible
que la persona oficialmente encargada de registrar la información, sea otra que el facilitador.
En este caso, es importante que ambos comparen notas y concilien cualquier inconsistencia.
Al igual que sería muy difícil generalizar los hallazgos de un cuestionario a una población
entera, también resulta difícil utilizar justificadamente los hallazgos de un solo grupo de
enfoque respecto a una población entera. Si los hallazgos de grupos de enfoque adicionales –
y comparables–, son consistentes, entonces las generalizaciones serán más creíbles.
Una vez más, es facilitador juega un rol importante, ya que el o ella deben asegurarse de
aplicar el procedimiento apropiadamente, para poder general datos confiables. El facilitador
también puede preguntar por clarificaciones de cualquier respuesta compartida, antes de
continuar posicionando las respuestas de los participantes. Durante este período deben
omitirse las duplicaciones, y si aun la lisa de repuestas es muy larga, estas se pueden
catalogar mediante patrones unificadores que resuman la lista. A continuación, a cada idea le
es asignado un número o letra que la identificará en forma única. El facilitador luego instruye
115
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
a los participantes para elegir diez o doce respuestas que consideren como más importantes, y
luego que les otorguen un orden de posicionamiento de acuerdo a su importancia relativa. El
orden de posicionamiento de cada uno de los participantes es recabado y luego agregado. La
Tabla 7.1 brinda una ilustración de este tipo de posicionamiento y registro.
• Técnica Delphi
Al igual que las otras técnicas grupales, el propósito de la técnica Delphi es indagar
información y juicios de los participantes, para facilitar la resolución de problemas, la
planificación y la toma de decisiones. A diferencia de otros procesos grupales para la
recolección de datos, esta técnica obtiene información sin mantener un contacto cara-a-cara
con los participantes. En vez de ello, la devolución de los participantes es intercambiada
mediante otros medios como el correo convencional, fax o correo electrónico.
Los participantes usualmente consisten en 40-60 –o tal vez más– expertos o individuos,
considerados de tener un conocimiento significativo del tema. El facilitador debe luego
obtener el compromiso del grupo para participar en unos pocos cuestionarios, que son
entregados a lo largo de un período de tiempo.
El facilitador utiliza la devolución generada a partir de cada uno de los cuestionarios, para
desarrollar el próximo. Las personas que responderán estos cuestionarios examinan el grado
en el cual sus respuestas son similares o difieren de las del grupo, simulando así el tipo de
presión para estar de acuerdo, que se experimenta en los grupos cara-a-cara. La naturaleza
repetitiva de este proceso es una de las cosas principales que lo diferencian de las otras
técnicas.
116
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
últimos medios pueden ahorrarle al proceso general, existe una cantidad de trabajo
significativa que se le requiere al facilitador.
• Métodos de Entrevistas
Los métodos de entrevista son más apropiados para recolectar datos abstractos, y permite al
analista recabar información directamente de todas las categorías de clientes y stakeholders.
Las entrevistas requieren un alto grado de competencia y compromiso por parte del analista.
Las entrevistas tienen algunas ventajas, que los grupos de enfoque también tienen respecto a
los cuestionarios. Cuentan con una mejor proporción de participación, y le permiten al
analista leer las expresiones faciales y el lenguaje corporal, clarificar respuestas, formular
preguntas de seguimiento, y percibir aquellas áreas que merecen una indagación más
profunda. Una de las desventajas, sin embargo, es que no son muy eficientes para alcanzar a
un gran número de participantes, como lo son los cuestionarios. Los dos métodos pueden ser
utilizados en forma combinada, exitosamente, cuando resulte apropiado. Las entrevistas
pueden ser utilizadas como un seguimiento de los cuestionarios, cuando sea necesario
obtener una mayor prueba de lo que ha sido revelado.
El protocolo aquí también contiene elementos similares a los de los grupos de enfoque:
apreciación por la buena predisposición y cooperación de los participantes, una breve reseña
del proyecto de evaluación y propósito de las entrevistas, y las preguntas/ítems clave a ser
cubiertos –basados en indicadores previamente identificados–, así como marcas o puntos de
conclusión general, conjuntamente con un nuevo agradecimiento por su participación.
Borg & Gall (1989, p.387) lo define como una perspectiva cualitativa que emplea el método
de entrevista para obtener “una descripción analítica profunda de una escena cultural
intacta”. Por esto, esta herramienta puede resultar particularmente útil en situaciones donde el
entendimiento de la cultura en la cual ocurre el desempeño y comportamiento resulta crítica
para la interpretación de los datos recabados. Tomemos por ejemplo una compañía con
propietarios y gerentes extranjeros –como una sucursal de Hyundai en Superior Township,
Michigan, E.E. U.U.–, que cuenta con instalaciones en un nuevo país. Las diferencias
culturales serán exhibidas a través de diferentes comportamientos relacionados con la
práctica de gestión, los procesos de comunicación y las relaciones profesionales, sólo para
nombrar algunas dimensiones. Esto a su vez seguramente tendrá un impacto en el desempeño
a varios niveles.
Vale la pena notar que un incidente crítico no consiste en las actitudes u opiniones de las
personas. Más vale, está basado en los informes de comportamientos y/o eventos específicos,
117
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
observados por la persona que brinda tal informe –sea que se trate de ellos mismos o de
otros.
118
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
respuesta a una pregunta evaluativa dada puede proporcionar la recolección de datos para
distintos indicadores, y cada uno de estos indicadores pueden representar distintos tipos de
datos. Por ejemplo, si debe recabarse información financiera, la revisión de datos existentes
ciertamente será más apropiada que un cuestionario actitudinal. Otro indicador puede
responder a las actitudes de los participantes del programa, acerca de su experiencia, y en tal
caso, una o más herramientas de recolección de datos cualitativos pueden resultar apropiadas
(por ejemplo, cuestionarios y grupos de enfoque).
119
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
7
Nuevamente, los datos abstractos refieren a cosas que son personales y no pueden ser validadas contra otras
cosas. Los datos concretos son independientemente verificables. Ambos son importantes para la realización de
una evaluación bien balanceada.
120
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Tal vez no exista el cuestionario que pueda ser referido como perfecto o ideal en la solicitud
de la información requerida, y de hecho, la mayoría tienen ventajas inherentes al igual que
imperfecciones (Rea & Parker, 1997). Sin embargo, existen factores – incluyendo la
experiencia y el juicio profesional–, que pueden ayudar a asegurar las ventajas potenciales y
reducir los efectos de las imperfecciones inherentes a los cuestionarios.
Por casi cada una de las ventajas de los cuestionarios, uno puede encontrar una desventaja.
En el contexto de un método de encuesta –como ventaja inherente–, los cuestionarios pueden
ser utilizados para solicitar información a un gran número de personas que se encuentren en
una amplia área geográfica, y en forma relativamente económica. Sin embargo, no existe
oportunidad alguna de obtener clarificación instantánea o preguntas de seguimiento, como
por ejemplo en los grupos de enfoque o entrevistas.
Tal vez una de las ventajas más importantes es que brindan la posibilidad de anonimato 8. Los
cuestionarios pueden ser administrados de modo tal que las personas encuestadas no puedan
ser rastreadas como individuos. La comunicación explícita de este hecho a los potenciales
encuestados tiende a incrementar las posibilidades para su cooperación, en al menos dos
niveles: (1) compleción de encuesta; y (2) en la mejor predisposición y honestidad de sus
respuestas. Sin embargo, aún cuando el anonimato garantizado pueda incrementar los índices
de respuestas, el índice de respuesta general para los cuestionarios es usualmente menor al de
otros métodos.
Cuando las respuestas sean insuficientes, los seguimientos, la obtención de mayor cantidad
de muestras, los reemplazos de las personas encuestadas y los estudios hechos por el
evaluador, pueden contribuir hacia una muestra más representativa y aleatoria, la cual resulta
crítica para la generalización de los hallazgos. Aún así, usualmente existirá algún tipo de
influencia en la muestra, dada por la selección propia; algunas personas por sus propias
razones podrían no responder un cuestionario. Pero resulta imprescindible contar con una
muestra representativa, al menos, lo más representativa posible.
Existe una cantidad de características entre las personas que responden y no responden, que
pueden diferir, y por lo tanto impactar los hallazgos. Puede haber una característica relevante
a la evaluación que separe aquellos que responden de aquellos que no responden. Usted
8
Nuevamente, existen diferentes opiniones respecto al anonimato. Algunos piensan que es vital, otros sugieren
que las personas no deben esconder sus observaciones, pensamientos y sugerencias. Usted elija la opción
basado en el medioambiente en el cual estará utilizando el cuestionario.
121
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
querrá saber si las personas están de acuerdo o no lo están. Este es otro tema importante para
conocer, al momento de interpretar y presentar los datos recabados mediante cuestionarios.
Así que, ¿exactamente qué datos recabará el cuestionario? ¿Cómo determina uno las
preguntas a formular? La fuente fundamental de información para la derivación de ítems que
incluirá en su instrumento de cuestionario, es la serie de resultados, indicadores, y preguntas
relacionadas, que usted quiera responder como resultado de la evaluación –o un proceso de
detección de necesidades, si ese es el contexto de la recolección de datos. Fijemos ahora
nuestra atención en el desarrollo del cuestionario.
Las preguntas con final cerrado son aquellas que brindan al encuestado, una lista de
respuestas para elegir. Las respuestas tipo multiple-choice (elección múltiple), y escalas de
categorías son ejemplos de preguntas con final cerrado. Por ejemplo:
122
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Las preguntas de final abierto son una forma de evitar estos potenciales contratiempos. Sin
embargo, acarrean su propio conjunto de desafíos. Este tipo de preguntas pueden representar
un montón de información irrelevante y tal vez intangible, que requerirá atención y trabajo
extra durante la fase de análisis. Adicionalmente, la gama de respuestas puede ser
significativamente amplia. Una forma de aliviar esto –no eliminar–, es formular estas
preguntas lo más específicamente posible, y diseñarlas para poder relacionar los fines, y no
sólo los medios 9. Esto no sólo ayuda a los encuestados a mantenerse enfocados en el tema de
interés, sino que también los ayuda a recordar información.
Antes de que las comparaciones puedan realizarse –en la fase de análisis–, se debe establecer
un sistema de código para la estandarización de las respuestas recibidas. Sin embargo,
existen instancias en las cuales estos desafíos adicionales valen la pena, como en aquel
cuando los beneficios potenciales de la utilización de respuestas con final abierto pesan más
que los desafíos que este tipo de respuestas presenta.
9
Una forma de cortar el “desorden” de las respuestas generadas ante preguntas de final abierto, es lograr que la
persona que las responda se enfoque en los resultados y las consecuencias, no en los recursos o medios.
123
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Finalmente, también es posible combinar ambos formatos dentro de un solo ítem. Estos ítems
usualmente consisten en opciones de respuestas predeterminadas, así como una opción
adicional de “Otra, por favor especificar”. Si una prueba piloto hubiera revelado que esta
opción ha sido utilizada frecuentemente, entonces sería una buena idea mantener la opción.
Si por otro lado, una prueba piloto hubiera revelado que este tipo de formato ha sido
escasamente utilizado, esta opción puede no ser incluida en la versión final.
A veces, el evaluador puede estar buscando más de una respuesta dentro de una pregunta
dada. En este caso, los ítems de chequeo pueden capturar todas las respuestas que apliquen al
ítem presentado.
Un cuestionario bien estructurado debe comenzar con preguntas directas e interesantes, para
motivar a la persona encuestada a continuar con esa tarea. Al igual que en cualquier relación,
lleva tiempo que un individuo se sienta cómodo para compartir información sensible, por lo
tanto, los ítems sensibles deben guardarse para el final del cuestionario.
Las preguntas que se enfoquen en el mismo tema específico deben ser presentadas juntas, así
el encuestado podrá maximizar su reflexión y recuerdo sobre el tema. Una forma que
resultará útil tanto para el diseñador como para el encuestado, es agrupar los ítems
específicos dentro de distintas categorías. Esto sin embargo no debe ser confundido con
colocar preguntas de formato similar consecutivamente. Ya que si este fuera el caso, las
preguntas similares sonsacarían una respuesta automática, en vez de maximizar las
reflexiones del encuestado. Una forma de disminuir la posibilidad de que esto ocurra, es
variar el tipo de preguntas (por ejemplo, con final abierto y cerrado o listado de chequeo),
dentro de una categoría dada con cuidado a no distraer el encuestado con demasiadas
distracciones.
124
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
la encuesta, dentro de las limitaciones de seguir una secuencia lógica. Finalmente, preguntas
más generales y con final abierto tales como las que solicitan a la persona encuestada el
agregado de cualquier cosa que pueda considerar importante –pero que no ha sido
preguntado–, deben ser utilizadas para concluir la serie de preguntas.
Tal vez el método más ampliamente utilizado para determinar qué ha aprendido alguien, es la
utilización de un examen de conocimiento, –tradicionalmente referido como “examen por
escrito”, aunque los exámenes basados en computación son utilizados para alcanzar el mismo
propósito. Existe una enorme cantidad de información disponible para guiar la construcción y
utilización de este tipo de exámenes. Si los exámenes son bien realizados –válidos y
confiables–, son una buena opción para la medición del conocimiento, y a su vez resultan
eficientes y económicos de administrar. Cuando los exámenes son estandarizados, rinden en
la obtención de información acerca del posicionamiento relativo de quienes se someten al
examen, en una población general seleccionada. Cuando éstos son buenos pronosticadores,
pueden ser utilizados para realizar proyecciones y selección. Sin embargo, muchos de los
exámenes en papel formulados por los instructores, no son validados como instrumentos de
predicción o estandarización, y por lo tanto, tienen un valor interpretativo mucho menor,
únicamente relacionado con el contenido directo de la prueba. El conocimiento de los
exámenes puede jugar un rol importante en la medición del desempeño de habilidades que
involucran una acción física integrada al conocimiento, pero sólo en cierto grado. No pueden
reemplazar a los exámenes de desempeño que involucran acciones e interacciones de quienes
toman el examen, con herramientas físicas o controles de operación.
125
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
126
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La validez de los exámenes con referencia a criterios se basa en el logro del objetivo de dicha
prueba. Existen dos temas importantes relacionados con los objetivos del examen, que son:
Cobertura de dominio e inferencias realizadas a partir de los resultados. Al encontrarse ante
una situación de examen, considere dos preguntas: (1) ¿Qué tan comprensivo o inclusivo
debe ser el contenido del examen?, y (2) ¿Qué significado tienen los resultados? La primera
pregunta es a menudo considerada como un tema de dominio, y la segunda trata con la
utilización de los resultados en un modo práctico.
Suponga que usted está realizando una capacitación sobre seguridad en intercambiar la hoja
cortante de una sierra de mano para nuevos empleados de un taller. Si existieran siete pasos y
todos resultaran esenciales para llevar a cabo la tarea en forma correcta, usted podría tomar
un examen para que cada uno de los empleados se desempeñe en cada paso. En un examen
basado en criterios de referencia, el estándar podría ser que cada paso debe ser completado
correctamente. Los empleados que lo hagan pasarán el examen, los que se equivoquen, no lo
pasarán. En este ejemplo, los ítems y el objetivo del examen tendrán lo que Berk (1980)
refiere como “ítem – congruencia con el objetivo”. Aquí el dominio es pequeño –sólo siete
ítems, uno para cada paso–, y el examen será una reproducción virtual del objetivo deseado
para intercambiar correctamente la hoja cortante de una sierra de mano. El instructor puede
tener una alta confianza en que los empleados que pasen el examen satisfactoriamente podrán
ahora cambiar la hoja cortante de la sierra de mano sin inconveniente alguno. Pero ¿qué hay
respecto a un modelo de sierra diferente, u hojas cortantes de otras herramientas como sierras
ingletadoras, sierras circulares, o rotativas? Aquí es donde el tema de dominio y transferencia
entra en escena. Si el maestro del taller quiere asegurarse que los empleados novatos puedan
intercambiar todas las hojas cortantes, el dominio de los ítems del examen puede ser
ampliado. De este modo, el examen incluirá todos los ítems de dominio dependiendo de la
claridad de las instrucciones disponibles respecto a las herramientas requeridas, y de la
inclusión de los ítems requeridos por el examen (temas que también pueden afectar la
confiabilidad de la prueba). El taller puede tener una gran cantidad –aunque gestionable– de
dominios totales de cada ítem durante el curso de un período de clases.
¿Qué ocurre si su objetivo instruccional implica un dominio realmente amplio, o tal vez
infinito? El profesor de matemáticas quiere que sus estudiantes de cálculo avanzado sean
capaces de resolver cualquier problema concebible que pudiera aparecer dentro de los límites
del cálculo analítico. ¿Cómo se construirá un examen para cumplir con este objetivo? ¿Qué
criterios estándares podrían ser utilizados para declarar que un estudiante es competente en la
resolución de estos cálculos? La respuesta se encuentra en la naturaleza del asunto tratado.
Mientras que los procedimientos del taller constituían dominios específicos y limitados, la
aplicación de cálculos involucra un nivel diferente en la taxonomía de objetivos de Bloom. El
cálculo, las abstracciones y generalizaciones del procedimiento del problema, les permite a
los estudiantes hacer frente a cada problema nuevo. Es la maestría del dominio amplio pero
finito de reglas, modelos, principios, lenguaje, anotaciones y procedimientos complejos y
generalizaciones que los estudiantes deben tener. El dominio de potenciales problemas es
infinito, pero el aprendizaje del dominio de reglas, modelos, principios, lenguaje, anotaciones
y procedimientos no lo es. Ciertamente es mucho más amplio que el ejemplo del taller, pero
aún así resulta gestionable. La construcción del examen para esta situación podría incluir la
127
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La esencia del examen con referencia a normas es que el estándar o criterio involucra un
puntaje en bruto –sin procesar– y luego un puntaje relativo, el cual está basado en la curva de
desempeño. Usualmente se asume una curva normal. Cuando el objetivo del examen es
clasificar a quienes se desempeñan mejor o peor –según la medición de los ítems del
examen–, el examen normativo es una buena elección. Algunas organizaciones utilizan estos
tipos de exámenes en sus procesos de incorporación de personal, como parte de un esfuerzo
para filtrar a individuos con posibilidades de no desempeñarse tan bien como otros.
Sin embargo, aquí existen algunas precauciones. Usted podría terminar incorporando
individuos que son muy buenos realizando exámenes, pero no necesariamente buenos en la
realización de las tareas relevantes asociadas a ese examen.
La validez es un concepto esencial que debe considerarse. Al interpretar los resultados del
examen –y sin importar qué tan positivos o negativos parezcan los resultados–, nosotros
debemos depender de ellos si hemos establecido confianza en estos resultados. La confianza
sólo puede ser establecida si el examen mide lo que se supone que medirá –es válido–, y si
obtiene resultados consistentes sobre un individuo dado –es confiable.
No existe una forma simple de determinar la validez con precisión, dado que un examen
puede ser válido para un propósito y audiencia, y no serlo para otros. Existen sin embargo,
una variedad de formas para determinar si un examen es lo suficientemente válido como para
ser útil. Una de las más simples es la validez del contenido. La validez relacionada con el
contenido debe comenzar con la construcción del instrumento –y en base al juicio de
expertos–, involucrando una revisión cuidadosa del contenido del examen, para determinar si
es representativo del dominio de comportamiento en cuestión. La validez del contenido
requiere tanto la validez de los ítems –¿Miden los ítems del examen el área de contenido
intencionado?– y la validez de la muestra –¿Qué tan representativa es la muestra respecto a la
totalidad del área de contenido? Aún así, el examen puede verse válido, pero estar midiendo
128
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
algo diferente, como la habilidad y capacidad de adivinanza del estudiante. Por lo que un
contenido válido no garantiza un buen examen.
Una perspectiva más rigurosa para determinar la validez, es comparar el instrumento con un
criterio de validez predeterminado. Un tipo de validez basada en criterios estándares es la
concurrente. La validez concurrente trata con la administración de medidas que
administradaza han sido validadas al mismo tiempo que la medición que se busca validar.
Por ejemplo, para poder establecer este tipo de validez, el diseñador de un examen podría
querer correlacionar los resultados de un examen inventario de personalidad, con los
resultados de uno ya establecido, como la prueba de Myers-Briggs 10, el Minnesota
Multiphasic Personaly Inventory (MMPI), u otro instrumento validado. Esta correlación
produce un valor numérico conocido como coeficiente de validez, el cual indica el grado de
validez del nuevo examen.
El otro tipo de validez referente al criterio, es la validez predictiva, la cual busca determinar
el grado en el cual el nuevo examen predice un comportamiento futuro, o qué tan bien la
persona evaluada lo hará en el futuro. Este tipo de validez resulta crítica para los exámenes
que serán utilizados para clasificar o seleccionar individuos, y es comúnmente vista –aunque
no exclusivamente–, en el sector educacional, con exámenes tales como The Scholastic
Assessment Test (SAT), y el Graduate Record Examination (GRE). La validez predictiva es
determinada al administrar el examen, y luego correlacionar las puntuaciones de dicho
examen con alguna medición, que mida el éxito. Esta correlación obtiene un coeficiente de
validez predictiva.
10
Existe algo de controversia al respecto, ya que algunas personas adoran este instrumento y otras se quejas
acerca de que su validez nunca ha sido establecida (Clark & Estes, 2002).
129
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La confianza se refiere al grado en el cual un examen brinda resultados consistentes cada una
de las veces que es administrado, considerando que es administrado bajo las mismas
circunstancias. Si un examen no es confiable, no sirve, dado que no podemos sentirnos
confiados de los resultados obtenidos a través de él. Para que un examen sea válido, debe ser
confiable, aunque que la confiabilidad por sí misma no es suficiente para establecer la
validez.
Si un examen es derivado para medir un concepto específico, es seguro asumir que los ítems
de dicho examen están altamente correlacionados entre sí. El método de confiabilidad de
‘división a la mitad’ , es utilizado para determinar la consistencia interna de la confiabilidad.
Involucra dividir un examen en dos mitades equivalentes, administrando cada parte a un
grupo, y estableciendo la correlación entre los dos conjuntos de puntuaciones. Si la
correlación es alta, el examen tiene una buena confiabilidad de división a la mitad.
130
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Muy a menudo, el tipo de información requerida para responder a las preguntas evaluativas
es el sub-producto de las actividades que deben tomar lugar para poder obtener esos
resultados. Esto es cierto en muchas actividades, proyectos y programas organizacionales,
pero a veces nosotros imponemos controles adicionales sobre la situación, que no son ajenos
a los experimentos científicos clásicos. Los controles que podemos imponer en el
establecimiento del desempeño, no son usualmente tan precisos como los de un laboratorio,
pero las ciencias sociales pueden en ocasiones utilizar métodos experimentales con algún
grado de éxito. En los años recientes otro método centrado en el tratamiento para obtener
datos de evaluación útiles, es el uso de un monitoreo de simulación de comportamiento,
establecido bajo condiciones controladas que modelan las condiciones de una situación de
desempeño especial. Los métodos basados en el tratamiento para la obtención de datos
evaluativos son a menudo utilizados cuando existen involucradas preguntas de causalidad,
que deben ser distinguidas según los varios factores causales posibles. Si bien esto es
extraño, debido a los recursos y nivel de control intrusivo que es requerido, es sin embargo
un método que ha tomado su lugar en la evaluación, especialmente si los intereses sobre el
desempeño son altos.
Han habido muchos debates acerca de la utilidad del uso de diseños experimentales en la
evaluación (Guba, 1969). En un extremo, algunos sostienen que no existe absolutamente
ninguna utilidad en el diseño experimental, mientras que en el otro extremo, algunos
sostienen que es el único método válido para conducir evaluaciones. La posición de
Stufflebeam (1971), sin embargo, es que la evaluación educacional incluye mucho más que
una metodología de diseño experimental, y que la utilidad del diseño experimental puede
incrementarse al incorporar procedimientos que no requieren instrumentos de criterios
comunes y reglas de decisión uniformes, para todos los participantes de un experimento.
A veces usted puede ser capaz de conducir un experimento para obtener las respuestas que
resultan importantes y útiles para la organización. Por ejemplo, usted podría querer
determinar empíricamente si un programa de incentivos es mejor que otro. Cuando esto es
una opción, existen algunas consideraciones básicas que deben tenerse en cuenta.
El diseño experimental es construido sobre la idea de que cuando algo sucede, usted puede
observar el resultado directamente. Si usted trata a algo en un modo nuevo y encuentra que
obtiene un nuevo resultado (por ejemplo, una variable dependiente), usted asume que el
cambio se debe a una nueva solución/tratamiento (por ejemplo, variable independiente).
Imaginemos que usted implementa un nuevo programa de incentivos –variable
independiente–, y usted observa un incremento en el desempeño de los empleados afectados
–variable dependiente. El problema con este acuerdo es que no siempre es tan simple. Para
asegurar que el cambio observado fue de hecho debido al tratamiento, y no a alguna causa no
observada, los investigadores aumentaron el alcance del diseño en dos formas. Primero
insistieron en la repetición del experimento varias veces, para asegurar que los resultados
sean consistentes, y luego comenzaron a agregar controles para regular las explicaciones
alternativas. Un control es una medida que puede ser entendida en dos dimensiones. Primero
existen controles sobre condiciones para asegurar la consistencia, y segundo existen
características de diseño adicionales que conllevan a las explicaciones alternativas más
típicas.
Los experimentadores han identificado a lo largo del tiempo, varios factores potencialmente
causales, y han desarrollado formas para regularlos, como una fuerza de contribución de gran
importancia en el experimento. Algunos de los más comunes incluyen: efectos de
aprendizajes anteriores, edad y sexo, capacitación durante el procedimiento, y maduración
basada en el desarrollo normal de las personas. Un ejemplo de control puede ser la utilización
132
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
de un segundo grupo de personas que se desempeñen bajo las mismas condiciones que el
grupo de tratamiento experimental, excepto por la pregunta clave del tratamiento –un
ejemplo plausible puede ser la implementación de tratamientos en sitios o grupos piloto de la
organización, antes de su implementación en toda la organización. Este control es diseñado
para regular la posibilidad de que quienes se desempeñan en la tarea puedan aprender nuevos
comportamientos por sí mismos. Si el grupo experimental que obtiene el nuevo tratamiento
demuestra una mejora de desempeño sobre el grupo control –cuyo apoyo de pruebas
estadísticas no es casual–, estaremos un poco más seguros de que el tratamiento es lo que ha
causado el cambio, ciertamente más seguros de que si sólo hubiésemos observado
únicamente al grupo experimental. Utilicemos nuevamente un nuevo programa de incentivos,
y rastreemos el desempeño de los empleados en dos grupos diferentes –pero comparables–,
antes y después del programa, excepto que nosotros sólo implementaremos el programa en
uno de esos grupos. Si existiera un cambio en el desempeño del grupo sobre el cual hemos
implementado el programa, pero no en los otros, podríamos concluir que el cambio se ha
debido al programa en cuestión.
Note que este tipo de comparación no es igual a comparar dos tratamientos diferentes para
ver cuál funciona mejor. En el sentido estricto del diseño experimental, la comparación entre
dos tratamientos es menos deseable que hacer un experimento con un tratamiento y varios
controles. Aunque usted pueda tener un tratamiento con resultados que parezcan ser más
deseables que los de otro tratamiento, la ambigüedad general de confianza en los resultados
no es mayor que cuando usted está utilizando un diseño de tratamiento simple que no tenga
control alguno. El objeto del diseño en la experimentación, es producir datos sobre causa y
efecto entre un tratamiento y el resultado. Esos datos deben incluir una declaración de
confianza que uno pueda atribuir a los hallazgos. En un diseño experimental típico, para un
solo tratamiento, la muestra es asignada al azar a cada uno de los grupos (ya sea el del
tratamiento o el grupo control), y el resto se vería como se muestra en la Tabla 7.2:
133
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Note que lo único que cambia entre los dos grupos es el tratamiento, el resto de las
condiciones es exactamente igual. También debe notarse que las dos muestras no tengan
miembros superpuestos sino que surgirán de la misma población seleccionada. La fortaleza
del diseño incrementará según el tamaño de la muestra. Los estadistas han generalmente
aceptado el número arbitrario de 30 como suficientemente representativo para sobrellevar
errores de medición inherentes a una muestra pequeña.
134
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El entendimiento de temas que están alrededor del diseño de un experimento clásico puede,
sin embargo ayudar al evaluador, al observar eventos y considerar los resultados. Los
evaluadores deben intentar evitar el error de asumir que todos los resultados observados son
directamente rastreables a los programas y nada más. Los evaluadores deben mantenerse
alerta a la posibilidad de que otras causas puedan estar operando. Algunas de ellas pueden ser
eventos únicos, y otras pueden ser construidas en el encuadre de desempeño.
• El Diseño AB: Mide lo que está pasando ahora (A), hace algo (B), y mide lo que pasa
cuando hacemos eso.
• Diseño Repetido AB: Hace varios diseños AB con la misma intervención (B) en
diferentes lugares a diferentes momentos, digamos la planta de Chicago en Junio, la
planta de Nueva York en Julio, y la planta de Miami en Agosto.
• Diseños ABA Inverso: Hace un diseño AB, luevo “invierte” y vuelve a lo que estaba
haciendo en A.
• El Diseño ABC…D…: Hace un AB, luego intenta otra cosa (C), y tal vez algo más (D), y
luego algo más (E) y así hacia delante. Midiendo qué ocurre en cada oportunidad.
Una forma de ver a este diseño, es que comienza con una detección de necesidades –algo que
fue medido: un resultado, digamos específicamente, una brecha entre el nivel de resultado
actual y el deseado–; luego continúa con la implementación de una solución –se hace algo–;
y luego evaluamos el impacto de eso que se hizo sobre los otros resultados –medición de ese
resultado nuevamente. Para asegurar más rigurosamente el impacto que la solución tuvo en
los resultados, usted puede aplicar cualquiera de las variaciones de esta perspectiva,
descriptas por Brethower.
• Simulaciones y Juegos
El uso de la teoría de simulación y juego para crear tratamientos de mejora del desempeño,
está incrementándose, siguiendo aplicaciones exitosas en negocios y encuadres militares. El
objetivo de una simulación es permitir a los participantes experimentar factores de eventos
135
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
problemáticos, pero bajo condiciones controladas y más seguras de las encontradas en las
situaciones reales. Las simulaciones han sido utilizadas para enseñar las operaciones del
sistema de corte, el sistema político, capacitación de vuelo, sistemas eléctricos y paternidad y
cuidado de niños. En todos los casos, los participantes experimentan algunos, pero no todos
los aspectos de la situación real que está siendo modelada.
136
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Bajo esta perspectiva, los informes organizacionales son identificados como relevantes, y son
revisados para encontrar información sobre los elementos clave de la intervención o
programa, incluyendo evaluaciones pasadas, notas de reuniones y declaraciones de misión
organizacional. Uno de los puntos fuertes es que uno es capaz de tomar ventaja de los datos
ya existentes, lo cual puede resultar muy eficiente en cuanto a los tiempos, particularmente si
pueden ser buscados y analizados utilizando métodos electrónicos. Sin embargo, estos datos
no están siempre separado en las categorías que el evaluador pueda estar buscando, y por lo
tanto, el determinar qué es relevante y qué no lo es, puede consumir algo más de tiempo.
Aquí también, es posible utilizar la frecuencia en que las ideas aparecen, como alguna
indicación de la importancia o tiempo dedicado al tema.
Mientras que los cuestionarios, los procesos grupales y las entrevistas están tradicionalmente
asociados con la recolección de datos cualitativos –abstractos–, los datos existentes tienden a
ser asociados con datos cuantitativos –concretos. Por ejemplo, si uno quisiera saber la
inversión financiera por ítems, de un programa dado, o qué porcentaje de compleción exitoso
tuvo, el preguntar la opinión de alguien seguramente no le brindará el tipo de datos válidos y
confiables como los que les puede brindar el buscar en informes organizacionales
documentados –asumiendo por supuesto, que los datos ingresados son exactos.
La tarea preliminar es igual a la de los métodos previos. Esto es, antes de seleccionar este
método como viable para la recolección de datos, uno debe primero comenzar con las
preguntas evaluativas y los indicadores asociados previamente identificados. Si los datos
relevantes pueden ser obtenidos de informes existentes, entonces existe poca utilidad en la
creación de herramientas para la recolección de datos, para obtener los mismos datos. En este
caso, es más factible revisar los datos que ya existen. Esto no significa que uno debe
recostarse solamente en los datos existentes. Sino que uno debe considerar a estos datos en el
contexto de otra recolección de datos durante el proceso evaluativo.
137
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Revisión de Literatura
Es difícil subestimar el valor de una revisión de literatura bien planificada. La literatura
existente sobre evaluación, administración educacional, efectividad de programas, estrategias
instruccionales, toma de decisiones, etc. pueden asistir al equipo de evaluación en la
planificación e implementación de una evaluación. Las citas de literatura pueden agregar
credibilidad a los informes de la evaluación.
Aquí, básicamente hacemos una lista de palabras clave y temas, y la utilizamos para conducir
búsquedas en bases de datos para identificar libros, artículos, informes y otros periódicos y
fuentes. Será de ayuda listar los temas y relacionarlos con las palabras clave que son
utilizadas en varios programas de búsqueda que ahora aumentan el sistema de catálogo en las
librerías modernas. Muchas bases de datos especiales son ahora actualizadas regularmente.
Las búsquedas en librerías lo pueden ayudar a estructurar su búsqueda y a guiarlo hacia las
bases de datos apropiadas. La mayoría de las librerías, utilizan ahora bases de datos que están
sujetas a búsquedas electrónicas y ubicación de títulos, autores y temas que hacen que el
proceso resulte bastante eficiente. Por supuesto, una vez que la lista de temas es concluida,
alguien tiene que leer o buscar para encontrar la parte valiosa, y ese proceso puede demandar
un tiempo considerable. Como valor agregado, este tipo de búsqueda puede identificar otros
estudios basados en mediciones que pueden haber sido conducidos en encuadres similares.
138
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 8
Análisis de los Datos de Evaluación: Herramientas y
Técnicas
139
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Debajo hay algunos pasos generales que deben guiar el análisis de datos cualitativos:
Para la revisión de excelentes fuentes referidas al análisis de datos cualitativos, vea Miles y
Huberman (1994); Richards y Richards (1994); Weitzman y Miles (1995).
Uno de los beneficios de este tipo de discusión, es que todos los temas pueden ser
considerados, aún si no hubieran sido anticipados en la etapa de planificación del estudio.
Otras ventajas incluyen el hecho de que los temas pueden ser modificados a partir de la
aparición de datos; hipótesis que pueden ser formuladas y continuar siendo revisadas, y
confirmación entre eventos y resultados; y que los datos pueden ser organizados utilizando
este método de análisis, incluyendo la utilización de datos nuevos emergentes, y datos de las
categorías inicialmente establecidas para la recolección.
Por otro lado, este método no es bueno para derivar pruebas contundentes. Adicionalmente,
los observadores no pueden votar para considerar a algo como verdadero o falso, sólo pueden
identificar temas que deben ser investigados y sujetos a mayores pruebas o indagaciones.
Finalmente, las discusiones que no se conduzcan con disciplina y liderazgo pueden generar
malestares y al mismo tiempo, un liderazgo fuerte puede introducir una fuerte inclinación o
influencia a la discusión.
140
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Relevancia
La relevancia es decidida en base al potencial o contribución demostrada al enfoque principal
del estudio de evaluación: es importante y hará la diferencia. La lógica a simple vista de
nuestra perspectiva de evaluación, es que las soluciones organizacionales deben fluir a partir
de necesidades válidas –brechas entre resultados– de los clientes y de la organización; y
nuestro enfoque primario de la evaluación es asegurar que los resultados de la solución
cubran esas necesidades. El enfoque secundario de la evaluación es identificar los factores
del programa que contribuyen o interfieren con los resultados deseados. Por lo tanto, toda la
información que sirva para sostener esta cadena de lógica es relevante. Cuando los
evaluadores notan que los gerentes se han desviado de los objetivos requeridos, esa
observación será relevante para posteriores discusiones acerca de los resultados, y de qué los
causó. Si un evaluador se hará cargo de anotar la ubicación que cada empleado utiliza en el
estacionamiento cada uno de los días, esta información no será relevante para mantener el
enfoque en la evaluación –al menos por supuesto, que el atraso sea un problema y que la
141
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Preparar siempre una agenda con preguntas de temas específicos para enfocar la
discusión.
• Mantener la discusión enfocada en las preguntas hasta el final, momento en que se abre
un foro para nuevas preguntas.
• Cada participante tiene su turno para la presentación de temas y observaciones.
• Ningún tema que contribuya a la pregunta será eliminado.
• Se revisa cada tema para establecer su relevancia.
• Los temas son posicionados de acuerdo a su relevancia y potencial causalidad.
• Se formulan hipótesis sólo luego de que todos los temas hayan sido presentados.
• Se escribe la minuta de cada discusión.
• Se asignan futuras observaciones como ítems de acción.
142
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El tener datos brutos es una cosa, el responder preguntas con esos datos, es otra. Para que los
datos revelen las respuestas a nuestras preguntas evaluativas, ellos deben estar representados
en un modo que tenga significado para aquellos que los vean, los usen y tomen decisiones
basados en ellos. A lo largo de los años, han surgido muchos tipos de estadísticas para refinar
los datos brutos. Aquí hay un breve resumen de algunas estadísticas útiles.
Estadísticas
Mientras que la sola mención del término “estadísticas” puede ser intimidante para algunos,
todos nosotros –cada uno de nosotros–, estamos ciertamente más familiarizados con el
término de lo que en realidad pensamos. Nosotros lo escuchamos en las publicidades todo el
tiempo: “El 90% de los destintas encuestados recomiendan…”, o tal vez hemos escuchado a
alguien preguntar cuántas millas hace en promedio un vehículo por galón de combustible. El
entendimiento de la estadística sirve más allá del análisis formal de datos y de la evaluación.
Ciertamente nos ayuda a ser consumidores más atentos ante el conocimiento, productos,
servicios –todo con lo que tratamos en la vida cotidiana–, para poder tomar buenas
decisiones.
143
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
ejemplo, ¿cómo se desempeñó en forma promedio –en cifras de ventas–, el equipo de ventas
durante el último cuatrimestre?
Uno tal vez quiera encontrar qué tan bien se desempeñó un individuo particular en relación al
promedio (por ejemplo, ¿cómo se comparan las cifras de Raúl Bustamante respecto al
promedio de su equipo?), o cómo separar los puntajes de la cifra promedio (por ejemplo:
¿son las cifras de los miembros del equipo consistentes, o varían significativamente de una
persona a otra?).
Mientras que el enfoque principal de esta sección estará centrado en la estadística descriptiva,
algunas herramientas de estadística inferencial son descriptas brevemente más adelante en
este capítulo.
• El Promedio
El promedio es tal vez la medición más frecuentemente utilizada para la medición de
tendencia central, técnicamente es el promedio matemático de un conjunto de puntajes. Es
calculado agregando todos los puntajes individuales y dividiendo el total por la cantidad de
puntajes existentes en el conjunto de datos.
144
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Una de las características que lo hacen ser tan comúnmente utilizado es su estabilidad.
Debido a que todos los puntajes son incluidos en su cálculo, es más estable que otras
mediciones de tendencia central, que sólo utilizan un par de puntajes individuales.
Sin embargo, la contra-cara de utilizar todos los puntajes que es muy susceptible a puntajes
extremos. Por ejemplo, mire el siguiente conjunto de puntajes:
El promedio para este conjunto de 8 puntajes es aproximadamente 23, sin embargo, todos los
puntajes –excepto uno– varían de 16 a 19. ¿Es este promedio verdaderamente representativo
del puntaje típico? Bueno, si no fuera por ese único resultado fuera de rango –o puntaje
extremo– de 59, el promedio hubiera sido en realidad aproximadamente 18. Dado que el
promedio se ve afectado por los puntajes extremos, usualmente no es la mejor opción cuando
se esté tratando con un conjunto de datos que contengan uno o dos –o aún unos pocos en
algunas instancias– puntajes extremos; note que las razones por las cuales existen estos
puntajes extremos, pueden ser importantes.
La utilización del promedio resulta apropiada cuando los datos son medidos en un intervalo o
en una escala de proporción (vea la Tabla 3.1 para ejemplos de cosas medidas con cada
escala…por ejemplo, puntajes de exámenes, dinero, etc.). Desafortunadamente el promedio
es a menudo utilizado inapropiadamente, sin tener en cuenta el tipo de medición utilizado
para la obtención de los datos. Un ejemplo de esto puede ser visto cuando brindamos un
promedio de puntajes de ítems de cuestionarios, los cuales tienden a ser medidos con una
escala nominal u ordinal, aún si le atribuyéramos un valor numérico (por ejemplo, las escalas
de Likert que varían de un fuerte desacuerdo (1), desacuerdo (2), neutral (3), acuerdo (4) y
fuerte acuerdo (5). Vea la figura 5.1 como ejemplo). El agregar una variedad de respuestas
tales como fuerte desacuerdo, acuerdo y neutrales tiene poca significancia si luego decimos
que la respuesta promedio fue acuerdo y dos/décimos – ó 4.2. Para los datos ordinales, la
media y los modos –debajo descriptos– resultan mediciones más apropiadas de la tendencia
central. Específicamente, para datos medidos con una escala de Likert, aún los porcentajes de
cada respuesta pueden resultar más exactos y útiles para sintetizar los resultados.
• La Media
La media es el punto medio de una distribución. Dado que la mitad de los puntajes están
sobre ella y la mitad de los puntajes están debajo de ella, también es referida como el
quincuagésimo –o cincuentavo– percentil. En casos donde existe un número impar de
puntajes, la media está constituida por el puntaje medio. En los casos donde existe un
conjunto con cantidad par de puntaje, la media será el promedio entre los dos puntajes
medios. El mejor modo de reconocer un puntaje medio, es acomodar el conjunto de puntajes
en orden numérico –ya sea ascendente o descendente. Por ejemplo, tomemos el siguiente
conjunto de puntajes:
145
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
16
17
19
20
15
16
18 x
19
20
Como puede ver, la media no tiene que representar necesariamente un puntaje exacto del
conjunto de datos.
• El Modo
El puntaje, la medición de tendencia central menos utilizada, consiste simplemente en
encontrar el puntaje más frecuente. No se requiere ningún cálculo para identificar el modo.
En vez de ello, se establece al mirar al conjunto de datos o representación gráfica de esos
datos, para ver cuál puntaje ocurre más frecuentemente. El modo acarrea consigo una
limitación significativa, básicamente, que es posible que una distribución de puntajes tenga
146
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
más de un modo. Si hubieran dos puntajes ligados a la frecuencia más alta, entonces se dice
que estamos frente a una distribución bimodal, y si los puntajes ligados con la frecuencia más
alta, fueran tres o más, se dice que estamos frente a una distribución multimodal.
Finalmente, si cada puntaje ocurre con la misma frecuencia, no existe ningún modo, y esta
situación se referencia como una distribución rectangular.
El modo es la medición de tendencia central más apropiada al utilizar datos que hayan sido
generados mediante una medida de escala nominal. Por ejemplo, si usted está conduciendo
una evaluación para el departamento de transporte, y uno de los indicadores que debe mirar
es el método de transporte más comúnmente utilizado para la sección con mayor tráfico del
distrito de negocios del centro, la media podrá hacer poco para describir las respuestas a este
ítem del cuestionario. Sin embargo, si utiliza el modo, podrá comunicar fácilmente al
stakeholder, cuál es el método más comúnmente utilizado –la respuesta más frecuente. Una
forma de apoyar la presentación del modo es acompañarla con porcentajes (X% de personas
indicaron Y), o proporciones (80 de 100 personas indicaron X).
Mientras que las medidas de la tendencia central son esenciales para describir a un conjunto
de datos, no cuentan toda la historia. Antes de que podamos darle sentido a esas
descripciones, también tendremos que tener una estimación de la extensión y variabilidad del
conjunto de datos, tanto dentro de una distribución dada, como entre las distribuciones. Los
índices utilizados para hacer estas estimaciones son llamados medidas de variabilidad. Las
mediciones de variabilidad más comúnmente utilizadas son: el rango, la desviación cuartil y
la desviación estándar.
147
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• El Rango
El rango –también llamado extensión–, es probablemente la medición de variabilidad más
fácil y rápida de estimar. Se define como la diferencia entre el puntaje más alto y el más bajo
(R= A-B), o como la diferencia más 1 (R=A-B+1), lo cual es referido más específicamente
como rango inclusivo. Por ejemplo, el rango para los siguientes dos conjuntos de datos está
determinado como sigue:
90 40
94 55
93 60
96 80
95 95
Por lo tanto, un rango pequeño representa a un conjunto de puntajes que están agrupados
conjuntamente, mientras que el rango más grande representa a un conjunto de puntajes que
están más dispersos. Un contratiempo potencial es que dado que sólo toma en cuenta a los
puntajes más alto y más bajo, un puntaje extremo –ya sea en el extremo más alto o en el más
bajo–, puede producir un rango erróneo. Por ejemplo:
90 38
93 93
95 95
97 97
99 99
Si usted lo nota, existe sólo un puntaje que se distingue del resto del conjunto de datos, pero
la diferencia en ese puntaje único como puntaje extremo (90 para 38), tiene un increíble
efecto en el rango.
Mientras que el rango resulta fácil de calcular y brinda una visión instantánea de cuánto o
cuán poco están distribuidos los puntajes de un conjunto de datos, la realidad es que sólo le
está hablando de los dos puntajes extremos, y prácticamente no le dice nada acerca de los
puntajes que se encuentran en medio de ellos. Más aún, lo que está entre esos dos puntajes
extremos es más representativo del conjunto de datos que los extremos mismos. Por ejemplo,
un rango de 26 llamados resueltos en una hora por los representantes del servicio al cliente en
horas pico, le dice que el representante más productivo –si definiéramos la producción en
cuanto al número de llamadas/temas resueltos–, contestó 26 llamados más que el menos
productivo. Pero no le dice demasiado acerca de cómo está distribuida la productividad del
resto de los representantes del servicio a clientes.
148
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• El Rango Semi-Intercuartil
El rango semi-intercuartil (RSI), o desviación cuartil –como también es conocido–, es
estimado por el 50% medio de los puntajes, y como tal, no es sensible a los puntajes
extremos como lo es el rango. Esencialmente le dice qué tan amplio y distribuido es el
desempeño que estamos midiendo. La fórmula es la siguiente:
RSI= Q3 – Q1
2
Aquí, Q3 representa al tercer cuartil, el punto debajo el cual cae el 75% de los puntajes,
mientras que Q1 representa el punto debajo del cual se encuentra el 25% de los puntajes.
Recuerde que la media es el punto medio de los puntajes, y como tal, se corresponde con Q2,
o segundo cuartil. De hecho, la media es usualmente utilizada conjuntamente con el rango
semi-intercuartil.
La misma característica que hace que esta medición sea menos sensible a puntajes extremos
–estimado por el 50% medio de los puntajes–, también puede ser considerada como un
contratiempo. Después de todo, el 50% de los puntajes están siendo excluidos de esta
estimación. Así que mientras el rango semi-intercuartil es mejor que el rango para la
estimación de variabilidad, no resulta ser la medición más estable.
• La Desviación Estándar
Tal vez la medición más estable de la tendencia central sea la desviación estándar (DE). Y es
tal vez la medición de variabilidad más comúnmente utilizada, y la más apropiada cuando los
datos son medidos en intervalos o escalas de proporción. Recuerde que el promedio es la
medida más apropiada para la medición de tendencia central con estas escalas, y por lo tanto,
el promedio y la desviación estándar son usualmente informados en forma conjunta. Como el
promedio, la desviación estándar es estimada con todos los puntajes de un conjunto de datos,
y como tal, es la medición de variabilidad más estable. Si usted tiene tanto el promedio como
la desviación estándar de un conjunto de datos, usted tiene una buena idea de cómo los
puntajes están distribuidos.
149
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
150
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Al igual que con las otras mediciones de variabilidad, un valor pequeño de desviación
estándar representa una variabilidad pequeña, eso es, puntajes que están cercanamente
agrupados juntos. Cuanto mayor sea el valor de la desviación estándar, más grande será la
variabilidad. Una variabilidad importante podría estar indicándonos que la solución que
estamos evaluando no es el único factor que está impactando sobre el desempeño. Podrían
haber otros factores (por ejemplo, educación y/o experiencia previa, diferencia en el
ambiente gerencial), que se unan a la solución para crear un nivel de impacto entre el
desempeño de los individuos, mientras que las personas que no son expuestas a esos otros
factores demuestren un nivel de desempeño diferente.
¿Cómo utilizamos la desviación estándar para hacer inferencias acerca del desempeño de un
individuo?
Digamos que para una distribución dada –un conjunto de puntajes– de ítems vendidos por día
por un representante de ventas minoristas, el promedio –número promedio de ítems vendidos
por día– es 18, y la desviación estándar de ese promedio es 4. Si nosotros estamos evaluando
el desempeño de Mary, representante de ventas minoristas, y vemos que en forma promedio
ella vende 26 ítems por día, podemos inferir que el desempeño de Mary es ejemplar, dado
que su puntaje es 2 desviaciones estándar más arriba del desempeño promedio. La operación
de abajo explica esta inferencia:
• La Curva Normal
Los resultados obtenidos deben tener sentido para los stakeholders, especialmente en el punto
de tomar decisiones importantes acerca de la mejora del desempeño. La discusión siguiente
cubre algunas formas claras de pensar acerca de, y comunicar, nuestros datos de evaluación.
151
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La curva normal –también conocida como curva tipo campana–, es un concepto hipotético
basado en principios matemáticos que nos permiten hacer comparaciones entre los puntajes.
Mientras que probablemente ninguna distribución real se amolda a este modelo
perfectamente, pueden acercarse bastante, y por lo tanto nos permitirá tomar decisiones. De
hecho, la forma de la distribución es a menudo encontrada en nuestro medioambiente (por
ejemplo en curvas de estatura, peso, puntajes de coeficiente intelectual). Para tomar uno de
los ejemplos, el peso de la mayoría de las personas se agrupa alrededor de un promedio.
Luego encontramos menor cantidad de personas que son o más altas o más bajas que ese
promedio, y luego encontraremos aún menor cantidad de personas que son
considerablemente más altas o más bajas. Cuanto más nos alejamos del promedio, menos
individuos encontraremos. Vea la Figura 8.1 que servirá de ilustración.
Promedio
Media
Modo
Por ejemplo, si nosotros hubiéramos utilizado una curva normal para ilustrar una distribución
con un promedio de 50 y una desviación estándar de 5, podríamos asumir que el 34.13% de
los puntajes caen entre 50 y 55. Debido a que el mismo porcentaje de puntajes puede ser
encontrado entre 45 y 50, también podríamos establecer que el 68% de los puntajes caen
entre 45 y 55. Nuevamente, refiérase a la figura 8.1 para ver cómo estos porcentajes están
relacionados.
A menudo se asume que la curva normal es útil, dado que se cree que representa la realidad.
La curva normal muestra qué ocurre cuando la naturaleza tiene su propio curso. La idea por
supuesto, es que las soluciones de desempeño no se parezcan demasiado a una curva tipo
campana. Lo que estamos buscando idealmente es que todos los individuos se desempeñen
152
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La curva normal, mientras está bien establecida en la mente de algunos, no resulta útil para
los encuadres operacionales, según la opinión de otros. En las operaciones, nosotros
queremos tener algún impacto, y por lo tanto querremos obtener algo más que una
distribución normal. Por ejemplo, si nosotros capacitamos a las personas para procesar
aplicaciones de crédito, lo que queremos no es una curva normal al final de la capacitación,
sino una con distorsión negativa, que muestre que nos hemos acercado hacia el objetivo de
que mayor cantidad de individuos demuestren competencias, que si no hubiéramos hecho
nada.
Las frecuencias, por ejemplo, pueden ser representadas gráficamente mediante gráficos de
barras. En la figura 8.3, se organizaron las categorías verticalmente, y los valores
horizontalmente.
153
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los gráficos de líneas también son comúnmente utilizados para mostrar tendencias en los
datos a intervalos iguales. Este tipo de gráficos pueden mostrar tendencias en el tiempo o
categorías, y pueden ser creados con marcadores que muestren cada valor ingresado. La
Figura 8.4 muestra un gráfico de líneas con categorías múltiples (Europa, los Estados Unidos,
Japón).
154
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Medición de Relaciones
En algunas instancias, nuestras preguntas evaluativas estarán enfocadas en la relación
existente entre dos puntajes o factores. Por ejemplo, nosotros podríamos querer saber si el
alto grado de desempeño en un área, está relacionado con el alto –o tal vez bajo– grado de
desempeño en otra área; o tal vez si una característica participante está relacionada con otra
característica. Estos temas pueden estar relacionados con la toma de decisiones acerca de la
admisión de potenciales participantes en un programa en particular. Lo que queremos saber
aquí, es si el desempeño de estas dos áreas diferentes está correlacionado. Para responder a
esta pregunta, comparamos los dos conjuntos de datos utilizando un coeficiente de
correlación, o r.
Mientras que no existe una regla universalmente aceptada con respecto a qué coeficiente
preciso constituye una fuerte correlación, versus una débil, existen algunos lineamientos
generales –aunque variarán de acuerdo a los diferentes campos o áreas de estudio:
155
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
programas diferentes pueden ser ambos altos o ambos bajos. Una relación negativa es aquella
en la cual cada uno de los factores varía en dirección opuesta. Por ejemplo, un alto grado de
desempeño en un área puede estar correlacionado con un bajo desempeño en otra área. Una
correlación negativa es expresada con un coeficiente que varíe de .00 a -1.
r= .25: Positivamente Bajo, significando que mientras que los dos factores varían en la
misma dirección, no aparentan tener una fuerte relación. Por ejemplo, las cifras de
producción y ausentismo pueden ambas haber aumentado este mes, pero la relación entre
estas dos variables –según lo indicado por el coeficiente–, parece ser baja, y por lo tanto no
están relacionadas la una con la otra.
r= –.05 Muy débil y Negativa, significando que probablemente no existe mucha relación
entre los dos factores, aún cuando existen rastros de una potencial relación siendo inversa.
Por ejemplo, nosotros podríamos observar que los puntajes de la evaluación de desempeño en
una población dada están disminuyendo, al mismo tiempo que se incrementa la cantidad de
cursos de capacitación que ellos están recibiendo. Sin embargo, con un coeficiente de -.05,
dudosamente estos dos factores estén relacionados.
r= .76 Fuertemente Positiva, lo cual sugiere que los dos factores están fuertemente
relacionados, y varían en la misma dirección. Por ejemplo, nosotros podríamos observar que
al igual que la calidad –según lo ilustrado por indicadores de medición relevantes–, las ventas
también están incrementándose. Con un coeficiente de .76, podemos sentirnos confiados de
que estos dos factores están cercanamente relacionados.
Mientras que existen numerosas formas de estimar un coeficiente de correlación –y una vez
más, la forma más apropiada depende de la escala de medición–, dos de los métodos más
comúnmente utilizados son Pearson r –también referido como coeficiente de correlación
producto-momento–, el cual resulta más apropiado cuando los datos a ser correlacionados
han sido medidos en intervalos o escalas de porcentaje; y Spearman Rho, el cual es apropiado
si al menos uno de los factores que está siendo correlacionado es medido con una escala
ordinal.
156
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
157
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Por ejemplo, si usted quisiera comparar las diferencias entre hombres y mujeres en términos
de método de transporte preferido –público vs. privado– para asistir a su trabajo en el área
central metropolitana, usted estará tratando con datos medidos en escala nominal. Por lo
tanto, usted no será capaz de probar esas diferencias con estadísticas paramétricas (como una
prueba t por ejemplo), porque sus datos no son medidos en una escala interna o de
proporción. En este caso de la prueba Chi-square lo ayudará a determinar si existe una
diferencia significativa en las preferencias de estos dos grupos.
Aún luego de determinar si los resultados son significativos (por ejemplo, los resultados no
se debieron a la casualidad, resultando un rechazo a la nulidad y consideración de
alternativas), o no (falla para rechazar lo nulo, lo cual básicamente significa que no tenemos
evidencia para determinar que nuestro tratamiento tuvo efecto), aún seguimos sin estar listos
para derivar conclusiones. Como veremos en la próxima sección, la significancia estadística
es una pieza de información, una que difiere de la significancia parcial. La Figura 8.6 ilustra
la progresión entre los datos analizados y la recomendación final. Su informe de evaluación
debe contener –y alinear–, todos estos elementos. Para lograr que sus recomendaciones y
conclusiones sean creíbles, usted debe establecer este orden lógico a lo largo de la
comunicación de los resultados de evaluación, en un informe escrito y/o en un resumen oral.
158
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Figura 8.6 Progresión desde los datos analizados hasta las recomendaciones para
tomar acción
Conclusiones
(explicación lógica)
Interpretaciones
(¿qué significa eso?)
Hallazgos
(datos organizados y analizados)
Datos Recabados
Interpretación
Como lo mencionáramos antes en la presentación de El Proceso Para Evaluar Impacto, el
análisis de datos se enfoca en la organización y síntesis de la información; en sus hallazgos,
usted comienza a resaltar los elementos más importantes, comprometiéndose en el proceso de
conversión de datos. Y sus hallazgos comienzan a darle significado a los números y patrones
del análisis que realizó.
159
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
a notar algunos detalles y pasar otros desapercibidos). Por lo tanto, resulta sumamente útil el
poder articular claramente nuestro razonamiento, para las interpretaciones que hagamos
enlazadas a los hallazgos encontrados, los cuales están por supuesto, basados en los datos que
usted analizó. Como lo expusiéramos antes, esta alineación resulta crítica a lo largo del
proceso evaluativo….los datos que recabamos son relevantes a indicadores válidos de los
resultados que queremos lograr, que estuvieron previamente relacionados con las preguntas
evaluativas importantes, las cuales queremos responder para que los stakeholders tomen
decisiones contundentes acerca de la mejora del desempeño.
Aún los datos más perfectamente cuantificables requieren de una interpretación. Suponga que
sus resultados son estadísticamente significativos, ¿qué hacemos ahora? Una de las preguntas
básicas que usted tendrá que preguntarse es si los resultados observados tienen una
importancia práctica. Por ejemplo, suponga que los datos para una de sus preguntas
evaluativas –una dedicada a la relación existente entre dos variables, cifras de ventas y
cantidad de cursos de capacitación tomados–, obtuvo un coeficiente de correlación de .22, el
cual fue encontrado como estadísticamente significativo. Mientras que fue encontrado
estadísticamente significativo, eso es, que no ocurrió por casualidad, ¿tiene significado
práctico? Usted y sus stakeholders tendrán que decidir eso. ¿Es la relación real lo
suficientemente fuerte como para basar decisiones importantes en ella? Tal vez no, y
entonces, una decisión que puede tomarse respecto a los datos, en este caso, sería
concentrarse en otros datos donde basar la decisión a tomar. Recuerde, el punto de la
evaluación es facilitar la toma de decisiones válidas y útiles para la mejora continua.
160
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
161
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 9
Comunicación de los Hallazgos
Resulta imperativo notar que la comunicación de los hallazgos no es algo que sólo ocurre al
final del proceso de evaluación. En capítulos anteriores hemos remarcado la necesidad de la
relación con los stakeholders para mantenerlos activos durante el proceso de evaluación, lo
cual es un requerimiento para lograr que una evaluación resulte útil. Un mecanismo útil y
formal para mantener una comunicación abierta, es integrar esta relación al plan de gestión
del proyecto evaluativo como etapa de Revisión de Stakeholder y Retroalimentación, al final
de cada una de las funciones principales del proyecto. La comunicación continua, tanto
verbal como electrónica apoyará por supuesto a este mecanismo. Uno de mis colegas ha
tenido un increíble éxito con la “Informe de Lunes a Primera Hora”, un correo electrónico
semanal que brinda una visión instantánea del proyecto en una sola página; el estado
(mostrando verde, amarillo o rojo en términos de compleción a tiempo); las tareas
completadas durante la semana anterior; las tareas a realizar esta semana (incluyendo
responsabilidades de los stakeholders); y las tareas planificadas para la semana entrante.
Recomendaciones
Mientras que la comunicación abierta acerca del proceso y de los descubrimientos que se
están llevando a cabo es deseable, el evaluador debe evitar emitir juicios prematuros –y no
avalados aún– acerca de lo que sus hallazgos significan o de cómo arreglarlos. Usted puede
ciertamente ofrecer un conjunto de recomendaciones preliminares en base a cuán experto sea
en el área, a su investigación y a su experiencia, sin embargo, las recomendaciones son un
tema perfectamente apropiado para ser desarrollado en forma conjunta con los stakeholders.
De hecho, las posibilidades de que ellos implementen soluciones que se les ocurrieron a ellos
mismos, son significativamente más altas. Mientras que algunas personas pasan a veces por
un momento difícil, al articular qué fines están realmente persiguiendo, usualmente no faltan
las ideas acerca de cómo llegar allí, primeramente porque el trabajo de la mayoría de las
162
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
personas está enfocado en esos “cómo”. Las recomendaciones son precisamente acerca de
cómo alcanzar los fines que queremos y requerimos.
Aún así, una de las funciones importantes del evaluador es brindar un marco de trabajo
centrado en los datos, a partir del cual se pueden identificar recomendaciones apropiadas,
básicamente, los requerimientos de una solución exitosa para sobreponerse a los problemas
identificados. Mírelo de este modo, usted no contrataría a la primera persona que pasara
caminando, sólo porque se acercó a su oficina. Usted primero determinará qué funciones
tendrían que ser cubiertas por su empleado, para poder contribuir a los objetivos del equipo,
departamento, organización y demás. Del mismo modo, la solución que es recomendada
tiene que cubrir ciertas “calificaciones para el trabajo”, y si las cubre todas, o al menos las
más importantes –a veces esta es la forma más práctica de seguir y aún lograr cumplir con el
trabajo–, sólo entonces puede ser seleccionada. Para reiterar, si usted se asegurará de brindar
un marco de trabajo centrado en los datos, que comunique al stakeholder los requerimientos
para una solución efectiva, no abra la puerta ‘alabando’ a alguna solución que usted sabe no
beneficiará a la solución.
La Tabla 9.1 brinda una lista de los pasos que pueden ayudarlo a brindar un marco de trabajo
sólido para la identificación de soluciones efectivas. Mientras que es sistemático, el proceso
no tiene que ser lento y largo, si usted lo facilita. Mantenga a todos enfocados en el impacto
deseado.
1. Defina problema a ser ¿A qué resultados están relacionados? ¿Qué factores involucran? ¿Qué
resuelto. personas se desempeñarán? ¿Gerencia? ¿Programas? ¿Valor externo
agregado? ¿Temas de Fondos/Presupuesto? ¿Otros recursos? Esto puede
parecer obvio, pero el clarificar el tema central hará que la vida de todas las
personas involucradas sea más fácil. ¿Cuáles son los costos y
consecuencias de resolver el problema versus evadirlo o evitarlo?
2. Identifique los ¿Qué cosas críticas tienen que pasar para que este tema sea resuelto? ¿Qué
requerimientos para la característica tienen que tener la solución de este tema para hacer que esas
resolución del tema. cosas críticas sucedan? ¿Dentro de qué lapso de tiempo deben ocurrir esas
cosas? ¿Qué valor debe agregar la solucion?
3. Identifique las alternativas Los stakeholders y evaluador(es) conjuntamente deben identificar las
posibles. alternativas, y cuantas más personas se sientan involucradas en la creación
de soluciones, más alta será su inversión personal para el logro del éxito de
esa solución. La motivación clave en la generación de ideas viables es si
cubren los requerimientos para resolver el tema, según fuera identificado en
el paso previo.
4. Identificar los Pro y las Para cada una de las alternativas identificadas, considere las fortalezas y
Contras (incluyendo debilidades. ¿Pesan más las fortalezas que las debilidades? Esta pregunta
estimación de costos) no se trata solamente del número de fortalezas vs. debilidades, sino también
de su importancia. Puede existir una sola fortaleza aparente contra cinco
163
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Paso Consideraciones/Tareas
aparentes debilidades, pero si esa sola fortaleza fuera por ejemplo “salvar
vidas”, seguramente pesará más que las debilidades y los costos. En el
próximo paso, posiciónelas para que pueda comparar las alternativas y
determinar si puede obtener la misma fortaleza en otra alternativa, a un
costo más bajo. ¿Cuál es el valor agregado?
5. Posicione las Alternativas Con esta información en mano, estamos en posición de establecer un orden
de posicionamiento de las alternativas de acuerdo a lo apropiadas y
factibles que resultan. Lo que sea apropiado y factible variará de una
organización a otra. Los stakeholders deben crear una lista de criterios
pertinentes que tengan sentido para su propia organización y propósitos.
Los criterios pueden incluir efectividad de la alternativa, costo, experiencia
previa en su aplicación, y consideraciones políticas –si las hubiera–, para
nombrar algunos.
6. Tome la Decisión Luego de posicionar las alternativas, ellos tendrán que finalmente decidir
cuál es la que tiene más sentido. El paso previo puede haber facilitado
bastante este paso, o puede haber dejado con más preguntas a quienes
tomarán las decisiones. El considerar no tomar ninguna acción en ese
momento, respecto a una decisión, puede aún ser una sabia decisión. Todas
las alternativas y sus potenciales impactos deben ser cuidadosamente
consideradas.
164
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
1. Conocer a Su Audiencia
Lenguaje: El lenguaje resulta crítico para lograr una comunicación efectiva, y es sin embargo
muy a menudo pasado por alto. Se supone que el informe final consistirá en información
clara y concisa para comunicar a quienes toman decisiones, cuáles son las decisiones
avaladas por su estudio. Un riesgo es que la persona que tomará la decisión puede tomar una
inexacta, basado en la mala interpretación o en una sobre reacción al lenguaje del informe.
Resulta imperativo que usted conozca a quién le estará enviando el informe. ¿Incluirá su
audiencia a personas de finanzas; del área técnica; políticos; otros, o una mezcla de todos
ellos? Asegúrese de que usted y su audiencia tengan en claro a quién se dirigirá su informe.
Usted también debe considerar la educación, el conocimiento, la experiencia, y otros factores
relevantes que puedan impactar sobre la efectividad de la comunicación.
Un término puede significar diferentes cosas para diferentes personas, asegúrese de buscar un
lenguaje que pueda ser interpretado de diferentes formas por diferentes grupos representados.
Mientras que el lenguaje en general es abierto a cierto grado de interpretación, tome los pasos
necesarios para asegurarse de minimizar la variabilidad de las posibles interpretaciones, lo
más que pueda. Una forma de hacer esto es brindar definiciones operacionales, o elaborar los
términos en cuestión brindando explicaciones y ejemplos concisos, evitando
simultáneamente largas justificaciones.
165
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
reducción del riesgo de errores de comunicación. Las siguientes son algunas preguntas
generales para que la persona sustituta considere mientras revisa el informe:
• Escrito u Oral;
• Presentación PowerPoint formal o discusión informal;
• Breve o extenso;
• Formato general o formato especial interno
La clave es adaptar el informe a las expectativas y preferencias del cliente. Un estudio de
evaluación amplio requerirá un informe más extenso que uno diseñado para estudios
pequeños o para responder poca cantidad de preguntas. Los siguientes son cuatro tipos de
informes escritos y tres tipos de informes orales que cubren la mayoría de las situaciones.
Informes Escritos
El tipo de informe debe avalar el tipo de evaluación. El énfasis principal es confirmar que los
resultados obtenidos son aquellos que intencionaron la evaluación, y los esperados cuando la
solución o programa fue implementado.
Como fuera señalado antes, la función de la evaluación puede ser enfatizada en diferentes
etapas del programa. Es común que los administradores requieran informes de progreso –
evaluaciones formativas–, que involucren la evaluación de metas que llevarán a los
resultados finales. Esto es especialmente cierto si los intereses sobre el desempeño son altos.
Todos los gerentes deben conocer los costos y penalizaciones por fallar en el logro de su
objetivo. Todos los gerentes también deben conocer que los ajustes de tiempo del programa
pueden ser la diferencia entre el éxito y el fracaso. Debe notarse que este rol es a menudo
expresado mediante los términos de evaluación “formativa” y “acumulativa”. La siguiente
tipología de informes está basada en los requerimientos de presentar los hallazgos en
diferentes puntos del ciclo de vida del programa. El término programa es aquí utilizado en
sentido general al curso de acción o estrategia de solución que tiene un comienzo y un fin, y
que puede ser gestionado. Durante el curso de eventos reales, muchos programas coexisten,
166
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La mayoría de los informes escritos incluyen los mismos componentes generales, aunque
algunos de estos elementos pueden ser organizados en forma diferente. Debajo se incluye una
forma de organizar un informe escrito, una que puede ser utilizada para un informe más
formal y técnicamente elaborado:
1) Resumen Ejecutivo
2) Cuerpo del Informe
a) Introducción
b) Declaración de Propósito
167
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
1) Resumen Ejecutivo
2) Cuerpo del Informe
a) Introducción
b) Declaración de Propósito
c) Experiencia y/o Antecedentes
d) Descripción del Alcance Indagatorio de la Evaluación
e) Preguntas Evaluativas Generales y Específicas
3) Descripción de la Metodología
a) Resultados Específicos e Indicadores a Observar
b) Fuentes de Datos e Instrumentos/Métodos para la Recolección de Datos
4) Hallazgos de la Evaluación
a) Tema 1
i) Hallazgo 1
ii) Datos de Apoyo
iii) Recomendaciones
iv) Hallazgo 2
v) Datos de Apoyo
vi) Recomendaciones
b) Tema 2
i) Hallazgo 1
ii) Datos de Apoyo
iii) Recomendaciones
iv) Hallazgo 2
v) Datos de Apoyo
vi) Recomendaciones
vii) Hallazgo 3
168
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Aquí los hallazgos son agrupados entorno a temas (tal vez de 3 a 5 en total), conteniendo
cada uno de los temas entre 2 y 5 hallazgos específicos. Los temas pueden girar entorno a un
problema general, como la falta de enlaces entre los varios niveles estratégicos, tácticos y
resultados operacionales, con hallazgos específicos que brinden instancias específicas de
cada uno, con el apoyo de los datos correspondientes.
Informes Orales
Muy a menudo se requiere que los evaluadores lleven a cabo presentaciones orales. Aquí
incluimos una breve discusión de tres situaciones que a menudo se presentan en cualquier
estudio de evaluación.
Resumen Ejecutivo. El resumen ejecutivo debe ser corto e ir directamente al punto. Preste
particular atención a evitar repeticiones y conozca el contenido de los resúmenes previos para
no cubrir viejos temas. Puede incluirse una breve recapitulación del informe previo brindado
–la cual debe ser breve–, limitándose a los puntos que son relevantes al resto de su
presentación. En general, las mismas cosas listadas anteriormente como componentes del
informe son las que le brindarán la estructura para su presentación. Recuerde, como
evaluador usted debe liderar a partir de metas y objetivos acordados, derivados de la
detección de necesidades y enlazados al mega. Como tal, usted está allí para resumir los
hechos de los hallazgos. No para hacer un discurso de ventas. Muchos de los libros de
consejos para discursos en público, se enfocan en la presentación de argumentos
convincentes y cierres de negocios. En una evaluación, no hay negocio que cerrar. Usted
debe informar los hallazgos relativos a las metas del programa y a los lineamientos de la ética
profesional. Cuando usted salta hacia la promoción y los rodeos, se habrá alejado de la
evaluación, para asumir un nuevo rol.
Foro Público.
El hablar en público puede ser intimidante para algunos evaluadores. Toast Masters es un
buen foro de práctica, pero la presentación de los hallazgos de una evaluación le ha agregado
el requerimiento de informar más que de entretener. El uso de una estructura lógica en su
presentación, de ayudas visuales claras que sean simples y directas, y de notas para
mantenerse en el camino, le ayudarán a servir a la audiencia. En un foro público, usted debe
estar preparado para responder preguntas. Mientras que es su deber mantener la
imparcialidad en la presentación de sus hallazgos, su audiencia muy a menudo contendrá
partidarios apasionados por diferentes puntos de vista. La presentación de los hallazgos de la
evaluación no es un foro propicio para discutir o defender estos puntos de vista. Si su
programa ha sido iniciado utilizando una detección de necesidades disciplinada, usted estará
169
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
en posición de responder las preguntas que le sean formuladas, debido al beneficio social, y
su enlace con las metas del programa han hecho que el proceso sea explícito.
Demostración. Muy a menudo las demostraciones son más efectivas que las palabras en la
presentación de los hallazgos de la evaluación. Las grabaciones de video y audio pueden
transmitir los resultados en los casos donde las metas de desempeño involucran habilidades
psicomotrices. La medicina, los deportes o la producción representan áreas de desempeño
donde el ver los resultados tomando acción puede brindar un apoyo valioso a otras medidas
de desempeño.
Junto con la identificación de quién debe hacer qué, parte de este lineamiento será
alimentado por nuestra discusión acerca de las recomendaciones. El comunicarle a un cliente
lo que debe ser hecho puede parecer completamente claro para el evaluador –u otro tipo de
consultores–, pero para la mayoría de los clientes, rara vez es suficiente. También es
importante articular el Cómo esta recomendación debe ser llevada a cabo, y en términos
sueltos, cómo será implementada.
La pregunta guía aquí debe ser: ¿Qué fue? ¿Qué fue lo que los datos señalaron
consistentemente y cuál es la mejor forma de tratar con eso efectiva y eficientemente?
• El valor agregado o sustraído de (1) socios externos y sociales, (2) socios internos a la
organización, y (3) asociados dentro de la organización.
• El propósito de la evaluación y las preguntas evaluativas subsecuentes;
• Las preguntas y los resultados que importan;
• Los resultados y los indicadores de desempeño claves;
• Los indicadores y las fuente y métodos utilizados para recabar datos relevantes;
170
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Usted no debe confundir su interpretación de lo que los datos sugieren, con los datos en sí
mismos. Sea claro respecto a esto en su comunicación de los resultados. Si usted no lo es,
alguien seguramente se lo señalará. Usted estará mejor inclinándose hacia un sitio más
conservativo que exponiendo su cuello sin contar con la evidencia suficiente, porque
seguramente uno de sus stakeholders le señalará que sus puntos no están avalados por la
evidencia. Si esto ocurre, este hecho promueve una nube de dudas sobre sus otras
conclusiones y recomendaciones, aún aunque ellas estén perfectamente avaladas.
Usted debe asegurarse de que los hallazgos de la evaluación para los que trabajó tan duro, no
causen que su audiencia tome decisiones que no estén avaladas por los datos. Haga enlaces
claros, no solamente a través de la comunicación de resultados, sino a través de su proceso
completo de evaluación.
Asegúrese de enlazar y alinear los resultados y consecuencias para cada uno de los elementos
organizacionales, aún cuando la solicitud original que haya recibido haya consistido en sólo
un programa, proyecto o actividad. Note el valor agregado o sustraído de la sociedad que
compartimos, de nuestra organización y de sus asociados.
A toda costa debe evitar nutrir una “localización externa de control”. Mientras que la
autoridad y poder para tomar decisiones no están equitativamente distribuida, todos –a todos
los niveles– tienen cierta cantidad de control sobre sus contribuciones únicas y colectivas
para la organización. Sea claro y específico –cuando sea posible–, acerca de cómo los
diferentes grupos e individuos pueden ser participantes activos en la formulación de
recomendaciones para mejorar el desempeño.
Una de las formas para comunicar las responsabilidades a los stakeholders, es una entrega
adicional –o como parte del informe de evaluación si así hubiera sido negociado–, brindando
un plan de gestión general para el proyecto, dedicado a la implementación de las
recomendaciones que hayan sido seleccionadas y aprobadas por los stakeholders. Aquí, el
evaluador –en consulta con los expertos de una recomendación en particular y el grupo
stakeholder correspondiente–, puede definir las funciones principales, las tareas clave, los
171
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
lineamientos de tiempo, y los grupos o individuos responsables para una tarea o función
determinada. Los cuadros de flujo pueden a menudo ser útiles para ayudar al cliente a
visualizar el proceso completo de implementación.
172
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 10
Contratación de Servicios de Evaluación
Este capítulo le brindará consejos respecto al contrato requerido cuando usted quiera que una
organización externa conduzca la evaluación, y está basado en Kaufman, Guerra, y Platt
(2006). Los listados de revisión y declaraciones de trabajo brindadas, pueden sin embargo ser
utilizadas como planificación de su propia evaluación. Un desafío encontrado en cualquier
evaluación es la compleción del estudio de acuerdo a lo originalmente planificado, sin dejar
que temas extraños consuman demasiado tiempo y otros recursos.
Una vez más, el conjunto de preguntas evaluativas juega un rol central en un contrato. Usted
puede utilizarlo para asegurarse de que un contratista asegure encargarse de cada una de las
preguntas y entregas incluidas en las preguntas evaluativas que hayan sido formuladas. Del
mismo modo, las preguntas evaluativas son el ancla para un proceso de evaluación interno, y
todas las actividades asociadas a él.
La ley contractual es un campo complejo, y no será cubierta aquí. En vez de ello, este
capítulo se concentrará en ayudarlo a desarrollar una descripción clara, así como
especificaciones de tareas y entregas que usted quiera lograr en la evaluación, que sean
entendidas mutuamente, acerca de qué será entregado y qué no. Esta es la parte que un
funcionario adjudicador o contratista, o procurador oficial no puede hacer por usted.
Nosotros incluiremos controles para guiar al contratista al escribir propuestas, presentando un
173
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Precio fijo
• Costo más honorario fijo
• Tiempo y materiales
• Anticipo de consulta
Precio Fijo
Un contrato de precio fijo significa que todo el trabajo es realizado a cambio de una cifra de
dinero preestablecida, al momento que el contrato es acordado –usualmente basada en la
propuesta del contratista. Este tipo de pago contractual funciona mejor cuando las propuestas
son aceptadas a partir de una serie de contratistas en competición, y el trabajo es claro y
rigurosamente especificado. Los contratistas que conocen el campo pueden planificar su
trabajo eficientemente, y arribar a un precio que resultará adecuado de acuerdo al
acercamiento técnico del trabajo a realizar. Sin embargo debe notarse, que si luego de ser
acordado el contrato, la parte que solicita el trabajo comienza a agregar cosas en la lista de
tareas del contratista, el contratista está en todo su derecho de solicitar una renegociación del
contrato de precio fijo previamente establecido, y agregar más dinero correspondiente a las
nuevas tareas a realizar. Luego de que el contrato es otorgado, el contratista no se enfrenta a
ninguna competición, por lo que existe menos presión para mantener bajos los costos,
durante un cambio de propuesta. Si no hubiera ninguna innovación técnica o descubrimiento
solicitado, y ambas partes conocieran bien el campo, el riesgo es aproximadamente igual para
cada una de las partes. Un estudio de evaluación que haya sido firmemente contraído, podría
utilizar este tipo de contrato. Sin embargo, es bueno mantener en mente que algunos estudios
de evaluación se acercan más a la naturaleza de estudios de identificación de problemas, en
forma opuesta a la confirmación de resultados de un marco experimental. Un estudio que
tendrá alguna amplitud, puede incluir tareas de trabajo adicionales dentro de la declaración
de trabajo, que estén remarcadas como opciones a precios adicionales, pero esto requiere de
algo de anticipación en la naturaleza de la opción de tareas a realizar. Por lo tanto, tal vez sea
más adecuado optar por una forma de contrato diferente.
174
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
costo y dicha variación sea aceptable para ambas partes. Note que los cambios de órdenes
deben ser aceptados antes de iniciar la variación del trabajo. Un contratista que se sale del
alcance original de la evaluación sin permiso, puede ser forzado a absorber el costo de esa
decisión. Sin embargo, y de acuerdo a la misma regla, cualquier lineamiento exuberante de
cualquier personal, puede significar que el contratista recibirá el pago adicional por cualquier
trabajo resultante. El establecer un papel claro para seguir la pista a cualquier orden de
cambios es una buena idea, y servirá para que ambas partes se aseguren de conocer quién
autoriza el cambio. Este tipo de contrato permite un riesgo asociado con un descubrimiento
de algo desconocido, mientras se mantenga un buen control de la situación.
Tiempo y Materiales
Un contrato de tiempo-y-materiales significa que el contratista obtiene una paga por los
honorarios –un monto determinado por hora de trabajo–, de cada uno de los trabajadores
comprometidos con la provisión de apoyo directo o indirecto al contrato. El contratista
también recibe un pago por los gastos incurridos, como viajes y materiales utilizados. Un
contrato de tiempo-y-materiales se utiliza cuando el alcance de la tarea y la declaración de
tareas incluyen el análisis, descubrimiento o experimentación que pueden ser repetidos tantas
veces como sea necesario hasta obtener los resultados deseados. La redirección de la
actividad laboral resulta simplemente en mayor cantidad de tiempo y consumo de materiales.
Sin embargo una sabia decisión es la de mantener el control sobre los cambios de ordenes de
trabajo, aunque la flexibilidad ofrecida es mucho mayor. Se debe tener en cuenta que el
riesgo para la organización es que el trabajo puede ser consumido y los fondos agotados,
antes de que el contratista haya producido cualquier producto deseado. Se pueden establecer
límites de montos máximos incluidos en el contrato de tiempo-y-materiales. Si bien existe la
posibilidad de alcanzar ese límite sin haber obtenido el resultado final del trabajo, esa
posibilidad puede ser más improbable al existir una revisión gerencial atenta utilizando
revisiones periódicas del programa.
Anticipo de Consultas
El tipo de contrato más flexible es un acuerdo entre un consultor o firma consultora para
brindar servicios de evaluación. Los consultores pueden hacer la evaluación completa o
brindar lineamientos para su plan e implementación de su propio estudio. Cada consultor
tendrá su propia forma de arreglar el pago. Esto puede ser desde la aceptación de honorarios
hasta montos fijos de honorarios diarios. La utilización de consultores puede ser
extremadamente beneficial para un sistema educacional, así como también puede ser
provocativa y desperdiciar recursos. Lo mejor es considerar la utilización de un consultor
sólo luego de una primera revisión de recursos internos, y luego hacerlo mediante un
contexto de búsqueda del candidato apropiado para llevar adelante la tarea.
175
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Controles de Contratación
La contratación de servicios de evaluación –y resultados–, es más que una simple cuestión de
tomar a un contratista y luego dejarlo libre mientras que usted se dedica a otros negocios. Es
más como subirse a un caballo que usted debe manejar hacia el final del camino. La “calidad
de la cabalgata” depende de usted. Usted puede magnificar lo que puede ser hecho mediante
el uso apropiado de un contrato, pero requerirá una inversión de tiempo y atención a los
detalles. Algunas de las cargas de gestión pueden ser facilitadas si usted comienza con un
buen contrato, que sea claro y brinde por adelantado un marco de trabajo para usted y para el
contratista, a través de las etapas de trabajo y compleción de tareas que usted desea realizar,
con un conjunto de resultados deseados.
176
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Plan de Gestión
Usted puede solicitar al contratista que presente un plan de gestión que describa cómo
procederá con el trabajo y qué entregas en-proceso serán brindadas para la realización de la
revisión y retroalimentación correspondientes. En casos donde la negociación es solicitada
para ajustar la declaración de trabajo, esta es una forma de incluir detalles que no fueran
posibles de ser incluidos en la declaración de trabajo –comúnmente, usted tendrá que
comenzar el trabajo para saber con qué está tratando. El plan de gestión debe incluir la
provisión de revisiones de progreso, informes, cronogramas de evaluación y mecanismos
para cambios, control de calidad y aprobación para reemplazo de personal.
177
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Entrega y Aceptación
Cada una de las entregas debe tener una fecha de finalización, y las condiciones de
aceptación deben estar establecidas en el contrato. Muchos contratistas utilizan una carta de
presentación con una firma de aceptación para cada uno de los ítems a entregar. Asegúrese de
que el contrato especifique quién firmará cada entrega. En la mayoría de las organizaciones,
el funcionario adjudicador o contratista, o procurador oficial, o el representante técnico, son
designados como la autoridad oficial para firmar esas entregas.
Ética y Profesionalismo
No se venda a usted mismo convirtiéndose en un “mentiroso pero contratado”. Diga la
verdad acerca de lo que hizo, de cómo lo hizo y de por qué lo hizo, así como también
respecto a qué fue lo que encontró. Sea franco respecto a todas las suposiciones y
limitaciones. No agregue ni omita nada que esté justificado, y no cambie nada simplemente
porque el cliente así lo quiere.
Ahora revisemos una muestra receptiva y responsable de una declaración de trabajo incluida
en un contrato de evaluación. El siguiente es sólo un ejemplo, pero está basado en el trabajo
de William Platt con el ejército y gobierno Estadounidense. Usted puede reemplazar los
ítems de este ejemplo con los que considere apropiados para su organización educacional y
evaluación.
Información General
1. Título del Proyecto:
Evaluación del Nuevo Programa de Incentivos para Ventas, de la Corporación Vendomucho.
178
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
El contratista debe ser competente en todas las fases de la evaluación, contando con una
habilidad probada en la evaluación de sistemas educacionales y programas educacionales. Se
solicitan referencias para confirmar esto.
Pasos de Trabajo
Los pasos de trabajo deben incluir lo siguiente: (a) análisis de ventas y programas de
incentivos, y políticas de Vendomucho y otras corporaciones similares, (b) conducir una
búsqueda en la base de datos literaria relativa al tipo de programa que está siendo evaluado, y
a las herramientas y técnicas utilizadas en proyectos similares, (c) desarrollar y obtener
aprobación de las preguntas evaluativas que motivarán la recolección de datos y los
hallazgos, (d) preparación de un flujo de trabajo y cronograma de la evaluación, (e)
identificación de métodos de evaluación, medios, proceso y técnicas; y relacionarlos con las
preguntas evaluativas, (f) identificar y documentar los métodos seleccionados para la
recolección de datos, (g) definir los lugares, muestras y recursos requeridos para la
recolección de datos, (h) recabar datos, (i) reducir y analizar los datos utilizando estadísticas
y herramientas de análisis válidas y confiables, (j) brindar hallazgos iniciales y
recomendaciones para la acción de los patrocinadores, y revisar según sea solicitado, (k)
preparar y presentar borradores del informe final, y (l) revisar según sea solicitado.
Visitas de Campo
Todas las visitas en el área de trabajo así como observaciones internas, deben ser coordinadas
con el director del departamento de la oficina de ventas y/o con el director del proyecto de
evaluación.
3. Contexto:
Este contrato es el seguimiento de respuestas rápidas, y esfuerzos de corto plazo, para
investigar las tendencias y conceptos en los incentivos de ventas y compensación que
impacta o potencialmente podrían impactar a las ventas, políticas de ventas y capacitación de
ventas en la corporación Vendomucho.
4. Período de Desempeño:
El trabajo debe comenzar dentro de los 10 días calendario luego de establecerse el presente
contrato, al menos que sea de otra forma especificado. El trabajo en las instalaciones de la
corporación no debe tomar lugar durante los feriados o fines de semana, al menos que así sea
establecido por el funcionario adjudicador o contratante. El informe de ítems de entrega y
cronograma serán establecidos en una reunión de lanzamiento posterior.
5. Tipo de Contrato:
Tiempo y materiales. Con límite de precio fijo.
Reunión de Contratación
Requerimientos Generales
1. El contratista debe confirmar las tareas telefónicas asignadas, con el gerente del
proyecto de evaluación. Un breve lineamiento de trabajo debe estar reflejado en la
propuesta técnica.
2. Todas las entregas escritas deben ser fraseadas en una terminología aceptable para el
campo en cuestión. Las palabras deben ser definidas en lenguaje lego. La
terminología estadística u otra terminología técnica deben ser definidas en un glosario
de términos y referenciadas por validez y utilidad.
3. Al menos que sea de otro modo especificado, cuando se solicite una entrega escrita en
forma de borrador, la oficina del distrito escolar completará la revisión del borrador
dentro de los 10 días calendario a partir de su recepción. Si no hubiera respuesta por
parte de la Corporación Vendomucho dentro de los 10 días calendario, será
automáticamente considerado como “aprobado”. El contratista tendrá 10 días
180
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
181
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Cronograma de Entregas
1. El contratista debe brindar las entregas al gerente del proyecto, de acuerdo a lo
establecido en el cronograma acordado, y en la reunión de lanzamiento.
2. Al menos que sea de otro modo especificado, el número de copias borrador y el
número de copias del informe final deben ser iguales (por ejemplo, una copia
electrónica enviada por correo electrónico).
3. Si por alguna razón, el producto no puede ser entregado en el momento establecido
por el cronograma, se solicita al contratista una explicación de porque ha sucedido
esto, que debe ser presentada por escrito al funcionario adjudicador o contratante,
incluyendo un compromiso firme en cuanto a la fecha de compleción del trabajo. Esta
notificación al funcionario adjudicador o contratante debe citar las razones de la
demora y el impacto en el proyecto general. El funcionario adjudicador o contratante
revisará los hechos y emitirá una respuesta de acuerdo a las regulaciones aplicables,
dentro de los 10 días.
Requerimientos de Informes
1. Se solicita que el contratista brinde al gerente del proyecto informes semanales de
progreso, tanto telefónicamente o por correo electrónico.
2. Los informes de progreso deben cubrir todo el trabajo completado durante la semana
precedente, y debe presentar el trabajo que será llevado a cabo durante la semana
subsiguiente. Este informe también debe identificar cualquier problema que haya
aparecido y una declaración explicando cómo el problema fue resuelto. Este informe
también debe identificar cualquier problema que haya ocurrido pero que no haya sido
completamente resuelto, con una explicación al respecto. Los informes de progreso
también brindarán datos de costo, de cronograma, de varianza de costos y de varianza
del cronograma, según sea solicitado por cada orden de trabajo.
182
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Confidencialidad y No Divulgación
Queda convenido que:
1. Las entregas preliminares y final, y todos los trabajos presentados asociados a ellos,
así como otro material considerado relevante para la Corporación Vendomucho, los
cuales hayan sido generados por el contratista durante el desempeño de las tareas
requeridas, son propiedad exclusiva de la Corporación Vendomucho, y deben ser
presentadas al gerente del proyecto al concluir la iniciativa evaluativa.
2. El gerente del proyecto debe ser el único oficial autorizado para divulgar –
verbalmente o en forma escrita–, cualquier dato, borradores de entregas, entrega final
o cualquier otro material escrito o impreso pertinente a la tarea que ha sido ordenada.
El contratista no divulgará ninguna información. Cualquier solicitud de información
relacionada con la orden de la tarea a realizar por el contratista, debe ser presentada al
gerente del proyecto para su aprobación.
183
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
184
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Sección 3
Mejora Continua
185
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 11
Errores Comunes en la Evaluación
La intención de este libro ha sido ayudar a los evaluadores, y a aquellos que utilizan los datos
de la evaluación, a conducir y entender el significado del tiempo y significancia de la
evaluación, efectivos para guiar y ajustar programas y soluciones para la mejora del
desempeño. He brindado modelos y consejos sobre lo que usted debe hacer.
Otra manera para que usted se mantenga en el camino correcto, es mostrarle algunas cosas
que debe evitar. He enmarcado esta sección como una discusión de los errores de evaluación.
Algunos de estos son penosamente comunes, y otros son encontrados en menor cantidad de
oportunidades, pero creemos que es importante que presentemos un cuadro completo del
dominio de los errores más comunes en la evaluación, porque están relacionados con los
fundamentos de lo útil que resultará su evaluación.
186
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
187
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Errores de Lógica
Error de conclusión falsa
Cuando alcanzamos una conclusión respecto a un programa, que no está avalada por los
hechos del caso, o está influenciada por inclinaciones particulares, comentemos el error de
conclusión falsa.
11
Primeramente sugerido por el Profesor Emérito de la Universidad de Western Michigan, Dale Brethower.
188
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Error de asociación
Cuando alcanzamos una conclusión que contradice los hechos debido a que una personalidad
notoria tomó parte, o debido a la reputación pasada de los participantes, o debido a la
publicidad –la mayoría de las publicidades dependen de nuestros errores de asociación–,
estamos cometiendo un error de asociación.
Errores de procedimiento
Error de instrumento
Nosotros a menudo utilizamos instrumentos –electrónicos y mecánicos así como papel o
computadoras–, para la entrega de exámenes y ejercicios. Resulta en realidad sabio mantener
en mente que todos los instrumentos están sujetos a fallas o pérdida de calibración o
utilización incorrecta. Algunos instrumentos electrónicos requieren un conjunto de
procedimientos que son complicados, y deben incluir un tiempo de precalentamiento. El
acoplamiento de documentos adjuntos puede requerir un cuidado particular y una colocación
correcta. Las instrucciones escritas pueden resultar confusas. Los exámenes pueden no ser
confiables ni válidos. El lenguaje utilizado puede diferir entre los grupos, como cuando un
189
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
examen con lenguaje médico complejo es administrado a personas sin experiencia en el área
de la medicina. Todos estos problemas potenciales deben incrementar el cuidado dedicado al
uso de instrumentos. El fracaso en esta área agravará los errores de medición.
Error de medición
Nosotros medimos cosas para poder hacer generalizaciones acerca de los fenómenos de los
programas que estamos evaluando. Pero debemos siempre considerar qué es lo que está
siendo medido. ¿Estamos midiendo las cosas correctas? –llamado validación–, ¿qué podemos
reclamar en base a lo que medimos, y qué significa la medición en el sistema completo de
eventos, y en la mezcla entre intenciones y resultados? Nosotros debemos preguntar por qué
cada medición es importante para nuestras conclusiones. Y debemos considerar qué tan a
menudo medir, qué medir y qué escala utilizar para tal medición. La medición puede agregar
precisión al estudio, pero la medición incorrecta puede llevar a una sensación de precisión
falsa, donde nada está garantizado debido a un procedimiento defectuoso. Por ejemplo, el uso
de una escala equivocada y los subsiguientes tratamientos matemáticos de los datos, pueden
llevar a una distorsión enorme.
190
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
detrimento de algún tipo para el bienestar de la sociedad más amplia, nosotros querríamos
descartar lo que no ha funcionado. Pero, ¿significa eso que el programa entero debe ser
desechado y un programa totalmente nuevo debe ser colocado en su lugar? Este puede ser el
caso si no hubieran existido observaciones durante el programa. Lo que nos brinda las claves
de qué partes del programa pueden ser cambiadas o modificadas es la penetración total del
programa, en tantas modalidades de observación como sea posible.
191
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
poblaciones, pero en la mayoría de los casos se utilizan los extremos para capturar a la
mayoría de la población, usualmente el 90%. El uso de datos promedio debe ser incluido
como pensamiento de guía general acerca de las poblaciones, pero cada individuo debe ser
considerado en todas sus múltiples dimensiones, rasgos distintivos y estados. El razonar
acerca de un individuo dado, utilizando solamente normas de la población general, es
cometer el error de la persona promedio.
192
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 12
Mejora Continua
193
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Monitoreo de Desempeño
• Utilizar la Evaluación para Construir la Mejora Continua en las
Organizaciones: Un Marco de Trabajo de Auto-Evaluación
Los beneficios que la evaluación puede brindar no es algo que sucede una vez y se detiene
luego del informe final. La evaluación, si es conducida apropiadamente, nos puede dar una
retroalimentación útil respecto a cuánto más cerca –o más lejos– estamos de nuestra meta
final. En el contexto de la mejora continua, la evaluación nos ayuda a hacer esto
estableciendo un marco de trabajo evaluativo, que permite medir consistentemente y en
forma confiable las cosas que importan. Usted puede decir que este marco de trabajo
evaluativo es la médula del sistema de gestión del desempeño. Usted no puede gestionar el
desempeño –al menos no eficientemente–, sin los datos de desempeño requeridos para ello.
Una vez que se desarrolla el marco de trabajo evaluativo, el cual incluye objetivos de
desempeño a varios niveles organizacionales, indicadores de medición e iniciativas
respectivas para apuntar a ellos, la recolección de datos caerá naturalmente en las categorías
significativas. En este sentido, no es como facilitar una auto-evaluación continua que brinda
retroalimentación justo a tiempo para realizar los ajustes oportunamente. La
retroalimentación es un concepto central aquí, y depende de los sistemas de comunicación
efectivos. Si es desarrollada apropiadamente, permitirá a los líderes y empleados a rastrear,
gestionar y a veces pronosticar, desempeños en el momento oportuno. En este sentido, es
bastante similar al monitoreo de signos viales de la organización.
Otra función que el marco de trabajo evaluativo puede abarcar, es facilitar la colaboración
entre varios departamentos de la organización. Cuando el individuo aún cumpliendo con su
contribución a varios departamentos, es publicado afuera, la gente tiende a entender más
rápidamente sus roles de interdependencia y a ver que la clave del éxito organizacional –y
del suyo propio–, no es competir por recursos limitados, sino colaborar para que los recursos
puedan ser maximizados. Esto a su vez lleva al reconocimiento y eliminación de procesos
redundantes y/o productos internos. Nuevamente, la información abierta, exacta y consistente
es crítica.
194
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
195
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Ajuste de Desempeño
El marco de trabajo del monitoreo o cuadro de mando del desempeño (Eckerson, 2006) en sí
mismo es un agente potente en el cambio organizacional. Hace esto al ayudar a la
organización a definir, comunicar y enfocarse en los resultados importantes claramente.
También brinda una retroalimentación consistente y a tiempo, que informa las decisiones
acerca de qué cambios son requeridos para beneficiar a la organización, sus clientes y sus
empleados. En este punto, hemos hablado vagamente acerca del concepto de mejora del
desempeño. Pero ¿qué es lo que en realidad está involucrado en la mejora del desempeño,
específicamente en lo que se refiere a un cambio real? La discusión de abajo intenta
responder a esta pregunta.
• Cambios de Proceso
¿Qué son las dinámicas del cambio de proceso para aquellos que son mandados a cambiar
algo por sus líderes? Todos, incluyendo a los individuos, equipos y grupos Inter.-
departamentales, atraviesan tres cambios de procesos críticos (Coghlan, 2000):
1. Percepción: El significado que el cambio tiene para ellos; el grado en el cual ellos
controlan el cambio; y el grado de confianza que los individuos tienen en esos
mandatos o promoción de cambio.
2. Detección del Impacto del Cambio: ¿El cambio será mejor; incierto pero
probablemente positivo; incierto; incierto pero probablemente negativo; amenazador
o destructivo?
3. Respuesta: el individuo puede negar; eludir, oponerse, resistirse, tolerar; aceptar,
apoyar o abrazar el cambio.
¿Qué factores impactan estos procesos? Un factor que tiene un impacto significativo es la
disponibilidad de información acerca del cambio, y de los procesos de comunicación entre
aquellos que ordenan el cambio y aquellos afectados por el. Recuerde las discusiones
anteriores acerca de los stakeholders, se notó que los stakeholders incluyen a ambos, aquellos
quienes pueden impactar el proceso de evaluación así como aquellos que serán
potencialmente impactados por sus resultados. Una comunicación abierta del proceso de
evaluación, de los hallazgos y recomendaciones impacta directamente sobre el cambio del
proceso. La falta de información promueve una sensación de ansiedad y resistencia,
particularmente cuando los individuos comienzan a crear sus propias historias acerca de lo
que está pasando, y qué pasará en el futuro.
Cualquier iniciativa de cambio, ya sea por el proceso de evaluación en sí mismo, o por las
recomendaciones que se desprendan de esa evaluación, debe atender a estros tres procesos.
Un plan de cambio que tenga en cuenta cómo estos cambios serán percibidos y evaluados por
los empleados debe ser derivado, para poder obtener las respuestas deseadas.
Mientras que resulta crítico tomar los pasos para gestionar el cambio apropiadamente – para
que resulte útil–, es importante considerar el otro lado de la moneda: la creación del cambio
196
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
(Kaufman & Lick, 2004). La creación del cambio es esencialmente qué estamos haciendo
cuando establecemos la dirección del cambio. Nosotros hacemos esto durante una
planificación estratégica auténtica y el proceso de detección de necesidades, donde
identificamos dónde queremos estar dentro de algunos años, y qué tenemos que lograr y
hacer en el entretiempo para poder llegar allí. Con suerte, fue a través de esos procesos que la
solución que ahora usted está afrontando con la evaluación, fue seleccionada. La gestión del
cambio es entonces lo que usted hace para asegurar que las cosas sucedan lo más suavemente
posible en su camino hacia su destino final. La evaluación es una de las herramientas que
facilita la navegación suave al brindarle información importante y necesaria para esa
navegación.
De acuerdo a Cummings y Worley (2005), las tres funciones clave que el equipo de liderazgo
debe jugar para facilitar la mejora continua y el cambio en la organización son:
1. Visión: Los líderes deben articular objetivos claros y creíbles, incluyendo la visión
general, con respecto a los estándares de desempeño.
2. Energía: Los líderes deben modelar la excitación personal y conductas de
compromiso que esperan de los otros, así como comunicar ejemplos tempranos de
éxito.
3. Apoyo: Los líderes deben brindar los recursos requeridos para llevar adelante el
cambio significativo, y alinear las consecuencias con los comportamientos deseables.
Las recomendaciones brindadas por el evaluador brindan un ingreso fundamental en el
proceso de visión de los líderes y otros stakeholders. Es a partir de esta visión final y de los
objetivos de apoyo, que surgen las iniciativas de cambio. El informe de evaluación también
juega un rol crítico en la motivación y energía de los stakeholders para entrar en acción.
Recuerde de capítulos anteriores que una consideración clave es desarrollar el informe para
que las responsabilidades de cada stakeholder estén claramente especificadas. Este es un
buen lugar para comenzar a clarificar expectativas y comportamientos descriptibles para el
proceso de cambio.
197
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Uno de los errores más comunes y fatales que cometen los líderes es castigar a quienes se
desempeñan bien, dándoles más para hacer, simplemente porque pueden, mientras que
recompensan a la incompetencia al no otorgarle las consecuencias apropiadas para aquellos
que no se desempeñan al nivel de los estándares establecidos. El ignorar el problema es
reforzarlo. El establecer el ambiente ideal requiere de un proceso de aprendizaje continuo,
donde los comportamientos sean probados y sus consecuencias detectadas, y el requerimiento
de modificaciones –si los hubiera–, sean implementados.
Es importante notar, que para lograr que esto suceda, los líderes deben recostarse en un
sistema de información confiable y válido, que los ayude a comunicar las estrategias, metas y
objetivos específicos de un modo claro y conciso a todos los empleados, consistentemente.
Los evaluadores pueden jugar un rol significativo en la creación de ese sistema. Este sistema
debe permitir a los líderes y a los empleados por igual, rastrear el desempeño organizacional,
del equipo y el individual, para que todos obtengan una retroalimentación de desempeño en
forma fácilmente accesible.
198
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 13
Recopilación de Inteligencia para la Toma de
Decisiones: Sistemas de Monitoreo de Desempeño
Berrah, Mauris, & Montmain (2008), sostienen que aún estando de acuerdo con la hipótesis
Tayloriana de que el desempeño general es simplemente la suma de desempeños elementales
independientes, simplificando la toma de decisiones. Sin embargo, los autores advierten: “en
el contexto actual de interacciones transversas entre criterios, se ha hecho más difícil para
quienes toman decisiones, identificar los criterios de desempeño que están causando un
desempeño general pobre, o presentando una necesidad de mejora de alta prioridad” pp.341.
199
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Algunos investigadores sugieren que las señales deben ser decodificadas como brechas de
desempeño (Pounds, 1969; Nutt, 1979; Cowan, 1986), y que la brecha será considerada
significativa cuando un indicador de desempeño importante –como la porción de mercado o
ganancias–, cae debajo de los criterios preestablecidos, e inversamente, la señal sería
ignorada si el desempeño iguala o excede los criterios de desempeño esperados. Cuando se
detecta una brecha de desempeño, ella también revela la magnitud de la preocupación que
vendrá (Cowan, 1990), esta magnitud puede ser una consideración principal en la
priorización de problemas de desempeño a ser resueltos. La toma de decisiones es entonces
emprendida para encontrar maneras de tratar con la eliminación de la brecha de desempeño,
y la reducción o eliminación de la preocupación.
Nutt (2006) señala otro acercamiento más peligroso en cuanto a la toma de decisiones, como
fuera propuesto por los investigadores de motivación social, con una visión diferente de este
proceso. Él nota que en la visión de motivación social, las acciones de quienes toman
decisiones son apuradas por la disonancia 12, equidad o consistencia relacionada de teorías,
donde las creencias de quienes toman decisiones, sus motivaciones e impulsos los tientan a
buscar la información pertinente a esas creencias, motivaciones e impulsos. Quienes toman
decisiones, tal vez a veces inconscientemente, forman la impresión de que sus conclusiones
son bien fundadas y provocan imparcialidades e influencias, al hacer que sus interpretaciones
parezcan justas para todos los preocupados por el tema. Nutt continúa, apuntando que estas
personas encargadas de tomar decisiones tienden a buscar información acerca de una
desviación para evitar sentir las señales que pueden advertir que su interpretación preferida
es inválida. La consecuencia sería que sólo algunos tipos de brechas de desempeño serán
reconocidas y otras ignoradas, dejándolas crecer y empeorando con el tiempo.
12
Un término primeramente propuesto por el psicólogo social Leon Festinger en 1957, el cual se refiere a la
percepción de incompatibilidad entre dos percepciones (por ejemplo: conocimiento, actitud, emoción, creencia
o comportamiento).
200
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Los sistemas de medición de desempeño (de aquí en adelante referenciado como SMD, (PMS
en inglés), son instrumentos que pueden apoyar una toma de decisión objetiva para la mejora
del desempeño 13. Desde una perspectiva global, el sistema de medición de desempeño es un
instrumento de criterios múltiples para informar a quienes toman decisiones acerca de una
variedad de cosas diferentes. Por ejemplo, puede rastrear el nivel actual de desempeño, la
serie de factores para un buen o mal desempeño, y los criterios por los cuales se requiere una
mejora en tiempo y forma. Un sistema de medición de desempeño receptivo también puede
rastrear los recursos consumidos para un desempeño observado, para determinar el valor neto
del desempeño (Berrah, et al., 2008). Una perspectiva que continúa la definición de valor del
desempeño de Gilbert (1978):
De hecho, muchos de los pasos del modelo ADDIE (Analysis, Design, Development,
Implementation, and Evaluation – Análisis, Diseño, Desarrollo, Implementación y
Evaluación) en la mejora del desempeño, pueden formar las bases para el conjunto de
objetivos y criterios a ser rastreados por el SMD. Un SMD puede hacerse a partir de la red de
objetivos de desempeño para ser consistentemente alineado respecto a la visión y misión de
la organización. Por ejemplo, los objetivos de la nueva iniciativa desarrollo de recursos
humanos, contribuye a los objetivos de las plantas de producción, las cuales a su vez
contribuyen con los objetivos de la organización. Por lo tanto, para apoyar las decisiones (por
ejemplo continuar solventando una iniciativa de desarrollo de recursos humanos, o eliminar
las barreras de la iniciativa de ese desarrollo, antes de decidir continuar o suspender su
subvención, etc.), la serie de desempeños debe ser revisada para comparar cualquier brecha y
comparar el conjunto de escenarios.
Los cuadros de mando del desempeño son tal vez el ejemplo más prominente de un sistema
de medición de desempeño y monitoreo. Ellos son capaces –si están bien diseñados–, de
brindar la información correcta en el momento correcto acerca de indicadores de desempeño
y procesos clave. Ellos pueden estar basados en Internet o en una intranet, pero la idea es que
los individuos que requieran información para tomar decisiones puedan acceder
convenientemente a los datos en tiempo real, o cercanamente real. Uno de los beneficios
clave es la mejora de justificación y poder para quienes toman las decisiones.
Los cuadros de mando del desempeño pueden brindar múltiples panoramas a múltiples
niveles de usuarios para que cada grupo tenga acceso a la información que está intrincada a
sus responsabilidades (por ejemplo, los ejecutivos pueden acceder a un panoramas que se
13
Sin embargo, debe ser notado que allí donde hayan involucradas personas, la objetividad absoluta no es
certera. Por ejemplo, algunos evaluadores, asesore e investigadores por igual son propensos –concientemente o
no– a utilizar una recolección de datos y herramientas de análisis inapropiadas, obteniendo cifras y conclusiones
que no son en realidad exactas. Aquellos que no poseen experiencia en la utilización de esas herramientas,
pueden ser fácilmente guiados en una dirección equivocada.
201
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
202
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Para atender la identificación de relaciones, Biticci et al., (2000), desarrollaron los Modelos
Cuantitativos para los Sistemas de Medición de Desempeño (Quantitative Models for
Performance Measurement Systems, o QMPMS), utilizando mapas cognitivos, diagramas de
causa y efecto, diagramas tipo árbol, y proceso de jerarquía analítica. En este trabajo, los
autores describieron cómo describir una técnica utilizada para la identificación de factores
que impactan el desempeño y sus relaciones, cómo estructurarlos jerárquicamente, cómo
cuantificar el efecto de los factores sobre el desempeño y cómo expresarlos cualitativamente.
Mientras tanto, Norton y Kaplan recomiendan la utilización de mapas estratégicos (2001).
Mientras que ambas perspectivas son en principio útiles para resolver la importancia de
establecer interdependencias, se necesita una mayor investigación y aplicación. Santos et. al
(2002), recomiendan el uso de ambos modelos cualitativo y cuantitativo para enriquecer el
análisis y producir un diseño de SMD más perspicaz.
203
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
La otra serie de desafíos que enfrenta el SMD está relacionada con el análisis de datos
apropiado, y el uso de la información para mejorar el desempeño. Un análisis riguroso debe
tener en cuenta el contexto de los datos de desempeño observados. Esto incluye una cantidad
ilimitada de otros factores que están en realidad afectando el desempeño, y con las
limitaciones obvias del cerebro humano y los SMD en la justificación de cada uno de los
factores de desempeño, la tarea no resulta ni directa ni sincera. Por ejemplo, nosotros
podemos tener una justificación por el hecho de que los logros en uno de los indicadores de
desempeño surgieron a expensas de otro indicador de desempeño. Si nosotros estudiamos la
independencia última del primero, podríamos arribar a conclusiones inexactas, las cuales
conllevarán a decisiones pobres. Los profesionales involucrados en la mejora de desempeño
se encuentran a menudo con esta situación al conducir detecciones de necesidades y análisis,
donde ellos limitan su búsqueda a los síntomas, y se detienen antes de identificar la brecha
real de desempeño y las causas de raíz.
Santos et al. (2000) señalan que muchos autores (por ejemplo Skinner 1974, Da Silveira y
Slack 2001, entre otros) han discutido acerca de que las organizaciones no pueden tener éxito
en todos y cada uno de los indicadores de desempeño, y que las decisiones explícitas acerca
de los intercambios deben ser definidas. Una vez más, aún queda por ser explorado mucho
trabajo en el área de los SMD.
Conclusión
El desarrollo de marcos de trabajo para la medición de desempeño, mejor integrados,
equilibrados y estratégicamente motivados, ha estado acompañado por un incremento en la
práctica de la medición del desempeño. Los SMD pueden ser una herramienta formidable en
el monitoreo y mejora continua del desempeño organizacional. Sin embargo, a pesar de los
significativos avances que han tomado lugar, aún existen algunos temas que requieren mayor
estudio, si es que los sistemas de medición serán completamente efectivos en el proceso de
gestión, a través del monitoreo y la toma de decisiones (Santos et al. 2002). Algunos temas
para mantener en mente al considerar el diseño de uso de los SMD son:
14
Referirse al Mejora Continua, del capítulo anterior para una revisión de estos conceptos.
204
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
205
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Capítulo 14
El Futuro de la Evaluación en la Mejora del Desempeño
206
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Una de las razones a menudo escuchadas para no conducir los procesos de mejora de
desempeño fundamental –tales como la detección de necesidades y la evaluación–, es la falta
de recursos: los fondos y el tiempo simplemente no están allí. Sin embargo, ni la detección de
necesidades ni la evaluación deben verse como intervenciones aisladas en sí mismas. En vez
de ello, ellas son las bases para la identificación, diseño, desarrollo, implementación y mejora
continua de las soluciones.
En cuanto los clientes y empleadores demanden justificaciones por los recursos consumidos,
uno esperará que tanto la evaluación como la medición de desempeño se moverán hacia los
primeros puestos de la lista de prioridad de los profesionales abocados a la mejora del
desempeño, de los clientes y otras personas involucradas en la toma de decisiones. La
evaluación continúa evolucionando tanto como un proceso dentro de la mejora del
desempeño, como una disciplina y campo en sí misma.
207
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
Conclusión
Tal vez el tema más dominante en este libro haya sido la mejora. Para que ocurra una mejora,
nosotros debemos estar bien predispuestos y ser capaces de aprender; para aceptar una
retroalimentación valiosa y convertirla en acción. Mucha investigación ha resaltado el poder
de la retroalimentación en la mejora del desempeño. La evaluación es un mecanismo central
a través del cual podemos obtener una retroalimentación útil. Es en este contexto que yo
espero que el lector haya visto el valor de la evaluación. Es en este contexto que uno verá a la
evaluación como un parte integral y necesaria en todo lo que hacemos, en vez de cómo un
elemento aislado e innecesario en el uso de recursos.
208
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
209
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Brewer, J., and Hunter, A. (1989). Multimethod research: A synthesis of styles. Newbury
Park: Sage.
• Brinkerhoff, R. (1981). Making evaluation more useful. Training & Development
Journal, 35(12), 66-70.
• Brinkerhoff, R. (2005). The Success Case Method: A Strategic Evaluation Approach to
Increasing the Value and Effect of Training. Advances in Developing Human
Resources. San Francisco: Vol.7, Iss. 1; pg. 86, 16 pgs
• Brinkerhoff, R. O. (1983). The success case: A low-cost, high-yield evaluation. Training
& Development Journal, 37(8), 58-61.
• Brinkerhoff, R. O. (1988). An integrated evaluation model for HRD. Training &
Development Journal, 427(2), 66-68.
• Brinkerhoff, R. O. (2003). The success case method: Find out quickly what's working and
what's not. San Francisco: Berrett-Koehler Publishers.
• Brinkerhoff, R. O., & Apking, A. M. (2001). High impact learning: Strategies for
leveraging business results from training. Cambridge, MA: Perseus Publishing.
• Brinkerhoff, R. O., & Jackson, G. (October, 2003). Managing education to maximize
impact. Chief Learning Office. Retrieved May 02, 2007 from
http://www.clomedia.com/content/templates/clo_feature.asp?articleid=269&zoneid=32
• Campbell, D. T., Stanley, J. C., & Gage, N. L. (1966). Experimental and quasi-
experimental designs for research. Chicago, IL: R. McNally.
• Carroll, A. (2000). Conceptual and consulting aspects of stakeholder theory, thinking,
and management. In Handbook of organizational consulting (2nd ed., Vol. 81, pp. 1045
p.). New York, NY: Marcel Dekker.
• Cascio, W.F. (1987). Applied Psychology in personnel management (3rd ed). Englewood
Cliffs, NJ: Prentice Hall.
• Clark, R. E., & Estes, F. (2000). A proposal for the collaborative development of
authentic performance technology. Performance Improvement, 38(4), 48-53.
• Clark, R. E., & Estes, F. (2002). Turning research into results: A guide to selecting the
right performance solutions. Atlanta, Ga.: CEP Press.
• Coghlan, D. (2000). Perceiving, evaluating, and responding to change: An interlevel
approach. In Handbook of organizational consulting (2nd ed., Vol. 81, pp. 1045 p.). New
York, NY: Marcel Dekker.
• Converse, J. M., & Presser, S. (1986). Survey questions : Handcrafting the standardized
questionnaire. Beverly Hills, CA: Sage Publications.
• Cooperrider, D. L., & Srivastva, S. (1987). Appreciative inquiry in organizational life. In
R. W. Woodman & W. A. Pasmore (Eds.), Research in organizational change and
development : An annual series featuring advances in theory, methodology and research
(Vol. 1, pp. 129-169). Greenwich, CT: JAI Press.
• Corcoran, C. (1997). IS managers need to put a price tag on productivity [Electronic
version]. InfoWorld, 19.
• Cooley, W. W., & Lohnes, P. R. (1976). Evaluation research in education. New York,
NY: Irvington Publishers : Distributed by Halsted Press.
• Cooperrider, D. L., & Srivastva, S. (1987). Appreciative inquiry in organizational life. In
R. W. Woodman & W. A. Pasmore (Eds.), Research in organizational change and
210
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
211
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
212
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Guerra, I., & Rodriguez, G. (2005). Social responsibility and educational planning.
Performance Improvement Quarterly, 18(3), 56-64.
• Gupta, P. (2004). Six Sigma Business Scorecard : ensuring performance for profit. New
York: McGraw-Hill.
• Harless, 1970 An Ounce of Analysis is Worth a Pound of Objectives
• Henderson, Davies & Willis, (2006). Australian Health Review. November 2006. V30. n
4
• Hofstadter D.R. & Dennett, D.C. (1981). The mind’s I: Fantasies and reflections on self
and soul. New York: Bantam Books.
• Holton, E. (1996). The flawed four-level evaluation model. Human Resource
Development Quarterly, 7(1), 5-21.
• Joint Committee on Standards for Educational Evaluation (1981). Standards for
evaluations of educational programs, projects, and materials. New York: McGraw-Hill.
• Joint Committee on Standards for Educational Evaluation (1994). The program
evaluation standards. Thousand Oaks, CA: Sage
• Kaplan, R.S., Norton, D.P. (1992), "The balanced scorecard – measures that drive
performance", Harvard Business Review, pp.71-9.
• Kaplan, R.S., Norton, D.P. (2001), The Strategy-Focused Organization – How Balanced
Scorecard Companies Thrive in the New Business Environment, Harvard Business
School Press, Boston, MA, .
• Kaufman, R. (1992). Strategic Planning Plus: An organizational guide. Newbury Park,
CA: Sage (Revised).
• Kaufman, R. A. (2000). Mega planning: Practical tools for organizational success.
Thousand Oaks, CA: Sage Publications.
• Kaufman, R. A. (2006a). Change, choices and consequences: A guide to mega thinking
and planning. Amherst, MA: HRD Press Inc.
• Kaufman, R. A. (2006b). Thirty seconds that can change your life: A decision-making
guide for those who refuse to be mediocre. Amherst, MA: HRD Press Inc.
• Kaufman, R. A., & Lick, D. (2004). How to get your organization balanced through
change creation. In M. L. Silberman & P. Philips (Eds.), The 2004 team and
organizational development sourcebook (pp. 255-267). Poughkeepsie, NY: Inkwell
Publishing.
• Kaufman, R. A., Guerra, I., & Platt, W. A. (2006). Practical evaluation for educators :
Finding what works and what doesn't. Thousand Oaks, CA: Corwin Press.
• Kaufman, R. A., & Clark, R. (1999). Re-establishing performance improvement as a
legitimate area of inquiry, activity, and contribution: Rules of the road. Performance
Improvement 38(9), 13-18.
• Kaufman, R., & Keller, J. M. (1994). Levels of evaluation: Beyond Kirkpatrick. Human
Resources Development Quarterly, 5(4), 371-380.
• Kirkpatrick, D.L (1959). Techniques for evaluating training programs. Journal of ASTD,
13(11), 21-26.
• Kirkpatrick, D.L. (1987). Evaluation. In R.L. Craig (ed). Training and development
handbook (pp. 301-310). New York: McGraw Hill.
213
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Kirkpatrick, D.L. (1994). Evaluating Training Programs: The Four Levels. San
Francisco, CA: Berrett-Koehler.
• Kirkpatrick, D.L. (2006). Seven keys to unlock the four levels of evaluation. Performance
Improvement Journal 45(7).
• Liston, C. (1999). Managing quality and standards. Buckingham, UK: Open University
Press.
• Lynch, R.L., Cross, K.F. (1991), Measure Up! How to Measure Corporate Performance,
Blackwell Publishers, Oxford, .
• Lynch. D. Greer, A,, Larson, L., Cummings, D., Harriett, B., Springer Dreyfus. K., Clay,
M. (2003). Descriptive metaevaluation: Case Study of an Interdisciplinary Curriculum.
Evaluation & the Health Professions. Beverly Hills. Vol.26(4), pg. 44-461
• Madaus, G. & Stufflebeam, D. (1989). Educational evaluation: Classic works of Ralph
W. Tyler. Boston: Kluwer Academic Publishers.
• Mager, R. F. (1997). Preparing instructional objectives: A critical tool in the
development of effective instruction (3rd ed.). Atlanta, GA: Center for Effective
Performance.
• Maskell, B. (1992). Performance Measurement for World Class Manufacturing: A Model
for American Companies. Productivity Press, Cambridge
• McMillan, J. H. (1992). Educational research: Fundamentals for the consumer. New
York, NY: HarperCollins
• Miles, M. B., & Huberman, A. M. (1994). Qualitative data analysis: An expanded
sourcebook (2nd ed.). Thousand Oaks, CA: Sage Publications.
• Mohr, L. B. (1992). Impact analysis for program evaluation. Newbury Park, CA: Sage
Publications.
• Neely, A. (1999), "The performance measurement revolution: why now and what next?",
International Journal of Operations & Production Management, Vol. 19 No.2, pp.205-
28.
• Neely, A., Adams, C., Kennerley, M. (2002), The Performance Prism: The Scorecard for
Measuring and Managing Business Success, FT Prentice-Hall, London, .
• Neely, A.D., Mills, J.F., Plats, K.W., Gregory, M.J. and Richards, A.H., (1991).
Realizing Strategy. Mgmt. Accounting, 49-53.
• Niven, P. R. (2002). Balanced scorecard step by step: Maximizing performance and
maintaining results. Retrieved February, 8, 2006.
• Noe, R. A. (1986). Trainees' attributes and attitudes: Neglected influences on training
effectiveness. Academy of Management Review, 11(4), 736-749.
• Nutt P. (1979). Calling out and calling off the dogs: managerial diagnoses in
organizations. Academy of Management Review ;4(2):203–14.
• Nutt, P. (2006). Intelligence gathering for decision making. Omega N. 25 (604-622).
• Nutt, P. (2007). Intelligence gathering for decision making. Omega No. 35. pp 604-622.
• Patton, M (1984). An alternative evaluation approach for the problem-solving training
program: A Utilization-focused evaluation program. Evaluation and Program Planning,
7, 189-192
• Patton, M. (1980). Qualitative evaluation methods. Thousand Oaks, CA: Sage
214
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Patton, M. Q. (1997). Utilization-focused evaluation: The new century text (third edition).
Thousand Oaks, CA: Sage Publications.
• Patton, M. Q. (2003). Utilization-focused evaluation. In T. Kellaghan & D.L.
Stufflebeam (Eds). International handbook of educational evaluation (pp223-244).
Norwell, MA: Kluwer
• Pershing, J. (2006). Handbook of Human Performance Technology: Principels,
practices, potential (Ed). San Francisco, CA: John Wiley & Sons.
• Peters, T. J., & Waterman, R. H. (1982). In search of excellence: Lessons from America's
best-run companies (1st ed.). New York, NY: Harper & Row.
• Phillips, J. (1997a). Handbook of Training Evaluation and Measurement Methods. 3rd ed.
Houston: Gulf Publishing Co.
• Phillips, J. (1997b). Return on investment in training and performance improvement
programs. Woburn, MA: Butterworth-Heinemann.
• Phillips, J. (1997c). Measuring return on investment in action: Volume 2. (Ed.).
Alexandria, VA: American Society for Training & Development.
• Popcorn, F. (1991). The Popcorn report: Faith Popcorn on the future of your company,
your world, your life (1st ed.). New York: Doubleday.
• Popham, W. J. (1975). Educational evaluation. Englewood Cliffs, NJ: Prentice-Hall.
• Pounds W. (1969). The process of problem finding. Industrial Management Review
1969; 1–19.
• Provus. M. (1971). The discrepancy model. For educational program improvement and
assessment. Berkley, CA. McCutchan Publishing. Co.
• Pyzdek, T. (2003). The six sigma handbook: A complete guide for green belts, black
belts, and managers at all levels. New York, NY: McGraw-Hill.
• Rea, L. M., & Parker, R. A. (1997). Designing and conducting survey research: A
comprehensive guide (2nd ed.). San Francisco, CA: Jossey-Bass Publishers.
• Richards, T., & Richards, L. (1994). Using computers in qualitative analysis. In N. K.
Denzin & Y. S. Lincoln (Eds.), Handbook of qualitative research (pp. 643). Thousand
Oaks, CA: Sage Publications.
• Rossett, A. (1987). Training needs assessment. Englewood Cliffs, N.J.: Educational
Technology.
• Rossett, A. (1999). Analysis for human performance technology. In H. D. Stolovitch
and E. J. Keeps (Eds). Handbook for Human Performance Technology. 2nd Ed. San
Francisco. Jossey-Bass Pfeiffer.
• Rothwell, W. (1996). ASTD models for human performance improvement: Roles,
competencies, and outputs. Alexandria, VA: The American Society for Training and
Development.
• Rummler, G. A. (2004). Serious performance consulting: According to Rummler.
Silver Spring, MD: International Society for Performance Improvement.
• Rummler, G. A., & Brache, A. P. (1995). Improving performance: How to manage
the white space on the organization chart (2nd ed.). San Francisco, CA: Jossey-Bass.
• Saari, LM, Johnson, TR. McLaughlin SD, Zimmerle DM (1988). A survey of
management training and education practices in U.S. companies. Personnel Psychology,
41. 731-743.
215
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
• Sanders (1979). The technology and art of evaluation. A review of seven evaluation
primers. Evaluation News, 12 2-7
• Santos, S., Belton, V., Howick, S. (2002). Adding value to performance measurement by
using system dynamics and multicriteria analysis. International Journal of Operations &
Production Management. 22(1), 1246 - 1272
• Scriven, M (1968). An introduction to metaevaluation. Educational Products Report,
2(5). 36-38.
• Scriven, M. (1967). The methodology of evaluation.. In R. Tyler, R. Gagne, and M.
Scriven (eds). Perspectives on curriculum evaluation. New York: McGraw Hills.
• Scriven, M. (1973). Goal free evaluation. In E. R. House (Ed.), School evaluation: The
politics & process (pp. 331). Berkeley, CA: Calif., McCutchan Pub. Corp.
• Scriven, M (1974). Standards for the evaluation of educational programs and products. In
G.D. Borich (Ed). Evaluating educational programs and products. Englewood Wood
Cliffs, NJ: Educational Technology.
• Scriven, M. (1991). Evaluation Thesaurus (4th edition). Thousand Oaks, CA: Sage.
• Scriven, M. (2002). Key evaluation checklist. [On-line] available:
www.wmich.edu/evalctr/checklists Retrieved 5-8-07
• Skinner, W. (1974), "The focused factory", Harvard Business Review, pp.113-21.
• Stake, R. (1967). The countenance of education evaluation. Teachers College Record,
68, 523-540
• Stake, R. (1970). Objectives, priorities, and other judgment data. Review of Education
Research, 40 181-212.
• Stake, R. E. (1973). Evaluation design, instrumentation, data collection, and analysis of
data. In B. R. Worthen & J. R. Sanders (Eds.), Educational evaluation: Theory and
practice (pp. 372). Worthington, OH: Charles A. Jones Pub Co.
• Stake, R. (1975). Program evaluation, particularly responsive evaluation. Kalamazoo:
Evaluation Center, Western Michigan University
• Stake, R. E. (2004). Standards-based & responsive evaluation. from
http://www.loc.gov/catdir/toc/ecip046/2003014865.html
• Stolovitch, H. D., Keeps, E. J., & Rodrigue, D. (1999). Skill sets for the human
performance technologist. In H. D. Stolovitch & E. J. Keeps (Eds.), Handbook of human
performance technology : Improving individual and organizational performance
worldwide. (2nd ed., pp. 691). San Francisco, CA: Jossey-Bass/Pfeiffer.
• Stufflebeam, D. (1967). The evaluation of context, input, process, and product in
elementary and secondary education. Paper commissioned by and presented to the U.S.
office of Education
• Stufflebeam, D. (1971). The Use of Experimental Design in Educational Evaluation.
Journal of Educational Measurement, Vol. 8, No. 4 (Winter, 1971), pp. 267-274
• Stufflebeam, D. Foley, W., Gephart, W., Guba, E., Hammond, R., Merriman, H., &
Provus, M. (1971). Educational evaluation and decision making. Itasca, IL: Peacock.
• Stufflebeam, D. & Shinkfield, A. (2007). Evaluation theory, models, and applications.
San Francisco: John Wiley & Sons.
• Stufflebeam, D. L., & Webster, W. J. (1980). An analysis of alternative approaches to
evaluation. Educational Evaluation and Policy Analysis, 2(3), 5-19.
216
Evaluación y Mejora Continua:
Conceptos y Herramientas Para la Medición y Mejora del Desempeño
217