Está en la página 1de 8

SÍNTESIS COMPARATIVA DE LOS

MODELOS DE EVALUACIÓN DE PROGRAMAS

Máster en Investigación e Innovación en Educación


UNED, curso 2010-2011

Alumnos/as:
Francisco Crespo Molero
Cristina García López
María Carmen Rodríguez Soto
María Jesús Rubio Martínez
INTRODUCCIÓN

A petición de la asignatura Investigación Evaluativa, impartida por los profesores Ramón


Pérez Juste y Catalina Martínez Mediano, se ha elaborado este cuadro comparativo que se
concreta en una síntesis de los aspectos más importantes de los diferentes modelos de
evaluación de programas trabajados durante este cuatrimestre.

La reflexión sobre los distintos modelos nos ha facilitado conocerlos mejor y profundizar
en sus puntos básicos y en su desarrollo.

Para la elaboración del documento, se han utilizando las nuevas tecnologías de la


información y la comunicación, mediante la creación de un documento virtual en google docs
que nos ha permitido trabajar en línea y en tiempo real de manera cooperativa. Esto ha
facilitado la cohesión y el trabajo en equipo en las circunstancias que nos ocupa, la realización
de un máster online.

.
SÍNTESIS COMPARATIVA DE LOS MODELOS DE EVALUACIÓN DE PROGRAMAS
ele

TYLER CRONBACH STUFFLEBEAM SCRIVEN STAKE PÉREZ JUSTE


(modelo por (modelo CIPP) (modelo de evaluación (Modelos complejos)
objetivos) respondiente)

-Valorar la eficacia del -La toma de decisiones -La toma de decisiones - Como servicio, orientada -Dar respuesta a las -Toma de decisiones para
programa para la toma mediante un examen informada al consumidor→ necesidades de los usuarios conseguir la mejora tanto
de decisiones. sistemático, tanto del →información útil para Determinar la calidad, y beneficiarios de los del programa como del
proceso como de los ajustar las mejoras a las mérito valor y logros del programas. personal implicado y, de
resultados del necesidades reales: programa u objeto que se modo indirecto, del cuerpo
OBJETIVO programa. *Comprensión de los evalúa. social en que se encuentra
DE LA fenómenos -Libre de costos: equilibrio inmerso.
EVALUACIÓN *Solución de coste-beneficio positivo -Búsqueda de la mejora
problemas. -Meta-evaluación continuada.
-Meta-evaluación: juicio -La evaluación como
sobre la calidad y los investigación.
méritos de una
evaluación.

-Evaluación basada en -Diseño funcional→ -Proceso mediante el -Evaluación como ciencia -La evaluación como -Proceso sistemático de
objetivos. Examen sistemático de cual se proporciona de la valoración: Proceso de proceso para descubrir el recogida de información
-Proceso mediante el los acontecimientos información útil y determinar el valor y la mérito y las deficiencias de rigurosa (valiosa, válida y
cual se proporciona que ocurren durante el descriptiva acerca del calidad de algo, siendo las un programa. fiable) orientado a valorar la
información útil que proceso de aplicación valor y mérito de las evaluaciones el resultado de -La evaluación como calidad y logros de un
sirva de guía para la de un programa y de metas, la planificación, dicho proceso; El valor, servicio: (búsqueda de programa como base para la
toma de decisiones y las consecuencias la realización y el mérito o calidad como soluciones): Debe servir a posterior toma de decisiones
ayude a comprender (resultados) que se impacto de un objeto constructos procedentes de las personas particulares de mejora.
CONCEPTO los fenómenos derivan del mismo. determinado, que sirva variables observables que participan en el -Evaluación como
EVALUATIVO implicados. -Planificación de guía para la toma de -Enfoque libre de objetivos programa, más que a sus valoración para la toma de
estructurada decisiones, solucionar o evaluación libre de metas patrocinadores o directores. decisiones: tiene en cuenta
problemas de previamente establecidas: -La evaluación como reflejo tanto los procesos como los
responsabilidad y minimizar los prejuicios en de valores: Emisión de resultados (inicial, durante
promover la la construcción de las juicios de valor por parte de el proceso y final).
comprensión de los afirmaciones de valor los clientes, no de los -Establecimiento de planes
fenómenos implicados - Evaluación de resultados, evaluadores. Pluralidad que de mejora de forma
efectos y logros. exige la búsqueda de continuada.
consenso.

-Sumativa: Determinar -Formativa: Ayudar a -Formativa y sumativa -Emisión de juicios con dos -Formativa: Tomar - Formativa y sumativa
FUNCIONES la congruencia entre la mejora del programa para maximizar la funciones: formativa y decisiones
DE LA los objetivos y a la de otros utilización de los sumativa -Acreditación institucional
EVALUACIÓN
propuestos y los programas con similar resultados de evaluación -Mejora del funcionamiento
logros conseguidos propósito y interno de una organización.
(eficacia) características.
- Para los participantes -Para toda la -Para el que toma las -Para todos los que quieran -Para los participantes del -Para todos los interesados
(educadores y comunidad decisiones y para todos saber acerca de la calidad de programa. en el programa.
PARA QUIÉN educandos) aquellos que participan un producto, de un - Para el propio programa.
en el programa. programa, de un objeto, del
personal, etc.

-Técnico o experto -Técnico o experto -Especialista al servicio - Externo. Propone que -Independiente, forma parte - Experto que debe tener
externo. externo. de la organización y de desconozca los objetivos del de un equipo externo, conocimientos exhaustivos
- Mediador entre los miembros del programa para que sea más investiga méritos y sobre la evaluación de
política y diseño de programa. Trabajo junto objetivo a la hora de valorar deficiencias del evaluado. programas y , además,
programas. con el personal que los resultados previstos e Es técnico, analista y juez. conocimiento del diseño y
aplica los programas imprevistos. - Respondiente, actúa como ejecución del programa a
para evaluar resultados facilitador: interpreta las evaluar para poder
CARACTERÍSTICAS (escalas de valoración, necesidades y resultados del implementar un proceso
DEL pruebas de logro o programa para y con los evaluativo en que se puedan
EVALUADOR
rendimiento,…) implicados; Comprende la tomar medidas rápidas para
pluralidad de intereses y los la mejora en cuanto se
refleja en sus informes; detecten deficiencias con el
Negocia con los fin de asegurar el logro de
participantes los temas los objetivos.
sobre los que organizará el
estudio evaluativo; Ayuda a
conocer las circunstancias,
problemas y valoraciones
del programa a los
interesados, mediante la
experiencia vicaria.

- Para valorar logros - Estudios analíticos en - Más adecuado para - Valorar la calidad o mérito -Más adecuado para -Cuando se quiera saber el
(outputs) y profundidad. programas amplios, más de un programa: ¿cubre las problemas particulares y a grado de eficacia con que
rendimiento. estructurados que necesidades del las cuestiones reales del un programa consigue el
ÁMBITIOS Y
afectan a la institución consumidor? aula que afectan a los logro de las metas para la
CONTEXTOS MÁS
ADECUADOS PARA educativa y no tanto a - Justificar costos alumn@s y profesores cuales fue elaborado en
APLICAR un aula concreta (pe. la cuando desarrollan un base aun proceso de mejora
atención a la programa educativo continua que supone la
diversidad). determinado. monitorización de las
diferentes etapas del
programa: inicial,
procesual y final.
FASES 1. Especificar metas y -Elementos básicos: - Cuatro tipos distintos -Fases: - 12 pasos que no siguen 1. Inicial o diagnóstica (del
PRINCIPALES objetivos del UTOS de evaluación. 1. Análisis del contexto una estructura lineal. programa en sí mismo;
DE LA programa. 1. Unidades que son 1. Evaluación del (necesidades de los -Esquema de actuación: formativa): Establecer la
APLICACIÓN
2. Delimitación de sometidas a contexto (C) usuarios). 1. Examen de la base calidad técnica del
estos objetivos de evaluación, individuos 2. Evaluación de los 2. Análisis del proceso conceptual del programa. programa, su viabilidad y su
modo jerárquico (de o grupos participantes. inputs (I) (entrada (formativa). 2. Descripción: evaluabilidad; poner en
mayor a menor 2. Tratamiento del /diseño/ planificación) 3. Análisis del producto antecedentes, actividades, marcha el programa en
concreción) programa de 3. Evaluación del (sumativa). resultados. condiciones óptimas.
3. Seleccionar o evaluación. proceso (P) -Meta-evaluación. 3. Valoración del programa. 2. En el desarrollo (etapa
elaborar instrumentos 3. Operaciones del 4).Evaluación del 1. Determinación de los procesual; formativa):
adecuados para medir evaluador para la producto (P) criterios del mérito del Facilitar la toma a tiempo
las situaciones o recogida y análisis de -Proceso: programa. de decisiones de mejora;
condiciones del datos o la elaboración 1. Selección de la 2. Determinación de las Acumular información para
programa en que se de conclusiones. información necesaria. normas sobre el mérito. mejorar futuras del
produce o no la 4. Situaciones: 2. Obtención de 3. La medida o evaluación programa.
consecución de dichos contexto social en el información. de la realización. 3.Final (sumativa):
objetivos. que el estudio tiene 3. Proporcionar la Comprobar la eficacia del
4. Recopilar la lugar (clima social, información a las partes programa
información necesaria económico, político,...) interesadas. 4. Institucionalización de la
sobre la consecución o FASES: evaluación de programas
no de los objetivos. 1. Provisional: estudio
5. Análisis piloto del programa a
comparativo de lo pequeña escala.
logrado, que se deduce 2. Súper-realización: se
de la información reelabora el programa
recopilada y de lo que para probar su éxito.
quería lograr 3. Prototípico: se aplica
(objetivos/metas el programa bajo las
establecidas condiciones más
previamente). próximas a la realidad.
4. Operación del
programa: el programa
se aplica.

METODOLOGÍA -Cuantitativa. - -Metodología -Metodología diversa -Perspectivista, múltiple: -Emergente; Los métodos -Metodologías
EVALUATIVA Comparación entre cuantitativa aunque para cada tipo de Múltiples perspectivas deben ajustarse a las cuantitativas y cualitativas
grupos admite instrumentos evaluación. Mixta. para obtener un retrato situaciones en las que se - Múltiple.
de tipo cualitativo. más amplio y completo de desarrolla el programa Complementariedad
la realidad (evitando -Estudio de casos en la metodológica
distorsiones y prejuicios). investigación cualitativa.
-Diversa, mixta.
- Resultados finales -Estudios de procesos, -De las necesidades, de -Tanto la esperada como la -Todo lo que vaya -De tipo diverso: sobre el
TIPO DE del programa o actitudes y logros. los recursos, del no esperada. ocurriendo en el programa. propio programa, de los
INFORMACIÓN A producto. - Procesos de E/A funcionamiento y del contextos, de los procesos y
RECOGER
-Medida de - Actitudes del impacto. de los resultados.
consecución de los alumnado y
objetivos previstos. profesorado.
- Resultados de los
alumnos.

MÉTODOS, - Escalas de medida, -Variados, diversos. -Se utilizan -Lógica probativa: -Observación entrevista, - Variados: Observación
INSTRUMENTOS Y test de rendimiento o instrumentos y técnicas 1. Determinar objeto que va análisis de informes,... entrevista, pruebas,
TÉCNICAS de ejecución, como las escalas de a ser evaluado. cuestionarios, etc.
cuestionarios. valoración, test de logro 2. Establecimiento e normas
o rendimiento, y criterios de mérito y
entrevistas, calidad de los programas.
cuestionarios, etc. 3. Resumir los resultados en
un juicio evaluativo.
-Listas de claves de control
de la evaluación.

TIPO DE INFORME -Descriptivo -Narrativo -Frecuente y para -Descriptivo -Fotográfico, narrativo -Descriptivo
DE RESULTADOS proporcionar una guía -El informe final se realiza (citas literales, ilustraciones,
para la mejora del después de la entrega de un metáforas,…), holista e
programa. borrador para que sea informal. Se presentan
revisado y criticado (meta- informes al inicio y durante
evaluación). Puede incluir la evaluación como medida
recomendaciones sobre el para ir redefiniendo los
uso o destino de la temas propuestos o cambiar
evaluación y posibilidades las prioridades de la
de generalización a otras indagación, si fuera
personas, programas y necesario.
situaciones.

POSIBLE - Ninguna, se centra -Naturalista. -La que permitan el -La que permite la validez - Naturalista, experiencia -La que permita el diseño
GENERALIZACIÓN en el análisis de -Tres niveles de muestreo y la externa dificultada por la vicaria: Los participantes - Al tratarse de un modelo
objetivos, sólo evalúa concreción- metodología utilizada. relatividad de los criterios pueden elaborar sus propios evaluativo de carácter
el programa. generalización: teoría de valor. juicios de valor, leyendo el investigativo, la
de los UTOS. informe descriptivo que comparación con otros
realiza el evaluador; programas sería pertinente.
También comparten la toma De esta manera
de decisiones para la encontramos que sí podría
realización de los cambios tener cierto grado de
para la mejora necesarios. generalización.
UTILIDAD DE LOS -Hacer que las -Para la formación de -Para tomar decisiones -Para valorar la calidad de -Para los participantes en el -Para la mejora tanto del
HALLAZGOS escuelas (y la la sociedad. de mejora los objetos programa, para el lector. programa como de los
educación) sean más - La función política participantes y de la propia
eficientes y efectivas: de la evaluación: las comunidad.
que los estudiantes instituciones políticas
sean mejor aprenden de la
enseñados. experiencia evaluativa
y la utilizan para
promocionar y/o
reforzar sus proyectos
políticos.

CRITERIOS PARA -Los objetivos se -Validez externa. -Valor y mérito del - Listas claves de control -Los méritos y deficiencias -La rigurosidad: (validez,
JUZGAR convierten en los - Objetivos bien programa: Utilidad, de la Evaluación. de los programas ya que fiabilidad).
EVALUACIONES criterios: los fines definidos mejor que factibilidad, ética y -La meta-evaluación. ayudan a los participantes -Valoración a partir de
antes que los medios. en la comparación exacta. a incrementar su criterios y referencias
con otros grupos o comprensión y a responder preespecificados y, de la
cursos (evaluación a sus necesidades. información técnicamente
con referencia a diseñada y
criterio). sistemáticamente recogida.

CONTRIBUCIONES -La evaluación gana -Diseños funcionales -Se introduce la -Listas de claves de -Estudio de casos como -Gran contribución a la
en alcance y en y criterios de validez evaluación de contextos, control para la evaluación método analítico de teoría de programas y a la
ejecución práctica. interna y externa del procesos y también del (LCE) . investigación para aplicar defensa de la
-La evaluación como autor. diseño. - Formas estandarizadas a organizaciones y grupos complementariedad
parte misma del -Incluye la variable para recoger y comunicar y el modelo de evaluación metodológica y técnica en
diseño de los proceso. la información evaluativa comprensiva y basada en la evaluación de
programas. sobre productos educativos estándares. programas.
-Los programas de (procesos educativos, -Cooperación entre
enseñanza como contenidos, posibilidad de evaluador y participantes.
instrumento de transferencia, eficacia).
educación efectivo. -El contrato en la toma de
decisiones.
- Mejora del producto:
beneficio para todos.
-La definición de los -Gran complejidad en el - Posible aumento del -El evaluador puede - Aparente subjetividad y - Gran cantidad de
objetivos a veces es análisis, muy centrado riesgo en el uso de sustituir los objetivos del dificultad para representar indicadores (74 distribuidos
arbitraria. en criterios de validez. resultados. programa por los propios. los intereses de forma en los tres momentos de
-El conocimiento Scriven lo resuelve equilibrada. evaluación), lo que supone
previo de los centrando el resultado de la -Hacer generalizaciones aún que:
objetivos puede sesgar evaluación en el producto cuando sus informes son 1.Si no se cuenta con
el resultado de la que el programa ha muy accesibles. personal bien preparado,
evaluación. generado, que es más -Dificultad en distinguir lo éste se verá incapacitado
- La evaluación como objetivable, desvinculado la que es descripción de lo que para aplicarlos durante la
DEBILIDADES acontecimiento subjetividad del evaluador. es análisis. evaluación.
terminal que solo 2.Si no se conoce el
permite juicios sobre programa a implementar
el producto final. será difícil predecir
situaciones que favorezcan
su concreción en la etapa
inicial y de proceso;
3. También se puede fallar
al escoger la metodología
(diseños y técnicas) en el
momento final o de
presentación de resultados
por lo que, estos puede que
no sean muestras de la
realidad que se pretende
mostrar y se tenga que
volver al punto de partida.

También podría gustarte