Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capitulo 1
Capitulo 1
¿QUE?
OBJETO
Contexto
Necesidades
¿PARA QUÉ? Objetivos ¿CÓMO?
Contenidos
FINALIDAD Instituciones MODELO
Profesores Experimental
Alumnos Naturalista
Metodología Basado en demanda
Diagnóstica Recursos Basado en costos
Formativa ...... Toma de decisiones
Sumativa Verificación logros
........
Cuantitativa
Cualitativa
.....
EVALUACIÓN
Profesores
Alumnos
Equipo directivo
Observación .....
Inicial Entrevistas Usuario
Continua Cuestionarios Experto
Final Tests .....
Diferida Pruebas Objetivas Autoevaluación
Escalas Heteroevaluación
¿CUÁNDO? ...... Interna-externa ¿QUIÉN?
Validez
MOMENTO Fiabilidad EVALUADOR
Pertinencia
.......
¿¿CONQUÉ?
INSTRUMENTO
Adecuación a las
Coherencia con las Adecuación a Adecuación a los
REFERENTE finalidades definidas por
necesidades formativas
determinados principios participantes
del contexto inmediato
la política de formación psicopedagógicos (necesidades,
expectativas,
intereses
e) preventiva
f) prospectiva
c) formativa a) predictiva g) control calidad
d) certificativa b) reguladora
l) con.rentabilidad
m) est. viabilidad
h) descriptiva
k) desarrollo
i) verificación
j) heurística
entre los hechos (logros) y los objetivos -modelo de evaluación por objetivos-,
la identificación de las necesidades actuales y potenciales de las audiencias,
los ideales o valores sociales o el estándar de conocimientos estructurados por
los expertos u otros grupos relevantes. El tabla 2 muestra una breve síntesis
de los modelos más conocidos en evaluación de programas.
Además, el modelo de interpretación puede basarse en la racionalidad
positivista (científico-técnico), en la asignación de valores de la realidad
(interpretativo-fenomenológico) o enfatizar el sentido político que adopta
cualquier situación (sociocrítico).
e) La instrumentalización nos remite a las herramientas que han de servir para
obtener la información considerada como necesaria para la evaluación.
Instrumentos y técnicas de recogida de información estructurados,
semiestructurados o sin estructurar, susceptibles de tratamientos cuantitativos
o cualitativos según el objeto, pero en cualquier caso, válidos, fiables,
pertinentes, etc. como características técnicas exigibles a cualquiera de ellos.
En una palabra, complementariedad y triangulación de instrumentos.
f) El evaluador se convierte en un eje igualmente importante en el hecho
evaluativo. Además de los implicados en el proceso formativo, están los
expertos, lo cual nos puede permitir diferenciar entre evaluación interna y
evaluación externa, entre heteroevaluación y autoevaluación. Por la relevancia
de la problemática generada en torno a esta dimensión, con posterioridad
nuevamente repararemos sobre él.
Al margen de las ventajas e inconvenientes de una y otra, suelen combinarse
en la práctica y utilizarse como elemento de complementariedad. Con todo, lo
que se evidencia cada día con más fuerza es la necesidad de capacitación
técnica para poder evaluar. El conocimiento de técnicas, instrumentos,
metodologías, etc. en aras de una pretendida "objetividad" (intersubjetividad)
es un requisito formativo para los protagonistas de la evaluación.
g) El referente es la dimensión más diferenciadora de la evaluación. Fuente de
criterios e indicadores de evaluación, está conectada con el resto de las
dimensiones. En la evaluación de programas, no cabe duda que el referente
debe pasar por la coherencia con la política formativa, la contextualización, los
principios psicopedagógicos del aprendizaje adulto y la consideración de los
participantes como elementos nucleares dentro de los cuales existe toda una
gama de indicadores para la evaluación.
Modelo Verificación de logros E. respondente Toma de decisiones Sin referencia a metas E. iluminativa Crítica artística
Organizador previo -Objetivos -Problemas localizados -Situaciones decisivas -Necesidades y valores -Problemas y necesidades -Efectos
sociales localizados
Objetivo -Relacionar los resultados -Facilitar la comprensión -Proporcionar -Juzgar los méritos relativos -Estudiar del programa, -Ofrecer una representación
con los objetivos de las actividades y su conocimientos suficientes de bienes y servicios intentando clarificar y valoración de la práctica
valoración en una teoría y una base valorativa para alternativos cuestiones, ayudar al formativa y sus
determinada y desde tomar y justificar las innovador y a otras partes consecuencias dentro de su
distintas perspectivas decisiones interesadas a identificar los contexto
-Ayudar a los clientes procedimientos y aspectos
del programa que pueden
conseguir los resultados
deseados
Audiencia -Planificadores y directivos Comunidad y grupo de -Los que toman decisiones -Los consumidores -Innovadores y personas -Comunidad y grupo de
del programa clientes en zonas locales y involucradas clientes en zonas locales
los expertos
Cuestiones previas -¿Qué alumnos alcanzan ¿Cuál es la historia de un -¿Cómo planificar, ejecutar -¿Cuál es el valor de un -¿Cómo opera o funciona -¿Cuáles son las
los objetivos? programa , sus y reciclar para promover el programa, dados sus costes, un programa, cómo influyen características y cualidades
antecedentes, crecimiento y desarrollo a las necesidades concretas de en él los contextos donde de los fenómenos, cuáles
operaciones, efectos un coste razonable? los consumidores y los se aplica? son las cualidades
secundarios, logros valores de la sociedad en emergentes de una clase o
accidentales, resultados?. general? programa que se está
evaluando?
Metodología Cuantitativa Cualitativa -Cuantitativa Cuantitativo-cualitativa -Cualitativa -Cualitativa
-Planificación experimental -Descripción -Planificación experimental -Planificación experimental -Estudio de casos -Estudio de casos
-Comparación entre grupos -Estudio de casos -Valoración de -Evaluación sin metas
necesidades -Análisis de coste
-Observación -Comparación-
-Estudios piloto experimentación
Instrumentos y -Pruebas objetivas -Informes -Revisión de documentos -Listas de control -Observación -Crítica artística
técnicas -Tests estandarizados de -Entrevistas -Audiciones -Tests diagnósticos -Entrevista
rendimiento pedagógico Sociodrama -Entrevistas -Entrevistas
-Observación Observación -Tests diagnósticos -Informes, etc.
predeterminada -Visitas
-Escalas de autovaloración
Pioneros TYLER STAKE STUFFLEBEAM SCRIVEN PARLETT Y HAMILTON EISNER
Proceso -Establecer metas u -Descripción -Análisis de tareas -Valoración de necesidades -Observación -Descripción
objetivos .antecedentes, Plan de obtención de -Evaluación de metas -Investigación -Interpretación
-Definir los objetivos en transacciones, información -Comparación con otras -Explicación -Valoración
términos de resultados -Plan para el informe sobre alternativas
comportamiento resultados -Examinar según coste y
-Establecer o desarrollar -Juicio -Plan para la efectividad
técnicas e instrumentos . antecedentes, administración del estudio -Combinación de la
Recopilar datos transacciones, evaluación del personal con
Comparar los datos con los resultados la del programa.
objetivos
REALIDAD
PROGRAMA DESARROLLO
PROYECTO PROGRAMA PLANIFICACIÓN
Gráfico 3.- Relación entre el nivel de planificación y evaluación de un programa
* Eval. implementación
* Puesta en marcha, * Eval. cobertura
desarrollo y gestión del * Eval. proceso
programa
CONTEXTO SOCIO
-CULTURAL
DEFINIR:
POLÍTICA Finalidades
Grupo destinatario
INSTITUCIÓN
Grado Autonomía
EV. POLÍTICA
DIAGNO. FORMACIÓN
A.-
JUSTIFICACIÓN
DETECTAR
NECESIDADES
Instrumentalizac.
Necesidades Necesidades Necesidades Necesidades Configurar grupo
normativas Expresadas Percibidas Comparadas de incidencia
B.- DISEÑO
Objetivos
Acciones ESTRUCTURAR
Recursos EVAL. ELABORACIÓN Participación
Responsables ...
PLANIFI- DEL
Evaluación
CACION PROGRAMA
Temporalizac.
ESTABLECER
EVAL. EVALUACIÓN Receptores
RESULTADOS DEL información.
Núcleos de decisión
PROGRAMA
Funcionamiento de la
Institución tras el proceso
de formación
Mejora
Situación de
Funcionamiento “normal conseguida
materialización de los
“ de la Institución efectos de la acción
PROGRAMA
• Decisión de formación
• Necesidades formación
• Fijación de objetivos
• Diseño de la acción
• Diseño de la evaluación POST 1 POST 2
Evaluación
formativa
Autoevaluación de la
situación previa de la Evaluación de Autoevaluación de
actividad formativa. efectividad resultados.
Auditoria PRE CAMPO POST de la actividad
Auditoria POST
Evaluación Evaluación
diagnóstica de gestión y
PRE de eficcia
Tabla 5.- Esquema básico de las implicaciones del proceso de evaluación de un programa
previstas, que una vez conocidas, sean también de interés para los responsables
y organizadores del programa.
Pero con ello no habríamos finalizado el proceso evaluativo. No bastaría con la
evaluación sumativa una vez concluido el programa. Habría que asegurar también
con una evaluación diferida, a corto-medio-largo plazo, la permanencia y
consistencia de los cambios producidos en los sujetos, la mejora de las prácticas
profesionales, los cambios institucionales, etc. según las metas del plan de
formación. La evaluación de los impactos del programa nos permitirá concluir
sobre la eficacia, eficiencia, comprensividad, validez y utilidad del programa, así
como sobre su rentabilidad profesional o social, según fuera el caso.
En cierta forma, estamos apuntando por un modelo de evaluación, cuya
representación gráfica reflejamos a continuación. Modelo que indiscutiblemente
integra elementos de otros modelos en la línea de los expuesto por Hamm
(1988:404-408) y que nosotros revisamos.
Como puede observarse, se integran elementos de los modelos de Scriven, Stake
y Stufflebeam. Los componentes de evaluación, tanto por lo que se refiere a un
programa o a los alumnos, quedan divididos en tres fases: antecedentes,
transacciones y resultados en la terminología de Stake (1976), con su correlato
en la subsiguiente división de contexto, input, proceso y producto de Stufflebeam
(1987).
El modelo permite como tal describir las intenciones y los acontecimientos en
cualquier fase, a la par que posibilita la toma de decisiones lo más racionalmente
posible a los responsables del programa respecto a la planificación y desarrollo
del mismo, tanto en lo que se refiere a la determinación de los objetivos como a la
determinación de los recursos, deficiencias y obstáculos observados antes y
durante su implementación con el consiguiente rediseño del programa.
Con todo ello, estamos asumiendo que no sólo interesan los resultados finales,
siendo estos importantes, sino que la implementación y desarrollo de un
programa, con las vicisitudes que entraña, cobran capital importancia. Esto nos
remite a la consideración de la evaluación formativa y sumativa de Scriven
(1967). Estando interrelacionadas, la finalidad de la primera apunta por la
optimización del programa, mientras que la segunda nos permite verificar su
eficacia, bien sea de una parte o en su totalidad.
Por último, cabe destacar igualmente el planteamiento de objetivos libres
descritos por Scriven (1973), en su modelo de evaluación sin referencia a metas.
Dentro de este planteamiento, el evaluador que aborda la evaluación de un
programa , debe evaluar, al margen de los objetivos del mismo, de manera que
pueda considerar todos los resultados del programa y no sólo los establecidos.
En síntesis, el modelo expuesto nos da una visión más completa, holística, sobre
la evaluación de programas, sus dimensiones, las decisiones sobre su
implementación y sus resultados, así como de los distintos implicados.
mérito,
(REDISEÑO) (REDISEÑO) (REDISEÑO) EVALUACIÓN valor,
acontecimientos
ADECUACIÓN DEL PROGRAMA ADECUACIÓN DEL PROGRAMA ADECUACIÓN DEL PROGRAMA impactos,
SUMATIVA eficacia
eficiencia, etc.
IMPLICA
1. FORMULACIÓN DE Identificación y precisión • Definir la audiencia
LA EVALUACIÓN de la naturaleza de la
evaluación • Determinar el propósito
• Identificar los aspectos
relevantes
2. VALORACIÓN DE Análisis a priori de la • Listado de los
LA credibilidad y utilidad de componentes básicos:
EVALUABILIDAD la evaluación que se va a objetivos, resultados y
efectuar. efectos.
Reordenación de la • Elección de los más
misma relevantes.
• Análisis crítico de la
posibilidad de analizarlos a
través del estudio
evaluativo
3. PLANIFICACIÓN DE Implementación de la • Elección del modelo
LA EVALUACIÓN evaluación
• Determinación de la
metodología
4. EJECUCIÓN DE LA Ejecución del proceso • Elaboración del diseño.
EVALUACIÓN evaluativo
• Recogida de la
información.
• Análisis e interpretación de
la información.
5. UTILIZACIÓN DE Toma de decisiones a • Informe de evaluación
LA EVALUACIÓN partir de las conclusiones
elaboradas en el informe • Toma de decisiones
evaluativo y otros
aspectos a considerar
6. METAEVALUACIÓN Evaluación de la • Elección de los criterios
evaluación referenciales evaluativos
• Análisis y valoración
efectuada en base a
dichos objetivos.
Tabla 6.- El proceso de evaluación (a partir de Mateo, 1994:61).
R DISEÑO
E
F
L DOCUMENTACIÓN
E PRESENTACIÓN
PRESENTACIÓN
X
I COMPROMISO
NEGOCIACIÓN Ó
N
ANALISIS DE
DOCUMENTOS.
E INSTRUMENTALIZACIÓN
RECOGIDA DE LA N
INFORMACIÓN
ANÁLISIS DE LA
E INFORMACIÓN
AMPLIACIÓN Y Q
CONTRASTACIÓN U
I SISTEMATIZACIÓN
P ORGANIZACIÓN
O
ÚLTIMA PUESTA
EN COMÚN
INFORME FINAL
Cuestiones de evaluación
• ¿Los objetivos definidos son relevantes con la política de formación?
• ¿Los objetivos formulados son suficientes para satisfacer las necesidades de los
destinatarios?
• ¿La selección de contenidos es pertinente con el contexto?
• ¿La metodología permite la participación activa?
• ¿La duración de las sesiones se adecua a las necesidades del contexto?
• ¿Las prácticas realizadas satisfacen las necesidades de los participantes?
• ¿Nivel de los objetivos logrados?
• ¿Satisfacción de las expectativas de los participantes?
• ¿Nivel de cambio producido en la práctica profesional?
• ¿Suficiencia del presupuesto asignado?
..................
INSTRUMENTO
GENERALES • Teórico-conceptuales
• Sustantivas
• Metodológicas
ESPECÍFICAS • Diseño-implementación del programa
• Diseño de evaluación
• Desarrollo de la evaluación
• El evaluador/res como problema
• Los destinatarios y su participación
Tabla 7.- Clasificación de las problemáticas-dificultades
♦ Ev. competitivamente
♦ No evaluar éticamente.
♦ No realizar paraevaluación
♦ No realizar metaevaluación
♦ Ev. distemporalmente
♦ No se incluye autoevaluación
♦ No se integran diferentes informaciones.
Tabla 8.- Patologías de la evaluación (Santos Guerra, 1993).
PROBLEMA PARADIGMÁTICO
COMPLEMENTARIEDAD
EVALUACION
y desarrollo del propio plan de evaluación, así como para los propios
implicadados tanto en la implementación-desarrollo del programa como en
la evaluación del mismo.
10.Incorporar la metaevaluación como herramienta de control y mejora de
los procesos de evaluación, dado que la propia complejidad del proceso
evaluativo exige este requisito para poderle ser riguroso, contrarrestando los
riesgos del mismo y poderle atribuir valor.
En síntesis, queremos concluir en la línea de Santos Guerra (1993:34-35) que
estas aproximaciones nos remiten a una evaluación más valiosa que se
caracterizaría por:
• Independiente y por ello comprometida.
• Cualitativa y no meramente cuantitativa.
• Práctica y no meramente especulativa.
• Democrática y no autocrática.
• Procesual, no meramente final.
• Participativa, no mecanicista.
• Colegiada, no individualista.
• Externa, aunque de iniciativa interna.