Documentos de Académico
Documentos de Profesional
Documentos de Cultura
EVALUACIÓN DE PROGRAMAS:
Algunos puntos de partida para su estudio
Pedro Enriquez
1. CONSIDERACIONES INTRODUCTORIAS
1
Esta definición pone de relieve los alcances conceptuales y las características
fundamentales de la Evaluación de Programas. En tal sentido se puede apreciar que:
a) Es un tipo particular de evaluación que tiene como objeto un programa.
Esta acción supone una doble tarea; por un lado, interpretar las informaciones
recolectadas relacionando las múltiples determinaciones que se conjugan en la emer-
gencia de una situación, en un intento de construir sentidos y significados; y por el otro
lado, establecer un juicio de valor emitiendo una apreciación crítica de la bondad del
objeto evaluado conforme a los referentes definidos previamente.
Emitir un juicio de valor es tan delicado como arriesgado, porque involucra ac-
ciones técnicas y políticas que están intrínsecamente relacionadas y cuyos límites son
evanescentes. Esta tarea es sumamente compleja porque implica relacionar los diversos
indicios acerca del objeto tratando de re-construir sentidos y significados que ellos po-
seen. Esto supone poder descifrar los aspectos tanto explícitos como implícitos, las ra-
cionalidades que guían la acción, los valores, las visiones del mundo que sustentan los
sujetos que participan en el proceso de evaluación, etc., y en base a ello emitir el juicio
de valor.
2
La formulación de dicho juicio debería ser entendida como un proceso social de
construcción, articulado en el diálogo, la discusión y la reflexión, entre todos los que,
directa o indirectamente se encuentran implicados en y con la realidad evaluada”
(Angulo Rasco y otros, 1991).
Como es lógico suponer, una vez emitido el juicio, resulta necesario tomar ciertas
decisiones que permitan profundizar las acciones que se están realizando correctamente,
corregir las deficiencias detectadas y eliminar los errores que se están produciendo.
Este tipo de evaluación trasciende los límites del programa mismo, como clara-
mente lo advierte De Miguel (1999), más allá del análisis y la valoración de los proble-
mas y requisitos que conlleva el diseño e implementación de un programa, lo verdadera-
mente importante de la evaluación es profundizar en la descripción y explicación de los
procesos de intervención, con el fin de promover la transformación social a partir de los
resultados de dichos procesos. Como consecuencia de ello, evaluar un programa implica
cuestionar los valores dominantes y asumir un compromiso en la resolución de los pro-
blemas sociales y en la lucha a favor de una sociedad más justa e igualitaria.
3
Evaluación de Programas y la Investigación Educativa: Sus diferencias y coincidencias
San Fabián (1996) establece la diferencia entre estas dos nociones diciendo que
la Evaluación de Programas forma parte del diseño y su fin primordial es guiar y
reorientar el desarrollo de los programas; en cambio, la Investigación Evaluativa es un
medio no sólo para conocer y mejorar el desarrollo de un programa, sino que además
busca establecer relaciones con otros programas y niveles de la realidad estudiada. Esta
sutil diferencia puede tener importantes consecuencias a la hora de definir las
actuaciones de los sujetos. En otras palabras, se puede decir que ambos procesos tienen
el mismo punto de partida y transitan caminos similares, pero sus puntos de llegada son
diferentes. En el primer caso, las decisiones quedan circunscriptas al programa, mientras
que en el segundo, las excede ampliamente. No obstante esta distinción, en este trabajo
se las empleará como sinónimo.
Para ello, el autor propone siete dimensiones básicas que ayudan a la elaboración
del diseño de un programa de Evaluación, a saber: el objeto a valorar, la finalidad de la
evaluación, los momentos que atraviesa el proceso, el modelo que se adopta, los instru-
mentos que se emplean, el evaluador y los referentes. A éstas se le agrega una octava
4
categoría relacionada con el contexto socio-político e institucional (Gráfico Nro.1). To-
das estas dimensiones sirven como punto de referencia para definir los cimientos que
sostienen la Evaluación de Programas que se lleva cabo en este trabajo.
El contexto donde se sitúan los programas a evaluar proporciona las claves que
ayudan a comprender la génesis, el desarrollo y los resultados que pueden generar los
mismos; es por ello que es imprescindible tener en cuenta las peculiaridades del contex-
to socio-político y educativo en donde se sitúa el programa, definiendo las coordenadas
estructurales, espaciales y temporales en las que se desarrollan (Fernández Sierra,
1994). Esta dimensión atraviesa y ubica al objeto de estudio, facilitando una mejor com-
prensión del mismo.
No todo lo que puede ser evaluado vale la pena; y no todo lo que vale la pena
puede ser evaluado. Existe una amplia gama de objetos tales como personas, situacio-
nes, acciones, currículum, recursos, instituciones, etc. que pueden ser evaluados; es por
ello que es imprescindible no caer en la tentación de iniciar un proceso evaluativo que
abarque diversas dimensiones del objeto que no puede ser accesible; en tal sentido, es
aconsejable saber cuáles son los aspectos relevantes a tener en cuenta, es decir que hay
que evaluar aquellos objetos que valen y que puedan evaluarse. Hay que ser conciente
que en ocasiones por múltiples razones no todo lo que es relevante puede evaluarse.
Stake (citado por Santos Guerra, 1998) utiliza una metáfora donde deja clara la
distinción entre la evaluación formativa y sumativa. Este autor cuenta que cuando el co-
5
cinero prueba es una evaluación formativa, cuando la efectúa el cliente es sumativa,
puesto que cuando el cocinero prueba la sopa se encuentra en pleno proceso de elabora-
ción y, por lo tanto, puede modificar el producto, mientras que el cliente ya está valo-
rando el producto final. También es cierto que el cocinero puede aprender de los dos
momentos; en el primero, puede modificar los ingredientes y conseguir un producto di-
ferente; en el segundo, y si el cliente le proporciona una buena información, entonces,
puede aprender a mejorar el producto para otra ocasión
e) Pronóstica, enfatiza el valor predictivo. Este tipo de evaluación apunta a producir in-
formaciones relevantes que ayuden a anticipar razonablemente cómo se va a com-
portar el objeto evaluado en el futuro.
Objeto
Finalidad
Finalidad Modelo
Necesidades
de formación
Diseños Evalua
Momentos Resultado dores
Instrumentos
Referentes
Contexto socio-político
6
El referente es un elemento a partir del cual se puede establecer la comparación
porque actúa como un patrón de valor fundante de juicio y eventualmente de decisiones.
Celman (2000:13) lo define como el lugar desde donde se paran los sujetos para emitir
el juicio, y Lafourcade (1992) considera que el mismo es una interface entre las visiones
del mundo, los paradigmas científicamente aceptables y los indicadores.
Los instrumentos aluden a las herramientas que sirven para obtener la informa-
ción considerada como necesaria para la emisión del juicio. Estas herramientas están en
concordancia con el objeto que se evalúa, el contexto donde se desarrolla el programa y
la finalidad de la evaluación porque “los métodos, técnicas e instrumentos selecciona-
dos no son neutrales con respecto a la información que proporcionan; cada método es
adecuado para recoger cierto tipo de información y, al mismo tiempo, desechar otra”
(Fernández Sierra, 1994: 308).
Los protagonistas son aquellos sujetos que están directa o indirectamente involu-
crados con el programa. Gairín Sallán (1990:44) señala que de acuerdo a la participa-
ción de los mismos puede distinguirse una evaluación interna y otra externa.
En la evaluación interna, los sujetos involucrados con el programa son los res-
ponsables de revisar críticamente el programa que se está llevando a cabo; en cambio,
en la evaluación externa, un experto que no participan en el programa es el encargado
de hacer el examen crítico. En tal sentido, el especialista independiente recoge la infor-
mación necesaria para emitir un juicio sobre el programa analizado. Gairín Sallán
(1990:44) considera que esta forma de evaluar es más objetiva pero implica menos co-
nocimiento real de los problemas.
7
En estos últimos años, distintos autores han intentado clasificar las diversas pro-
puestas de Evaluación de Programas. En el presente trabajo, no se adopta un sistema de
clasificación elaborado por un especialista reconocido en este campo de estudio; tampo-
co se elabora una propuesta nueva. Aquí solamente se aludirá, por un lado, a las dos
grandes perspectivas que tradicionalmente han tendido vigencia en el campo de la eva-
luación de programa; por el otro, a los diversos modelos de Evaluación de Programas
frecuentemente mencionados (Stufflebeam y Shinkfield, 1987; Colás y Rebollo, 1993)
destacando sus rasgos sobresalientes.
8
conclusiones obtenidas tienen validez local.
Como puede advertirse, esta propuesta intenta determinar las relaciones causales
que existen entre determinadas variables dependientes (programa educativo) con otras
independientes (resultados obtenidos). Consecuentemente, los diseños experimentales o
cuasi-experimentales constituyen los procedimientos más adecuados para llevarlos a
cabo.
Para realizar una evaluación, Tyler (1970) propone definir claramente los objeti-
vos conductuales, seleccionar situaciones en las que haya que manifestar las conductas
buscadas y observar si se producen los resultados esperados, elegir los instrumentos
adecuados (normalmente tests estandarizados o construidos), seleccionar las formas de
resumir los registros cuidando que los resultados puedan ser interpretados adecuada-
mente y determinar la objetividad y fiabilidad de las medidas utilizadas.
9
ras; la propuesta E.P.I.C. de Hammon (1972) que incluye variables instruccionales e
institucionales que describen con mayor precisión la realidad educativa que se pretende
valorar; la taxonomía de objetivos de Bloom (1970) y el modelo de objetivos instructi-
vos de Popham (1972) que sofistican el proceso de planificación y evaluación, convir-
tiendo los objetivos de conducta y las metas observables en las fuentes o criterios de va-
loración.
Para Suchman (1967), uno de los representantes más importantes de este mode-
lo, los elementos esenciales que conforman el diseño son:
10
En este marco se entiende que una evaluación debe recoger un conjunto de infor-
maciones útiles y fiables para tomar decisiones desde el inicio y hasta la culminación
del programa. En términos de Stufflebeam (creador del modelo C.I.P.P -Context-Input-
Process-Product-), la Evaluación de Programas es un proceso destinado a “ identificar,
obtener y proporcionar información útil y descriptiva acerca del valor y el mérito de las
metas, la planificación, la realización y el impacto de un objeto determinado, con el fin
de servir de guía para tomar decisiones, solucionar los problemas de responsabilidad y
promover la comprensión de los fenómenos implicados” (Stufflebeam y Shinkfield,
1987:183).
Relación Decidir el marco general, Seleccionar los recursos de Llevar a cabo y perfeccio- Decidir la continuación, fi-
las metas relacionadas con apoyo, las estrategias de nar la planificación los nalización, modificación o
con toma las satisfacciones de las solución y las planificacio- procedimientos del progra- re-adaptación de la acti-vi-
de deci- necesidades o la utiliza- nes de procedimientos, ma, esto es, efectuar un dad del cambio, y presen-
sión ción de las oportunidades y esto es, efectuar un control control del proceso, y pro- tar un informe claro de los
los objetivos relacionadas del proceso., y proporcio- porcionar un esbozo del efectos (deseados y no de-
con solución de los proble- nar una base para juzgar la proceso real para utilizar- seados, positivos o negati-
mas, y proporcionar una realización. los más tarde en la inter- vos).
base para juzgar los resul- pretación de los resultados.
tados.
11
En línea general, este modelo anima a los profesionales y a las entidades guber-
namentales a emplear la evaluación en forma continua, como una herramienta que pro-
porciona justificaciones lógicas a la hora de tomar decisiones, aunque con frecuencia, se
le critica su alto nivel de ingenuidad porque no considera las relaciones de poder que se
ponen en evidencia al momento de efectuar una evaluación. El éxito de esta propuesta
depende de los vínculos que se establecen entre el evaluador y los responsables de la
toma de decisión. Si esta relación se desarrolla en un sistema educativo altamente jerar-
quizado, lo cual ocurre con frecuencia, afectará negativamente el proceso valorativo y
los resultados que se obtengan
Esta propuesta fue elaborada por Scriven, quien entiende que la evaluación no
debe limitarse solamente a determinar en qué medida se logran o no los objetivos pro-
puestos, sino que su tarea central consiste en valorar los efectos reales del programa,
analizando tanto los resultados previstos como los no previstos. Este autor sostiene que
las acciones educativas generan efectos secundarios tan o más importantes que los obje-
tivos iniciales, pero que el modelo orientado a la concreción de los objetivos no puede
visualizarlos.
Como se observa, el modelo descripto es más flexible puesto que amplía su mi-
rada hacia nuevas dimensiones de estudio que no fueron previstas desde el inicio. Asi-
mismo, exige al evaluador una mayor apertura para captar los fenómenos que acontecen
durante el desarrollo del programa. No obstante, esta propuesta entraña una importante
dificultad, porque solamente valora las necesidades de los consumidores y renuncia a
las posibilidades de incluir los requerimientos y demandas de otros sectores que están
directa o indirectamente involucrados con dicho programa.
12
Estas propuestas intentan captar las diferentes necesidades y valoraciones que
poseen los diversos grupos y sectores implicados a fin de obtener una pluralidad de opi-
niones y perspectivas. La evaluación respondente de Stake, la evaluación iluminativa de
Parlett y Hamilton, la evaluación democrática de MacDonald y la crítica artística de Eis-
ner constituyen ejemplos claros de estos modelos.
Stake (1976) elabora un modelo que intenta reflejar la complejidad de los pro-
gramas en estudio. Para ello propone que el evaluador recoja y sistematice la mayor
cantidad de información con relación a los problemas, necesidades y preocupaciones de
los clientes y, posteriormente, las devuelva a los sujetos involucrados para que puedan
comprender cómo funciona el programa y mejorar lo que están haciendo. Para el autor,
una evaluación es responsiva cuando orienta su mirada hacia las actividades, responde a
las exigencias de los usuarios y alude a las diferentes perspectivas que existen.
Stake propone la evaluación reloj, compuesta por doce pasos destinados a identi-
ficar el alcance del programa, determinar el panorama de las actividades, descubrir los
propósitos e intereses, conceptualizar las cuestiones o problemas, identificar los datos
necesarios para investigar los problemas, seleccionar observadores, jueces e instrumen-
tos, observar los antecedentes, las transacciones y los resultados propuestos, desarrollar
temas preparados, validar mediante la confirmación y búsqueda de evidencia, realizar
un esquema de trabajo para que la información sea empleada por la audiencia, reunir los
informes formales y, finalmente, hablar con los clientes, el personal y la audiencia.
La evaluación de crítica artística abogada por Eisner implica una densa descrip-
ción e interpretación de los significados tal y como acontecen en un medio cultural de-
13
terminado. Estas acciones dependen de la comprensión del contexto, de los símbolos, de
las reglas y tradiciones de los que participa cualquier persona (Eisner, 1985).
vidad y produc- objetivos consigue los resul- ficientes y una y servicios alterna- tividades y su va-
específicos
Entidades de Planificadores y Planificadores y Los responsables Los clientes o con- La comunidad y
control, planifi- responsables del responsables del que toman decisio- sumidores los usuarios del
cadores y res- programa programa nes programa
ponsables
14
¿En qué medida ¿Qué estudiante ¿En qué medida el ¿Cómo debe ser ¿Cuál es el valor ¿Cuál es la histo-
el programa alcanza los objeti- programa cum-ple planificado, eje- de un programa, ria de un programa
cumple con los vos y en qué gra- con los objetivos cutado y reci-cla- dado sus costes, y cómo es juzgado
Principales
Cuestiones
objetivas. Ob- jetivas. Observa- jetivas. Observa- tas, tests diagnós- entrevista e infor- Entrevistas en pro-
servaciones es- ciones estructura- ciones estructura- ticos, escalas, etc.. mes fundidad. Regis-
tructuradas das das tros cualitativos
En primer lugar, se puede advertir que este breve recorrido relativo a los diferen-
tes modelos posibilita visualizar que en estos últimos años han cambiado profundamen-
te los pilares conceptuales del campo de la evaluación, porque se ha pasado de las no-
ciones monolíticas al pluralismo conceptual y a la utilización de métodos, criterios e in-
tereses múltiples (House, 1992:43).
15
En el marco de este trabajo, la evaluación se desarrolla a lo largo de todo el pro-
grama de formación, pero hay cuatro momentos claves. El primero se produce al iniciar
el programa, el segundo, durante el proceso, el tercero, al finalizar y, el cuarto es poste-
rior al proceso gestado en el programa. A continuación se describe cada uno de ellos:
BIBLIOGRAFÍA
16
EISNER, E.R. (1985): The art of educational evaluation: a personal view. The
Falmer Press, Lewess. East Sussex.
ESCUDERO, T (2003): Desde los tests hasta la investigación evaluativa actual. Un si-
glo, el XX, de intenso desarrollo de la evaluación en educación en: Revista ELectrónica
de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/ RELIEVE/
v9n1/ RELIEVE v9n1_1.htm.
FERNÁNDEZ SIERRA, J. (1994): “Evaluación del curriculum: perspectivas curricu-
lares y enfoques en su evaluación” En Angulo, J. y Blanco, N. Teoría y desarrollo del
curriculum. Aljibe. pp. 297-312. Málaga
GAIRIN SALLÁN, J (1990) Evaluación de programas de formación profesional (II par-
te). Herramientas Nro.11. pp.44-59.
HOUSE, E. R. (1994): Evaluación ética y poder. Morata. Madrid
LAFOURCADE, P. (1992): La auto-evalaución institucional en la Universidad. Edi-
torial Fundación Universidad Nacional de San Juan. San Juan.
nal. Largo Caballero. pp. 97-136. Madrid
Otros Técnicas de evaluación y seguimiento de programas de formación profesi
PARTLETT, M. y HAMILTON, D. (1977): “Evaluation as Illumination” In
HAMILTON, D. y otros (edits) A Reader in Educational Evaluation. McCutcheon
Publishing. pp. 6-22. London.
SANTOS GUERRAS, M. A. (1998) Evaluación Educativa 2. Un enfoque práctico de la
evaluación de alumnos, profesores, centros educativos y materiales didácticos. Magiste-
rio. Buenos Aires.
SCHUMAN. E.A. (1967): Evaluative research: Principles and practice in public
service and social action programs. Sage. New York.
STUFFLEBEAM, D. y SHINKFIELD, A. ( 1987): Evaluación Sistemática. Barcelona.
Paidós. MEC.
TEJADA, J. (1997): “Modelos de evaluación de programas”. En GAIRÍN, J;
TEJADA, J. (1998): Evaluación de Programas: Guía práctica para su diseño. UAB.
Barcelona.
TEJEDOR, J. (1994): Perspectivas metodológicas actuales de la Evaluación de Progra-
mas en el ámbito educativo. Revista Investigación Educativa Nro. 23 pp. 87-127
VILLAR ANGULO, L. M. y MARCELO, C (1991): “Evaluación de planes de forma-
ción para en cambio”. En ESCUDERO, J y LÓPEZ, Y.(Edits). Los desafíos de las re-
formas. Arquetipo. Sevilla.
17