Está en la página 1de 50

RÍA MODELOS y MÉTODOS DE EVALUAC(ó

TEO
,
de manera consciente, en dimensiones s .
. plicando más, y '6 1 . Oc10..Polí.
se va un ) La implicac1 n y e comprollllso del inte . titas
1999
(House Y Howe, · permitirá tener una visión mucho más _1"entor so.
. d l evaluador, 1es . . a.Just!l>"'-
cial Y e 'd d de una determmada comurudad (Casas a la
l.d d y neces1 a es . . , 199())
rea ª1
. d un tecnólogo al serv1c10 de los político · El
al d0 r deJa e ser syd l
ev .º.ª mnir un rol de implicado que no puede ser ajeno . e sus
decisiones para as (B . ) llI neutra¡
a lo que está siendo evaluado arnga, 1990 .

2. Tipos de evaluación

Existen múltiples tipos de evaluación; se pueden establecer diferencias


entre ellas en función de varios criterios, tales como el momento de su rea.
lización, los objetivos que se pretenden conseguir, la función que desempeña,
la procedencia de quiénes la llevan a cabo, la naturaleza que poseen, los
aspectos que serán evaluados o los responsables a los que se dirigen, entre
otros (Aguilar, 1998; Cohen y Franco, 1993; Rebolloso y Morales, 1996). Si
el criterio tomado está en función de quién realiza la evaluaciJSn, la clasifica-
ción más común es la qu~ ..distingue entre evaluación externa (o desde fuera)
y evaluación interna (descle dentro) (Levine, 1981).
La evaluación externa es la que se realiza por personas aje~s a la orga-
nización, que supuestamente gozan de e~periencia y prestigio, pudiendo com-
parar los resultados obtenidos con otras evaluaciQlles similares previas, faci-
litando así las contrastaciones sobre la eficacia y la eficiencia de la interven-
ción (Hemández, 1990). Por su parte, la evaluación interna, es decir, la lle-
vada a c~bo por los propios responsables del diseñt> e implantación del pro-
gr~, tiene la ventaja de facilitar (por comodidad) el proceso e; aluativo Y
e~ar las reticencias de los evaluados ante la presencia de una evaluador
extrano. Normalmente, las evaluaciones "desde dentro" no son vistas tan
amenazantes o "controlad . " ,,
oras como las que se realizan "desde fuera ·
Si el criterio de el ifi • al
do pod h as 1cac16n es el ~pecto del programa que será ev ua·
' emos ablar de tres . · ·ón del
dise.fto y de la concc tu . n~evos tipos de evaluación: (a) evalua~1. _ _
mentación y seguimi~nt~i~ación del programa, (b) evaluación de la 1~~trU
eficiencia del programa (A el_ programa, 'l (e) evaluación de la eficacia y
p guilar Y Ander-Egg, 1992; Aguilar, I 99S).
ero de todas ellas, quizá la d.15 . . ,, utili·
zada cuando se habla de ti' d tinc1ón más clásica y comunt1lente
1967 · pos e evaiu 'ó '6 Scriv.,en en
, Yque ha provocado de8d ac1 n sea la que establec1 . . s
' e ~~~onces, numerosas polémicas, discusione
U pRÁCTTCA EVALUATIVA 67
=--
y todo tipo de escritos al respecto (Chen, 1996; Patton, 1996; Scriven, 1991
¡996; Wholey, 1996; Worthen, 1996). '
La .distinción se establece_ en base a .las funciones que puede Jugar
· 1a
evaluación. Como ya se ha senalado antenormente, la evaluación formativa,
que se ~eva a. cabo dm:ante el ~roceso de implantación del programa, permite
proporcionar info~ac16~ contmut para ayudar a modificar la planificación
del programa _)j _su eJecuc1ón; por tant?, presta apoyo al personal para perfec-
cionar las actividades que se están desarrollando.
La évaluación sumativa, por su parte, proporcionajuicios acerca del nivel
en que las metas del programa han sido alcanzadas y las necesidades han sido
~ubiertas, de forma que es posible establecer valoraciones comparativas que
permiten distinguir entre la eficacia de distintas acciones, ayudando a los
administradores a decidir si el programa fmalizado, es mejor que otros y• se
justifican los costes (económicos, de recursos, de tiempo psicológicos, etc.)
que ha supuesto su realización (Scriven, 1991).
El propio Scriven (1991), ante la polémica que suscitó su distinción,
aclara que lo que distingue a una y otra no es el momento en que se llevan
a cabo sino el propósito perseguido con cada una de ellas. Así, «la evaluación
formativa es la evaluación diseñada, realizada y orientada al apoyo del pro-
ceso de mejora, normalmente encargada o realizada por y para alguien que
puede realizar las mejoras. La evaluación sumativa es el resto de la evalua-
ción: en términos de intenciones, es la evaluación realizada para o por cual-
quier observador o decisor (por contraste_ con los que ejecutan) que necesita
conclusiones evaluativas por cuálquier razón más allá del desarrollo» (Scriven,
1991, p. 20).
La distinción establecida por Scriven es muy important~, porque la op-
ción elegida determinará en buena medida las actividades de ev~uación, los
métodos el rol de los implicados en el programa y en su evaluación (Perloff,
O
Perloff y Sussna, 1976).

3. Actividades de evaluación

La multiplicidad de perspectivas, modelos, métodos e intereses en la


disciplina de la evaluación ha propiciado también la aparición de un extenso
vocabulario relativo a las posibilidades de actuación que se pueden desarro-
llar a lo largo de todo el proceso evaluativo. Sin embargo, la juventud de la
disciplina, la naturaleza de la realidad que vaya a ser evaluada o quién vaya
TEORÍA, MODELOS y Mwoos DE EVALUACIÓN DE PROGRAMAS
68

a efectuar la evaluación, entre otras cuestiones, provoca que no exista una


clarificación conceptual sino más bien una ambigüedad terminológica que, en
muchos casos, se ve reflejada en solapamientos, aplicaciones ambiguas, acep-
ciones diferentes del mismo término, etc. Para arrojar un poco de luz sobre
esta cuestión, presentaremos una breve síntesis de los términos más común-
mente utilizados para referirse a las actividades evaluativas (Patton, 1986); y
lo haremos siguiendo un orden temporal én cuanto a su inclusión dentro del
ciclo de intervención social. El recorrido que presentamos aq'tí no pretende
ser exhaustivo sino más bien ilustrativo del amplio abanico terminológico.
Evaluación de contexto. Este es el término utilizado por Stuftlebeam
(Stuftlebeam y Shinkfield, 1987) para referirse a la primera fase de su modelo
CIPP. La evaluación de contexto engloba actividades tan diversas como el
análisis de la teoáa causal del problema (su origen, alcance y posibilidades
de't ntervención), la definición del contexto institucional, la identificación de
la población objetivo y el análisis de sus necesidades (Stuftlebeam y Shinkfield,
1987). Esta actividad evaluativa ha sido llamada también evaluación diagnóstica
o de necesidades, aunque siendo estrictos, el análisis de necesidades es sólo
una parte de la evaluación de contexto. La labor evaluativa se centra, por
tanto, en identificar y definir problemas y necesidades, aportando informa-
ción útil para una primera toma de decisión sobre la creación del programa.
Evaluación de entrada. Término también utilizado por Stuftlebeam
(Stufflebeam y Shinkfield, 1987) para referirse, en este caso, al segundo
momento valorativo en el modelo CIPP. Hace re_ferencia al proceso en el que
se id~ntifica y valora la capacidad del siste~ (análisis de los recursos huma-
nos y materiales disponibles para implantar el programa), las estrategias
altemativaS)de programa, la planificación de las actividades del programa y,
en general, la .viabilidad del programa (Stufflebeam y Shinkfield, 1987).
Correspondeáa con lo que en otro momento hemos denominado Pre-evalua-
ción, o lo que es lo mismo un análisis previo a la implantación del programa
y a la verdadera evaluación, con el objetivo de decidir cuál es la mejor
intervención a implementar. Para ello existen distintas estrategias entre las
que se encuentran el análisis de la literatura interventiva relevante, las visitas
a programas ejemplares, los grupos asesores o los estudios piloto. ,;'
Evaluación de la evaluabilidq¡l. Aunque la incluimos en este listado como
una actividad evaluativa más, lo cierto es que constituye por sí misma una
investigación en toda regla a desarrollar previamente a la evaluación del
programa (ver apartado 5 de este mismo capítulo), y a través de la cual
podremos determinar si el programa está diseñado de manera tal _que es po-
LA PRÁCTICA EVALUATIVA
69

sible su. .evaluación (Wholey, 1983; Rutman • 1980) · La evaluac1.6n de la


evaluab1lidad, por tanto, es un método que permite el análisis d
. dd . e un programa
con la fin alida e evaluar su esn:uctura, determinar la credibilidad del mismo
para l?grar sus ~nes, la evaluación de tales fines, la posibilidad de evaluar
postenormente dicho programa y el uso que se hará de sus resultados.

'ó proceso. También llamada evaluaci6nfiormativa rs


Evaluaci6n del ·
\ caven,
1967) evaluac1 n ~e. la implementaci6n, y se refiere a la comprobación .y
v~orac1ón de las ac~v1dades del programa que está siendo implementado, ·el
aJuste entre lo planificado y lo que se está ~jecutando, y, en definitiva, la
observación del proceso de desarrollo de las actividades del programa. Para
Rossi y Freeman (1989) la evaluación del proceso ·analiza si el programa está
llegando a la población destinataria, si las actividades se están desarrollando
tal como se planificaron en el diseño del programa, y qué medios se han
empleado para ello.
Evaluaci6n de resultados. Es la también denominada evaluación sumativa
(Scriven, 1967). Concluido el programa, es preciso el análisis de los efectos
(planificados o no planificados, deseados o no deseados) que las actividades
del program.@. han ocasionado. Se trata, en definitiva del análisis de todo tipo
de resultados. La evaluación sumativa valora los resultados o la efectividad
del programa, comprendiendo actividades de análisis de datos fundamental-
mente.
Evaluación de impacto. Una vez que los resultados han sido analizados,
en una fase posterior será preciso determinar si los efectos producidos por el
programa y la evaluación del mismo tienen consecuencias a más largo plazo,
y no sólo sobre la población objetivo, de la intervención, sino también sobre
la población general y el contexto donde se desarrolló el programa.
Las distintas denominaciones de las actividades de evaluación no se agotan
en las que acabamos de exponer sino que tan sólo son una muestra de la
amplia panorámica de vocablos existente en la práctica evaluativa. La presen-
te clasificación puede ser completada con la propuesta de otros autores; ~na
de la más completas es la realizada por Patton (1986, pp. 345-3~7): quien
describe, entre otras tantas, las siguientes: evaluación de la acred1tac1ón, de
la adecuación del ambiente organizacional, descriptiva, del diseño, de la
ejecución, del' esfuerzo, de la extensión, del personal profesional, de la pro-
ductividad, y un sinfín más.
1_70Q__ _ _ _ _ _ __jTEo~~Rf~Ai.1,M~oo~a~os~v.!..!.!M~ÉTO=OOS=-=º=E__
E__
vAL D=E=-PR:.:.;:OG=RAM!!!!'.!!~
___U_A_a_ó_N__

4. El papel del evaluador

Las diversas teorías de la evaluación, los propósitos perseguidos, los


modelos utilizados para el acercamiento a la realidad de los programas e
incluso el momento histórico en el que nos situemos han propiciado la adop-.
ción, por parte de los evaluadores, de distintos roles o posicionamientos con
respecto a la práctica evaluativa.
Siguiendo a Stufflebeam (Stufflebeam y Shinkfield, 1987) han relaciona-
do los modelos de evaluación (ver capítulo 4) con distintos papeles adoptados
por los evaluadores. En este sentido, en los inicios de la disciplina, donde lo
prioritario era el desarrollo de evaluaciones científicamente válidas que si-
guieran "a pies juntillas" la metodología científica y experimental, el evaluador
actuaba a · modo de un científico social en el que priman los criterios de
verdad, fiabilidad y credibilidad social, asumiendo por tanto un rol de asesor
técnico, cumpliendo con las actividades propias de cualquier consultor exper-
to. Algo después, aunque asumiendo todavía planteamientos experimentalistas,
comenzó a primar el propósito de ayudar a los responsables en la toma de
decisiones sobre el programa, con lo que los evaluadores asumieron el rol de
asistente o "servidor". Tuvieron que pasar bastantes años (gracias especial-
mente a las aportaciones respondentes y constructivistas) para que los
evaluadores adoptaran un papel más sensible a la realidad social, a los inte-
reses de los participantes, a los problemas sociales y a su solución, es el rol
de evaluador comprometido con la reforma y el cambio social. En este último
caso, las tareas del evaluador no se quedan en las propiamente valorativas,
sino que se extienden al proceso de planificación de la intervención social
(evaluación de necesidades, análisis de los problemas y sus causas, evalua-
ción de la evaluabilidad, diseño de los programas de intervención, etc.) y su
implementación (Stake, 1976; Guba y Lincoln, 1989).
Es preciso que el evaluador, desde un primer momento, deje claro cuál
va a ser el papel que va adoptar, y el tipo de relaciones que mantendrá con
los implicados, ya sean los responsables, usuarios del programa o políticos
que encarguen la evaluación, ya que el rol a adoptar será el que defina el tipo
de estrategia a utilizar durante todo el proceso evaluativo. Para Chelimsky
(1997), los dos roles son mutuamente excluyentes y se recomienda aceptar
tareas como consultor sólo después de pasado un tiempo tras terminar la
evaluación.
La distinción arriba señalada ha sido ampliada por otros autore~- Por 1
ejemplo, Femández del Valle (1996) distingue, entre otros, los roles de mves- .
LA PRÁCTICA EVALUATIVA
71

tigador, juez, asesor técnico, mediador y educador· Pasemos a desca'b'rr bre-


vemente cada uno de ellos.
Bastante similar al papel de asesor que mencionábamos ant
· d ,, · d es, es e1 ro1
de "investiga or , p~op10 . e 1os evaluadores de la primera etapa, en los años
sesenta, d~nde 1o pnmord1al era_ re~lizar ~n trabajo de evaluación con rigor
metodológico y acorde con un diseno de mvestigación científica. Propios de
esta postura ~on los trabajos de Suchman ( 1967) o de Campbell ( 1971 ), donde
son los políticos los encargados de juzgar la calidad de las intervenciones
mientras que el evaluador asume la tarea de presentar los resultados dei
estudio de la manera más fiable y objetiva como fuera posible. Tampoco
entran dentro de las funciones del evaluador el interés por la diseminación,
utilización Y generalización de los resultados encontrados. Evidentemente,
desde este planteamiento la evaluación se convierte en un proceso sistemático
y riguroso de recogida y análisis de datos, donde tienen una especial cabida
los métodos cuantitativos. Además, con el propósito de comprobar las rela-
ciones entre las actividades del programa (variable independiente) y determi-
nados resultados (variable dependiente), los estudios de evaluación se con-
vierten en "experimentos" donde el programa sale de su contexto real y se
eliminan todas las potenciales variables "extrañas" o contaminadoras (ideolo-
gías, intereses, etc.).
El evaluador adopta el rol de "juez" cuando la evaluación asume una de
sus funciones básicas: el establecimiento de un juicio de valor acerca de la
calidad o mérito de un programa, Este juicio, habitualmente se da a partir de
una evaluación sumativa. Un buen ejemplo de este tipo es el planteamiento
propio de la "evaluación libre de metas" (goal-free evaluation) que propone
Scriven (1973), donde el evaluador no se deja llevar por el "encorsetamiento"
que supone seguir, "a pies juntillas", el cumplimiento de los objetivos del
programa. Para conseguirlo, el evaluador debe mantener la ·distancia con los
responsables y gestores del programa, intentando mantener una posición neu-
tral y objetiva. El juicio de valor se realiza a partir de la comparación del
programa con otros similares y tras un análisis pormenorizado de todos los
efectos del programa, estuvieran o no planificados. Así la estrategia de acer-
camiento al programa consiste en la recogida de datos mediante un enfoque
objetivo, intentando evitar los sesgos que supondría la consideración de las
partes interesadas, y buscando los criterios que permitan juzgar la calidad y
el mérito del programa (Femández del Valle, 1996).
Característico de la posición del evaluador como "asesor técnico" es el
planteamiento de Wboley ( 1979) en su '.'evaluación centrada en la gestión"
DELOS y MtroDOS DE EVALUACIÓN DE PROGRAMAS
TooRfA, MO -------..
72
. e margen de maniobra para modificar algunas
1 ograma · El evalua d t
de pr (d fior. 1en . .
.ón del problema, establec1m1ento de los objeti-
partes del progr~al eal1tmcar1 la organización de servicios. La evaluación de
vos etc) redefimr O O er · d. 1 m
la ;val~bilidad jugaría, por tanto, un papel pnmo; ;ªfi e~ u~-:i ~que de
estas características, al asumir que un programa ma _eó md1 º1 1 lalcu no
• 'ó · tambl.én su evaluación. La evaluac1 n e a ev uabihdad
sólo su
· eJecuc1
a1· n 1smo
definición de los obietivos, la teona, causa1 d e1 programa,
penmte an izar a J • al 1 · b"l'd
11
la planificación de las actividades del mismo Y, en gener , ª via ad ~e
la intervención. Una ventaja fundamental de este, ~nfoque es que_ ~enrute
mejorar el programa antes de su evaluación sistemattca (tras el anáhsis de la
evaluabilidad).
tEl rol de "mediador" implica que el evaluador se sitúe entre todos los ,
puntos de vista de los distintos interesados para realizar un trabajo de cons-
trucción de un juicio valorativo que represente los intereses de todos los
implicados en el programa. Es el planteamiento propio de Stake (1997), de
Guba y Lincoln (1989) y, en general, de los "Evaluadores de la Cuarta Ge-
neración" (Fourth Generation Evaluation) donde las técnicas cualitativas son
de uso preferente y donde los estudios más habituales son los de contextos
locales, a pequeña escala. El papel fundamental del evaluador es el de mediar-
entre las partes interesadas, a través de la negociación y utilizando estrategias
que permitan llegar a un consenso final. Así, el valor final del programa
dependerá de las percepciones de los distintos stakeholders; la "realidad objetiva"
no existe, es una construcción social de todos los interesados. En palabras de
los propios Guba y Lincoln "los resultados de la evaluación no son descrip-
ciones del mundo real, sino más bien representan construcciones significati-
vas que actores individuales o grupos de actores forman, dando sentido a las
situaciones en las que ellos se encuentran" (Guba y Lincoln, 1989, p. 8).
Al asumir este planteamiento, el evaluador rechaza la investigación tra-
dicional más positivista, de diseños experimentales, medidas cuantitativas y
análisis de las relaciones causa-efecto. La recogida de información se centra
en la captación de las opiniones de todos los grupos interesados sobre las
expectativas con respecto al programa, las características del mismo y los
benefi~i~s.. q~e trae consigo su implantación. En este sentido, los procesos de
negociac1on Juegan un papel básico para llegar a consensos valorativos.
~1 rol de "educador" surgió tras la desilusión a la que se llegó tras las
masivas ~valu~ciones de la primera etapa, donde el uso de los resultados no
er~ al_go mmediato (uso instrumental). Esto hizo pensar que quizá la actividad
pnnclpal
• bl del
. evaluador
. debena
,, d'tngrrse
· · a analizar pormenorizadamente las
vana es implicadas en lo s programas, sus antecedentes, sus elementos bast- , ·
- PRACTICA EVALUATIVA
73

cos, procesos más relevantes y los consecuentes de la inte . .


trata del uso conceptual, es decir, la acumulación d n:en~ión social. Se
rogramas y su evaluación, de forma que la dis . 1 ~ conocu~u.ento sobre los
P . . . , c1p ma adqumera u b .
teónco un.portante que podría repercutir n el diseño d 1 . .n agaJe
1
en su adecuada implantación y evaluación. Es la eval e mterven~ione.s, y
ción (enlightenment) iniciada por Weiss (1 975 ) en 1 uaci n ~ara la dumma-
pación especial por realizar un trabajo ilustrad~r o :dque Jx1ste una preocu-
teoría j;uega un papel fundamental. El evaluador ya no uecsa lvto' y .en la que la
i..... 1 d , . e ecmco que todo
lo.sal.A, pero se o guar a para s1, smo que debe ¡o transrru'trr· sus conocmnentos
. .
sobreb'é e1 programa y sob re su evaluación. de la forma más "didáet'1ca" posible.

Tam 1 !1 se apuntaro~ a es!e. plan!eamiento Rossi y Freeman (1993), al ue
se ~•~eron co~o la desllllUficac1ó":"; y Cronbach (Cronbach y asoc., 19i<J),
quien~ influenciado por los pla~teaffilentos de Weiss, se preocupa de manera
~special ~,?r esta faceta educativa, apuntando la necesidad de transmitir la
informacion resultante de la evaluación a través de reuniones informal
1 · d •--" es con
os mteresa_ os, en tlllormes adaptados a sus necesidades y con ejemplos 0
casos p~cticos para hacer~os más accesibles. Este rol sería propio de una
evaluación para la generación de conocimiento, permitiendo la construcción
de teorías de la intervención social y de la evaluación (Chen y Rossi, 1983),
para lo cu~ se hace i~prescindible una evaluación rigurosamente científica,
que permita generahzar los resultados e inferir conocimientos causales
(Cronbach, 1982).
Por último, a los roles descritos, Stufflebeam y Shinkfield (1987) añaden
el rol de "pseudoevaluador¡?. aunque no puede considerarse estrictamente
evaluativo, es asumido por ~uchos "supuestos" evaluadores., cuya tarea con-
siste en justificar las decisiones políticas con respecto a una determinada
intervención. Estos dos últimos autores distinguieron entre "p~eudoevaluacio-
neS:,.', "cuasievaluaciones" y "verdaderas evaluaciones" (ver capítulo 4); en
las primeras, el evaluador es contratado para justificar los resultados en un
sentido concreto. De manera implícita o explícita, el evaluador recibe la petición
de orientar los resultados de la evaluación con el fin de hacer propaganda del
programa; dicha propaganda puede ir orientada a justificar una mala interven-
ción manipulando los informes para ofrecer una buena imagen (estrategia de
"música celestial"), a ocultar fallos de un programa evitando utilizar métodos
objetivos (estrategia de "blanqueamiento), o bien a destruir un programa sin
tener en cuenta su valor real (estrategia de "submarino") (Stufflebeam y
Shinkfield, 1987). No es preciso insistir en que éste, más que un papel de
acercamiento a la evaluación, representa una forma de "venta de servicios"
por parte del evaluador, ante lo cual estaríamos más ante una cuestión de
índole deontológica que conceptual o metodológica (Femández del Valle,
1996).
TEORÍA, MODELOS y MÉTODOS DE EVALUACIÓN DE Pk9Ga... . . ..
74

. este breve repaso a los posibles roles que el eva1


Para finahzar con . d . Uéldor
. al f ntarse a cualquier evaluaci6 n e intervenciones SOCi
puede Jugar ~n rpeuntar un par de cuestiones más. En primer lugar r .ales, ,
sólo nos gustaria a . . 1 , euerar
.6 de uno u otro rol 1mpbca a su vez a asunción d
que la adopc1 n , . e una
. onceptual concreta de la evaluaci6 n, 1o que va a guiar el de
perspectiva c - . d á sa.
de toda la actividad evaluanva y, e manera m s específica, el acere.
11 ª
miento metodológico que asumamos para 11evar a cabo e1 análiº
rroo sis del progra.
ma. Y, en segundo termino, no, creemos que elhrol .del evaluador1pu~~ ,.segu·Ir
siendo, tal y como ha sido hastt no hace mue o tiempo, el de asesor técnico
ajeno a las circunstancias sociales y polític_as que rodean a los _programas. Si
aceptamos, como-hacemos desde estas páginas, que la evaluación está orien-
tada al cambio, la mejora social y el perfeccionamiento, no podemos admitir
que la tarea de los evaluadores sea exclusivamente la de aconsejar o asesorar
a los responsables de los programas de forma aséptica e imparcial, ya que los
propios conceptos de "cambio" y "mejora" están fuertemente impregnados
por componentes ideológicos y sociopolíticos. La imparcialidad no existe
cuando hablamos d~ programas sociales cuyos ~esponsables son personas,
que se implementan sobre personas, y que se dirigen, en última instancia, a
la II!ejora en algún aspecto concreto de la vida de esas personas.

5. La evaluación de la evaluabilidad

Aunque algunos otorgan a la evaluación de la evaluabilidad el papel de


ser una más de las posibles actividades evaluativas, lo cierto es que su amplio
desarrollo hace que sea considerada por otros muchos como un tipo de eva-
luación concreto con unas características muy especiales; por ese motivo,
creemos que es preciso dedicarle un apartado especial a esta forma singular
de evaluación. g~aim_ent~ 2•la evaluación de la eval_u~bi~~ ~g_~
....C0.11).o '!~,j'Í3:-P~a&~ mejorar la& evaluclé_i9nes'smtf;~s. Dich;s evaluaciones,
en ese · · · ·---- --, ...-'..i!i! o
.momento, eran percibidas por los diseñadores de los programas coro
d~~i~o co st0 sas Y poco eficiente,s dado que aportaban muy poca inforIIla-
clión util p~a la toma de decisionei sobre los programas. Así el análisis de
a evaluab1lidad se.. in·ieié Gemo.,un Pt')eese para estudiar-la esttnQP.Pi ' d un
_,.¿.....,
programa con el fin de.Ji · ..... ~~•1tt ba
. ,, · e.temunar basta qué punto dicha estructura
b • • - - •

la evaluac1on de su fi · (Wboley, 1979·


-
~-v-~"'- . . e icac1a Rutman 1980)·- P.osteriorroen.te;_
se reconoció su potencial ar . ' ' ' ·";• -Af'lría
ser emp~ _i;on__tt!i,!~l-,gi-ado en que un pro~ªv;el
desarrollo de progr~as - <Wholey, 1983), permitiendo ª ez
que demostrar la evid ~apdaces de lograr los resultados deseados a la v
enc1a e tales logros.

También podría gustarte