Está en la página 1de 18

Tema 4. Evaluación de programas.

CONCEPTUALIZACIÓN.

Según Aguilar y Ander-Egg (1992) la evaluación de programas es “una forma de investigación


social aplicada sistemática, planificada y dirigida; encaminada a identificar, obtener y
proporcionar de manera válida y fiable datos e información suficiente y relevante, en que apoyar
el juicio acerca del mérito y el valor de los diferentes componentes de un programa (tanto en la
fase de diagnóstico, programación o ejecución)”.

Fernández-Ballesteros (1983) la define como “un proceso mediante el cual se trata de estimar, a
través de una metodología empírica, si se han alcanzado una serie de objetivos socialmente
relevantes”.

Según Rossi y Freeman (1993), la evaluación es más que la aplicación de métodos científicos. Es
también una actividad política y gerencial, un input en un complejo mosaico desde el que
emergen las decisiones políticas y la asignación de fondos para la planificación, diseño,
implementación y continuidad de programas para mejorar las condiciones humanas, en este
sentido, la investigación evaluativa debe verse como una parte integral de la política social y de
los movimientos de la administración pública. Por último, Chen (2005), desde la teoría de
sistemas, define la evaluación como uno de los cinco componentes de cualquier política o
programa. Este autor plantea que cualquier intervención, programa o política puede ser
conceptualizado en términos de inputs, transformaciones, outputs, contextos y retroalimentación.

Los inputs son recursos (financieros, tecnológicos, humanos o físicos) que se toman del contexto
para ser usados sistemáticamente a fin de sostener el programa. Las transformaciones
representan los procesos que pemiten convertir los inputs en outputs, y corresponden a la etapa
de implementación del programa. Los outputs son los resultados de las trasformaciones, y
conciernen al logro de los objetivos del programa. Los contextos se refieren a cualquier factor
que puede facilitar u obstaculizar la implementación del programa. Incluyen las normas sociales,
las estructuras políticas, las agencias financiadoras, los intereses grupales y las preocupaciones
de los ciudadanos. La retroalimentación tiene que ver con la información que proporciona la
evaluación para establecer si los inputs son adecuados y organizados, si las intervenciones se están
implementando apropiadamente, si se están alcanzando los objetivos, si los clientes reciben
servicios de calidad, y si los outputs demuestran que se están alcanzando las metas y satisfaciendo
las expectativas de las agencias y de los responsables de la toma de decisiones.

La evaluación es esencial para lograr el objetivo de la IPS y mejorar las condiciones sociales (se
cuenta con información científica para tomar decisiones sobre las intervenciones más eficaces
para satisfacer las necesidades de la población y modificar aquellos factores individuales o
situacionales que afectan su bienestar). La investigación evaluativa debe verse como una parte
integral de la política social y de los movimientos de la administración pública.

Según Espinoza (1983), la evaluación de programas facilita el proceso de toma de decisiones


sobre:

- Continuar/interrumpir el programa.

- Mejorar/modificar procedimientos, técnicas o estrategias.

- Asignar recursos.

- Aceptar/rechazar el enfoque teórico del programa.

- Establecer programas semejantes en realidades similares.

La “investigación evaluativa" o "investigación de programas", debe centrarse en 3 tareas básicas:

- IDENTIFICAR VARIABLES CAUSALES. Investigar, en otras palabras, por qué se


producen los resultados (positivos, o negativos, previstos o imprevistos) constatados y
qué tipo de variables "internas" (componentes del programa) o externas (aspectos de la
estructura sociocultural) están establemente asociadas con esos resultados o efectos. Se
trata, de otro modo de localizar los ingredientes activos del programa (o del contexto
social): aquellos específicamente responsables de los efectos observados. Esta es, sin
duda, una cuestión fundamental en el doble frente teórico y práctico. Teórico, para
descartar que los resultados sean explicados por los ingredientes inespecíficos comunes
a cualquier tipo y forma de intervención: el efecto placebo que se ha postulado como
formidable hipótesis explicativa en otras áreas, como la psicoterapia. Varios efectos
particularmente “placebogénicos” -como las expectativas y motivación generadas o la
dinámica participativa creada- fueron ya descritos al considerar los aspectos interactivos
y sociales de la evaluación. La importancia práctica de la investigación causal de
programas reside, naturalmente, en el manejo de los componentes específicos e
inespecíficos de la evaluación e intervención social para aumentar la eficiencia y
racionalidad de las intervenciones. El avance en la investigación causal de resultados pasa
muy probablemente por potenciar el seguimiento procesal de los programas observando
(e investigando) cuidadosamente cómo suceden los cambios y a que tipo de dinámicas
están ligados.
- ESTUDIAR (Y MEJORAR) LA EVALUABILIDAD: Las condiciones lógicas precisas
para poder evaluar adecuadamente un programa y mejorar, en lo posible, su diseño en esa
dirección. Incluye tareas como: definir el programa y las actividades involucradas;
especificar las actividades a realizar, objetivos planteados y asunciones causales que ligan
objetivos y acciones; desarrollar un modelo lógico del programa y un modelo métrico
adecuado para poder medir objetivos y actividades. Particularmente crítica es, en mi
opinión, la investigación sobre la conexión entre las actividades realizadas en la
intervención y los fines planteados y el doble nexo entre las actividades realizadas y
resultados obtenidos, por un lado, y la forma de plantear los objetivos (especificidad,
conexión con problemas básicos, etc.) y los resultados alcanzados, por otro.
- INVESTIGAR LA RELACIÓN ENTRE RESULTADOS Y CONTEXTO, entre efectos
del programa y factores (relacionales, sociales, ambientales, culturales, económicos,
demográficos, etc.) del entorno socio cultural. Por ejemplo: qué relación hay entre
resultados de un programa y motivación previa de la comunidad; o entre la influencia del
inicio desde dentro y desde fuera del sistema, o en base al desarrollo de recursos internos
o la simple ayuda técnica externa. La importancia teórica de estas relaciones trasciende
la simple constatación de la "validez externa" de las intervenciones. Si los factores
contextuales son básicos en la causa y solución de las cuestiones sociales, su
consideración causal es tan relevante como la de los constituyentes "internos" del propio
programa de los que, por otra parte, resultan difícilmente separables muchas veces. En lo
aplicado, esta relación es vital para la diseminación de programas que ha de tener en
cuenta los aspectos relevantes, en su similitud o diferencia, de las instituciones y sistemas
a los que se van a extender los programas ya desarrollados.

Las evaluaciones de las IPS deben ser:

- OBJETIVAS: Medir, analizar y concluir sobre los hechos tal y como aparecen en la
realidad, sin contaminar con apreciaciones de los evaluadores.
- VÁLIDAS: Deben medir lo que dicen medir sin distorsiones y de manera demostrable
(resultados comprobables).
- CONFIABLES: Precisión y estabilidad de la medida (cuando la evaluación se aplica
repetidamente y por distintos evaluadores, los resultados deben ser los mismos).
- OPORTUNAS: Deben ser aplicadas en el momento adecuado, a fin de que no se
produzcan distorsiones con el paso del tiempo, al igual que las conclusiones de esta
evaluación.
- PRÁCTICAS: Deben estar condicionadas en cuanto a sus características por el destino
que se quiere dar a sus conclusiones y estas deben servir de sustento al proceso de toma
de decisiones.

EVALUACIÓN DENTRO DEL CICLO DE LA IPS.

¿Quién? ¿Con quién? ¿Cómo?

Desde dentro No participativa Cuantitativa

Desde fuera Participativa Cualitativa

Mixta Mixta
EVALUACIÓN DE LA PLANIFICACIÓN

(análisis de necesidades y estudio de factibilidad) La evaluación de la planificación se lleva a


cabo antes del inicio de la intervención (enfoque prospectivo).

La evaluación de la planificación incluye:

- EVALUACIÓN DE LAS NECESIDADES: Identificación de un problema social (línea


base de la intervención).

• La pertinencia es valorar si la intervención es útil y responde a las necesidades


existentes.

- ESTUDIO DE LA VIABILIDAD/FACTIBILIDAD: Determinación de los objetivos y


requisitos para planificar una intervención dirigida a resolver o reducir la incidencia del
problema social.

• La suficiencia es conocer si teóricamente los recursos (humanos, materiales y


técnicos) aplicados son convenientes para los fines que se pretende conseguir
(¿son suficientes?).

• La adecuación es determinar cuál es la estrategia de intervención más adecuada


para dar solución al problema social.

EVALUACIÓN FORMATIVA.

La evaluación formativa se lleva a cabo durante la intervención. Examina los mecanismos de


implementación de un programa, identifica los obstáculos que impiden el cumplimiento de sus
objetivos y proporciona medidas para mejorar su funcionamiento (feedback para realizar ajustes).

La evaluación formativa incluye:

- Estudio de PROCESO: Determinar si el programa se está implementando según los


objetivos previstos mediante el examen de su funcionamiento en las actividades diarias
(¿mediante qué mecanismos se implementan las actividades?, ¿qué actividades llevan al
cumplimiento de los objetivos?, si no los cumplen, ¿por qué razón no lo hacen?, ¿qué
ajustes deben hacerse en las actividades para que cumplan los objetivos?).

- Estudio de la FIDELIDAD: Examinar en qué medida el programa se asemeja al protocolo


inicial o teoría que sustenta la intervención (¿de qué modo el protocolo del programa se
está aplicando?, ¿hay variaciones en su aplicación? En caso afirmativo ¿cuáles son las
variaciones?, ¿las variaciones ayudan o impiden el cumplimiento de los objetivos del
programa?).

- Estudio de la PRODUCCIÓN: Cuantifica lo que el programa genera como producto, es


decir, número de actividades llevas a cabo y número de personas que reciben la
intervención (¿cuántos usuarios están siguiendo el programa?, ¿cuántas actividades
efectúa el programa diaria y semanalmente?, ¿cuántos usuarios atendidos por el programa
han recibido el alta del servicio?).

• La cobertura es el porcentaje de la población diana que se beneficia del servicio.

EVALUACIÓN SUMATIVA

La evaluación sumativa se lleva a cabo al final de la intervención. Determina los efectos del
programa y valora su coste y beneficios (comparar la problemática social antes vs. después). No
siempre se puede llevar a cabo la evaluación de resultados de un programa por falta de capacidad
(rigor a la hora de llevar a cabo la intervención) y barreras (problemas insalvables para llevar a
cabo la intervención).

La evaluación sumativa incluye:

- Estudio de la EFICACIA: Grado o nivel de alcance del objetivo del programa y los
resultados de una actividad en una población beneficiaria y en un periodo temporal
determinado, sin considerar los costes para obtenerlos. Lo ideal sería un carácter
experimental, comparando grupo de intervención vs. grupo control (¿qué objetivos
cumplió el programa?, ¿qué cambios se observan en los participantes?, ¿en qué medida
estos cambios se deben al programa?).

- Estudio del IMPACTO: Efecto que la intervención tiene sobre la comunidad en general.
Es la magnitud cuantitativa del cambio en el problema social. Implica tener en cuenta
también los efectos secundarios positivos, negativos y no previstos sobre la sociedad en
general (¿qué efectos, tanto positivos como negativos, tuvo el programa?, ¿qué
consecuencias imprevistas o no intencionales se han detectado?, ¿qué contribución ha
hecho el programa al conjunto de la sociedad a largo plazo?).

• Diferencia con eficacia (capacidad de cumplir objetivos específicos (efectos


positivos, negativos, esperados y no esperados)).

• Diferencia con efectividad (juicio valorativo sobre los efectos del programa,
independientemente de que hayan previstos como objetivos).
- Estudio de la EFICIENCIA: Comparar los costes de un programa con sus resultados
(¿cuánto costó el programa?, ¿qué relación coste-efectividad tiene el programa respecto
a programas similares?, ¿qué relación coste-beneficio tiene el programa respecto al
ahorro que supone?).
OTROS CRITERIOS DE EVALUACIÓN

- Evaluación de la EVALUABILIDAD: Es un juicio valorativo sobre la factibilidad de


evaluar un programa (¿es posible llevar a cabo la evaluación?, ¿en qué medida es posible
responder a las preguntas del cliente con la información que hay sobre el programa y en
la situación en que se encuentra?).

- Evaluación EXTERNA VS. evaluación INTERNA VS. evaluación MIXTA: La


evaluación externa se lleva a cabo por personas ajenas a la implementación y ejecución
del programa. La evaluación interna es conducida por personal implicado en el programa
de intervención, conocedor en profundidad de las características y desarrollo de este. En
la evaluación mixta, el equipo evaluador está compuesto tanto por agentes externos como
internos.

- Evaluación PARTICIPATIVA VS. evaluación NO PARTICIPATIVA: En la evaluación


participativa, el profesional responsable del proceso evaluativo pretende que los
involucrados participen. Mientras que, en la evaluación no participativa, los
involucrados no participan.

- Evaluación CUANTITATIVA VS. evaluación CUALITATIVA VS. evaluación MIXTA:


El enfoque cuantitativo plantea que existe una realidad ajena al evaluador que puede ser
conocida con independencia del observador (objetivismo). Por el contrario, para el
enfoque cualitativo existen múltiples realidades socialmente construidas (relativismo),
de tal modo que la realidad sólo se puede conocer a través de la relación entre el
observador y el observado (subjetivismo, no hay conocimiento sin sujeto).

CRITERIOS DE EVALUACIÓN “EXTRA”.

- VIABILIDAD/SOSTENIBILIDAD: Juicio sobre el grado en que los efectos positivos


derivados de la intervención continúan una vez se ha retirado la ayuda externa.

- REPLICABILIDAD: Capacidad del proyecto/programa para generar conocimientos


capaces de ser utilizados provechosamente en otras actuaciones.

- VISIBILIDAD: Apreciación de la intervención, la institución y sus acciones en el rol


social que está desempeñando tanto en la población beneficiaria, en la población general
y en otras instituciones de su campo de acción (importante revisar la correcta difusión del
proyecto y la adecuación de los canales de información a beneficiarios).
- PARTICIPACIÓN: Valora el grado de implicación de los actores sociales que incluye
tanto a las personas involucradas en la producción, diseño y ejecución de la IPS
(financiadores, evaluadores, profesionales y técnicos, etc.), como la población
beneficiaria (directa e indirecta).

- PERSPECTIVA DE GÉNERO: Medir los efectos, consecuencias y beneficios


diferenciados que la IPS ha tenido o puede tener para hombres y mujeres, niños y niñas.

- CALIDAD: Valoración de la calidad de las instalaciones (imagen de los edificios,


accesibilidad, ubicación, equipamientos, comodidad, etc.), de la calidad de la atención
(tiempo dedicado a cada caso, tiempo de espera, duración de la tramitación, etc.), etc.

- SATISFACCIÓN: Valoración del grado de satisfacción de la población objetivo (recabar


información sobre la opinión de los usuarios).

- ACCESIBILIDAD: Facilidad con la que los servicios pueden ser obtenidos de forma
equitativa por la población en relación con las barreras organizativas, económicas,
culturales, etc.

- EQUIDAD: Evalúa si los productos y los efectos de la intervención se distribuyen por


igual (cuando es lo que procede), o en proporción a los más necesitados (cuando se debe
realizar una discriminación positiva).

La accesibilidad y la equidad forman la cobertura.

- UTILIZACIÓN: Uso efectivo que se hace de un recurso que se encuentra disponible. El


coeficiente de utilización es la relación existente entre los recursos efectivamente
utilizados y los recursos disponibles para una actividad del programa en cierta unidad de
tiempo.
FASES EN EL DESARROLLO DE LA EVALUACIÓN

ESQUEMA TRADICIONAL

El esquema tradicional sigue el siguiente proceso para llevar a cabo la evaluación de un programa:

- FAMILIARIZACIÓN: Análisis de documentos relativos al programa y a entrevistas con los


coordinadores.

- VIABILIDAD de la evaluación: ¿Está bien definido el programa?, ¿están bien definidos los
objetivos y efectos esperados?, ¿se puede determinar si los objetivos se han conseguido?

- Determinación del TIPO de evaluación: Decidir la utilización de los resultados de la


evaluación en la toma de decisiones y los objetivos de la evaluación. ¿Qué se va a evaluar?
Indicadores de evaluación (Idoneidad, eficacia, eficiencia, etc.).

- DISEÑO: Consiste en redactar el proyecto de evaluación incluyendo objetivos, técnicas de


recogida de información, presupuesto, temporalización, roles del evaluador y del cliente.
Debe dar respuesta al cómo, cuándo y en qué grupo se ha de recoger la información. Incluyen
características como la validez interna, externa y de constructo.

- RECOGIDA de información: Habrán de especificarse las variables concretas que se medirán


u observarán; las técnicas a utilizar; el diseño y el plan de muestreo, y el plan logístico de
recogida de datos. Las muestras han de ser grandes y por lo general no obtenidas mediante
métodos de muestreo aleatorio, sino con muestreo intencionado

- Análisis DATOS.
- INFORME: Se considerará como un paso más dentro del intercambio comunicativo (dado
que el contacto con las audiencias debe ser continuo) que se establece con los grupos
implicados en el programa desde el mismo comienzo de la evaluación.

(participativo?) El informe debe adaptarse a las preferencias de los usuarios, en el caso de


múltiples intereses, lo ideal es realizar una síntesis muy clara de los hallazgos y conclusiones
más importantes de la evaluación En el informe deben figurar recomendaciones concretas, es
decir, se debe relacionar la información evaluativa con posibles acciones o decisiones,
haciendo ver a los usuarios las implicaciones para la acción de los resultados.

ESQUEMA PARTICIPATIVO.

Introducción en el proceso evaluativo a las partes interesadas en el programa. Se forman grupos


de trabajo cuyos miembros pertenecen a diferentes partes interesadas en el programa
(stakeholders)

Las partes interesadas intervienen en dos momentos del proceso:

- En la parte previa al diseño: Identifican los objetivos de la evaluación y las vías de


utilización de la evaluación.

- En la fase de análisis de la información: En la redacción del informe y su utilización.

Las debilidades del esquema participativo son los problemas para identificar a las partes
interesadas y/o encontrar representantes adecuados para cada una de ellas, que estas partes
deseen participar y estén motivados para aceptar los resultados y que posteriormente utilicen
dichos resultados.
DISEÑOS E INSTRUMENTOS DE EVALUACIÓN

DISEÑOS DE INVESTIGACIÓN

Diseño EXPERIMENTAL

Los diseños experimentales se caracterizan por el control que tiene el evaluador de la variable
independiente (el programa objeto de evaluación) y por la asignación aleatoria de los
participantes a los grupos o condiciones de intervención y de comparación con base en algún
criterio determinado para controlar el efecto de variables extrañas que pudieran contaminar
los resultados de la evaluación. Los diseños experimentales son particularmente útiles cuando
con la evaluación se pretende demostrar la eficacia del programa. Es decir, cuando el objetivo es
determinar que los efectos observados son «causados» por la intervención (relación causa-
efecto) y no por factores externos que no están bajo el control del evaluador. Dentro de los
posibles diseños experimentales, el diseño más sencillo y el más utilizado en este contexto es el
diseño experimental de grupos aleatorios o intersujetos. En este caso, el evaluador compara los
resultados producidos en los participantes del programa con los resultados encontrados en
personas de la población diana que no han participado en él. El que un individuo de la población
diana sea incluido o no en el programa dependerá del azar. En una primera fase de este diseño
se elegirán los posibles candidatos a participar y estos se distribuirán o asignarán aleatoriamente
a un grupo que efectivamente participará en el programa (grupo experimental) y a otro que no
participará en él (grupo control). La asignación aleatoria es la propuesta clave de los diseños
experimentales para garantizar que los grupos de comparación sean lo más similares o
equivalentes posibles, y con ello poder descartar las variables extrañas relacionadas con las
diferencias individuales. De esta manera, los diseños experimentales suelen presentar una mayor
validez interna que otras posibilidades metodológicas.

Cabe señalar que el principal problema de estos diseños es que frecuentemente es difícil o
imposible realizar una asignación aleatoria (la selección aleatoria implica que las muestras
deben ser sustancialmente mayores que en otras alternativas), bien por problemas éticos o por
problemas prácticos. Así, en el caso de intervenciones donde se espera una mejora de la «calidad de
vida» de las personas que necesitan asistencia con cierta urgencia (por ejemplo, en los programas de
atención a niños víctimas de abuso sexual), puede ser muy discutible la formación de grupos control por
procedimientos aleatorios; el contra argumento reside en que si se realiza la evaluación es, precisamente,
porque no hay seguridad de que la intervención sea garantía de mejora. Para dar respuesta a este
problema, en algunos casos se recurre a la formación aleatoria de listas de espera. Los sujetos incluidos en
la lista de espera sólo servirán de grupo control durante el periodo de evaluación de resultados,
garantizándoles la posterior aplicación de la intervención en el caso de que el programa haya demostrado
su eficacia. En otras ocasiones, este mismo problema ético puede generarse sobre el grupo experimental,
como cuando se trata de contrastar el impacto de ciertas intervenciones innovadoras que podrían resultar
menos eficaces que la intervención estándar; en este caso el grupo experimental estaría en desventaja con
respecto al grupo control. Otro problema de la aplicación de los diseños experimentales en este
contexto tiene que ver con las modificaciones que se van produciendo en el propio programa
una vez realizada la distribución aleatoria de los participantes, lo que puede desvirtuar la calidad
del diseño de evaluación, la interpretación de los resultados y la utilidad del estudio.

Se debe reconsiderar su aplicación bajo determinadas condiciones: cuando el programa esté en


sus primeras fases y sea fácil que se produzcan variaciones en la intervención, cuando no se
pueda proceder con la asignación aleatoria por cuestiones prácticas o éticas, o cuando impliquen
una desproporcionada inversión de tiempo y de recursos en relación a la relevancia del
programa objeto de evaluación.

Diseño CUASI-EXPERIMENTAL.

Cuando los diseños experimentales no se consideren una buena opción por alguno de los
motivos anteriormente comentados, se puede recurrir a diversas alternativas dentro de los
diseños cuasi-experimentales. En principio, estos diseños pierden en validez interna, ganando en
validez externa, aunque esta valoración demasiado generalista habría que ajustarla para cada
caso particular.

La formación de los grupos de comparación no se realiza por procedimientos de asignación


aleatoria de sujetos a condiciones experimentales (los grupos son formados previamente) Por
ello, los diseños cuasi-experimentales tienen una relación causa-efecto más débil y existe un
bajo control de las variables extrañas.

- DISEÑOS PRE-POST (CON UN GRUPO, CON CUASI-CONTROL, CON


COHORTE ANTERIOR, ETC.): Para comprobar la similitud de los grupos se suelen
tomar medidas antes de la intervención en los indicadores de resultados o en
indicadores relacionados con ellos. (el evaluador debe aplicar los procedimientos
necesarios para tratar que los grupos que se comparen sean lo más similares posibles)
Habitualmente, el evaluador identifica en primer lugar el grupo que recibe el programa,
y a partir de los datos de este construye el control (o controles).
Un ejemplo de este diseño se presenta en el Cuadro anterior. Será la teoría subyacente al
programa la que guíe la selección de las características que debemos medir a los potenciales
participantes del grupo control para emparejarlos con quienes reciben la intervención. Así, si se
evalúan los efectos de un programa sobre el rendimiento en matemáticas en estudiantes de
secundaria, debemos partir del conocimiento de las variables que afectan al aprendizaje para
constituir el grupo control.

- DISEÑOS DE SERIES TEMPORALES INTERRUMPIDAS: Los individuos (o unidades) son


su propio control a través de una serie de mediciones a intervalos regulares antes (línea base) y
después de la aplicación del programa (controles reflexivos). El conocimiento del
comportamiento del indicador o medidas tomadas antes de la aplicación del programa de
intervención durante un periodo de tiempo extenso nos informará sobre la estabilidad de las
medidas, su potencial carácter cíclico, y la tendencia al cambio asociada al tiempo. El registro de
las medias después de la intervención nos dará información sobre si el cambio ha sido puntual o
estable, si está por encima de la variabilidad natural de la medida, si interfiere con el carácter
cíclico de la conducta o si rompe con la tendencia previa de las mediciones. Así, si el programa
ha sido eficaz, la serie después del programa variará con respecto a la situación anterior. En otras
palabras, la comparación de las series antes y después de la intervención nos permitirá
determinar el impacto del programa y su magnitud.

- DISEÑO DE DISCONTINUIDAD EN LA REGRESIÓN: Bajo este diseño los grupos control y


experimental se forman en función de un criterio o puntuación registrada antes de cualquier
intervención. Por ejemplo, se puede decidir aplicar un determinado programa educativo sólo a
aquellos estudiantes que se encuentren por encima o por debajo de una determinada
puntuación, facilitar determinadas ayudas a familias por debajo de determinados ingresos, o
aprobar los permisos en prisiones a partir de la realización de cierto número de actividades. La
lógica es comparar las rectas de regresión de ambos grupos. Si no se han producido efectos bajo
el programa, la recta de regresión de los grupos con y sin programa será la misma; en caso
contrario habrá una discontinuidad en la regresión.
Diseño CUALITATIVOS/NATURALISTAS.

Los diseños cualitativos/naturalistas se caracterizan por no utilizar grupos de comparación,


sino que se dedican a facilitar información sobre las experiencias de los participantes y ayudan a
comprender en detalle la implementación del programa. En los diseños cualitativos los efectos
no se pueden derivar a relaciones de causalidad.

Los tipos de diseños cualitativos/naturalistas son:

- Investigación etnográfica.

- Investigación-acción.

- Investigación-acción participativa.

- Observación participante.

- Estudios de casos.
TÉCNICAS E INSTRUMENTOS DE EVALUACIÓN.

- OBSERVACIÓN.

- ENTREVISTA.

- CUESTIONARIO.

- ENCUESTA.

- REGISTROS.

- OTRAS TÉCNICAS.

INFORME DE EVALUACIÓN.

Un informe de evaluación es un producto documental final de los trabajos de evaluación en donde


se recogen los resultados de todo el proceso. Deberá tener una naturaleza eminentemente
operativa orientada hacia la acción y hacia el fortalecimiento de la toma de decisiones.
- PORTADA: Titulo y código del proyecto, tipo de evaluación (externa, interna, mixta,
participativa, simultánea, final, de impacto, etc.), situación del informe (borrador,
preliminar, final), fecha, equipo evaluador.

- RESUMEN: Se detallarán, en un espacio reducido, las características y elementos


centrales del informe.

- INTRODUCCIÓN: Breve descripción del proyecto, objetivos de la evaluación, enfoque


metodológico, ámbito de aplicación, limitaciones y obstáculos detectados, principales
técnicas utilizadas para la recogida y procesamiento de la información, estructura del
informe.

- Parte I. Descripción de la información: Presentar, de forma agrupada y sistematizada, la


información recogida.

- Parte II. Valoración de la información: Se trata de incorporar las explicaciones necesarias


en cuanto a la información descrita, estableciendo las relaciones de causas y efectos que
procedan. Estas explicaciones deben ser presentadas, deseablemente, atendiendo a los
criterios y componentes clásicos de la evaluación: eficiencia, eficacia, impacto,
pertinencia, viabilidad, con sus correspondientes factores de desarrollo y replicabilidad.

- Parte III. Conclusiones y recomendaciones: Plantear las principales conclusiones del


proceso de evaluación. Establecer recomendaciones y sugerencias para mejorar la calidad
de la ejecución del proyecto en sus siguientes fases, absorber determinados obstáculos
detectados o extraer aprendizajes para intervenciones futuras.

- Anexos: Se adjuntará toda aquella documentación de interés que ilustre el desarrollo del
proceso de evaluación (encuestas, cuestionarios, referencias documentales, etc.) y que
complemente los contenidos del informe.

También podría gustarte