Está en la página 1de 256

La evaluacin de impacto en la prctica

Paul J. Gertler, Sebastin Martnez, Patrick Premand, Laura B. Rawlings, Christel M. J. Vermeersch

BANCO MUNDIAL

La evaluacin de impacto en la prctica

La versin en ingls de La evaluacin de impacto en la prctica se puede consultar como un libro de texto interactivo en http://www.worldbank.org/pdt. La versin electrnica permite a las comunidades de profesionales y colegas que trabajan en los sectores y las regiones, as como a estudiantes y profesores, compartir notas y materiales relacionados para mejorar la experiencia de aprendizaje multimedia y el intercambio de conocimientos. Se puede obtener documentacin adicional relacionada especcamente con La evaluacin de impacto en la prctica en http://www.worldbank.org/ieinpractice.

Este libro ha sido posible gracias al generoso apoyo del Fondo Espaol de Evaluacin de Impacto (SIEF). El SIEF establecido en 2007 , con una donacin de US$14,9 millones de Espaa, y ampliado gracias a una donacin de US$2,1 millones del Departamento de Desarrollo Internacional (DfID) del Reino Unido, es el fondo duciario ms cuantioso centrado en la evaluacin de impacto establecido hasta ahora en el seno del Banco Mundial. Su principal objetivo es ampliar la base documental sobre lo que funciona para mejorar los resultados en el terreno de la salud, la educacin y la proteccin social, y as informar las polticas de desarrollo. Vase http://www.worldbank.org/sief.

La evaluacin de impacto en la prctica


Paul J. Gertler, Sebastin Martnez, Patrick Premand, Laura B. Rawlings, Christel M. J. Vermeersch

2011 Banco Internacional de Reconstruccin y Fomento/Banco Mundial 1818 H Street NW Washington DC 20433 Telfono: +1 202-473-1000 Sitio web: www.worldbank.org Reservados todos los derechos 1 2 3 4 13 12 11 10 El presente volumen es obra del personal del Banco Internacional de Reconstruccin y Fomento/Banco Mundial. Las opiniones, interpretaciones y conclusiones aqu expresadas no son necesariamente reejo de la opinin del Directorio Ejecutivo del Banco Mundial ni de los pases representados por este. El Banco Mundial no garantiza la exactitud de los datos que guran en esta publicacin. Las fronteras, los colores, las denominaciones y dems datos que aparecen en los mapas de esta publicacin no implican juicio alguno, por parte del Banco Mundial, sobre la condicin jurdica de ninguno de los territorios, ni la aprobacin o aceptacin de tales fronteras. Derechos y autorizaciones El material contenido en esta publicacin est registrado como propiedad intelectual. Su reproduccin o transmisin total o parcial sin la debida autorizacin puede constituir una violacin de la ley vigente. El Banco Internacional de Reconstruccin y Fomento/Banco Mundial alienta la difusin de sus publicaciones y, normalmente, autoriza su reproduccin sin demora. Los permisos para fotocopiar o reproducir cualquier parte de este material pueden obtenerse enviando una solicitud con toda la informacin necesaria a Copyright Clearance Center, Inc., 222 Rosewood Drive, Danvers, MA 01923, EE. UU.; telfono: +1 978-750-8400; fax: +1 978-750-4470; Internet: www.copyright.com. Cualquier otra consulta sobre derechos y licencias, incluidos derechos subsidiarios, deber dirigirse a la siguiente direccin: Office of the Publisher, The World Bank, 1818 H Street, NW Washington, DC 20433, EE. UU.; fax: +1 202-522-2422; correo electrnico: pubrights@worldbank.org. ISBN: 978-0-8213-8681-1 DOI: 10.1596/978-0-8213-8541-8 Catalogacin en la Biblioteca del Congreso de la edicin en ingls Impact evaluation in practice / Paul J. Gertler ... [et al.]. p. cm. Includes bibliographical references and index. ISBN 978-0-8213-8541-8 -- ISBN 978-0-8213-8593-7 (electronic) 1. Economic development projects--Evaluation. 2. Evaluation research (Social action programs) I. Gertler, Paul, 1955- II. World Bank. HD75.9.I47 2010 338.90072--dc22 2010034602 Diseo de portada: Naylor Design.

NDICE
Prefacio PRIMERA PARTE. INTRODUCCIN A LA EVALUACIN DE IMPACTO Captulo 1. Por qu evaluar?
Formulacin de polticas basadas en evidencias En qu consiste la evaluacin de impacto? Evaluacin de impacto para decidir sobre polticas La decisin de evaluar Anlisis de la costo-efectividad Evaluacin prospectiva versus evaluacin retrospectiva Estudios de la ecacia y estudios de la efectividad Combinacin de fuentes de informacin para evaluar tanto el qu como el por qu Notas Referencias

xiii

1 3
3 7 8 10 11 13 14 15 17 18

Captulo 2. Denir las preguntas de evaluacin


Tipos de preguntas de evaluacin Teoras del cambio La cadena de resultados Hiptesis para la evaluacin Seleccin de indicadores del desempeo Contenidos de la segunda y la tercera partes del libro Nota Referencias

21
22 22 24 27 27 29 30 30

SEGUNDA PARTE. CMO EVALUAR Captulo 3. Inferencia causal y contrafactuales


Inferencia causal Estimacin del contrafactual Dos estimaciones falsas del contrafactual Notas

31 33
33 37 40 47
v

Captulo 4. Mtodos de seleccin aleatoria


Asignacin aleatoria del tratamiento Dos variaciones de la asignacin aleatoria Estimacin del impacto con la oferta aleatoria Notas Referencias

49
50 64 66 79 80

Captulo 5. Diseo de regresin discontinua


Primer caso: Subsidios para fertilizantes en la produccin de arroz Segundo caso: Transferencias monetarias Uso del diseo de regresin discontinua para evaluar el Programa de Subsidio del Seguro de Salud Aplicacin del diseo de regresin discontinua Limitaciones e interpretacin del diseo de regresin discontinua Nota Referencias

81
82 84 86 89 91 93 93

Captulo 6. Diferencias en diferencias


Qu utilidad tiene el mtodo de diferencias en diferencias? Uso de las diferencias en diferencias para evaluar el Programa de Subsidios del Seguro de Salud Aplicacin del mtodo de diferencias en diferencias Limitaciones del mtodo de diferencias en diferencias Notas Referencias

95
98 102 103 104 104 105

Captulo 7. Pareamiento
Uso de tcnicas de pareamiento para seleccionar a hogares no participantes en el Programa de Subsidio del Seguro de Salud Aplicacin del mtodo de pareamiento Limitaciones del mtodo de pareamiento Notas Referencias

107

111 113 113 115 116

Captulo 8. Combinacin de mtodos


Combinacin de mtodos Imperfeccin del cumplimiento Efecto de derrame

117
119 120 123

vi

La evaluacin de impacto en la prctica

Consideraciones adicionales Un plan alternativo para la evaluacin Nota Referencias

125 127 127 128

Captulo 9. Evaluacin de programas multifacticos


Evaluacin de programas con diferentes niveles de tratamiento Evaluacin de mltiples tratamientos con diseos cruzados Nota Referencias

129
130 132 137 137

TERCERA PARTE. CMO IMPLEMENTAR UNA EVALUACIN DE IMPACTO Captulo 10. Hacer operativo el diseo de la evaluacin
Elegir un mtodo de evaluacin de impacto Es tica la evaluacin? Cmo formar un equipo de evaluacin? Cundo programar la evaluacin? Cmo presupuestar una evaluacin? Notas Referencias

139 143
143 152 154 158 160 169 169

Captulo 11. Elegir la muestra


Qu tipo de datos se necesitan? Clculos de potencia: Qu tamao de muestra se necesita? Decidir sobre la estrategia de muestreo Notas Referencias

171
171 175 192 195 197

Captulo 12. Recolectar los datos


Contratar ayuda para recolectar los datos Desarrollar el cuestionario Probar el cuestionario Trabajo de campo Procesar y validar los datos Nota Referencias

199
199 201 204 204 207 209 209

ndice

vii

Captulo 13. Producir y divulgar los resultados


Qu productos generar la evaluacin? Cmo divulgar los resultados? Notas Referencias

211
211 219 221 222

Captulo 14. Conclusin


Nota Referencias

223
228 228

Glosario Recuadros 1.1 Evaluaciones y sostenibilidad poltica: El programa Progresa/ Oportunidades de transferencias monetarias condicionadas en Mxico 1.2 Evaluacin para mejorar las asignaciones de recursos: Planicacin familiar y fertilidad en Indonesia 1.3 Evaluacin para mejorar el diseo del programa: Malnutricin y desarrollo cognitivo en Colombia 1.4 Evaluacin de la costo-efectividad: Comparacin de estrategias para aumentar la asistencia escolar en Kenya 2.1 Teora del cambio: De los suelos de cemento a la felicidad en Mxico 3.1 Estimacin del contrafactual: La seorita nica y el programa de transferencia monetaria 4.1 Transferencias monetarias condicionadas y educacin en Mxico 4.2 La oferta aleatoria de vales escolares en Colombia 4.3 Promocin de inversiones en infraestructura educativa en Bolivia 5.1 Asistencia social y oferta de mano de obra en Canad 5.2 Tasas escolares y niveles de matriculacin en Colombia 5.3 Sistemas de proteccin social basados en el ndice de pobreza en Jamaica 6.1 Privatizacin del agua y mortalidad infantil en Argentina 7 .1 Efecto del programa de salario garantizado sobre los ingresos en Argentina 7 .2 Agua corriente y salud infantil en India 8.1 Lista de control para las pruebas de vericacin y falsacin 8.2 Pareamiento con diferencias en diferencias: Suelos de cemento, salud infantil y felicidad materna en Mxico 8.3 Trabajar con derrames: Tratamiento antiparasitario, externalidades y educacin en Kenya
viii

229

5 6 9 12 23 36 64 70 78 89 90 91 103 113 114 118 121 124

La evaluacin de impacto en la prctica

9.1 9.2 10.1 12.1 13.1 13.2 13.3 13.4

Puesta a prueba de programas alternativos para la prevencin del VIH/sida en Kenya Puesta a prueba de programas alternativos para el control de la corrupcin en Indonesia Programas de transferencias monetarias y la escala mnima de la intervencin Recoleccin de datos para la evaluacin del proyecto piloto Atencin a Crisis en Nicaragua Estructura de un plan de evaluacin de impacto Estructura de un informe de lnea de base Estructura de un informe de evaluacin Divulgacin de los resultados de la evaluacin para mejorar las polticas

135 136 152 208 212 213 216 221

Grcos 2.1 Qu es una cadena de resultados? 2.2 Cadena de resultados de un programa de matemticas en la educacin secundaria 3.1 El clon perfecto 3.2 Un grupo de comparacin vlido 3.3 Estimaciones antes-despus de un programa de micronanzas 4.1 Caractersticas de los grupos con la asignacin aleatoria del tratamiento 4.2 Muestreo aleatorio y asignacin aleatoria del tratamiento 4.3 Pasos para la asignacin aleatoria del tratamiento 4.4 Asignacin aleatoria del tratamiento mediante una hoja de clculo 4.5 Estimacin del impacto con la asignacin aleatoria 4.6 Oferta aleatoria de un programa 4.7 Estimacin del impacto del tratamiento en tratados con la oferta aleatoria 4.8 Promocin aleatoria 4.9 Estimacin del impacto con la promocin aleatoria 5.1 Produccin de arroz 5.2 Gasto de los hogares en relacin con la pobreza (intervencin previa) 5.3 Discontinuidad en la elegibilidad del programa de transferencia monetaria 5.4 Gasto de los hogares en relacin con la pobreza (intervencin posterior) 5.5 ndice de pobreza y gasto en salud en la lnea de base del Programa de Subsidio del Seguro Social
ndice

25 26 37 39 41 52 54 57 58 61 67 67 74 75 83 84 85 86 87
ix

5.6 6.1 6.2 7 .1 7 .2 8.1 9.1 9.2 9.3 P3.1 11.1 11.2 14.1

ndice de pobreza y gasto en salud: Programa de Subsidio del Seguro Social dos aos despus Diferencias en diferencias Diferencias en diferencias cuando las tendencias de los resultados son diferentes Pareamiento exacto con cuatro caractersticas Pareamiento de las propensiones a participar y rango comn Efecto de derrame Pasos para la asignacin aleatoria de dos niveles de tratamiento Pasos para la asignacin aleatoria de dos intervenciones Grupos de tratamiento y de comparacin para un programa con dos intervenciones Hoja de ruta para la implementacin de una evaluacin de impacto Una muestra ms grande se parece ms a la poblacin Un marco muestral vlido cubre a toda la poblacin de inters Nmero de evaluaciones de impacto en el Banco Mundial por regin, 2004-10

88 97 100 108 110 125 131 133 134 141 177 193 227

Cuadros 2.1 Elementos de un plan de monitoreo y evaluacin 3.1 Primer caso: Impacto del PSSS segn comparacin antes-despus (comparacin de medias) 3.2 Primer caso: Impacto del PSSS segn comparacin antes-despus (anlisis de regresin) 3.3 Segundo caso: Impacto del PSSS segn comparacin inscritos-no inscritos (comparacin de medias) 3.4 Segundo caso: Impacto del PSSS segn comparacin inscritos-no inscritos (anlisis de regresin) 4.1 Tercer caso: Equilibrio bsico entre las comunidades de tratamiento y de comparacin 4.2 Tercer caso: Impacto del PSSS segn la asignacin aleatoria (comparacin de medias) 4.3 Tercer caso: Impacto del PSSS segn la asignacin aleatoria (anlisis de regresin) 4.4 Cuarto caso: Impacto del PSSS segn la promocin aleatoria (comparacin de medias) 4.5 Cuarto caso: Impacto del PSSS segn la promocin aleatoria (anlisis de regresin) 5.1 Quinto caso: Impacto del PSSS segn el diseo de regresin discontinua (anlisis de regresin)
x

28 44 44 46 47 62 63 63 76 77 88

La evaluacin de impacto en la prctica

6.1 6.2 6.3 7 .1 7 .2 7 .3 10.1 10.2 10.3 10.4 10.5 11.1 11.2

11.3

11.4

11.5

11.6

11.7

El mtodo de diferencias en diferencias Sexto caso: Impacto del PSSS, diferencias en diferencias (comparacin de medias) Sexto caso: Impacto del PSSS, diferencias en diferencias (anlisis de regresin) Estimacin de la puntuacin de la propensin segn caractersticas observadas Sptimo caso: Impacto del PSSS, pareamiento (comparacin de medias) Sptimo caso: Impacto del PSSS, pareamiento (anlisis de regresin) Relacin entre las reglas operativas de un programa y los mtodos de evaluacin de impacto Costo de las evaluaciones de impacto de una seleccin de proyectos nanciados por el Banco Mundial Costos desagregados de una seleccin de proyectos nanciados por el Banco Mundial Hoja de clculo para la estimacin del costo de la evaluacin de impacto Ejemplo de presupuesto de evaluacin de impacto Ejemplos de conglomerados Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,9; sin conglomerados Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,8; sin conglomerados Tamao requerido de la muestra para detectar varios efectos mnimos (aumento de la tasa de hospitalizacin); potencia = 0,9; sin conglomerados Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,9; con un mximo de 100 conglomerados Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,8; con un mximo de 100 conglomerados Tamao requerido de la muestra para detectar un impacto mnimo de US$2 con varias cantidades de conglomerados; potencia = 0,9

98 102 102 111 112 112 148 161 162 166 167 181

186

186

187

190

191

191

ndice

xi

PREFACIO

Este libro pretende ser una introduccin accesible al tema de la evaluacin de impacto y a cmo aplicarla al mbito del desarrollo. Aunque est orientado principalmente a los y las profesionales y responsables de polticas de desarrollo, esperamos que sea un recurso valioso para estudiantes y para cualquier persona interesada en el tema. Este tipo de evaluaciones sirve para determinar si un programa ha logrado o no los resultados previstos, y para explorar si existen estrategias alternativas con las que alcanzar mejor dichos resultados. Los autores de este manual creemos que el aumento y la mejora en la calidad de las evaluaciones de impacto ayudarn a fortalecer la base documental de evidencias para mejorar las polticas y los programas de desarrollo en el mundo. Tenemos la esperanza de que cuando Gobiernos y profesionales del desarrollo puedan adoptar sus decisiones basados en evidencias, los recursos dedicados al desarrollo internacional sern empleados ms ecazmente para reducir la pobreza y mejorar las vidas de las personas. Este manual, que ofrece una introduccin no tcnica al tema, est estructurado en tres partes: en la primera se explica qu signica evaluar el impacto de los programas de desarrollo y por qu es importante; la segunda parte se centra en cmo evaluar; en la tercera parte se aborda la cuestin de cmo implementar una evaluacin. Estos elementos constituyen los elementos bsicos necesarios para llevar a cabo una evaluacin de impacto. En este manual hemos pretendido aproximarnos al tema principalmente a partir de la intuicin, por lo que se ha minimizado la terminologa tcnica. Se ofrece al lector una serie de herramientas bsicas de evaluacin (los conceptos y los mtodos fundamentales) y se analiza su aplicacin a programas de desarrollo del mundo real. Los mtodos provienen de la investigacin en ciencias sociales y comparten muchos elementos con los mtodos de investigacin de las ciencias naturales. La evaluacin de impacto combina las tcnicas de investigacin aplicada empleadas por la economa y las ciencias sociales con las realidades operativas y de economa poltica relacionadas con la implementacin de polticas y con la prctica del desarrollo.

xiii

Desde el punto de vista metodolgico, nuestro enfoque es esencialmente pragmtico: creemos que los mtodos ms apropiados deben adaptarse al contexto operativo, y no al revs. La mejor manera de lograrlo es al comienzo del programa, mediante el diseo de evaluaciones de impacto prospectivas que se incorporen a las operaciones del programa durante su implementacin. Creemos que en el diseo de una evaluacin de impacto adecuada al contexto poltico y operacional, el consenso de los socios es tan importante como el propio mtodo de evaluacin. Adems, las evaluaciones de impacto deben ser francas acerca de sus limitaciones y salvedades. Finalmente, recomendamos a los y las responsables de polticas y a los y las gerentes de los programas que consideren las evaluaciones de impacto dentro de un marco lgico que determine claramente los procesos causales mediante los cuales un programa genera productos que, a su vez, inciden en los resultados nales; y que los complementen con ejercicios de planicacin estratgica y seguimiento que permitan obtener una visin completa del desempeo del programa. Quiz lo ms novedoso de este libro sea el modo en que se han aplicado las tcnicas de evaluacin de impacto a programas de desarrollo reales. Nuestras experiencias y lecciones sobre la aplicacin prctica de una evaluacin de impacto se basan en la labor de enseanza y en la colaboracin con centenares de socios en Gobiernos, instituciones acadmicas y socios del desarrollo. Los autores y autoras de este libro acumulan docenas de aos de experiencia en evaluaciones de impacto en casi todos los rincones del mundo. Este libro se basa principalmente en una serie de materiales didcticos preparados para los talleres Turning Promises into Evidence, organizados por la Ocina del Economista Jefe de Desarrollo Humano, en colaboracin con unidades regionales y el Grupo de Investigacin sobre Economa del Desarrollo del Banco Mundial. Cuando se escribi este libro, el taller se haba impartido ms de una veintena de veces en todo el mundo. Los talleres y este manual han sido posibles gracias a las generosas donaciones del Gobierno de Espaa y el Departamento de Desarrollo Internacional del Reino Unido a travs de sus contribuciones al Fondo Espaol de Evaluacin de Impacto (SIEF). Este manual y las presentaciones y ponencias adjuntas estn disponibles en la direccin de Internet: http://www.worldbank.org/ieinpractice. Otras introducciones de calidad al tema de la evaluacin de impacto para la formulacin de polticas anteriores son: Baker, 2000; Ravallion, 2001, 2008 y 2009; Duo, Glennerster y Kremer, 2007; Duo y Kremer, 2008; Khandker, Koolwal y Samad, 2009, y Leeuw y Vaessen, 2009. El presente libro se distingue de otras publicaciones en que, adems de ofrecer una descripcin general y no tcnica de los mtodos cuantitativos de evaluacin de impacto, los relaciona directamente con las reglas de funcionamiento de los programas y lleva a cabo un anlisis detallado de otros aspectos relativos a su implementacin prctica. El libro tambin est relacionado con los cursos y materiales de apoyo para el desarrollo de capacidades de evaluacin de impacto. Los materiales didcticos en los que se basa este libro han sido presentados de muchas maneras y han sido impartidos por una serie de instructores competentes, quienes han dejado su impronta en los mtodos y el modo de ensear la evaluacin de impacto. Paul Gertler y Sebastin Martnez, junto con Sebastin Galiani y

xiv

La evaluacin de impacto en la prctica

Sigrid Vivo, reunieron un primer conjunto de materiales de enseanza para un taller celebrado en la sede de la Secretara de Desarrollo Social de Mxico en 2005. Christel Vermeersch desarroll y perfeccion grandes secciones de los mdulos tcnicos del taller y adapt un estudio de caso para presentarlo en el taller. Laura Rawlings y Patrick Premand desarrollaron los materiales empleados en las versiones ms recientes del taller. Agradecemos las contribuciones y los considerables insumos de una serie de instructores que han impartido conjuntamente el taller, entre ellos Felipe Barrera, Sergio Bautista-Arredondo, Stefano Bertozzi, Barbara Bruns, Pedro Carneiro, Jishnu Das, David Evans, Claudio Ferraz, Jed Friedman, Emanuela Galasso, Sebastin Galiani, Gonzalo Hernndez Licona, Arianna Legovini, Phillippe Leite, Mattias Lundberg, Karen Macours, Juan Muoz, Plamen Nikolov, Berk zler, Nancy Qian, Gloria M. Rubio, Norbert Schady y Damien de Walque. Agradecemos los comentarios de nuestros revisores expertos Barbara Bruns, Arianna Legovini, Dan Levy y Emmanuel Skouas, y de Bertha Briceno, Gloria M. Rubio y Jennifer Sturdy. Tambin agradecemos los esfuerzos del competente equipo encargado de organizar los talleres, compuesto por Paloma Acevedo, Theresa Adobea Bampoe, Febe Mackey, Silvia Paruzzolo, Tatyana Ringland, Adam Ross, Jennifer Sturdy y Sigrid Vivo. Los documentos mimeograados en los que se basan algunas partes de este libro fueron redactados en un taller celebrado en Beijing, China, en julio de 2009. Agradecemos a todas las personas que participaron en la redaccin de las transcripciones originales del taller, en particular a Paloma Acevedo, Carlos Asenjo, Sebastian Bauhoff, Bradley Chen, Changcheng Song, Jane Zhang y Shufang Zhang. Tambin agradecemos a Kristine Cronin por su excelente asistencia en la investigacin, a Marco Guzmn y Martin Ruegenberg por el diseo de las ilustraciones, y a Cindy A. Fisher, Fiona Mackintosh y Stuart K. Tucker por la asistencia editorial durante la produccin del libro. Agradecemos el apoyo a las actividades programticas de evaluacin de impacto en todo el Banco Mundial, lo que incluye el respaldo y la conduccin de Ariel Fiszbein, Arianna Legovini y Martin Ravallion. La versin en espaol del libro fue traducida por un equipo del Banco Mundial coordinado por Mara Carolina Mntaras. Estamos inmensamente agradecidos a Paloma Acevedo Alameda y Carlos Asenjo, expertos en evaluacin de impacto y miembros del equipo del SIEF, por la cuidadosa revisin del libro y sus innumerables sugerencias para mejorar el contenido. Gracias a su revisin, esperamos haber creado un manual que aporte valor a la escasa bibliografa en espaol sobre el tema. La terminologa empleada ha sido escogida pensando en un pblico objetivo principalmente compuesto por profesionales, investigadores y responsables de polticas de desarrollo de Amrica Latina. Este libro y su traduccin al espaol han sido nanciados por el Gobierno de Espaa a travs del SIEF. Finalmente, queremos agradecer a los participantes de los talleres celebrados en Ciudad de Mxico, Nueva Delhi, Cuernavaca, Ankara, Buenos Aires, Paipa, Fortaleza, Sofa, El Cairo, Managua, Madrid, Washington, Manila, Pretoria, Tnez, Lima, Amn, Beijing, Sarajevo, Ciudad del Cabo, San Salvador, Katmand, Ro de Janeiro y Accra. Gracias a su inters, sus preguntas y su entusiasmo pudimos conocer qu esperan de las evaluaciones de impacto los y las responsables de polticas de desarrollo. Esperamos que este libro reeje sus ideas.
Prefacio

xv

Referencias
Baker, Judy. 2000. Evaluacin del impacto de los proyectos de desarrollo en la pobreza. Manual para profesionales. Washington, DC: Banco Mundial. Duo, Esther; Glennerster, Rachel y Kremer, Michael. 2007. Using Randomization in Development Economics Research: A Toolkit. CEPR Discussion Paper No. 6059. Center for Economic Policy Research, Londres, Reino Unido. Duo, Esther y Kremer, Michael. 2008. Use of Randomization in the Evaluation of Development Effectiveness. En Evaluating Development Effectiveness, vol. 7. Washington, DC: Banco Mundial. Khandker, Shahidur R.; Koolwal, Gayatri B. y Samad, Hussain. 2009. Handbook on Quantitative Methods of Program Evaluation. Washington, DC: Banco Mundial. Leeuw, Frans y Vaessen, Jos. 2009. Impact Evaluations and Development. NONIE Guidance on Impact Evaluation. Washington, DC: NONIE y Banco Mundial. Ravallion, Martin. 2001. The Mystery of the Vanishing Benets: Ms. Speedy Analysts Introduction to Evaluation. World Bank Economic Review 15 (1): 115-40. .. 2008. Evaluating Anti-Poverty Programs. En Handbook of Development Economics, vol. 4., compilado por Paul Schultz y John Strauss. Amsterdam: North Holland. .. 2009. Evaluation in the Practice of Development. World Bank Research Observer 24 (1): 29-53.

xvi

La evaluacin de impacto en la prctica

Primera parte

INTRODUCCIN A LA EVALUACIN DE IMPACTO

En esta primera parte del libro se hace una descripcin general de la evaluacin de impacto. En el captulo 1 se analiza su importancia y cmo se ubica dentro del contexto de la formulacin de polticas basadas en evidencias. Se compara la evaluacin de impacto con otras prcticas de evaluacin habituales, como el monitoreo y las evaluaciones de procesos. Finalmente, se presentan diferentes modalidades de evaluacin de impacto, como la evaluacin prospectiva y retrospectiva, y las pruebas de la ecacia frente a la efectividad. En el captulo 2 se examina la manera de formular preguntas e hiptesis de evaluacin tiles para la formulacin de polticas. Estas preguntas e hiptesis orientan la evaluacin y la fundamentan.

CAPTULO 1

Por qu evaluar?
Los programas y las polticas de desarrollo suelen estar diseados para conseguir resultados como, por ejemplo, aumentar los ingresos, mejorar el aprendizaje o reducir la enfermedad. Que se logren o no estos resultados es una cuestin que, pese a ser esencial para el xito de las polticas pblicas, no suele abordarse. Habitualmente los administradores de los programas y los responsables de polticas se concentran en medir los insumos y los productos inmediatos del programa (cunto dinero se gasta, cuntos libros de texto de distribuyen), en lugar de valorar si los programas han alcanzado sus objetivos.

Formulacin de polticas basadas en evidencias


Las evaluaciones de impacto forman parte de un programa ms amplio de formulacin de polticas basadas en evidencias. Esta tendencia mundial creciente se caracteriza por un cambio de enfoque: de los insumos a los resultados. Desde los objetivos de desarrollo del milenio hasta los incentivos de pago por desempeo para los proveedores de servicios pblicos, esta tendencia mundial est cambiando el modo en que se llevan a cabo las polticas pblicas. El enfoque en los resultados no solo se emplea para jar metas nacionales e internacionales y hacer un seguimiento de ellas, sino que los administradores de los programas cada vez necesitan ms conocer los resultados obtenidos para rendir cuentas, informar las asignaciones presupuestarias y orientar las decisiones sobre polticas.

El monitoreo y la evaluacin son elementos fundamentales de la formulacin de polticas basadas en evidencias. Ofrecen un conjunto fundamental de herramientas que las partes interesadas pueden utilizar para vericar y mejorar la calidad, la eciencia y la efectividad de las intervenciones en varias etapas de la implementacin; dicho de otro modo: les permite centrarse en los resultados. Las partes interesadas pueden formar o no formar parte de los Gobiernos. Frecuentemente, los funcionarios de un organismo pblico o un ministerio necesitan demostrar ante sus superiores que los programas funcionan para obtener asignaciones presupuestarias que les permitan continuarlos y expandirlos. A nivel nacional, los ministerios compiten entre ellos para obtener nanciamiento del ministerio de Finanzas. En paralelo, los Gobiernos estn interesados en convencer a sus ciudadanos de que las inversiones que han elegido tienen rendimientos positivos. La informacin y las evidencias se convierten en un medio para sensibilizar al pblico y promover la rendicin de cuentas del Gobierno. La informacin generada mediante sistemas de monitoreo y evaluacin puede compartirse regularmente con los ciudadanos para informarlos acerca del desempeo de los programas ociales y desarrollar una base slida para la transparencia y la rendicin de cuentas. En un contexto en el que los responsables de polticas y la sociedad civil exigen resultados y rendicin de cuentas a los programas pblicos, la evaluacin de impacto puede ofrecer evidencias slidas y crebles del desempeo y, lo que es fundamental, puede determinar si un programa ha logrado los resultados deseados. A nivel mundial, las evaluaciones de impacto tambin son esenciales para generar conocimiento acerca de la efectividad de los programas de desarrollo, al ilustrar lo que funciona y no funciona. En trminos sencillos, una evaluacin de impacto evala los cambios en el bienestar de las personas que pueden atribuirse a un proyecto, programa o poltica particular. Este enfoque en el anlisis de la atribucin es la caracterstica distintiva de las evaluaciones de impacto. Por consiguiente, el principal desafo para llevar a cabo evaluaciones ecaces de impacto es identicar la relacin causal entre el proyecto, el programa o la poltica y los resultados de inters. Como se explicar ms adelante, las evaluaciones de impacto estiman generalmente los impactos promedio de un programa sobre los beneciarios. Por ejemplo: la introduccin de un nuevo programa de estudios, conllev una mejora en los resultados obtenidos en los exmenes por los estudiantes? Aument un programa de agua y saneamiento el acceso al agua potable y mejor la salud? Logra un programa de capacitacin de jvenes fomentar la actividad empresarial y acrecentar los ingresos? Adems, si la evaluacin de impacto incluye una muestra de beneciarios sucientemente grande, los resultados pueden compararse tambin entre subgrupos de beneciarios. Por ejemplo, al introducirse un nuevo programa de estudios, aumentaron ms las calicaciones de los estudiantes o de las estudiantes? Las evaluaciones de impacto tambin se pueden emplear para comprobar explcitamente opciones alternativas de diseo de un programa. Por ejemplo, una evaluacin podra

La evaluacin de impacto en la prctica

comparar el desempeo de un programa de capacitacin con respecto a una campaa promocional para aumentar el nivel de alfabetizacin nanciera. En cada uno de estos casos la evaluacin de impacto aporta informacin sobre el impacto total de un programa, a diferencia de los estudios especcos, de caso o anecdticos, que solo suministran una informacin parcial y pueden no ser representativos del impacto general del programa. Las evaluaciones bien diseadas y bien implementadas

Recuadro 1.1: Evaluaciones y sostenibilidad poltica


El programa Progresa/Oportunidades de transferencias monetarias condicionadas en Mxico
En la dcada de 1990, el Gobierno de Mxico puso en marcha un programa innovador de transferencias monetarias condicionadas denominado Progresa. Sus objetivos eran ofrecer a los hogares pobres un apoyo monetario a corto plazo e incentivar inversiones en el capital humano de los nios, principalmente mediante una transferencia monetaria a las madres de hogares pobres a condicin de que sus hijos asistieran a la escuela y visitaran regularmente un centro de salud. Desde el principio, el Gobierno consider que era esencial monitorear y evaluar el programa. Los funcionarios responsables de Progresa contrataron a un grupo de investigadores para que disearan una evaluacin de impacto basada en la expansin del programa a lo largo del tiempo a nuevas comunidades participantes. Las elecciones presidenciales de 2000 se saldaron con un cambio en el partido gobernante. En 2001 los evaluadores externos de Progresa presentaron sus conclusiones al Gobierno recin elegido. Los resultados eran impresionantes: el programa estaba bien focalizado en los pobres y haba generado cambios prometedores en el capital humano de los hogares. Schultz (2004) observ que Progresa haba mejorado considerablemente la matriculacin escolar, con un promedio de 0,7 aos adicionales de escolarizacin. Gertler (2004) encontr que la incidencia de las enfermedades en los nios se haba reducido un 23%, mientras que los adultos registraron una reduccin del 19% en los das de trabajo o estudio perdidos por enfermedad o discapacidad. En cuanto a los resultados relacionados con la nutricin, Behrman y Hoddinott (2001) observaron que el programa haba reducido la probabilidad de retraso del crecimiento en alrededor de un centmetro al ao para los nios dentro de la franja crtica de edad de los 12 a los 36 meses. Estos resultados de las evaluaciones sirvieron de punto de partida para un dilogo sobre polticas basadas en evidencias y contribuyeron a la decisin de continuar el programa. El Gobierno ampli el alcance del programa con la introduccin de becas para la educacin secundaria bsica y la mejora de los programas de salud para adolescentes, en ocasin de lo cual el programa pas a llamarse Oportunidades. Al mismo tiempo, los resultados se usaron para modicar otros programas de asistencia social, tales como el programa ms cuantioso y peor orientado de subsidios para tortillas, cuyo alcance se redujo. La evaluacin exitosa de Progresa contribuy tambin a la rpida adopcin de los programas de transferencias monetarias condicionadas en todo el mundo, adems de la aprobacin de nuevas leyes en Mxico que requeran la evaluacin de todos los proyectos sociales.

Fuentes: Behrman y Hoddinott, 2001; Fiszbein y Schady, 2009; Gertler, 2004; Levy y Rodrguez, 2005; Schultz, 2004; Skouas y McClafferty, 2001.

Por qu evaluar?

pueden aportar evidencias convincentes y exhaustivas tiles para informar las decisiones sobre polticas e inuir en la opinin pblica. El recuadro 1.1 ilustra cmo la evaluacin de impacto ha contribuido a los debates sobre las polticas relacionadas con la expansin de un programa de transferencias monetarias condicionadas en Mxico1. En el recuadro 1.2 se explica la manera en que la evaluacin de impacto ayud a mejorar las asignaciones de recursos del Gobierno de Indonesia al documentar qu polticas eran ms efectivas para reducir las tasas de fertilidad.

Recuadro 1.2: Evaluacin para mejorar las asignaciones de recursos


Planicacin familiar y fertilidad en Indonesia
En la dcada de 1970 las iniciativas innovadoras de planicacin familiar en Indonesia cobraron reconocimiento internacional por haber logrado reducir las tasas de fertilidad del pas. Este reconocimiento se debi a dos fenmenos paralelos: 1) las tasas de fertilidad se redujeron un 22% entre 1970 y 1980, un 25% entre 1981 y 1990, y algo ms moderadamente entre 1991 y 1994, y 2) durante el mismo perodo, el Gobierno de Indonesia increment considerablemente los recursos destinados a la planicacin familiar (especialmente los subsidios para anticonceptivos). Dado que los dos fenmenos fueron contemporneos, muchos concluyeron que la reduccin de la fertilidad se deba al aumento de la inversin en planicacin familiar. Un equipo de investigadores no estaba convencido con las evidencias disponibles y estudi la relacin entre ambos fenmenos. Contrariamente a la opinin general, observaron que los programas de planicacin familiar solo haban tenido un impacto moderado sobre la fertilidad, y argumentaron que el descenso de las tasas de fertilidad se deba, ms bien, a un cambio de la situacin de la mujer. Los investigadores sealaron que, antes del comienzo del programa de planicacin familiar, muy pocas mujeres en edad reproductiva haban terminado la educacin primaria. Sin embargo, durante el
Fuentes: Gertler y Molyneaux, 1994 y 2000.

mismo perodo del programa de planicacin familiar, el Gobierno emprendi un programa de educacin a gran escala para nias; por lo que, al nal del programa, las mujeres que entraban en la edad reproductiva se haban beneciado de educacin adicional. Cuando el auge del petrleo gener una expansin econmica y aument la demanda de mano de obra en Indonesia, la participacin de las mujeres educadas en el mercado laboral se increment signicativamente. Con el aumento de valor del tiempo de las mujeres en el trabajo, se produjo tambin un aumento del uso de anticonceptivos. Al nal, la subida de los salarios y el empoderamiento de las mujeres explic el 70% de la disminucin observada de la fertilidad, ms que la inversin en programas de planicacin familiar. Estos resultados informaron las decisiones posteriores sobre asignacin de recursos de los responsables de polticas: los fondos se recondujeron de los subsidios para anticonceptivos a los programas que aumentaban la matriculacin escolar de las mujeres. Aunque los objetivos nales de los dos tipos de programas son similares, los estudios de evaluacin haban demostrado que, en el contexto indonesio, para generar una reduccin de las tasas de fertilidad era ms efectiva la inversin en educacin que la inversin en planicacin familiar.

La evaluacin de impacto en la prctica

En qu consiste la evaluacin de impacto?


La evaluacin de impacto forma parte de una amplia gama de mtodos complementarios para apoyar las polticas basadas en evidencias. Aunque este libro se concentra en los mtodos cuantitativos de evaluacin de impacto, primero los situar en el contexto ms amplio de la gestin para resultados, que incluye tambin el monitoreo y otros tipos de evaluaciones. El monitoreo es un proceso continuo que sigue lo que est ocurriendo con un programa y emplea los datos recolectados para informar la implementacin y la administracin cotidiana del programa. El monitoreo utiliza principalmente datos administrativos para cotejar el desempeo con los resultados previstos, hacer comparaciones entre programas y analizar tendencias en el tiempo. Normalmente, el monitoreo se centra en los insumos, las actividades y los productos, aunque en ocasiones puede incluir los resultados, como el progreso de los objetivos nacionales de desarrollo. Las evaluaciones son exmenes peridicos y objetivos de un proyecto, programa o poltica programada, en curso o completada. Las evaluaciones se usan para responder a preguntas especcas, relacionadas con el diseo, la ejecucin y los resultados. En contraste con el monitoreo, continuo, se ejecutan en momentos discrecionales y suelen buscar una perspectiva externa de expertos tcnicos. Su diseo, mtodo y costo varan considerablemente en funcin del tipo de pregunta que intenten responder. En trminos generales, las evaluaciones pueden abordar tres tipos de preguntas (Imas y Rist, 2009): Preguntas descriptivas. La evaluacin intenta determinar qu est ocurriendo y describe los procesos, condiciones, relaciones organizativas y opiniones de las partes interesadas. Preguntas normativas. La evaluacin compara lo que est ocurriendo con lo que debera ocurrir; evala las actividades y si se logran o no los objetivos. Las preguntas normativas pueden aplicarse a los insumos, las actividades y los productos. Preguntas sobre causa y efecto. La evaluacin examina los resultados e intenta determinar la diferencia que ejerce la intervencin sobre estos. Las evaluaciones de impacto son un tipo particular de evaluacin que intenta responder a preguntas sobre causa y efecto. A diferencia de las evaluaciones generales, que pueden responder a muchos tipos de preguntas, las evaluaciones de impacto se preocupan por saber cul es el impacto (o efecto causal) de un programa sobre un resultado de inters. Solo interesa el impacto del programa: el efecto directo que tiene en los resultados. Una evaluacin de impacto analiza los cambios en el resultado directamente atribuibles al programa. El enfoque en la causalidad y la atribucin es la caracterstica distintiva de las evaluaciones de impacto y determina las metodologas a usar. Para estimar el efecto causal o el impacto de un programa sobre los resultados, cualquier mtodo elegido

Por qu evaluar?

Concepto clave:
La pregunta fundamental de una evaluacin de impacto puede formularse as: Cul es el impacto (o efecto causal) de un programa sobre un resultado de inters?

debe estimar el denominado contrafactual, es decir, cul habra sido el resultado para los participantes en el programa si no hubieran participado en l. En la prctica, la evaluacin de impacto requiere que el evaluador encuentre un grupo de comparacin para estimar lo que habra ocurrido con los participantes sin el programa. La segunda parte del libro describe los principales mtodos para encontrar grupos de comparacin adecuados. La pregunta fundamental de la evaluacin, Cul es el impacto (o efecto causal) de un programa sobre un resultado de inters?, puede aplicarse a muchos contextos. Por ejemplo, cul es el efecto causal de las becas sobre la asistencia escolar y el logro acadmico? Cul es el impacto sobre el acceso a la atencin a la salud de la contratacin de la atencin primaria a proveedores privados? Si se sustituyen los suelos de tierra por suelos de cemento, cul sera el impacto sobre la salud de los nios? La mejora de las carreteras mejora el acceso a mercados laborales y aumenta el ingreso de los hogares? En caso armativo, cunto? El tamao de la clase inuye en el logro escolar? En caso armativo, en qu medida? Qu es ms efectivo para aumentar el uso de mosquiteros en zonas afectadas por el paludismo: las campaas de correo o las sesiones de capacitacin?

Evaluacin de impacto para decidir sobre polticas


Las evaluaciones de impacto son necesarias para informar a los responsables de polticas sobre una serie de decisiones, desde la interrupcin de programas inecientes hasta la expansin de las intervenciones que funcionan, el ajuste de los benecios de un programa o la eleccin entre varios programas alternativos. Alcanzan su mxima efectividad cuando se aplican selectivamente para responder a importantes preguntas sobre polticas, y pueden ser especialmente efectivas cuando se aplican a programas piloto innovadores que estn poniendo a prueba un enfoque nuevo y no demostrado, pero prometedor. La evaluacin del programa Progresa/Oportunidades de Mxico descrita en el recuadro 1.1 cobr tanta inuencia no solo por el carcter innovador del programa, sino tambin porque la evaluacin de su impacto aport evidencias crebles y slidas que no pudieron obviarse en las decisiones subsiguientes sobre polticas. La adopcin y la expansin del programa se vieron claramente inuidas por los resultados de la evaluacin. Hoy en da, el programa Oportunidades atiende a cerca de 1 de cada 4 mexicanos y es un elemento fundamental de la estrategia del pas para combatir la pobreza. Las evaluaciones de impacto se pueden usar para explorar diferentes tipos de preguntas sobre polticas. En la forma bsica de una evaluacin de impacto se comprueba la efectividad de cierto programa. En otras palabras, responder a la pregunta: Es un programa efectivo comparado con la ausencia del mismo? Como se explica en la segunda parte, este tipo de evaluacin de impacto consiste en comparar un grupo de tratamiento que se beneci de un proyecto, programa o poltica con un grupo de comparacin que no se beneci para estimar la efectividad del programa.

La evaluacin de impacto en la prctica

Adems de responder a esta pregunta bsica, las evaluaciones tambin pueden comprobar la efectividad de alternativas de implementacin de un programa, es decir, para responder a la pregunta: Cuando un programa se puede implementar de varias maneras, cul es la ms efectiva? En este tipo de evaluacin, se comparan dos o ms mtodos dentro de un programa para generar pruebas sobre la mejor forma de alcanzar un objetivo particular. Estas alternativas del programa suelen denominarse opciones de tratamiento. Por ejemplo, cuando la cantidad de benecios que debe aportar un programa para ser efectivo no est clara (20 horas u 80 horas de capacitacin?), las evaluaciones de impacto pueden comprobar el impacto relativo de diversas intensidades del tratamiento (vase el ejemplo del recuadro 1.3). Las evaluaciones de impacto que comprueban tratamientos alternativos del programa incluyen normalmente un grupo de tratamiento para cada opcin de tratamiento, as como un grupo puro de comparacin que no recibe ninguna intervencin del programa. Las evaluaciones de impacto tambin se pueden usar para poner a prueba innovaciones o alternativas de implementacin dentro de un programa. Por ejemplo, un programa puede querer probar campaas de informacin alternativas y seleccionar a un grupo para recibir una campaa de correo, mientras que otros reciben visitas puerta a puerta, para valorar cul es el mtodo ms efectivo.

Recuadro 1.3: Evaluacin para mejorar el diseo del programa


Malnutricin y desarrollo cognitivo en Colombia
A principios de la dcada de 1970, la Estacin de Investigacin de Ecologa Humana, en colaboracin con el Ministerio de Educacin de Colombia, implement un programa piloto para enfrentar la malnutricin infantil en Cali mediante la provisin de atencin a la salud y actividades educativas, adems de alimentos y suplementos nutricionales. Como parte del piloto, se encarg a un equipo de evaluadores que determinaran: 1) cunto tiempo debera durar el programa para reducir la malnutricin entre nios en preescolar de familias de ingreso bajo, y 2) si las intervenciones podran generar tambin mejoras del desarrollo cognitivo. El programa se puso nalmente a disposicin de todas las familias elegibles, pero durante la fase piloto los evaluadores pudieron comparar a grupos similares de nios que recibieron tratamiento durante diferentes perodos. Los evaluadores utilizaron primero un proceso de seleccin para identicar a 333 nios malnutridos. Estos nios se clasicaron en 20 sectores por barrios, y se asign aleatoriamente uno de los cuatro grupos de tratamiento a cada sector. La nica diferencia entre los grupos fue la secuencia en la que empezaron el tratamiento y, por consiguiente, la duracin del programa. El grupo 4 empez primero y estuvo expuesto al tratamiento durante ms tiempo, seguido de los grupos 3, 2 y 1. El tratamiento consisti en seis horas diarias de atencin a la salud y actividades educativas, ms alimentos y suplementos nutricionales. En intervalos regulares a lo largo del programa, los evaluadores aplicaron exmenes cognitivos para seguir el progreso de los nios de los cuatro grupos.
(contina)

Por qu evaluar?

Recuadro 1.3 continuacin

Los evaluadores observaron que los nios que pasaron ms tiempo en el programa mostraban mejor desarrollo cognitivo. En la prueba de inteligencia Stanford-Binet, que calcula la edad mental menos la edad cronolgica, los nios del grupo 4 obtuvieron un resultado promedio de 5 meses, y los nios del grupo 1 obtuvieron un promedio de 15 meses.
Fuente: McKay y otros, 1978.

Este ejemplo ilustra la manera en que los administradores de un programa y los responsables de polticas pueden usar las evaluaciones de mltiples opciones de tratamiento para determinar la alternativa ms efectiva para un programa.

La decisin de evaluar
No todos los programas justican una evaluacin de impacto. Las evaluaciones de impacto pueden ser costosas, y deben usar su presupuesto estratgicamente. Si est diseando un nuevo programa o pensando en expandir un programa existente y se est planteando la posibilidad de realizar una evaluacin de impacto, responder a una serie de preguntas bsicas puede ayudarle a tomar esta decisin. La primera pregunta es: Qu est en juego en este programa? La respuesta depender tanto del presupuesto asignado como del nmero de personas afectadas ahora o en el futuro por el programa. Por lo tanto, a continuacin debe preguntarse: El programa requiere o requerir una parte importante del presupuesto disponible? Y: El programa afecta o afectar a un gran nmero de personas? Si el programa no requiere un presupuesto o solo afecta a unas pocas personas, puede que no valga la pena evaluarlo. Por ejemplo, en un programa que ofrece orientacin psicolgica a pacientes de hospitales por medio de voluntarios, puede que el presupuesto y el nmero de personas afectadas no justiquen una evaluacin de impacto. Por el contrario, en un programa de reforma salarial para docentes que afectar eventualmente a todos los profesores de primaria del pas habr mucho ms en juego. Si determina que hay mucho en juego, la siguiente pregunta es si existen evidencias que demuestren que el programa funciona. En concreto, sabe qu nivel de impacto tendr el programa? Existen evidencias de un pas similar con circunstancias similares? Si no se dispone de evidencias acerca del tipo de programa que est considerando, puede empezar con un programa piloto que incorpore una evaluacin. Por el contrario, si dispone de evidencias de circunstancias similares, es probable que el costo de emprender una evaluacin de impacto solo pueda

10

La evaluacin de impacto en la prctica

justicarse si sirve para resolver una pregunta nueva e importante sobre polticas. Este sera el caso si su programa incluye algunas innovaciones importantes que an no se han puesto a prueba. Para justicar la movilizacin de los recursos tcnicos y nancieros necesarios para una evaluacin de impacto de gran calidad, el programa a evaluar debe ser: Innovador. Pone a prueba un nuevo enfoque prometedor. Replicable. Puede ampliarse y se puede aplicar en una situacin diferente. Estratgicamente pertinente. El programa es una iniciativa emblemtica; requiere considerables recursos; cubre, o puede expandirse para que cubra, a un gran nmero de personas, o podra generar un ahorro considerable. No comprobado. Se sabe muy poco sobre la efectividad del programa a nivel mundial o en un contexto particular. Inuyente. Los resultados se usarn para informar decisiones fundamentales sobre polticas.

Anlisis de la costo-efectividad
Una vez que se dispone de los resultados de la evaluacin de impacto, estos pueden combinarse con informacin sobre los costos del programa para responder a preguntas adicionales. Para la forma bsica de evaluacin de impacto, aadir la informacin sobre el costo permitir realizar un anlisis de costo-benecio, que responder a la pregunta: Cul es el balance entre costos y benecios del programa analizado? El anlisis de costo-benecio cuantica todos los costos y benecios previstos de un programa para poder compararlos y valorar si los benecios totales compensan los costos totales. En un mundo ideal, existira un anlisis de costo-benecio basado en las evidencias de la evaluacin de impacto no solo para un programa particular, sino tambin para una serie de programas y alternativas de programas, de manera que los responsables de polticas pudieran valorar qu alternativa es ms costo-efectiva para lograr cierto objetivo. Cuando una evaluacin de impacto comprueba las alternativas de un programa, la agregacin de la informacin sobre costos permite responder a una segunda pregunta: Qu tan costo-efectivas son unas alternativas de implementacin con respecto a otras? El anlisis de la costo-efectividad compara el desempeo relativo de dos o ms programas o alternativas de programas para lograr un resultado comn. En un anlisis de costo-benecio o de costo-efectividad, la evaluacin de impacto evala la parte del benecio y la efectividad, y el anlisis de los costos aporta la informacin sobre costos. Este libro se centra en la evaluacin de impacto y no analiza en detalle la manera de recopilar datos sobre costos o realizar anlisis Concepto clave:
El anlisis de la costo-efectividad calcula los benecios totales previstos de un programa en comparacin con el total de costos previstos.

Concepto clave:
El anlisis de la costo-efectividad compara el desempeo relativo de dos o ms programas o alternativas de programas para lograr un resultado comn.

Por qu evaluar?

11

de costo-benecio2. Sin embargo, es muy importante completar la evaluacin de impacto con informacin sobre el costo del proyecto, el programa o la poltica que se evala. Una vez que se disponga de informacin sobre el impacto y el costo de una variedad de programas, el anlisis de la costo-efectividad puede identicar qu inversiones producen la mayor tasa de rendimiento y permitir que los responsables de polticas adopten decisiones informadas acerca en qu intervenciones invertir. El recuadro 1.4 ilustra cmo se pueden emplear las evaluaciones de impacto para identicar los programas ms costo-efectivos y mejorar la asignacin de recursos.

Recuadro 1.4: Evaluacin de la costo-efectividad


Comparacin de estrategias para aumentar la asistencia escolar en Kenya
Mediante la evaluacin de una serie de programas en circunstancias similares, se puede comparar la costo-efectividad de diferentes estrategias para mejorar indicadores de resultados, como la asistencia escolar. En Kenya, la organizacin no gubernamental International Child Support Africa implement una serie de intervenciones educativas que incluyen el tratamiento contra parsitos intestinales, la provisin gratuita de uniformes escolares y la oferta de desayunos escolares. Cada una de las intervenciones se someti a una evaluacin de impacto basada en una asignacin aleatoria y a un anlisis de costo-benecio. La comparacin entre ambos estudios gener observaciones interesantes sobre cmo aumentar la asistencia escolar. Un programa que suministr tratamiento contra los parsitos intestinales a nios en edad escolar aument la asistencia alrededor de 0,14 aos para cada nio tratado, con un costo estimado de US$0,49 por nio. Esto equivale a unos US$3,50 por cada ao adicional de asistencia a la escuela, a los que hay que agregar las externalidades experimentadas por los nios y los adultos que no asisten a la escuela en las comunidades que se beneciaron de la reduccin de la transmisin de los parsitos. Una segunda intervencin, el Programa de Patrocinio de Nios, redujo el costo de la asistencia a la escuela mediante el suministro de uniformes escolares a los alumnos de siete escuelas seleccionadas aleatoriamente. Las tasas de abandono escolar disminuyeron drsticamente en las escuelas tratadas y, despus de cinco aos, se estim que el programa haba aumentado los aos de escolarizacin un promedio del 17%. Sin embargo, incluso con supuestos ms optimistas, el costo del aumento de la asistencia a la escuela mediante el programa de uniformes escolares se estim en alrededor de US$99 por cada ao adicional de asistencia. Finalmente, un programa que suministr desayunos gratuitos a nios de 25 centros de preescolar seleccionados aleatoriamente gener un aumento del 30% en la asistencia a las escuelas del grupo de tratamiento, con un costo estimado de US$36 por cada ao adicional de escolarizacin. Los resultados de los exmenes tambin mejoraron con desviaciones estndar de alrededor de 0,4 puntos, siempre que el profesor hubiera estado bien formado antes del programa. Aunque intervenciones similares pueden tener distintos objetivos en trminos de resultados, como los efectos de la desparasitacin para la salud o el logro escolar, adems del aumento de la participacin, la comparacin de una serie de evaluaciones realizadas en el mismo contexto puede determinar qu programas lograron el objetivo deseado con el menor costo.

Fuentes: Kremer y Miguel, 2004; Kremer, Moulin y Namunyu, 2003; Poverty Action Lab, 2005; Vermeersch y Kremer, 2005.

12

La evaluacin de impacto en la prctica

Evaluacin prospectiva versus evaluacin retrospectiva


Las evaluaciones de impacto pueden dividirse en dos categoras: prospectivas y retrospectivas. Las evaluaciones prospectivas se realizan al mismo tiempo que se disea el programa y forman parte de la implementacin del programa. Para ello, se recolectan datos de lnea de base de los grupos de tratamiento y de comparacin antes de la implementacin del programa. Las evaluaciones retrospectivas examinan el impacto del programa despus de su implementacin, lo que genera grupos de tratamiento y de comparacin ex post. En general, las evaluaciones prospectivas de impacto tienen ms probabilidades de producir resultados ms slidos y crebles, por tres motivos. Primero, se pueden recopilar datos de lnea de base para establecer mediciones previas al programa de los resultados de inters. Los datos de lnea de base aportan informacin sobre los beneciarios y los grupos de comparacin antes de la implementacin del programa y son importantes para medir los resultados previos a la intervencin. Se deben analizar estos datos sobre los grupos de tratamiento y de comparacin para asegurarse de que los grupos sean similares. Tambin se pueden usar los datos de lnea de base para determinar la efectividad de la focalizacin, es decir, si un programa atender o no a sus beneciarios previstos. Segundo, en la fase de planicacin la denicin de la medida del xito del programa centra la atencin tanto de este como de la evaluacin en los resultados previstos. Como se ver ms adelante, las evaluaciones de resultado se basan en la teora del cambio y en la cadena de resultados de un programa. El diseo de una evaluacin de impacto ayuda a aclarar los objetivos de un programa, especialmente porque requiere medidas bien denidas de su xito. Los responsables de polticas deben jar objetivos claros para que la evaluacin garantice que los resultados sean pertinentes para las polticas. De hecho, el pleno respaldo de los responsables de polticas es un requisito previo para llevar a cabo con xito una evaluacin: no se deben emprender evaluaciones de impacto a menos que estos responsables estn convencidos de la legitimidad de la evaluacin y de su valor para informar decisiones importantes sobre polticas. Tercero y ms importante desde el punto de vista tcnico, en una evaluacin prospectiva los grupos de tratamiento y de comparacin se identican antes de la implementacin del programa. Como se explicar ms detenidamente en los siguientes captulos, existen muchas ms opciones para llevar a cabo evaluaciones vlidas cuando estas se planican desde el principio y se basan en la implementacin de un proyecto. En la segunda y la tercera partes se arma que casi siempre se puede obtener una estimacin vlida del contrafactual en cualquier programa que cuente con reglas de asignacin claras y transparentes, siempre que la evaluacin se disee prospectivamente. En resumen, las evaluaciones prospectivas tienen ms probabilidades de generar contrafactuales vlidos. En la fase de diseo se pueden considerar maneras alternativas de estimar un contrafactual vlido. El diseo de la evaluacin de impacto tambin puede ser totalmente compatible con las reglas de funcionamiento, as como con el proceso de desarrollo o expansin del programa.

Concepto clave:
Las evaluaciones prospectivas se disean al mismo tiempo que el programa y se llevan a cabo como parte de su implementacin.

Por qu evaluar?

13

Por el contrario, en las evaluaciones retrospectivas, el evaluador suele contar con una informacin tan limitada que le resulta difcil analizar si el programa se implement con xito y si sus participantes se beneciaron realmente de l. Esto se debe en parte a que muchos programas no recolectan datos de lnea de base a menos que incorporen una evaluacin desde el principio y, una vez que estn en marcha, es demasiado tarde para hacerlo. Las evaluaciones retrospectivas que usan los datos existentes son necesarias para evaluar programas realizados en el pasado. En general, en estos casos las opciones para obtener una estimacin vlida del contrafactual son mucho ms limitadas. La evaluacin depende de la claridad de las reglas de funcionamiento del programa con respecto a la asignacin de benecios, as como de la disponibilidad de datos con suciente cobertura acerca de los grupos de tratamiento y de comparacin, tanto antes como despus de la implementacin del programa. Como consecuencia, la viabilidad de una evaluacin retrospectiva depende del contexto y nunca est garantizada. Incluso cuando son factibles, las evaluaciones retrospectivas suelen usar mtodos cuasi experimentales y depender de mayores suposiciones, lo que hace que puedan generar evidencias ms discutibles.

Estudios de la ecacia y estudios de la efectividad


La funcin principal de la evaluacin de impacto consiste en hallar evidencias sobre la efectividad de un programa para que puedan usarla los funcionarios pblicos, los administradores del programa, la sociedad civil y otras partes interesadas. Los resultados de la evaluacin de impacto son especialmente tiles cuando las conclusiones pueden aplicarse a una poblacin general de inters. Poder generalizar los resultados (lo que se conoce como validez externa en la documentacin sobre mtodos de investigacin) es fundamental para los responsables de polticas, ya que determina si los resultados identicados en la evaluacin pueden replicarse para otros grupos no estudiados en la evaluacin en caso de expandirse el programa. En la primera poca de las evaluaciones de impacto de programas de desarrollo, una gran parte de las evidencias estaban basadas en estudios de la ecacia realizados en circunstancias muy especcas; desafortunadamente, con frecuencia los resultados de estos estudios no podan generalizarse ms all del mbito de la evaluacin. Los estudios de la ecacia se llevan normalmente a cabo en una situacin muy especca, con una intensa participacin tcnica de los investigadores durante la implementacin del programa. Dichos estudios de la ecacia suelen emprenderse para demostrar la viabilidad de un nuevo programa. Si el programa no genera los impactos previstos dentro de estas condiciones que suelen controlarse cuidadosamente, es improbable que funcione en circunstancias normales. Dado que los estudios de la ecacia suelen realizarse como pruebas piloto en condiciones cuidadosamente controladas, los impactos

14

La evaluacin de impacto en la prctica

de estas comprobaciones, con frecuencia a pequea escala, pueden no ser necesariamente representativos del impacto de un proyecto similar implementado a mayor escala en circunstancias normales. Por ejemplo, una intervencin piloto que introduce nuevos protocolos de tratamiento puede funcionar en un hospital con administradores y personal mdico excelentes, pero la misma intervencin puede no funcionar en un hospital corriente con administradores menos atentos y limitaciones de personal. Adems, los clculos de costo-benecio variarn, ya que los costos jos y las economas de escala no pueden computarse en los estudios de la ecacia a pequea escala. Como consecuencia, aunque las evidencias de los estudios de la ecacia pueden ser interesantes para comprobar una estrategia, sus resultados suelen tener una validez externa limitada y no siempre representan adecuadamente situaciones ms generales, que son normalmente la principal preocupacin de los responsables de polticas. En contraste, los estudios de la efectividad aportan evidencias de intervenciones en circunstancias normales, mediante vas regulares de implementacin. Cuando las evaluaciones de la efectividad se disean e implementan adecuadamente, los resultados obtenidos son vlidos no solo para la muestra de evaluacin, sino tambin para otros beneciarios previstos fuera de la muestra. Esta validez externa es muy importante para los responsables de polticas, porque les permite usar los resultados de la evaluacin para informar decisiones programticas que se aplican a beneciarios previstos ms all de la muestra de evaluacin.

Combinacin de fuentes de informacin para evaluar tanto el qu como el por qu


Las evaluaciones de impacto realizadas sin contar con otras fuentes de informacin son vulnerables tanto tcnicamente como en trminos de su posible efectividad. Al no disponer de informacin acerca del carcter y el contenido del programa para contextualizar los resultados de la evaluacin, se crea desconcierto entre responsables de polticas sobre las razones por las que ciertos resultados se lograron o no. Si bien las evaluaciones de impacto pueden producir estimaciones conables de los efectos causales de un programa, su diseo no est normalmente orientado a informar la implementacin del programa. Es ms, las evaluaciones de impacto deben estar bien coordinadas con la implementacin de un programa y, por lo tanto, necesitan estar basadas en informacin sobre cmo, cundo y dnde se implementa el programa que se est evaluando. Es necesario contar con datos cualitativos, de monitoreo y evaluaciones de proceso para hacer un seguimiento de la implementacin del programa y examinar cuestiones esenciales para informar e interpretar los resultados de las evaluaciones de impacto. En este sentido, las evaluaciones de impacto y otras formas de evaluacin son complementarias, ms que sustitutivas.

Por qu evaluar?

15

Por ejemplo, un Gobierno provincial puede decidir anunciar que pagar primas a clnicas de salud rurales si aumentan el porcentaje de partos asistidos por un profesional de la salud en la clnica. Si la evaluacin determina que no se registran cambios en el porcentaje de partos asistidos en la clnica, pueden existir muchas explicaciones posibles y necesidades correspondientes de actuacin. Primero, es posible que el personal de las clnicas rurales no tenga suciente informacin sobre las primas o no entienda las reglas del programa. En dicho caso, puede ser necesario que el Gobierno provincial potencie su campaa de informacin y educacin para los centros de salud. Si la falta de equipo o la escasez de electricidad impiden a las clnicas de salud admitir ms pacientes, puede ser necesario mejorar el sistema de asistencia y mejorar el suministro energtico. Finalmente, es posible que las mujeres embarazadas de las zonas rurales no quieran asistir a las clnicas, y preeran parteras tradicionales y dar a luz en su casa por razones culturales. En este caso, puede ser ms eciente abordar los obstculos para el acceso de las mujeres que ofrecer primas a las clnicas. Por lo tanto, una buena evaluacin de impacto permitir al Gobierno determinar si la tasa de partos asistidos ha cambiado o no como consecuencia del programa de primas, pero hacen falta mtodos complementarios de evaluacin para entender si el programa se llev a cabo segn lo previsto y cules son los eslabones perdidos. En este ejemplo, los evaluadores querrn complementar su anlisis de impacto entrevistando al personal de las clnicas de salud acerca de su conocimiento del programa, examinando la disponibilidad de equipo en las clnicas, organizando grupos de discusin con mujeres embarazadas para entender sus preferencias y barreras al acceso, y analizando todos los datos disponibles sobre el acceso a clnicas de salud en zonas rurales.

Uso de datos cualitativos


Los datos cualitativos son un complemento esencial de las evaluaciones cuantitativas de impacto porque aportan perspectivas complementarias sobre el desempeo de un programa. Las evaluaciones que integran anlisis cualitativos y cuantitativos se caracterizan por el uso de mtodos combinados (Bamberger, Rao y Woolcock, 2010). Los mtodos cualitativos incluyen grupos focales y entrevistas con beneciarios seleccionados y otros informantes clave (Rao y Woolcock, 2003). Aunque los puntos de vista y las opiniones recopiladas durante las entrevistas y los grupos focales pueden no ser representativos de los beneciarios del programa, son especialmente tiles durante las tres fases de una evaluacin de impacto: 1. Cuando se disea una evaluacin de impacto, los evaluadores pueden usar grupos focales y entrevistas con informantes clave para formular hiptesis acerca de cmo y por qu funcionar el programa, y aclarar cuestiones de investigacin que deben resolverse en el trabajo de evaluacin cuantitativa de impacto.

16

La evaluacin de impacto en la prctica

2. En la fase intermedia, antes de disponer de los resultados de la evaluacin cuantitativa de impacto, el trabajo cualitativo puede contribuir a que los responsables de polticas comprendan lo que est ocurriendo en el programa. 3. En la fase de anlisis, los evaluadores pueden aplicar mtodos cualitativos para aportar contexto y explicaciones para los resultados cuantitativos, examinar los casos atpicos de xito o fracaso y dar explicaciones sistemticas del desempeo del programa observado en los resultados cuantitativos. En este sentido, el trabajo cualitativo puede ayudar a conocer las razones por las que se observan ciertos resultados en el anlisis cuantitativo, y se puede usar para abrir la caja negra de lo sucedido en el programa (Bamberger, Rao y Woolcock, 2010).

Uso de datos de monitoreo y evaluaciones del proceso


Los datos de monitoreo son tambin un recurso fundamental en una evaluacin de impacto. Permiten que el evaluador verique qu participantes recibieron el programa, con cunta rapidez se expande el programa, cmo se gastan los recursos y, en general, si las actividades se implementan de acuerdo con lo previsto. Esta informacin es esencial para la evaluacin, por ejemplo, para asegurar que se recolecten datos de lnea de base antes de la introduccin del programa y para comprobar la integridad de los grupos de tratamiento y de comparacin. Adems, el sistema de monitoreo puede aportar informacin sobre el costo de la implementacin del programa, que tambin es necesaria para el anlisis de costo-benecio. Finalmente, las evaluaciones del proceso se centran en cmo se implementa y funciona el programa, analizan si cumple su diseo original y documentan su desarrollo y funcionamiento. Normalmente, las evaluaciones de proceso se pueden ejecutar con relativa rapidez y a un costo razonable. En las fases piloto o iniciales de un programa, pueden ser una valiosa fuente de informacin sobre la manera de mejorar la implementacin del programa.

Notas
1. Para una descripcin general de programas de transferencias monetarias condicionadas y la inuencia ejercida por Progresa/Oportunidades por su evaluacin de impacto, vase Fiszbein y Schady, 2009. 2. Para un anlisis detallado del anlisis de costo-benecio, vase Belli y otros, 2001; Boardman y otros, 2001; Brent, 1996, o Zerbe y Dively, 1994.

Por qu evaluar?

17

Referencias
Bamberger, Michael; Rao, Vijayendra y Woolcock, Michael. 2010. Using Mixed Methods in Monitoring and Evaluation: Experiences from International Development. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 5245. Banco Mundial, Washington, DC. Behrman, Jere R. y Hoddinott, John. 2001. An Evaluation of the Impact of PROGRESA on Pre-school Child Height. FCND Briefs 104, Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC. Belli, Pedro; Anderson, Jock; Barnum, Howard; Dixon, John y Tan, Jee-Peng. 2001. Handbook of Economic Analysis of Investment Operations. Washington, DC: Banco Mundial. Boardman, Anthony; Vining, Aidan; Greenberg, David y Weimer, David. 2001. Cost-Benet Analysis: Concepts and Practice. New Jersey: Prentice Hall. Brent, Robert. 1996. Applied Cost-Benet Analysis. Cheltenham (RU): Edward Elgar. Fiszbein, Ariel y Schady, Norbert. 2009. Conditional Cash Transfer, Reducing Present and Future Poverty. Informe del Banco Mundial sobre investigaciones relativas a polticas de desarrollo. Banco Mundial, Washington, DC. Gertler, Paul J. 2004. Do Conditional Cash Transfers Improve Child Health? Evidence from Progresas Control Randomized Experiment. American Economic Review 94 (2): 336-41. Gertler, Paul J. y Molyneaux, John W. 1994. How Economic Development and Family Planning Programs Combined to Reduce Indonesian Fertility. Demography 31 (1): 33-63. . 2000. The Impact of Targeted Family Planning Programs in Indonesia. Population and Development Review 26: 61-85. Imas, Linda G. M. y Rist, Ray C. 2009. The Road to Results: Designing and Conducting Effective Development Evaluations. Washington, DC: Banco Mundial. Kremer, Michael y Miguel, Edward. 2004. Worms: Identifying Impacts on Education and Health in the Presence of Treatment Externalities. Econometrica 72 (1): 159-217. Kremer, Michael; Moulin, Sylvie y Namunyu, Robert. 2003. Decentralization: A Cautionary Tale. Poverty Action Lab Paper 10, Massachusetts Institute of Technology, Cambridge, MA. Levy, Santiago y Rodrguez, Evelyne. 2005. Sin herencia de pobreza: El programa Progresa-Oportunidades de Mxico. Washington, DC: Banco Interamericano de Desarrollo. McKay, Harrison; McKay, Arlene; Siniestra, Leonardo; Gmez, Hernando y Lloreda, Pascuala. 1978. Improving Cognitive Ability in Chronically Deprived Children. Science 200 (21): 270-78. Poverty Action Lab. 2005. Primary Education for All. Fighting Poverty: What Works? 1 (Fall): n.p. http://www.povertyactionlab.org.

18

Impact Evaluation in Practice

Rao, Vijayendra y Woolcock, Michael. 2003. Integrating Qualitative and Quantitative Approaches in Program Evaluation. En The Impact of Economic Policies on Poverty and Income Distribution: Evaluation Techniques and Tools, F. J. Bourguignon y L. Pereira da Silva compiladores, 165-90. Nueva York: Oxford University Press Schultz, Paul. 2004. Public Policy for the Poor? Evaluating the Mexican Progresa Poverty Program. Journal of Development Economics 74 (1): 199-250. Skouas, Emmanuel y McClafferty, Bonnie. 2001. Est dando buenos resultados Progresa? Informe de los resultados de una evaluacin realizada por el IFPRI. Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC. Vermeersch, Christel y Kremer, Michael. 2005. School Meals, Educational Achievement and School Competition: Evidence from a Randomized Evaluation. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 3523. Banco Mundial, Washington, DC. Zerbe, Richard y Dively, Dwight. 1994. Benet Cost Analysis in Theory and Practice. Nueva York: Harper Collins Publishing.

Por qu evaluar?

19

CAPTULO 2

Denir las preguntas de evaluacin


Este captulo describe los pasos iniciales para poner en marcha una evaluacin. Estos incluyen determinar el tipo de pregunta a la que responder la evaluacin, especicar una teora del cambio que describa cmo se supone que el proyecto lograr los resultados previstos, elaborar una cadena de resultados, formular qu hiptesis sern comprobadas por la evaluacin y seleccionar los indicadores de desempeo. Estos pasos contribuyen a determinar las preguntas que responder la evaluacin y es mejor emprenderlos al comienzo del programa, con la participacin de los agentes implicados en el proceso, desde los responsables de polticas hasta los administradores del programa. As se forjar una visin comn de los objetivos del programa y de la manera de lograrlos y se fortalecer el vnculo entre la evaluacin, la implementacin del programa y las polticas pblicas. Todos estos pasos son necesarios para el desarrollo de una buena evaluacin de impacto y para el diseo y la implementacin de un programa efectivo. Cada paso, desde la especicacin clara de los objetivos y las preguntas hasta la denicin de las ideas incorporadas a la teora del cambio y los resultados que espera generar el programa, est claramente denido y articulado dentro de un modelo lgico incorporado a la cadena de resultados.

21

Tipos de preguntas de evaluacin


Toda evaluacin empieza con una pregunta de estudio sobre una poltica o un programa y ser el objetivo central de la investigacin. Por lo tanto, la evaluacin consiste en la generacin de evidencias crebles para responder a esa pregunta. Como se explicar ms adelante, la pregunta fundamental de la evaluacin de impacto puede formularse como: Cul es el impacto (o efecto causal) de un programa sobre un resultado de inters? Por ejemplo, en el caso que se usar como ejemplo en la segunda parte del libro, la pregunta de estudio es: Cul es el efecto del Programa de Subsidio del Seguro de Salud sobre el gasto directo en salud de los hogares? La pregunta tambin puede comparar opciones de diseo, por ejemplo: Qu combinacin de campaas de correo y orientacin familiar funciona mejor para fomentar el uso exclusivo de la lactancia materna? Formular claramente preguntas de evaluacin es fundamental para disear una evaluacin de manera efectiva.

Teoras del cambio


Una teora del cambio es una descripcin de cmo se supone que una intervencin conseguir los resultados deseados. Describe la lgica causal de cmo y por qu un proyecto, un programa o una poltica lograrn los resultados deseados o previstos. La teora del cambio es fundamental para cualquier evaluacin de impacto, ya que esta se basa en relaciones de causalidad. Al tratarse de uno de los primeros pasos en el diseo de la evaluacin, formular una teora del cambio puede ayudar a especicar las preguntas de investigacin. Las teoras del cambio describen una secuencia de eventos que generan resultados: examinan las condiciones y las suposiciones necesarias para que se produzca el cambio, explicitan la lgica causal detrs del programa y trazan el mapa de las intervenciones del programa a lo largo de las vas lgicas causales. La colaboracin de las partes interesadas en el programa en la formulacin de la teora del cambio puede ayudar a mejorar el diseo del programa. Esto es especialmente importante en programas que intentan inuir en el comportamiento de los beneciarios: las teoras del cambio pueden ayudar a determinar qu insumos y actividades se requieren, qu productos se generan y cules son los resultados nales derivados de los cambios de comportamiento de los beneciarios. El mejor momento para desarrollar una teora del cambio para un programa es al principio del diseo, cuando se puede reunir a las partes interesadas para que denan una visin comn del programa, de sus objetivos y de la va para lograrlos. As, al comenzar la fase de implementacin las partes interesadas tienen una idea y unos objetivos comunes que se reejarn en el funcionamiento del programa y de la evaluacin.

22

La evaluacin de impacto en la prctica

Adems, al disear el programa se debe revisar la bibliografa especializada en busca de documentos que describan experiencias y programas similares, y deben comprobar los contextos y las suposiciones de la teora del cambio. Por ejemplo, en el caso del proyecto de suelos de cemento en Mxico, que se describe en el recuadro 2.1, la bibliografa aporta informacin importante acerca de la transmisin de parsitos del suelo y la manera en que esta infeccin provoca diarrea infantil.

Recuadro 2.1: Teora del cambio


De los suelos de cemento a la felicidad en Mxico
En su evaluacin del proyecto Piso Firme, Cattaneo y otros (2009) examinaron el impacto de la mejora de las viviendas sobre la salud y el bienestar. Tanto el proyecto como la evaluacin estuvieron motivados por una clara teora del cambio. El objetivo del proyecto Piso Firme es mejorar los niveles de vida, especialmente de la salud, de los grupos vulnerables que viven en zonas densamente pobladas y con bajos ingresos de Mxico. El programa se puso en marcha primero en el estado norteo de Coahuila y se hizo en una evaluacin contextual realizada por el gobernador Enrique Martnez y su equipo de campaa. La cadena de resultados del programa est clara. Se realizan visitas puerta a puerta en los barrios elegidos para ofrecer a los hogares la instalacin de 50 metros cuadrados de suelo de cemento. El Gobierno compra y entrega el cemento, y los hogares y los voluntarios comunitarios aportan la mano de obra. El producto de la evaluacin es la construccin de un suelo de cemento, que puede completarse en alrededor de un da. Entre los resultados previstos por este programa de mejora de los hogares se encuentran una mayor limpieza, una mejora en la salud de los habitantes de la casa y un aumento de la felicidad. La lgica de esta cadena de resultados es que los suelos de tierra son un foco de
Fuente: Cattaneo y otros, 2009.

enfermedades parasitarias porque es difcil mantenerlos limpios. Los parsitos, que viven y se multiplican en las heces, pueden ser portados al interior de la casa en los zapatos o a travs de los animales o de los nios y pueden terminar siendo ingeridos si entran en contacto con los alimentos. Las evidencias demuestran que los nios pequeos que viven en casas con suelos de tierra tienen ms probabilidades de contraer infecciones parasitarias intestinales, que pueden provocar diarrea y malnutricin, y suelen conllevar retrasos del desarrollo cognitivo e incluso la muerte. Los suelos de cemento interrumpen la transmisin de infecciones parasitarias y adems permiten un mejor control de la temperatura y son ms agradables a la vista. Estos resultados previstos sirvieron de base para las preguntas de investigacin abordadas en la evaluacin de Cattaneo y sus colegas. El equipo plante la hiptesis de que reemplazar los suelos de tierra reducira la incidencia de la diarrea, la malnutricin y la deciencia de micronutrientes y que esto conducira a su vez a una mejora del desarrollo cognitivo de los nios pequeos. Los investigadores tambin anticiparon y comprobaron las mejoras en el bienestar de los adultos, medido por el aumento de la satisfaccin de la poblacin con las condiciones de sus viviendas y la reduccin de tasas de depresin y estrs percibido.

Denir las preguntas de evaluacin

23

La cadena de resultados
Una teora del cambio puede disearse de varias maneras, por ejemplo, mediante modelos tericos, modelos lgicos, marcos lgicos, modelos de resultados y cadenas de resultados1. Todos ellos incluyen los elementos bsicos de una teora del cambio, es decir, la cadena causal, que debe ser capaz de discernir entre los logros del programa y las condiciones o inuencias ajenas al programa. En este libro, se usar el modelo de la cadena de resultados porque creemos que es el ms sencillo y claro para describir la teora del cambio en el contexto operativo de los programas de desarrollo. Una cadena de resultados da una denicin lgica y plausible de cmo una secuencia de insumos, actividades y productos relacionados directamente con el proyecto interactan y establecen las vas por las que se logran los impactos (grco 2.1). La cadena de resultados dene la lgica causal desde el comienzo del programa, empezando por los recursos disponibles, hasta el nal, los objetivos a largo plazo. Una cadena de resultados bsica representar los siguientes elementos: Insumos: Los recursos de que dispone el proyecto, que incluyen el personal y el presupuesto. Actividades: Las acciones emprendidas y el trabajo realizado para transformar los insumos en productos. Productos: Los bienes tangibles y los servicios que producen las actividades del programa (estn directamente bajo el control del organismo ejecutor). Resultados: Los resultados que se espera alcanzar una vez que la poblacin se benecie de los productos del proyecto (los resultados se dan normalmente a corto o mediano plazo). Resultados nales: Los objetivos nales del proyecto (pueden estar inuidos por mltiples factores y se alcanzan normalmente despus de un largo perodo). La cadena de resultados tiene tres partes principales: Implementacin: El trabajo programado producido por el proyecto, que incluye los insumos, las actividades y los productos. Se trata de los aspectos que puede supervisar directamente el organismo ejecutor para medir el desempeo del programa. Resultados: Se reere a lo que se ha denominado resultados y resultados nales en la cadena de resultados. No dependen solo del control directo del proyecto sino tambin de cambios de comportamiento de los beneciarios del programa. En otras palabras, dependen de las interacciones entre el lado de la oferta (implementacin) y el lado de la demanda (beneciarios). Estos son los aspectos que se someten a la evaluacin de impacto para medir la efectividad.

Concepto clave:
Una cadena de resultados establece la secuencia de insumos, actividades y productos de los que se espera que mejoren los resultados y los resultados nales.

24

La evaluacin de impacto en la prctica

Grco 2.1 Qu es una cadena de resultados?

Suposiciones y riesgos: No se muestran en el grco 2.1. Hacen referencia a los riesgos que pueden afectar a la consecucin de los resultados esperados y a cualquier estrategia para solventar dichos riesgos. Incluyen cualquier evidencia en la bibliografa especializada sobre la lgica de causalidad propuesta y las suposiciones en que se basa. Por ejemplo, imagine que el ministerio de Educacin de un pas A est pensando en introducir una nueva estrategia para la enseanza de matemticas en centros de secundaria. Como se muestra en el grco 2.2, los insumos del programa incluirn al personal del ministerio, a los profesores de secundaria, un presupuesto para el nuevo programa de matemticas y las instalaciones municipales donde se capacitar a los profesores de matemticas. Las actividades del programa consisten en el diseo de un nuevo programa de estudios de matemticas, la denicin de un programa de capacitacin de profesores, la capacitacin de profesores, y el encargo, la impresin y la distribucin de nuevos libros de texto. Los productos son el nmero de profesores capacitados, el nmero de libros de texto entregados en las clases y la adaptacin de los exmenes estandarizados al nuevo programa de estudios.

Denir las preguntas de evaluacin

25

Grco 2.2 Cadena de resultados de un programa de matemticas en la educacin secundaria

Los resultados a corto plazo consisten en el uso de los nuevos mtodos y libros de texto por parte de los profesores en sus clases y la aplicacin de nuevos exmenes. Los resultados a mediano plazo son las mejoras del desempeo de los estudiantes en los exmenes estandarizados de matemticas. Los resultados nales son el aumento de las tasas de nalizacin de la educacin secundaria y el incremento de las tasas de empleo y los ingresos de los graduados. Las cadenas de resultados son tiles para todos los proyectos, independientemente de que incluyan o no una evaluacin de impacto, ya que permiten a los responsables de polticas y a los administradores especicar los objetivos del programa,, lo que los ayuda a entender la lgica causal y la secuencia de eventos en los que se basa el programa. Las cadenas de resultados tambin facilitan el debate en torno al monitoreo y la evaluacin, al poner de maniesto qu informacin es necesario recoger y qu cambios de los resultados hay que tener en cuenta cuando se evala el proyecto. Para comparar diseos alternativos para el programa, se pueden crear diagramas de rbol que representan todas las opciones viables consideradas durante el diseo o la reestructuracin del programa. Estos diagramas recogen polticas y operaciones alternativas para alcanzar objetivos especcos; se pueden usar para considerar qu opciones de programas podran comprobarse y evaluarse. Por ejemplo, si el objetivo es la mejora de la alfabetizacin nanciera, se pueden considerar diversas opciones, como por ejemplo una campaa publicitaria frente a la instruccin presencial.

26

La evaluacin de impacto en la prctica

Hiptesis para la evaluacin


Una vez que se haya descrito la cadena de resultados, se puede formular la hiptesis que se quiere comprobar mediante la evaluacin de impacto. En el ejemplo anterior, la hiptesis podra ser la siguiente: El nuevo programa de estudios es mejor para impartir conocimientos de matemticas que el anterior. Los profesores capacitados usan el nuevo programa de estudios de manera ms efectiva que otros profesores. Si se capacita a los profesores y se distribuyen los libros de texto, los profesores usarn los nuevos libros de texto y el programa de estudios en clase, y los estudiantes seguirn el nuevo programa de estudios. Si se capacita a los profesores y se distribuyen los libros de texto, los resultados de los exmenes de matemticas mejorarn un promedio de 5 puntos. El desempeo en los estudios de matemticas en secundaria inuye en las tasas de nalizacin y el desempeo en el mercado laboral.

Seleccin de indicadores del desempeo


Una cadena de resultados claramente denida ofrece un mapa til para la seleccin de los indicadores que se medirn a lo largo de la cadena. Incluir indicadores tanto para seguir la implementacin del programa como para evaluar los resultados. Una vez ms, es til que las partes interesadas en el programa participen en la seleccin de estos indicadores, para asegurar que constituyen una buena medida del desempeo del programa. Como regla general, los indicadores debern cumplir con determinados criterios, en otras palabras deben ser EMARF2 Especcos: para medir la informacin necesaria con la mxima proximidad Medibles: para asegurar que es factible obtener la informacin Atribuibles: para asegurar que cada indicador est relacionado con los logros del proyecto Realistas: para asegurar que los datos se pueden obtener puntualmente, con una frecuencia razonable y a un costo razonable Focalizados: en la poblacin objetivo. Concepto clave:
Los buenos indicadores son especcos, medibles, atribuibles, realistas y focalizados.

Denir las preguntas de evaluacin

27

Al elegir indicadores, es importante identicarlos a lo largo de toda la cadena, y no solo al nivel de los resultados. As, se podr seguir la lgica causal de cualquier resultado observado del programa. Incluso al implementar una evaluacin de impacto sigue siendo importante seguir los indicadores de la implementacin, para determinar si las intervenciones se han ejecutado segn lo programado, si han alcanzado a sus beneciarios previstos y si han llegado a tiempo (vase Kusek y Rist, 2004 o Imas y Rist, 2009, para un anlisis de la manera de seleccionar indicadores del desempeo). Sin estos indicadores a lo largo de la cadena de resultados, la evaluacin de impacto solo producir una caja negra que determinar si se han materializado o no los resultados previstos, pero no podr explicar las causas de ello. Aparte de seleccionar los indicadores, tambin resulta til considerar los mecanismos para la produccin de datos. El cuadro 2.1 enumera los elementos bsicos de un plan de monitoreo y evaluacin, y menciona los mecanismos necesarios para producir cada uno de los indicadores de manera able y puntual.
Cuadro 2.1 Elementos de un plan de monitoreo y evaluacin Elemento Resultados esperados (resultados y productos) Indicadores (con lneas de base y objetivos indicativos) Fuente de datos Descripcin Obtenido de los documentos de diseo del programa y la cadena de resultados. Derivados de la cadena de resultados (los indicadores deben ser EMARF). Fuente y lugar de donde se obtienen los datos; por ejemplo, una encuesta, un examen, una reunin de partes interesadas. Frecuencia de disponibilidad de datos. Quin es responsable de organizar la recoleccin de datos y comprobar la calidad y el origen de los datos? Frecuencia del anlisis, mtodo de anlisis y responsabilidad de informar. Estimacin de los recursos necesarios y comprometidos para llevar a cabo las actividades programadas de monitoreo y evaluacin. Quin recibir y revisar la informacin? Qu nalidad cumple? Cules son los riesgos y las suposiciones que conlleva la ejecucin de las actividades programadas de monitoreo y evaluacin? Cmo podran afectar a las actividades programadas y a la calidad de los datos?

Frecuencia de los datos Responsabilidades

Anlisis e informacin Recursos

Uso nal Riesgos

Fuente: Adaptado de PNUD, 2009.

28

La evaluacin de impacto en la prctica

Contenidos de la segunda y la tercera partes del libro


En esta primera parte del libro, se analizaron las razones por las que se podra emprender una evaluacin de impacto y cundo vale la pena hacerlo. Se examinaron los diversos objetivos de una evaluacin de impacto y se subrayaron las preguntas fundamentales sobre polticas que puede abordar. Se insisti en la necesidad de detectar cuidadosamente la teora del cambio que explica las vas mediante las que el programa puede inuir en los resultados nales. Las evaluaciones de impacto comprueban esencialmente si la teora del cambio funciona o no en la prctica. En la segunda parte se analiza cmo evaluar, mediante la revisin de varias metodologas alternativas para producir buenos grupos de comparacin y permitir la estimacin vlida de impactos del programa. Se comienza por presentar el contrafactual como el elemento esencial de cualquier evaluacin de impacto, se explican las propiedades que debe tener la estimacin del contrafactual y se ofrecen ejemplos de estimaciones inadecuadas o falsas. Luego se presentan una serie de opciones de evaluacin de impacto que pueden producir estimaciones vlidas del contrafactual. En concreto, se analiza la intuicin bsica que hay detrs de cuatro metodologas: mtodos de seleccin aleatoria, diseo de regresin discontinua, diferencias en diferencias y pareamiento. Se analizan las razones y la manera por las que cada mtodo puede producir una estimacin vlida del contrafactual, en qu contexto de polticas puede aplicarse cada uno y sus principales limitaciones. A lo largo de la segunda parte se usa un estudio de caso, el Programa del Subsidio del Seguro de Salud, para ilustrar la aplicacin de los distintos mtodos. Adems, se presentan ejemplos de evaluaciones de impacto que han empleado cada uno de ellos. La tercera parte describe los pasos para implementar, administrar o encargar una evaluacin de impacto. Hasta ahora se han denido los objetivos de la evaluacin, se ha formulado la teora del cambio y se han especicado las preguntas de la evaluacin; todos estos son pasos esenciales cuando se formula un plan de evaluacin de impacto. A partir de ahora nos centraremos en establecer cules son los criterios para generar grupos de comparacin en el marco del programa. En particular, se tratar de determinar cul de las metodologas de evaluacin de impacto presentadas en la segunda parte es ms adecuada para un programa determinado. Luego, se revisarn las cuatro fases esenciales en la implementacin de una evaluacin: hacer operativo el diseo, elegir una muestra, recolectar los datos y producir y divulgar los resultados.

Denir las preguntas de evaluacin

29

Notas
1. University of Wisconsin-Extension (2010) contiene un anlisis detallado de la manera de elaborar cadenas de resultados, as como listas integrales de referencias. Imas y Rist (2009) ofrecen un buen estudio de las teoras del cambio. 2. En ingls, la sigla es SMART (specic, measureable, attributable, realistic, targeted), que puede ser traducido como inteligente.

Referencias
Cattaneo, Matas; Galiani, Sebastin; Gertler, Paul; Martnez, Sebastin y Titiunik, Roco. 2009. Housing, Health and Happiness. American Economic Journal: Economic Policy 1 (1): 75-105. Imas, Linda G. M. y Rist, Ray C. 2009. The Road to Results: Designing and Conducting Effective Development Evaluations. Washington, DC: Banco Mundial. Kusek, Jody Zall y Rist, Ray C. 2004. Diez pasos hacia un sistema de monitoreo y evaluacin basado en resultados. Washington, DC: Banco Mundial. PNUD (Programa de las Naciones Unidas para el Desarrollo). 2009. Manual de planicacin, monitoreo y evaluacin de los resultados de desarrollo. Nueva York: PNUD University of Wisconsin-Extension. 2010. Enhancing Program Performance with Logic Models. Curso en red. http://www.uwex.edu/ces/pdande/evaluation/evallogicmodel.html.

30

La evaluacin de impacto en la prctica

Segunda parte

CMO EVALUAR

En la primera parte de este libro se han visto las razones para evaluar el impacto de los programas y las polticas; la segunda parte explica cmo funcionan las evaluaciones de impacto, a qu preguntas responden y con qu mtodos se realizan, as como las ventajas y desventajas de cada una de ellas. Las opciones analizadas incluyen los mtodos de seleccin aleatoria, el diseo de regresin discontinua, las diferencias en diferencias y el pareamiento. Como se dijo en la primera parte, el objetivo de una evaluacin de impacto es determinar y cuanticar la manera en que una intervencin afecta a los resultados de inters para analistas y responsables de polticas. En esta parte, se presentar y examinar el caso del Programa de Subsidios del Seguro de Salud (PSSS). A partir de las mismas fuentes de datos, se responder varias veces a la misma pregunta de evaluacin con respecto al PSSS; segn la metodologa empleada, las respuestas sern diferentes y hasta contradictorias. (Se supone que los datos utilizados han sido debidamente depurados para eliminar cualquier problema relacionado con ellos). La tarea del lector consistir

en determinar por qu la estimacin de impacto del PSSS cambia en funcin del mtodo, y qu resultados considera sucientemente conables para formular recomendaciones sobre polticas. El caso del PSSS es un ejemplo de reforma a gran escala del sector de la salud. El programa pretende mejorar la calidad y aumentar el acceso a los servicios de salud en las reas rurales, para equiparar los estndares y la cobertura del servicio al nivel de las reas urbanas. Este modelo innovador y potencialmente costoso est en etapa de prueba. El programa subvenciona el seguro de salud para los hogares pobres rurales, y cubre los costos relacionados con la atencin primaria y las medicinas. El objetivo fundamental del PSSS es reducir el costo de la atencin sanitaria para las familias pobres y, as, mejorar los resultados de la salud. Los responsables de polticas estn considerando la expansin del PSSS a todo el pas, lo que costara cientos de millones de dlares. Pero los responsables de polticas temen que los hogares pobres no puedan asumir el costo de la atencin sanitaria bsica sin un subsidio ocial, lo que les dicultara el acceso a estos servicios y, en consecuencia, tendra implicaciones perjudiciales para su salud. La pregunta clave de la evaluacin es: Qu efecto tiene el PSSS sobre los gastos directos en salud y la situacin de la salud de las familias pobres? Las respuestas a preguntas como esta guan a los responsables de polticas al momento de decidir qu polticas y programas adoptan. A su vez, esas polticas y programas pueden afectar el bienestar de millones de personas. Esta parte del libro analizar cmo responder rigurosamente a las preguntas de evaluacin fundamentales.

CAPTULO 3

Inferencia causal y contrafactuales


En primer lugar, se examinarn dos conceptos esenciales para realizar evaluaciones precisas y conables: la inferencia causal y los contrafactuales.

Inferencia causal
La pregunta bsica de la evaluacin de impacto es esencialmente un problema de inferencia causal. Evaluar el impacto de un programa sobre una serie de resultados es equivalente a evaluar el efecto causal del programa sobre ellos. La mayora de las preguntas de polticas conllevan relaciones de causa y efecto: La capacitacin de los profesores mejora las calicaciones de los estudiantes en los exmenes? Los programas de transferencias monetarias condicionadas mejoran la salud de los nios? Los programas de formacin profesional incrementan los ingresos de quienes los han cursado? Aunque las preguntas sobre causa y efecto son habituales, determinar que una relacin es causal no es tan sencillo. Por ejemplo, en el contexto de un programa de formacin profesional, el hecho de que los ingresos de la persona formada aumenten despus de completar el programa no es suciente para establecer la causalidad. Los ingresos de dicha persona podran haber aumentado debido a sus propios esfuerzos, el cambio de las condiciones del mercado laboral o por alguno de los

33

tantos factores que afectan a los ingresos. Las evaluaciones de impacto nos ayudan a atribuir causalidad al establecer empricamente en qu medida cierto programa, y solo ese programa, ha contribuido a cambiar un resultado. Para atribuir causalidad entre un programa y un resultado se usan los mtodos de evaluacin de impacto, que descartan la posibilidad de que cualquier factor distinto del programa de inters explique el impacto observado. La respuesta a la pregunta bsica de la evaluacin de impacto, Cul es el impacto o efecto causal de un programa P sobre un resultado de inters Y?, se obtiene mediante la frmula bsica de la evaluacin de impacto: = (Y | P = 1) (Y | P = 0). Segn esta frmula, el impacto causal () de un programa (P) sobre un resultado (Y) es la diferencia entre el resultado (Y) con el programa (es decir, cuando P = 1) y el mismo resultado (Y) sin el programa (es decir, cuando P = 0). Por ejemplo, si P representa un programa de formacin profesional e Y representa el ingreso, el impacto causal del programa de formacin profesional () es la diferencia entre el ingreso de la persona (Y) cuando participa en el programa de formacin profesional (es decir, cuando P = 1) y el ingreso de la misma persona (Y) en ese mismo momento si no hubiera participado en el programa (es decir, cuando P = 0). Dicho de otro modo, sera necesario medir el ingreso en un momento para la misma unidad de observacin (en este caso una persona), pero en dos realidades diferentes. Si esto fuera posible, se observara el nivel de ingresos de una persona en un mismo momento, tanto con el programa como sin l, de manera que la nica explicacin posible de cualquier diferencia en su ingreso sera el programa. Al comparar a la misma persona consigo misma, en el mismo momento, se eliminara cualquier factor externo que pudiera explicar tambin la diferencia en los resultados. En este caso se podra conar en que la relacin entre el programa de formacin profesional y el ingreso es causal. La frmula bsica de la evaluacin de impacto es vlida para cualquier cosa que se analice: una persona, un hogar, una comunidad, un negocio, una escuela, un hospital o cualquier otra unidad de observacin que pueda beneciarse o verse afectada por un programa. La frmula tambin es vlida para cualquier resultado (Y) que est relacionado con el programa en cuestin. Una vez medidos los dos componentes esenciales de esta frmula, el resultado (Y) tanto con el programa como sin l, se puede responder a cualquier pregunta acerca del impacto del programa.

Contrafactuales
Como se explic anteriormente, el impacto () de un programa es la diferencia entre los resultados (Y) de la misma persona cuando ha participado y cuando no ha participado en el programa. Sin embargo, es imposible medir a la misma persona

34

La evaluacin de impacto en la prctica

en dos situaciones diferentes en el mismo momento. Una persona habr participado en un programa, o no lo habr hecho. No se la puede observar simultneamente en dos estados diferentes. Este es el problema contrafactual: cmo se mide lo que habra ocurrido si hubiera prevalecido la otra circunstancia? Aunque se puede observar y medir el resultado (Y) para los participantes en el programa (Y | P = 1), no se cuenta con datos para establecer cul habra sido el resultado en ausencia del programa (Y | P = 0). En la frmula bsica de la evaluacin de impacto, la expresin (Y | P = 0) representa el contrafactual, que puede entenderse como lo que habra pasado si un participante no hubiera participado en el programa. En otras palabras, el contrafactual es lo que habra sido el resultado (Y) en ausencia de un programa (P). Por ejemplo, imagine que el seor Desafortunado toma una pldora roja y muere cinco das despus. Solo porque el seor Desafortunado haya muerto despus de haber tomado la pldora roja no se puede concluir que esta le haya causado la muerte. El seor Desafortunado puede haber estado muy enfermo al tomar la pldora; es posible que la enfermedad, en lugar de la pastilla, provocara su muerte. Para inferir la causalidad se deben descartar otros factores que puedan afectar al resultado que se considera. Para determinar la causa de la muerte del seor Desafortunado, un evaluador tendra que establecer qu habra sucedido si el seor Desafortunado no hubiera tomado la pldora, algo imposible de observar directamente. Eso es el contrafactual, y el desafo principal del evaluador es determinarlo (vase el recuadro 3.1). Cuando se realiza una evaluacin de impacto, es relativamente fcil obtener la primera expresin de la frmula bsica (Y | P = 1), ya que es el resultado con tratamiento. Solo se debe medir el resultado de inters para la poblacin que particip en el programa. Sin embargo, la segunda expresin de la frmula (Y | P = 0) no se puede observar directamente en el caso de los participantes en el programa, y de ah la necesidad de completar esta informacin mediante la estimacin del contrafactual. Para ello se recurre habitualmente a grupos de comparacin (denominados tambin grupos de control). El resto de la segunda parte de este libro se centrar en los mtodos o estrategias que se pueden utilizar para identicar grupos de comparacin vlidos que reproduzcan o imiten exactamente el contrafactual. La identicacin de esos grupos de comparacin es el quid de cualquier evaluacin de impacto, independientemente del programa que se evale. En pocas palabras, sin una estimacin vlida del contrafactual, no se puede conocer el impacto de un programa.

Concepto clave:
El contrafactual es una estimacin de cul habra sido el resultado (Y) para un participante en el programa en ausencia del programa (P).

Inferencia causal y contrafactuales

35

Recuadro 3.1: Estimacin del contrafactual


La seorita nica y el programa de transferencia monetaria
La seorita nica es una recin nacida cuya madre recibe una transferencia monetaria mensual a cambio de que someta a la nia a chequeos regulares en el centro de salud local, la inmunice y d seguimiento a su crecimiento. Segn el Gobierno, la transferencia monetaria motivar a la madre de la seorita nica a cumplir con los requerimientos de salud del programa, y ayudar al crecimiento saludable de la seorita nica. Para evaluar el impacto, el Gobierno dene a la altura como un indicador de resultado para la salud a largo plazo, y mide a la seorita nica tres aos despus del comienzo del programa de transferencia monetaria. Suponga que puede medir la altura de la seorita nica cuando tiene tres aos. Lo ideal para evaluar el impacto del programa sera medir la altura de la seorita nica habiendo su madre recibido transferencias monetarias, y hacerlo tambin sin que las reciba. Luego se compararan las dos alturas. Si pudiera comparar la altura de la seorita nica a los tres aos con y sin el programa, sabra que cualquier diferencia provendra del programa. Al ser el resto de la informacin de la seorita nica la misma, no habra otras caractersticas que explicaran la diferencia de altura. Sin embargo, es imposible observar al mismo tiempo a la seorita nica con y sin el programa: su familia se benecia del programa o no se benecia. En otras palabras, no se conoce el contrafactual. Dado que de hecho la madre de la seorita nica se beneci del programa de transferencia monetaria, no se puede conocer cul habra sido su altura si su madre no hubiera recibido las transferencias monetarias. Encontrar un punto de comparacin alternativo es complicado porque la seorita nica es, precisamente, nica. Su contexto socioeconmico, atributos genticos y caractersticas personales no pueden encontrarse exactamente en ninguna otra persona. Si se compara a la seorita nica con un nio cuya madre no participa en el programa de transferencia monetaria, por ejemplo el seor Inimitable, la comparacin podra ser inadecuada. La seorita nica no es idntica al seor Inimitable. La seorita nica y el seor Inimitable pueden tener una apariencia diferente, no vivir en el mismo sitio, tener padres diferentes y no medir lo mismo cuando nacieron. Por lo tanto, si se observa que el seor Inimitable es ms bajo que la seorita nica a la edad de tres aos, no es posible saber si la diferencia se debe al programa de transferencia monetaria o a alguna de las otras muchas diferencias entre ambos.

36

La evaluacin de impacto en la prctica

Estimacin del contrafactual


Para ilustrar la estimacin del contrafactual se usar un ejemplo hipottico. A nivel conceptual, resolver el problema del contrafactual requiere que el evaluador identique un clon perfecto para cada beneciario (grco 3.1). Por ejemplo, supngase que a travs de un programa el seor Fulanito recibe US$12 para sus gastos de bolsillo, y se quiere medir el impacto de este tratamiento sobre su consumo de dulces. Si pudiera identicar a un clon perfecto del seor Fulanito, la evaluacin sera fcil: solo tendra que comparar el nmero de dulces consumido por el seor Fulanito (por ejemplo 6) con el nmero de dulces consumidos por su clon (por ejemplo 4). En este caso, el impacto del dinero adicional sera la diferencia entre estas dos cifras, es decir dos dulces. Sin embargo, en la prctica es imposible identicar clones perfectos: hay diferencias importantes incluso entre gemelos genticamente idnticos. Aunque no existe el clon perfecto, con herramientas estadsticas se pueden denir dos grupos numerosos de personas que sean estadsticamente indistinguibles entre s. Un objetivo clave de una evaluacin de impacto es identicar a un grupo de participantes en el programa (el grupo de tratamiento) y a un grupo de no participantes (el grupo de comparacin) estadsticamente idnticos en ausencia del programa. Si los dos grupos son iguales, a excepcin de que uno de ellos participa en el programa y el otro no, cualquier diferencia en los resultados deber provenir del programa.

Grco 3.1

El clon perfecto

Inferencia causal y contrafactuales

37

Concepto clave:
Un grupo de comparacin vlido tendr que tener las mismas caractersticas que el grupo de participantes en el programa (grupo de tratamiento), salvo por el hecho de que las unidades del grupo de comparacin no se benecian del programa.

Concepto clave:
Cuando el grupo de comparacin para una evaluacin es invlido, la estimacin del impacto del programa tambin ser invlida: no estimar el impacto real del programa. En trminos estadsticos, estar sesgada.

Por lo tanto, el reto principal es identicar a un grupo de comparacin con las mismas caractersticas que el grupo de tratamiento. Al menos en tres aspectos deben ser iguales. Primero, ambos grupos deben ser idnticos en ausencia del programa. Aunque no es necesario que todas las unidades del grupo de tratamiento sean idnticas a todas las unidades del grupo de comparacin, las caractersticas promedio de los grupos de tratamiento y de comparacin deben ser las mismas. Por ejemplo, la edad media debe ser la misma. Segundo, los grupos deben reaccionar de la misma manera al programa. Por ejemplo, las probabilidades de que los ingresos del grupo de tratamiento mejoren gracias a la formacin deben ser las mismas para el grupo de comparacin. Tercero, ambos grupos no pueden estar expuestos de manera diferente a otras intervenciones durante el perodo de la evaluacin. Por ejemplo, el grupo de tratamiento no puede haber contado con ms visitas a la tienda de dulces que el grupo de control, ya que esto podra confundir los efectos del dinero adicional con los efectos de un mayor acceso a los dulces. Si se cumplen estas tres condiciones, solo la existencia del programa de inters explicar cualquier diferencia en el resultado (Y) de los grupos. Esto se debe a que la nica diferencia entre los grupos de tratamiento y de comparacin es si se beneciarn del programa. Si las diferencias en los resultados se pueden atribuir totalmente al programa, se ha identicado el impacto causal del programa. Por lo tanto, en lugar de analizar el impacto del dinero adicional solo en el seor Fulanito, se puede analizar el impacto en un grupo de nios (grco 3.2). Si se puede identicar a otro grupo idntico de nios a excepcin de que no reciben dinero adicional la estimacin del impacto del programa ser la diferencia del consumo medio de dulces entre los dos grupos. Por lo tanto, si el grupo tratado consume un promedio de 6 dulces por persona y el grupo de comparacin consume una media de 4, el impacto promedio del dinero adicional sobre el consumo de dulces equivaldra a 2. Ahora que se ha denido el concepto de grupo de comparacin vlido, queda claro que un grupo de comparacin no vlido diere del grupo de tratamiento de alguna manera distinta a la ausencia del tratamiento. Estas diferencias adicionales pueden hacer que una estimacin del impacto sea invlida o, en trminos estadsticos, sesgada: no estimar el verdadero impacto del programa. En cambio, estimar el efecto del programa en combinacin con el efecto de otras diferencias.

38

La evaluacin de impacto en la prctica

Grco 3.2

Un grupo de comparacin vlido

Dos tipos de estimaciones del impacto


Despus de haber estimado el impacto del programa, el evaluador debe saber interpretar los resultados. Una evaluacin siempre estima el impacto de un programa comparando los resultados del grupo de tratamiento con la estimacin del contrafactual de un grupo comparable, mediante la ecuacin bsica de la evaluacin de impacto. La interpretacin del impacto de un programa variar en funcin de lo que representen realmente el tratamiento y el contrafactual. El impacto estimado se denomina el estimador de la intencin de tratar (IDT) cuando la frmula bsica se aplica a las unidades a las que se ha ofrecido el programa, independientemente de que participen o no en l. La intencin de tratar es importante cuando se intenta determinar el impacto promedio de un programa sobre la poblacin a la que va focalizado el programa. Por el contrario, la estimacin del impacto se denomina tratamiento en tratados (TET) cuando la frmula bsica de la evaluacin de impacto se aplica a las unidades a las que se ha ofrecido el programa y que se han beneciado de l. Las estimaciones de la intencin de tratar y del tratamiento en tratados sern iguales cuando haya pleno cumplimiento en el programa, es decir, cuando todas las unidades a las que se ha ofrecido un programa participen en l. En futuras secciones se volver a analizar en detalle la diferencia entre las estimaciones de la intencin de tratar y del tratamiento en tratados, pero considrese primero un ejemplo: el Programa de Subsidio de Seguro de Salud (PSSS) descrito en

Inferencia causal y contrafactuales

39

la introduccin de la segunda parte, en el que cualquier hogar de la comunidad de tratamiento puede solicitar un subsidio de seguro de salud. A pesar de que todos los hogares de las comunidades de tratamiento tienen derecho a participar en el programa, cierta fraccin de los hogares, supngase que el 10%, puede decidir no hacerlo (porque ya cuentan con seguro a travs de sus trabajos, porque son ms ricos y no prevn la necesidad de atencin sanitaria, o por otras razones). En esta hiptesis, el 90% de los hogares de la comunidad de tratamiento decide participar en el programa y recibe de hecho sus servicios. La estimacin de la intencin de tratar se obtendra calculando la frmula bsica de la evaluacin de impacto para todos los hogares a los que se ofreci el programa, es decir, el 100% de los hogares en las comunidades de tratamiento. Por el contrario, la estimacin del tratamiento en tratados se obtendra calculando la frmula bsica del impacto solo para los hogares que decidieron participar del programa, es decir, solo el 90%.

Dos estimaciones falsas del contrafactual


En el resto de la segunda parte de este libro se analizarn los mtodos para conseguir grupos de comparacin que nos permitan estimar el contrafactual. No obstante, antes de ello es interesante analizar dos mtodos habituales, y muy arriesgados, para denir grupos de comparacin, que pueden generar estimaciones inadecuadas del contrafactual. Estas dos estimaciones falsas de los contrafactuales son: 1) comparaciones antes-despus, que comparan los resultados de los mismos participantes del programa antes y despus de la introduccin de un programa, y 2) comparaciones con-sin entre unidades que deciden inscribirse y unidades que deciden no inscribirse.

Contrafactual falso 1: Comparacin antes-despus


Una comparacin antes-despus intenta conocer el impacto de un programa mediante un seguimiento temporal de los resultados de los participantes. Si se retoma la frmula bsica de la evaluacin de impacto, el resultado para el grupo de tratamiento (Y | P = 1) es simplemente el resultado posterior a la intervencin. Sin embargo, el contrafactual (Y | P = 0) se dene como el resultado previo a la intervencin. Esta comparacin supone esencialmente que si el programa nunca hubiera existido, el resultado (Y) para los participantes del programa habra sido equivalente a su situacin previa al programa. Sin embargo, en la gran mayora de los casos este supuesto no puede sostenerse. Considrese el caso de la evaluacin de un programa de micronanzas para agricultores rurales pobres. El programa ofrece microcrditos a agricultores para que puedan comprar fertilizante y aumentar su produccin de arroz. El ao anterior al

40

La evaluacin de impacto en la prctica

comienzo del programa, se observa que los agricultores cosecharon un promedio de 1000 kilogramos de arroz por hectrea. Un ao despus de la puesta en marcha del micronanciamiento, la produccin de arroz ha aumentado a 1100 kilogramos por hectrea. Si se intentara evaluar el impacto mediante una comparacin antes-despus, se tomara el resultado previo a la intervencin como contrafactual. Despus de aplicar la frmula bsica de la evaluacin de impacto, la conclusin sera que el programa ha aumentado la produccin de arroz en 100 kilogramos por hectrea. Sin embargo, supngase que la lluvia era un fenmeno normal durante el ao anterior al comienzo del programa, pero que se produjo una sequa durante el ao en que se puso en marcha. En este contexto, el resultado previo a la intervencin no puede ser un contrafactual adecuado. El grco 3.3 explica las razones. Considerando que los agricultores se beneciaron del programa durante un ao de sequa, su produccin media sin el mecanismo de microcrdito habra sido an menor, en el nivel D, y no en el nivel B, como se supone con la comparacin antes-despus. En ese caso, el verdadero impacto del programa es superior a 100 kilogramos por hectrea. Por el contrario, si las condiciones ambientales hubieran mejorado, el contrafactual de la produccin de arroz podra situarse en el nivel C, en cuyo caso el verdadero impacto del programa habra sido inferior a 100 kilogramos por hectrea.

Grco 3.3

Estimaciones antes-despus de un programa de micronanzas

Produccin de arroz (kg/ha)

1,100

cambio observado contrafactual C C? = 100

1,000

contrafactual B

contrafactual D

D? ao
T=1 (2009)

T=0 (2007)

Inferencia causal y contrafactuales

41

En otras palabras, a menos que se tenga en cuenta estadsticamente la lluvia y cualquier otro factor que pueda afectar a la produccin de arroz, no se puede calcular el verdadero impacto del programa mediante una comparacin antes-despus. Aunque las comparaciones antes-despus pueden no ser vlidas para la evaluacin de impacto, esto no signica que no sean valiosas para otros nes. Los sistemas de administracin de datos de muchos programas recopilan normalmente datos acerca de los participantes a lo largo del tiempo. Por ejemplo, un sistema de informacin sobre la gestin de la educacin puede reunir datos sobre la matriculacin de estudiantes en una serie de escuelas en las que funciona un programa de almuerzos escolares. Estos datos permiten a los gerentes del programa observar si el nmero de nios matriculados en la escuela aumenta con el tiempo, informacin valiosa para el sistema educativo. Sin embargo, armar que el programa de almuerzos escolares ha causado el cambio observado en la matriculacin es mucho ms complicado porque muchos factores afectan a la matriculacin de estudiantes. Por lo tanto, aunque el monitoreo de los cambios a lo largo del tiempo para un grupo de participantes es sumamente valioso, no nos permite determinar concluyentemente si un programa ha contribuido, o cunto ha contribuido, a la mejora. En el ejemplo anterior se vio que muchos factores pueden afectar a la produccin de arroz a lo largo del tiempo. Asimismo, muchos factores pueden afectar a la mayora de los resultados de inters de los programas de desarrollo. Por esto, el resultado previo al programa casi nunca es una buena estimacin del contrafactual, y por eso se lo considera un contrafactual falso.

Comparacin antes-despus del Programa de Subsidio del Seguro de Salud


El PSSS es un nuevo programa en su pas que subvenciona el seguro de salud a los hogares rurales pobres, que cubre los gastos de atencin primaria y medicinas. El objetivo del PSSS es reducir el gasto directo en salud de las familias pobres para as mejorar los resultados de la salud. Aunque podra considerar muchos indicadores de resultado para evaluar el programa, su Gobierno est especialmente interesado en analizar los efectos del PSSS sobre el gasto de las familias pobres en atencin primaria y medicinas, medido en funcin de los gastos directos en salud per cpita de los hogares (a partir de ahora, gasto en salud). El PSSS representar una parte considerable del presupuesto del pas si se extiende su cobertura a nivel nacional: tanto como el 1,5% del producto interno

42

La evaluacin de impacto en la prctica

bruto segn algunas estimaciones. La gestin de un programa de estas caractersticas conlleva una considerable complejidad administrativa y logstica. Por estos motivos, los mximos niveles del Gobierno han resuelto comenzar el PSSS como un programa piloto para luego, segn los resultados de la primera fase, extenderlo gradualmente. Sobre la base de los resultados de los anlisis nancieros y de costobenecio, la presidenta y su Gabinete han anunciado que para que el PSSS sea viable y se extienda a todo el pas debe reducir el promedio de gasto en salud per cpita de los hogares rurales pobres en al menos US$9 en un plazo de dos aos. El PSSS se introducir en 100 pueblos durante la fase piloto. Justo antes del comienzo del programa, su Gobierno contrata a una empresa consultora para que realice una encuesta a los 4959 hogares de estos pueblos. La encuesta recolecta informacin detallada, incluida la composicin demogrca de los hogares, sus activos, su acceso a servicios de salud y su gasto en salud durante el ao anterior. Poco despus de la encuesta, se implementa el PSSS en los pueblos a bombo y platillo, con eventos comunitarios y otras campaas promocionales para fomentar la inscripcin de los hogares elegibles. De los 4959 hogares de la muestra, 2907 se inscriben durante los primeros dos aos del programa. A lo largo de estos dos aos, la mayora de las medidas indican que el PSSS funciona con xito. Las tasas de cobertura son altas y las encuestas demuestran que la mayora de los hogares inscritos estn satisfechos. Al nal del perodo de dos aos, se recopila una segunda ronda de datos de evaluacin de la misma muestra de 4959 hogares1. La presidenta y el ministro de Salud le han encargado a usted la supervisin de la evaluacin de impacto del PSSS, y que recomiende si el programa se debe extender a nivel nacional. La pregunta de su evaluacin de impacto es: Cunto ha reducido el PSSS el gasto en salud de los hogares rurales pobres? Hay mucho en juego. Si se concluye que el PSSS reduce el gasto en salud por lo menos US$9, se extender a nivel nacional. Si el programa no alcanz ese objetivo, la recomendacin ser que el programa no se extienda. El primer consultor experto en evaluaciones que contrata seala que, para estimar el impacto del PSSS, debe calcular el cambio en el gasto en salud a lo largo del tiempo de los hogares inscritos en el programa. El consultor arma que, dado que el PSSS cubre los gastos relacionados con la atencin primaria y las medicinas, cualquier reduccin del gasto a lo largo del tiempo puede atribuirse en gran medida al PSSS. Por lo tanto, solo con los datos de los hogares inscritos, estima su promedio de gasto en salud antes de la implementacin del programa y dos aos ms tarde. En otras palabras, realiza una evaluacin antes-despus. Los resultados se muestran en el cuadro 3.1.

Inferencia causal y contrafactuales

43

Cuadro 3.1 Primer caso: Impacto del PSSS segn comparacin antesdespus (comparacin de medias) Antes Gasto en salud de los hogares 7 .8 Despus 14.4 Diferencia 6.6 t-estadstico 28.9

Los hogares que se inscribieron en el PSSS redujeron sus gastos directos en salud de US$14,4 antes de la introduccin del PSSS a US$7,8 dos aos despus, una reduccin de US$6,6 (o del 45%) durante ese perodo. Como se deduce del valor del t-estadstico, la diferencia entre el gasto en salud antes y despus del programa es estadsticamente signicativa, es decir que la probabilidad de que el efecto estimado sea estadsticamente nula es muy baja. Sin embargo, a usted le preocupa que otros factores puedan haber cambiado con el tiempo y afectado el gasto en salud. Por ejemplo, mientras se implementaba el piloto se han llevado a cabo una serie de intervenciones en salud en los mismos pueblos. Adems, algunos cambios en los gastos de los hogares podran ser consecuencia de la crisis nanciera que ha experimentado recientemente su pas. Para abordar algunas de estas preocupaciones, su consultor realiza un anlisis de regresin ms sosticado, que considerar los factores externos adicionales. Los resultados se muestran en el cuadro 3.2. En este caso, la regresin lineal corresponde al gasto en salud con una variable binaria (0-1) que indica si la observacin es de referencia (0) o de seguimiento (1). La regresin lineal multivariante tambin considera, o mantiene constantes, otras caractersticas que se observan en los hogares de la muestra, como indicadores de riqueza (activos), composicin del hogar, etctera. Usted constata que la regresin lineal simple es equivalente a la diferencia simple entre antes y despus del gasto en salud (una reduccin de US$6,59). Despus de considerar otros factores disponibles en sus datos, vuelve a obtener el mismo resultado: una disminucin de US$6,65.

Cuadro 3.2 Primer caso: Impacto del PSSS segn comparacin antesdespus (anlisis de regresin) Regresin lineal Impacto estimado sobre el gasto en salud de los hogares 6.59** (0.22) Regresin lineal multivariante 6.65** (0.22)

Nota: Los errores estndar estn entre parntesis. ** Signicativos al nivel del 1%.

44

La evaluacin de impacto en la prctica

PREGUNTA 1

A. De acuerdo con los resultados del primer caso, se debera extender el PSSS a nivel nacional? B. Es probable que este anlisis tenga en cuenta todos los factores que afectan el gasto en salud a lo largo del tiempo?

Contrafactual falso 2: Comparacin inscritos-no inscritos


La comparacin de las unidades que se benecian del programa con las que no se benecian (con-sin) es otro contrafactual falso. Considrese, por ejemplo, un programa de formacin profesional para jvenes desempleados. Dos aos despus de la puesta en marcha del programa, una evaluacin intenta estimar su impacto sobre el ingreso comparando la media de ingresos de un grupo de jvenes que decidi inscribirse con la de otro grupo que eligi no hacerlo. Supngase que, segn los resultados, los jvenes inscritos ganan el doble que los que no se inscribieron. Cmo se deben interpretar estos resultados? El contrafactual se estima mediante los ingresos de quienes decidieron no inscribirse en el programa. Sin embargo, es posible que haya diferencias fundamentales entre ambos grupos. Quienes deciden participar pueden tener muchos medios para mejorar su ingreso y pueden esperar un gran benecio del programa. Por el contrario, los que deciden no inscribirse pueden ser jvenes desanimados que no esperan beneciarse de este tipo de programa. Es posible que el desempeo de estos grupos en el mercado laboral sea diferente y tengan diferentes ingresos incluso sin el programa de formacin profesional. Por lo tanto, el grupo que decide no inscribirse no es una buena estimacin del contrafactual. Si se observara una diferencia en los ingresos de ambos grupos, no se podra determinar si esta se debe al programa de formacin o a diferencias previas entre ambos grupos como, por ejemplo, la motivacin.. Cuando las personas menos motivadas deciden no inscribirse en un programa se genera un sesgo en la evaluacin de impacto del programa2 llamado sesgo de seleccin. En este caso, si los jvenes inscritos hubieran tenido ingresos mayores incluso en ausencia del programa, el sesgo de la seleccin sera positivo; es decir, se estara sobreestimando el impacto del programa de formacin profesional sobre los resultados.

Concepto clave:
El sesgo de seleccin se produce cuando las razones por las que una persona participa en un programa se correlacionan con los resultados. Este sesgo se produce normalmente cuando el grupo de comparacin no es elegible para el programa o decide no participar en l.

Comparacin entre inscritos y no inscritos del Programa de Subsidio del Seguro de Salud
Tras examinar ms detenidamente con su equipo de evaluacin la comparacin antes-despus, se da cuenta de que sigue habiendo muchos factores que varan con el tiempo, y que pueden explicar parte del cambio en el gasto en salud (en concreto,

Inferencia causal y contrafactuales

45

el ministro de Finanzas est preocupado porque la reciente crisis nanciera haya afectado al gasto en salud de los hogares y pueda explicar el cambio observado). Otro consultor sugiere que sera ms apropiado estimar el contrafactual en el perodo posterior a la intervencin, es decir, dos aos despus del comienzo del programa. El consultor constata que de los 4959 hogares de la muestra, solo 2907 participaron del programa, por lo que un 41% de los hogares siguen sin cobertura del PSSS. El consultor sostiene que los hogares dentro de la misma comunidad estarn expuestos a la misma oferta de intervenciones sanitarias y a las mismas condiciones econmicas locales, por lo que los resultados posteriores a la intervencin del grupo no inscrito ayudarn a considerar muchos de los factores del entorno que afectan tanto a los hogares inscritos como no inscritos. Por consiguiente, tras la intervencin usted decide calcular el gasto promedio en salud de los hogares que participaron en el programa y de quienes no lo hicieron, y obtiene los datos del cuadro 3.3. Al usar el gasto promedio en salud de los hogares no inscritos para estimar el contrafactual, observa que el programa ha reducido el gasto promedio en salud en alrededor de US$14. Al analizar ms detenidamente este resultado con el consultor, usted pregunta si los hogares que decidieron no inscribirse no sern sistemticamente diferentes de los que s lo hicieron. Por ejemplo, los hogares inscritos pueden ser los que prevn mayores gastos en salud, o haber sido informados mejor acerca del programa, o estar ms preocupados por la salud de sus miembros. Adems, es posible que los hogares inscritos sean generalmente ms pobres que los no inscritos. El consultor le asegura que el anlisis de regresin puede contemplar las posibles diferencias entre los dos grupos. Considerando las caractersticas de los hogares registradas en las series de datos, el consultor estima el impacto del programa como se muestra en el cuadro 3.4.

Cuadro 3.3 Segundo caso: Impacto del PSSS segn comparacin inscritos-no inscritos (comparacin de medias) Inscritos No inscritos Diferencia t-estadstico Gasto en salud de los hogares 7 .8 21.8 13.9 39.5

46

Impact Evaluation in Practice

Cuadro 3.4 Segundo caso: Impacto del PSSS segn comparacin inscritos-no inscritos (anlisis de regresin) Regresin lineal Impacto estimado sobre el gasto en salud de los hogares 13.9** (0.35) Regresin lineal multivariante 9.4** (0.32)

Nota: Los errores estndar estn entre parntesis. ** Signicativos al nivel del 1%.

Con una simple regresin lineal del gasto en salud en funcin de una variable binaria de la inscripcin o no inscripcin de los hogares en el programa, usted obtiene un impacto de US$13,90 menos; es decir, que el programa ha disminuido el gasto promedio en salud en US$13,90. Sin embargo, cuando se mantienen constantes todas las dems caractersticas de la muestra, estima que el programa ha reducido el gasto de los hogares inscritos en US$9,40 al ao.

PREGUNTA 2

A. De acuerdo con los resultados del segundo caso, se debera extender el PSSS a nivel nacional? B. Es probable que este anlisis tenga en cuenta todos los factores que afectan el gasto en salud a lo largo del tiempo?

Notas
1. Ntese que se supone que el desgaste de la muestra es nulo durante el perodo de dos aos, es decir, la muestra no habr perdido ningn hogar. Este supuesto no es realista en la mayora de las encuestas de hogares. En la prctica, a veces no se puede determinar la nueva ubicacin de las familias que se trasladan, y algunos hogares se disuelven y dejan de existir. 2. Por poner otro ejemplo, si los jvenes que prevn beneciarse considerablemente del programa de formacin tienen ms probabilidades de inscribirse (por ejemplo, porque esperan aumentar sus salarios con la formacin), se estar comparando a un grupo de personas que prevean un aumento de sus ingresos con un grupo de personas que no esperaban dicho aumento.

Inferencia causal y contrafactuales

47

CAPTULO 4

Mtodos de seleccin aleatoria


Despus de analizar dos mtodos que, pese a ser empleados frecuentemente para estimar contrafactuales, adolecen de un alto sesgo potencial (las comparaciones antes-despus y con tratamiento-sin tratamiento), a continuacin se vern otros mtodos que permiten estimar con mucha mayor precisin el impacto de los programas. Obtener tal estimacin no siempre es tan sencillo como puede parecer a primera vista. La mayora de los programas se disean e implementan dentro de un entorno complejo y cambiante, en el que muchos factores pueden inuir en los resultados, tanto de quienes participan del programa como de quienes no lo hacen. Las sequas, los terremotos, las recesiones, los cambios de Gobierno y los vaivenes de las polticas internacionales y nacionales forman parte del mundo real; como evaluadores, es preciso asegurarse de que la estimacin del impacto de un programa siga siendo vlida a pesar de esta gran variedad de factores. Como se ver en esta parte del libro, las reglas para la inscripcin de los participantes de un programa sern el principal parmetro a considerar al seleccionar el mtodo de evaluacin de impacto. En general, el diseo de la evaluacin de impacto debe adaptarse al contexto de las reglas operativas de un programa (con algunos pequeos ajustes), y no al contrario. Tambin es importante partir de la premisa de que todos los programas sociales deben tener reglas justas y transparentes para su asignacin. Una de las reglas ms justas y transparentes para asignar recursos escasos entre poblaciones que los merecen de igual manera es que tengan la misma oportunidad de participar en el programa. Una manera sencilla de hacerlo es mediante un

49

sorteo. En este captulo se examinarn varios mtodos de seleccin aleatoria comparables a sorteos para decidir quin participa en un programa. Estos mtodos de seleccin aleatoria no solo ofrecen a los administradores del programa una regla justa y transparente para asignar recursos escasos entre poblaciones con igual derecho a ellos, sino que son tambin los mtodos ms slidos para evaluar el impacto del mismo. Los mtodos de seleccin aleatoria pueden derivarse con frecuencia de las reglas operativas de un programa. En muchos casos, el conjunto de unidades a las que se querra llegar es mayor que el nmero de participantes a los que realmente se puede atender. Por ejemplo, en un solo ao un programa de educacin puede suministrar material escolar y mejorar el programa de estudios en 500 escuelas entre los miles de centros elegibles en el pas. O un programa de empleo para jvenes puede tener el objetivo de atender durante su primer ao a 2000 desempleados, aunque haya decenas de miles de jvenes en esa situacin. Son varias las razones por las que los programas no pueden atender a toda la poblacin de inters. Las restricciones presupuestarias pueden impedir que un programa llegue desde el principio a todas las unidades elegibles. Incluso cuando hay presupuesto suciente para atender a un gran nmero de participantes, las limitaciones de capacidad pueden impedir que un programa se ocupe de todo el mundo al mismo tiempo. En el ejemplo del programa de formacin profesional para jvenes, el nmero de jvenes desempleados que quieren cursar esta formacin puede ser superior a la cantidad de plazas disponibles en los centros tcnicos durante el primer ao del programa, y esto puede limitar el nmero de personas que pueden matricularse. La mayora de los programas tiene una capacidad presupuestaria u operativa limitada, que les impide atender a todos los participantes previstos al mismo tiempo. Cuando los participantes elegibles superan las plazas disponibles de un programa, los administradores deben denir un mecanismo de seleccin. En otras palabras, alguien debe decidir quin participar y quin no participar en el programa. A veces se recurre al orden de llegada o a caractersticas observadas (por ejemplo, privilegiar mujeres y nios, o a los municipios ms pobres); la seleccin tambin puede basarse en caractersticas no observadas (por ejemplo, dejar que se inscriban los participantes en funcin de su motivacin y de su conocimiento de las oportunidades), o recurrir a un sorteo.

Asignacin aleatoria del tratamiento


Cuando se asigna aleatoriamente a los beneciarios de un programa entre una poblacin elegible numerosa, se puede hacer una estimacin robusta del contrafactual, lo que se considera la regla de oro de la evaluacin de impacto. La asignacin aleatoria

50

La evaluacin de impacto en la prctica

del tratamiento se puede llevar a cabo mediante un sorteo en el que se decidir quin participa en el programa de entre una poblacin de individuos con igual derecho a participar1. De esta manera, todas las unidades elegibles para el tratamiento (por ejemplo, una persona, un hogar, una comunidad, una escuela, un hospital, etc.) tienen la misma probabilidad de resultar seleccionadas2. Antes de ver cmo aplicar la asignacin aleatoria y por qu esta genera un contrafactual slido, considrense las razones por las que la asignacin aleatoria tambin es una manera justa y transparente de asignar los recursos escasos de un programa. Este mtodo es una regla de seleccin justa porque permite a los administradores de un programa garantizar que todas las personas o unidades elegibles tengan la misma probabilidad de ser seleccionadas, y que las personas seleccionadas no habrn sido elegidas en funcin de criterios arbitrarios o subjetivos, por favoritismo o mediante otras prcticas injustas. Ante un exceso de demanda, la asignacin aleatoria es una regla sencilla de explicar y que todas las partes interesadas pueden entender fcilmente. Si los beneciarios son seleccionados mediante un proceso abierto y replicable, la regla de asignacin aleatoria no puede manipularse fcilmente, y protege por lo tanto a los administradores del programa de posibles acusaciones de favoritismo o corrupcin. En otras palabras, la asignacin aleatoria es un mecanismo de seleccin cuya utilidad trasciende la evaluacin de impacto. En muchos programas se elige por sorteo entre el conjunto de personas elegibles a las que participarn en ellos por sus ventajas administrativas y de gestin de gobierno3. Por qu la asignacin aleatoria genera una estimacin excelente del contrafactual? Como se seal previamente, el grupo de comparacin ideal ser lo ms similar posible al grupo de tratamiento, excepto por la inscripcin en el programa a evaluar. El propio proceso de asignar aleatoriamente unidades a los grupos de tratamiento y de comparacin producir dos grupos con muchas probabilidades de ser estadsticamente idnticos, siempre que el nmero al que se aplique la asignacin aleatoria sea lo sucientemente grande. Con un gran nmero de observaciones, la asignacin aleatoria producir grupos con un promedio de todas sus caractersticas estadsticamente equivalente. A su vez, estos promedios tambin tendern a parecerse a los de la poblacin de la que se extraen los participantes4.

Mtodos de seleccin aleatoria

51

El grco 4.1 representa la asignacin aleatoria. Supngase que el conjunto de unidades elegibles est compuesto por mil personas, entre las cuales se selecciona aleatoriamente la mitad para asignarla al grupo de tratamiento y la otra mitad al grupo de comparacin. Por ejemplo, se escriben los nombres de las 1000 personas en trozos de papel individuales, se los mezcla en una bolsa y se le pide a alguien que extraiga 500 nombres. As, se obtendr un grupo de tratamiento asignado aleatoriamente (por ejemplo los primeros 500 nombres extrados), y un grupo de comparacin asignado del mismo modo (los 500 nombres que quedan en la bolsa). Supngase que el 40% de las 1000 personas son mujeres. Dado que la seleccin fue aleatoria, de los 500 nombres extrados de la bolsa alrededor del 40% tambin sern mujeres. Si el 20% de las 1000 personas tenan los ojos azules, la misma proporcin se repetir aproximadamente en los grupos de tratamiento y de comparacin. Si el conjunto de unidades elegibles es lo sucientemente numeroso, cualquier caracterstica de esta poblacin se vericar en los grupos de tratamiento y de comparacin. Es decir que si las caractersticas observadas como el sexo o el color de los ojos se reproducen en los grupos de tratamiento y de comparacin, es esperable que caractersticas ms difciles de detectar (variables no observadas), como la motivacin, las preferencias y otros aspectos personales tambin se repitan en ambos grupos. Por ejemplo, no se puede observar o medir el nivel de amabilidad de las personas, pero si usted supiera que el 20% de la poblacin elegible es amable,

Grco 4.1 Caractersticas de los grupos con la asignacin aleatoria del tratamiento

Conjunto de unidades elegibles

La seleccin aleatoria preserva las caractersticas

La seleccin aleatoria preserva las caractersticas

Grupo de tratamiento:
asignado al tratamiento

Grupo de comparacin:
no asignado al tratamiento

52

La evaluacin de impacto en la prctica

entonces aproximadamente el 20% de las unidades de los grupos de tratamiento y de comparacin sern tambin amables. La asignacin aleatoria ayuda a garantizar que, en general, los grupos de tratamiento y de comparacin sean similares en todos los sentidos, tanto en sus caractersticas observadas como en las no observadas. Cuando en una evaluacin se emplea la asignacin aleatoria se generan grupos de tratamiento y de comparacin equivalentes. Con los datos del ejemplo anterior es posible comprobar empricamente este supuesto y vericar que no existen diferencias sistemticas en las caractersticas de los grupos de tratamiento y de comparacin antes del comienzo del programa. Por lo tanto, si despus de poner en marcha el programa se observan diferencias en los resultados entre los grupos de tratamiento y de comparacin, se sabr que solo pueden deberse a la introduccin del programa, ya que la seleccin de los dos grupos fue idntica y ambos estn expuestos a los mismos factores externos. En otras palabras, el grupo de comparacin contiene todos los factores que podran explicar tambin el resultado de inters. En este caso se puede conar en que la diferencia entre el resultado bajo tratamiento (el resultado medio del grupo de tratamiento asignado aleatoriamente) y la estimacin del contrafactual (el resultado medio del grupo de comparacin asignado aleatoriamente), representa el verdadero impacto del programa, ya que en el proceso de seleccin se han eliminado todos los factores observados y no observados que podran explicar de otro modo la diferencia de los resultados. En el grco 4.1 todas las unidades de la poblacin elegible son asignadas al grupo de tratamiento o de comparacin. Sin embargo, no es necesario incluir todas las unidades en la evaluacin. Por ejemplo, si el conjunto de unidades elegibles incluye un milln de madres, una muestra representativa de, por ejemplo, 1000 madres para el grupo de tratamiento o de comparacin puede ser suciente (grco 4.2). La seleccin de una muestra aleatoria entre el conjunto de unidades elegibles para formar una muestra de evaluacin preserva las caractersticas de la poblacin de unidades elegibles. La seleccin aleatoria de los grupos de tratamiento y de comparacin de entre la muestra de evaluacin vuelve a preservar esas caractersticas.

Mtodos de seleccin aleatoria

53

Grco 4.2 Muestreo aleatorio y asignacin aleatoria del tratamiento

Conjunto de unidades elegibles


La seleccin aleatoria preserva las caractersticas

Validez externa

Muestra de evaluacin:
La seleccin aleatoria preserva las caractersticas La seleccin aleatoria preserva las caractersticas

Validez interna Grupo de tratamiento:


asignado al tratamiento

Grupo de comparacin:
no asignado al tratamiento

Validez externa e interna Los pasos descritos anteriormente para la asignacin aleatoria del tratamiento aseguran tanto la validez interna como externa de la evaluacin de impacto, siempre que la muestra de la evaluacin sea sucientemente grande (grco 4.2). Validez interna signica que el impacto estimado del programa est libre de todos los otros factores que pueden afectar el resultado de inters, o que el grupo de comparacin representa el verdadero contrafactual, por lo que se estima el verdadero impacto del programa. Recurdese que la asignacin aleatoria produce un grupo de comparacin que es estadsticamente equivalente al grupo de tratamiento en la lnea de base, antes del comienzo del programa. Al empezar el programa, el grupo de comparacin est expuesto a la misma serie de factores externos que el grupo de tratamiento, con la nica excepcin del propio programa.. Por lo tanto, si aparece alguna diferencia entre los grupos de tratamiento y de comparacin, solo puede deberse a la existencia del programa en el grupo de tratamiento. La validez interna de una evaluacin de impacto se garantiza a travs de la asignacin aleatoria del tratamiento. Validez externa signica que el impacto estimado en la muestra de evaluacin puede generalizarse al conjunto de todas las unidades elegibles. Para que esto sea posible, la muestra de evaluacin debe ser representativa del conjunto de unidades elegibles, es decir que la muestra de evaluacin debe seleccionarse de entre la poblacin mediante alguna de las variaciones del muestreo aleatorio5. Ntese que se han mencionado dos tipos diferentes de seleccin aleatoria: una para nes de muestreo (para la validez externa) y otra como mtodo de evaluacin de impacto (para la validez interna). Una evaluacin de impacto puede producir

Concepto clave:
Una evaluacin es internamente vlida si se emplea un grupo de comparacin vlido.

Concepto clave:
Una evaluacin es externamente vlida si la muestra de evaluacin representa al conjunto de unidades elegibles. Los resultados pueden generalizarse entonces al conjunto de unidades elegibles.

54

La evaluacin de impacto en la prctica

estimaciones internamente vlidas mediante la asignacin aleatoria del tratamiento; sin embargo, si se realiza una evaluacin a partir de una muestra no aleatoria de la poblacin, el impacto estimado puede no ser generalizable al conjunto de unidades elegibles. Inversamente, si en la evaluacin se emplea una muestra aleatoria del conjunto de unidades elegibles, pero el tratamiento no es asignado de manera aleatoria, la muestra ser representativa pero el grupo de comparacin puede no ser vlido. Cundo se puede usar la asignacin aleatoria? En la prctica, se debe considerar la asignacin aleatoria siempre que el nmero de posibles participantes sea superior al nmero de plazas disponibles y sea necesario implementar progresivamente el programa. En algunas circunstancias tambin es necesaria la asignacin aleatoria como un instrumento de evaluacin, aunque los recursos del programa no estn limitados. Por ejemplo, los Gobiernos pueden usar la asignacin aleatoria para poner a prueba programas nuevos o que puedan resultar costosos, cuyas consecuencias previstas o imprevistas sean desconocidas. En este caso, la asignacin aleatoria est justicada durante un perodo de evaluacin piloto para comprobar rigurosamente los efectos del programa antes de extenderlo a una poblacin mayor. Existen normalmente dos situaciones en las que la asignacin aleatoria es viable como un mtodo de evaluacin de impacto: 1. Cuando la poblacin elegible es superior al nmero de plazas disponibles en el programa. Cuando la demanda de un programa supera a la oferta, se puede usar un simple sorteo para seleccionar el grupo de tratamiento dentro de la poblacin elegible. As, cada unidad de la poblacin tiene la misma posibilidad de resultar seleccionada para el programa. El grupo seleccionado en el sorteo es el grupo de tratamiento, y el resto de la poblacin al que no se ofrece el programa es el grupo de comparacin. En la medida en que exista una limitacin de recursos que impida la extensin del programa a toda la poblacin, se pueden mantener los grupos de comparacin para medir el impacto en el corto, mediano y largo plazos del programa. Mantener indenidamente un grupo de comparacin no genera dilemas ticos, ya que un subgrupo de la poblacin quedar necesariamente excluido del programa. Por ejemplo, el ministerio de Educacin quiere equipar con bibliotecas a las escuelas pblicas de todo el pas, pero el ministerio de Finanzas solo asigna presupuesto suciente para un tercio de ellas. Si el ministerio de Educacin quiere que cada escuela pblica tenga las mismas posibilidades de recibir una biblioteca, organizar un sorteo en el que cada escuela tenga la misma probabilidad (1 en 3)

Mtodos de seleccin aleatoria

55

de resultar seleccionada. Las escuelas elegidas en el sorteo reciben una nueva biblioteca y constituyen el grupo de tratamiento, y no se ofrece una biblioteca a los otros dos tercios de escuelas pblicas del pas, que se convierten en el grupo de comparacin. A menos que se asignen fondos adicionales al programa de bibliotecas, seguir habiendo un grupo de escuelas que no reciban nanciamiento para bibliotecas a travs del programa, y pueden usarse como grupo de comparacin para medir el contrafactual 2. Cuando es necesario ampliar un programa gradualmente hasta que cubra a toda la poblacin elegible. Cuando un programa se ampla en etapas, establecer aleatoriamente el orden en el que los participantes se benecian del programa ofrece a cada unidad elegible la misma posibilidad de recibir tratamiento en la primera fase o en una fase posterior. En la medida en que no se haya incorporado todava el ltimo grupo al programa, este servir de grupo de comparacin vlido a partir del cual se podr estimar el contrafactual para los grupos que ya se hayan incorporado. Por ejemplo, supngase que el ministro de Salud quiere capacitar a los 15 000 profesionales de enfermera del pas en el uso de un nuevo protocolo sanitario, pero necesita tres aos para capacitar a todos. En el contexto de una evaluacin de impacto, el ministro podra seleccionar aleatoriamente a un tercio de las enfermeras para que reciban capacitacin durante el primer ao, un tercio para el segundo ao y un tercio para el tercer ao. Para evaluar el efecto del programa de capacitacin un ao despus de la implementacin, el grupo de enfermeras capacitadas durante el primer ao constituir el grupo de tratamiento, y el grupo de enfermeras seleccionadas aleatoriamente para recibir capacitacin durante el tercer ao ser el grupo de comparacin, ya que todava no habr recibido dicha capacitacin. Cmo asignar aleatoriamente el tratamiento? Ahora que se ha analizado cmo funciona la asignacin aleatoria y por qu produce un buen grupo de comparacin, se retomarn los pasos para asignar exitosamente el tratamiento de manera aleatoria. En el grco 4.3 se ilustra este proceso. El primer paso de la asignacin aleatoria consiste en denir las unidades elegibles. Segn el programa, una unidad puede ser una persona, un centro de salud, una escuela o incluso todo un pueblo o municipalidad. El conjunto de unidades elegibles est formado por aquellas acerca de las cuales interesa conocer el impacto de un programa. Por ejemplo, si se est implementando un programa de formacin para los maestros de escuelas primarias en reas rurales, los profesores de centros de secundaria o los maestros de escuelas de primaria de reas urbanas no formarn parte del conjunto de unidades elegibles.

56

La evaluacin de impacto en la prctica

Grco 4.3

Pasos para la asignacin aleatoria del tratamiento

Primer paso: Unidades elegibles

Segundo paso: Muestra de evaluacin

Tercer paso: Asignacin aleatoria del tratamiento C Comparacin

Tratamiento

}
Validez externa

}
Validez interna

Inelegible

Elegible

Una vez que se haya determinado la poblacin de unidades elegibles, ser necesario comparar el tamao del grupo con el nmero de observaciones requeridas para la evaluacin. Este nmero se determina mediante clculos de la potencia y se basa en las preguntas a responder (vase el captulo 11). Si la poblacin elegible es pequea, puede ser necesario incluir todas las unidades en la evaluacin. Si hay ms unidades elegibles que las requeridas para la evaluacin, el siguiente paso consiste en seleccionar una muestra de la poblacin. Ntese que este segundo paso se realiza principalmente para limitar los costos de la recoleccin de datos. Si se observa que los datos de los sistemas de monitoreo existentes pueden emplearse para la evaluacin, y que estos sistemas abarcan al conjunto de unidades elegibles, no se necesitar extraer una muestra de evaluacin diferente. Sin embargo, considrese una evaluacin en la que el conjunto de las unidades elegibles incluye a decenas de miles de profesores de todas las escuelas pblicas del pas, y se necesita recolectar informacin detallada acerca de los conocimientos pedaggicos de los profesores. Aunque entrevistar a todos ellos puede no ser viable, podra bastar con seleccionar una muestra de 1000 profesores distribuidos en 100 escuelas. En la medida en que la muestra de escuelas y profesores sea representativa de la poblacin total de profesores de

Mtodos de seleccin aleatoria

57

escuelas pblicas, cualquier resultado de la evaluacin puede generalizarse. La recoleccin de datos sobre esta muestra de 1000 profesores ser por supuesto menos costosa que recopilar datos de todos los profesores de escuelas pblicas del pas. Finalmente, el tercer paso consistir en formar los grupos de tratamiento y de comparacin a partir de las unidades de la muestra de evaluacin. Esto requiere denir primero una regla para la asignacin de participantes basada en cifras aleatorias. Por ejemplo, si se necesita asignar 40 de las 100 unidades de la muestra de evaluacin al grupo de tratamiento, puede decidirse asignar las unidades con las cifras aleatorias ms altas a este grupo, y dejar el resto para el de comparacin. A continuacin, mediante una hoja de clculo o un software especializado en estadstica (grco 4.4) se asigna un nmero aleatorio a cada unidad de observacin de la muestra de evaluacin, y se usa la regla elegida para formar ambos grupos. Ntese que es importante denir la regla antes de aplicar el software que asigna cifras aleatorias a las unidades; de otro modo, puede existir la tentacin de decidir una regla basada en las cifras aleatorias obtenidas, lo que invalidara la asignacin. La lgica en que se basa el proceso automatizado no es diferente de la de arrojar una moneda al aire o sacar nombres de un sombrero: se trata siempre de un mecanismo que determina aleatoriamente para cada unidad si forma parte del grupo

Grco 4.4 Asignacin aleatoria del tratamiento mediante una hoja de clculo

Calibri

11

A19

* type the formula =RAND(). Note that the random numbers in Column C are volatile: they change everytime you do a calculation.

Cifra aleatoria Objetivo Regla

Entre 0 y 1. Asignar 50% de la muestra de evaluacin al tratamiento Si una cifra aleatoria es mayor a 0,5, asignar la persona al grupo de tratamiento, de lo contrario, asignar la persona la grupo de comparacin

Identificacion de la unidad 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013

Nombre Ahmed Elisa Anna Jung Tuya Nilu Roberto Priya Grace Fathia John Alex Nafula

Cifra aleatoria* 0.0526415 0.0161464 0.4945841 0.3622553 0.8387493 0.1715420 0.4798531 0.3919690 0.8677710 0.1529944 0.1162195 0.7382381 0.7084383

Cifra aleatoria final** 0.479467635 0.945729597 0.933658744 0.383305299 0.102877439 0.228446592 0.444725231 0.817004226 0.955775449 0.873459852 0.211028126 0.574082414 0.151608805

Asignacion 0 1 1 0 0 0 0 1 1 1 0 1 0

* type the formula =RAND(). Note that the random numbers in Column C are volatile: they change everytime you do a calculation. ** Copy the numbers in column C and Paste Special>Values into Column D. Column D then gives the final random numbers. *** type the formula =IF(C{row number}>0.5,1,0)

58

La evaluacin de impacto en la prctica

de tratamiento o de comparacin. Cuando es necesario que la asignacin aleatoria se realice en un foro pblico, se pueden utilizar tcnicas ms artesanales. En los siguientes ejemplos se supone que la unidad seleccionada aleatoriamente es una persona individual: 1. Si quiere asignar el 50% de las personas al grupo de tratamiento y el 50% al grupo de comparacin, arroje una moneda al aire para cada persona. Debe decidir con antelacin qu lado de la moneda signica que una persona ser asignada al grupo de tratamiento. 2. Si quiere asignar un tercio de la muestra de evaluacin al grupo de tratamiento, puede arrojar un dado para cada persona. Primero, debe decidir una regla. Por ejemplo, un 1 o 2 signicarn la asignacin al grupo de tratamiento, mientras que un 3, 4, 5 o 6 signicarn la asignacin al grupo de comparacin. Arrojar el dado una vez por cada persona en la muestra de evaluacin y las asignar a un grupo en funcin del nmero resultante. 3. Escriba los nombres de todas las personas en trozos de papel de igual tamao y forma. Doble los papeles de manera que no puedan verse los nombres y mzclelos bien dentro de un sombrero u otro tipo de recipiente. Antes de empezar a extraer papeles, decida la regla, es decir, cuntos papeles sacar, y que esos nombres se asignarn al grupo de tratamiento. Una vez que est clara la regla, pida a alguna persona entre los presentes (alguien imparcial, como un nio) que extraiga tantos papeles como el nmero de participantes que necesite para el grupo de tratamiento. Independientemente de que se apele a un sorteo pblico, un dado o software, es importante documentar el proceso para garantizar su transparencia. Esto signica, en primer lugar, que la regla de asignacin debe decidirse con antelacin y comunicarse a todos los presentes. En segundo lugar, debe acatarse la regla despus de obtener los nmeros aleatorios, y tercero, debe poder demostrarse que el proceso fue aleatorio. Cuando se arroje una moneda o un dado, puede grabarse el sorteo en video; la asignacin informtica de cifras aleatorias exige que se ofrezca un registro de los cmputos para que el proceso pueda ser auditado6. A qu nivel se realiza una asignacin aleatoria? La asignacin aleatoria puede hacerse a nivel de individuos, hogares, comunidades o regiones. En general, el nivel al que se asignan aleatoriamente unidades de tratamiento y grupos de comparacin depender de dnde y cmo se

Mtodos de seleccin aleatoria

59

implementa el programa. Por ejemplo, si se aplica un programa sanitario al nivel de las clnicas de salud, primero se elegir una muestra aleatoria de las clnicas de salud y despus se asignar algunas de ellas al grupo de tratamiento y otras al grupo de comparacin. Cuando el nivel de asignacin aleatoria es superior, por ejemplo a nivel regional o provincial en un pas, puede resultar muy difcil realizar una evaluacin de impacto porque el nmero de regiones o provincias en la mayora de los pases no es sucientemente grande para obtener grupos equilibrados de tratamiento y de comparacin. Si un pas tiene seis provincias, solo podr haber tres provincias de tratamiento y tres de comparacin, una cantidad insuciente para garantizar que las caractersticas de los grupos de tratamiento y de comparacin estn equilibradas. Sin embargo, a medida que el nivel de asignacin se reduce, aumentan las posibilidades de efectos de derrame y contaminacin7. Por ejemplo, si el programa consiste en suministrar medicinas antiparasitarias a los hogares, y un hogar del grupo de tratamiento se encuentra cerca de un hogar del grupo de comparacin, este puede verse positivamente afectado por el efecto de derrame del tratamiento de aquel, al reducirse sus posibilidades de contraer parsitos procedentes de sus vecinos. Los hogares de tratamiento y de comparacin tienen que encontrarse lo sucientemente lejos para evitar el efecto de derrame. Sin embargo, conforme aumenta la distancia entre los hogares, se vuelve ms costoso tanto implementar el programa como administrar las encuestas. Por regla general, si se pueden descartar razonablemente los efectos de derrame, es mejor realizar una asignacin aleatoria del tratamiento en el nivel ms bajo posible de implementacin del programa; esto garantizar que el nmero de unidades en los grupos de tratamiento y de comparacin sea el mayor posible. El efecto derrame se trata en el captulo 8. Estimacin del impacto con la asignacin aleatoria Una vez que se ha denido una muestra aleatoria de evaluacin y se ha asignado el tratamiento de manera aleatoria, es bastante fcil estimar el impacto de un programa. Despus de que el programa lleve funcionando algn tiempo, deben medirse los resultados de las unidades tanto de tratamiento como de comparacin. El impacto del programa es simplemente la diferencia entre el resultado promedio (Y) para el grupo de tratamiento y el resultado promedio (Y) para el grupo de comparacin. Por ejemplo, en el grco 4.5, el resultado promedio para el grupo de tratamiento es 100, y el resultado promedio para el grupo de comparacin es 80, por lo que el impacto del programa equivale a 20.

60

La evaluacin de impacto en la prctica

Grco 4.5

Estimacin del impacto con la asignacin aleatoria

Tratamiento
Promedio (Y) para el grupo de tratamiento = 100

Comparacin
Promedio (Y) para el grupo de comparacin = 80

Impacto
Impacto = Y = 20

Inscritos si, y solo si, estn asignados al grupo de tratamiento

Estimacin del impacto del Programa de Subsidio del Seguro de Salud con la asignacin aleatoria Retomemos ahora el ejemplo del PSSS. Recurdese que est intentando estimar el impacto del programa con una prueba piloto en la que participan un centenar de comunidades de tratamiento. Despus de realizar dos evaluaciones de impacto a partir de contrafactuales posiblemente sesgados (y llegar a recomendaciones contradictorias sobre polticas; vase el captulo 3), se decide volver al punto de partida para replantear cmo obtener un contrafactual ms preciso. Tras volver a deliberar con su equipo de evaluacin, est convencido de que una estimacin vlida del contrafactual requerir la identicacin de un grupo de comunidades idnticas a las 100 comunidades de tratamiento, con la nica diferencia de no haber participado en el PSSS. Teniendo en cuenta que el programa se puso en marcha como prueba piloto, y que las 100 comunidades se seleccionaron aleatoriamente, constata que estas deberan tener generalmente las mismas caractersticas que la poblacin general de las comunidades rurales. Por lo tanto, se puede estimar de manera vlida el contrafactual midiendo el gasto en salud de los hogares elegibles de las comunidades que no formaron parte del programa. Supngase que durante las encuestas de lnea de base y de seguimiento la empresa encargada recolect datos sobre otras 100 comunidades rurales a las que no se haba ofrecido el programa. Estas 100 comunidades adicionales tambin se seleccionaron aleatoriamente de entre el conjunto de comunidades elegibles, lo que signica que tambin tendern a contar con las mismas caractersticas que la poblacin general de comunidades rurales. Por lo tanto, la manera en que se eligieron los dos grupos de comunidades garantiza caractersticas idnticas, salvo que las 100 comunidades de tratamiento recibieron el PSSS y las 100 comunidades de comparacin no.

Mtodos de seleccin aleatoria

61

Gracias a la asignacin aleatoria del tratamiento, confa en que ningn factor externo adems del PSSS explicar cualquier diferencia de los resultados de las comunidades de tratamiento y de comparacin. Para validar este supuesto, usted comprueba si los hogares de las comunidades de tratamiento y de comparacin tienen caractersticas bsicas similares, como se muestra en el cuadro 4.1. Observa que las caractersticas generales de los hogares en las comunidades de tratamiento y de comparacin son de hecho muy similares. La nica diferencia estadsticamente signicativa es el nmero de aos de educacin del cnyuge, y la diferencia es pequea. Ntese que, incluso con un experimento aleatorio con una muestra grande, se puede esperar un pequeo nmero de diferencias8. Una vez que se ha establecido la validez del grupo de comparacin, su estimacin del contrafactual corresponde al promedio del gasto en salud de los hogares elegibles en las 100 comunidades de comparacin (cuadro 4.2).

Cuadro 4.1 Tercer caso: Equilibrio bsico entre las comunidades de tratamiento y de comparacin
Comunidades de tratamiento (N = 2964) Comunidades de comparacin (N = 2664) Diferencia t-estadstico

Caractersticas de los hogares

Gasto en salud (US$ anuales per cpita) Edad del jefe de hogar (aos) Edad del cnyuge (aos) Educacin del jefe de hogar (aos) Educacin del cnyuge (aos) Jefe de hogar es mujer = 1 Indgena = 1 Nmero de miembros del hogar Tiene bao = 1 Hectreas de terreno Distancia a un hospital (km)
* Signicativo al nivel del 5%.

14.48 41.6 36.8

14.57 42.3 36.8

0.09 0.7 0.0

0.39 1.2 0.38

2.9 2.7 0.07 0.42 5.7 0.57 1.67 109

2.8 2.6 0.07 0.42 5.7 0.56 1.71 106

0.1 0.1 0.0 0.0 0.0 0.01 0.04 3

2.16* 0.006 0.66 0.21 1.21 1.04 1.35 1.02

62

La evaluacin de impacto en la prctica

Cuadro 4.2 Tercer caso: Impacto del PSSS segn la asignacin aleatoria (comparacin de medias)
Tratamiento Comparacin Diferencia t-estadstico

Linea de base:gasto en salud de los hogares Encuesta de seguimiento: gasto en saludde los hogares
** Signicativa al nivel del 1%.

14.48

14.57

0.09

0.39

7 .8

17 .9

10.1**

25.6

Cuadro 4.3 Tercer caso: Impacto del PSSS segn la asignacin aleatoria (anlisis de regresin)
Regresin lineal Regresin lineal multivariante

Impacto estimado sobre el gasto en salud de los hogares

10.1** (0.39)

10.0** (0.34)

Nota: Los errores estndares estn entre parntesis. ** Signicativa al nivel del 1%.

Ahora que cuenta con una estimacin vlida del contrafactual, puede determinar el impacto del PSSS calculando simplemente la diferencia entre el gasto directo en salud de los hogares elegibles dentro de las comunidades de tratamiento y la estimacin del contrafactual. El impacto es una reduccin de US$10,10 a lo largo de dos aos. Si se vuelve a calcular este resultado mediante un anlisis de regresin se obtiene el mismo resultado, como se muestra en el cuadro 4.3. Con la asignacin aleatoria se puede conar en que no existen factores sistemticamente diferentes entre los grupos de tratamiento y de comparacin que expliquen tambin la diferencia en el gasto en salud. Ambas comunidades han estado expuestas a la misma serie de polticas y programas nacionales durante los dos aos de tratamiento. Por lo tanto, la razn ms posible para que el gasto de los hogares pobres de las comunidades de tratamiento sea inferior al de los hogares de las comunidades de comparacin es que los primeros participaron en el programa de seguro de salud y los segundos no.

PREGUNTA 3

A. Por qu la estimacin del impacto obtenida mediante una regresin lineal multivariante se mantiene bsicamente constante cuando se tienen en cuenta otros factores? B. De acuerdo con los resultados del tercer caso, se debera extender el PSSS a nivel nacional?

Mtodos de seleccin aleatoria

63

Aplicacin prctica de la asignacin aleatoria La asignacin aleatoria se usa con frecuencia en evaluaciones rigurosas del impacto de programas tanto de gran escala como en pilotos. La evaluacin del programa Progresa de Mxico (Schultz, 2004) es uno de los ejemplos de evaluacin de impacto a gran escala ms conocidos (recuadro 4.1).

Dos variaciones de la asignacin aleatoria


A continuacin se analizan dos variaciones que aprovechan muchas de las caractersticas de la asignacin aleatoria: la oferta aleatoria del tratamiento y la promocin aleatoria del tratamiento.

Recuadro 4.1: Transferencias monetarias condicionadas y educacin en Mxico


El programa Progresa, ahora llamado Oportunidades, comenz en 1998 y ofrece transferencias monetarias a madres pobres de zonas rurales de Mxico a condicin de que sus hijos asistan a la escuela. Este programa social a gran escala fue uno de los primeros que consider una evaluacin rigurosa durante la etapa de diseo, para lo cual emple la asignacin aleatoria para identicar el efecto de las transferencias monetarias sobre una serie de resultados, especialmente la matriculacin escolar. Las subvenciones, para nios de tercero a noveno grado, equivalen aproximadamente a entre el 50% y el 75% del costo privado de la escolarizacin, y estn garantizadas para un perodo de tres aos. Las comunidades y hogares elegibles se determinaron mediante un ndice de pobreza creado con datos del censo y una encuesta de lnea de base. Ante la necesidad de introducir gradualmente este programa social a gran escala, se seleccion aleatoriamente
Fuente: Schultz 2004. a. Para ser ms preciso, Schultz combin la asignacin aleatoria con el mtodo de diferencias en diferencias. En el captulo 8 se analizan las ventajas de combinar varias metodologas de evaluacin de impacto.

a dos tercios de las comunidades (314 de 495) para que se beneciaran del programa durante los primeros dos aos, y las 181 restantes sirvieron de grupo de control hasta que ingresaron en el programa en el tercer ao. A partir de la asignacin aleatoria, Schultz (2004) observ un aumento medio de la matriculacin del 3,4% para todos los estudiantes de primero a octavo grado. El aumento mayor, un 14,8 %a, se registr entre las nias que haban terminado el sexto grado. La razn probable de este aumento es que la proporcin de nias que abandonan la escuela tiende a aumentar conforme las nias crecen, por lo que se les ofreci un monto ligeramente superior para que siguieran en la escuela despus del nivel de primaria. Este impacto a corto plazo se extrapol despus para predecir el impacto a ms largo plazo de Progresa sobre el nivel de escolarizacin y de ingresos durante toda su vida.

64

La evaluacin de impacto en la prctica

Oferta aleatoria: Cuando no todos cumplen su asignacin En el anlisis anterior de la asignacin aleatoria se ha supuesto que el administrador de un programa tiene potestad para asignar unidades a los grupos de tratamiento o de comparacin, y que los asignados al grupo de tratamiento participan en el programa y los asignados al grupo de comparacin no. En otras palabras, las unidades cumplen su asignacin. Sin embargo, el pleno cumplimiento se logra con ms frecuencia en las pruebas de laboratorio o mdicas, en las que el investigador puede asegurar, primero, que todas las unidades del grupo de tratamiento tomen la pldora y, segundo, que ninguna de las unidades de comparacin la tomen9. En los programas sociales el pleno cumplimiento de los criterios de seleccin es la situacin ptima, y tanto los encargados de formular polticas como los evaluadores se esfuerzan por acercarse lo mximo posible a l. Sin embargo, en la prctica no siempre se consigue un cumplimiento del 100% de las asignaciones al grupo de tratamiento y de comparacin, a pesar de que el encargado de ejecutar el programa y el evaluador hagan todo lo posible. Por ejemplo, el hecho de que un profesor sea asignado a un grupo de tratamiento para recibir capacitacin no garantiza que asista. Asimismo, un profesor asignado al grupo de comparacin puede encontrar la manera de asistir al curso de todos modos. Una comparacin de las unidades asignadas al grupo de tratamiento con las asignadas al grupo de comparacin producir una estimacin de la intencin de tratar. Este criterio es en s una medida muy interesante y pertinente del impacto, ya que los encargados de formular polticas y los administradores de programas solo pueden ofrecer el programa, y no pueden obligar a la poblacin a participar en l. Sin embargo, tambin puede interesar conocer el impacto del programa sobre quienes realmente se inscriben y aceptan el tratamiento. Para ello es necesario considerar que algunas unidades asignadas al grupo de tratamiento no lo recibieron realmente, y que algunas unidades del grupo de comparacin s lo recibieron. En otras palabras, se estima el impacto del programa sobre las unidades que de hecho recibieron el tratamiento. Esta medida es la estimacin del tratamiento en tratados. Oferta aleatoria de un programa y aceptacin nal Imagine que evala el impacto de un programa de formacin para el empleo en los salarios de las personas. El programa se asigna aleatoriamente a nivel individual, y tiene un grupo de tratamiento y uno de comparacin. Lo ms probable es que encuentre tres tipos de personas: Inscritos si se lo ofrecen. Son quienes cumplen la asignacin que les toca. Si es el grupo de tratamiento, lo aceptan y se inscriben; si es el grupo de comparacin, no lo hacen.

Mtodos de seleccin aleatoria

65

Nuncas. Son quienes nunca se inscriben ni aceptan el programa, incluso si los asignan al grupo de tratamiento. Son quienes no cumplen dentro del grupo de tratamiento. Siempres. Son quienes encontrarn una manera de inscribirse o aceptar el programa, aunque se los asigne al grupo de comparacin. Son quienes no cumplen dentro del grupo de comparacin. In the context of the job training program, the Never group might be unmotivated people who, even if offered a place in the course, do not show up. The Always group, in contrast, are so motivated that they nd a way to enter the program even if they were originally assigned to the comparison group. The Enroll-if-offered group are those who would enroll in the course if it is offered (the treatment group) but do not seek to enroll if they are assigned to the comparison group. El grco 4.6 muestra la oferta aleatoria del programa y la aceptacin (inscripcin), considerando los grupos de inscritos si se lo ofrecen, nuncas y siempres. Supngase que el conjunto de unidades se divide en un 80% de inscritos si se lo ofrecen, un 10% de nuncas y un 10% de siempres. Si se tomara una muestra aleatoria de la poblacin para la muestra de evaluacin, esta tambin tendra un 80% de inscritos si se lo ofrecen, un 10% de nuncas y un 10% de siempres. A continuacin se divide la muestra de evaluacin en un grupo de tratamiento y un grupo de comparacin, y una vez ms se debera llegar a un 80% de inscritos si se lo ofrecen, un 10% de nuncas y un 10% de siempres en ambos grupos. En el grupo al que se ofrece el tratamiento, los inscritos si se lo ofrecen y los siempres se inscribirn, y solo los nuncas se mantendrn al margen. En el grupo al que no se ofrece tratamiento, los siempres se inscribirn, mientras que los grupos de inscritos si se lo ofrecen y nuncas se quedarn fuera.

Estimacin del impacto con la oferta aleatoria


Despus de establecer la diferencia entre la oferta aleatoria de un programa y la inscripcin o aceptacin real, se analiza una tcnica que puede usarse para estimar el impacto del tratamiento en tratados, es decir, el impacto del programa sobre aquellos a quienes se ofreci el tratamiento y se inscribieron. Esta estimacin se realiza en dos fases, que se ilustran en el grco 4.710. En primer lugar, se estima el impacto de la intencin de tratar, que es la diferencia directa en el indicador de resultado (Y) entre el grupo de tratamiento y el grupo de comparacin. Por ejemplo, si el resultado promedio (Y) del grupo de tratamiento es US$110, y el resultado promedio del de comparacin es US$70, el impacto de la intencin de tratar equivaldra a US$40.

66

La evaluacin de impacto en la prctica

Grco 4.6

Oferta aleatoria de un programa


Segundo paso: Muestra de evaluacin Tercer paso: Oferta aleatoria del programa
No se ofrece

Primer paso: Unidades elegibles

Cuarto paso: Inscripcin

X X

Se ofrece

}
Validez interna

Nunca Solo se inscriben Siempre se se inscriben si se lo ofrecen inscriben

Grco 4.7 Estimacin del impacto del tratamiento en tratados con la oferta aleatoria

Grupo al que se ofreci tratamiento


% inscritos = 90% Y promedio para aquellos a quienes se ofreci tratamiento = 110 Nunca se inscriben

}
Validez externa

Grupo al que no se ofreci tratamiento


% inscritos = 10% Y promedio para aquellos a quienes no se ofreci tratamiento = 70

Impacto
% inscritos = 80% Y = IDT = 40 TET = 40/80% = 50

Solo se inscriben si se les ofrece el programa

Siempre se inscriben

Nota: IDT es la estimacin de la intencin de tratar que se obtiene comparando los resultados de aquellos , a quienes se ofreci el tratamiento con los de aquellos a quienes no se les ofreci (independientemente de la inscripcin real). TET es la estimacin del tratamiento en tratados es decir, el impacto estimado del , programa para aquellos a quienes se ofreci el programa y s se inscribieron. Los que aparecen sobre un fondo oscuro son quienes s se inscribieron.

Mtodos de seleccin aleatoria

67

En segundo lugar, es necesario determinar la estimacin del tratamiento en tratados a partir de la intencin de tratar. Para ello, se debe identicar de dnde proviene la diferencia de US$40. Se procede por eliminacin. Primero, se sabe que la diferencia no puede deberse a diferencias entre los nuncas, ya que estos no se inscriben en el programa. En otras palabras, no importa si estn en el grupo de tratamiento o de comparacin. Segundo, la diferencia de US$40 tampoco puede deberse a diferencias entre los siempres, ya que estos siempre se inscriben en el programa. Tampoco importa que formen parte del grupo de tratamiento o de comparacin. Por lo tanto, la diferencia de resultados entre los dos grupos tiene que deberse necesariamente al efecto del programa sobre el nico grupo afectado por su asignacin al grupo de tratamiento o de comparacin, es decir, los inscritos si se lo ofrecen. Si se identica a los inscritos si se lo ofrecen en ambos grupos, ser fcil estimar el impacto del programa sobre ellos. En la prctica, aunque se sabe que existen estos tres tipos de personas, no es tan simple distinguirlos. En el grupo de las personas a quienes se ofreci tratamiento se puede identicar a los nuncas (no se han inscrito), pero no se puede diferenciar entre los siempres y los inscritos si se lo ofrecen (ambos estn inscritos). En el grupo de las personas a quienes no se ofreci tratamiento, se puede identicar a los siempres (se inscriben al programa), pero no se puede diferenciar entre los nuncas y los inscritos si se lo ofrecen. Sin embargo, si se observa que el 90% de las unidades del grupo al que se ofreci tratamiento se inscriben, es posible deducir que el 10% restante de las unidades deben ser nuncas. Adems, si se observa que el 10% de las unidades del grupo al que no se ofreci tratamiento se inscriben, se sabe que son siempres. Esto signica que el 80% de las unidades pertenecen al grupo de inscritos si se lo ofrecen. El impacto total de US$40 proviene entonces de la diferencia en la inscripcin del 80% de las unidades de nuestra muestra, los inscritos si se lo ofrecen. Si el 80% de las unidades dan cuenta de un impacto promedio de US$40 en todo el grupo al que se ofreci tratamiento, el impacto sobre ese 80% de inscritos si se lo ofrecen debe ser de 40/0,8, o US$50. Dicho de otro modo, el impacto del programa para los inscritos si se lo ofrecen es de US$50, pero cuando este impacto se extiende a todo el grupo al que se ofreci tratamiento, el efecto medio se diluye por el 20% que incumpli la asignacin aleatoria original.

68

La evaluacin de impacto en la prctica

Recurdese que uno de los problemas bsicos de la autoseleccin en los programas es que no siempre se pueden conocer las razones por las que unas personas deciden participar y otras no. Cuando se asignan aleatoriamente unidades a un programa pero la participacin es voluntaria, o existe una manera de que las unidades del grupo de comparacin participen en l, surge un problema similar: no siempre se entender por qu una persona se comporta como un nunca, un siempre o un inscrito si se lo ofrecen, siguiendo el ejemplo anterior. No obstante, siempre que el nivel de incumplimiento no sea demasiado grande, la asignacin aleatoria inicial seguir siendo un instrumento potente para estimar el impacto. El aspecto negativo de la asignacin aleatoria con un cumplimiento imperfecto es que no es vlida para toda la poblacin. En cambio, solo puede aplicarse a un subgrupo especco dentro de nuestra poblacin designada, los inscritos si se lo ofrecen. La oferta aleatoria de un programa tiene dos caractersticas importantes que nos permiten estimar el impacto, incluso sin el pleno cumplimiento (vase el recuadro 4.2)11: 1. Puede servir para predecir la inscripcin real en el programa si la mayora de las personas se comportan como inscritos si se lo ofrecen. 2. Dado que los grupos de tratamiento y comparacin se generan mediante seleccin aleatoria, las caractersticas de las personas de ambos grupos no estn correlacionadas con ningn otro factor, como la capacidad o la motivacin, que pueda afectar tambin al resultado (Y). Promocin aleatoria o diseo de incentivos En la seccin anterior, se vio cmo estimar el impacto a partir de la asignacin aleatoria del tratamiento, incluso cuando el cumplimiento de la asignacin original a los grupos de tratamiento y comparacin sea incompleto. A continuacin se propone un mtodo muy similar que puede aplicarse a la evaluacin de programas con elegibilidad universal o inscripcin abierta, o en los que el administrador no puede controlar quin participa y quin no. Muchas veces los Gobiernos implementan programas en los que es difcil excluir participantes u obligarlos a participar. Muchos programas permiten que los posibles participantes decidan si se inscriben o no. Otros tienen un presupuesto

Mtodos de seleccin aleatoria

69

Recuadro 4.2: La oferta aleatoria de vales escolares en Colombia


El Programa de Ampliacin de Cobertura de la Educacin Secundaria, en Colombia, suministr vales a ms de 125 000 estudiantes para cubrir algo ms de la mitad del costo de asistencia a la educacin secundaria. Dado el presupuesto limitado del programa, los vales se asignaron mediante un sorteo. Angrist y otros (2002) aprovecharon este tratamiento asignado aleatoriamente para determinar el efecto del programa sobre los resultados educativos y sociales. Observaron que los ganadores del sorteo tenan un 10% ms de probabilidades de terminar el octavo grado, y registraron una desviacin estndar de 0,2 puntos ms en los exmenes estandarizados tres aos despus del sorteo inicial. Tambin observaron que los efectos educativos fueron mayores en las nias que en los nios. Los investigadores examinaron a continuacin el impacto del programa sobre varios resultados no educativos y observaron que era menos probable que los ganadores del sorteo estuvieran casados, y trabajaban alrededor de 1,2 horas menos por semana. Hubo cierto incumplimiento con el diseo aleatorio, ya que alrededor del 90% de los ganadores del sorteo haban usado el vale u otra forma de beca y el 24% de los perdedores del sorteo haban recibido becas. Angrist y sus colegas usaron tambin la intencin de tratar, o la condicin de ganador o perdedor del sorteo de los estudiantes, como una variable instrumental para estimar el tratamiento en tratados, la recepcin real de la beca. Finalmente, los investigadores pudieron calcular un anlisis de costo-benecio para entender mejor el impacto del programa de vales sobre los gastos tanto de los hogares como del Gobierno. Concluyeron que los costos sociales totales del programa son pequeos y se ven compensados por los rendimientos previstos para los participantes y sus familias, lo que sugiere que los programas orientados a la demanda, como este, pueden ser una manera costo-efectiva de aumentar los logros educativos.

Fuente: Angrist y otros, 2002.

sucientemente grande para atender a toda la poblacin elegible, por lo que la seleccin aleatoria de grupos de tratamiento y de comparacin y la exclusin de participantes con nes de evaluacin no seran ticas. Por lo tanto, es necesaria una manera alternativa de evaluar el impacto de los programas con inscripcin voluntaria y los de cobertura universal. Los programas de inscripcin voluntaria permiten que las personas decidan por s mismas inscribirse y participar. Considrese de nuevo el programa de formacin para el empleo mencionado anteriormente, pero esta vez sin que sea posible la asignacin aleatoria y que todas las personas que quieran inscribirse puedan hacerlo

70

La evaluacin de impacto en la prctica

libremente. Se prevn entonces tres tipos de personas: un grupo de cumplidores, un grupo de nuncas y uno de siempres. Como en el caso anterior, los siempres se inscribirn en el programa y los nuncas no. Pero, qu ocurre con los cumplidores? Cualquier persona que quiera inscribirse en el programa puede hacerlo libremente. Qu sucede con quienes estn interesados en inscribirse pero, por una variedad de razones, no tengan suciente informacin o el incentivo adecuado para hacerlo? Los cumplidores son precisamente este grupo. En este caso, los cumplidores sern los inscritos si se promueve: personas que solo se inscribirn en el programa si se las informa y se les facilita la participacin, o si se les ofrece un incentivo adicional que las impulse a hacerlo. Sin estmulos adicionales, los inscritos si se promueve quedarn fuera del programa. Para seguir con el ejemplo anterior, si el organismo que organiza la capacitacin tiene fondos y capacidad suciente para formar a quienes quieran participar del programa, este estar abierto a todas las personas desempleadas. No obstante, es improbable que todas ellas quieran participar o sepan de la existencia del programa. Algunas personas desempleadas pueden tener reticencia a inscribirse por saber muy poco acerca del contenido de la formacin, o porque les resulte difcil obtener informacin adicional. Supngase ahora que el organismo de formacin para el empleo contrata a una responsable de divulgacin para que inscriba a personas desempleadas en el programa. La responsable llama a las puertas de las personas desempleadas, les describe el programa y les ofrece asistencia para inscribirse en ese momento. Desde luego, no puede obligar a nadie a participar. Las personas desempleadas que no reciban la visita de la responsable de divulgacin tambin pueden inscribirse, aunque para hacerlo deben personarse en el organismo. Por lo tanto, ahora hay dos grupos de personas desempleadas: quienes fueron visitados por la responsable de divulgacin y quienes no recibieron su visita. Si la iniciativa de divulgacin es ecaz, la tasa de inscripcin de las personas desempleadas que fueron visitadas ser superior a la tasa de quienes no fueron visitadas. Considrese ahora la manera de evaluar este programa. Como se sabe, no se puede comparar a las personas desempleadas que se inscriben con las que no se inscriben, ya que ambos grupos probablemente sean muy diferentes en cuanto a caractersticas observadas y no observadas: quienes se inscriben pueden tener ms educacin (algo fcil de observar) y estar ms motivados y ansiosos por encontrar un trabajo (algo difcil de observar y medir). Considrese por un momento si es posible comparar al grupo visitado por la responsable de divulgacin con el grupo no visitado. En ambos hay personas muy motivadas (siempres) que se inscribirn independientemente de que llamen a su puerta. En ambos tambin hay personas desmotivadas (nuncas) que no se inscribirn

Mtodos de seleccin aleatoria

71

en el programa a pesar de los esfuerzos de la responsable de divulgacin. Finalmente, algunas personas (inscritos si se promueve) solo se inscribirn si la responsable de divulgacin las visita. Si la responsable de divulgacin selecciona aleatoriamente a las personas que visita, se podra usar el mtodo del tratamiento en tratados. La nica diferencia sera que, en lugar de ofrecer aleatoriamente el programa, se lo promovera aleatoriamente. Siempre que haya personas inscritas si se promueve habr una variacin entre el grupo con la promocin y el grupo sin la promocin, que nos permitir identicar el impacto de la capacitacin sobre los inscritos si se promueve. En lugar de cumplir con la oferta del tratamiento, los inscritos si se promueve cumplen con la promocin. Se pretende que la estrategia de divulgacin sea ecaz y aumente considerablemente la inscripcin dentro del grupo de inscritos si se promueve. Al mismo tiempo, las actividades de promocin no deben estar tan generalizadas y ser tan ecaces como para que inuyan en el resultado de inters. Por ejemplo, si los responsables de la divulgacin ofrecen grandes cantidades de dinero a personas desempleadas para que se inscriban al programa, sera difcil determinar si los cambios nales en los ingresos se deben a la capacitacin o a la propia promocin. La promocin aleatoria es una estrategia creativa que genera el equivalente a un grupo de comparacin para los nes de la evaluacin de impacto. Es til cuando se puede organizar una campaa de promocin dirigida a una muestra aleatoria de la poblacin de inters. Los lectores con conocimientos de econometra pueden reconocer la terminologa introducida en la seccin anterior: la promocin aleatoria es una variable instrumental que nos permite crear variacin en el tratamiento entre unidades y aprovechar dichas variaciones para crear un grupo de comparacin vlido. Ha dicho promocin? El objetivo de la promocin aleatoria es aumentar la participacin en un programa voluntario de una submuestra de la poblacin. Puede ser de varios tipos. Por ejemplo, una campaa informativa dirigida a quienes no se inscriben zporque no conocen o no entienden el contenido del programa, u ofrecer incentivos para la inscripcin, como pequeos regalos o premios, o que los participantes tengan acceso a transporte o asistencia.

72

La evaluacin de impacto en la prctica

Se debe cumplir una serie de condiciones para que la promocin aleatoria permita una evaluacin vlida de impacto. 1. El grupo en el que se ha promovido el programa y el grupo en el que no se ha promovido tienen que ser comparables. Las caractersticas de ambos deben ser similares. Esto se logra mediante la asignacin aleatoria de las actividades de divulgacin o promocin entre las unidades de la muestra de evaluacin. 2. La campaa de promocin debe aumentar la inscripcin del grupo en que se ha realizado la promocin sustancialmente por encima de la del grupo sin promocin. Esto puede vericarse comprobando que las tasas de inscripcin del primer grupo sean superiores a las del segundo. 3. Es importante que la promocin no afecte directamente a los resultados de inters, para que se pueda armar que los cambios en los resultados de inters se deben al programa y no a la promocin.

Concepto clave:
La promocin aleatoria es un mtodo similar a la oferta aleatoria. En lugar de seleccionar aleatoriamente las unidades a las que se ofrece el tratamiento, se seleccionan aleatoriamente las unidades entre las que se promueve el tratamiento. As, el programa se mantiene abierto a todas las unidades.

El proceso de promocin aleatoria El proceso de promocin aleatoria se presenta en el grco 4.8. Como en los mtodos anteriores, se empieza con el conjunto de unidades elegibles para el programa. A diferencia de la asignacin aleatoria, ya no es posible elegir aleatoriamente quin va a participar en el programa y quin no, ya que el programa es voluntario. Sin embargo, dentro del conjunto de unidades elegibles, habr tres tipos de unidades: Siempreslos que siempre querrn inscribirse al programa Inscritos si se promuevelos que solo se inscribirn en el programa si reciben promocin adicional Nuncaslos que nunca quieren inscribirse al programa, independientemente de que les ofrezcan la promocin Ntese una vez ms que la condicin de siempres, inscritos si se promueve o nuncas es una caracterstica de las unidades que no puede medir el evaluador del programa, porque est relacionada con factores como la motivacin intrnseca y la inteligencia. Una vez denida la poblacin elegible, el siguiente paso consiste en seleccionar aleatoriamente una muestra de la poblacin que formar parte de la evaluacin. Estas son las unidades sobre las que se recolectarn datos. En algunos casos, por ejemplo cuando hay datos del conjunto de unidades elegibles, se puede incluir a toda esta poblacin en la muestra de evaluacin.

Mtodos de seleccin aleatoria

73

Grco 4.8

Promocin aleatoria
Segundo paso: Muestra de evaluacin Tercer paso: Promocin aleatoria del programa
Sin promocin

Primer paso: Unidades elegibles

Cuarto paso: Inscripcin

X X

Con promocin

}
Validez interna

Nunca Solo se inscriben Siempre se inscriben si se promueve se inscriben

Una vez que se dene la muestra de evaluacin, la promocin aleatoria asigna las unidades de la muestra de evaluacin a un grupo con promocin y a uno sin promocin. Dado que se procede aleatoriamente, ambos grupos compartirn las caractersticas de la muestra general de evaluacin, y estas sern equivalentes a las del conjunto de unidades elegibles. Por lo tanto, el grupo con promocin y el grupo sin promocin tendrn caractersticas similares. Cuando haya terminado la campaa de promocin, se pueden observar las tasas de inscripcin en ambos grupos. En el grupo sin promocin solo se inscribirn los siempres. Por lo tanto no se podr distinguir entre los nuncas y los inscritos si se promueve en dicho grupo. Por el contrario, en el grupo con promocin se inscribirn tanto los inscritos si se promueve como los siempres, mientras que los nuncas no se inscribirn. Por ello en el grupo con promocin se podr identicar a los nuncas, pero no se podr distinguir entre los inscritos si se promueve y los siempres. Estimacin del impacto con la promocin aleatoria La estimacin del impacto con la promocin aleatoria es un caso especial de tratamiento en tratados (grco 4.9). Imagine que la campaa de promocin aumenta la inscripcin, del 30% en el grupo sin promocin (3 siempres) al 80% en el grupo con promocin (3 siempres y 5 inscritos si se promueve). Suponga que el ingreso medio de las personas del grupo sin promocin (10 personas) es 70, y que el ingreso medio de todas las personas del grupo con promocin (10 personas) es 110. Cul sera entonces el impacto del programa?

}
Validez externa

74

La evaluacin de impacto en la prctica

Grco 4.9

Estimacin del impacto con la promocin aleatoria

Grupo con promocin


% inscritos = 80% Y promedio del grupo con promocin = 110 Nunca se inscriben

Grupo sin promocin


% inscritos = 30% Y promedio del grupo sin promocin = 70

Impacto
% inscritos = 50% Y = 40 Impacto = 40/50% = 80

Solo se inscriben si se promueve

Siempre se inscriben

Nota: Sombreados, quienes s se inscribieron.

En primer lugar, es posible computar la diferencia directa entre los grupos con y sin promocin, que es de 40. Se sabe que esta diferencia no se debe a los nuncas de ninguno de los dos grupos, porque nunca se inscriben. Tampoco se debe a los siempres, porque siempre se inscriben. El segundo paso es determinar el impacto del programa sobre los inscritos si se promueve. Todo el efecto de 40 puede atribuirse a los inscritos si se promueve, que constituyen solo el 50% de la poblacin. Para valorar el efecto promedio del programa, se divide 40 por el porcentaje de inscritos si se promueve dentro de la poblacin. Aunque no se puede identicar directamente a los inscritos si se promueve, es posible deducir cul es su porcentaje en la poblacin: la diferencia en las tasas de inscripcin entre los grupos con y sin promocin (50%, o 0,5). Por lo tanto, el impacto promedio del programa sobre una persona que participa en el programa (cumplidor) es 40/0,5 = 80. Dado que la promocin se asigna aleatoriamente, las caractersticas de los grupos con y sin promocin son las mismas en general. Por lo tanto, las diferencias de los resultados promedio entre los dos grupos tienen que deberse a la inscripcin de los inscritos si se promueve en el grupo con promocin, y a la no inscripcin de los del grupo sin promocin12.

Mtodos de seleccin aleatoria

75

Uso de la promocin aleatoria para estimar el impacto del Programa de Subsidio del Seguro de Salud Intentemos ahora usar el mtodo de promocin aleatoria para evaluar el impacto del PSSS. Supngase que el ministerio de Salud resuelve que cualquier hogar que quiera inscribirse tenga acceso inmediato al subsidio del seguro de salud. Sin embargo, usted sabe que esta cobertura nacional ir amplindose con el tiempo, por lo que acuerda acelerar la participacin en una subserie aleatoria de comunidades mediante una campaa de promocin. Emprende una intensa iniciativa de promocin dentro de la submuestra aleatoria de comunidades, que incluye campaas de comunicacin y divulgacin social destinadas a aumentar el conocimiento sobre el PSSS. Tras dos aos de promocin e implementacin del programa, observa que el 49,2% de los hogares de las comunidades asignadas aleatoriamente a la promocin se han inscrito al programa, contra solo el 8,4% de los hogares de las comunidades sin promocin (cuadro 4.4). Como las comunidades con y sin promocin se asignaron aleatoriamente, usted sabe que las caractersticas generales de ambos grupos deben ser las mismas en ausencia del programa. Puede comprobar este supuesto comparando el gasto en salud de lnea de base (as como cualquier otra caracterstica) de estas dos poblaciones. Tras dos aos de implementacin del programa, observa que el gasto promedio en salud en las comunidades con promocin es US$14,9, en comparacin con US$18,8 en las comunidades sin promocin (una diferencia de menos US$3,9). Sin embargo, dado que la nica diferencia entre las comunidades con y sin promocin es que las primeras tienen ms inscritos en el programa (gracias a la promocin), esta diferencia de US$3,9 en el gasto en salud debe provenir del 40,4% de hogares inscritos en las comunidades con promocin, a consecuencia de dicha

Cuadro 4.4 Cuarto caso: Impacto del PSSS segn la promocin aleatoria (comparacin de medias)
Comunidades con promocin Comunidades sin promocin

Diferencia

t-estadstico

Linea de base: gasto en salud de los hogares Encuesta de seguimiento: gasto en salud de los hogares Participacin en el PSSS

17 .1

17 .2

0.1

0.47

14.9 49.2%

18.8 8.4%

3.9 40.4%

18.3

** Signicativa al nivel del 1%.

76

La evaluacin de impacto en la prctica

Cuadro 4.5 Cuarto caso: Impacto del PSSS segn la promocin aleatoria (anlisis de regresin)
Regresin lineal multivariante

Regresin lineal

Impacto estimado sobre el gasto en salud de los hogares

9.4** (0.51)

9.7** (0.45)

Nota: Los errores estndares estn entre parntesis. ** Signicativa al nivel del 1%.

promocin. Por lo tanto, es necesario ajustar la diferencia en el gasto en salud para determinar el impacto del programa sobre los inscritos si se promueve. Para ello, se divide la diferencia directa entre los dos grupos por el porcentaje de inscritos si se promueve: 3,9/0,404 = US$9,65. Su colega, que curs estudios de econometra, estima a continuacin el impacto del programa mediante una regresin de los mnimos cuadrados en dos fases y obtiene los resultados que se muestran en el cuadro 4.5. Esta estimacin del impacto es vlida para aquellos hogares que se inscribieron al programa debido a la promocin, pero que no se habran inscrito sin ella, es decir, para los inscritos si se promueve. Para extrapolar este resultado a toda la poblacin se debe suponer que todos los dems hogares habran reaccionado de manera similar si se hubieran inscrito al programa.

PREGUNTA 4

A. Qu supuestos bsicos son necesarios para aceptar el resultado del cuarto caso? B. De acuerdo con los resultados del cuarto caso, se debera extender el PSSS a nivel nacional?

Aplicacin prctica de la promocin aleatoria El mtodo de promocin aleatoria puede emplearse en diversas situaciones. Gertler, Martnez y Vivo (2008) lo usaron para evaluar el programa de seguro de salud materno-infantil en Argentina. Tras la crisis econmica de 2001, el Gobierno de Argentina observ que los indicadores de salud de la poblacin haban empezado a deteriorarse y, en especial, que estaba aumentando la mortalidad infantil. Decidi introducir un sistema de seguro nacional para las madres y sus hijos, que se extendera a todo el pas en el plazo de un ao. No obstante, los funcionarios queran evaluar el impacto del programa y asegurarse de que mejorara el estado de salud de la poblacin. Cmo poda encontrarse un grupo de comparacin si todas las madres y los nios tenan derecho a participar en el sistema de seguro si lo deseaban? Los datos de las primeras provincias que implementaron la intervencin mostraron que solo entre el 40% y el 50% de los hogares se inscriban realmente en

Mtodos de seleccin aleatoria

77

el programa. Por lo tanto, el Gobierno laz una intensa campaa de informacin. Sin embargo, la promocin solo se implement en una muestra aleatoria de comunidades, no en todo el pas. Otros ejemplos incluyen la asistencia de organizaciones no gubernamentales en una evaluacin de la gestin comunitaria de las escuelas en Nepal, y el Fondo de Inversin Social de Bolivia (que se analiza en el recuadro 4.3). Limitaciones del mtodo de promocin aleatoria La promocin aleatoria es una estrategia til para la evaluacin de impacto de programas voluntarios y con elegibilidad universal, especialmente porque no requiere la exclusin de ninguna unidad elegible. No obstante, este mtodo tiene algunas limitaciones que merecen mencionarse. Primero, la promocin debe ser ecaz. Si no aumenta la inscripcin, no se registrar una diferencia entre los grupos con y sin promocin, y no habr nada que comparar. Por lo tanto, es esencial someter a intensas pruebas la campaa de promocin para asegurarse de que ser ecaz. El diseo de la campaa de promocin puede ensear a los administradores del programa cmo aumentar la inscripcin.

Recuadro 4.3: Promocin de inversiones en infraestructura educativa en Bolivia


En 1991, Bolivia institucionaliz y expandi un exitoso Fondo de Inversin Social (FIS) que ofreca nanciamiento a comunidades rurales para infraestructura de educacin, salud y agua. El Banco Mundial, que contribua al nanciamiento fondo, incorpor una evaluacin de impacto al diseo del programa. Como parte de la evaluacin de impacto del componente educativo, se seleccionaron aleatoriamente comunidades de la regin de Chaco para la promocin activa del Fondo de Inversin Social. Estas recibieron visitas adicionales e incentivos para participar. El programa estaba abierto a todas las comunidades elegibles de la regin y estaba orientado a la demanda, ya que las comunidades deban solicitar fondos para un proyecto especco. La participacin fue mayor entre las comunidades con promocin.
Fuente: Newman y otros, 2002.

Newman y otros (2002) usaron la promocin aleatoria como una variable instrumental. Observaron que las inversiones en educacin lograron mejorar la calidad de aspectos de la infraestructura escolar como la electricidad, las instalaciones de saneamiento, el nmero de libros de texto por estudiante y la proporcin de estudiantes por profesor. Sin embargo, detectaron un escaso impacto sobre los resultados educativos, a excepcin de un descenso de alrededor del 2,5% en la tasa de abandono. Como consecuencia de estas observaciones, el Ministerio de Educacin y el Fondo de Inversin Social dedican ahora ms atencin y recursos al software de la educacin, y solo nancian mejoras de la infraestructura fsica cuando forman parte de una intervencin integral.

78

La evaluacin de impacto en la prctica

Segundo, esta metodologa solo estima el impacto del programa para una subserie del conjunto de unidades elegibles. En concreto, el impacto promedio del programa se calcula a partir del grupo de personas que solo se inscriben al programa cuando las animan a hacerlo. Sin embargo, las personas de este grupo pueden tener caractersticas muy diferentes de las personas que siempre o nunca se inscriben y, por lo tanto, el efecto general del tratamiento para toda la poblacin puede ser diferente del efecto promedio estimado para las personas que solo participan cuando se las anima a que lo hagan.

Notas
1. La asignacin aleatoria del tratamiento tambin se llama habitualmente diseos de controles aleatorios, evaluaciones aleatorias, evaluaciones experimentales y experimentos sociales, entre otras denominaciones. 2. Ntese que esta probabilidad no conlleva necesariamente una posibilidad del 50% de ganar el sorteo. De hecho, la mayora de las asignaciones aleatorias de evaluaciones otorgarn a cada unidad elegible una probabilidad de seleccin determinada de manera que el nmero de ganadores (tratamientos) equivalga al nmero total de benecios disponibles. Por ejemplo, si un programa cuenta con fondos sucientes para atender solamente a 1000 comunidades de una poblacin total de 10 000 comunidades elegibles, cada comunidad tendr una posibilidad de 1 entre 10 de resultar seleccionada para el tratamiento. La potencia estadstica (un concepto que se analiza ms detenidamente en el captulo 11) se maximizar cuando la muestra de evaluacin se divida equitativamente entre los grupos de tratamiento y de control. En este ejemplo, con un tamao total de la muestra de 2000 comunidades, la potencia estadstica se maximizar si se selecciona la totalidad de las 1000 comunidades de tratamiento y una submuestra de 1000 comunidades de control, en lugar de extraer una muestra aleatoria simple del 20% de las 10 000 comunidades elegibles originalmente (lo que producira una muestra de evaluacin de alrededor de 200 comunidades de tratamiento y 1800 comunidades de control). 3. Por ejemplo, los programas de vivienda que ofrecen viviendas subvencionadas seleccionan habitualmente a los participantes en el programa mediante sorteo. 4. Esta propiedad corresponde a la ley de los grandes nmeros. 5. Una muestra de evaluacin puede estraticarse por subtipos de poblacin y tambin puede agruparse por unidades de muestreo. El tamao de la muestra depender del tipo particular de muestreo aleatorio empleado (vase la tercera parte de este libro). 6. La mayora de los programas informticos permiten jar un nmero aleatorio para que los resultados de la asignacin sean totalmente transparentes y replicables. 7. En el captulo 8, se analizarn ms detenidamente conceptos como el efecto de derrame o contaminacin.

Mtodos de seleccin aleatoria

79

8. Por razones estadsticas, no todas las caractersticas observadas tienen que ser similares en los grupos de tratamiento y de comparacin para que la seleccin aleatoria se realice con xito. Por regla general, este proceso se considerar exitoso si alrededor del 95% de las caractersticas observadas son similares. Por similar se entiende que no se puede rechazar la hiptesis nula de que las medias de los dos grupos son diferentes cuando se usa un intervalo de conanza del 95%. Incluso cuando las caractersticas de los dos grupos son verdaderamente idnticas, se puede esperar que alrededor del 5% de las caractersticas muestren una diferencia estadstica signicativa. 9. En las ciencias mdicas normalmente se administra un placebo a los pacientes del grupo de comparacin. Esto sirve tambin para considerar el efecto placebo: los posibles cambios en el comportamiento y los resultados por el hecho de recibir un tratamiento, aunque este sea inecaz. 10. Estos dos pasos corresponden al mtodo economtrico de mnimos cuadrados en dos etapas, que genera una media local del efecto del tratamiento. 11. Los lectores con conocimientos de econometra pueden reconocer el concepto: en trminos estadsticos, la oferta aleatoria del programa se usa como una variable instrumental de la inscripcin real. Las dos caractersticas mencionadas son los requisitos para una buena variable instrumental: La variable instrumental debe estar correlacionada con la participacin en el programa. La variable instrumental no puede estar correlacionada con los resultados (Y) (a excepcin de la participacin en el programa) o con variables no observadas. 12. Una vez ms, los lectores versados en econometra pueden reconocer que el impacto se estima mediante la asignacin aleatoria a los grupos con y sin promocin, como una variable instrumental de la participacin real en el programa.

Referencias
Angrist, Joshua; Bettinger, Eric; Bloom, Erik; King, Elizabeth y Kremer, Michael. 2002. Vouchers for Private Schooling in Colombia: Evidence from a Randomized Natural Experiment. American Economic Review 92 (5): 1535-58. Gertler, Paul; Martnez, Sebastin y Vivo, Sigrid. 2008. Child-Mother Provincial Investment Project Plan Nacer. University of California Berkeley y Banco Mundial, Washington, DC. Newman, John; Pradhan, Menno; Rawlings, Laura B.; Ridder, Geert; Coa, Ramiro y Evia, Jos Luis. 2002. An Impact Evaluation of Education, Health, and Water Supply Investments by the Bolivian Social Investment Fund. World Bank Economic Review 16 (2): 241-74. Schultz, Paul. 2004. Public Policy for the Poor? Evaluating the Mexican Progresa Poverty Program. Journal of Development Economics 74 (1): 199-250.

80

La evaluacin de impacto en la prctica

CAPTULO 5

Diseo de regresin discontinua


Los programas sociales usan frecuentemente un ndice para decidir quin tiene derecho y quin no a inscribirse. Por ejemplo, los programas de lucha contra la pobreza suelen estar dirigidos a hogares pobres, que se identican mediante una puntuacin de tipo proxy-mean o un ndice de la pobreza. Esta puntuacin puede basarse en una frmula de tipo proxy-mean, que se aproxima al bienestar econmico de los hogares al medir una serie de activos bsicos. Los hogares con puntuaciones bajas se clasican como pobres y los hogares con puntuaciones ms altas se consideran relativamente pudientes. Las autoridades del programa determinan normalmente un umbral o una puntuacin lmite, por debajo del cual se determina la condicin de pobre y la elegibilidad para el programa. Algunos ejemplos son el programa Progresa de Mxico (Buddelmeyer y Skouas, 2004) y el sistema de Colombia para la seleccin de beneciarios del gasto social, denominado SISBEN (Barrera-Osorio, Linden y Urquiola, 2007). Los programas de pensiones son otro ejemplo, aunque usan otro tipo de ndice. La edad es un ndice continuo, y la edad de jubilacin, el lmite que determina la elegibilidad. En otras palabras, solo las personas con cierta edad tienen derecho a recibir una pensin. Un tercer ejemplo de ndice continuo de elegibilidad son las calicaciones de los exmenes. Muchos pases conceden becas o premios a quienes obtienen mejores calicaciones en un examen estandarizado. Si el nmero de becas es limitado, solo los estudiantes con calicaciones por encima de cierto umbral (como el 15% con mejores calicaciones) tendrn derecho a este benecio.

81

Concepto clave:
El diseo de regresin discontinua es adecuado para los programas en los que se clasica a los posibles beneciarios mediante un ndice continuo y estos son seleccionados segn superen o no alcancen un umbral previamente denido.

El diseo de regresin discontinua (DRD) es un mtodo de evaluacin del impacto que puede usarse para los programas con un ndice continuo de elegibilidad y una puntuacin lmite claramente denida para determinar quin tiene derecho a participar y quin no. Para aplicar un diseo de regresin discontinua es necesario: 1. Un ndice continuo de elegibilidad, es decir, una medida continua con la que se puede clasicar a la poblacin de inters, como el ndice de pobreza, la puntuacin de un examen o la edad. 2. Una puntuacin mnima claramente denida, es decir, un punto en el ndice por debajo o por encima del cual se elige a la poblacin beneciaria. Por ejemplo, los hogares con un ndice de pobreza igual o menor de 50 sobre 100 se podran clasicar como pobres, las personas mayores de 66 aos se podran clasicar como pensionistas, y los estudiantes con una puntuacin superior a 89 sobre 100 podran considerarse elegibles para una beca. Las puntuaciones lmite en estos ejemplos son 50, 67 y 90, respectivamente.

Primer caso: Subsidios para fertilizantes en la produccin de arroz


Considrese el caso de un programa agrcola que subvenciona la compra de fertilizante a los agricultores de arroz para mejorar la produccin total. El programa est destinado a pequeas y medianas explotaciones agrcolas, con menos de 20 hectreas (50 acres) de supercie total. Antes del comienzo del programa, se puede esperar que la relacin entre el tamao de la explotacin agraria y la produccin total de arroz sea como se muestra en el grco 5.1, dado que las explotaciones ms pequeas tienen menos produccin que las ms grandes. En este caso, la puntuacin para determinar la elegibilidad es el nmero de hectreas de la explotacin, y el lmite se establece en 20 hectreas. Las explotaciones con extensiones inferiores al lmite de 20 hectreas tienen derecho a recibir subsidios; las que superan las 20 hectreas, no. Es decir que pueden participar del programa explotaciones de 18 hectreas, 19 hectreas o incluso 19,9 hectreas. Las explotaciones de 20 hectreas, 20,1 hectreas y 20,2 hectreas no participarn porque superan el lmite establecido. Es probable que las explotaciones de 19,9 hectreas sean muy similares a las de 20,1 hectreas en todos los aspectos, excepto en que unas recibieron el subsidio para fertilizantes y otras no. Conforme crece la distancia respecto del lmite de elegibilidad, la naturaleza de las unidades elegibles e inelegibles se ir volviendo ms diferente, pero se tiene una medida de sus diferencias basada en los criterios de elegibilidad y, por lo tanto, es posible considerarlas. Una vez que se pone en marcha el programa y se subvenciona el costo del fertilizante para los pequeos y medianos agricultores, los evaluadores pueden usar el mtodo de la regresin discontinua para conocer qu impacto ha tenido

82

La evaluacin de impacto en la prctica

Grco 5.1 20 produccin de arroz (fanegas por hectrea)

Produccin de arroz

+ es la produccin de las explotaciones >20 hectreas es la produccin de las explotaciones <20 hectreas 19

18

17

16

15

12

16

20 24 hectreas de terreno

28

32

la ayuda. Este mtodo mide la diferencia en los resultados posteriores a la intervencin entre las unidades cercanas al lmite de elegibilidad, en el ejemplo, una extensin de 20 hectreas. Las explotaciones que no recibieron subvencin al superar las 20 hectreas, pero que son sucientemente pequeas como para ser parecidas a algunas que s la recibieron, constituyen el grupo de comparacin. De estas se estima el contrafactual, que ser comparado con el de las explotaciones del grupo de tratamiento que s recibieron subvencin al tener una extensin menor de 20 hectreas, pero que son sucientemente grandes como para ser comparables con las primeras. Como estos dos grupos de explotaciones eran muy similares en la lnea de base y estn expuestos a la misma serie de factores externos (como el clima, las perturbaciones de los precios, las polticas agrcolas locales y nacionales, etctera), la nica razn de la diferencia en los resultados en el perodo posterior a la intervencin puede atribuirse al propio programa. El mtodo de regresin discontinua nos permite estimar con xito el impacto de un programa sin excluir ninguna poblacin elegible. Sin embargo, ntese que el impacto estimado solo es vlido en la cercana del lmite de elegibilidad. En el ejemplo, hay una estimacin vlida del impacto del programa para las explotaciones de pequeo y mediano tamao, es decir, las inferiores a 20 hectreas. La evaluacin no podr identicar directamente el impacto del programa sobre las explotaciones ms pequeas, por ejemplo de 0,5 o 1 hectrea, en las que el efecto del subsidio del fertilizante puede diferir considerablemente de los efectos

Diseo de discontinuidad de la regresin

83

observados en las explotaciones medianas de 19 o 19,5 hectreas. No existe un grupo de comparacin para las explotaciones pequeas, ya que todas ellas tienen derecho a inscribirse en el programa. La nica comparacin vlida es para las explotaciones con una extensin cercana al lmite de 20 hectreas.

Segundo caso: Transferencias monetarias


Supngase que se intenta evaluar el impacto de un programa de transferencia monetaria sobre el gasto diario en alimentos de los hogares pobres. Supngase tambin que existe un ndice de pobreza1 que observa los activos de los hogares y los resume en una puntuacin de 0 a 100, que permite ordenar los hogares de los ms pobres a los ms ricos. En general, en la lnea de base es de esperar que los hogares ms pobres gasten menos en alimentos que los ms ricos. El grco 5.2 muestra una posible relacin entre el ndice de pobreza y el gasto diario de los hogares en alimentos (el resultado). El programa est dirigido a los hogares pobres, los que tienen una puntuacin igual o inferior a 50. En este ejemplo, el ndice continuo de elegibilidad es simplemente el ndice de pobreza, y la puntuacin lmite es 50. La relacin continua entre

Grco 5.2 Gasto de los hogares en relacin con la pobreza (intervencin previa) gasto diario de los hogares en alimentos (pesos) 80

75

70

65

60

20

30

40 50 60 ndice de pobreza en la lnea de base

70

80

84

La evaluacin de impacto en la prctica

Grco 5.3 Discontinuidad en la elegibilidad del programa de transferencia monetaria gasto diario de los hogares en alimentos (pesos) 80

75

70

65 no elegible elegible 60 20 30 40 50 60 ndice de pobreza en la lnea de base 70 80

el ndice de elegibilidad y la variable del resultado (el gasto diario en alimentos) se muestra en el grco 5.3. Los hogares que puntan justo por debajo del lmite son elegibles para el programa, mientras que los que puntan justo por encima no son elegibles, a pesar de que ambos son muy similares. El DRD aprovecha la discontinuidad que produce la puntuacin lmite para estimar el contrafactual. Intuitivamente, los hogares elegibles con puntuacin justo por debajo del lmite (50 o poco menos) sern muy similares a los hogares con una puntuacin justo por encima del lmite (por ejemplo, los que tienen una puntuacin de 51). En el ejemplo, el programa ha decidido un lmite (50) a partir del que se produce un cambio repentino, o discontinuidad, en la elegibilidad del programa. Como los hogares justo por encima del lmite son similares a los que estn justo por debajo, a excepcin de que no reciben transferencias monetarias, pueden servir como grupo de comparacin. En otras palabras, los hogares que no tienen derecho al programa, pero que estn sucientemente cercanos al lmite, se usarn como grupo de comparacin para estimar el contrafactual.

Diseo de discontinuidad de la regresin

85

Grco 5.4 Gasto de los hogares en relacin con la pobreza (intervencin posterior)
80 gasto diario de los hogares en alimentos (pesos)

75

70

= IMPACTO
B 65 20 30 40 50 60 ndice de pobreza en la lnea de base 70 80

El grco 5.4, con resultados posteriores a la intervencin, muestra que los resultados promedio de los hogares elegibles que estaban justo por debajo del lmite son ahora superiores a los resultados promedio de los hogares no elegibles justo por encima del lmite. Dada la relacin continua entre las puntuaciones del ndice de pobreza y el gasto diario en alimentos antes del programa, la nica explicacin de la discontinuidad posterior a la intervencin es la existencia del programa de transferencia monetaria. En otras palabras, dado que los hogares cercanos (a cada lado) a la puntuacin lmite tenan caractersticas similares en la lnea de base, la diferencia en el gasto promedio en alimentos entre los dos grupos es una estimacin vlida del impacto del programa.

Uso del diseo de regresin discontinua para evaluar el Programa de Subsidio del Seguro de Salud
Despus de seguir investigando el diseo del PSSS, se observa que, en la prctica, las autoridades enfocaron el programa en hogares de ingreso bajo usando la lnea nacional de pobreza. La lnea de pobreza se basa en un ndice que asigna a cada hogar del pas una puntuacin entre 20 y 100 segn activos, condicin de las viviendas y estructura sociodemogrca. La lnea de pobreza se ha jado

86

La evaluacin de impacto en la prctica

Grco 5.5 ndice de pobreza y gasto en salud en la lnea de base del Programa de Subsidio del Seguro Social

30.2933 gasto en salud previsto de los hogares (US$)

lnea de pobreza

7 .07444 23.0294 58 ndice de pobreza en la lnea de base (20100) 100

ocialmente en 58. Los hogares con una puntuacin inferior a 58 se consideran pobres, mientras que los hogares con una puntuacin superior a 58 no se consideran pobres. Solo los hogares pobres tuvieron derecho a participar en el PSSS; no obstante, su muestra incluye datos tanto de hogares pobres como de no pobres de las comunidades de tratamiento. Utilizando los hogares de su muestra de comunidades de tratamiento, un colega lo ayuda a hacer una regresin multivariante y determinar la relacin entre el ndice de pobreza y el gasto en salud de los hogares anterior al comienzo del PSSS (grco 5.5). La regresin predice que conforme aumenta la puntuacin de un hogar en el ndice de pobreza, crece el nivel de gasto en salud, lo que demuestra que los hogares ms ricos tendan a gastar ms en medicamentos y servicios primarios de salud. Ntese que la relacin entre el ndice de pobreza y el gasto en salud es continua, es decir que no hay evidencias de un cambio en la relacin en torno a la lnea de pobreza.

Diseo de discontinuidad de la regresin

87

Grco 5.6 ndice de pobreza y gasto en salud: Programa de Subsidio del Seguro Social dos aos despus

30.2933 gasto en salud previsto de los hogares (US$)

lnea de pobreza

Impacto estimado sobre el gasto en salud (Y) B

7 .07444 23.0294 58 ndice de pobreza en la lnea de base (20100) 100

Dos aos despus del comienzo del programa piloto, solo se ha permitido participar en el PSSS a los hogares con una puntuacin por debajo de 58 (es decir, a la izquierda de la lnea de pobreza). Con los datos de seguimiento, se vuelve a determinar la relacin entre las puntuaciones del ndice de pobreza y el gasto en salud previsto, y se obtiene la relacin que se muestra en el grco 5.6. Esta vez, la relacin entre el ndice de pobreza y el gasto en salud previsto ya no es continua: hay una clara ruptura o discontinuidad en la lnea de pobreza.
Cuadro 5.1 Quinto caso: Impacto del PSSS segn el diseo de regresin discontinua (anlisis de regresin) Regresin lineal multivariante Impacto estimado sobre el gasto en salud de los hogares
Nota: Los errores estndar estn entre parntesis. ** Signicativa al nivel del 1%.

9.05** (0.43)

88

La evaluacin de impacto en la prctica

Esta discontinuidad reeja una disminucin del gasto en salud de los hogares con derecho a recibir el programa. Dado que los hogares a ambos lados de la puntuacin lmite de 58 son muy similares, la nica explicacin atendible para el diferente nivel de gasto en salud es que un grupo de hogares tuvo derecho a participar en el programa y el otro no. Usted calcula esta diferencia mediante una regresin y obtiene el resultado del cuadro 5.1.

PREGUNTA 5

A. El resultado en el cuadro 5.1 es vlido para todos los hogares elegibles? B. En comparacin con el impacto estimado con la asignacin aleatoria, qu indica este resultado con respecto a los hogares con un ndice de pobreza justo por debajo de 58? C. De acuerdo con este resultado del quinto caso, se debe extender el PSSS a nivel nacional?

Aplicacin del diseo de regresin discontinua


El diseo de regresin discontinua se ha usado en varios contextos. Lemieux y Milligan (2005) analizaron los efectos de la asistencia social sobre la oferta de mano de obra en Quebec. Martnez (2004) estudi el efecto de las pensiones de jubilacin sobre el consumo en Bolivia. Filmer y Schady (2009) evaluaron

Recuadro 5.1: Asistencia social y oferta de mano de obra en Canad


Uno de los estudios ms conocidos que us el DRD aprovech la marcada discontinuidad de un programa de asistencia social en Quebec, Canad, para entender los efectos del programa sobre los resultados en el mercado laboral. El programa de bienestar social, nanciado a travs del Plan de Asistencia Canadiense, ofrece asistencia a los desempleados. Durante muchos aos, el programa ofreci pagos signicativamente inferiores a las personas menores de 30 aos sin hijos, en comparacin con las personas mayores de 30 aos: US$185 frente a US$507 mensuales. Con el n de evaluar rigurosamente este programa, Lemieux y Milligan (2005) limitaron la muestra a los hombres sin hijos ni ttulo del secundario, y reunieron datos del censo y la encuesta sobre la fuerza laboral de Canad. Para justicar el uso del DRD, mostraron que los hombres cercanos al punto de discontinuidad (con edades comprendidas entre 25 y 39 aos) tenan caractersticas observables muy similares. Al comparar a los hombres a ambos lados del umbral de elegibilidad, los autores observaron que el acceso a mayores benecios de asistencia social produjo en realidad una reduccin del empleo del 4,5% entre los hombres dentro de este rango de edad sin hijos.
Fuente: Lemieux y Milligan, 2005.

Diseo de discontinuidad de la regresin

89

el impacto de un programa que ofreca becas a estudiantes pobres para promover la matriculacin escolar y mejorar las calicaciones en los exmenes en Camboya. Buddelmeyer y Skouas (2004) compararon el desempeo de la regresin discontinua con el mtodo aleatorio en el programa Progresa, y observaron que los impactos estimados mediante los dos mtodos eran similares en la gran mayora de los resultados analizados. Algunos de estos ejemplos se describen en detalle en los recuadros 5.1, 5.2 y 5.3.

Recuadro 5.2: Tasas escolares y niveles de matriculacin en Colombia


En Colombia, Barrera-Osorio, Linden y Urquiola (2007) usaron el diseo de regresin discontinua para evaluar el impacto de un programa de reduccin de las tasas escolares (Gratuidad) sobre el nivel de matriculacin escolar en la ciudad de Bogot. Dicho programa se aplica en funcin de un ndice denominado SISBEN, que consiste en un ndice continuo de la pobreza cuyo valor se determina segn caractersticas de los hogares como la ubicacin, los materiales de construccin de la vivienda, los servicios con que cuenta, la demografa, la salud, la educacin, el ingreso y las ocupaciones de los miembros del hogar. El Gobierno estableci dos puntuaciones lmite dentro del ndice SISBEN: los nios de hogares con puntuaciones por debajo de la primera puntuacin lmite tienen derecho a educacin gratuita desde el primero hasta el undcimo grado; los nios de hogares con puntuaciones entre la primera y la segunda puntuacin lmite tienen derecho a un subsidio del 50% de las tasas para el dcimo y undcimo grados; y los nios de hogares con puntuaciones superiores a la segunda puntuacin lmite no tienen derecho ni a educacin gratuita ni a subsidios. Los autores usaron el diseo de regresin discontinua por cuatro razones. Primero, las caractersticas de los hogares como el ingreso o el nivel educativo del jefe del hogar son
Fuente: Barrera-Osorio, Linden y Urquiola, 2007 .

continuos a lo largo de la puntuacin del SISBEN en la lnea de base; en otras palabras, no hay saltos en las caractersticas a lo largo de la puntuacin del SISBEN. Segundo, los hogares a ambos lados de las puntuaciones lmite tienen caractersticas similares, lo que indica que el diseo haba producido grupos de comparacin ables. Tercero, se dispona de una muestra cuantiosa de hogares. Cuarto, el Gobierno mantuvo en secreto la frmula empleada para calcular el SISBEN, de manera que los hogares no pudieran manipular sus puntuaciones. Al usar el DRD, los investigadores observaron que el programa tuvo un impacto positivo signicativo sobre el nivel de matriculacin escolar. En concreto, la matriculacin aument 3 puntos porcentuales para los estudiantes de primaria de hogares por debajo de la primera puntuacin lmite y 6 puntos porcentuales para los estudiantes de secundaria de los hogares entre la primera y la segunda puntuacin lmite. Este estudio demuestra los benecios de reducir el costo directo de la escolarizacin, especialmente para los estudiantes en situacin de riesgo. Sin embargo, sus autores tambin recomiendan que se sigan investigando las elasticidades con respecto al precio para inuir mejor en el diseo de programas de subsidio como este.

90

La evaluacin de impacto en la prctica

Recuadro 5.3: Sistemas de proteccin social basados en el ndice de pobreza en Jamaica


El DRD se us tambin para evaluar el impacto de una iniciativa de proteccin social en Jamaica. En 2001, el Gobierno inici el Programa de Fomento a travs de la Salud y la Educacin para aumentar las inversiones en capital humano y mejorar la orientacin de los benecios sociales para los pobres. El programa ofreci subsidios de salud y educacin a los nios de hogares pobres elegibles, a condicin de que asistieran a la escuela y visitaran regularmente los centros de salud. El benecio mensual medio para cada nio era de alrededor de US$6,50, adems de la anulacin ocial de ciertas tasas sanitarias y educativas. Dado que la elegibilidad del programa se determin mediante una frmula de puntuacin, Levy y Ohls (2007) pudieron comparar hogares justo por debajo del umbral de elegibilidad con hogares justo por encima (con una diferencia de entre 2 y 15 puntos respecto del lmite). Los investigadores justicaron el uso del DRD con datos de la lnea de base que demostraban que los hogares de tratamiento y de comparacin tenan niveles similares de pobreza, medidos con puntuaciones indirectas de los medios de vida, y niveles similares de motivacin, dado
Fuente: Levy y Ohls, 2007 .

que todos los hogares de la muestra se haban inscrito en el programa. Los investigadores tambin usaron la puntuacin de elegibilidad en el anlisis de regresin para considerar cualquier diferencia entre los grupos. Levy y Ohls (2007) observaron que el Programa de Fomento a travs de la Salud y la Educacin aument la asistencia a la escuela de los nios de entre 6 y 17 aos una media de 0,5 das al mes, lo cual es signicativo si se tiene en cuenta la tasa de asistencia del 85%, ya de por s bastante alta. Adems, las visitas a centros de salud de los nios de 0 a 6 aos aumentaron alrededor de un 38%. Aunque los investigadores no pudieron hallar ningn impacto a largo plazo sobre los logros escolares y el estado de salud, concluyeron que la magnitud de los impactos observados era ampliamente comparable con los programas de transferencia monetaria condicionada implementados en otros pases. Finalmente, un aspecto interesante de esta evaluacin es que recogi tanto datos cuantitativos como cualitativos a travs de sistemas de informacin, entrevistas, grupos de discusin y encuestas de hogares.

Limitaciones e interpretacin del diseo de regresin discontinua


El diseo de regresin discontinua estima los impactos medios locales en torno al umbral de elegibilidad en el punto en el que las unidades de tratamiento y de comparacin son ms similares. Conforme el umbral est ms cerca, las unidades a ambos lados se asemejan ms. De hecho, sumamente cerca de la puntuacin lmite, las unidades a ambos lados del lmite sern tan parecidas que la comparacin ser tan buena como si se hubieran elegido los grupos de tratamiento y de comparacin mediante asignacin aleatoria.

Diseo de discontinuidad de la regresin

91

Dado que el DRD estima el impacto del programa en torno a la puntuacin lmite, o localmente, la estimacin no se puede generalizar a unidades cuyas puntuaciones estn ms alejadas, es decir, en las que las personas elegibles y no elegibles no sean tan similares. El hecho de que el DRD no pueda computar un efecto medio del tratamiento para todos los participantes del programa puede considerarse tanto un punto fuerte como una limitacin, segn cul sea la pregunta de inters de la evaluacin. Cuando la evaluacin pretende informar la decisin de si un programa debe existir o no, el efecto medio del tratamiento para toda la poblacin elegible puede ser el parmetro ms relevante, y est claro que el DRD no ser el mejor criterio para decidir. Sin embargo, si la pregunta de inters es si el programa se debe suspender o expandir en el margen, el DRD podr informar esta decisin. El hecho de que el DRD produzca efectos generales locales del tratamiento tambin plantea dicultades en trminos de la potencia estadstica del anlisis. Dado que los efectos solo se estiman en torno a la puntuacin lmite, se pueden usar menos observaciones que en los mtodos que incluiran todas las unidades. Cuando se aplica el DRD, se requieren muestras de evaluacin relativamente grandes para obtener una potencia estadstica suciente. En la prctica, se determina un margen en torno a la puntuacin lmite que se incluir en la estimacin, en funcin del equilibrio de las caractersticas observadas en la poblacin por encima y por debajo del lmite. A continuacin, se puede volver a realizar la estimacin usando diferentes mrgenes para comprobar si las estimaciones dependen del margen elegido. Por regla general, cuanto ms margen, mayor ser la potencia estadstica del anlisis, ya que se incluyen ms observaciones. Sin embargo, alejarse del lmite tambin puede exigir suposiciones adicionales de la forma funcional para obtener una estimacin creble del impacto. Una salvedad adicional cuando se usa el DRD es que la especicacin puede depender de la forma funcional que se use para modelar la relacin entre la puntuacin para la elegibilidad y el resultado de inters. En el ejemplo del programa de transferencia monetaria, se supone que la relacin en la lnea de base entre el ndice de pobreza de los hogares y su gasto diario en alimentos es simple y lineal. La relacin entre el ndice de elegibilidad y el resultado de inters (Y) en la lnea de base podra ser mucho ms compleja y conllevar relaciones e interacciones entre variables no lineales. Si no se consideran estas relaciones complejas en la estimacin, se podran confundir con una discontinuidad en los resultados posteriores a la intervencin. En la prctica, se puede estimar el impacto del programa mediante varias formas funcionales (lineales, cuadrticas, cbicas, etc.) para determinar si las estimaciones del impacto dependen, de hecho, de la forma funcional. Incluso con estas limitaciones, el diseo de regresin discontinua genera estimaciones no sesgadas del impacto en la cercana del lmite de elegibilidad. La regresin discontinua aprovecha las reglas de asignacin del programa al usar ndices continuos de elegibilidad, que ya son comunes en muchos programas sociales. Cuando se aplican reglas de elegibilidad basadas en ndices, no es necesario excluir a un grupo de hogares o a personas elegibles del tratamiento para nes de evaluacin: en su lugar se puede usar el diseo de regresin discontinua.

92

La evaluacin de impacto en la prctica

Nota
1. Esto se denomina a veces puntaje proxy-mean porque se utilizan los bienes del hogar para estimar su bienestar econmico o su capacidad adquisitiva.

Referencias
Barrera-Osorio, Felipe; Linden, Leigh y Urquiola, Miguel. 2007. The Effects of User Fee Reductions on Enrollment: Evidence from a Quasi-Experiment. Columbia University y Banco Mundial, Washington, DC. Buddelmeyer, Hielke y Skouas, Emmanuel. 2004. An Evaluation of the Performance of Regression Discontinuity Design on PROGRESA. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 3386, IZA Discussion Paper 827. Banco Mundial, Washington, DC. Filmer, Deon y Schady, Norbert. 2009. School Enrollment, Selection and Test Scores. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 4998. Banco Mundial, Washington, DC. Lemieux, Thomas y Milligan, Kevin. 2005. Incentive Effects of Social Assistance: A Regression Discontinuity Approach. NBER Working Paper 10541. National Bureau of Economic Research, Cambridge, MA. Levy, Dan y Ohls, Jim. 2007. Evaluation of Jamaicas PATH Program: Final Report. Mathematica Policy Research, Inc., Ref. 8966-090, Washington, DC. Martnez, S. 2004. Pensions, Poverty and Household Investments in Bolivia. University of California, Berkeley, CA.

Diseo de discontinuidad de la regresin

93

CAPTULO 6

Diferencias en diferencias
Los tres mtodos de evaluacin de impacto analizados hasta ahora, asignacin aleatoria, promocin aleatoria y diseo de regresin discontinua, estiman el contrafactual a travs de reglas explcitas de asignacin del programa, que el evaluador conoce y entiende. Como se ha discutido anteriormente, estos mtodos ofrecen estimaciones crebles del contrafactual haciendo relativamente pocas suposiciones e imponiendo pocas condiciones. Los dos prximos tipos de mtodos, diferencias en diferencias (DD) y pareamiento, ofrecen al evaluador herramientas adicionales que pueden aplicarse cuando las reglas de asignacin del programa sean menos claras o cuando no sea factible ninguno de los tres mtodos antes descritos. Como se ver, tanto el mtodo de diferencias en diferencias como el pareamiento tambin pueden constituir herramientas estadsticas potentes: se ver que en ocasiones se pueden usar juntas, o con otros mtodos de evaluacin de impacto. Aunque tanto diferencias en diferencias como pareamiento se usan con frecuencia, ambos mtodos requieren normalmente suposiciones ms fuertes que los mtodos de seleccin aleatoria. Adems, a diferencia de los mtodos de seleccin aleatoria, ambos mtodos requieren necesariamente de la existencia de datos de lnea de base1. El mtodo de diferencias en diferencias consiste, como indica su nombre, en aplicar una doble diferencia. Compara los cambios a lo largo del tiempo en la variable de inters entre una poblacin inscrita en un programa (el grupo de tratamiento) y una poblacin no inscrita (el grupo de comparacin). Considrese, por ejemplo, el caso de un programa de construccin de carreteras que no se puede asignar aleatoriamente y que no se asigna en funcin de un ndice con un umbral claramente denido, lo que permitira un diseo de regresin discontinua. Uno de los objetivos Concepto clave:
El mtodo de diferencias en diferencias estima el contrafactual del cambio en el resultado para el grupo de tratamiento calculando el cambio del resultado para el grupo de comparacin. Este mtodo nos permite tener en cuenta cualquier diferencia constante en el tiempo entre los grupos de tratamiento y de comparacin.

95

del programa es mejorar el acceso a los mercados laborales, y uno de los indicadores de resultado es el empleo. Como se vio en el captulo 3, la simple observacin del cambio antes-despus en las tasas de empleo de las reas afectadas por el programa no nos mostrar el impacto causal del programa, porque es probable que muchos otros factores inuyan en el empleo. Al mismo tiempo, la comparacin de las reas que recibieron y no recibieron el programa de carreteras ser problemtica si existen razones no observables por las que unas lo recibieron y otras no. Como por ejemplo, el problema del sesgo de seleccin analizado en el caso de la comparacin de inscritos y no inscritos. Sin embargo, qu pasara si se combinaran los dos mtodos y se comparasen los cambios antes-despus de los resultados de un grupo inscrito en el programa con los cambios antes-despus de un grupo no inscrito en el programa? La diferencia de los resultados antes-despus del grupo inscrito (la primera diferencia) considera factores constantes en el tiempo para dicho grupo, ya que se compara al grupo con s mismo. Sin embargo, todava nos quedan los factores externos que varan con el tiempo. Una manera de observar estos factores variables en el tiempo es medir el cambio antes-despus de los resultados de un grupo que no se inscribi en el programa, pero estuvo expuesto a las mismas condiciones ambientales (la segunda diferencia). Si se limpia la primera diferencia de otros factores variables en el tiempo que afectan al resultado de inters sustrayndole la segunda diferencia, se habr eliminado la principal causa de sesgo que nos preocupaba en el caso de las comparaciones simples de antes-despus. Por lo tanto, el mtodo de diferencias en diferencias combinara los dos falsos contrafactuales (comparaciones antes-despus y comparaciones inscritos-no inscritos) para generar una mejor estimacin del contrafactual. En nuestro caso sobre carreteras, el mtodo de diferencias en diferencias podra comparar el cambio en el empleo antes y despus de la implementacin del programa en el caso de las personas que viven en reas afectadas por el programa de construccin de carreteras con los cambios en el empleo en las reas en las que no se implement el programa. Es importante sealar que el contrafactual que se estima en este caso es el cambio en los resultados del grupo de tratamiento. Los grupos de tratamiento y de comparacin no tienen que contar necesariamente con las mismas condiciones previas a la intervencin. No obstante, para que el mtodo de diferencias en diferencias sea vlido, el grupo de comparacin debe representar el cambio en los resultados que habra experimentado el grupo de tratamiento en ausencia del programa. Para aplicar diferencias en diferencias, solo hace falta medir los resultados del grupo que recibe el programa (el grupo de tratamiento) y del grupo que no lo recibe (el grupo de comparacin) antes y despus del programa. Este mtodo no requiere que se especiquen las reglas para la asignacin del tratamiento. El grco 6.1 ilustra el mtodo de diferencias en diferencias. Un grupo de tratamiento est inscrito en un programa y un grupo de comparacin no est inscrito. La variable de resultado para el grupo de tratamiento va de A (ao 0, antes del

96

La evaluacin de impacto en la prctica

Grco 6.1

Diferencias en diferencias

grupo de comparacin C = 0.78 D = 0.81

resultado

}
A = 0.60 grupo de tratamiento

B = 0.74 impacto = 0.11 E

Tendencia del grupo de comparacin

ao 0 tiempo

ao 1

programa) a B (ao 1, despus del programa), mientras que para el grupo de comparacin va de C a D respectivamente. Recordemos nuestros dos falsos contrafactuales: la diferencia de los resultados antes y despus de la intervencin en el grupo de tratamiento (B A) y la diferencia de los resultados2 despus de la intervencin entre los grupos de tratamiento y de comparacin (B D). Con diferencias en diferencias, la estimacin del contrafactual se obtiene calculando el cambio en los resultados del grupo de comparacin (D C). Este cambio del contrafactual se substrae a continuacin del cambio de los resultados en el grupo de tratamiento (B A). En resumen, el impacto del programa se computa simplemente como la diferencia entre dos diferencias: Impacto de la DD = (B A) (D C) = (B E) = (0.74 0.60) (0.81 0.78) = 0.11. Las relaciones presentadas en el grco 6.1 tambin pueden presentarse en un cuadro simple. En el cuadro 6.1 se describen los componentes de las estimaciones de diferencias en diferencias. La primera lnea contiene los resultados del grupo de tratamiento antes (A) y despus (B) de la intervencin. La comparacin antes-despus del grupo de tratamiento es la primera diferencia (B A). La segunda lnea contiene los resultados del grupo de comparacin antes de la intervencin (C) y despus de la intervencin (D), por lo que la segunda diferencia (estimacin del contrafactual) es (D C).

Diferencias en diferencias

97

Cuadro 6.1

El mtodo de diferencias en diferencias Despus Antes A C AC Diferencia BA DC DD = (B A) (D C)

Tratamiento/inscritos Comparacin/ no inscritos Diferencia

B D BD

Despus Tratamiento/inscritos Comparacin/ no inscritos Diferencia 0.74 0.81 0.07

Antes 0.60 0.78 0.18

Diferencia 0.14 0.03 DD = 0.14 0.03 = 0.11

El mtodo de diferencias en diferencias computa la estimacin del impacto de la siguiente manera: 1. Se calcula la diferencia del resultado (Y) entre las situaciones antes y despus para el grupo de tratamiento (B A). 2. Se calcula la diferencia del resultado (Y) entre las situaciones antes y despus para el grupo de comparacin (D C). 3. A continuacin, se calcula la diferencia entre la diferencia en los resultados del grupo de tratamiento (B A) y la diferencia del grupo de comparacin (D C), o DD = (B A) (D C). Esta diferencia en diferencias es nuestra estimacin del impacto.

Qu utilidad tiene el mtodo de diferencias en diferencias?


Para entender la utilidad de este mtodo, se empieza por examinar nuestro primer falso contrafactual, que comparaba a las unidades inscritas con las no inscritas en el programa. Recuerde que la principal preocupacin en este caso era que las dos series de unidades pudieran tener caractersticas diferentes, y que dichas caractersticas explicaran la diferencia en los resultados entre los dos grupos en lugar del programa. Las caractersticas no observadas eran especialmente preocupantes: por denicin, es imposible incluir las diferencias no observadas en el anlisis.

98

La evaluacin de impacto en la prctica

El mtodo de diferencias en diferencias ayuda a resolver este problema en la medida en que sea razonable suponer que muchas caractersticas de las unidades o las personas son constantes (o invariables en el tiempo). Considrese, por ejemplo, caractersticas observadas, como el ao de nacimiento de una persona, la ubicacin de una regin con respecto al ocano, el nivel de desarrollo econmico de una ciudad o el nivel de educacin de un padre. Aunque puedan estar relacionadas con los resultados, la mayora de este tipo de variables probablemente no cambiar en el transcurso de una evaluacin. Con del mismo razonamiento, se podra concluir que muchas caractersticas no observadas de personas tambin son ms o menos constantes a lo largo del tiempo. Considere, por ejemplo, la inteligencia de una persona o caractersticas de la personalidad como la motivacin, el optimismo, la autodisciplina o el historial de salud en la familia. Es plausible que muchas de estas caractersticas intrnsecas no cambien con el tiempo. Cuando se observa a la misma persona antes y despus de un programa y se computa una simple diferencia en el resultado para dicha persona, se anula el efecto de todas las caractersticas especcas de esa persona que son constantes en el tiempo. Pero con ello se anula (o se controla) no solo el efecto de las caractersticas observadas constantes, sino tambin el efecto de las caractersticas no observadas constantes, como las mencionadas anteriormente.

El supuesto de igualdad de tendencias en las diferencias en diferencias


Aunque diferencias en diferencias nos permite tener en cuenta las caractersticas constantes en el tiempo entre los grupos de tratamiento y de comparacin, no nos ayuda a eliminar el sesgo producido por aquellas caractersticas que varan a lo largo del tiempo entre los grupos de tratamiento y de comparacin. En el ejemplo anterior del programa de carreteras, si las zonas de tratamiento se benecian tambin de la construccin de un puerto martimo, no se podr tener en cuenta el efecto de la construccin del puerto martimo mediante un mtodo de diferencias en diferencias. Para que este mtodo genere una estimacin vlida del contrafactual, se debe suponer la inexistencia de estas diferencias que aparecen a lo largo del tiempo entre los grupos de tratamiento y de comparacin. Otra manera de entender esto es considerar que, en ausencia del programa, las diferencias en los resultados entre los grupos de tratamiento y de comparacin tendran que evolucionar paralelamente, es decir, sin el tratamiento, los resultados aumentaran o disminuiran al mismo ritmo en ambos grupos; es decir, es necesario que los resultados reejen tendencias iguales en ausencia del tratamiento. Lamentablemente, no existe una manera de demostrar que las diferencias entre los grupos de tratamiento y de comparacin habran evolucionado paralelamente

Diferencias en diferencias

99

en ausencia del programa. Esto se debe a que no se puede observar lo que le habra pasado al grupo de tratamiento en ausencia del tratamiento; en otras palabras, como ya es sabido no se puede observar el contrafactual! Por lo tanto, cuando se usa el mtodo de diferencias en diferencias, se debe suponer que, en ausencia del programa, el resultado del grupo de tratamiento habra evolucionado paralelamente al grupo de comparacin. El grco 6.2 ilustra un incumplimiento de este supuesto fundamental, que resulta indispensable para que el mtodo de diferencias en diferencias produzca estimaciones de impacto crebles. Si las tendencias de los resultados son diferentes para los grupos de tratamiento y de comparacin, el efecto estimado de tratamiento obtenido mediante mtodos de diferencias en diferencias ser invlido o sesgado. Esto se debe a que la tendencia del grupo de comparacin no es una estimacin vlida de la tendencia del contrafactual. Como se ve en el grco 6.2, los resultados del grupo de comparacin crecen ms lentamente que los resultados del grupo de tratamiento en ausencia del programa; por consiguiente, el uso de la tendencia del grupo de comparacin como estimacin de la tendencia contrafactual del grupo de tratamiento provoca una sobreestimacin del impacto del programa.

Comprobacin del supuesto de igualdad de tendencias en el mtodo de diferencias en diferencias


A pesar de que no se puede demostrar, el supuesto fundamental de igualdad de tendencias se puede comprobar. Una buena manera de hacerlo es comparar

Grco 6.2 Diferencias en diferencias cuando las tendencias de los resultados son diferentes
grupo de comparacin C = 0.78
rdadero ctual ve trafa on c

D = 0.81 B = 0.74

resultado

} impacto < 0.11


tendencia del grupo de comparacin

A = 0.60

grupo de tratamiento

ao 0 tiempo

ao 1

100

La evaluacin de impacto en la prctica

el comportamiento en los grupos de comparacin y de tratamiento antes de la implementacin del programa. Si los resultados evolucionaron en paralelo antes del comienzo del programa, se tendr ms conanza en que los resultados habran seguido progresando simultneamente en el perodo posterior a la intervencin en ausencia de la intervencin. Para comprobar la igualdad de las tendencias antes de la intervencin, se necesitan al menos dos rondas de datos para los grupos de tratamiento y de comparacin antes del comienzo del programa. Esto conlleva al menos tres rondas de datos para la evaluacin: dos previas a la intervencin para valorar las tendencias anteriores al programa y una observacin posterior a la intervencin para evaluar el impacto mediante diferencias en diferencias. Una segunda manera de comprobar el supuesto de las tendencias iguales sera la realizacin de lo que se conoce como una prueba de placebo. En este caso, se realiza una estimacin adicional de diferencias en diferencias mediante un grupo de tratamiento falso, es decir, un grupo que usted sabe que no ha sido afectado por el programa. Por ejemplo, usted quiere estimar en qu medida las clases particulares adicionales para estudiantes de sptimo grado afectan su probabilidad de asistir a la escuela, y elige a estudiantes de octavo grado como grupo de comparacin. Para comprobar si los estudiantes de sptimo y de octavo grado tienen las mismas tendencias en trminos de asistencia a la escuela, podra vericar si los estudiantes de octavo y de sexto grado tienen las mismas tendencias. Sabe que los estudiantes de sexto grado no estn afectados por el programa, por lo tanto, si realiza una estimacin de diferencias en diferencias con estudiantes de octavo grado como grupo de comparacin y estudiantes de sexto grado como grupo de tratamiento falso, debe obtener un impacto nulo. De lo contrario, el impacto que obtiene tiene que deberse a alguna diferencia fundamental en las tendencias entre los estudiantes de sexto y de octavo grado. A su vez, esto hace dudar de la posibilidad de suponer que los estudiantes de sptimo y octavo grado registren tendencias paralelas en ausencia del programa. Se puede realizar una prueba de placebo no solo con un grupo de tratamiento falso, sino tambin con un resultado falso. En el ejemplo de las clases particulares, puede comprobar la validez usando a estudiantes de octavo grado como grupo de comparacin y estimando el impacto de las clases particulares sobre un resultado que sabe que no se ve afectado por ellas, como el nmero de hermanos de cada estudiante. Si su estimacin de diferencias en diferencias produce un impacto de las clases particulares sobre el nmero de hermanos de cada estudiante, sabe que debe haber fallos en su grupo de comparacin. Una cuarta manera de comprobar el supuesto de las tendencias iguales sera la aplicacin del mtodo de diferencias en diferencias en distintos grupos de comparacin. En el ejemplo de las clases particulares, primero har la estimacin para los estudiantes de octavo grado, y har una segunda estimacin para los de sexto grado. Si ambos grupos de comparacin son vlidos, el impacto estimado ser aproximadamente el mismo en ambos clculos.

Diferencias en diferencias

101

Uso de las diferencias en diferencias para evaluar el Programa de Subsidios del Seguro de Salud
El mtodo de diferencias en diferencias se puede usar para evaluar nuestro Programa de Subsidios del Seguro de Salud. En este caso, se tienen dos rondas de datos sobre dos grupos de hogares: un grupo de inscritos al programa y otro de no inscritos. Al revisar los grupos de inscritos y no inscritos seleccionados, se ve que no se puede comparar simplemente el gasto promedio en salud de los dos grupos debido al sesgo de seleccin. Dado que se cuenta con datos en dos momentos del tiempo para cada hogar de la muestra, se puede usar dichos datos para resolver algunos de estos problemas mediante la comparacin del cambio en el gasto de los dos grupos, suponiendo que el cambio en el gasto en salud del grupo no inscrito reeja lo que le habra sucedido al gasto en salud del grupo inscrito en ausencia del programa (vase el cuadro 6.2). Ntese que no importa de qu manera se calcule la doble diferencia. A continuacin, se estima el efecto mediante el anlisis de regresin estadstica (cuadro 6.3). Al usar una regresin lineal simple se observa que el programa ha reducido el gasto en salud de los hogares en US$7,8. Finalmente es posible mejorar el anlisis mediante una regresin lineal multivariante para tener en cuenta factores adicionales, y se observa la misma disminucin del gasto en salud de los hogares.
PREGUNTA 6

A. Qu supuestos bsicos son necesarios para aceptar el resultado del sexto caso? B. De acuerdo con los resultados del sexto caso, se debera extender el Programa de Subsidios del Seguro de Salud a nivel nacional? Cuadro 6.2 Sexto caso: Impacto del PSSS, diferencias en diferencias (comparacin de medias) Despus (seguimiento) Inscritos No inscritos Diferencia 7 .8 21.8 Antes (lnea de base) 14.4 20.6

Diferencia 6.6 1.2 DD = 6.6 1.2 = 7 .8

Cuadro 6.3 Sexto caso: Impacto del PSSS, diferencias en diferencias (anlisis de regresin) Regresin lineal Regresin lineal multivariante Impacto estimado sobre el gasto en salud de los hogares 7 .8** (0.33) 7 .8** (0.33)

Nota: Los errores estndares estn entre parntesis. ** Signicativos al nivel del 1%.

102

La evaluacin de impacto en la prctica

Aplicacin del mtodo de diferencias en diferencias


A pesar de sus limitaciones, el mtodo de diferencias en diferencias sigue siendo una de las metodologas de evaluacin de impacto empleadas con ms frecuencia, y la bibliografa econmica brinda muchos ejemplos de ello. Por ejemplo, Duo (2001) lo utiliz para analizar el impacto sobre la escolarizacin y el mercado laboral de la construccin de escuelas en Indonesia. Di Tella y Schargrodsky (2005) lo utilizaron para examinar si el aumento de las fuerzas policiales reduce la delincuencia. En el recuadro 6.1 se describe otro ejemplo.

Recuadro 6.1: Privatizacin del agua y mortalidad infantil en Argentina


Galiani, Gertler y Schargrodsky (2005) usaron el mtodo de diferencias en diferencias para resolver una importante cuestin de poltica pblica: si la privatizacin de los servicios de suministro de agua podra mejorar los resultados para la salud y contribuir al alivio de la pobreza. Durante la dcada de 1990, Argentina inici una de las campaas de privatizacin ms grandes de su historia, y transri las compaas municipales de aguas a empresas privadas reguladas, que llegaban a aproximadamente el 30% de los municipios del pas y el 60% de la poblacin. El proceso de privatizacin transcurri a lo largo de una dcada, con 1995 como el ao de mayor nmero de privatizaciones. Galiani, Gertler y Schargrodsky (2005) aprovecharon el cambio de la propiedad del servicio de aguas a lo largo del tiempo para determinar el impacto de la privatizacin sobre la tasa de mortalidad de menores de 5 aos. Antes de 1995, las tasas de mortalidad infantil estaban reducindose al mismo ritmo en todo el pas; despus de 1995, las tasas de mortalidad se redujeron ms rpidamente en los municipios en los que se haba privatizado el suministro de agua. Los investigadores arman que, en este contexto, es muy probable que se conrmen los supuestos necesarios para aplicar diferencias en diferencias. En primer lugar, demuestran que la decisin de privatizar no
Fuente: Galiani, Gertler y Schargrodsky, 2005.

se correlacion con las crisis econmicas ni los niveles histricos de mortalidad infantil. En segundo lugar, demuestran que no se observan diferencias en las tendencias de la mortalidad infantil entre los municipios de comparacin y de tratamiento antes de que comenzara la campaa de privatizaciones. Comprobaron la solidez de sus observaciones descomponiendo el efecto de la privatizacin sobre la mortalidad infantil en funcin de la causa de la muerte, y observaron que la privatizacin de los servicios de suministro de agua est correlacionada con la reduccin de muertes por enfermedades infecciosas y parasitarias, pero no de muertes por causas no relacionadas con las condiciones del agua, como accidentes o enfermedades congnitas. Al nal, la evaluacin determin que la mortalidad infantil se haba reducido alrededor de un 8% en las reas donde se privatiz el suministro, y que el mayor efecto, alrededor del 26%, se registraba en las reas ms pobres, donde la expansin de la red de abastecimiento de agua fue mayor. Este estudio arroj luz a importantes debates sobre polticas relacionadas con la privatizacin de los servicios pblicos. Los investigadores concluyeron que, en Argentina, el sector privado regulado tuvo ms xito que el sector pblico en la mejora de los indicadores de acceso, servicio y, lo que es ms importante, de mortalidad infantil.

Diferencias en diferencias

103

Limitaciones del mtodo de diferencias en diferencias


El mtodo de diferencias en diferencias es generalmente menos robusto que los mtodos de seleccin aleatoria (asignacin aleatoria, oferta aleatoria y promocin aleatoria). Puede haber un sesgo en la estimacin incluso cuando las tendencias son paralelas al comienzo de la intervencin. Esto se debe a que diferencias en diferencias atribuye a la intervencin cualquier diferencia en las tendencias entre los grupos de tratamiento y de intervencin que se produzca desde el comienzo de la intervencin. Si algn otro factor afecta a la diferencia en las tendencias de los dos grupos, la estimacin ser invlida o sesgada. Por ejemplo, para estimar el impacto de un subsidio para fertilizante sobre la produccin de arroz se mide la produccin de arroz de los agricultores subvencionados (tratamiento) y de los agricultores no subvencionados (comparacin) antes y despus de la distribucin de los subsidios. Durante el primer ao, los agricultores subvencionados se ven afectados por la sequa, mientras que no sucede lo mismo con los agricultores no subvencionados, por lo que la estimacin de diferencias en diferencias generar una estimacin invlida del impacto del. En general, cualquier factor que afecte solo al grupo de tratamiento, y lo afecte durante el perodo en el que recibe el tratamiento, puede invalidar o sesgar la estimacin del impacto del programa. Diferencias en diferencias supone que esos factores no estn presentes.

Notas
1. Aunque en teora la asignacin aleatoria, la promocin aleatoria y el diseo de regresin discontinua no requieren datos de lnea de base, en la prctica tener una resulta muy til para conrmar que las caractersticas de los grupos de tratamiento y de comparacin son equivalentes. Por esta razn, se recomienda usar una lnea de base como parte de cualquier evaluacin de impacto. Adems de comprobar que las caractersticas entre los dos grupos estn equilibradas, existen varias buenas razones para recabar datos de lnea de base, incluso cuando el mtodo no lo requiera necesariamente. Primero, contar con caractersticas de la poblacin previas a la intervencin (exgenas) puede permitir al evaluador determinar si el programa tiene un impacto diferente sobre diferentes grupos de la poblacin elegible (el denominado anlisis de la heterogeneidad). Segundo, los datos de lnea de base tambin sirven para un anlisis que oriente las polticas antes incluso del comienzo de la intervencin, y la recoleccin de datos de lnea de base puede servir de prueba piloto para la recoleccin de datos despus de la intervencin. Tercero, los datos de lnea de base pueden ejercer de pliza de seguro en caso de que no se implemente correctamente la asignacin aleatoria: el evaluador tendra la segunda opcin de usar una combinacin del pareamiento y la diferencias en diferencias. Finalmente, los datos de lnea de base pueden aumentar la potencia estadstica del anlisis cuando el nmero de unidades de los grupos de tratamiento y de comparacin es limitado. 2. Todas las diferencias entre los puntos deben interpretarse como diferencias verticales de los resultados en el eje vertical.
104
La evaluacin de impacto en la prctica

Referencias
Di Tella, Rafael y Schargrodsky, Ernesto. 2005. Do Police Reduce Crime? Estimates Using the Allocation of Police Forces after a Terrorist Attack. American Economic Review 94 (1): 115-33. Duo, Esther. 2001. Schooling and Labor Market Consequences of School Construction in Indonesia: Evidence from an Unusual Policy Experiment. American Economic Review 91 (4): 795-813. Galiani, Sebastin; Gertler, Paul y Schargrodsky, Ernesto. 2005. Water for Life: The Impact of the Privatization of Water Services on Child Mortality. Journal of Political Economy 113 (1): 83-120.

Diferencias en diferencias

105

CAPTULO 7

Pareamiento
El mtodo que se describe en este captulo consiste en unas tcnicas estadsticas llamadas pareamiento (tambin matching o emparejamiento). Los mtodos de pareamiento se pueden aplicar a casi todas las reglas de asignacin de un programa, siempre que se cuente con un grupo que no haya participado en el programa. Los mtodos de pareamiento se basan normalmente en caractersticas observadas para construir un grupo de comparacin y, por lo tanto, suponen que no hay diferencias no observadas entre los grupos de tratamiento y de comparacin que estn asociadas tambin con los resultados de inters. Debido a esta suposicin, los mtodos de pareamiento son normalmente ms tiles en combinacin con alguna de las otras metodologas que se han analizado anteriormente. El pareamiento utiliza bsicamente tcnicas estadsticas para construir un grupo de comparacin articial: para cada unidad que recibe tratamiento, se identica una unidad (o una serie de unidades) sin tratamiento, la(s) cual(es) debe(n) tener caractersticas lo ms similares posibles a las que recibi el tratamiento. Considere un caso en el que debe evaluar el impacto de un programa y cuenta con una serie de datos tanto de hogares inscritos en el programa como de no inscritos, por ejemplo una encuesta demogrca y de salud. El programa no tiene ninguna regla de asignacin clara (como una asignacin aleatoria o un ndice de elegibilidad) que explique por qu algunos hogares estn inscritos y otros no. En dicho contexto, los mtodos de pareamiento le permitirn identicar mediante las caractersticas disponibles en la base de datos a los hogares no inscritos ms similares a los hogares inscritos (o de tratamiento), mediante las caractersticas disponibles en su base de datos. Estos hogares no inscritos pareados se convierten as en el grupo de comparacin para estimar el contrafactual.

Concepto clave:
El pareamiento usa grandes series de datos y tcnicas estadsticas complejas para construir el mejor grupo articial de comparacin posible para el grupo de tratamiento.

107

La bsqueda de un buen individuo de comparacin para cada individuo inscrito en el programa requiere que las variables o los factores determinantes que explican la decisin de una persona de inscribirse en el programa sean lo ms parecidas entre los dos grupos. Desafortunadamente, la teora es ms fcil que la prctica. Si la lista de caractersticas relevantes observadas es demasiado grande, o si cada una de ellas asume mltiples valores, puede ser difcil identicar una pareja para cada una de las unidades del grupo de tratamiento. Conforme aumenta el nmero de caractersticas o dimensiones en funcin de las cuales quiere parear (o emparejar) las unidades inscritas en el programa, puede toparse con lo que se denomina la maldicin de las dimensiones. Por ejemplo, si usa solo tres caractersticas importantes para identicar el grupo de comparacin correspondiente, como la edad, el gnero y la regin de nacimiento, es probable que encuentre parejas para todos los inscritos en el programa en el conjunto de no inscritos, pero corre el riesgo de pasar por alto otras caractersticas que pueden ser importantes. Sin embargo, si aumenta la lista de variables e incluye, por ejemplo, el nmero de nios, el nmero de aos de educacin, la edad de la madre, la edad del padre, etctera, es posible que su base de datos no contenga una buena pareja comparable para la mayora de los inscritos en el programa, a menos que cuente con un gran nmero de observaciones. El grco 7.1 ilustra el pareamiento basado en cuatro caractersticas: edad, gnero, meses de empleo y diploma de educacin secundaria. Afortunadamente, la maldicin de las dimensiones se puede resolver con bastante facilidad mediante un mtodo denominado pareamiento de las propensiones a participar (propensity score matching) (Rosenbaum y Rubin, 1983). En este mtodo, ya no se necesita parear cada unidad inscrita con una unidad no inscrita con un valor idntico en todas las caractersticas de control observadas. En cambio, para cada unidad del grupo de tratamiento y del conjunto de no inscritos, se computa la probabilidad o propensin de que participa en el programa mediante los valores observados

Grco 7.1

Pareamiento exacto con cuatro caractersticas

Unidades tratadas
Edad 19 35 41 23 55 27 24 46 33 40 Gnero 1 1 0 1 0 0 1 0 0 1 Meses desempleado 3 12 17 6 21 4 8 3 12 2 Diploma de secundaria 0 1 1 0 1 1 1 0 1 0 Edad 24 38 58 21 34 41 46 41 19 27

Unidades no tratadas
Gnero 1 0 1 0 1 0 0 0 1 0 Meses Diploma desempleado de secundaria 8 1 2 0 7 1 2 1 20 0 17 1 9 0 11 1 3 0 4 0

108

La evaluacin de impacto en la prctica

de sus caractersticas, la denominada puntuacin de la propensin. Esta puntuacin es un nmero real entre 0 y 1 que resume todas las caractersticas observadas de las unidades y su inuencia en la probabilidad de inscripcin en el programa. Una vez que se computa la puntuacin de la propensin de todas las unidades, las unidades del grupo de tratamiento pueden emparejarse con las unidades del conjunto de no inscritos mediante la puntuacin ms prxima1. Estas unidades prximas se convierten en el grupo de comparacin y se usan para estimar el contrafactual. El mtodo de pareamiento mediante la puntuacin de la propensin a participar intenta reproducir la asignacin aleatoria de los grupos de tratamiento y de comparacin mediante la seleccin de las unidades del grupo de comparacin con una propensin similar a la de las unidades del grupo de tratamiento. Dado que el pareamiento mediante la puntuacin de la propensin a participar no es realmente un mtodo de asignacin aleatoria, sino que intenta imitarlo, pertenece a la categora de los mtodos cuasi experimentales. La diferencia de los resultados (Y) entre las unidades de tratamiento o inscritas y sus unidades de comparacin correspondientes constituye el impacto estimado del programa. En resumen, el impacto del programa se estima comparando los resultados promedio de un grupo de tratamiento o inscrito con el resultado promedio de un subgrupo de unidades estadsticamente correspondientes, y el pareamiento se basa en las caractersticas observadas en los datos disponibles. Para que el pareamiento de la puntuacin produzca estimaciones que tengan validez externa, debe lograrse un pareamiento de cada unidad de tratamiento o inscrita con una unidad no inscrita2. Puede ocurrir que para algunas unidades inscritas no se pueda encontrar una unidad no inscrita que tenga puntuacin similar. En trminos tcnicos, puede haber una falta de rango comn, o falta de superposicin, entre las puntuaciones de la propensin del grupo de inscritos (grupo tratamiento) y del conjunto de no inscritos. El grco 7.2 contiene un ejemplo de falta de rango o soporte comn. En primer lugar, se estima la probabilidad de que cada unidad de la muestra se inscriba en el programa mediante las caractersticas observadas, o sea, se calcula la propensin a participar. El grco muestra la distribucin de las propensiones a participar para los inscritos y los no inscritos por separado. Lo que trata de ilustrar el grco es que estas distribuciones no se superponen perfectamente. En la zona media de la distribucin, es relativamente fcil encontrar parejas porque inscritos y no inscritos comparten caractersticas similares. Sin embargo, los inscritos con propensiones cercanas a 1 no pueden corresponderse con ningn no inscrito porque no existen no inscritos con este nivel de puntuacin. Intuitivamente lo que ocurre es que las unidades que tienen alta probabilidad de inscribirse al programa son tan diferentes de las unidades no inscritas que no se puede encontrar una buena pareja para ellas. Por lo tanto, se observa una falta de rango comn en los extremos, o colas, de la distribucin de las puntuaciones.

Pareamiento

109

Grco 7.2

Pareamiento de las propensiones a participar y rango comn

no inscritos

inscritos

densidad

rango comn

puntuacin de la propension

Jalan y Ravallion (2003a) resumen los pasos a seguir cuando se aplica esta tcnica de pareamiento3. Primero, se necesitarn encuestas representativas y muy comparables en las cuales identicar las unidades inscritas en el programa y las no inscritas. Segundo, se utilizan las dos muestras y se estima la probabilidad de que cada persona se inscriba en el programa, mediante las caractersticas individuales observadas en la encuesta. Con este paso se obtiene una puntuacin o propensin a participar. Tercero, se restringe la muestra a las unidades que muestren un rango comn en la distribucin de la puntuacin de la propensin a participar. Cuarto, se localiza un subgrupo de unidades no inscritas con puntuaciones similares para cada unidad inscrita. Quinto, se comparan los resultados de las unidades de tratamiento o inscritas con los de las unidades de comparacin o no inscritas correspondientes. La diferencia de los resultados promedio de estos dos subgrupos es la medida del impacto que se puede atribuir al programa para dicha observacin de los tratados. Sexto, la media de estos impactos individuales constituye el promedio estimado del efecto del programa. En general, es importante recordar dos cuestiones esenciales acerca del pareamiento. Primero, que debe hacerse usando caractersticas de la lnea de base. Segundo, que es ecaz nicamente en la medida en que las caractersticas empleadas sean las adecuadas, por lo que es crucial contar con un gran nmero de caractersticas bsicas.

110

La evaluacin de impacto en la prctica

Uso de tcnicas de pareamiento para seleccionar a hogares no participantes en el Programa de Subsidio del Seguro de Salud
Despus de haber aprendido las tcnicas de pareamiento, vale la pena preguntarse si se podran mejorar las estimaciones que se han realizado previamente del Programa de Subsidio del Seguro de Salud. Ahora, usted decide usar tcnicas de pareamiento para seleccionar a un grupo de hogares inscritos y no inscritos que parecen tener caractersticas observadas similares. Primero, estima la probabilidad de que un hogar se inscriba en el programa en funcin de sus caractersticas observadas (las variables explicativas), como la edad del jefe del hogar y del cnyuge, su nivel de educacin, si el jefe del hogar es una mujer, si los miembros del hogar son indgenas, etc. Como se muestra en el cuadro 7.1, la probabilidad de que un hogar se inscriba al programa es menor si el jefe del hogar tiene ms edad y educacin y es una mujer, o si el hogar cuenta con un bao o gran cantidad de terreno. Por el contrario, ser indgenas, contar con ms miembros y tener un suelo de tierra aumenta la probabilidad de que el hogar se inscriba en el programa. Por lo tanto,

Cuadro 7.1 Estimacin de la puntuacin de la propensin segn caractersticas observadas Variable dependiente: Inscrito = 1 Variables explicativas/caractersticas Edad del jefe del hogar (aos) Edad del cnyuge (aos) Educacin del jefe del hogar (aos) Educacin del cnyuge (aos) Jefe del hogar es mujer = 1 Indgena = 1 Nmero de miembros del hogar Suelo de tierra = 1 Bao = 1 Hectreas de terreno Distancia a un hospital (km) Constante Coeciente 0.022** 0.017** 0.059** 0.030** 0.067 0.345** 0.216** 0.676** 0.197** 0.042** 0.001* 0.664**

Nota: Regresin probit. La variable dependiente equivale a 1 si el hogar est inscrito en el PSSS y 0 en el caso contrario. Los coecientes representan la contribucin de cada variable explicativa/caracterstica a la probabilidad de que un hogar se inscriba en el PSSS. * Signicativo al nivel del 5%; ** signicativo al nivel del 1%.

Pareamiento

111

Cuadro 7.2 Sptimo caso: Impacto del PSSS, pareamiento (comparacin de medias) Hogares pareados/ corresponsales no inscritos 16.1

Hogares inscritos Gasto en salud de los hogares 7 .8

Diferencia 8.3

Estadstica t 13.1

Cuadro 7.3 Sptimo caso: Impacto del PSSS, pareamiento (anlisis de regresin) Regresin lineal multivariante Impacto estimado sobre el gasto en salud de los hogares
Nota: Los errores estndar estn entre parntesis. ** Signicativa al nivel del 1%.

8.3** (0.63)

en general, parece que los hogares ms pobres y con menos educacin tienen ms probabilidades de inscribirse, lo que es positivo para un programa orientado a la poblacin pobre. Ahora que ha estimado la probabilidad de que cada hogar se inscriba en el programa (o sea, la puntuacin de la propensin a inscribirse), limita la muestra a aquellos hogares del grupo de inscritos y no inscritos para los que puede encontrar una pareja en el otro grupo. Para cada unidad inscrita, localiza un subgrupo de unidades no inscritas con puntuaciones similares. El cuadro 7.2 compara el gasto de salud promedio de los hogares inscritos y sus correspondientes parejas no inscritas. Para estimar el impacto estimado mediante el mtodo del pareamiento, debe computarse primero individualmente el impacto para cada hogar inscrito (usando los hogares correspondientes a cada hogar), y luego el promedio de esos impactos individuales. El cuadro 7.3 muestra que el impacto estimado con la aplicacin de este mtodo es una reduccin de US$8,3 en el gasto en salud de los hogares.

PREGUNTA 7

A. Qu supuestos bsicos son necesarios para aceptar el resultado del sptimo caso? B. Compare el resultado del sptimo caso con el del tercero. Por qu cree que son diferentes los resultados? C. De acuerdo con los resultados del sptimo caso, se debera extender el PSSS a nivel nacional?

112

La evaluacin de impacto en la prctica

Aplicacin del mtodo de pareamiento


Aunque la tcnica del pareamiento requiere una cantidad signicativa de datos y tiene otras limitaciones estadsticas, se trata de un mtodo relativamente verstil que se ha empleado para evaluar programas de desarrollo en numerosas situaciones. En los recuadros 7.1 y 7.2 se analizan dos casos ilustrativos.

Limitaciones del mtodo de pareamiento


Aunque los procedimientos de pareamiento pueden aplicarse en muchas situaciones independientemente de las reglas de asignacin del programa, tienen varias deciencias importantes. Primero, requieren grandes bases de datos con grandes

Recuadro 7.1: Efecto del programa de salario garantizado sobre los ingresos en Argentina
Jalan y Ravallion (2003a) usaron tcnicas de pareamiento para evaluar el impacto del programa argentino de salario garantizado Trabajar sobre los ingresos. En 1996-7 el Gobierno argentino, introdujo rpidamente el programa Trabajar en respuesta a la crisis macroeconmica. Al hacerlo no usaron tcnicas de seleccin aleatoria ni recolectaron ningn dato de lnea de base. Por este motivo, los investigadores decidieron usar tcnicas de pareamiento para evaluar el impacto del programa. En este tipo de contexto, el uso de tcnicas de pareamiento tambin hizo posible analizar la variacin del ingreso entre los hogares con respecto a la distribucin del ingreso antes de la intervencin. A mediados de 1997 se realiz una encuesta entre participantes y no participantes con el n de estimar el impacto del programa mediante el pareamiento. Jalan y Ravallion consideraron una serie de 200 caractersticas bsicas (a nivel tanto de los hogares como de las comunidades) que se midieron en la encuesta. Por ejemplo, el clculo de la puntuacin de la propensin mostr que los participantes en el programa eran ms pobres y era ms probable que
Fuente: Jalan y Ravallion, 2003a.

estuvieran casados, que los jefes de hogar fueran hombres y que participaran activamente en asociaciones vecinales. Despus de calcular la propension a participar, los autores limitaron su anlisis a las unidades con puntuaciones dentro del rango comn, donde se superponen las puntuaciones de los participantes y de los no participantes. Por medio del pareamiento de los participantes con sus parejas no participantes ms cercanas dentro del rango comn, y calculando el promedio de las diferencias de ingreso entre todos estos grupos corresponsales, estimaron que el programa generaba un resultado positivo promedio equivalente a cerca de la mitad del salario del programa. Los investigadores comprobaron la robustez de los resultados con varios procedimientos de pareamiento. Sin embargo, hacen hincapi en que sus estimaciones podran estar sesgadas debido a algunas caractersticas no observadas. De hecho, cuando se usan los mtodos de pareamiento, nunca se puede descartar el sesgo provocado por variables no observadas, y esta es la limitacin ms importante de este mtodo.

Pareamiento

113

Recuadro 7.2: Agua corriente y salud infantil en India


Jalan y Ravallion (2003b) emplearon varios mtodos de pareamiento para observar el efecto de tener agua corriente en la India rural sobre la prevalencia y la duracin de la diarrea entre los nios menores de cinco aos. En concreto, los investigadores evaluaron una intervencin para expandir el acceso a agua corriente. El n era entender cmo pueden variar los resultados en funcin de determinadas circunstancias de los hogares, como el ingreso y el nivel de educacin. Es difcil detectar este impacto porque tambin puede depender de aportes particulares a la salud por parte de los padres que afectan tambin la incidencia de la diarrea, como que hiervan el agua, ofrezcan una buena nutricin o usen sales orales para la rehidratacin cuando un nio est enfermo. Los investigadores usaron datos de una gran encuesta realizada en 1993-4 por el National Council of Applied Economic Research de India que contena informacin sobre el estado de la salud y la educacin de 33 000 hogares rurales
Fuente: Jalan y Ravallion, 2003b.

de 16 estados de India. Este cuantioso conjunto de datos permiti a los investigadores usar el pareamiento a nivel tanto individual como comunitario, emparejando los grupos de tratamiento y de comparacin en funcin de la probabilidad de que reciban agua corriente a travs de la campaa nacional. La evaluacin detect que contar con agua corriente reduca la incidencia de la diarrea: en ausencia de agua corriente la prevalencia de la diarrea sera un 21% superior y su duracin un 29% ms larga. Sin embargo, estos impactos no se observan en los grupos de ingreso bajo a menos que la mujer del hogar tenga un nivel educativo superior a educacin primaria. De hecho, Jalan y Ravallion observaron que los impactos sobre la salud del agua corriente son ms grandes y signicativos en los hogares con mujeres con un mayor nivel educativo. El estudio demuestra la necesidad de combinar inversiones en infraestructura, como el agua corriente, con otros programas para mejorar la educacin y reducir la pobreza.

muestras, e incluso cuando se dispone de estas, puede producirse una falta de rango o soporte comn entre el grupo de tratamiento o inscrito y el grupo de no participantes. Segundo, el pareamiento solo se puede realizar en funcin de las caractersticas observadas: por denicin, no se pueden incorporar caractersticas no observadas al clculo de la puntuacin de la propensin. Por lo tanto, para que el procedimiento de pareamiento identique a un grupo de comparacin vlido, es necesario asegurarse de que no existen diferencias sistemticas entre las caractersticas no observadas de las unidades de tratamiento y las unidades de comparacin pareadas4 que pudieran inuir en el resultado (Y). Dada la incapacidad de demostrar que no existen dichas diferencias no observadas que afecten tanto a la participacin como a los resultados, se debe suponer su inexistencia. Se trata normalmente de una suposicin de mucho peso, as que aunque el pareamiento ayuda a tener en cuenta las caractersticas bsicas observadas, no se puede descartar nunca el sesgo generado por las caractersticas no observadas. En resumen, la suposicin de que no se ha producido un sesgo a causa de las caractersticas no observadas tiene mucho peso, y lo que es ms problemtico, no puede comprobarse.
114
La evaluacin de impacto en la prctica

El pareamiento es generalmente menos robusto que los otros mtodos de evaluacin que se han analizado. Por ejemplo, los mtodos de seleccin aleatoria no requieren la suposicin imposible de comprobar de que no existen variables no observadas que expliquen la participacin en el programa y los resultados. Tampoco requieren muestras tan grandes ni caractersticas bsicas tan numerosas como el pareamiento. En la prctica, los mtodos de pareamiento se emplean a menudo cuando no es posible utilizar los mtodos de seleccin aleatoria, el diseo de regresin discontinua ni diferencias en diferencias. Muchos autores recurren al denominado pareamiento ex post cuando no se dispone de datos de lnea de base sobre el resultado de inters o sobre las caractersticas bsicas. Usan una encuesta realizada despus del comienzo del programa (es decir, posterior) para deducir las caractersticas bsicas de las unidades en la lnea de base (por ejemplo, edad, estado civil), y despus establecen pareamientos entre el grupo de tratamiento y un grupo de comparacin mediante estas caractersticas deducidas. Por supuesto, esto acarrea riesgos: pueden establecerse pareamientos basados en caractersticas afectadas tambin por el programa, con lo que el resultado de la estimacin sera invlido o sesgado. Por el contrario, cuando se dispone de datos de lnea de base, el pareamiento basado en las caractersticas bsicas puede ser de gran ayuda cuando se combina con otras tcnicas, por ejemplo, la de diferencias en diferencias, que tiene en cuenta la heterogeneidad invariable en el tiempo y no observada. El pareamiento tambin resulta ms til cuando se conoce la regla de asignacin del programa, en cuyo caso se puede aplicar el pareamiento segn esa regla (vase el captulo 8). A esta altura, los lectores deberan tener claro que las evaluaciones de impacto se disean mejor antes del comienzo de la ejecucin de un programa. Una vez que el programa ha comenzado, si no hay manera de inuir en la forma de asignarlo y no se han recabado datos de lnea de base, se dispondr de muy pocas opciones slidas, o ninguna, para realizar una evaluacin de impacto.

Notas
1. En la prctica, se usan muchas deniciones de lo que constituye la puntuacin ms cercana o ms prxima para el pareamiento. Las contrapartes o parejas ms cercanas pueden denirse mediante estraticacin la identicacin de los vecinos ms prximos a la unidad de tratamiento, en base a la distancia, dentro de un radio establecido de la puntuacin de la propensin o mediante tcnicas basadas en ncleos (kernel). La comprobacin de la robustez de los resultados del pareamiento mediante algoritmos de pareamiento es considerada una buena prctica. 2. El anlisis del pareamiento de este libro se centra en el pareamiento entre unidades singulares. No se examinarn otros varios tipos de pareamiento, como el pareamiento entre una y muchas unidades o el pareamiento sustitutivo/no sustitutivo. No obstante, en todos los casos se aplica el marco conceptual descrito en este captulo.
Pareamiento

115

3. Rosenbaum (2002) presenta un anlisis detallado del pareamiento. 4. Para los lectores con conocimientos de econometra, esto signica que la participacin es independiente de los resultados, teniendo en cuenta las caractersticas bsicas empleadas para el pareamiento.

Referencias
Jalan, Jyotsna y Ravallion, Martin. 2003a. Estimating the Benet Incidence of an Antipoverty Program by Propensity-Score Matching. Journal of Business & Economic Statistics 21 (1): 19-30. . 2003b. Does Piped Water Reduce Diarrhea for Children in Rural India?. Journal of Econometrics 112 (1): 153-73. Rosenbaum, Paul. 2002. Observational Studies. 2. ed. Springer Series in Statistics. Nueva York: Springer. Rosenbaum, Paul y Rubin, Donald. 1983. The Central Role of the Propensity Score in Observational Studies of Causal Effects. Biometrika 70 (1): 41-55.

116

La evaluacin de impacto en la prctica

CAPTULO 8

Combinacin de mtodos
La mayora de los mtodos de evaluacin solo producen estimaciones vlidas del contrafactual con supuestos especcos. El principal riesgo de cualquier mtodo es que sus supuestos fundamentales no sean vlidos, lo que genera estimaciones sesgadas del impacto del programa evaluado. Esta seccin examina estas cuestiones metodolgicas y analiza algunas de las estrategias disponibles para reducir el riesgo de sesgo. Dado que este riesgo se deriva principalmente de las desviaciones respecto de los supuestos fundamentales, se abordar la cuestin de cmo vericar dichos supuestos. En la evaluacin de impacto puede comprobarse la validez de los supuestos fundamentales. Esta peculiaridad la distingue de otros mtodos cuya validez no puede ser vericada directamente y en los que, por este motivo, se emplean varias de las denominadas pruebas de falsacin para mejorar la conanza en la validez de sus supuestos fundamentales. Las pruebas de falsacin son como las pruebas de estrs: no superarlas indica claramente que los supuestos fundamentales del mtodo no son vlidos en dicho contexto particular. No obstante, su superacin solo conrma tentativamente los supuestos: uno nunca puede estar totalmente seguro de su validez. El recuadro 8.1 contiene una lista de control para las pruebas de vericacin y falsacin que pueden emplearse al evaluar si un mtodo es apropiado en el contexto de su evaluacin. La lista de control contiene preguntas prcticas que pueden responderse analizando los datos de lnea de base.

117

Recuadro 8.1: Lista de control para las pruebas de vericacin y falsacin


Asignacin aleatoria RLa asignacin aleatoria es el mtodo ms robusto para la estimacin de contrafactuales y se considera la regla de oro de la evaluacin de impacto. No obstante, se deben considerar algunas pruebas bsicas para comprobar la validez de esta estrategia de evaluacin en el contexto examinado. Hay equilibrio en las caractersticas bsicas? Compare las caractersticas bsicas del grupo de tratamiento con las del grupo de comparacina. Se ha producido algn incumplimiento de la asignacin? Compruebe que todas las unidades elegibles hayan recibido el tratamiento y que las unidades no elegibles no lo hayan recibido. Si se producen incumplimientos, utilice el mtodo de la oferta aleatoria (o variables instrumentales). Los nmeros de unidades en los grupos de tratamiento y de comparacin son sucientemente grandes? De lo contrario, puede combinar la asignacin aleatoria con diferencias en diferencias. promocin de la campaa y las que no la recibieron? Compare las caractersticas bsicas de los dos grupos. La campaa de promocin afecta sustancialmente a la participacin en el programa? Debera hacerlo; compare las tasas de participacin en el programa entre las muestras con y sin promocin. La campaa de promocin afecta directamente a los resultados? No debera ocurrir. Normalmente esto no puede comprobarse directamente, por lo que es necesario conar en la teora y el sentido comn para orientarse.

Diseo de regresin discontinua El diseo de regresin discontinua (DRD) requiere que el ndice de elegibilidad sea continuo en torno al umbral establecido y que las unidades prximas a dicho umbral sean comparables. El ndice es continuo en torno al umbral establecido en el momento de la lnea de base? Se ha producido algn incumplimiento del umbral para el tratamiento? Compruebe que todas las unidades elegibles y no elegibles hayan recibido el tratamiento. En caso de incumplimiento, tendr que combinar el DRD con tcnicas ms avanzadas para corregir esta discontinuidad difusa (fuzzy discontinuity)b.

Oferta aleatoria En caso de que se presente incumplimiento en la asignacin aleatoria, utilice el mtodo de la oferta aleatoria. Hay equilibrio en las caractersticas bsicas? Compare las caractersticas bsicas de las unidades a las que se ha ofrecido el programa y las unidades a las que no se ha ofrecido el programa.

Promocin aleatoria La promocin aleatoria genera estimaciones vlidas del contrafactual si la campaa de promocin aumenta sustancialmente la participacin en el programa sin afectar directamente a los resultados de inters. Existe equilibrio entre las caractersticas bsicas de las unidades que recibieron la

Diferencias en diferencias El mtodo de diferencias en diferencias supone que las tendencias de los resultados antes de la intervencin son similares en los grupos de comparacin y de tratamiento y que, aparte del programa, los factores que explican las diferencias de resultados entre los dos grupos son jas a lo largo del tiempo. Los resultados habran cambiado simultneamente en los grupos de tratamiento y de comparacin en ausencia del programa? Esto puede determinarse mediante varias pruebas de falsacin, como las siguientes: 1)
(contina)

118

La evaluacin de impacto en la prctica

Box 8.1 continuacin

Los resultados de los grupos de tratamiento y de comparacin progresan simultneamente antes de la intervencin? Si se dispone de dos rondas de datos antes del comienzo del programa, compruebe si se observa alguna diferencia en las tendencias entre los dos grupos. 2) Qu ocurre con los resultados falsos que no deben verse afectados por el programa? Progresan simultneamente en los grupos de tratamiento y de comparacin antes y despus del comienzo de la intervencin? Realice el anlisis de diferencias en diferencias usando varios grupos plausibles de comparacin. Debera obtener estimaciones similares del impacto del programa Realice el anlisis de diferencias en diferencias usando los grupos de tratamiento y de comparacin que haya elegido, y un resultado falso que no debera verse afectado por el programa. Debera observar un impacto nulo del programa sobre dicho resultado. Realice el anlisis de diferencias en diferencias usando un resultado variable que haya seleccionado con dos grupos que sepa que no se han visto afectados por el programa. Debera observar un impacto nulo del programa.

Pareamiento El pareamiento (o emparejamiento) se basa en el supuesto de que las unidades inscritas y no inscritas son similares en trminos de cualquier variable no observada que pudiera afectar a la probabilidad de participar en el programa y el resultado (Y ). La participacin en el programa depende de variables que no pueden observarse? Esto no se puede comprobar directamente, por lo que es necesario conar en la teora y en el sentido comn para orientarse. Las caractersticas observadas estn bien equilibradas entre los subgrupos pareados? Compare las caractersticas observadas de cada grupo de tratamiento y las unidades correspondientes del grupo de comparacin. Se puede encontrar una unidad correspondiente de comparacin para cada unidad de tratamiento? Compruebe si existe suciente correspondencia en la distribucin de las propensiones a participar. Un nivel reducido de correspondencia indica que las personas inscritas y no inscritas son muy diferentes, y esto genera dudas acerca de la credibilidad del mtodo de pareamiento.

a. Como se seal anteriormente, por razones estadsticas no todas las caractersticas observadas tienen que ser similares en los grupos de tratamiento y de comparacin para que la seleccin aleatoria se realice con xito. Incluso cuando las caractersticas de los dos grupos son verdaderamente idnticas, se puede esperar que alrededor del 5% de las caractersticas muestren una diferencia estadstica signicativa cuando se usa un nivel de conanza del 95% para la prueba. b. Aunque esta tcnica no se analizar en detalle, los lectores pueden estar interesados en saber que se puede combinar el DRD con un mtodo de variables instrumentales. En este caso, se usara la ubicacin a cada lado del umbral como una variable instrumental para la participacin real en el programa en la primera fase de una estimacin de mnimos cuadrados en dos fases.

Combinacin de mtodos
A pesar de que todos los mtodos de evaluacin corren el riesgo de estar sesgados, a veces se puede reducir el riesgo mediante una combinacin de mtodos. Al combinar mtodos, frecuentemente se aumenta la solidez de la estimacin del contrafactual.
Combinacin de mtodos

119

El pareamiento con diferencias en diferencias (pareamiento con DD) es un ejemplo de mtodos combinados. Como se seal anteriormente, la simple correspondencia en la distribucin de la puntuacin de la propensin no puede tener en cuenta las caractersticas no observadas que podran explicar las razones por las que un grupo decide inscribirse en un programa y que tambin podran afectar a los resultados. Por el contrario, el pareamiento combinado con diferencias en diferencias puede tener en cuenta al menos cualquier caracterstica no observada entre los dos grupos que se mantenga constante en el tiempo. Se aplica de la siguiente manera: Primero se realiza el pareamiento a partir de las caractersticas bsicas observadas (como se explica en el captulo 7). Segundo, se aplica el mtodo de diferencias en diferencias para estimar un contrafactual para el cambio en los resultados en cada subgrupo de unidades emparejadas. Finalmente, se obtiene la media de estas diferencias dobles entre los subgrupos emparejados. El recuadro 8.2 da un ejemplo de una evaluacin que us el mtodo de pareamiento con diferencias en diferencias. Diferencias en diferencias con diseo de regresin discontinua (DD DRD) es un segundo ejemplo de mtodos combinados. Recuerde que el DRD simple supone que las unidades a ambos lados del umbral de elegibilidad son muy similares. En la medida en que se mantengan algunas diferencias entre las unidades a cada lado del umbral, la agregacin de diferencias en diferencias nos permite tener en cuenta las diferencias en las caractersticas no observadas que no varan a lo largo del tiempo. Se puede implementar la DD DRD considerando la doble diferencia en los resultados para las unidades a ambos lados del umbral de elegibilidad.

Imperfeccin del cumplimiento


La imperfeccin del cumplimiento es la discrepancia entre la situacin prevista del tratamiento y la situacin real del tratamiento. Se ha analizado este concepto en relacin con la asignacin aleatoria pero, en realidad, la imperfeccin del cumplimiento puede ser un problema de muchos mtodos de evaluacin de impacto. Antes de poder interpretar las estimaciones del impacto generadas con cualquier mtodo, tiene que saber si se ha producido una imperfeccin del cumplimiento en el programa. La imperfeccin del cumplimiento se maniesta de dos maneras: (1) algunas unidades designadas para el tratamiento pueden no recibirlo, por lo que el conjunto de unidades que s lo reciben (cumplidores) es menor que el grupo de tratamiento; y (2) algunas unidades designadas para la comparacin pueden recibir tratamiento. La imperfeccin del cumplimiento puede producirse de diversas maneras: No todos los participantes previstos participan realmente en el programa. A veces, algunas unidades a las que se ofrece el programa deciden no participar. No se ofrece el programa a algunos participantes previstos debido a errores administrativos o de ejecucin.
120
La evaluacin de impacto en la prctica

Recuadro 8.2: Pareamiento con diferencias en diferencias


Suelos de cemento, salud infantil y felicidad materna en Mxico
El programa Piso Firme de Mxico ofrece a los hogares con suelos de tierra la instalacin de hasta 50 metros cuadrados de suelo de cemento. Piso Firme comenz como un programa local en el estado de Coahuila, pero despus fue adoptado a nivel nacional. Cattaneo y otros (2009) aprovecharon la variacin geogrca para evaluar el impacto de esta iniciativa a gran escala de mejora de las viviendas sobre la salud y el bienestar. Los investigadores usaron el mtodo de diferencias en diferencias junto con el emparejamiento para comparar los hogares de Coahuila con hogares similares en el estado vecino de Durango, que an no haba implementado el proyecto cuando se realiz el estudio. Para mejorar la comparabilidad entre los grupos de tratamiento y de comparacin, los investigadores limitaron su muestra a los hogares de ciudades vecinas a cada lado de la frontera entre los dos estados. Extrajeron su muestra de las manzanas de las dos ciudades con caractersticas ms similares antes de la intervencin, basndose en el censo de 2002. UAl usar el ofrecimiento de un suelo de cemento como una variable instrumental para determinar si los hogares contaban realmente con un suelo de cemento, los investigadores obtuvieron el tratamiento en tratados a partir de la intencin de tratar y observaron que el programa haba generado una reduccin del 18,2% en la presencia de parsitos, una disminucin del 12,4% en la prevalencia de la diarrea y una reduccin del 19,4% en la
Fuente: Cattaneo y otros, 2009.

prevalencia de la anemia. Es ms, pudieron usar la variabilidad en la supercie de suelo cubierta realmente con cemento para predecir que la sustitucin total de los suelos de tierra por suelos de cemento en cada hogar provocara una reduccin del 78% en las infecciones parasitarias, del 49% en la incidencia de la diarrea y del 81% en el caso de la anemia, y una mejora de entre el 36% y el 96% en el desarrollo cognitivo. Los autores tambin recopilaron datos sobre el bienestar de los adultos y observaron que los suelos de cemento hacen ms felices a las madres, con aumentos en la satisfaccin declarada con su vivienda y con su calidad de vida del 69% y del 45%, respectivamente, y con una reduccin del 45% en los niveles de depresin y estrs percibidos. Los autores concluyeron que Piso Firme tiene un impacto absoluto sobre el desarrollo cognitivo de los nios superior y menos costoso que el programa a gran escala de transferencias monetarias condicionadas, Oportunidades/Progresa, y que otros programas comparables de complementacin de la nutricin y estmulo cognitivo de la primera infancia. Los suelos de cemento previnieron tambin ms infecciones parasitarias que el tratamiento habitual contra los parsitos. Los autores sealan la probabilidad de que los programas de sustitucin de suelos de tierra por suelos de cemento mejoren la salud infantil de manera costo-efectiva en contextos semejantes.

Combinacin de mtodos

121

Se ofrece el programa por error a algunas unidades del grupo de comparacin, que se inscriben en l. Algunas unidades del grupo de comparacin logran participar en el programa a pesar de que no se les ofrece. Esto se denomina a veces contaminacin del grupo de comparacin. Si la contaminacin afecta a una gran parte del grupo de comparacin, no se puede obtener estimaciones no sesgadas del contrafactual. El programa se asigna a partir de una puntuacin continua de priorizacin, pero no se aplica estrictamente el umbral de elegibilidad. Se produce una migracin selectiva en funcin de la situacin del tratamiento. Por ejemplo, es posible usar el mtodo de diferencias en diferencias para comparar los resultados de los municipios tratados y no tratados, pero las personas pueden decidir trasladarse a otro municipio si no les gusta la situacin del tratamiento en su municipio. En general, cuando hay imperfeccin del cumplimiento, los mtodos normales de evaluacin del impacto producen estimaciones de la intencin de tratar. Sin embargo, se pueden obtener estimaciones del tratamiento en tratados a partir de las estimaciones de la intencin de tratar mediante el mtodo de variables instrumentales. En el captulo 4 se explic la intuicin bsica para abordar la imperfeccin del cumplimiento en el contexto de la asignacin aleatoria. Mediante un ajuste del porcentaje de cumplidores en la muestra de evaluacin, se pudo recuperar el impacto del tratamiento en los tratados a partir de la estimacin de la intencin de tratar. El ajuste puede extenderse a otros mtodos a travs de la aplicacin de un mtodo ms general de variables instrumentales. La variable instrumental ayuda a eliminar, o corregir, el sesgo que puede derivarse de la imperfeccin en el cumplimiento. En el caso de la oferta aleatoria, se usa una variable cticia 0/1 (dummy) que equivale a 1 si la unidad estaba asignada originalmente al grupo de tratamiento, y a 0 si estaba originalmente asignada al grupo de comparacin. Durante la fase de anlisis, la variable instrumental se usa con frecuencia en el contexto de una regresin en dos fases que permite identicar el impacto del tratamiento sobre los cumplidores. La lgica del mtodo de la variable instrumental puede aplicarse al contexto de otros mtodos de evaluacin: En el contexto del diseo de regresin discontinua, utilice una variable cticia que indique si la unidad se encuentra en el lado no elegible o elegible del umbral. En el contexto de diferencias en diferencias y la migracin selectiva, una posible variable para localizar a la persona despus del comienzo del programa sera la ubicacin de dicha persona antes del anuncio del programa.

122

La evaluacin de impacto en la prctica

A pesar de la posibilidad de ajustar la imperfeccin en el cumplimiento mediante variables instrumentales, es importante recordar dos cuestiones: 1. Desde un punto de vista tcnico, no es deseable que una gran parte del grupo de comparacin se inscriba en el programa. Los evaluadores y los encargados de formular polticas involucrados en la evaluacin del impacto deben colaborar para que esta fraccin sea mnima. 2. El mtodo de la variable instrumental solo es vlido en ciertas circunstancias; no se trata denitivamente de una solucin universal.

Efecto de derrame
Incluso cuando no se ofrece directamente el programa al grupo de comparacin, este puede verse indirectamente afectado por el efecto derrame del grupo de tratamiento. Kremer y Miguel (2004) analizan un ejemplo interesante en su estudio del impacto de la administracin de medicamentos antiparasitarios a nios en escuelas keniatas (recuadro 8.3). Las lombrices intestinales son parsitos que pueden transmitirse entre personas a travs del contacto con materia fecal contaminada. Cuando un nio recibe medicina antiparasitaria, disminuye su carga de parsitos, pero tambin la de las personas que viven en el mismo entorno, dado que ya no entrarn en contacto con los parsitos de ese nio. Por lo tanto, en el ejemplo de Kenya, cuando la medicina se administra a los nios en una escuela, se benecia no solo a dichos nios (benecio directo) sino tambin a los de las escuelas vecinas (benecio indirecto). Como se muestra en el grco 8.1, el tratamiento antiparasitario en las escuelas del grupo A tambin disminuye el nmero de parsitos que afectan a las escuelas del grupo B, que no participan en el programa pero estn ubicadas cerca de las escuelas del grupo A. Sin embargo, las escuelas que no participan en el programa y estn ms lejos de las escuelas del grupo A (las denominadas escuelas del grupo C) no experimentan dicho efecto de derrame, ya que los medicamentos administrados en el grupo A no matan a ninguno de los parsitos que afectan al grupo C. Kremer y Miguel (2004) observaron que el tratamiento antiparasitario redujo signicativamente el absentismo escolar no solo en las escuelas del programa (al comparar el grupo A con el grupo C) sino tambin en las escuelas cercanas a ellas (al comparar el grupo B con el grupo C). Dado que se producen derrames, es importante que el evaluador compruebe que no afectan a todo el grupo de comparacin. Siempre que queden sucientes unidades de comparacin no afectadas por los derrames (el grupo C en el ejemplo del tratamiento antiparasitario), podr estimar el impacto del programa comparando los resultados de las unidades de tratamiento con los resultados de las

Combinacin de mtodos

123

Recuadro 8.3: Trabajar con derrames


Tratamiento antiparasitario, externalidades y educacin en Kenya
La organizacin neerlandesa sin nes de lucro International Child Support Africa, en cooperacin con el Ministerio de Salud de Kenya, llevaron a cabo un proyecto de tratamiento antiparasitario en las escuelas primarias del distrito de Busia, Kenya, con nes de explorar la efectividad de varias opciones de tratamiento y prevencin de lombrices intestinales. El proyecto cont con la participacin de 75 escuelas con una matriculacin total de ms de 30 000 estudiantes de entre 6 y 18 aos. Los estudiantes fueron tratados con medicamentos antiparasitarios, de acuerdo con las recomendaciones de la Organizacin Mundial de la Salud, y tambin recibieron educacin para prevenir los parsitos en forma de charlas sobre salud, psteres y capacitacin de profesores. Dadas las limitaciones administrativas y nancieras, el programa se fue ejecutando por orden alfabtico: el primer grupo de 25 escuelas empez en 1998, el segundo grupo en 1999 y el tercero en 2001. Mediante una seleccin aleatoria de las escuelas, Kremer y Miguel (2004) pudieron estimar el impacto del tratamiento en una escuela e identicar los derrames a otras escuelas utilizando una variacin exgena de la cercana entre las escuelas de control y las de tratamiento. Aunque el cumplimiento del diseo aleatorio fue relativamente alto (el 75% de los nios asignados al tratamiento recibieron medicamentos antiparasitarios, y solo un pequeo porcentaje de los nios del grupo de comparacin recibieron tratamiento), los investigadores tambin pudieron aprovechar el incumplimiento para determinar las externalidades de salud
Fuente: Kremer y Miguel, 2004.

dentro de las escuelas, o los derrames. Kremer y Miguel (2004) observaron que el efecto de las externalidades dentro de la escuela equivali a una reduccin del 12% en la proporcin de infecciones parasitarias moderadas a graves, mientras que el efecto directo adicional de tomar realmente los medicamentos contra los parsitos supuso alrededor de 14 puntos porcentuales adicionales. Adems, en trminos de externalidades entre escuelas, la asistencia de un millar de estudiantes ms a una escuela con tratamiento se asoci con una disminucin del 26% de las infecciones moderadas a graves. Estos efectos sobre la salud tambin produjeron un aumento de la participacin escolar de al menos el 7% y redujeron al menos en una cuarta parte el absentismo. En las calicaciones de los exmenes el impacto hallado no fue signicativo. Teniendo en cuenta el costo tan bajo del tratamiento antiparasitario y los efectos relativamente altos sobre la salud y la educacin, los investigadores concluyeron que el tratamiento antiparasitario es una manera relativamente costo-efectiva de mejorar las tasas de participacin en las escuelas. Este estudio demuestra que las enfermedades tropicales como los parsitos pueden desempear un papel signicativo en los resultados educativos y refuerza el argumento de que la alta carga de enfermedades en frica puede estar contribuyendo a su bajo nivel de ingresos. Por lo tanto, los autores arman que el estudio justica claramente los subsidios pblicos para el tratamiento de enfermedades con benecios secundarios similares en los pases en desarrollo.

unidades puras de comparacin. Un aspecto negativo es que la evaluacin no podr generalizar los efectos estimados del tratamiento a toda la poblacin. Si, en la fase de diseo, prev que el programa tendr efecto de derrame, puede adaptar el diseo de la evaluacin para producir mejores resultados. Primero, el diseo tiene que identicar un grupo puro de comparacin para que sea posible

124

La evaluacin de impacto en la prctica

Grco 8.1

Efecto de derrame

Grupo de tratamiento
Grupo A

Grupo de comparacin puro


Grupo C

Grupo B

Grupo sin tratamiento afectado por los derrames

generalizar el impacto estimado del programa. Segundo, el diseo tambin debe posibilitar la estimacin de la magnitud del efecto de derrame mediante la identicacin de un grupo de comparacin que experimentar probablemente este efecto. De hecho, los propios derrames son interesantes para las polticas porque constituyen impactos indirectos del programa. El grco 8.1 muestra cmo se puede estimar tanto el impacto de un programa como el efecto derrame. El grupo A recibe los medicamentos. Los medicamentos tienen un efecto derrame sobre el grupo B. El grupo C est ms lejos y, por lo tanto, no recibe el efecto derrame de los medicamentos. Este diseo puede obtenerse asignando aleatoriamente el tratamiento entre dos unidades cercanas y una unidad similar ms alejada. En este marco sencillo, el impacto del programa puede estimarse comparando los resultados del grupo A con los resultados del grupo C, y el efecto derrame se puede estimar comparando los resultados del grupo B con los del grupo C.

Consideraciones adicionales
Adems de la imperfeccin del cumplimiento y el efecto derrame, tambin hay que considerar otros factores en el diseo de una evaluacin de impacto. Estos factores son comunes en la mayora de las metodologas que se han analizado, y suele ser ms difcil mitigarlos1.

Combinacin de mtodos

125

Cuando planee una evaluacin, debe determinar el momento adecuado para la recoleccin de datos. Si hace falta cierto tiempo para que un programa tenga un impacto sobre los resultados, recolectar datos demasiado pronto har que se observe un impacto nulo del programa (vase, por ejemplo, King y Behrman, 2009). Por el contrario, si la encuesta de seguimiento se ejecuta demasiado tarde, no podr capturar los efectos del programa a tiempo para informar a los responsables de formular polticas. En los casos en que quiera estimar el impacto tanto a corto como a largo plazo de un programa, ser necesario recopilar varias rondas de datos antes y despus de la intervencin. El captulo 10 ofrece orientaciones adicionales acerca de los mejores plazos para las evaluaciones. Si est estimando el impacto de un programa sobre todo un grupo, sus resultados pueden encubrir algunas diferencias en las respuestas al tratamiento entre diferentes beneciarios. La mayora de los mtodos de evaluacin de impacto suponen que un programa afecta a los resultados para todas las unidades de la poblacin de manera simple y lineal. Sin embargo, pueden surgir problemas cuando el tamao de la respuesta no guarda una relacin lineal con el tamao de la intervencin, o cuando se compara un grupo con alta intensidad de tratamiento con un grupo con baja intensidad de tratamiento. Si cree que diversas subpoblaciones han experimentado el impacto de un programa de manera muy diferente, puede considerar contar con muestras distintas para cada subpoblacin. Por ejemplo, si quisiera conocer el impacto de un programa de almuerzos escolares sobre las nias y solo el 10% de los estudiantes fueran de sexo femenino, incluso una muestra aleatoria cuantiosa podra no contener un nmero suciente de nias como para estimar el impacto del programa sobre ellas. En ese caso, al disear su evaluacin podra estraticar la muestra en funcin del gnero e incluir un nmero suciente de nias para detectar una dimensin especca del efecto. Al evaluar el impacto, tambin puede generar respuestas no intencionadas en el comportamiento de la poblacin que est estudiando, lo que puede limitar la validez de los resultados de la evaluacin. Por ejemplo, el efecto Hawthorne se produce cuando el simple efecto de observar unidades las hace comportarse de manera diferente (Levitt y List, 2009). El efecto John Henry se produce cuando las unidades de comparacin se esfuerzan ms para compensar que no les han ofrecido tratamiento. La anticipacin puede generar otro tipo de efecto no intencionado en la conducta. En una aleatorizacin a fases, las unidades del grupo de comparacin pueden esperar recibir el programa en el futuro, y empiezan a cambiar su conducta antes de que aparezca realmente el programa. Si tiene razones para creer que habr este tipo de respuestas no intencionadas en la conducta, una opcin posible es crear grupos de comparacin adicionales que no estn afectados en absoluto por la intervencin, lo que le permite de hecho comprobar explcitamente esas respuestas.

126

La evaluacin de impacto en la prctica

Un plan alternativo para la evaluacin


En ocasiones, aunque tenga el mejor diseo de la evaluacin de impacto y las mejores intenciones, las cosas no salen exactamente como tena previsto. En la experiencia reciente de un programa de formacin para el empleo, el organismo ejecutor tena previsto seleccionar aleatoriamente a los participantes entre un conjunto de solicitantes, partiendo de una supuesta inscripcin excesiva al programa. Dado el alto nivel de desempleo en la poblacin designada, se anticip que el conjunto de solicitantes al programa de formacin para el empleo iba a ser muy superior al nmero de plazas disponibles. Desafortunadamente, la publicidad del programa no fue tan ecaz como se esperaba y, al nal, el nmero de participantes fue ligeramente inferior al nmero de plazas disponibles. Al no contar con un exceso de inscritos para extraer un grupo de comparacin, ni un plan alternativo, se tuvo que abandonar la intencin inicial de evaluar el programa. Este tipo de situacin es habitual, al igual que los cambios imprevistos en el contexto operativo o poltico de un programa. Por lo tanto, resulta til contar con un plan alternativo por si la metodologa elegida inicialmente no funciona. En la tercera parte de este libro se analizan con ms detalle los aspectos operativos y polticos de la evaluacin. Desde el punto de vista metodolgico, tambin es una buena prctica planear el uso de varios mtodos de evaluacin del impacto. Si cree que uno de los mtodos que est empleando an genera sesgos, podr comprobar los resultados mediante otro mtodo. Cuando un programa se implementa en una aleatorizacin a fases (vase el captulo 10), el grupo de comparacin se incorporar eventualmente al programa. Esto limita el plazo durante el cual el grupo de comparacin puede utilizarse para la evaluacin. Sin embargo, si adems de la asignacin aleatoria se aplica tambin una promocin aleatoria, se contar con un grupo de comparacin durante toda la duracin del programa. Antes de la incorporacin del ltimo grupo asignado, existirn dos grupos de comparacin alternativos (el de asignacin aleatoria y el de promocin aleatoria), aunque, a ms largo plazo, solo quedar el grupo de comparacin de promocin aleatoria.

Nota
1. En el captulo 3 se analizan otras causas de la limitacin de la validez externa relacionadas con los sesgos de los muestreos y los derivados de la diferencia en la disminucin natural de los grupos de tratamiento y de comparacin.

Combinacin de mtodos

127

Referencias
Cattaneo, Matas; Galiani, Sebastin; Gertler, Paul; Martnez, Sebastin y Titiunik, Roco. 2009. Housing, Health and Happiness. American Economic Journal: Economic Policy 1 (1): 75-105. King, Elizabeth M. y Behrman, Jere R. 2009. Timing and Duration of Exposure in Evaluations of Social Programs. World Bank Research Observer 24 (1): 55-82. Kremer, Michael y Miguel, Edward. 2004. Worms: Identifying Impacts on Education and Health in the Presence of Treatment Externalities. Econometrica 72 (1): 159-217. Levitt, Steven D. y List, John A. 2009. Was There Really a Hawthorne Effect at the Hawthorne Plant? An Analysis of the Original Illumination Experiments. NBER Working Paper 15016. National Bureau of Economic Research, Cambridge, MA.

128

La evaluacin de impacto en la prctica

CAPTULO 9

Evaluacin de programas multifacticos


Hasta ahora, se han analizado programas con un solo tipo de tratamiento. Sin embargo, muchas cuestiones relevantes relacionadas con las polticas se plantean en programas multifacticos, es decir, que combinan varias opciones de tratamiento1. Los responsables de formular polticas pueden estar interesados en saber no solo si el programa funciona o no, sino tambin si funciona mejor o tiene un costo menor que otro programa. Por ejemplo, si se quiere aumentar la asistencia a la escuela, es ms ecaz orientar las intervenciones a la demanda (como transferencias monetarias a las familias) o a la oferta (como mayores incentivos para los profesores)? Y si se introducen las dos intervenciones conjuntamente, funcionan mejor que cada una por su cuenta?, son complementarias? Si la costo-efectividad es una prioridad, puede preguntarse perfectamente cul es el nivel ptimo de los servicios que debe prestar el programa. Por ejemplo, cul es la duracin ptima de un programa de formacin para el empleo? Un programa de seis meses contribuye ms que otro de solo tres a que los participantes encuentren empleo? De ser as, la diferencia es lo sucientemente grande para justicar los recursos adicionales necesarios? Adems de estimar simplemente el impacto de una intervencin sobre un resultado de inters, las evaluaciones de impacto pueden ayudar a responder preguntas ms generales, como las siguientes: Cul es el impacto de un tratamiento en comparacin con otro? Por ejemplo, cul es el impacto sobre el desarrollo cognitivo de los nios de un programa que ofrece capacitacin a los padres, en comparacin con una intervencin sobre nutricin?

129

El impacto conjunto de un primer y un segundo tratamiento es mayor que la suma de cada uno de los dos impactos? Por ejemplo, el impacto de la intervencin de capacitacin de padres y la intervencin sobre nutricin es mayor, menor o igual que la suma de los efectos de cada una de las intervenciones? Cul es el impacto de un tratamiento de alta intensidad en comparacin con un tratamiento de menor intensidad? Por ejemplo, cul es el efecto sobre el desarrollo cognitivo de nios con retraso en el crecimiento si un trabajador social visita su hogar cada dos semanas, a diferencia de visitarlo una vez al mes? Este captulo ofrece ejemplos de diseos de evaluaciones del impacto para dos tipos de programas multifacticos: los que tienen varios niveles del mismo tratamiento y los que tienen varios tratamientos. Primero se analiza la manera de disear una evaluacin de impacto de un programa con varios niveles de servicio y despus se examina la manera de desentraar los diferentes tipos de impactos de un programa con mltiples tratamientos. Para este anlisis se supone que se usarn mecanismos de asignacin aleatoria, aunque puede generalizarse a otros mtodos.

Evaluacin de programas con diferentes niveles de tratamiento


Disear una evaluacin de impacto para un programa con niveles variables de tratamiento es relativamente fcil. Imagine que intenta evaluar el impacto de un programa con dos niveles de tratamiento: alto (por ejemplo, visitas cada dos semanas) y bajo (visitas mensuales). Usted quiere evaluar el impacto de ambas opciones, y saber cunto afectan las visitas adicionales a los resultados. Para ello, puede organizar un sorteo para decidir quin recibe el alto nivel de tratamiento, quin recibe el bajo nivel de tratamiento y quin se asigna al grupo de comparacin (vase el grco 9.1). Como es usual en la asignacin aleatoria, en el primer paso se dene la poblacin de unidades elegibles para su programa. El segundo paso consiste en seleccionar una muestra aleatoria de unidades que se incluirn en la evaluacin, la denominada muestra de evaluacin. Una vez que tenga la muestra de evaluacin, en el tercer paso asignar aleatoriamente unidades al grupo que recibe un alto nivel de tratamiento, el grupo que recibe el bajo nivel de tratamiento o el grupo de comparacin. Como resultado de la asignacin aleatoria a mltiples niveles de tratamiento, habr creado tres grupos distintos:

130

La evaluacin de impacto en la prctica

Grco 9.1

Pasos para la asignacin aleatoria de dos niveles de tratamiento

El grupo A, que no recibe tratamiento alguno y es el grupo de comparacin. El grupo B, que recibe el nivel bajo de tratamiento. El grupo C, que recibe el nivel alto de tratamiento. Cuando se implementa correctamente, la asignacin aleatoria garantiza que los tres grupos son similares. Por lo tanto, puede estimar el impacto del nivel alto de tratamiento mediante la comparacin del resultado promedio del grupo C con el resultado promedio del grupo A. Tambin puede estimar el nivel bajo de tratamiento mediante la comparacin del resultado promedio del grupo B con el del grupo A. Finalmente, puede evaluar si el nivel alto de tratamiento tiene un mayor impacto que el nivel bajo de tratamiento comparando los resultados promedio de los grupos B y C. La estimacin del impacto de un programa con ms de dos niveles de tratamiento seguir la misma lgica. Si existen tres niveles de tratamiento, el proceso de asignacin aleatoria crear tres grupos de tratamiento diferentes, adems de un grupo de comparacin. En general, con n niveles de tratamiento, habr n grupos de tratamiento, ms un grupo de comparacin. Cuando la asignacin aleatoria no es viable, se deben usar otros mtodos de evaluacin. Afortunadamente, todos los mtodos descritos hasta ahora pueden analizar el impacto relativo de diferentes niveles de tratamiento. Por ejemplo, suponga que est interesado en evaluar el impacto de la variacin del monto de dinero que se ofrece a los estudiantes en un programa de becas destinado a aumentar la matriculacin en la educacin secundaria. Se ofrece una beca

Evaluacin de programas multifacticos

131

de US$60 a 25 estudiantes con las mejoras calicaciones de cada escuela al nal de la educacin primaria, y se ofrece una beca de US$45 a los 25 estudiantes con la segunda calicacin. Los estudiantes con calicaciones ms bajas en las escuelas no reciben ninguna beca. En este contexto, se puede usar un diseo de regresin discontinua para comparar las calicaciones de los estudiantes no solo alrededor del umbral de los US$45, sino tambin alrededor del umbral de los US$60. Filmer y Schady (2009) presentaron los resultados de este tipo de evaluacin en Camboya, en la que no hallaron evidencias de que la beca de US$60 aumentara la matriculacin ms que la beca de US$45.

Evaluacin de mltiples tratamientos con diseos cruzados


Adems de comparar varios niveles de tratamiento, tambin puede comparar opciones de tratamiento totalmente diferentes. De hecho, los responsables de formular polticas preeren comparar los mritos relativos de diferentes intervenciones, ms que conocer solo el impacto de una intervencin. Imagine que quiere evaluar el impacto sobre la matriculacin escolar de un programa con dos intervenciones, transferencias monetarias condicionadas a las familias de los estudiantes y transporte gratuito en autobs a la escuela. Puede que quiera conocer el impacto de cada intervencin por separado, y tambin si la combinacin de las dos es mejor que la suma de los efectos individuales. Desde el punto de vista de los participantes, el programa est disponible en tres formas diferentes: solo transferencias monetarias condicionadas, solo transporte gratuito en autobs o una combinacin de transferencias y transporte. La asignacin aleatoria para un programa con dos intervenciones es muy similar al proceso para un programa con una sola intervencin. La principal diferencia es la necesidad de organizar varios sorteos independientes, en lugar de uno. Esto produce un diseo cruzado, a veces tambin llamado diseo transversal. En el grco 9.2 se lo ilustra. Como en el caso anterior, en el primer paso se dene la poblacin de unidades elegibles. El segundo paso consiste en la seleccin de una muestra aleatoria de unidades elegibles para formar la muestra de evaluacin. Una vez obtenida la muestra de evaluacin, en el tercer paso se asignan aleatoriamente sus unidades a un grupo de tratamiento y a un grupo de control. En el cuarto paso, se hace un segundo sorteo para asignar aleatoriamente una subserie del grupo de tratamiento para que reciba la segunda intervencin. Finalmente, se realiza otro sorteo para asignar una subserie del grupo de control inicial para que reciba la segunda intervencin, mientras que la otra subserie se mantiene como un conjunto puro de control. Como consecuencia de la asignacin aleatoria de dos tratamientos habr creado cuatro grupos, como se muestra en el grco 9.3:

132

La evaluacin de impacto en la prctica

Grco 9.2

Pasos para la asignacin aleatoria de dos intervenciones

El grupo A recibe ambas intervenciones (transferencias monetarias y transporte en autobs). El grupo B recibe la primera intervencin pero no la segunda (solo transferencias de monetarias). El grupo C no recibe la primera intervencin pero s la segunda (solo el transporte en autobs). El grupo D no recibe ni la primera ni la segunda intervencin y constituye el grupo de comparacin puro. Cuando se implementa correctamente, la asignacin aleatoria garantiza que los cuatro grupos son similares. Por lo tanto, puede estimar el impacto de la primera intervencin comparando el resultado del grupo B con el resultado del grupo puro de comparacin, el grupo D. Tambin puede estimar el impacto de la segunda intervencin comparando el resultado del grupo C con el resultado del grupo de comparacin puro. Adems, este diseo tambin permite comparar el impacto progresivo de recibir la segunda intervencin cuando una unidad ya ha recibido la primera. La comparacin de los resultados del grupo A y del grupo B determinar el impacto de la segunda intervencin para aquellas unidades que ya han recibido la primera intervencin, y la comparacin de los resultados de los grupos A y C determinar el impacto de la primera intervencin para aquellas unidades que ya han recibido la segunda intervencin.

Evaluacin de programas multifacticos

133

Grco 9.3 Grupos de tratamiento y de comparacin para un programa con dos intervenciones

En la descripcin anterior se ha usado el ejemplo de la asignacin aleatoria para explicar la manera de disear una evaluacin de impacto para un programa con dos intervenciones diferentes. Cuando un programa cuenta con ms de dos intervenciones, se puede aumentar el nmero de sorteos y continuar subdividiendo la evaluacin para formar grupos que reciben las diversas combinaciones de intervenciones. Tambin se pueden implementar mltiples tratamientos y mltiples niveles de tratamiento. Aunque aumente el nmero de grupos, la teora fundamental del diseo sigue siendo la misma que la descrita anteriormente. Sin embargo, la evaluacin de ms de una o dos intervenciones generar dicultades prcticas tanto para la evaluacin como para el funcionamiento del programa, ya que la complejidad del diseo incrementar exponencialmente el nmero de ramas de tratamiento. Para evaluar el impacto de una sola intervencin se necesitan dos grupos: uno de tratamiento y otro de comparacin. Para evaluar el impacto de dos intervenciones se necesitan cuatro grupos: tres de tratamiento y uno de comparacin. Si fuera a evaluar el impacto de tres intervenciones, incluidas todas las combinaciones posibles entre ellas, necesitara 2 2 2 = 8 grupos en la evaluacin. En general, en el caso de una evaluacin que vaya a incluir todas las

134

La evaluacin de impacto en la prctica

Recuadro 9.1: Puesta a prueba de programas alternativos para la prevencin del VIH/sida en Kenya
Duo y otros (2006) usaron un diseo transversal para evaluar el impacto de una serie de programas de prevencin del VIH/sida en dos distritos rurales del oeste de Kenya. El estudio se bas en una muestra de 328 escuelas, que se dividieron en seis grupos, como se muestra en el cuadro adjunto que resume el diseo del programa. Cada grupo recibi una combinacin diferente y asignada aleatoriamente de tres tratamientos. Los tratamientos incluyeron un programa de capacitacin de profesores para mejorar la capacidad de enseanza del programa nacional de estudios sobre VIH/sida, debates en las escuelas sobre el papel de los condones y concursos de ensayo sobre la prevencin, y reduccin del costo de la educacin mediante la provisin de uniformes escolares gratuitos a los estudiantes (vase el cuadro).

Resumen del diseo del programa Reduccin del costo de la educacin (primavera de 2003 y otoo de 2004)

Grupo 1 2 3 4 5 6

Nmero de escuelas 88 41 42 83 40 40

Debate sobre condones Fortalecimiento y ensayos Programa de la capacidad (primavera nacional de los profesores de 2005) S S S S S S

S S S S S S S S

Los investigadores observaron que, despus de dos aos, el programa de capacitacin de profesores haba tenido poco impacto sobre el conocimiento de los estudiantes, la actividad sexual declarada, el uso de condones o los embarazos adolescentes, pero s mejor la enseanza del programa nacional de estudios. Los debates y el concurso de ensayos aumentaron el conocimiento y el uso declarados sobre los condones, sin aumentar la actividad sexual declarada. Finalmente, la reduccin del costo de la educacin mediante la provisin de uniformes escolares redujo tanto las tasas de abandono como los embarazos adolescentes. Por consiguiente, los investigadores concluyeron que la provisin de uniformes escolares result ms ecaz para la reduccin de los embarazos adolescentes que la capacitacin de profesores acerca del programa nacional de estudios sobre VIH/sida.
Fuente: Duo y otros, 2006.

Evaluacin de programas multifacticos

135

Recuadro 9.2: Puesta a prueba de programas alternativos para el control de la corrupcin en Indonesia
En Indonesia, Olken (2007) us un diseo transversal innovador para poner a prueba diferentes mtodos para controlar la corrupcin, desde una estrategia de vigilancia de arriba a abajo a una supervisin comunitaria ms de base. Us una metodologa de asignacin aleatoria en ms de 600 comunidades que estaban construyendo carreteras como parte de un proyecto nacional de mejora de la infraestructura. Uno de los tratamientos mltiples consisti en seleccionar aleatoriamente algunas comunidades para informarles de que su proyecto de construccin iba a ser auditado por un funcionario pblico. A continuacin, para poner a prueba la participacin comunitaria en la supervisin, los investigadores implementaron dos intervenciones. Distribuyeron invitaciones a reuniones comunitarias para la rendicin de cuentas, y repartieron formularios para presentar comentarios de manera annima. Para medir los niveles de corrupcin, un equipo independiente de ingenieros y topgrafos tom muestras bsicas de las nuevas carreteras, estim el costo de los materiales usados y compar sus clculos con los presupuestos presentados. Olken observ que el incremento de las auditoras pblicas (con una probabilidad de resultar auditado de alrededor del 4% a un 100%) redujo la prdida de gastos en unos 8 puntos porcentuales (con respecto al 24%). El aumento de la participacin comunitaria en la supervisin tuvo un impacto sobre la prdida de mano de obra pero no sobre la prdida de gastos. Los formularios para comentarios solo fueron ecaces cuando se distribuyeron entre los nios en la escuela para que se los entregaran a sus familias, y no cuando los distribuyeron los lderes comunitarios.
Fuente: Olken, 2007 .

combinaciones posibles entre n intervenciones, se necesitarn 2n grupos. Adems, para poder distinguir los resultados de los grupos, cada cual requiere un nmero suciente de unidades de observacin para garantizar una potencia estadstica suciente. De hecho, la deteccin de diferencias entre las ramas de la intervencin puede exigir muestras ms grandes que la comparacin entre un grupo de tratamiento y un grupo de comparacin puro. Si las dos ramas de tratamiento logran provocar cambios en los resultados deseados, pueden ser necesarias muestras ms grandes para detectar las posibles diferencias menores entre los dos grupos. Finalmente, los diseos cruzados tambin se pueden incorporar a los diseos de evaluaciones que combinan varios mtodos de evaluacin (recuadros 9.1 y 9.2). Las normas operativas que guan la asignacin de cada tratamiento determinarn qu combinacin de mtodos debe usarse. Por ejemplo, es posible que el primer tratamiento se asigne en funcin de una puntuacin de la elegibilidad, y el segundo de manera aleatoria. En ese caso, se puede usar un diseo de la discontinuidad de la regresin para la primera intervencin y un mtodo de asignacin aleatoria para la segunda.
136
La evaluacin de impacto en la prctica

Nota
1. Vase Banerjee y Duo (2009) para un anlisis ms detallado.

Referencias
Banerjee, Abhijit y Duo, Esther. 2009. The Experimental Approach to Development Economics. Documento de trabajo de la NBER 14467. National Bureau of Economic Research, Cambridge, MA. Duo, Esther; Dupas, Pascaline; Kremer, Michael y Sinei, Samuel. 2006. Education and HIV/AIDS Prevention: Evidence from a Randomized Evaluation in Western Kenya. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 402. Banco Mundial, Washington, DC. Filmer, Deon y Schady, Norbert. 2009. School Enrollment, Selection and Test Scores. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 4998. Banco Mundial, Washington, DC. Olken, Benjamin. 2007. Monitoring Corruption: Evidence from a Field Experiment in Indonesia. Journal of Development Economics 115 (2): 200-49.

Evaluacin de programas multifacticos

137

Tercera parte

CMO IMPLEMENTAR UNA EVALUACIN DE IMPACTO


En la primera parte del libro, se analizaron las razones para emprender una evaluacin de impacto, y cundo vale la pena hacerlo. Las evaluaciones deben disearse para responder preguntas esenciales sobre la formulacin de polticas pblicas, por ejemplo para negociar presupuestos o para decidir la expansin de un programa de nutricin, el incremento de los benecios de un programa de becas o una reforma hospitalaria. Los objetivos y las preguntas de la evaluacin deben derivarse directamente de las preguntas de las polticas pblicas. Una evaluacin necesitar una teora del cambio, como por ejemplo, una cadena de resultados, que le permitir a su vez elegir los indicadores adecuados. En la segunda parte de este libro, se describi una serie de mtodos que se pueden utilizar para evaluar el impacto de los programas y se analizaron sus ventajas e inconvenientes con ejemplos. La tercera parte de este libro se centra en los pasos operativos de la administracin de una evaluacin de impacto. Estos pasos sern las piezas bsicas que

permitirn estimar el efecto causal del programa y responder a las preguntas formuladas por una evaluacin de impacto. Se han agrupado en cuatro fases: hacer operativo el diseo de la evaluacin, elegir una muestra, recolectar los datos y producir y divulgar los resultados. El grco P3.1 muestra su secuencia, y los captulos 10 a 13 se ocupan de cada una de las cuatro fases. En el captulo 10, se analizan los componentes esenciales para hacer operativo el diseo de la evaluacin. Es decir, se examinarn los planes de implementacin del programa y se elegir un diseo apropiado para la evaluacin. Antes de implementar la evaluacin, debe conrmarse que el diseo propuesto es tico. Una vez que esto est claro, se debe formar un equipo para la evaluacin, elaborar un presupuesto e identicar las fuentes de nanciamiento. En el captulo 11 se analiza cmo hacer el muestreo y cmo determinar el tamao de la muestra. En el captulo 12 se examinan los pasos para recolectar datos. Considerando las preguntas a las que se desea responder, y como el diseo de la evaluacin, se debe determinar qu datos pueden obtenerse de fuentes existentes y qu tipo de datos se necesitan. Debe contarse con un cuestionario adecuado para recoger la informacin que se necesita recopilar. Una vez hecho esto, se debe contratar a una institucin privada o gubernamental especializada en recoleccin de datos. Dicha institucin reclutar y capacitar al personal de campo y comprobar que el cuestionario funcione correctamente en el terreno. Despus de hacer los ajustes necesarios, la institucin podr proceder con el trabajo de campo. Finalmente, los datos que se recolecten deben digitarse o procesarse y validarse antes de ser usados. El captulo 13 trata las fases nales de la evaluacin. Se describen los productos que aporta una evaluacin, el contenido de los informes de evaluacin y se ofrecen algunas directrices sobre la manera de divulgar los resultados entre los responsables de polticas pblicas y otras partes interesadas.

140

La evaluacin de impacto en la prctica

Grco P3.1 Hoja de ruta para la implementacin de una evaluacin de impacto

Preparar la evaluacin (primera parte)

Decidir qu evaluar Objetivos, preguntas de polticas pblicas Desarrollar hiptesis/teora del cambio/cadena de resultados Elegir indicadores

Hacer operativo el diseo de la evaluacin (cap. 10)

Elegir un diseo para la evaluacin Confirmar que el diseo de la evaluacin es tico Formar un equipo de evaluacin Definir el cronograma de la evaluacin Preparar el presupuesto para la evaluacin

Decidir el tamao de la muestra Decidir la estrategia de muestreo

Elegir la muestra (cap. 11)

Recolectar datos (cap. 12)

Decidir qu tipo de datos se necesita recolectar Contratar la institucin encargada de la recoleccin de datos Crear el cuestionario Hacer una prueba piloto del cuestionario Realizar el trabajo de campo Procesar y validar los datos

Producir y divulgar los resultados (cap. 13)

Analizar los datos Redactar el informe Discutir los resultados con los responsables de polticas pblicas Divulgar los resultados

141

CAPTULO 10

Hacer operativo el diseo de la evaluacin


En la segunda parte, se describieron metodologas para crear grupos de comparacin vlidos para la evaluacin. A partir de estos grupos de comparacin, se puede estimar el impacto causal de un programa. Ahora se considerarn los aspectos prcticos de la eleccin del mtodo de evaluacin. Las reglas operativas de un programa resultan determinantes para generar grupos de comparacin y elegir la mejor metodologa de evaluacin.

Elegir un mtodo de evaluacin de impacto


La clave para estimar el impacto causal es encontrar un grupo de comparacin vlido. En la segunda parte, se describieron mtodos para obtener grupos de comparacin vlidos, entre ellos la asignacin aleatoria, la promocin aleatoria, el diseo de regresin discontinua, el mtodo de diferencias en diferencias y el mtodo de pareamiento. En este captulo se considerar qu mtodo emplear en cada situacin. El principio fundamental es que las reglas operativas de un programa determinan qu mtodo es ms idneo, y que dichas reglas pueden y deben condicionar el mtodo de evaluacin elegido, y no a la inversa. La evaluacin no debe cambiar drsticamente los elementos esenciales de una intervencin en aras de un diseo ms claro. Concepto clave:
Las reglas operativas de un programa determinan qu mtodo de evaluacin de impacto se puede aplicar, y no a la inversa.

143

La asignacin aleatoria suele ser el mtodo preferido por los evaluadores. Cuando se implementa adecuadamente, hace que las caractersticas observadas y no observadas de los grupos de tratamiento y de comparacin sean comparables, con un riesgo bajo de sesgo. Dado que la asignacin aleatoria es bastante intuitiva, requiere un uso limitado de tcnicas economtricas y permite estimar un efecto promedio del tratamiento para la poblacin de inters. Tambin, facilita comunicar los resultados con claridad a los responsables de polticas pblicas. Sin embargo, los diseos aleatorios no siempre son factibles, especialmente cuando entran en conicto con las reglas operativas del programa. Las reglas operativas ms pertinentes para el diseo de la evaluacin son las que determinan los criterios de elegibilidad del programa y la manera como se selecciona a los participantes. Los grupos de comparacin debern provenir de aquellas unidades o individuos que sean elegibles pero que no se incorporan al programa (por ejemplo, cuando existe un exceso de demanda) o las que se encuentran cerca del umbral de elegibilidad. Para encontrar grupos de comparacin vlidos es necesario que las reglas que determinan la elegibilidad y la seleccin de los beneciarios sean equitativas, transparentes y estn sujetas a rendicin de cuentas. Principios de las reglas de focalizacin Casi siempre se pueden encontrar grupos de comparacin vlidos si las reglas operativas para seleccionar los beneciarios son equitativas, transparentes y estn sujetas a rendicin de cuentas. Los criterios de focalizacin equitativos clasican o priorizan la elegibilidad mediante indicadores comnmente acordados basados en las necesidades de los individuos, en otras ocasiones ofrecen el programa a todos, o todos tienen la misma posibilidad de que se les ofrezca el programa. Los criterios de focalizacin transparentes son pblicos, para que la sociedad civil los acepte implcitamente y compruebe que se siguen realmente. Las reglas transparentes deben ser cuanticables y fciles de observar. Las reglas operativas son responsabilidad de los funcionarios del programa, quienes estn sujetos a rendicin de cuentas, a veces incluso para determinar las compensaciones de los funcionarios. Como se explicar ms adelante, las reglas equitativas se traducen en la mayora de los casos en diseos de evaluaciones basados en asignacin aleatoria o diseo de regresin discontinua. La transparencia y la rendicin de cuentas garantizan que los criterios de focalizacin sean cuantitativamente vericables y se implementen realmente de acuerdo con su diseo. Cuando las reglas operativas violan estos tres principios de buen gobierno, se presentan dicultades tanto para el buen diseo de un programa como para la evaluacin.

Concepto clave:
Casi siempre se pueden encontrar grupos de comparacin vlidos si las reglas operativas del programa para la seleccin de beneciarios son equitativas, transparentes y estn sujetas a rendicin de cuentas.

144

La evaluacin de impacto en la prctica

Las reglas operativas de elegibilidad son transparentes y estn sujetas a rendicin de cuentas cuando se emplean criterios cuanticables que pueden ser vericados externamente, y se hacen pblicos. Estos principios de buen gobierno mejoran las probabilidades de que un programa benecie a la poblacin objetivo y son tambin la clave del xito de una evaluacin. Si las reglas no son cuanticables ni vericables, el equipo de evaluacin tendr dicultades para asegurarse de que la asignacin a los grupos de tratamiento y de comparacin ocurra segn lo dispuesto y para documentar cmo ocurri realmente. Si los evaluadores no pueden comprobar cmo se realiz la asignacin, tampoco podrn analizar correctamente los datos para calcular el impacto. Entender las reglas de asignacin de un programa es esencial para identicar el mtodo adecuado para evaluar su impacto.

Reglas operativas de focalizacin Las reglas operativas determinan normalmente en qu consisten los benecios del programa, cmo se nancian y distribuyen, y cmo se selecciona a los beneciarios. Las reglas que gobiernan el nanciamiento del programa y la incorporacin de beneciarios son esenciales para denir los grupos de comparacin vlidos. Las reglas que rigen la incorporacin al programa se ocupan de la elegibilidad, de los criterios de asignacin cuando los recursos son limitados, y del orden de incorporacin de los beneciarios. Las reglas principales que sirven como hoja de ruta para los grupos de comparacin responden a tres preguntas operativas fundamentales relacionadas con el la nanciacin, la focalizacin y la calendarizacin: 1. Financiacin: Cuenta el programa con sucientes recursos para llegar a escala y atender a todos los beneciarios elegibles? Los Gobiernos y las organizaciones no gubernamentales no siempre disponen de suciente dinero para ofrecer servicios a todas las personas que son elegibles o solicitan benecios. En esos casos, el Gobierno debe decidir quines reciben los benecios del programa y quines quedan excluidos. Muchas veces, los programas se limitan a regiones geogrcas especcas, reas rurales o pequeas comunidades, a pesar de que pueda haber beneciarios elegibles en otras regiones o comunidades ms grandes. 2. Reglas de focalizacin: Quin es elegible para los benecios del programa? El programa est focalizado en funcin de un umbral de elegibilidad o est a disposicin de todos? La escuela primaria y la atencin primaria a la salud se ofrecen normalmente de manera universal. Muchos otros programas usan reglas operativas de focalizacin basadas en una clasicacin continua con un lmite o umbral denido. Por ejemplo, los programas de pensiones establecen una edad por encima de la cual las personas se vuelven elegibles. Los programas de transferencias monetarias condicionadas suelen clasicar a los hogares en funcin de su nivel estimado de pobreza, y los hogares que se encuentran por debajo de un umbral predeterminado se consideran elegibles.

Hacer operativo el diseo de la evaluacin

145

3. Calendarizacin: Cmo se incorporan durante el transcurso del programa los posibles beneciarios: todos al mismo tiempo o por fases? Muchas veces, las limitaciones administrativas y de recursos impiden que un Gobierno ofrezca inmediatamente el programa a todas las unidades elegibles. Si se expande el programa con el tiempo, debe decidirse quin recibe primero los benecios y quin se incorpora ms tarde. Un mtodo habitual es expandir el programa geogrcamente, incorporando a todos los beneciarios de una comunidad o regin antes de pasar a la siguiente. Identicar y priorizar beneciarios Una cuestin operativa fundamental es la manera de seleccionar a los beneciarios, que es la clave para identicar los grupos de comparacin vlidos. Estos se encuentran normalmente entre las poblaciones elegibles que se incorporan ms tarde al programa o entre las poblaciones no elegibles. La manera de priorizar a los beneciarios depende en parte de los objetivos del programa. Se trata de un programa de pensiones para los ancianos, un programa de alivio de la pobreza destinado a los pobres o un programa de inmunizacin accesible para todos? Para priorizar a los beneciarios, el programa debe elegir un indicador cuanticable y vericable. Una vez que se ha acordado uno, la manera de aplicarlo depender sobre todo de la capacidad del Gobierno para medir y clasicar la necesidad. Si este puede clasicar con precisin a los beneciarios en funcin de sus necesidades relativa, se puede sentir ticamente obligado a expandir el programa de acuerdo con las necesidades. Sin embargo, la clasicacin basada en la necesidad no solo requiere una medida cuanticable, sino tambin la capacidad y los recursos para medir dicho indicador para cada individuo. En ciertos casos, la elegibilidad puede basarse en un indicador continuo cuya medicin es barata y fcil, como la edad para las pensiones. Por ejemplo, el umbral de los 70 aos es sencillo de medir y fcil de aplicar. No obstante, muchas veces el indicador de elegibilidad no clasica la necesidad relativa de la poblacin. Por ejemplo, una persona de 69 aos no necesita menos una pensin que una de 70 aos, o una de 75 aos no siempre necesita una pensin ms que una de 72 aos. En este caso, el programa puede identicar a la poblacin elegible, pero no puede clasicar fcilmente la necesidad relativa de la poblacin elegible. Otros programas usan criterios que, en principio, se podran usar tanto para determinar la elegibilidad como para clasicar la necesidad relativa. Por ejemplo, muchos programas estn dirigidos a personas pobres, aunque los indicadores que clasiquen ablemente a los hogares como pobres o no pobres suelen ser difciles y costosos de medir. La recoleccin de datos sobre ingresos o consumo de los beneciarios potenciales para clasicarlos por nivel de pobreza es compleja y costosa. Muchos programas usan algn tipo de test de tipo proxy mean para estimar los niveles de pobreza. Los proxy mean tests consisten en ndices de medidas sencillas, como los activos y las caractersticas sociodemogrcas (Grosh y otros, 2008). Los proxy

146

La evaluacin de impacto en la prctica

mean tests pueden sufrir de errores de medicin, su implementacin es costosa y no siempre permiten una clasicacin precisa de la situacin socioeconmica o la necesidad de recibir el programa, especialmente en la parte ms baja de la distribucin de la pobreza. Ayudan a determinar con razonable acierto si un hogar se encuentra por encima o por debajo de un cierto umbral, pero pueden ser menos precisos a la hora de identicar la distancia del umbral. Su uso permite a los programas identicar a los pobres elegibles, pero no siempre a clasicar su necesidad. En lugar de enfrentarse al costo y la complejidad de clasicar los hogares, muchos programas deciden usar mecanismos de focalizacin a un nivel superior de agregacin, como a nivel comunitario. La suposicin fundamental es que los hogares dentro de las comunidades son bsicamente homogneos, que la gran mayora de la poblacin es probablemente elegible y que el costo de identicar y excluir a los no elegibles hace que no valga la pena clasicar a todos los hogares. En este caso, todas las unidades dentro de una comunidad seran elegibles. Aunque esta estrategia funciona para las pequeas comunidades rurales, es menos adecuada cuando los programas se trasladan a zonas urbanas, que son ms heterogneas. La focalizacin a nivel agregado tiene ventajas operativas obvias, pero con frecuencia no anula la necesidad de clasicar a cada beneciario en funcin de cierto indicador objetivo y cuanticable de la necesidad. Cuando el organismo que nancia un programa decide no clasicar los beneciarios potenciales por necesidad, porque el proceso es demasiado costoso y propenso a errores, se deben usar otros criterios para decidir cmo secuenciar la expansin del programa. La equidad es un criterio congruente con los principios del buen gobierno. Una regla equitativa consistira en ofrecer a todos los elegibles la misma oportunidad de entrar primero al programa y asignar aleatoriamente el orden de ingreso en el programa entre los posibles beneciarios. Se trata de una regla de asignacin justa y equitativa, que tambin produce un diseo aleatorio de evaluacin, con validez interna y externa. De las reglas operativas a los grupos de comparacin En el cuadro 10.1 se presentan qu grupos de comparacin son posibles de acuerdo con las caractersticas del programa, a las reglas operativas y a las tres preguntas fundamentales sobre nanciacin, focalizacin y calendarizacin, formuladas anteriormente. Las columnas se dividen en funcin de si el programa cuenta o no con recursos sucientes para atender a todos los beneciarios elegibles (nanciacin) y se subdividen entre programas focalizados o con cobertura universal (focalizacin). Las las se dividen en programas implementados o expandidos en fases y programas de implementacin inmediata (calendarizacin). En cada celda se mencionan los posibles mtodos para obtener grupos de comparacin vlidos. Cada celda se nombra primero segn su la (A, B) y luego segn la columna (1-4). As, la celda A1 se ubica en la primera la y primera columna del cuadro, y reere a los programas con recursos limitados, focalizados y desarrollados en fases.

Hacer operativo el diseo de la evaluacin

147

Cuadro 10.1 Relacin entre las reglas operativas de un programa y los mtodos de evaluacin de impacto FINANCIACIN Sin exceso de demanda del programa (recursos sucientes) ndice continuo de focalizacin y umbral (3) CELDA A3 Asignacin aleatoria en fases (3.1) DRD (4) Sin ndice continuo de focalizacin y umbral (4) CELDA A4 Asignacin aleatoria en fases (3.1) Promocin aleatoria para participacin temprana (3.2) DD con (5) Pareamiento (6) CELDA B1 Asignacin aleatoria (3.1) Implementacin inmediata (B) DRD (4) CELDA B2 Asignacin aleatoria (3.1) Promocin aleatoria (3.2) DD con (5) Pareamiento (6) CELDA B3 DRD (4) CELDA B4 Si la participacin no es plena: Promocin aleatoria (3.2) DD con (5) Pareamiento (6)

Exceso de demanda del programa (recursos limitados) ndice continuo de focalizacin y umbral (1) CELDA A1 Sin ndice continuo de focalizacin y umbral (2) CELDA A2 Asignacin aleatoria (3.1) Promocin aleatoria (3.2) DD con (5) Pareamiento (6)

FOCALIZACIN

CALENDARIZACIN

Asignacin aleatoria (3.1) Expansin en fases a lo largo del tiempo (A) DRD (4)

Nota: El nmero entre parntesis reere al captulo del libro en el que se analiza el mtodo. DRD = diseo de regresin discontinua; DD = diferencias en diferencias.

La mayora de los programas requieren implementarse o expandirse en fases debido a restricciones de nanciamiento o limitaciones logsticas y administrativas. Esta categora de programas cubre la primera la del cuadro: A1, A2, A3 y A4. En este caso, la regla operativa equitativa, transparente y sujeta a rendicin de cuentas consiste en ofrecer a todos la misma posibilidad de participar en la primera, segunda, tercera y siguientes fases del programa, lo que implica una aleatorizacin a fases.

148

La evaluacin de impacto en la prctica

Cuando los recursos son limitados (celdas A1 y A2, y B1 y B2), puede aparecer muy pronto un exceso de demanda. En este caso, una alternativa viable puede ser realizar un sorteo para decidir cules de las unidades elegibles participan en el programa. As todos conservan la misma probabilidad de beneciarse. Un sorteo es una regla operativa equitativa, transparente y sujeta a rendicin de cuentas. Otra categora de programas son los que se implementan o expanden en fases y en los que los administradores pueden clasicar a los posibles beneciarios en funcin de la necesidad (celdas A1 y A3). Si los criterios para priorizar a los beneciarios son cuantitativos y accesibles, y tienen un umbral de elegibilidad, el programa puede usar un diseo de regresin discontinua. Otra categora amplia incluye a los programas con capacidad administrativa para implementarse inmediatamente, es decir las celdas B1, B2, B3 y B4. Cuando el programa cuenta con recursos nancieros limitados y no puede clasicar a los beneciarios (B2), se puede usar una asignacin aleatoria basada en el exceso de demanda. Si el programa cuenta con recursos sucientes para llegar a expandirse y no se usan criterios de focalizacin (B4), el nico mtodo es la promocin aleatoria, partiendo de la suposicin de que no todas las unidades elegibles deciden participar al programa. Si el programa puede clasicar a los beneciarios y est focalizado, se puede recurrir al diseo de regresin discontinua. Determinar la escala mnima de intervencin Las reglas operativas tambin determinan la escala mnima de intervencin. La escala de intervencin es en la que se ejecuta un programa. Por ejemplo, si se implementa un programa de salud a nivel de distrito, todas las comunidades del distrito recibirn el programa (en conjunto) o no lo recibirn. Algunos programas se pueden implementar ecientemente a nivel de unidades o individuos, hogares o instituciones, mientras que otros deben ejecutarse a nivel de comunidad o distrito administrativo. Implementar una intervencin en uno de estos niveles superiores (por ejemplo, provincia o estado) puede ser problemtico para la evaluacin por tres razones principales: 1. El tamao de la muestra de evaluacin y el costo de la evaluacin aumentan con la escala de la intervencin. 2. Conforme aumenta la escala, es ms difcil encontrar un nmero suciente de unidades para incluirlas en la evaluacin. 3. Hay ms probabilidades de poner en riesgo la validez externa de la evaluacin con unidades de intervencin a gran escala. La evaluacin de intervenciones implementadas a niveles superiores requiere muestras ms grandes y ser ms costosa que las intervenciones a nivel inferior1. El nivel de intervencin dene la unidad de asignacin de los grupos de tratamiento y de comparacin, lo que incide en el tamao de la muestra de evaluacin y su costo. Las intervenciones implementadas a niveles superiores necesitan una muestra ms grande para detectar el impacto del programa. La intuicin en la que se basa esta armacin se analizar en el captulo 11, que examina los clculos de potencia y la manera de establecer el tamao de la muestra de evaluacin.
Hacer operativo el diseo de la evaluacin

149

Otra cuestin es que con altos niveles de agregacin se diculta conseguir grupos de tratamiento y de comparacin comparables. Intuitivamente, si un programa se implementa a nivel de provincias y el pas solo tiene seis, es improbable que la seleccin aleatoria alcance a generar grupos comparables. Sera muy poco probable que las provincias del grupo de tratamiento fueran similares a las del grupo de comparacin, aunque hubiera un gran nmero de hogares dentro de cada provincia. La clave para generar grupos comparables es la cantidad de unidades que son asignadas a los grupos de tratamiento y control, y no el nmero total de personas u hogares en la muestra. El tercer problema de las intervenciones a gran escala es que tienen ms probabilidad de que las diferencias en los cambios a lo largo del tiempo comprometan la validez interna de la seleccin aleatoria, aunque las caractersticas de los grupos sean comparables en la lnea de base. Considrese nuevamente la utilizacin de provincias en el nivel de intervencin para un programa de seguro de salud. La evaluacin asigna aleatoriamente un conjunto de provincias al grupo de tratamiento y otro al de comparacin. Supngase que por azar ambos grupos sean comparables en la lnea de base, es decir, que los hogares en las provincias de los grupos de tratamiento y de comparacin tengan, en general, el mismo nivel de gastos mdicos directos. Despus de recolectar los datos de lnea de base, algunas provincias pueden implementar otras polticas de salud, como programas de inmunizacin o de agua y saneamiento, que mejoran el estado de salud de la poblacin y reducen, por lo tanto, la demanda de atencin mdica y el gasto directo en salud. Si estos cambios en las polticas no se distribuyen de manera comparable entre los grupos de comparacin y de tratamiento, el impacto del seguro de salud sobre el gasto directo se confundir con el cambio en otras polticas sanitarias provinciales. Asimismo, algunas provincias pueden experimentar un crecimiento econmico ms rpido que otras. Lo ms probable es que el gasto en atencin a la salud crezca ms rpido en las provincias con un aumento ms rpido de los ingresos. Una vez ms, si estos cambios en el crecimiento econmico local no se distribuyen de manera idntica entre los grupos de comparacin y de tratamiento, el impacto del seguro de salud sobre el gasto directo se confundir con el cambio en la economa local. En general, es ms difcil considerar este tipo de cambios temporales con escalas ms grandes de intervencin. La aplicacin de asignaciones aleatorias con unidades ms pequeas de implementacin mitiga estos riesgos para la validez interna. Para evitar los problemas de implementar una intervencin a un nivel geogrco o administrativo muy grande, los administradores de un programa deben determinar la escala mnima en la que se puede implementar el programa. Varios factores determinarn esto: Economas de escala y complejidad administrativa en la oferta del programa. Capacidad administrativa de asignar benecios a nivel individual o de hogares. Preocupacin acerca de posibles conictos civiles. Preocupacin sobre la contaminacin del grupo de comparacin.

150

La evaluacin de impacto en la prctica

La escala mnima se dene normalmente por las economas de escala y la complejidad administrativa de la oferta del programa. Por ejemplo, un programa de seguro de salud puede requerir una ocina local para que los beneciarios presenten reclamaciones y para pagar a los proveedores. Es necesario repartir los costos jos de la ocina entre un gran nmero de beneciarios, por lo que podra ser ineciente implementar el programa a nivel individual; ser entonces ms eciente ejecutarlo a nivel comunitario. Sin embargo, en situaciones con intervenciones novedosas, puede valer la pena asumir las ineciencias a corto plazo e implementar el programa dentro de distritos administrativos, para garantizar mejor la credibilidad de la evaluacin y reducir los costos de la recoleccin de datos. Algunos Gobiernos argumentan que los programas administrados localmente, como los de seguro de salud, no tienen capacidad administrativa para ser implementados a nivel individual. Les preocupa que los sistemas de prestacin de diferentes servicios a diferentes beneciarios a nivel local supongan una carga para las unidades administrativas locales, y que el programa no pueda garantizar que se asignen los grupos de tratamiento y de comparacin de acuerdo con lo dispuesto. Este ltimo problema es un riesgo grave para la capacidad del Gobierno de implementar el diseo de la evaluacin y, por consiguiente, para el xito del estudio. En ocasiones, los Gobiernos preeren implementar programas a niveles ms agregados, como la comunidad, porque les preocupan los posibles conictos civiles que se generan cuando los miembros del grupo de comparacin observan cmo sus vecinos del grupo de tratamiento reciben los benecios antes que ellos. Sin embargo, se han aportado muy pocas evidencias que apoyen estas armaciones. Cuando los benecios se han asignado de manera equitativa, transparente y sujeta a rendicin de cuentas, un gran nmero de programas se ha implementado con xito a nivel individual o de los hogares, sin generar conictos civiles. Finalmente, cuando un programa se implementa a un nivel muy desagregado la contaminacin del grupo de comparacin puede comprometer la validez interna de la evaluacin. Por ejemplo, se evala el efecto del suministro de agua corriente sobre la salud de los hogares. Si se instala el suministro para un hogar, pero no en el barrio, es factible que el hogar tratado comparta el suministro con su vecino; por lo que el hogar vecino no sera una comparacin valida, ya que se beneciara del efecto (llamado efecto de derrame). En este caso se necesitara otro grupo de comparacin que no se benecie de efectos de derrame. Por lo tanto, los administradores de programas necesitan determinar la escala mnima de una intervencin que: 1) permita contar con una muestra sucientemente grande para la evaluacin; 2) mitigue los riesgos para la validez interna, y 3) sea compatible con el contexto operativo. El recuadro 10.1 ilustra la eleccin y las consecuencias de la escala mnima de la intervencin en el contexto de los programas de transferencias monetarias.

Hacer operativo el diseo de la evaluacin

151

Recuadro 10.1: Programas de transferencias monetarias y la escala mnima de la intervencin


La mayora de los programas de transferencias monetarias condicionadas usan la comunidad como escala mnima de la intervencin, debido a cuestiones administrativas y al diseo del programa, as como a la preocupacin por los efectos de derrame y el posible conicto en la comunidad si se asignara el tratamiento a un nivel inferior. Por ejemplo, la evaluacin de Progresa/ Oportunidades, el programa de transferencias monetarias condicionadas de Mxico, recurri a una expansin aleatoria al nivel de comunidad en reas rurales. En la primavera de 1998, se ofreci a todos los hogares elegibles de las comunidades de tratamiento la oportunidad de inscribirse en el programa, y aproximadamente 18 meses despus, en el invierno de 1999, se ofreci la misma oportunidad a todos los hogares de las comunidades de comparacin. Sin embargo, los evaluadores observaron una correlacin considerable en los indicadores de resultados de los hogares dentro de las comunidades. Para tener potencia estadstica suciente para la evaluacin, necesitaban ms hogares en la muestra de los que habran necesitado si hubieran podido realizar la asignacin aleatoria al nivel de hogar. Por lo tanto, la imposibilidad de implementar el programa a nivel de los hogares gener la necesidad de un mayor tamao de la muestra e increment el costo de la evaluacin. Una gran proporcin de los programas del sector del desarrollo humano sufren limitaciones similares.

Fuentes: Behrman y Hoddinott, 2001; Gertler, 2004; Fiszbein y Schady, 2009; Levy y Rodrguez, 2005; Schultz, 2004; Skouas y McClafferty, 2001.

Es tica la evaluacin?
Con frecuencia se plantean cuestiones ticas cuando se realizan evaluaciones de impacto. Un punto de partida es considerar la posibilidad de invertir considerables recursos pblicos en programas cuya efectividad se desconoce. La propia falta de una evaluacin puede entonces considerarse no tica. Conocer la efectividad de un programa puede contribuir a una inversin ms efectiva y tica de los recursos pblicos. Cuando se decide disear una evaluacin de impacto, deben considerarse algunas cuestiones ticas importantes. Entre ellas destacan las reglas que se emplean para asignar los benecios de un programa y los mtodos mediante los que se estudia a las personas. El principio ms bsico es que nunca se debe negar o demorar la oferta de benecios solo para realizar una evaluacin. En este libro se ha argumentado que las evaluaciones no deben dictar cmo se asignan los benecios, sino que deben adaptarse a las reglas de asignacin de los programas. Por ello, las preocupaciones ticas no se deben derivar de la evaluacin de impacto, sino que estn directamente relacionadas con las reglas de asignacin de los programas.

Concepto clave:
Los benecios no se deben negar o demorar solo para realizar una evaluacin.

152

La evaluacin de impacto en la prctica

La asignacin aleatoria de benecios de un programa entre individuos elegibles suele plantear preocupaciones ticas acerca de la negacin de benecios a unidades elegibles. Sin embargo, la mayora de los programas cuentan con recursos nancieros y administrativos limitados, es decir que les es imposible atender a todos los beneciarios al mismo tiempo. Desde un punto de vista tico, los sujetos con la misma elegibilidad deben tener la misma probabilidad de recibir el programa. La asignacin aleatoria cumple este requisito. Cuando un programa prev ampliarse en fases, la expansin puede basarse en la seleccin aleatoria para determinar el orden en que los beneciarios con los mismos derechos recibirn los benecios. En estos casos, quienes participen ms tarde del programa pueden constituir un grupo de comparacin, lo que representa un diseo slido de la evaluacin y un mtodo transparente y justo de asignacin de recursos escasos. En muchos pases e instituciones internacionales se han establecido consejos de revisin y comits de tica para reglamentar la investigacin relacionada con sujetos humanos. Estos comits estn encargados de valorar, aprobar y supervisar los estudios, con el objetivo principal de proteger los derechos y promover el bienestar de los sujetos estudiados. Aunque las evaluaciones de impacto son iniciativas principalmente operativas, tambin son estudios de investigacin; como tales, deben cumplir las directrices sobre investigacin de sujetos humanos. En Estados Unidos, la Ocina para la Proteccin de Seres Humanos en Estudios de Investigacin, del Departamento de Salud y Servicios Humanos, es responsable de coordinar y apoyar el trabajo de los consejos de revisin institucional establecidos en todas las instituciones de investigacin y universidades. Tambin publica una recopilacin de ms de un millar de leyes y directrices que rigen la investigacin sobre seres humanos en 96 pases, y ofrece enlaces con los cdigos de tica y las normas reglamentarias empleadas actualmente por las principales organizaciones internacionales y regionales. Por ejemplo, las investigaciones realizadas en Estados Unidos o nanciadas por organismos federales estadounidenses, como los Institutos Nacionales de Salud o la Agencia de Estados Unidos para el Desarrollo Internacional, deben cumplir los principios ticos y los requisitos reglamentarios establecidos en la legislacin federal2. Los principios bsicos de la legislacin estadounidense relacionados con la proteccin de sujetos humanos de estudio se basan en el histrico informe Belmont, e incluyen que se garantice que: la seleccin de sujetos sea equitativa se minimicen los riesgos para los sujetos los riesgos para los sujetos sean razonables en relacin con los benecios previstos se solicite el consentimiento informado de cada posible sujeto o su representante legal

Hacer operativo el diseo de la evaluacin

153

existan disposiciones adecuadas para proteger la privacidad de los sujetos y mantener la condencialidad se incluyan salvaguardias adicionales para proteger a los sujetos ms vulnerables, como los nios y las personas econmicamente desfavorecidas Aunque la lista se deriva de la experiencia histrica con los experimentos mdicos, los principios bsicos para la proteccin de los derechos y la promocin del bienestar de todos los sujetos son aplicables a la investigacin social. En el contexto de la evaluacin de programas sociales, los primeros tres puntos estn relacionados principalmente con la tica en la asignacin de benecios. Los ltimos tres puntos estn relacionados con los protocolos empleados para estudiar a los sujetos en aras de la evaluacin3. Cuando disee, administre o encargue una evaluacin de impacto, debe asegurarse de que todas las fases cumplan las leyes vigentes o los procesos de revisin que rigen la investigacin de sujetos humanos, ya sean del pas en el que se implementa la evaluacin o del pas donde se encuentra la sede del organismo que la nancia.

Cmo formar un equipo de evaluacin?


Una evaluacin es un trabajo de colaboracin entre responsables de polticas y evaluadores, en el que cada grupo depende del otro para su xito. Los responsables de polticas estn a cargo de orientar el trabajo y asegurar la pertinencia de la evaluacin: formulan las preguntas de evaluacin, determinan si una evaluacin de impacto es necesaria, supervisan la evaluacin, garantizan los recursos adecuados para el trabajo y aplican los resultados. Los evaluadores son responsables de los aspectos tcnicos: la metodologa de evaluacin, el diseo de la muestra, la recoleccin de datos y el anlisis. Una evaluacin combina la experiencia tcnica y la independencia que aporta un grupo externo de evaluadores, y la pertinencia poltica, la orientacin estratgica y la coordinacin operativa que aportan los responsables de polticas. En esta colaboracin, es clave determinar qu grado de separacin institucional debe existir entre los proveedores y los usuarios de la evaluacin. Que una evaluacin se realice independientemente de la institucin responsable del proyecto que se evala conlleva una objetividad muy positiva. Sin embargo, con frecuencia las evaluaciones pueden tener mltiples objetivos, que incluyen el desarrollo de capacidades dentro de los organismos del Gobierno y la sensibilizacin de los administradores del programa acerca de las realidades de sus proyectos cuando se aplican sobre el terreno.

Concepto clave:
Una evaluacin es un trabajo de colaboracin entre responsables de polticas y evaluadores.

154

La evaluacin de impacto en la prctica

Para que una evaluacin de impacto logre su objetivo, los evaluadores y los responsables de polticas deben trabajar conjuntamente. Si bien las evaluaciones de impacto deben ser realizadas por un grupo externo para mantener la objetividad y la credibilidad, no pueden divorciarse de las reglas operativas, sobre todo de las de implementacin, para determinar un diseo adecuado de la evaluacin y asegurar que esta est coordinada con el programa. Sin la participacin de los responsables de polticas desde el principio, es menos probable que los resultados sean directamente pertinentes para las polticas, o tengan impacto sobre ellas. La composicin de un equipo de evaluacin Los responsables de polticas pueden encargar una evaluacin mediante varios tipos de contratacin. La unidad gubernamental que encarga la evaluacin puede contratar la totalidad del trabajo. En este caso, es responsable de elaborar al menos un primer borrador del plan de evaluacin, que incluya los principales objetivos, la metodologa prevista, los datos a recopilar y los topes presupuestarios. Dicho plan contiene los trminos de referencia bsicos para lanzar una convocatoria de propuestas tcnicas y nancieras de evaluadores externos. Los trminos tambin pueden especicar la composicin mnima del equipo que deben cumplir los evaluadores. Preparar propuestas tcnicas ofrece a los evaluadores externos la oportunidad de sugerir mejoras del plan de evaluacin elaborado por el Gobierno. Una vez que se contrata la evaluacin, el organismo externo contratado administra activamente la evaluacin y nombra a un gestor de la evaluacin. En este modelo, el equipo del Gobierno ofrece principalmente supervisin. Dentro de un segundo tipo de acuerdo contractual, la unidad gubernamental que encarga la evaluacin puede decidir administrarla directamente. Esto conlleva el desarrollo de un plan de evaluacin de impacto y la contratacin secuencial de sus subcomponentes. En este caso, el gestor de la evaluacin forma parte de la unidad gubernamental que encarga el trabajo. Independientemente del acuerdo contractual, una responsabilidad clave del gestor de la evaluacin consiste en formar el equipo de trabajo, considerando los intereses de los clientes y los pasos necesarios para llevar a cabo la evaluacin. Aunque cada evaluacin es diferente, el equipo tcnico de cualquier iniciativa que vaya a recolectar sus propios datos, cualitativos o cuantitativos, tendr que contar casi siempre con los siguientes profesionales: Un gestor de la evaluacin. Responsable de denir los principales objetivos, las preguntas sobre polticas, los indicadores y las necesidades de informacin de la evaluacin (con frecuencia, en estrecha colaboracin con los responsables de polticas y utilizando una teora del cambio, como una cadena de resultados); tambin es responsable de seleccionar la metodologa de evaluacin, conformar el equipo de evaluacin y redactar los trminos de referencia para los componentes de la evaluacin que se contratarn o subcontratarn. Es importante designar

Hacer operativo el diseo de la evaluacin

155

a un gestor de la evaluacin capaz de trabajar ecazmente con productores de datos, as como con los analistas y los responsables de polticas que usen los datos y los resultados de la evaluacin. Si la persona no opera a nivel local, se recomienda designar a un gestor local encargado de coordinar la iniciativa de evaluacin en conjuncin con el gestor internacional. Un experto en muestreo. Alguien que pueda orientar el trabajo de clculo de potencia y muestreo. En el caso de las evaluaciones de impacto cuantitativas, debera poder llevar a cabo clculos de la potencia para determinar el tamao adecuado de la muestra en funcin de los indicadores establecidos, seleccionar la muestra, comparar los resultados de la muestra real con los de la prevista, y ofrecer recomendaciones en el momento del anlisis, por ejemplo sobre cmo incorporar las ponderaciones del muestreo si fuera necesario. El experto en muestreo tambin debe estar encargado de seleccionar los lugares y los grupos para la prueba piloto. En particular, si es un consultor internacional, con frecuencia ser necesario que colabore con un coordinador local de informacin, responsable de recolectar los datos de los que se extraer la muestra. Una persona o un equipo responsable del diseo de instrumentos de recoleccin de datos, manuales y libros de cdigos. Esta persona o equipo colabora con el gestor de la evaluacin para garantizar que los instrumentos de recoleccin de datos generen la informacin necesaria para el anlisis, y tambin participa en la prueba piloto de los cuestionarios. Un equipo de campo. Incluye a un coordinador del trabajo de campo que puede supervisar toda la iniciativa de recoleccin de datos, desde la planicacin de rutas para la recopilacin de informacin hasta la formacin y la programacin de los equipos de campo, compuestos generalmente por supervisores y encuestadores. Administradores de datos y digitadores. Disean los programas de digitacin de datos, digitan los datos, controlan su calidad, ofrecen la documentacin necesaria sobre los datos y producen los resultados bsicos que pueden vericar los analistas de datos. Analistas. Trabajan con los datos producidos y con el gestor de la evaluacin para realizar el anlisis necesario y redactar los informes de evaluacin. Colaboradores para la evaluacin Una de las primeras decisiones que deben tomar los responsables de polticas, junto con el gestor de la evaluacin, es si esta (o partes de esta) puede implementarse a nivel local, y qu tipo de supervisin y asistencia externa necesitar. La capacidad de evaluacin vara considerablemente entre pases. Las contrataciones internacionales que permiten a las empresas de un pas llevar a cabo evaluaciones en otro se han

156

La evaluacin de impacto en la prctica

vuelto ms comunes. Tambin es cada vez ms comn que los Gobiernos y las instituciones multilaterales implementen las evaluaciones a nivel local, a la vez que ofrecen una considerable supervisin internacional. El gestor de la evaluacin es responsable de valorar crticamente la capacidad local y determinar quin estar encargado de cada aspecto de la evaluacin. Otra cuestin es si se contrata a una empresa privada o a una institucin pblica. Las empresas privadas o los institutos de investigacin pueden ser ms ables a la hora de aportar resultados, pero trabajar con ellos descarta la oportunidad de desarrollar la capacidad del sector pblico, adems de que las empresas privadas suelen estar comprensiblemente menos dispuestas a incorporar a la evaluacin elementos que la encarezcan. Los institutos de investigacin y las universidades tambin pueden ejercer de evaluadores. Su reputacin y experiencia tcnica pueden garantizar que las partes interesadas en la evaluacin acepten sus resultados. Sin embargo, estas instituciones carecen a veces de la experiencia operativa o la capacidad para ejecutar algunos aspectos de la evaluacin, como la recoleccin de datos, por lo que puede ser necesario subcontratar estos componentes a otro colaborador. Independientemente de la combinacin de colaboradores, es esencial examinar con cuidado sus antecedentes en este campo para llegar a una decisin informada. Especialmente cuando trabaje con una institucin pblica, un evaluador escrupuloso debe ser consciente de la capacidad del equipo de evaluacin en vista de las dems actividades que lleva a cabo dicha unidad. Esto es importante cuando se trabaja con instituciones del sector pblico con mltiples responsabilidades y limitaciones de personal. Considerar la carga de trabajo de la unidad permite valorar no solo cmo afectar la calidad de la evaluacin, sino tambin el costo de oportunidad de la evaluacin con respecto a otras iniciativas de las que es responsable la unidad. Un ejemplo es una evaluacin de impacto de una reforma educativa que requera la participacin del personal del equipo responsable de los exmenes semestrales nacionales. El equipo se seleccion para colaborar en la evaluacin porque tena las mejores cualicaciones profesionales para asumir la responsabilidad y porque se buscaban complementariedades entre la evaluacin y los exmenes nacionales. Sin embargo, cuando la reforma (y la evaluacin correspondiente) se retras, se desbarat toda la iniciativa de estudio: los exmenes nacionales no se aplicaron segn el calendario previsto y el pas perdi la oportunidad de hacer un seguimiento del progreso educativo. Estas situaciones pueden evitarse mediante la coordinacin con los administradores de la unidad responsable de la evaluacin, para asegurar que se logra un equilibrio en la programacin de las diversas actividades, as como en la distribucin del personal y los recursos entre dichas actividades.

Hacer operativo el diseo de la evaluacin

157

Cundo programar la evaluacin?


En la primera parte se analizaron las ventajas de las evaluaciones prospectivas, diseadas antes y durante la preparacin del programa. La planicacin anticipada permite ms opciones para generar grupos de comparacin, facilita la recoleccin de datos de lnea de base y ayuda a los agentes a llegar a un consenso con respecto a los objetivos del programa y las preguntas de inters. Aunque es importante planicar las evaluaciones dentro de la fase de diseo del proyecto, se las debe ejecutar cuando el programa alcance la madurez. Los proyectos piloto o las reformas incipientes suelen estar abocadas a revisiones de contenido y de cmo, cundo, dnde y quin las implementar. Los proveedores del programa pueden necesitar tiempo para aprender y aplicar congruentemente las nuevas reglas operativas. Dado que las evaluaciones requieren claridad de las reglas operativas del programa para generar contrafactuales adecuados, es importante ejecutarlas una vez que los programas estn bien establecidos. Siempre se deben recolectar datos de lnea de base, pero otra cuestin importante relacionada con la programacin es cunto tiempo debe pasar antes de medir los resultados. El momento adecuado depende del contexto: Si se evala demasiado pronto, hay riesgo de observar un impacto solo parcial o nulo; si se hace demasiado tarde, existe el riesgo de que el programa pierda el respaldo de los donantes y el pblico, o de que se expanda un programa mal diseado (King y Behrman, 2009, p. 56). Para determinar el momento de recolectar los datos de seguimiento se deben considerar los siguientes factores4: El ciclo del programa, que incluye la duracin, el momento de ejecucin y los posibles retrasos. El perodo necesario previsto para que el programa d resultados, as como la naturaleza de los resultados de inters. Los ciclos de formulacin de polticas. Primero, la evaluacin de impacto debe adaptarse a la implementacin del programa. La evaluacin no puede condicionar al programa. Por su naturaleza, las evaluaciones estn sujetas a los plazos del programa: deben ser compatibles con su duracin. Tambin deben adaptarse a los posibles desfases en la implementacin cuando los programas se demoran en la asignacin de los benecios o se retrasan a causa de factores externos5. En general, aunque la evaluacin debera incorporarse al proyecto desde el principio, los evaluadores deben estar dispuestos a ser exibles y hacer modicaciones durante la implementacin del proyecto. Adems, se debe dar seguimiento a las intervenciones mediante un sistema de monitoreo, para que la evaluacin se base en el avance real de la intervencin.

158

Impact Evaluation in Practice

La recoleccin de los datos de seguimiento debe considerar el tiempo requerido despus de la implementacin del programa para que se maniesten los resultados. La cadena de resultados del programa ayuda a identicar los indicadores de resultados y el momento adecuado para medirlos. El objetivo de algunos programas (como los de transferencias de ingreso) es ofrecer benecios a corto plazo, mientras que otros (como los de educacin bsica) se centran en avances a ms largo plazo. Es ms, por su naturaleza, algunos resultados tardan ms en manifestarse (como los cambios en la esperanza de vida, o la fertilidad gracias a una reforma del sistema de salud) que otros (como los ingresos promovidos por un programa de capacitacin). Por ejemplo, en la evaluacin del Fondo de Inversin Social de Bolivia, que se bas en una recoleccin de datos de lnea de base de 1993, los datos de seguimiento no se recopilaron hasta 1998 debido al tiempo necesario para llevar a cabo las intervenciones (proyectos de agua y saneamiento, clnicas de salud y escuelas), y para que se mostraran los efectos sobre la salud y la educacin de la poblacin beneciaria (Newman y otros, 2002). Ha sido necesario un perodo de tiempo similar para la evaluacin de un proyecto de educacin primaria en Pakistn, que us un diseo experimental con lnea de base y encuestas de seguimiento para valorar el impacto de las escuelas comunitarias sobre los resultados de los estudiantes, incluido el logro acadmico (King, Orazem y Paterno, 2008). El momento de recolectar los datos de seguimiento depende, por lo tanto, del programa en estudio, as como de los indicadores de resultado de inters. Algunas evaluaciones recolectan datos de seguimiento cuando el programa todava se est implementando, con el n de medir los cambios a corto plazo y mantener el contacto con la muestra de evaluacin para reducir su desgaste a lo largo del tiempo. En el caso de los programas que no funcionan continuamente, las rondas adicionales de datos de seguimiento recopilados despus del nal del programa ayudan a medir los cambios a ms largo plazo. Se puede recopilar ms de una ronda de datos de seguimiento, con el n de considerar y contrastar los resultados a corto y medio plazo. Es posible que los datos de seguimiento recolectados durante la implementacin del programa no reejen todo el impacto del programa si los indicadores se miden demasiado pronto. De hecho, los programas no siempre alcanzan un grado constante de plena efectividad despus del comienzo de la implementacin. El aprendizaje de los proveedores y los beneciarios puede llevar tiempo (King y Behrman, 2009, p. 65). No obstante, es muy til documentar los impactos a corto plazo. Como ya se ha sealado, algunos programas solo tienen objetivos a corto plazo (como las transferencias de ingresos). Las evidencias sobre el desempeo a corto plazo de dichos programas tambin pueden aportar informacin acerca de los resultados previstos a largo plazo. Por ejemplo, suele ser interesante medir los indicadores a ms corto plazo que ayudan a predecir los indicadores a ms largo plazo (como los partos asistidos como indicador

Hacer operativo el diseo de la evaluacin

159

a corto plazo de la mortalidad infantil). Los datos de seguimiento recolectados cuando todava se est implementando el programa tambin ayudan a producir resultados iniciales de la evaluacin de impacto, que pueden revitalizar el dilogo entre los evaluadores y los encargados de formular polticas. Las encuestas de seguimiento que miden los resultados a largo plazo despus de la implementacin del programa suelen producir las evidencias ms convincentes sobre la efectividad del programa. Por ejemplo, los resultados positivos de las evaluaciones de impacto a largo plazo de los programas de desarrollo infantil en Estados Unidos (Currie y Thomas, 1995 y 2000; Currie, 2001) y Jamaica (Grantham-McGregor y otros, 1994) han inuido para que se invirtiera en este tipo de intervenciones. A veces, los impactos a largo plazo constituyen objetivos explcitos del programa, pero tambin pueden reejar efectos no intencionados e indirectos, como los relacionados con los cambios de comportamiento. No obstante, la identicacin de los impactos a ms largo plazo puede acarrear dicultades. Puede que los impactos se desvanezcan simplemente en el largo plazo. Tambin es posible que un diseo slido de la evaluacin de impacto no resista el paso del tiempo. Por ejemplo, las unidades del grupo de control pueden empezar a beneciarse de los efectos de derrame de los beneciarios del programa. Aunque los datos de seguimiento a corto plazo y a ms largo plazo son complementarios, al programar una evaluacin tambin se debe considerar cundo se necesitar informar para la toma de decisiones, y se deben sincronizar las actividades de evaluacin y de recoleccin de datos con los momentos clave de este proceso. La produccin de resultados se debe programar para que informen decisiones sobre los presupuestos, la expansin del programa y otras decisiones sobre las polticas pblicas.

Cmo presupuestar una evaluacin?


La elaboracin del presupuesto es uno de los ltimos pasos para hacer operativo el diseo de la evaluacin. En esta seccin se examinan algunos datos sobre el costo de una evaluacin de impacto, se explica cmo presupuestar una evaluacin y se recomiendan algunas opciones de nanciamiento.

160

La evaluacin de impacto en la prctica

Revisin de datos de costos Los cuadros 10.2 y 10.3 contienen datos sobre el costo de evaluaciones de impacto de una serie de proyectos nanciados por el Banco Mundial. La muestra del cuadro 10.2 procede de un estudio de los programas del sector de Proteccin Social y Trabajo. La muestra del cuadro 10.3 se seleccion a partir de los datos presupuestarios disponibles basados en una serie de evaluaciones de impacto nanciadas por el Fondo Espaol de Evaluacin de Impacto (SIEF). Aunque las dos muestras no representan necesariamente todas las evaluaciones emprendidas por el Banco Mundial, ya que los datos sobre costos an no se documentan de manera sistemtica, ofrecen una referencia interesante sobre los costos asociados con la ejecucin de evaluaciones de impacto rigurosas.

Cuadro 10.2 Costo de las evaluaciones de impacto de una seleccin de proyectos nanciados por el Banco Mundial % de la evaluacin con respecto al costo total del programa 0,4 0,2 3,1 2,0 3,3 4,2 9,1 13,3 4,5

Evaluacin de impacto Desarrollo de las habilidades y empleo de migrantes Proyecto de sistema de proteccin social Programa de inversin en sectores sociales Proteccin social Asistencia tcnica para sistema de proteccin social Proyecto de proteccin social Primer proyecto de niveles de vida comunitarios Tercer fondo social para el desarrollo Promedio

Pas China Colombia Repblica Dominicana Jamaica Pakistn Panam Rwanda Rep. del Yemen

Costo total de la evaluacin (US$) 220 000 130 000 600 000 800 000 2 000 000 1 000 000 1 000 000 2 000 000 968 750

Costo total del programa (US$) 50 000 000 86 400 000 19 400 000 40 000 000 60 000 000 24 000 000 11 000 000 15 000 000 38 225 000

Fuente: Elaboracin propia a partir de una muestra de programas del Banco Mundial en el sector de Proteccin Social.

Hacer operativo el diseo de la evaluacin

161

162

Cuadro 10.3 Costos desagregados de una seleccin de proyectos nanciados por el Banco Mundial Costos desagregados de la evaluacin de impacto Personal del Banco Mundial 200 000 Consultores (nacionales e internacionales) 320 000 Recoleccin de datos (incluido personal de campo) 840 000 Otros (divulgacin y talleres) 60 000

Evaluacin de impacto del SIEF Crditos de apoyo a la reduccin de la pobreza y salud materna Reforma del pago por desempeo para los profesores de escuelas Programa Nadie es Perfecto para mejorar las habilidades de los padres Pago por desempeo en el sector sanitario de China: XI evaluacin de la salud Programa nacional de garanta del empleo rural Salud y nutricin en las escuelas: El papel del control del paludismo en la mejora de la educacin

Pas Benn

Costo total 1 690 000

Viajes 270 000

Brasil

513 000

78 000

55 000

105 000

240 000

35 000

Chile

313 000

11 500

35 500

260 000

6000

China India

308 900 390 000

60 000 41 500

35 000 50 000

61 000 13 500

152 900 270 000

15 000

Kenya

652 087

69 550

60 000

103 180

354 000

65 357

Campaa de prevencin del VIH entre los jvenes: Abstinencia, delidad y sexo seguro Lesotho Transferencias monetarias condicionadas, escolarizacin y riesgo de VIH Programa Contigo Vamos por Ms Oportunidades en el estado de Guanajuato

630 300

74 300

9600

98 400

440 000

8000

Malawi

1 842 841

83 077

144 000

256 344

1 359 420

Mxico

132 199

2660

50 409

80 640

1150

Programa piloto de transferencias monetarias condicionadas en la educacin primaria rural Aprender y crecer a la sombra del VIH/sida: Programa de desarrollo infantil Capacitacin de distribuidores comunitarios para la prevencin y el tratamiento del paludismo Salud y nutricin en las escuelas: El papel del control del paludismo en la mejora de la educacin Transferencias monetarias condicionadas para prevenir el VIH y otras enfermedades de transmisin sexual Promedio

Marruecos

674 367

39 907

66 000

142 460

426 000

Mozambique

838 650

86 400

31 000

62 500

638 750

20 000

Nigeria

1 024 040

64 000

35 000

106 900

817 740

Senegal

644 047

61 800

60 000

102 890

354 000

65 357

Tanzana

771 610 744 646

60 000 71 621

62 000 66 001

100 000 115 975

518 611 482 290

30 999 30 686

Fuente: Elaboracin propia sobre la base de una muestra de evaluaciones de impacto nanciadas por el Fondo Espaol de Evaluacin de Impacto. Nota: Los datos no disponibles se representan con una raya ().

163

Los costos directos de las actividades de evaluacin van de los US$130000 a los US$2 millones, con un costo promedio de US$968750. Aunque estos costos varan ampliamente y pueden parecer elevados en trminos absolutos, en trminos relativos equivalen a entre el 0,2% y el 13,3% de los costos totales del programa6, con un promedio del 4,5%. Segn esta muestra, las evaluaciones de impacto solo signican un pequeo porcentaje del presupuesto general de los programas. Adems, el costo de la ejecucin de una evaluacin de impacto debe compararse con los costos de oportunidad de no realizar una evaluacin rigurosa y la posibilidad de administrar por lo tanto un programa inefectivo. Las evaluaciones permiten a los evaluadores y a los responsables de polticas identicar qu programas o caractersticas de los programas funcionan, y qu estrategias pueden ser ms efectivas y ecientes para lograr los objetivos del programa. En este sentido, los recursos necesarios para implementar una evaluacin de impacto constituyen una inversin relativamente pequea, aunque signicativa. El cuadro 10.3 desagrega los costos de la muestra de evaluaciones de impacto nanciadas por el SIEF. Los costos totales de una evaluacin incluyen el tiempo del personal del Banco Mundial, los consultores nacionales e internacionales, los viajes, la recoleccin de datos y las actividades de divulgacin7. En estas evaluaciones, como en casi todas en las que no se pueden usar los datos existentes, el costo ms alto corresponde a la recoleccin de nuevos datos, que equivale, en promedio, al 60% del costo. Es importante considerar que estas cifras reejan diferentes tamaos y tipos de evaluaciones. El costo relativo de la evaluacin de un programa piloto es generalmente superior al costo relativo de la evaluacin de un programa a nivel nacional o universal. Adems, algunas evaluaciones solo requieren una encuesta de seguimiento o pueden usar las fuentes de datos existentes, mientras que otras necesitan llevar a cabo mltiples rondas de recoleccin de datos. El manual de estudio de medicin de los niveles de vida (Grosh y Glewwe, 2000) contiene estimaciones del costo de la recoleccin de datos a travs de encuestas de hogares, basado en la experiencia de pases de todo el mundo. Sin embargo, el manual tambin hace hincapi en que los costos dependen sobre todo de las capacidades del equipo local, los recursos disponibles y la duracin del trabajo de campo. Para aprender ms sobre cmo determinar los costos de una encuesta en un contexto particular, se recomienda a los evaluadores que se pongan primero en contacto con el instituto nacional de estadstica.

164

La evaluacin de impacto en la prctica

Elaboracin del presupuesto para una evaluacin de impacto Est claro que se necesitan muchos recursos para implementar una evaluacin de impacto rigurosa. Las partidas presupuestarias incluyen los honorarios para al menos un investigador principal, un asistente de investigacin, un coordinador del trabajo de campo, un experto en muestreo, encuestadores y el personal del proyecto, que puede prestar asistencia a lo largo de la evaluacin. Estos recursos humanos pueden consistir en investigadores y expertos tcnicos de organizaciones internacionales, consultores internacionales o locales y personal del programa del pas cliente. Los costos de viaje y subsistencia (hoteles y viticos) tambin se deben presupuestar. Tambin se deben considerar los recursos para la divulgacin, con frecuencia en forma de talleres, informes y documentos acadmicos. Como se ha sealado, el costo ms importante suele ser el relacionado con la recoleccin de datos (que incluye la creacin y la puesta a prueba de la encuesta), los materiales y el equipo para recopilar datos, la capacitacin de los encuestadores, sus salarios, los vehculos y el combustible, y las operaciones de digitacin de datos. Calcular todos estos costos requiere de algunos supuestos, por ejemplo acerca del tiempo que llevar completar el cuestionario y la duracin de los viajes entre los emplazamientos. El cuadro 10.4 es una hoja de clculo que ayuda a estimar los costos de la fase de recoleccin de datos. Los costos de una evaluacin de impacto pueden repartirse a lo largo de varios ejercicios scales. El ejemplo de presupuesto del cuadro 10.5 muestra cmo se pueden desagregar los gastos en cada fase de una evaluacin por ejercicio scal, con nes de contabilidad e informes. Una vez ms, es probable que las demandas presupuestarias sean mayores durante los aos en que se recolecten datos. Financiamiento para evaluaciones El nanciamiento para una evaluacin puede provenir de muchas fuentes, entre ellas un prstamo para un proyecto, los presupuestos directos de un programa, las donaciones para investigacin o el nanciamiento de donantes. Con frecuencia, los equipos de evaluacin consideran una combinacin de fuentes para generar los fondos necesarios. Aunque los fondos para las evaluaciones solan proceder principalmente de los presupuestos de investigacin, la insistencia creciente en la formulacin de polticas basadas en evidencias ha aumentado el nanciamiento de otras fuentes. Cuando una evaluacin pueda producir conocimiento de inters para la comunidad de desarrollo en general, y cuando se pueda aplicar una evaluacin creble y robusta, se debe animar a los responsables de polticas a que busquen nanciamiento externo, dado que los resultados de la evaluacin tienen carcter de bien pblico. Entre las fuentes de nanciamiento estn el Gobierno, los bancos de desarrollo, las organizaciones multilaterales, los organismos de las Naciones Unidas, las fundaciones, las organizaciones lantrpicas y las instituciones de investigacin y evaluacin, como la International Initiative for Impact Evaluation.

Hacer operativo el diseo de la evaluacin

165

Cuadro 10.4

Hoja de clculo para la estimacin del costo de la evaluacin de impacto Tareas y recursos Nmero Costo/ unidad N. de unidades Total

Personal Personal de evaluacin del programa (gestor de la evaluacin, etctera) Consultores internacionales y/o nacionales (investigador principal) Asistente de investigacin Experto en estadstica Coordinador del trabajo de campo Viajes Vuelos internacionales y locales Transporte terrestre local Subsistencia (hotel y vitico) Recoleccin de datosa Diseo del instrumento Prueba piloto Capacitacin Viajes y viticos Material de encuesta, equipo Cuestionarios impresos Personal de campo Encuestadores Supervisores Transporte (vehculos y combustible) Conductores Digitacin de los datos Anlisis y divulgacin de los datos Talleres Documentos, informes Otros Espacio de ocina Comunicaciones Software
a. El clculo del costo de la recoleccin de datos debe reejar supuestos tales como el nmero de rondas de recoleccin necesarias, cunto durar la recoleccin de datos, el nmero de comunidades en la muestra, el nmero de hogares por comunidad, la longitud del cuestionario, la duracin de los viajes, etctera.

166

La evaluacin de impacto en la prctica

Cuadro 10.5 Ejemplo de presupuesto de evaluacin de impacto Fase de diseo Unidad A. Salarios del personal B. Honorarios de los consultores Consultor internacional (1) Consultor internacional (2) Asistente de investigacin/coordinador del trabajo de campo C. Viajes y subsistencia Personal: vuelos internacionales Personal: hotel y vitico Vuelo internacional: consultores internacionales Hotel y vitico: consultores internacionales Vuelo internacional: coordinador del trabajo de campo Hotel y vitico: coordinador del trabajo de campo D. Recoleccin de datos Datos de tipo 1: consentimiento Datos de tipo 2: resultados educativos Datos de tipo 3: resultados sanitarios V. Otros Taller(es) Divulgacin/informes Otros 1 (costos jos de la coordinacin a nivel de conglomerado) Costos totales por fase Fase de diseo 39 350 Fase de datos de lnea de base 184 390
167

Fase de los datos de lnea de base Unidad Semanas Costo por N. de Costo total unidad (US$) unidades (US$) 7500 2 15 000 27 940 Das Das Das 450 350 188 0 10 130 0 3500 24 440 15 450 Viajes Das Viajes Das Viajes Das 3350 150 3500 150 1350 150 1 5 2 20 1 0 3350 750 7000 3000 1350 0 126 000 Escuela Nio Nio 120 14 24 100 3000 3000 12 000 42 000 7200

Costo por N. de Costo total unidad (US$) unidades (US$) 7500 2 15 000 10 250

Semanas

Das Das Das

450 350 188

15 10 0

6750 3500 0 14 100

Viajes Das Viajes Das Viajes Das

3350 150 3500 150

1 5 2 20 0 0

3350 750 7000 3000 0 0

(continuacin)

Cuadro 10.5 (continuacin) Primera ronda de seguimiento


168

Secunda ronda de seguimiento Unidad Semanas Costo por N. de Costo total unidad (US$) unidades (US$) 7500 2 15 000 32 440 Das Das Das 450 350 188 10 10 130 4,500 3,500 24 440 20 000 Viajes Das Viajes Das Viajes Das 3350 150 3500 150 1350 150 2 10 2 20 1 3 6700 1500 7000 3000 1350 450 114 000

Unidad A. Salarios del personal B. Honorarios de los consultores Consultor internacional (1) Consultor internacional (2) Asistente de investigacin/coordinador del trabajo de campo C. Viajes y subsistencia Personal: vuelos internacionales Personal: hotel y vitico Vuelo internacional: consultores internacionales Hotel y vitico: consultores internacionales Vuelo internacional: coordinador del trabajo de campo Hotel y vitico: coordinador del trabajo de campo D. Recoleccin de datos Datos de tipo 1: consentimiento Datos de tipo 2: resultados educativos Datos de tipo 3: resultados sanitarios V. Otros Taller(es) Divulgacin/informes Otros 1 (costos jos de la coordinacin a nivel de conglomerado) Costos totales por fase Nio Nio Viajes Das Viajes Das Viajes Das Das Das Das Semanas

Costo por N. de Costo total unidad (US$) unidades (US$) 7500 2 15 000 32 550 450 350 188 15 20 100 6750 7000 18 800 20 000 3350 150 3,500 150 1350 150 2 10 2 20 1 3 6700 1500 7000 3000 1350 450 114 000

14 24

3000 3000

42 000 72 000

Nio Nio

14 24

3000 3000

42 000 72 000 65 357

20 000 5000 5179 Fase de seguimiento 181 550 Fase II de seguimiento

2 3 2

40 000 15 000 10 357 246 797 652 087

Costos totales de la evaluacin:

Notas
1. El anlisis de esta seccin se aplica ms directamente al diseo de asignacin aleatoria, pero los mismos principios son aplicables a las evaluaciones basadas en otras metodologas. 2. Vense Kimmel, 1988; NIH, 2006; USAID, 2008; Departamento de Salud y Servicios Humanos de los Estados Unidos, 2010, y Archivos Nacionales de Estados Unidos, 2009. 3. Los posibles riesgos de la recoleccin de datos para la evaluacin de programas sociales incluyen no obtener el consentimiento informado de los sujetos; realizar prueba de desarrollo cognitivo a nios delante de sus padres, lo que puede generar suposiciones sobre las capacidades futuras de los nios; pedir hablar a solas con mujeres o entrevistar a mujeres sobre cuestiones delicadas frente a familiares varones; no entender el momento y los costos de oportunidad de entrevistar a sujetos, y ofrecer compensacin o una muestra de reconocimiento cuando sea adecuado. 4. Vase King y Behrman (2009) para un anlisis detallado de las cuestiones de programacin con respecto a la evaluacin de programas sociales. 5. Hay varias razones por las que la implementacin no es inmediata ni perfecta, por las que la duracin de la exposicin al tratamiento diere no solo entre reas del programa sino tambin entre los beneciarios nales, y por las que las diversas duraciones de la exposicin podran generar diferentes estimaciones del impacto del programa (King y Behrman, 2009, p. 56). 6. En este caso, el costo se calcula como un porcentaje de la parte del costo del proyecto nanciada por el Banco Mundial. 7. Esto no incluye el costo del personal local del proyecto, que a menudo particip intensamente en el diseo y la supervisin de la evaluacin, ya que no se registra regularmente informacin precisa sobre estos costos.

Referencias
Archivos Nacionales de Estados Unidos. 2009. Protection of Human Subjects. U.S. Code of Federal Regulations, Title 22, Part 225. Behrman, Jere R. y Hoddinott, John. 2001. An Evaluation of the Impact of Progresa on Pre-school Child Height. FCND Briefs 104, Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC. Currie, Janet. 2001. Early Childhood Education Programs. Journal of Economic Perspectives 15 (2): 213-38. Currie, Janet y Thomas, Duncan. 1995. Does Head Start Make a Difference?. American Economic Review 85 (3): 341-64. . 2000. School Quality and the Longer-Term Effects of Head Start. Journal of Economic Resources 35 (4): 755-74. Departamento de Salud y Servicios Humanos de los Estados Unidos. 2010. International Compilation of Human Research Protections. Office for Human Research Protections. http://www.hhs.gov/ohrp/international/. Fiszbein, Ariel y Schady, Norbert. 2009. Conditional Cash Transfer, Reducing Present and Future Poverty. Informe del Banco Mundial sobre investigaciones relativas a polticas de desarrollo. Banco Mundial, Washington, DC.
Hacer operativo el diseo de la evaluacin

169

Gertler, Paul J. 2004. Do Conditional Cash Transfers Improve Child Health? Evidence from Progresas Control Randomized Experiment. American Economic Review 94 (2): 336-41. Grantham-McGregor, S.; Powell, C.; Walker, S. y Himes, J. 1994. The Long-Term Follow-up of Severely Malnourished Children Who Participated in an Intervention Program. Child Development 65: 428-93. Grosh, Margaret y Glewwe, Paul, comps. 2000. Designing Household Survey Questionnaires for Developing Countries: Lessons from 15 Years of the Living Standards Measurement Study, volmenes 1, 2 y 3. Washington, DC: Banco Mundial. Grosh, Margaret; del Ninno, Carlo; Tesliuc, Emil y Ouerghi, Azedine. 2008. Proteccin y promocin: Diseo y aplicacin de polticas de proteccin social ecaces. Washington, DC: Banco Mundial. Jalan, Jyotsna y Ravallion, Martin. 2003a. Estimating the Benet Incidence of an Antipoverty Program by Propensity-Score Matching. Journal of Business & Economic Statistics 21 (1): 19-30. . 2003b. Does Piped Water Reduce Diarrhea for Children in Rural India?. Journal of Econometrics 112 (1): 153-73. Kimmel, Allan. 1988. Ethics and Values in Applied Social Research. California: Sage Publications. King, Elizabeth M. y Behrman, Jere R. 2009. Timing and Duration of Exposure in Evaluations of Social Programs. World Bank Research Observer 24 (1): 55-82. King, Elizabeth M.; Orazem, Peter F. y Paterno, Elizabeth M. 2008. Promotion with and without Learning: Effects on Student Enrollment and Dropout Behavior. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 4722. Banco Mundial, Washington, DC. Levy, Santiago y Rodrguez, Evelyne. 2005. Sin herencia de pobreza: El programa Progresa-Oportunidades de Mxico. Washington, DC: Banco Interamericano de Desarrollo. NIH (Institutos Nacionales de Salud de Estados Unidos). 2006. Regulations and Ethical Guidelines y Belmont Report. Office of Human Subjects Research. http://ohsr.od.nih.gov/index.html. Newman, John; Pradhan, Menno; Rawlings, Laura B.; Ridder, Geert; Coa, Ramiro y Evia, Jos Luis. 2002. An Impact Evaluation of Education, Health, and Water Supply Investments by the Bolivian Social Investment Fund. World Bank Economic Review 16 (2): 241-74. Rosenbaum, Paul. 2002. Observational Studies. Springer Series in Statistics. Nueva York: Springer Verlag. Rosenbaum, Paul y Rubin, Donald. 1983. The Central Role of the Propensity Score in Observational Studies of Causal Effects. Biometrika 70 (1): 41-55. Schultz, Paul. 2004. Public Policy for the Poor? Evaluating the Mexican Progresa Poverty Program. Journal of Development Economics 74 (1): 199-250. Skouas, Emmanuel y McClafferty, Bonnie. 2001. Est dando buenos resultados Progresa? Informe de los resultados de una evaluacin realizada por el IFPRI. Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC. USAID (Agencia de Estados Unidos para el Desarrollo Internacional). 2008. Procedures for Protection of Human Subjects in Research Supported by USAID. http://www.usaid.gov/policy/ads/200/humansub.pdf.
170
La evaluacin de impacto en la prctica

CAPTULO 11

Elegir la muestra
Una vez que se haya elegido un mtodo para seleccionar el grupo de comparacin, el siguiente paso es determinar qu datos se necesitan y cul ser la muestra para estimar con precisin la diferencia en los indicadores de resultados entre los grupos de tratamiento y comparacin. Se debe determinar tanto el tamao de la muestra como la manera de extraer las unidades de la muestra de la poblacin de inters.

Qu tipo de datos se necesitan?


Es necesario contar con datos de buena calidad para evaluar el impacto de una intervencin sobre los resultados de inters. La cadena de resultados analizada en el captulo 2 ofrece una base para denir qu indicadores deben medirse y cundo. Los primeros y principales datos necesarios son los indicadores de resultados vinculados a los objetivos directos del programa. Sin embargo, la evaluacin de impacto no debe solo medir los resultados directos del programa. Recolectar datos ms amplios sobre unos indicadores de resultados indirectos o no intencionados del programa maximiza el valor de la informacin generada por la evaluacin de impacto. Como se explica en el captulo 2, es preferible seleccionar los indicadores de los resultados de manera que sean EMARF1: especcos, medibles, atribuibles, realistas y focalizados. Las evaluaciones de impacto se realizan normalmente a lo largo de varios perodos, y se debe determinar el mejor momento para medir los indicadores de resultados. Siguiendo la cadena de resultados, puede establecer una jerarqua de los indicadores de resultados, que vaya de los indicadores a corto plazo, como la asistencia escolar en el contexto de un programa educativo, a los indicadores a ms largo
171

Concepto clave:
Se necesitan indicadores para toda la cadena de resultados con los que medir los resultados nales, los resultados intermedios, la oferta de la intervencin, los factores exgenos y las caractersticas de control.

plazo, como el aprendizaje escolar o la insercin en el mercado laboral. Para medir el impacto a lo largo del tiempo de manera convincente, es necesario contar con datos desde la lnea de base. En la seccin del captulo 10 sobre cundo programar la evaluacin se discute cmo denir el momento para recolectar datos. Como se ver, cuando las muestras son relativamente pequeas, algunos indicadores pueden no ser adecuados para la evaluacin de impacto. Detectar el impacto de una intervencin cuyos indicadores son extremadamente variables, reeren a sucesos poco frecuentes o solo se ven afectados marginalmente por la intervencin puede requerir muestras demasiado grandes. Por ejemplo, solo ser posible determinar el impacto de una intervencin sobre las tasas de mortalidad materna si se dispone de una muestra que contenga muchas mujeres embarazadas. En general es recomendable centrar la evaluacin de impacto en indicadores de resultado para los cuales hay suciente potencia como para detectar un efecto. Aparte de los indicadores de resultado, tambin es til considerar lo siguiente: Datos administrativos sobre la oferta de la intervencin. Como mnimo, se necesitan datos de monitoreo para saber cundo empieza un programa y quin recibe benecios, as como para obtener una medida de la intensidad de la intervencin cuando no se la pueda ofrecer a todos los beneciarios con el mismo contenido, calidad o duracin. Datos sobre factores exgenos que pueden afectar el resultado de inters. Estos hacen posible considerar las inuencias externas. Este aspecto es especialmente importante cuando se usan mtodos que se basan en ms suposiciones que los mtodos aleatorios. Considerar estos factores tambin puede contribuir a aumentar la potencia estadstica. Datos sobre otras caractersticas. La inclusin de variables de control adicionales o el anlisis de la heterogeneidad de los efectos del programa en funcin de ciertas caractersticas hace posible una estimacin ms precisa de los efectos de tratamiento. En denitiva, se requieren indicadores a lo largo de toda la cadena de resultados, entre ellos indicadores de resultados nales, indicadores de resultados intermedios, medidas de la oferta de la intervencin, factores exgenos y caractersticas de control2. El diseo elegido para la evaluacin de impacto afectar tambin a los requisitos de datos. Por ejemplo, si se elige el mtodo de pareamiento o de diferencias en diferencias, ser necesario recolectar datos sobre una gama muy amplia de caractersticas para los grupos tanto de tratamiento como de comparacin, lo que hace posible ejecutar una serie de pruebas de robustez, como se explic en la segunda parte. Resulta til desarrollar una matriz para cada evaluacin que enumere las preguntas de inters, los indicadores de resultado para cada pregunta, los otros tipos de indicadores necesarios y el origen de los datos, como se describe en el grco 2.3 (captulo 2).

172

La evaluacin de impacto en la prctica

Puedo usar datos existentes? Al principio de un programa casi siempre son necesarios algunos datos existentes para estimar los valores de referencia de los indicadores o efectuar clculos de potencia, como se analizar en ms detalle ms adelante. Despus de la fase de planicacin, la disponibilidad de datos existentes puede disminuir considerablemente el costo de una evaluacin de impacto. Sin embargo, es raro que solo los datos existentes alcancen. Las evaluaciones de impacto requieren datos exhaustivos que abarquen una muestra sucientemente grande que sea representativa de los grupos tanto de tratamiento como de comparacin. Muy pocas veces se dispone de datos censales de poblacin que abarquen la totalidad de los grupos de tratamiento y de comparacin. Incluso cuando existen censos, es posible que solo contengan una serie limitada de variables o que sus datos estn desactualizados. Las encuestas de hogares representativas a nivel nacional pueden contener una serie exhaustiva de variables de resultado, pero es raro que cuenten con sucientes observaciones de los grupos de tratamiento y de comparacin para una evaluacin de impacto. Por ejemplo, suponga que est interesado en evaluar un programa nacional que cubre al 10% de los hogares de un pas. Si se realiza anualmente una encuesta representativa a nivel nacional de 5000 hogares, esta podra contener alrededor de 500 hogares beneciarios del programa en cuestin. Es la muestra lo sucientemente grande para una evaluacin de impacto? Los clculos de potencia pueden responder a esta pregunta, aunque en la mayora de los casos la respuesta ser negativa. No obstante, el uso de datos administrativos existentes se debe considerar seriamente. Los datos administrativos son los datos recolectados por agencias del programa, con frecuencia en el momento de la prestacin del servicio y como parte de sus operaciones regulares. En algunos casos, los datos de monitoreo contienen indicadores de resultado. Por ejemplo, las escuelas pueden registrar la matriculacin, la asistencia o las calicaciones de los estudiantes, y los centros de salud pueden registrar las medidas antropomtricas y el estado de inmunizacin o de salud de los pacientes. Algunas evaluaciones retrospectivas inuyentes han utilizado informacin administrativa (por ejemplo, el estudio de Galiani, Gertler y Schargrodsky, 2005, acerca de las polticas sobre el agua en Argentina). Con el n de determinar si se pueden usar los datos existentes para cierta evaluacin de impacto, se deben considerar las siguientes preguntas: Tamao: Las series de datos son sucientemente grandes para detectar cambios en los indicadores de resultado con suciente potencia? Muestreo: Se dispone de datos existentes tanto para el grupo de tratamiento como para el grupo de comparacin? Las muestras existentes se han extrado de un marco muestral que coincide con la poblacin de inters? Se extrajeron las unidades del marco muestral mediante un procedimiento de muestro probabilstico?

Elegir la muestra

173

Alcance: Los datos existentes contienen todos los indicadores necesarios para responder la pregunta de inters sobre polticas? Frecuencia: Los datos existentes se recolectan con suciente frecuencia? Se dispone de ellos para todas las unidades de la muestra a lo largo del tiempo? Solo en casos relativamente raros se dispone de datos adecuados para las evaluaciones de impacto. Como consecuencia, lo ms probable es que se deba incluir la recoleccin de nuevos datos en el presupuesto. Aunque esta suele constituir un costo importante, tambin se trata de una inversin con gran rendimiento, de la que depende la calidad de la evaluacin. En ciertos casos, los datos necesarios pueden recolectarse mediante el desarrollo de nuevos sistemas de informacin. Esto debe hacerse conforme a un diseo de evaluacin, de manera que se recopilen indicadores de resultado para un grupo de tratamiento y un grupo de comparacin en mltiples ocasiones. Puede que se requiera ampliar nuevos sistemas de informacin antes de emprender nuevas intervenciones, para que los centros administrativos del grupo de comparacin usen el nuevo sistema antes de recibir la intervencin que se evaluar. Dado que la calidad de los datos administrativos puede variar, se requiere de auditora y vericacin externas para garantizar la abilidad de la evaluacin. La recoleccin de datos a travs de fuentes administrativas, en lugar de mediante encuestas, puede reducir drsticamente el costo de una evaluacin, pero no siempre es viable. Si los datos administrativos no son sucientes para su evaluacin, es probable que tenga que recurrir a datos de encuestas. Adems de analizar si se pueden usar encuestas existentes, tambin se debe determinar si se planea alguna recopilacin de datos a escala nacional (como encuestas demogrcas o de salud, o encuestas de medicin de niveles de vida). Si se ha programado una encuesta para medir los indicadores necesarios, existe la posibilidad de sobremuestrear la poblacin de inters. Por ejemplo, la evaluacin del Fondo Social de Nicaragua complement una encuesta nacional de medicin de los niveles de vida con una muestra adicional de beneciarios (Pradhan y Rawlings, 2002). Si se ha programado una encuesta que cubrir la poblacin de inters, es posible que se pueda agregar una pregunta o una serie de preguntas para la evaluacin. La mayora de las evaluaciones de impacto requieren la recoleccin de datos de encuestas, que incluyen al menos una encuesta de lnea de base y una encuesta de seguimiento. Los datos de encuestas pueden ser de varios tipos segn el programa que se evale y la unidad de anlisis. La mayora de las evaluaciones requieren encuestas individuales o de hogares como fuente principal de datos. En este libro se examinan algunos principios generales de la recoleccin de datos de encuestas. A pesar de que principalmente se relacionan con las encuestas de hogares, los mismos principios se pueden aplicar a otros tipos de encuestas3.

174

La evaluacin de impacto en la prctica

El primer paso para decidir si se usan los datos existentes o se recolectan nuevos consistir en determinar el tamao de muestra que se necesita. Si los datos existentes tienen un nmero suciente de observaciones es posible que puedan usarse. De lo contrario, ser necesario recolectar datos adicionales. Una vez que se establezca la necesidad de recolectar datos de encuestas para la evaluacin, se debe: determinar quin recolecta los datos desarrollar y poner a prueba cuestionarios realizar el trabajo de campo y el control de calidad procesar y almacenar los datos El resto de este captulo analizar la manera de determinar el tamao necesario de la muestra y cmo extraerla. El captulo 12 se ocupa de los pasos restantes para la recoleccin de datos. La ejecucin de estos pasos suele contratarse, pero entender su alcance y sus principales componentes es esencial para administrar ecazmente una evaluacin de impacto de calidad.

Clculos de potencia: Qu tamao de muestra se necesita?


El primer paso para determinar si se pueden usar los datos existentes o para preparar la recoleccin de nuevos datos ser determinar el tamao que debe tener la muestra. Estos clculos se denominan clculos de potencia. Se analizar la intuicin en que se basan los clculos de potencia mediante el caso ms sencillo: una evaluacin llevada a cabo mediante una asignacin aleatoria y de la que se asume que no se da ningn incumplimiento, es decir que todas las unidades asignadas al grupo de tratamiento reciben la intervencin, y que todas las unidades asignadas al grupo de comparacin no la reciben. Por qu clculos de potencia? Los clculos de potencia indican el tamao mnimo de la muestra que se necesita para llevar a cabo una evaluacin de impacto, de modo que esta permita responder convincentemente a la pregunta de inters sobre polticas. En concreto, los clculos de potencia pueden usarse para lo siguiente: Valorar si los datos existentes son sucientes para ejecutar una evaluacin de impacto. Evitar recolectar demasiada informacin, lo que puede resultar muy costoso. Concepto clave:
Los clculos de potencia indican el tamao de la muestra necesario para que una evaluacin estime con precisin el impacto de un programa.

Elegir la muestra

175

Evitar recolectar pocos datos. Supngase que se evala un programa con impacto positivo sobre sus beneciarios. Si la muestra es demasiado pequea, es posible que este no pueda detectarse y que, por tanto, se concluya errneamente que el programa no tiene efecto. Adems, esto podra llevar a que se tome la decisin poltica de eliminar el programa, lo que sera perjudicial para los posibles beneciarios y la sociedad en general. Los clculos de potencia indican la muestra ms pequea (y el presupuesto mnimo) con la que es posible medir el impacto de un programa, es decir, la menor muestra que permitir detectar diferencias signicativas en los resultados entre los grupos de tratamiento y de comparacin. Por lo tanto, estos clculos son cruciales para determinar qu programas tienen xito. El impacto del programa es diferente de cero? La mayora de las evaluaciones de impacto comprueban la hiptesis expresada en la pregunta: Tiene impacto el programa? En otras palabras: El impacto del programa es diferente de cero? La respuesta a esta pregunta requiere dos pasos: 1. Estimar los resultados promedio para los grupos de tratamiento y de comparacin. 2. Valorar si existe una diferencia entre el resultado promedio del grupo de tratamiento y el resultado promedio del grupo de comparacin.

Estimacin de los resultados promedio para los grupos de tratamiento y de comparacin Supngase que se quiere estimar el impacto de un programa de nutricin sobre el peso de los nios de 5 aos; que 100 000 nios participaron en el programa, 100000 nios no participaron, y que los nios elegidos fueron seleccionados aleatoriamente entre los 200000 nios del pas. Como primer paso, tendr que estimar el peso promedio de los nios que participaron y que no participaron. Para determinar el peso promedio de los nios inscritos4 se podra pesar a cada uno de los 100000 participantes y obtener el promedio de los pesos. Por supuesto, esta medida sera muy costosa. Afortunadamente, no es necesario pesar a todos los nios. El promedio puede estimarse mediante el peso medio de una muestra extrada del conjunto de nios participantes5. Cuantos ms nios haya en la muestra, ms se acercar el promedio de la muestra al promedio real. Cuando una muestra es pequea, el peso promedio constituye una estimacin muy imprecisa. Por ejemplo, una muestra de dos nios no dar una estimacin precisa. Por el contrario, una de 10000 nios llevar a una estimacin ms precisa y mucho ms cercana al peso promedio real. En general, cuantas ms observaciones tenga una muestra, ms ables sern las estadsticas que produzca6.

176

La evaluacin de impacto en la prctica

El grco 11.1 ilustra esta intuicin. Supngase que se toma una muestra de una poblacin de inters: en este caso, los nios que participaron en el programa. Primero, se extrae una muestra de solo dos observaciones. Esto no garantiza que la muestra vaya a tener las mismas caractersticas que la poblacin. Es posible que se extraigan dos unidades con caractersticas inusuales. En el ejemplo del grco 11.1, aunque dentro de la poblacin de inters solo el 20% lleven sombreros redondos, es fcil que se tome una muestra de dos nios con sombreros redondos. La extraccin de muestras ms grandes disminuye las posibilidades de que ocurra esto. Una muestra ms grande tiene ms probabilidades de tener las mismas caractersticas que la poblacin de inters. Por lo tanto, con una muestra ms grande se tendr una imagen ms precisa de la poblacin de nios participantes. Lo mismo suceder con los nios no participantes: conforme crezca la muestra de nios no participantes, se tendr informacin ms precisa sobre las caractersticas de la poblacin. Pero por qu debe importarnos esto? Si se puede estimar con ms precisin el resultado (peso) promedio de los nios participantes y no participantes, tambin se podr determinar con ms precisin la diferencia de peso entre los dos grupos, es decir, el impacto del programa.
Grco 11.1 Una muestra ms grande se parece ms a la poblacin

Una muestra pequea

Poblacin de inters

Una muestra grande

Elegir la muestra

177

Dicho de otro modo, si solo tiene una idea imprecisa del peso promedio de los nios de los grupos participantes (tratamiento) y no participantes (comparacin), cmo puede tener una idea precisa de la diferencia de peso entre los dos grupos? Exactamente: no puede. En la siguiente seccin, se examinar esta idea de una manera ligeramente ms formal. Comparacin de los resultados promedio para los grupos de tratamiento y de comparacin Una vez que se ha estimado el resultado (peso) promedio para el grupo de tratamiento (nios participantes seleccionados mediante asignacin aleatoria) y el grupo de comparacin (nios no participantes seleccionados mediante asignacin aleatoria), se puede determinar si son diferentes. Esta parte est clara: se sustraen los promedios y se comprueba la diferencia. Formalmente, la evaluacin de impacto pone a prueba la hiptesis nula (o por defecto), H0: impacto = 0 (la hiptesis es que el programa no tiene impacto),

con la hiptesis alternativa, Ha: impacto 0 (la hiptesis alternativa es que el programa tiene impacto).

Imagnese que en el ejemplo del programa de nutricin se empieza con una muestra de dos nios tratados y dos nios de comparacin. Con esta muestra tan pequea, se estima el peso promedio de los nios de tratamiento y de comparacin, lo que hace que la estimacin no sea muy able. Esto puede comprobarse extrayendo varias muestras con dos nios tratados y dos nios de comparacin. Observar que el impacto estimado del programa vara mucho. Por el contrario, supngase que se empieza con una muestra de 1000 nios tratados y 1000 nios de comparacin. Como se ha sealado, las estimaciones del peso promedio de ambos grupos sern mucho ms precisas. Por lo tanto, la estimacin de la diferencia entre los dos grupos tambin ser ms precisa. Por ejemplo, se observa que el peso promedio en la muestra de nios de tratamiento (participantes) es de 25,2 kilogramos, y el promedio en la muestra de nios de comparacin (no participantes) es de 25 kilogramos. La diferencia entre los dos grupos es de 0,2 kilogramo. Si estas cifras procedieran de muestras con dos observaciones cada una, no se sabra si el impacto del programa es verdaderamente positivo, ya que el resultado podra deberse a la falta de precisin de las estimaciones. Sin embargo, si estas cifras proceden de muestras con 1000 observaciones cada una, se puede conar en que el resultado se acerque bastante al verdadero impacto del programa.

178

La evaluacin de impacto en la prctica

Por lo tanto, la pregunta clave es: Qu tamao debe tener una muestra para saber que un impacto positivo estimado se debe verdaderamente al impacto del programa, y no a la falta de precisin de las estimaciones? Dos posibles errores en las evaluaciones de impacto Cuando se comprueba si un programa tiene impacto, se puede incurrir en dos tipos de errores. Se comete un error de tipo I si una evaluacin concluye que un programa ha tenido impacto, cuando en realidad no lo ha tenido. En el caso de la intervencin hipottica sobre nutricin, esto sucedera si se concluyera que el peso promedio de los nios en la muestra tratada es superior al de los nios en la muestra de comparacin, a pesar de que el peso promedio de los nios en los dos grupos es el mismo. En este caso, el impacto positivo que observa se debe puramente a la falta de precisin de las estimaciones. Un error de tipo II consiste en lo contrario. Se comete un error de tipo II si una evaluacin concluye que un programa no ha tenido impacto, cuando en realidad lo ha tenido. En el caso de la intervencin sobre nutricin, esto sucedera si se concluyera que el peso promedio de los nios en las dos muestras es el mismo, a pesar de que el peso promedio de los nios de la poblacin de tratamiento es superior al de los nios de la poblacin de comparacin. Cuando se comprueba la hiptesis de que un programa ha tenido impacto, los estadsticos pueden reducir la probabilidad de los errores de tipo I. De hecho, esta puede determinarse mediante un parmetro denominado nivel de conanza. Muchas veces el nivel de conanza se ja en el 5%, lo que signica que se puede tener una conanza del 95% en que el programa ha tenido impacto. Si usted est muy preocupado por errores de tipo I, puede adoptar la medida conservadora de establecer un nivel de conanza ms bajo, por ejemplo del 1%, de manera que tenga una conanza del 99% en que el programa ha tenido impacto. Los errores de tipo II tambin preocupan a los responsables de polticas. Muchos factores afectan la probabilidad de cometer un error de tipo II, pero el tamao de la muestra es esencial. Probablemente, si el peso promedio de 50000 nios tratados es el mismo que el peso promedio de 50 000 nios de comparacin, se puede concluir con conanza que el programa no ha tenido impacto. Por el contrario, si una muestra de dos nios de tratamiento registra el mismo peso promedio que una muestra de dos nios de comparacin, es ms difcil llegar a una conclusin able. El peso promedio es similar porque la intervencin no ha tenido impacto o porque los datos no son sucientes para comprobar la hiptesis con una muestra tan pequea? La extraccin de muestras grandes reduce la posibilidad de que solo se observe a nios que

Concepto clave:
La potencia es la probabilidad de detectar un impacto cuando se haya producido. Una evaluacin de impacto tiene una potencia elevada si existe poco riesgo de que no se detecten los impactos reales del programa, es decir, de cometer un error de tipo II.

Elegir la muestra

179

pesan lo mismo debido a la suerte. En muestras grandes, la diferencia de la media entre la muestra tratada y la muestra de comparacin constituye una mejor estimacin de la verdadera diferencia de la media entre todas las unidades tratadas y de comparacin. La potencia (o potencia estadstica) de una evaluacin de impacto es la probabilidad de que se detecte una diferencia entre los grupos de tratamiento y de comparacin, cuando esta de hecho existe. Una evaluacin de impacto tiene una potencia elevada si existe poco riesgo de que no se detecten los impactos reales del programa, es decir, de cometer un error de tipo II. Los ejemplos anteriores muestran que el tamao de la muestra es un factor crucial de la potencia de una evaluacin de impacto. Las siguientes secciones lo ilustrarn con ms detalle. Por qu los clculos de potencia son esenciales para la formulacin de polticas El propsito de los clculos de potencia es determinar el tamao necesario de una muestra para evitar incurrir en un error de tipo II. La potencia de una prueba es equivalente a 1 menos la probabilidad de un error de tipo II. Una evaluacin de impacto tiene mucha potencia cuando es improbable que se cometa un error de tipo II, es decir que es improbable verse decepcionado por resultados que indican que un programa no ha tenido impacto cuando en realidad s lo ha tenido. Desde el punto de vista de las polticas, las evaluaciones de impacto con insuciente potencia y grandes probabilidades de errores de tipo II no son solo intiles sino tambin costosas. Una alta probabilidad de error de tipo II amenaza la abilidad de cualquier resultado negativo de una evaluacin de impacto. Por lo tanto, la asignacin de recursos a estas evaluaciones de impacto con una potencia estadstica demasiado baja constituye una inversin arriesgada. Las evaluaciones de impacto con insuciente potencia tambin pueden tener consecuencias negativas en la prctica. Por ejemplo, en la intervencin hipottica sobre nutricin mencionada anteriormente, si se concluyera que el programa no es efectivo a pesar de que lo es, los responsables de polticas probablemente cancelaran un programa que, en realidad, benecia a los nios. Por consiguiente, es esencial minimizar la probabilidad de errores de tipo II mediante el uso de muestras sucientemente grandes. Los clculos de potencia son cruciales y pertinentes. Clculos de potencia paso a paso Ahora se analizarn los principios bsicos de los clculos de potencia, mediante el ejemplo sencillo de un programa asignado aleatoriamente. Para efectuar clculos de potencia hay que examinar las siguientes seis cuestiones: 1. El programa genera conglomerados? 2. Cul es el indicador de resultado?

180

La evaluacin de impacto en la prctica

3. El objetivo es comparar los impactos del programa entre subgrupos? 4. Cul es el nivel mnimo de impacto que justicara la inversin que se ha efectuado en la intervencin? 5. Cul es el nivel de potencia razonable para realizar la evaluacin? 6. Cul es la media y la varianza de los indicadores de resultado en la lnea de base? Cada uno de estos pasos se relaciona con el contexto poltico especco en el que se ha decidido realizar la evaluacin de impacto. Ya se ha sealado que la escala mnima de intervencin de un programa inuye en el tamao de la muestra para la evaluacin. El primer paso en los clculos de potencia es determinar si el programa que se quiere evaluar genera algn conglomerado. Una intervencin cuyo nivel sea diferente del nivel en el que se querran medir los resultados genera conglomerados. Por ejemplo, puede ser necesario implementar un programa a nivel de hospitales, escuelas o comunidades, pero el impacto se mide sobre pacientes, estudiantes o residentes locales (vase el cuadro 11.1)7. Las caractersticas de los datos de muestra extrados de programas con conglomerados son algo diferentes de las de los extrados de programas sin conglomerados. Por consiguiente, los clculos de potencia tambin conllevarn pasos ligeramente diferentes, segn el programa en cuestin asigne benecios aleatoriamente entre los conglomerados o se limite a asignar aleatoriamente benecios entre todas las unidades de una poblacin. Se analizar cada situacin por separado. Se empieza por examinar los principios del clculo de potencia cuando no existen conglomerados, es decir, cuando el tratamiento se asigna al nivel en el que se observan los resultados, y despus se analizarn los clculos de potencia cuando existen conglomerados.

Cuadro 11.1 Ejemplos de conglomerados Nivel en el que se asignan los benecios (conglomerado) Comunidad Unidad en la que se miden los resultados Hogares

Benecio Transferencias monetarias condicionadas Tratamiento del paludismo Programa de capacitacin

Escuela Barrio

Individuos Individuos

Elegir la muestra

181

Clculos de potencia sin conglomerados Supngase que se ha resuelto la primera cuestin al determinar que los benecios del programa no se asignan por conglomerados. En otras palabras, el programa a evaluar asigna aleatoriamente los benecios entre todas las unidades de una poblacin elegible. En este caso, la muestra de evaluacin puede formarse mediante la extraccin de una simple muestra aleatoria de toda la poblacin de inters. El segundo y el tercer paso estn relacionados con los objetivos de la evaluacin. En el segundo paso, se deben identicar los indicadores de resultado ms importantes que el programa tiene previsto mejorar. Estos indicadores se derivan de la pregunta fundamental de investigacin de la evaluacin y del marco lgico, como se explica en la primera parte. El presente anlisis tambin ayudar a entender el tipo de indicadores que son ms adecuados para las evaluaciones de impacto. Tercero, la principal pregunta sobre polticas de la evaluacin puede conllevar la comparacin de los impactos del programa entre subgrupos, divididos por variables tales como la edad o los ingresos. Si este fuera el caso, se requerir una muestra ms grande, y los clculos de potencia tendrn que ajustarse en consecuencia. Por ejemplo, es posible que una pregunta fundamental sobre polticas sea si el programa de educacin tiene mayor impacto sobre los estudiantes mujeres o varones. Por intuicin, se necesitar un nmero suciente de estudiantes de cada gnero en el grupo de tratamiento y en el grupo de comparacin para detectar el impacto en cada subgrupo. Comparar el impacto de un programa entre dos subgrupos puede duplicar el tamao necesario de la muestra. La consideracin de la heterogeneidad entre ms grupos (por ejemplo, por edad) tambin puede aumentar considerablemente el tamao de muestra requerido. Cuarto, se debe determinar el nivel mnimo de impacto que justicara la inversin en un programa. Esta es fundamentalmente una cuestin poltica, ms que tcnica. Vale la pena invertir en un programa de transferencias monetarias condicionadas si reduce el nivel de pobreza un 5%, 10% o 15%? Vale la pena implementar un programa de capacitacin laboral si aumenta los ingresos un 5%, 10% o 15%? La respuesta depende mucho del contexto, aunque en todos los casos es necesario determinar el cambio en los indicadores de resultado que justicar la inversin efectuada en el programa. Dicho de otro modo, por debajo de qu nivel de impacto se debe considerar que una intervencin no ha tenido xito? La respuesta a esta pregunta depender no solo del costo del programa y el tipo de benecios que ofrece, sino tambin del costo de oportunidad de no invertir los fondos en una intervencin alternativa. Los clculos de potencia permiten ajustar el tamao de la muestra para detectar el efecto mnimo deseado. Para que una evaluacin identique un impacto moderado, ser necesario que las estimaciones de cualquier diferencia en los resultados medios entre los grupos de tratamiento y de comparacin sean muy precisas, lo que requiere una muestra grande. En cambio, para las intervenciones que solo se considera que valen la pena si generan grandes cambios en los indicadores del resultado,

182

La evaluacin de impacto en la prctica

las muestras para evaluar impacto sern ms pequeas. No obstante, el efecto mnimo detectable debe jarse de manera conservadora, ya que es poco probable que se detecte cualquier impacto inferior al efecto mnimo deseado. Quinto, el evaluador necesita consultar a expertos en estadstica para determinar el nivel de potencia razonable de la evaluacin de impacto. Como se seal anteriormente, la potencia de una prueba es equivalente a 1 menos la probabilidad de un error de tipo II. Por lo tanto, la potencia va de 0 a 1, y cuanto ms alto es el valor menos riesgo existe de que no se identique un impacto real. Una potencia del 80% es un nivel de referencia habitual para los clculos de potencia. Signica que se observar un impacto en el 80% de los casos en que se haya producido. Un nivel ms alto de potencia, de 0,9 (o 90%), suele ofrecer una referencia til pero ms conservadora, que aumenta el tamao requerido de la muestra8. Sexto, debe pedirse a un experto en estadstica que estime algunos parmetros bsicos, como una media o varianza de lnea de base, de los indicadores de resultado. Estos deben obtenerse preferiblemente de los datos existentes recolectados en una situacin similar a las condiciones en las que se implementar el programa bajo estudio9. Es muy importante sealar que cuanto ms varen los resultados de inters, ms difcil ser estimar un efecto de tratamiento able. En el ejemplo de la intervencin hipottica sobre nutricin, el peso de los nios es el resultado de inters. Si todas las unidades pesan lo mismo en la lnea de base, ser factible estimar el impacto de la intervencin sobre la nutricin con una muestra relativamente pequea. Por el contrario, si el peso de los nios en la lnea de base vara mucho, se requerir una muestra ms grande. Una vez que se hayan completado estos seis pasos, el experto en estadstica puede efectuar un clculo de potencia mediante programas estadsticos10. El clculo de potencia resultante indicar el tamao requerido de la muestra, en funcin de los parmetros establecidos en los pasos 1 a 6. Los propios clculos son sencillos, una vez que se haya respondido a las preguntas de naturaleza poltica (especialmente los pasos 3 y 4)11. Cuando pida consejo a expertos en estadstica, el evaluador debe solicitar un anlisis de la sensibilidad del clculo de potencia a los cambios en los supuestos. Es decir, es importante entender cunto tendr que aumentar el tamao de la muestra con supuestos ms conservadores (como un menor impacto previsto, una mayor varianza del indicador del resultado o un nivel de potencia superior). Tambin es recomendable encargar clculos de potencia para varios indicadores de resultado, ya que los tamaos requeridos de la muestra pueden variar considerablemente, por ejemplo si algunos indicadores de resultado son ms variables que otros. Finalmente, los clculos de potencia ofrecen el tamao mnimo requerido de la muestra. En la prctica, las dicultades de implementacin suelen hacer que el tamao real de la muestra sea inferior al tamao previsto. Es necesario considerar detenidamente este tipo de desviaciones; se recomienda agregar un margen del 10% o del 20% al tamao de la muestra denido por los clculos de potencia para dar cuenta de estos factores12.

Concepto clave:
El tamao requerido de la muestra aumenta si el efecto mnimo detectable es pequeo, si el indicador del resultado es muy variable o se produce rara vez, y si el objetivo de la evaluacin es comparar los impactos entre varios subgrupos.

Elegir la muestra

183

Qu tamao de muestra se necesita para evaluar la expansin del Programa de Subsidio del Seguro de Salud? Supngase que el presidente y el ministro de Salud estn satisfechos con la calidad y los resultados de la evaluacin del PSSS, el ejemplo empleado en los captulos anteriores. Sin embargo, antes de ampliar el programa, deciden poner a prueba una versin expandida (que denominan PSSS+). El PSSS paga una parte del costo de seguro de salud de los hogares rurales pobres, cubriendo el costo de la atencin primaria y los medicamentos, pero no la hospitalizacin. El presidente y el ministro de Salud se preguntan si un PSSS+ ampliado que cubra tambin la hospitalizacin reducira an ms el gasto directo en salud. Le piden que disee una evaluacin de impacto para determinar si el PSSS+ reduce an ms el gasto en salud de los hogares pobres rurales. En este caso, es fcil elegir el diseo de la evaluacin de impacto: el PSSS+ cuenta con recursos limitados y no se puede implementar inmediatamente a nivel universal. En consecuencia, la asignacin aleatoria sera el mtodo ms viable y robusto para evaluar el impacto. El presidente y el ministro de Salud se muestran muy favorables. Para nalizar el diseo de la evaluacin de impacto, se contrata a un experto en estadstica que ayudar a determinar el tamao necesario de la muestra. Antes de empezar a trabajar, el experto pide informacin clave sobre la base de una lista de control con seis puntos. 1. El experto pregunta si el PSSS+ generar conglomerados. Usted no est totalmente seguro. Cree que podra ser posible asignar aleatoriamente el conjunto ampliado de benecios a nivel de los hogares, entre todos los hogares rurales pobres que ya participan en el PSSS. Sin embargo, es consciente de que el presidente y el ministro de Salud pueden preferir asignar el programa ampliado a nivel comunitario, lo que generara conglomerados. El experto sugiere efectuar clculos de potencia sobre un caso de referencia sin conglomerados y examinar despus el cambio en los clculos si existen conglomerados. 2. El experto pregunta cul es el indicador de resultado. Usted le explica que el Gobierno est interesado en un indicador bien denido: gasto directo en salud de los hogares. El experto busca la fuente ms actualizada de informacin para obtener valores de referencia de este indicador y sugiere que se use la encuesta de seguimiento de la evaluacin del PSSS. Seala que, entre los hogares que participaron en el programa, el promedio de gasto directo en salud per cpita anual fue de US$7,84.

184

La evaluacin de impacto en la prctica

3. El experto vuelve a comprobar que no hay inters en medir los impactos del programa sobre subgrupos tales como regiones del pas o subconjuntos especcos de la poblacin. 4. El experto pregunta acerca del nivel mnimo de impacto que justicara la inversin en la intervencin. En otras palabras, qu reduccin adicional del gasto directo en salud por debajo del promedio de referencia de US$7,84 hara que mereciera la pena esta intervencin? Hace hincapi en que no se trata de una consideracin tcnica sino de una decisin poltica, y por ello un responsable de polticas como usted debe ser el encargado de determinar el efecto mnimo que debe poder detectar la evaluacin. Usted recuerda que el presidente mencion que el programa PSSS+ se considerara efectivo si redujera en US$2 el gasto directo en salud de los hogares. No obstante, para nes de evaluacin, preere ser conservador para determinar el impacto mnimo detectable, ya que es improbable que se observe cualquier impacto inferior. Para entender cmo vara el tamao requerido de la muestra en funcin del efecto mnimo detectable, sugiere que el experto efecte clculos para una reduccin de mnima de US$1, US$2 y US$3 del gasto directo en salud. 5. El experto pregunta cul sera el nivel de potencia razonable para realizar la evaluacin. Agrega que los clculos de potencia suelen realizarse con una potencia de 0,9, pero sugiere que se realicen pruebas de robustez ms adelante con un nivel menos conservador, de 0,8. 6. Finalmente, el experto pregunta cul es la varianza del indicador de resultado en la poblacin de inters. Se reere a la base de datos de los hogares tratados por el PSSS y seala que la desviacin estndar del gasto directo en salud es de US$8. A partir de toda esta informacin, el experto emprende los clculos de potencia. Segn lo acordado, empieza con el caso ms conservador, con una potencia de 0,9. Genera los resultados que se muestran en el cuadro 11.2. El experto concluye que para detectar una disminucin de US$2 en el gasto directo en salud con una potencia de 0,9, la muestra debe contener al menos 672 unidades (336 unidades tratadas y 336 unidades de comparacin, sin conglomerados). Seala que si usted se conformara con detectar una reduccin de US$3 en el gasto directo en salud, sera suciente con una muestra ms pequea, de al menos 300 unidades (150 unidades en cada grupo). Por el contrario, sera necesaria una muestra mucho ms grande, de al menos 2688 unidades (1344 en cada grupo), para detectar una disminucin de US$1 en el gasto directo en salud.

Elegir la muestra

185

Cuadro 11.2 Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,9; sin conglomerados Efecto mnimo detectable US$1 US$2 US$3 Grupo de tratamiento 1344 336 150 Grupo de comparacin 1344 336 150

Muestra total 2688 672 300

Nota: El efecto mnimo detectable consiste en la reduccin mnima del gasto directo en salud de los hogares detectado por la evaluacin de impacto.

El experto produce a continuacin otro cuadro con un nivel de potencia de 0,8. El cuadro 11.3 muestra que el tamao requerido de la muestra es inferior con una potencia de 0,8 que con una de 0,9. Para detectar una reduccin de US$2 en el gasto directo en salud de los hogares sera suciente una muestra total de al menos 502 unidades. Para detectar una reduccin de US$3 seran necesarias al menos 244 unidades. Sin embargo, para detectar una reduccin de US$1 seran necesarias al menos 2008 unidades en la muestra. El experto subraya que los resultados son habituales en los clculos de potencia: Cuanto mayor (ms conservador) sea el nivel de potencia, mayor ser el tamao requerido de la muestra. Cuanto menor sea el impacto a detectar, mayor ser el tamao requerido de la muestra.

Cuadro 11.3 Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,8; sin conglomerados Efecto mnimo detectable US$1 US$2 US$3 Grupo de tratamiento 1004 251 112 Grupo de comparacin 1004 251 112

Muestra total 2008 502 224

Nota: El efecto mnimo detectable consiste en la reduccin mnima del gasto directo en salud de los hogares detectado por la evaluacin de impacto.

186

La evaluacin de impacto en la prctica

Cuadro 11.4 Tamao requerido de la muestra para detectar varios efectos mnimos (aumento de la tasa de hospitalizacin); potencia = 0,9; sin conglomerados Efecto mnimo detectable (punto porcentual) 1 2 3

Grupo de tratamiento 9717 2430 1080

Grupo de comparacin 9717 2430 1080

Muestra total 19 434 4860 2160

Nota: El efecto mnimo detectable describe el cambio mnimo en la tasa de utilizacin de hospitales (expresada en puntos porcentuales) que debe detectar la evaluacin de impacto.

El experto pregunta si se quiere efectuar clculos de potencia para otros resultados de inters. Usted sugiere que considere tambin el tamao requerido de la muestra para detectar si el PSSS+ afecta a la tasa de hospitalizacin. En la muestra de comunidades participantes en el PSSS, el 5% de los hogares tienen a un miembro hospitalizado en algn ao. El experto produce un nuevo cuadro (11.4), que demuestra la necesidad de muestras relativamente grandes para detectar incluso grandes cambios en la tasa de hospitalizacin, de 1, 2 y 3 puntos porcentuales con respecto a la tasa de lnea de base del 5%. El cuadro muestra que el tamao requerido de la muestra es mayor para este resultado (la tasa de hospitalizacin) que para el gasto directo en salud. El experto concluye que si interesa detectar los impactos sobre ambos resultados, deben usarse las muestras ms grandes, que surgen de los clculos de potencia en relacin con las tasas de hospitalizacin. El experto recomienda que, si se usan los tamaos de muestra de los clculos de potencia efectuados para el gasto directo en salud, habra que informar al presidente y al ministro de Salud de que la evaluacin no tendr suciente potencia para detectar efectos pertinentes para las polticas sobre las tasas de hospitalizacin.

PREGUNTA 8

A. Qu tamao de muestra recomendara para estimar el impacto del PSSS+ sobre el gasto directo en salud? B. Ese tamao de muestra sera suciente para detectar los cambios en la tasa de hospitalizacin?

Clculos de potencia con conglomerados El anlisis anterior introdujo los principios para la ejecucin de clculos de potencia para programas que no crean conglomerados. Sin embargo, como se seal en la segunda parte, algunos programas asignan benecios a nivel de conglomerados. Ahora se describir brevemente la manera de adaptar los principios bsicos del clculo de potencia para las muestras en conglomerados.

Elegir la muestra

187

El nmero de conglomerados es mucho ms importante que el nmero de unidades dentro de ellos. Es necesario tener un nmero suciente de conglomerados para comprobar si un programa ha tenido impacto mediante la comparacin de los resultados de las unidades de tratamiento y de comparacin. Si asigna aleatoriamente el tratamiento entre un nmero pequeo de conglomerados, es poco probable que los conglomerados de tratamiento y de comparacin sean idnticos. La asignacin aleatoria entre dos distritos, dos escuelas o dos hospitales no garantizar que los conglomerados sean similares. Por el contrario, la asignacin aleatoria de una intervencin entre 100 distritos, 100 escuelas o 100 hospitales tiene ms probabilidades de garantizar que los grupos de tratamiento y de comparacin sean similares. En denitiva, es necesario un nmero suciente para alcanzar un equilibrio. El nmero de conglomerados tambin es importante para la precisin de los impactos estimados. Se necesita un nmero suciente de conglomerados para comprobar con suciente potencia la hiptesis de que un programa tiene impacto. Por lo tanto, es muy importante garantizar que el nmero de conglomerados disponibles para la asignacin aleatoria sea sucientemente grande. De acuerdo con lo explicado anteriormente, se puede establecer el nmero de conglomerados necesarios para una comprobacin precisa de la hiptesis mediante clculos de potencia. La ejecucin de clculos de potencia para muestras de conglomerados requiere un paso adicional en el procedimiento bsico: 1. El programa crea conglomerados? 2. Cul es el indicador de resultado? 3. El objetivo es comparar los impactos del programa entre subgrupos? 4. Cul es el nivel mnimo de impacto que justicara la inversin que se ha efectuado en la intervencin? 5. Cul es la media y la varianza de los indicadores del resultado en la lnea de base? 6. Cunto vara el indicador de resultado en la poblacin de inters? 7. Cunto vara el indicador de resultado dentro de los conglomerados? En comparacin con los clculos de potencia sin conglomerados, solo se ha agregado el ltimo paso: ahora tambin el experto en estadstica debe determinar el coeciente de correlacin entre los resultados dentro de los conglomerados. En el punto extremo, todos los resultados dentro de un conglomerado estn perfectamente correlacionados. Por ejemplo, es posible que el ingreso de los hogares no sea especialmente variable dentro de una misma comunidad, pero que se produzcan desigualdades signicativas de ingresos entre comunidades. En este caso, si considera agregar una unidad a su muestra de evaluacin, el hecho de que provenga de

188

La evaluacin de impacto en la prctica

una nueva comunidad aumentar mucho ms la potencia que incorporar una unidad de una comunidad ya representada. De hecho, en este caso es probable que la segunda unidad sea muy similar a la unidad original ya incluida de la misma comunidad. En general, la correlacin intraconglomerados de los resultados aumenta el nmero de conglomerados necesarios para lograr cierto nivel de potencia. En las muestras con conglomerados, los clculos de potencia subrayan los benecios relativos entre la agregacin de conglomerados y la agregacin de observaciones dentro de los conglomerados existentes. El aumento relativo de la potencia derivado de la agregacin de una unidad a un nuevo conglomerado casi siempre es mayor que el de agregar una unidad a un conglomerado existente. Aunque el aumento de potencia provocado por agregar un nuevo conglomerado puede ser drstico, esta agregacin tambin puede tener implicaciones operativas y aumentar el costo de la recoleccin de datos. La siguiente seccin explica la manera de efectuar clculos de potencia con conglomerados en el caso del PSSS+ y analiza algunas de las decisiones que conlleva. En muchos casos, se requieren al menos 30 a 50 conglomerados en los grupos de tratamiento y de comparacin para obtener suciente potencia y garantizar la similitud de sus caractersticas de lnea de base, cuando se usan mtodos de asignacin aleatoria. Sin embargo, el nmero puede variar en funcin de varios parmetros analizados anteriormente, as como del coeciente de correlacin intraconglomerados. Es ms, es probable que aumente el nmero cuando se usen otros mtodos distintos de la asignacin aleatoria (suponiendo que todo lo dems se mantiene constante). Qu tamao de muestra se necesita para evaluar la expansin del Programa de Subsidio del Programa de Salud con conglomerados? Despus de la primera conversacin con el experto sobre los clculos de potencia para el PSSS+, usted decidi hablar brevemente con el presidente y el ministro de Salud acerca de las implicaciones de la asignacin aleatoria de los benecios del PSSS+ entre las unidades de la poblacin beneciaria del PSSS bsico. La consulta revel que este procedimiento no sera polticamente viable: sera difcil explicar por qu una persona recibe los benecios ampliados y no su vecino en la misma comunidad. Por lo tanto, en lugar de la asignacin aleatoria a nivel individual, usted sugiere la seleccin aleatoria de una serie de comunidades del PSSS para hacer una prueba piloto del PSSS+. Por consiguiente, todos los residentes de la comunidad seleccionada resultarn elegibles. Este procedimiento crear conglomerados y requerir nuevos clculos de potencia. Ahora debe determinar el tamao requerido de la muestra para evaluar el impacto del PSSS+ cuando se asigna aleatoriamente por conglomerado. Vuelve a consultar al experto en estadstica, quien asegura que solo har falta un poco ms de trabajo. Solo queda una pregunta por responder de la lista de control. Se necesita saber cunto vara el indicador del resultado dentro de los conglomerados. Afortunadamente, tambin se puede responder a esta pregunta mediante los datos de seguimiento del PSSS, en los que se observa que el coeciente de correlacin del gasto directo en salud dentro de la comunidad equivale a 0,04.

Concepto clave:
El nmero de conglomerados es mucho ms importante para los clculos de potencia que el nmero de unidades dentro de los conglomerados. A menudo se requieren al menos 30 conglomerados en cada uno de los grupos de tratamiento y de comparacin.

Elegir la muestra

189

El experto tambin pregunta si se ha jado un umbral sobre el nmero de comunidades en las que es viable la implementacin del nuevo programa piloto. Dado que el programa cuenta ahora con 100 comunidades, usted explica que podra incluir, como mximo, 50 comunidades de tratamiento y 50 de comparacin en el PSSS+. Con esta informacin, el experto efecta los clculos de potencia que se muestran en el cuadro 11.5, con una potencia de 0,9. El experto concluye que para detectar una reduccin de US$2 en el gasto directo en salud, la muestra debe incluir al menos 900 unidades, es decir, 9 unidades por conglomerado para 100 conglomerados. Seala que este nmero es superior al de la muestra con asignacin aleatoria a nivel de hogares, que solo requera 672 unidades. Para detectar una disminucin de US$3 en el gasto directo en salud, la muestra tendra que contar con al menos 340 unidades, 4 en cada uno de los 85 conglomerados. Sin embargo, cuando el experto intenta determinar la muestra necesaria para detectar una reduccin de US$1 en el gasto directo en salud, constata que con 100 conglomerados no sera posible hacerlo. Se necesitaran al menos 109 conglomerados, e incluso el nmero de observaciones dentro de cada conglomerado sera sumamente elevado. Esta constatacin subraya la necesidad de un gran nmero de conglomerados para que una evaluacin tenga suciente potencia para detectar impactos relativamente pequeos, independientemente del nmero de observaciones dentro de los conglomerados. El experto recomienda entonces que se considere la variacin de estas cifras con una potencia de 0,8 (cuadro 11.6). El tamao requerido de la muestra vuelve a ser inferior para una potencia de 0,8 que para una potencia de 0,9, pero sigue siendo superior para la muestra con conglomerados que para la muestra simple aleatoria. El experto describe a continuacin la variacin del nmero total de observaciones necesarias en la muestra en funcin del nmero total de conglomerados. Decide repetir el clculo con un efecto mnimo detectable de US$2 y una potencia de 0,9.

Cuadro 11.5 Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,9; con un mximo de 100 conglomerados Efecto mnimo detectable US$1 US$2 US$3 Nmero de conglomerados Inviable 100 85 Unidades por conglomerado Inviable 9 4 Muestra total con conglomerados Inviable 900 340 Muestra total sin conglomerados 2688 672 300

Nota: El efecto mnimo deseado consiste en la reduccin mnima del gasto directo en salud de los hogares detectado por la evaluacin de impacto.

190

La evaluacin de impacto en la prctica

Cuadro 11.6 Tamao requerido de la muestra para detectar varios efectos mnimos (disminucin del gasto en salud de los hogares); potencia = 0,8; con un mximo de 100 conglomerados Efecto mnimo detectable US$1 US$2 US$3 Muestra total con conglomerados 10 200 630 246 Muestra total sin conglomerados 2008 502 224

Nmero de conglomerados 100 90 82

Unidades por conglomerado 102 7 3

Nota: El efecto mnimo detectable consiste en la reduccin mnima del gasto directo en salud de los hogares detectado por la evaluacin de impacto.

El tamao requerido de la muestra total para estimar dicho efecto aumenta considerablemente cuando se reduce el nmero de conglomerados (cuadro 11.7). Con 100 conglomerados, se necesita una muestra de 900 observaciones. Si solo se dispusiera de 30 conglomerados, la muestra total tendra que contener 6690 observaciones. Por el contrario, si se dispusiera de 157 conglomerados, solo se necesitaran 785 observaciones.

PREGUNTA 9

A. Qu tamao total de la muestra recomendara para estimar el impacto del PSSS+ sobre el gasto directo en salud? B. En cuntas comunidades recomendara que el presidente y el ministro de Salud implementen el PSSS+?

Cuadro 11.7 Tamao requerido de la muestra para detectar un impacto mnimo de US$2 con varias cantidades de conglomerados; potencia = 0,9 Efecto mnimo detectable US$2 US$2 US$2 US$2 US$2 US$2 US$2 Nmero de conglomerados 30 60 86 100 120 135 157 Unidades por conglomerado 223 20 11 9 7 6 5 Muestra total sin conglomerados 6690 1200 946 900 840 810 785

Elegir la muestra

191

En resumen La calidad de una evaluacin de impacto depende directamente de la calidad de los datos en los que se basa. En este sentido, las muestras construidas apropiadamente con un tamao adecuado son cruciales. Se han examinado los principios bsicos para llevar a cabo clculos de potencia. Cuando se realizan durante la planicacin de una evaluacin, constituyen una herramienta esencial para contener el costo de la recoleccin de datos al evitar la recopilacin de ms informacin de la necesaria, a la vez que se minimiza el riesgo de, por haber recogido insuciente informacin, llegar a la conclusin, errnea de que un programa no ha tenido impacto cuando en realidad s podra haberlo tenido. Aunque los clculos de potencia requieren fundamentos tcnicos y estadsticos, se basan en decisiones polticas. En general, el aumento del tamao de la muestra genera una reduccin del rendimiento, por lo que la determinacin de la muestra adecuada requerir con frecuencia un equilibrio entre la necesidad de obtener estimaciones precisas del impacto y las consideraciones presupuestarias. El ejemplo de referencia es una evaluacin de impacto implementada mediante el mtodo de asignacin aleatoria. Se trata del caso ms simple y, por lo tanto, ms adecuado para transmitir la intuicin en la que se basan los clculos de potencia. Sin embargo, no se han analizado muchos aspectos prcticos de estos clculos, y se deben considerar detenidamente las desviaciones de los casos bsicos examinados en este libro. Por ejemplo, los mtodos cuasi experimentales de evaluacin de impacto casi siempre requieren muestras ms grandes que el mtodo de referencia de asignacin aleatoria. Los requisitos de tamao de la muestra tambin aumentan si existe un riesgo de sesgo en los efectos de tratamiento estimados y cuando el cumplimiento es imperfecto. Estas cuestiones estn fuera del alcance de este libro, pero Spybrook y otros (2008) y Rosenbaum (2009, captulo 14) las analizan con ms detalle. Existe una serie de instrumentos para las personas interesadas en seguir explorando el diseo de muestras. Por ejemplo, la W.T. Grant Foundation ha desarrollado el programa informtico Optimal Design Software for Multi-Level and Longitudinal Research, disponible gratuitamente, que ayuda al anlisis de la potencia estadstica en presencia de conglomerados. En la prctica, muchas organizaciones que encargan una evaluacin contratan a un experto para que efecte los clculos de potencia, quien debera poder asesorar cuando se usen mtodos distintos de la asignacin aleatoria.

Concepto clave:
Los mtodos cuasi experimentales de evaluacin de impacto casi siempre requieren muestras ms grandes que el mtodo de referencia de asignacin aleatoria.

Decidir sobre la estrategia de muestreo


El tamao no es el nico factor relevante para asegurar que una muestra es apropiada. El proceso mediante el que se la extrae de la poblacin de inters tambin es crucial. Los principios de muestreo pueden guiar la extraccin de muestras representativas. El muestreo requiere tres pasos: 1. Determinar la poblacin de inters.

192

La evaluacin de impacto en la prctica

2. Identicar un marco muestral. 3. Extraer el nmero de unidades requeridas por los clculos de potencia del marco muestral. Primero, se debe denir claramente la poblacin de inters13. Esto requiere una denicin precisa de la unidad de observacin de la que se medirn los resultados, especicando claramente la cobertura geogrca o cualquier otro atributo pertinente que caracterice a la poblacin. Por ejemplo, si se administra un programa de desarrollo infantil, puede interesar medir el desarrollo cognitivo de los nios de 3 a 6 aos de todo el pas, solo para los que viven en reas rurales o solo para los matriculados en preescolar. Segundo, una vez establecida la poblacin de inters, se debe establecer un marco muestral. El marco muestral es la lista ms exhaustiva que se puede obtener de unidades de la poblacin de inters. Idealmente, debe coincidir exactamente con la poblacin de inters. Por ejemplo, un censo completo y totalmente actualizado de la poblacin de inters constituira un marco muestral ideal. En la prctica, se suelen usar como marcos muestrales listas existentes como los censos de poblacin, los censos de instalaciones o los listados de inscritos. Se requiere un marco muestral adecuado para asegurar que las conclusiones extradas del anlisis de una muestra puedan generalizarse a toda la poblacin. De hecho, un marco muestral que no coincida exactamente con la poblacin de inters crea un sesgo de cobertura, como muestra el grco 11.2. Cuando existe sesgo de cobertura, los resultados de la muestra no tienen plena validez externa para toda la poblacin de inters, sino solo para la poblacin incluida en el marco muestral.

Concepto clave:
Un marco muestral es la lista ms exhaustiva que se puede obtener de unidades de la poblacin de inters. Se produce un sesgo de cobertura cuando el marco muestral no corresponde perfectamente con la poblacin de inters.

Grco 11.2

Un marco muestral vlido cubre a toda la poblacin de inters

Marco muestral vlido

Marco muestral invlido

Poblacin de inters

Elegir la muestra

193

Concepto clave:
El muestreo es el proceso mediante el que se extraen unidades de un marco muestral. El muestreo probabilstico asigna una probabilidad de extraccin denida a cada unidad del marco muestral.

Como consecuencia, los sesgos de cobertura entorpecen la interpretacin de los resultados de la evaluacin de impacto, ya que no est claro de qu poblacin se han obtenido. Cuando se considera extraer una nueva muestra o valorar la calidad de una muestra existente es importante determinar si el mejor marco muestral disponible coincide con la poblacin de inters. El grado en que se pueden generalizar las estadsticas computadas a partir de la muestra a toda la poblacin de inters depende de la magnitud del sesgo de cobertura: en otras palabras, la falta de correspondencia entre el marco muestral y la poblacin de inters. Por ejemplo, se puede producir un sesgo de cobertura cuando interesan todos los hogares de un pas pero se usa el directorio telefnico como marco muestral, lo que hace que no se incluyan todos los hogares sin telfono. Esto puede sesgar los resultados de la evaluacin si los hogares sin telfono tienen tambin otras caractersticas diferentes de las de la poblacin de inters, y si dichas caractersticas afectan a la manera en que los hogares se beneciaran de la intervencin. Por ejemplo, los hogares sin telfono pueden estar en reas rurales remotas. Si se quiere evaluar el impacto de un programa de capacitacin, la omisin de la poblacin ms aislada afectar a los resultados de la evaluacin porque es probable que esos hogares tengan ms dicultades para acceder al mercado laboral. Los sesgos en la cobertura constituyen un riesgo real, y la elaboracin de marcos muestrales es una labor delicada. Por ejemplo, los datos del censo pueden contener todas las unidades de una poblacin. Sin embargo, si ha pasado mucho tiempo entre el momento del censo y la recoleccin de la muestra de datos, el marco muestral ya no estar totalmente al da y se crear un sesgo de cobertura. Es ms: es posible que los datos del censo no contengan suciente informacin sobre caractersticas especcas para elaborar un marco muestral. Si la poblacin de inters consiste en nios que asisten a la escuela, y el censo no contiene datos sobre la matriculacin en preescolar, ser necesario contar con datos adicionales sobre matriculacin o listados de los centros escolares14. Una vez que haya identicado a la poblacin de inters y un marco muestral, debe elegir un mtodo para extraer la muestra. Se pueden utilizar varios procedimientos de muestreo. Los mtodos de muestreo probabilstico son los ms rigurosos porque asignan una probabilidad de extraccin bien denida a cada unidad del marco muestral. Los tres mtodos principales de muestreo probabilstico son los siguientes15: Muestreo aleatorio. Cada unidad de la poblacin tiene la misma probabilidad de ser extrada16. Muestreo aleatorio estraticado. La poblacin se divide en grupos (por ejemplo, hombres y mujeres) y el muestreo aleatorio se realiza dentro de cada grupo. Como consecuencia, cada unidad dentro de cada grupo (o estrato) tiene la misma probabilidad de ser extrada. Siempre que cada grupo sea lo sucientemente grande,

194

La evaluacin de impacto en la prctica

el muestreo aleatorio permite inferir resultados no solo a nivel de la poblacin, sino tambin dentro de cada grupo. La estraticacin es esencial para las evaluaciones destinadas a comparar los impactos del programa entre subgrupos. Muestreo de conglomerados. Las unidades se agrupan en conglomerados y se extrae una muestra aleatoria de estos, despus de lo cual todas las unidades de los seleccionados constituyen la muestra, o se extrae aleatoriamente una serie de unidades dentro del conglomerado. Esto signica que cada conglomerado tiene una probabilidad bien denida de resultar seleccionado, y las unidades dentro de un conglomerado seleccionado tambin la tienen. En el contexto de una evaluacin de impacto, el procedimiento para extraer una muestra suele depender de las reglas de elegibilidad del programa que se evala. Como se describe en el anlisis del tamao de la muestra, si la unidad viable de implementacin ms pequea es mayor que la unidad de observacin, la asignacin aleatoria de benecios generar conglomerados. Por este motivo, el muestreo de conglomerados suele aparecer en los estudios de la evaluacin de impacto. El muestreo no probabilstico puede llevar a graves errores de muestreo. A veces se usan muestreos dirigidos o muestreos de conveniencia en lugar de los procedimientos de muestreo probabilstico analizados. En estos casos, se pueden producir errores de muestreo aunque el marco muestral abarque a toda la poblacin y no exista sesgo en la cobertura. Por ejemplo, supngase una encuesta nacional en la que cada encuestador recolecta datos entre los hogares ms cercanos a las escuelas de cada comunidad. Cuando se usa este tipo de muestreo, es probable que la muestra no sea representativa de la poblacin de inters en conjunto. En concreto, se producir un sesgo de cobertura, ya que no se estudiar a los hogares remotos. Para nalizar, es necesario prestar especial atencin al marco muestral y al procedimiento de muestreo para determinar si los resultados obtenidos de cierta muestra tienen validez externa para toda la poblacin de inters. Aunque el marco muestral tenga una cobertura perfecta y se use un procedimiento de muestreo probabilstico, los errores no muestrales, que se analizarn en el captulo siguiente, tambin pueden limitar la validez de una muestra.

Notas
1. Vase nota 2 del captulo 2. 2. Tambin se necesitan datos sobre costos para el anlisis costo-benecio. 3. Para ver un anlisis detallado de las encuestas de hogares, puede consultar Grosh y Glewwe (2000) y Naciones Unidas (2005). Dal Poz y Gupta (2009) examinan algunas cuestiones relacionadas especcamente con la recoleccin de datos en el sector de salud. 4. El anlisis puede aplicarse a cualquier poblacin: toda la poblacin de inters, la poblacin de tratamiento o la poblacin de comparacin.

Elegir la muestra

195

5. Esta intuicin se concreta en el teorema denominado teorema del lmite central. En trminos formales, en el caso de un resultado y, el teorema del lmite central establece que la media de la muestra y constituye en promedio una estimacin vlida de la media de la poblacin. Adems, para un tamao de muestra n y una varianza de la poblacin , la varianza de la media de la muestra es inversamente proporcional al tamao de la muestra: . n Conforme aumenta el tamao de la muestra n, las estimaciones de la varianza de la muestra tienden hacia 0. En otras palabras, la media se estima con ms precisin en muestras grandes que en pequeas. Las consideraciones sociales y polticas, que hacen imposible la asignacin aleatoria dentro de los conglomerados, suelen hacer necesaria la asignacin de benecios por conglomerado. En el contexto de una evaluacin de impacto, la formacin de conglomerados suele ser necesaria debido a los probables efectos de derrame, o contaminacin de benecios del programa entre unidades dentro de los conglomerados. Junto con la potencia, tambin es necesario establecer un nivel de conanza que determine la probabilidad de un error de tipo I, normalmente del 0,05 (o 0,01 como un nivel conservador). Cuando se computa la potencia desde la lnea de base, la correlacin entre los resultados a lo largo del tiempo tambin se debe considerar en el clculo. Por ejemplo, Spybrook y otros (2008) introdujeron el Optimal Design, un programa informtico fcil de usar para efectuar clculos de potencia. En general, es deseable contar con grupos de tratamiento y de comparacin del mismo tamao. De hecho, para cierto nmero de observaciones en una muestra, se maximiza la potencia mediante la asignacin de la mitad de las observaciones al grupo de tratamiento y la otra mitad al grupo de comparacin. Sin embargo, los grupos de tratamiento y de comparacin no siempre deben tener el mismo tamao. Cualquier restriccin en contra de que ambos grupos tengan el mismo tamao o cualquier razn para tener grupos de diferente tamao debe comunicarse al experto en estadstica. El captulo 12 analizar con ms detalle las cuestiones relacionadas con la no respuesta y el desgaste de la muestra. En el contexto de una evaluacin de impacto, la poblacin total de inters puede asignarse al grupo de tratamiento o al grupo de comparacin. Esta seccin analiza en trminos generales la manera de extraer una muestra de la poblacin total de inters. Si se utiliza el muestreo de conglomerados y la lista de unidades dentro de los conglomerados no est actualizada, debe considerar la posibilidad de efectuar un listado completo de las unidades dentro de cada conglomerado. Por ejemplo, si se muestrea una comunidad, la institucin encargada de la recoleccin de datos puede empezar por enumerar todos los hogares de la comunidades antes de llevar a cabo la propia encuesta. Vase Cochran (1977), Lohr (1999), Kish (1995), Thompson (2002) o, a nivel ms bsico, Kalton (1983) para un anlisis detallado del muestreo (incluidos

var( y ) =

6.

7.

8. 9. 10.

11. 12.

13.

14.

196

La evaluacin de impacto en la prctica

otros mtodos, como el muestreo sistemtico o en etapas mltiples). Grosh y Muoz (1996), Fink (2008), Iarossi (2006) y Naciones Unidas (2005) ofrecen orientacin tcnica relacionada con el muestreo. 15. En trminos estrictos, las muestras se extraen de marcos de muestreo. En esta seccin se supone que el marco muestral coincide perfectamente con la poblacin.

Referencias
Cochran, William G. 1977. Sampling Techniques. 3. ed. Nueva York: John Wiley. Dal Poz, Mario y Gupta, Neeru. 2009. Assessment of Human Resources for Health Using Cross-National Comparison of Facility Surveys in Six Countries. Human Resources for Health 7: 22. Fink, Arlene G. 2008. How to Conduct Surveys: A Step by Step Guide. 4. ed. Beverly Hills, CA: Sage Publications. Galiani, Sebastin; Gertler, Paul y Schargrodsky, Ernesto. 2005. Water for Life: The Impact of the Privatization of Water Services on Child Mortality. Journal of Political Economy 113(1): 83-120. Grosh, Margaret y Glewwe, Paul, comps. 2000. Designing Household Survey Questionnaires for Developing Countries: Lessons from 15 Years of the Living Standards Measurement Study. Washington, DC: Banco Mundial. Grosh, Margaret y Muoz, Juan. 1996. A Manual for Planning and Implementing the Living Standards Measurement Study Survey. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 126. Banco Mundial, Washington, DC. Iarossi, Giuseppe. 2006. The Power of Survey Design: A Users Guide for Managing Surveys, Interpreting Results, and Inuencing Respondents. Washington, DC: Banco Mundial. Kalton, Graham. 1983. Introduction to Survey Sampling. Beverly Hills, CA: Sage Publications. Kish, Leslie. 1995. Survey Sampling. Nueva York: John Wiley. Lohr, Sharon. 1999. Sampling: Design and Analysis. Pacic Grove, CA: Brooks Cole. Naciones Unidas. 2005. Household Sample Surveys in Developing and Transition Countries. Nueva York: Organizacin de las Naciones Unidas. Pradhan, Menno y Rawlings, Laura B. 2002. The Impact and Targeting of Social Infrastructure Investments: Lessons from the Nicaraguan Social Fund. World Bank Economic Review 16 (2): 275-95. Rosenbaum, Paul. 2009. Design of Observational Studies. Springer Series in Statistics. Nueva York: Springer Verlag. Spybrook, Jessica; Raudenbush, Stephen; Liu, Xiaofeng; Congdon, Richard y Martnez, Andrs. 2008. Optimal Design for Longitudinal and Multilevel Research: Documentation for the Optimal Design Software. Nueva York: William T. Grant Foundation. Thompson, Steven K. 2002. Sampling. 2. ed. Nueva York: John Wiley.
Elegir la muestra

197

CAPTULO 12

Recolectar los datos


En el captulo 11, se mencion el tipo de datos necesarios para una evaluacin de impacto y se seal que la mayora de las evaluaciones requieren recolectar nuevos datos. A continuacin se vio cmo determinar el tamao necesario de la muestra y cmo extraerla. En este captulo, se examinan los pasos necesarios para recolectar los datos. Un entendimiento claro de estos pasos ayudar a asegurar que la evaluacin de impacto se base en datos de calidad que no comprometan el diseo de la evaluacin. En un primer paso, se necesitar contratar ayuda de una empresa o una institucin especializada en la recoleccin de datos. Paralelamente, se encargar la redaccin de un cuestionario adecuado. La institucin de recoleccin de datos reclutar y capacitar al personal de campo y probar que el cuestionario funcione adecuadamente en el terreno. Despus de hacer los ajustes necesarios, la institucin podr proceder con el trabajo de campo. Finalmente, los datos que se recolecten deben digitarse o procesarse y validarse antes de ser entregados y usados.

Contratar ayuda para recolectar los datos


Desde el principio se necesitar designar a la institucin encargada de recolectar los datos. Se deben valorar algunas consideraciones importantes a la hora de decidir quin recolectar los datos. Entre los posibles candidatos para este trabajo estn: la institucin encargada de implementar el programa;

199

otra institucin gubernamental con experiencia en la recoleccin de datos (como el instituto local de estadstica); una empresa independiente o grupo de expertos especializado en la recoleccin de datos. La institucin encargada de la recoleccin de datos siempre debe trabajar en estrecha coordinacin con el organismo ejecutor del programa. Dado que hay que recolectar los datos de lnea de base antes de que empiece cualquier operacin del programa, se requiere coordinacin para garantizar que no se implementa ninguna operacin que afecte a las unidades del estudio antes de que se realice la recoleccin de datos. Cuando los datos de lnea de base tambin se usan para el funcionamiento del programa (por ejemplo, cuando se recogen datos para realizar un ndice de focalizacin del programa, en el contexto de una evaluacin basada en un diseo de regresin discontinua), la institucin encargada de la recoleccin de datos debe ser capaz de procesarlos rpidamente y transferirlos al organismo ejecutor del programa. Tambin se requiere una estrecha coordinacin al programar la recoleccin de la encuesta de seguimiento. Por ejemplo, si se ha elegido la aleatorizacin a fases, la encuesta de seguimiento o nal debe efectuarse antes de asignar el programa al grupo de comparacin, para evitar cualquier contaminacin. Un factor crucial para decidir quin debe recolectar los datos es que deben usarse los mismos procedimientos para los grupos de tratamiento y de comparacin. Con frecuencia, el organismo ejecutor solo tiene contacto con el grupo de tratamiento y, por lo tanto, no est en una buena posicin para recolectar datos de los individuos del grupo de comparacin. Sin embargo, el uso de diferentes instituciones de recoleccin de datos acarrea riesgos importantes, ya que puede crear diferencias en los indicadores de resultados medidos en los dos grupos, simplemente por los distintos procedimientos de recoleccin empleados. Si el organismo ejecutor no puede recolectar ecazmente los datos para los grupos tanto de tratamiento como de comparacin, se debe subcontratar la recoleccin de datos. En algunos contextos, tambin puede ser recomendable encargar la recoleccin de datos a una institucin independiente para que se los considere objetivos. Las dudas sobre la objetividad de los datos recolectados por el organismo ejecutor de un programa pueden ser injusticadas, pero una institucin independiente de recoleccin de datos, sin intereses en los resultados de la evaluacin, puede dar ms credibilidad a la evaluacin de impacto. Dado que la recoleccin de datos conlleva una secuencia compleja de operaciones, se recomienda que se encargue de ella una institucin especializada y con experiencia. Muy pocos organismos ejecutores de programas cuentan con experiencia suciente para recopilar informacin de alta calidad a la escala necesaria para una evaluacin de impacto. En la mayora de los casos, se deber considerar encargar el trabajo a una institucin local, como un instituto nacional de estadstica o una empresa o grupo de expertos especializados. Encargar la recoleccin de datos a una institucin local como un instituto nacional de estadstica puede exponer a la institucin a los estudios de evaluacin de impacto y contribuir a desarrollar su capacidad en esta materia. Sin embargo,

200

La evaluacin de impacto en la prctica

es posible que los institutos locales de estadstica no siempre puedan asumir responsabilidades adicionales a sus actividades regulares. Tambin pueden carecer de la experiencia necesaria para realizar encuestas de evaluaciones de impacto que conlleven, por ejemplo, el seguimiento temporal de personas en encuestas panel. Si surgen dichas limitaciones, puede ser ms prctico contratar a una empresa independiente o un grupo de expertos especializado en la recoleccin de datos. No es necesario usar la misma institucin para recolectar informacin en la lnea de base y en las encuestas de seguimiento. Por ejemplo, para una evaluacin de impacto de un programa de capacitacin, en el que la poblacin de inters son las personas que se inscribieron al curso, la institucin encargada del curso podra recolectar los datos de lnea de base en el momento de la inscripcin. No obstante, es probable que la misma institucin no sea la ms adecuada para recolectar datos de seguimiento de los grupos de tratamiento y de comparacin una vez terminado el programa de capacitacin. En esta situacin, contratar por separado las rondas de recoleccin de datos tiene sus ventajas, pero se deben hacer esfuerzos para que, entre las rondas, no se pierda ninguna informacin que vaya a ser til para el seguimiento de los hogares o las unidades, adems de asegurar que los datos de lnea de base y de seguimiento se miden de manera congruente. Con el n de determinar la mejor institucin para recolectar datos para la evaluacin de impacto, se deben considerar todos estos factores (experiencia en la recoleccin de datos, capacidad para coordinarse con el organismo ejecutor del programa, independencia, oportunidades para el desarrollo de capacidad local, adaptabilidad al contexto de la evaluacin de impacto), junto con la posible calidad de los datos recolectados en cada caso. Una manera ecaz de identicar a la institucin mejor posicionada para recolectar datos de calidad es redactar trminos de referencia y pedir a las instituciones que presenten propuestas tcnicas y nancieras. Dado que la entrega inmediata y la calidad de los datos son fundamentales para la abilidad de la evaluacin de impacto, el contrato de la institucin encargada de la recoleccin de los datos debe redactarse cuidadosamente. El alcance del trabajo y los productos esperados se deben dejar totalmente claros. Adems, suele ser recomendable introducir incentivos en los contratos y conectarlos con indicadores claros de la calidad de los datos. Por ejemplo, como se subrayar ms adelante, la tasa de falta de respuesta es un indicador clave de la calidad de los datos. Para incentivar que las instituciones encargadas de la recoleccin de datos minimicen la falta de respuesta, el contrato puede estipular un costo unitario para el 90% inicial de la muestra, un costo unitario superior para las unidades del 90% al 95%, y un costo unitario an mayor para las unidades del 95% al 100%. Alternativamente, se puede redactar un contrato aparte para que la empresa encargada de la encuesta haga un seguimiento adicional de las unidades que no responden, por ejemplo individuos que migraron.

Desarrollar el cuestionario
Al encargar la recoleccin de datos se deben denir los objetivos de la evaluacin claramente y ofrecer orientacin especca acerca del contenido del instrumento de recoleccin de datos o cuestionario al organismo que los recolect. Los instrumentos
Recolectar los datos

201

de recoleccin de datos deben permitir medir toda la informacin necesaria para responder a las preguntas de polticas pblicas formuladas por la evaluacin de impacto. Denir indicadores Como se ha explicado, se deben medir los indicadores a lo largo de toda la cadena de resultados, entre ellos los indicadores de resultado nal, indicadores de resultados intermedios, medidas de la exposicin a la intervencin, factores exgenos y caractersticas de control. Es importante ser selectivo acerca de qu indicadores se miden. Esto contribuye a limitar los costos de recoleccin de datos, simplica el trabajo de la institucin encargada de la recoleccin y mejora la calidad de los datos recolectados al minimizar la duracin de las entrevistas. Recolectar datos que no sean pertinentes o que no se vayan a usar tiene un costo muy elevado. La redaccin por adelantado de un plan de anlisis de datos puede ayudar a identicar las prioridades y la informacin necesaria. Los datos sobre los indicadores de resultado y las caractersticas de control se deben recolectar congruentemente en la lnea de base y en la encuesta de seguimiento. La recoleccin de datos de lnea de base es muy deseable. Incluso cuando se use una asignacin aleatoria o un diseo de regresin discontinua, que para estimar el impacto requieren, en principio, simples diferencias en los indicadores de resultado despus de la intervencin, los datos de lnea de base son esenciales para comprobar que el diseo de la evaluacin de impacto sea adecuado (vase la lista de control en el recuadro 8.1 del captulo 8). Contar con datos de lnea de base tambin ofrece un seguro cuando no funciona la seleccin aleatoria, en cuyo caso se puede usar el mtodo de diferencias en diferencias. Los datos de lnea de base tambin son tiles durante la fase de anlisis, ya que las variables de control de lnea de base pueden ayudar a aumentar la potencia estadstica y le permiten analizar los impactos sobre distintas subpoblaciones. Finalmente, los datos de lnea de base se pueden usar para mejorar el diseo del programa. Por ejemplo, en ocasiones los datos de lnea de base permiten analizar la efectividad de la focalizacin o aportan informacin adicional acerca de los beneciarios al organismo ejecutor del programa. Medir indicadores Una vez que se han denido los indicadores esenciales que se deben recolectar, el siguiente paso ser determinar cmo medir esos indicadores. La medicin es un arte en s, y es mejor encargarla a la institucin contratada para la recoleccin de datos, los expertos en encuestas o los evaluadores. Se han escrito estudios enteros sobre la mejor manera de medir ciertos indicadores en contexto especcos, por ejemplo, la enunciacin exacta de las preguntas formuladas en las encuestas de hogares (vanse Grosh y Glewwe [2000] y Naciones Unidas [2005])1 o los procedimientos detallados que deben seguirse para recopilar datos de pruebas escolares o datos de salud.

202

La evaluacin de impacto en la prctica

Aunque estos anlisis pueden parecer engorrosos, son sumamente importantes. En este captulo se ofrecen algunos principios rectores para considerar al encargar la recoleccin de datos. Los indicadores de resultado deben ajustarse lo mximo posible a las mejores prcticas locales e internacionales. Siempre es til considerar cmo se han medido los indicadores de inters en las encuestas anteriores locales e internacionales para identicar las mejores prcticas. El uso de los mismos indicadores (incluidos los mismos mdulos o cuestionarios) garantiza la comparabilidad entre los datos preexistentes y los datos recolectados para la evaluacin de impacto. La eleccin de un indicador que no sea plenamente comparable o no se haya medido bien puede limitar la utilidad de los resultados de la evaluacin. Se deben medir de la misma manera todos los indicadores para todas las unidades, tanto del grupo de tratamiento como del de comparacin. Usar diferentes mtodos de recoleccin de datos (por ejemplo, encuestas telefnicas para un grupo y entrevistas personales para otro) crea un riesgo de sesgos. Lo mismo ocurre con la recoleccin de datos en diferentes momentos para los dos grupos (por ejemplo, recolectar datos para el grupo de tratamiento durante la temporada de lluvias y para el grupo de comparacin durante la temporada seca). Por esta razn, los procedimientos para medir cualquier indicador de resultado deben formularse con mucha precisin. El proceso de recoleccin de datos debe ser el mismo para todas las unidades. Dentro del cuestionario, se debe introducir cada mdulo relacionado con el programa sin afectar el ujo o el contexto de las respuestas en otras partes del cuestionario. Formatear los cuestionarios Como el modo de formular la misma pregunta de una encuesta de manera diferente puede suscitar diferentes respuestas, tanto el contexto como el formato de las preguntas debe ser igual para todas las unidades, para evitar cualquier sesgo entre los encuestados o encuestadores. Glewwe (Naciones Unidas, 2005) presenta seis recomendaciones especcas relacionadas con el formato de los cuestionarios para encuestas de hogares. Estas recomendaciones se pueden aplicar de la misma manera a la mayora de los instrumentos de recoleccin de datos: 1. Deben escribirse las preguntas completas en el cuestionario, para que el entrevistador pueda formularlas literalmente. 2. El cuestionario debe incluir deniciones precisas de todos los conceptos esenciales empleados en la encuesta, para consulta del entrevistador si fuera necesario.

Recolectar los datos

203

3. Cada pregunta debe ser lo ms breve posible y debe usar expresiones comunes y cotidianas. 4. Se deben disear los cuestionarios de manera que las respuestas a casi todas las preguntas estn precodicadas. 5. El sistema de codicacin debe ser congruente para todas las respuestas. 6. La encuesta debe incluir saltos claros de las preguntas para indicar qu preguntas no se responden segn las respuestas a preguntas anteriores. Una vez que la persona encargada haya redactado el cuestionario, se debe someter a la revisin de un equipo de expertos. Se debe consultar a todas las personas involucradas en la evaluacin (responsables de polticas, investigadores, analistas de datos y recolectores de datos) para comprobar si el cuestionario puede recolectar apropiadamente toda la informacin deseada.

Probar el cuestionario
Es muy importante efectuar pruebas piloto y de campo del cuestionario antes de darlo por nalizado. Las pruebas piloto servirn para comprobar el formato del cuestionario, as como la claridad del contenido y de la formulacin de las preguntas. Las pruebas de campo del cuestionario completo en condiciones reales son fundamentales para comprobar su extensin y que su formato sea sucientemente congruente y exhaustivo para generar medidas precisas de la informacin pertinente. Las pruebas de campo son una parte integral del trabajo de diseo del cuestionario que se ha encargado.

Trabajo de campo
Incluso cuando la recoleccin de datos se encarga, es fundamental conocer los pasos que conlleva el proceso para asegurar que existan los mecanismos de control de calidad necesarios y los incentivos adecuados. La institucin encargada de la recoleccin de datos tendr que coordinar el trabajo de un gran nmero de agentes diferentes, entre ellos encuestadores, supervisores, coordinadores del trabajo de campo y personal de apoyo logstico, adems del equipo de digitacin, compuesto por programadores, supervisores y digitadores. Para coordinar a todos estos equipos, se debe denir un plan de trabajo claro, lo cual ser un producto clave del proceso. El plan de trabajo debe incluir capacitacin adecuada para el equipo de recoleccin de datos antes de que empiece su tarea. Se debe elaborar un manual de referencia completo. La capacitacin es esencial para garantizar que todas las personas involucradas recolecten los datos congruentemente. Tambin constituye una buena

204

La evaluacin de impacto en la prctica

oportunidad para identicar a los encuestadores de mejor desempeo y realizar una ltima prueba de campo de los instrumentos y los procedimientos en condiciones normales. Una vez que se haya extrado la muestra, se hayan diseado y probado los instrumentos y se haya capacitado a los equipos, se puede proceder con la recoleccin de datos. Es recomendable asegurar que el plan de trabajo de campo asigne el mismo nmero de unidades de tratamiento y de comparacin a cada equipo encargado de la recoleccin de datos. Como se explic en el captulo 11, el mtodo de muestreo es esencial para garantizar la calidad de la muestra. No obstante, se pueden producir muchos errores no muestrales durante la recoleccin de datos. En el contexto de una evaluacin de impacto, es especialmente preocupante que dichos errores dieran en los grupos de tratamiento y de comparacin. La falta de respuesta ocurre cuando resulta imposible recolectar cuestionarios completos de algunas unidades de la muestra. Dado que en la prctica las muestras se limitan a las unidades de las cuales se pueden recolectar datos, las unidades que no responden a una encuesta pueden hacer que la muestra sea menos representativa y sesgar los resultados de la evaluacin. El desgaste de la muestra es una manera de llamar a un tipo comn de falta de respuesta que se produce cuando algunas unidades abandonan la muestra de una ronda de recoleccin de datos a otra ronda, por ejemplo porque migran y no se hace un seguimiento de los migrantes. La falta de respuesta y el desgaste de la muestra son especialmente problemticos en las evaluaciones de impacto porque pueden crear diferencias entre el grupo de tratamiento y el grupo de comparacin. Por ejemplo, el desgaste de la muestra puede ser diferente en los dos grupos: si los datos se recolectan despus de que haya comenzado la implementacin del programa, la tasa de respuesta de las unidades de tratamiento puede ser superior a la de las unidades de comparacin. Esto puede deberse a que las ltimas presenten resistencia a responder el cuestionario porque estn descontentas con que no las hayan seleccionado o porque al no haber recibido el benecio del programa hayan tenido ms probabilidades de migrar. La falta de respuesta puede suceder tambin dentro del propio cuestionario, normalmente porque falte algn indicador o los datos estn incompletos en el caso de cierta unidad. El error de medicin es otro tipo de problema que si es sistemtico puede conllevar un sesgo. Es la diferencia entre el valor de una caracterstica, segn el encuestado, y su verdadero (aunque desconocido) valor (Kasprzyk, 2005). Esta diferencia puede atribuirse a diversos factores, como la enunciacin del cuestionario o al mtodo de recoleccin de datos elegido, o a la actuacin de los entrevistadores que realizan la encuesta o del encuestado que responde. La calidad de una evaluacin de impacto depende directamente de la calidad de los datos que se recolectan. Se deben establecer normas de calidad claras entre todas las partes interesadas en el proceso de recoleccin de datos, y se debe hacer especial hincapi en estas normas durante la capacitacin de los encuestadores y en los manuales de referencia. Por ejemplo, es esencial contar con procedimientos detallados para minimizar la falta de respuesta o (si fuera aceptable) sustituir unidades en la muestra. La institucin encargada de la recoleccin de datos debe entender claramente los niveles aceptables de falta de respuesta y de desgaste de la muestra.

Concepto clave:
La falta de respuesta ocurre cuando faltan datos de algunas unidades de la muestra, o los datos estn incompletos. Este fenmeno puede producir un sesgo en los resultados de la evaluacin.

Concepto clave:
Las evaluaciones de impacto que siguen las mejores prcticas suelen lograr tasas de falta de respuesta y desgaste de muestra inferiores al 5%.

Recolectar los datos

205

Las prcticas ptimas en la evaluacin de impacto suelen lograr tasas de falta de respuesta y desgaste de la muestra por debajo del 5%. Es posible que esto no siempre sea viable con poblaciones muy mviles, pero ofrece, no obstante, una referencia til. En ocasiones, se les da algn tipo de compensacin a los encuestados para minimizar la falta de respuesta. En cualquier caso, el contrato de la institucin encargada de la recoleccin de datos debe contener incentivos claros: por ejemplo, una compensacin ms alta si la tasa de falta de respuesta est por debajo del 5%, u otro criterio similar aceptable. Se deben establecer procedimientos de control de calidad bien denidos para todas las fases de la recoleccin de datos. Estos, incluyen el diseo del muestreo, el diseo del cuestionario, la preparacin, la recoleccin, el ingreso de los datos, y la limpieza y el respaldo de la informacin. Se debe dar prioridad a los controles de calidad durante el trabajo de campo para evitar la falta de respuesta. Para ello, debern existir procedimientos sucientemente claros para poder volver a visitar a las unidades que no hayan respondido o cuya informacin sea incompleta. Se deben aadir algunos ltros en el proceso de control de calidad para asegurarse de que se est realizando correctamente; por ejemplo, los encuestadores, supervisores y, si fuera necesario, los coordinadores del trabajo de campo pueden volver a visitar a las unidades que no hayan respondido para vericar su situacin. A pesar de estar incompletos, se deben codicar y registrar claramente dichos cuestionarios. Una vez que se hayan digitado todos los datos disponibles, se puede obtener la tasa de falta de respuesta vericando para cada unidad de la muestra original si los cuestionarios fueron realizados, y si no, por qu razn. Tambin se deben realizar controles de calidad de cualquier informacin incompleta para cierta unidad encuestada. Nuevamente, el control de calidad debe incluir varios ltros para comprobar la calidad. El encuestador es responsable de comprobar los datos inmediatamente despus de haber sido recogidos. Adems, el supervisor y el coordinador del trabajo de campo deben realizar controles aleatorios en una fase posterior. Los controles de calidad para detectar los errores de medicin son ms complicados, pero son cruciales para comprobar si la informacin se ha recopilado con precisin. Para detectarse, se pueden incorporar pruebas de consistencia al cuestionario. Adems, los supervisores deben efectuar inspecciones puntuales y comprobaciones para garantizar que los encuestadores recolecten los datos conforme a las normas establecidas. Los coordinadores del trabajo de campo tambin deben participar en estas inspecciones para minimizar los conictos de inters dentro de la empresa encargada de la encuesta. Cuando se encargue la recoleccin de datos es fundamental solicitar explcitamente medidas de control de calidad. Tambin se puede considerar la contratacin de un organismo externo para auditar la calidad de los datos. Esto puede limitar considerablemente el tipo de problemas que surjan como consecuencia de la falta de supervisin del equipo de recoleccin de datos.

206

La evaluacin de impacto en la prctica

Procesar y validar los datos


Las encuestas de hogares se hacen normalmente con papel y lpiz, aunque recientemente se ha ido extendiendo la recoleccin electrnica de datos. En cualquier caso los datos deben digitarse y procesarse. Se debe desarrollar un programa informtico de captura de datos y un sistema para administrar el ujo de los cuestionarios que se digitarn. Se deben establecer normas y procedimientos, y se debe capacitar a los digitadores para garantizar que su labor sea consistente. En la medida de lo posible, la digitacin debe integrarse en las operaciones de recoleccin de datos (incluso durante la fase de prueba de campo), de manera que cualquier problema pueda identicarse inmediatamente y comprobarse sobre el terreno. Cuando se trabaja con encuestas realizadas con papel y lpiz, los datos digitados deben ser una rplica de los datos brutos, sin ninguna modicacin durante el proceso de digitacin. Para minimizar los errores en la digitacin de datos, se recomienda un procedimiento de doble digitacin, que identica y corrige incongruencias. Adems de estos controles de calidad durante el proceso de digitacin de datos, se puede desarrollar software para controlar automticamente muchos errores no muestrales (tanto falta de respuesta como inconsistencias) que pueden producirse durante la recoleccin. Si la digitacin de datos se integra al trabajo de campo, los datos incompletos o inconsistentes pueden vericarse a travs de los trabajadores de campo (Muoz, 2005, captulo 15). Este tipo de integracin no est desprovista de dicultades para el trabajo de campo, pero puede aportar considerables mejoras de la calidad, disminuir los errores de medicin y aumentar la potencia de la evaluacin de impacto. El uso de este tipo de mtodo integrado se debe considerar al momento de planear la recoleccin de datos. Las nuevas tecnologas pueden facilitar estos procesos de control de calidad. Como hemos visto, la recoleccin de datos consiste en una serie de operaciones cuya complejidad no se debe infravalorar. El recuadro 12.1 resume cmo el proceso de recoleccin de datos para la evaluacin del proyecto piloto Atencin a Crisis en Nicaragua aport informacin de gran calidad, con un nivel particularmente bajo de desgaste de la muestra y falta de respuesta, y muy pocos errores de medicin y procesamiento. Este tipo de datos de gran calidad solo puede obtenerse cuando se aplican procedimientos de control de calidad y se establecen incentivos adecuados en el momento de encargar la recoleccin de datos. Al nal del proceso de recoleccin de datos, la base de datos debe entregarse y respaldarse con documentacin detallada, incluido un diccionario completo de los datos. Si estos se han recolectado para una evaluacin de impacto, la base de datos debe incluir tambin informacin complementaria sobre la pertenencia de cada unidad al grupo de tratamiento o de comparacin. Una base de datos completa y documentada acelerar el anlisis y el uso de la evaluacin de impacto en la formulacin de polticas. Tambin facilita el intercambio de informacin.

Recolectar los datos

207

Recuadro 12.1: Recoleccin de datos para la evaluacin del proyecto piloto Atencin a Crisis en Nicaragua
En 2005, el Gobierno de Nicaragua implement el proyecto piloto Atencin a Crisis. Su objetivo era evaluar el impacto de la combinacin de transferencias monetarias condicionadas con transferencias productivas, como donaciones para inversiones en actividades no agrcolas o formacin vocacional. El programa piloto Atencin a Crisis fue implementado por el Ministerio de Familia, con el respaldo del Banco Mundial. Para la evaluacin, se us una asignacin aleatoria en dos fases. Primero, se asignaron 106 comunidades o bien al grupo de comparacin o al grupo de tratamiento. Luego, dentro de las comunidades de tratamiento, se asign aleatoriamente a hogares elegibles uno de los tres paquetes de benecios: 1) una transferencia monetaria condicionada; 2) la transferencia monetaria condicionada ms una beca para que uno de los miembros del hogar pudiera elegir entre una serie de cursos de formacin vocacional, y 3) la transferencia monetaria condicionada ms una donacin para una inversin productiva que incentivara a los beneciarios a emprender un pequeo negocio no agrcola, con el objetivo de generar activos y diversicar los ingresos (Macours y Vakis, 2009). Se realiz una encuesta de lnea de base en 2005, una primera encuesta de seguimiento en 2006 y una segunda encuesta de seguimiento en 2008, dos aos despus del nal de la intervencin. Se aplicaron controles rigurosos de calidad en todas las fases de la recoleccin de datos. Primero, los cuestionarios se comprobaron exhaustivamente en el campo, y se capacit a los encuestadores tanto en las aulas como sobre el terreno. Segundo, se supervis el trabajo de campo, de manera que todos los cuestionarios fueron revisados varias veces por encuestadores, supervisores, coordinadores del trabajo de campo y otros revisores. Tercero, se us un sistema de doble digitacin, junto con un programa integral de control de calidad que poda detectar los cuestionarios incompletos o inconsistentes. Los cuestionarios con preguntas sin responder o
Fuente: Macours y Vakis, 2009.

inconsistencias se remitieron sistemticamente al equipo de campo para su vericacin. Estos procedimientos y requisitos se especicaron claramente en los trminos de referencia de la empresa encargada de la recoleccin de datos. Adems, se aplicaron procedimientos detallados de seguimiento para minimizar el desgaste de la muestra. Al principio, se emprendi un censo completo de todos los hogares dentro de las comunidades de tratamiento y de comparacin en 2008, en estrecha colaboracin con los lderes comunitarios. Dada una considerable movilidad geogrca, se incentiv a la empresa encargada de la encuesta a que hiciera un seguimiento de los migrantes individuales por todo el pas. Como consecuencia, en 2009 solo el 2% de los 4359 hogares originales no pudo ser entrevistado. Tambin se encarg a la empresa que diera seguimiento a todas las personas de los hogares encuestados en 2005. Una vez ms, no se pudo localizar solo al 2% de los beneciarios del programa de transferencias (otro 2% haba fallecido). El desgaste de la muestra equivali al 3% de todos los nios de los hogares encuestados en 2005, y al 5% de todas las personas de los hogares encuestados en 2005. Las tasas de desgaste y de falta de respuesta constituyen un buen indicador de la calidad de la encuesta. Para llegar a estos niveles bajos de desgaste fueron necesarios intensos esfuerzos de la empresa encargada de la recoleccin de datos, as como incentivos explcitos. El costo por unidad de un hogar o persona bajo seguimiento es mucho mayor. Adems, los controles exhaustivos de calidad prolongaron la recoleccin de datos. Sin embargo, Atencin a Crisis mantuvo la representatividad de la muestra tanto a nivel de hogares como de individuos despus de tres a cuatro aos de la lnea de base, minimiz los errores de medicin y garantiz la abilidad de la evaluacin. Por consiguiente, Atencin a Crisis es uno de los programas de proteccin social cuya sostenibilidad es ms convincente.

208

La evaluacin de impacto en la prctica

Nota
1. Vase tambin Fink y Kosecoff (2008), Iarossi (2006), y Leeuw, Hox y Dillman (2008), que ofrecen numerosas orientaciones prcticas para la recoleccin de datos.

Referencias
Fink, Arlene G. y Kosecoff, Jacqueline. 2008. How to Conduct Surveys: A Step by Step Guide. 4. ed. Londres: Sage Publications. Glewwe, Paul. 2005. An Overview of Questionnaire Design for Household Surveys in Developing Countries. En Household Sample Surveys in Developing and Transition Countries, captulo 3. Nueva York: Naciones Unidas. Grosh, Margaret y Glewwe, Paul, comps. 2000. Designing Household Survey Questionnaires for Developing Countries: Lessons from 15 Years of the Living Standards Measurement Study. Washington, DC: Banco Mundial. Iarossi, Giuseppe. 2006. The Power of Survey Design: A Users Guide for Managing Surveys, Interpreting Results, and Inuencing Respondents. Washington, DC: Banco Mundial. Kasprzyk, Daniel. 2005. Measurement Error in Household Surveys: Sources and Measurement. En Household Sample Surveys in Developing and Transition Countries, captulo 9. Nueva York: Naciones Unidas. Leeuw, Edith; Hox, Joop y Dillman, Don. 2008. International Handbook of Survey Methodology. Nueva York: Taylor & Francis Group. Macours, Karen y Vakis, Renos. 2009. Changing Household Investments and Aspirations through Social Interactions: Evidence from a Randomized Evaluation. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 5137. Banco Mundial, Washington, DC. Muoz, Juan. 2005. A Guide for Data Management of Household Surveys. En Household Sample Surveys in Developing and Transition Countries, captulo 15. Nueva York: Naciones Unidas. Naciones Unidas. 2005. Household Sample Surveys in Developing and Transition Countries. Nueva York: Naciones Unidas.

Recolectar los datos

209

CAPTULO 13

Producir y divulgar los resultados


En este captulo, se revisa el contenido y el uso de los diversos informes producidos en el contexto de una evaluacin de impacto. Normalmente, durante la fase de preparacin, el gestor de la evaluacin prepara un plan de evaluacin de impacto, que explica en detalle los objetivos, el diseo y las estrategias de muestreo y recoleccin de datos para la evaluacin (el recuadro 13.1 muestra una estructura recomendada para este documento). Los elementos del plan de evaluacin ya se analizaron en los captulos 1 a 12. Una vez que se ha puesto en marcha la evaluacin, los evaluadores producirn una serie de informes, entre ellos el informe de lnea de base, el informe de evaluacin de impacto y las notas de poltica econmica. Tambin se deben elaborar, como productos nales, bases de datos totalmente documentadas. Una vez que se conozcan los resultados de la evaluacin de impacto y se disponga del informe nal, ser el momento de estudiar cul es la mejor manera de hacer llegar los resultados a los responsables de polticas y otras partes interesadas. Este captulo trata sobre la produccin y la divulgacin de los resultados de la evaluacin de impacto.

Qu productos generar la evaluacin?


Los principales productos de una evaluacin son un informe de la evaluacin de impacto y una serie de notas de poltica econmica que resumen los resultados fundamentales. Pueden pasar varios aos desde el comienzo de la evaluacin hasta

211

Recuadro 13.1 Estructura de un plan de evaluacin de impacto


1. Introduccin 2. Descripcin de la intervencin 3. Objetivos de la evaluacin 3.1 Desarrollo de hiptesis, teora del cambio, cadena de resultados 3.2 Preguntas sobre polticas 3.3 Principales indicadores de resultado 4. Diseo de la evaluacin 5. Muestreo y datos 5.1 Estrategia de muestreo 5.2 Clculos de potencia 6. Plan de recoleccin de datos 6.1 Encuesta de lnea de base 6.2 Encuesta(s) de seguimiento 7 Productos a generar . 7 .1 Informe de lnea de base 7 .2 Informe de la evaluacin de impacto 7 .3 Notas de poltica econmica 7 .4 Base de datos totalmente documentadas 8. Plan de divulgacin 9. Cuestiones ticas 10. Cronograma 11. Presupuesto y nanciamiento 12. Composicin del equipo de evaluacin

completar dicho informe, ya que las observaciones de la evaluacin solo pueden producirse cuando se disponga de datos de seguimiento. Debido a este lapso, los responsables de polticas suelen solicitar productos de evaluacin intermedios, como un informe de lnea de base, para contar con informacin preliminar que apoye el dilogo y las decisiones de polticas pblicas1. Como se explica en el captulo 10, el gestor de la evaluacin trabajar con los analistas de datos para producir los informes de lnea de base y nal. Los analistas de datos son expertos en estadsticas y econometra que utilizan software de estadstica como Stata, SPSS o R para analizar la evaluacin de impacto. Los analistas de datos

212

La evaluacin de impacto en la prctica

son responsables de garantizar la calidad, el rigor cientco y la credibilidad de los resultados. En este captulo, no se ver cmo analizar los datos2, sino que se describir el alcance de los informes a los que contribuirn los datos. Producto intermedio: Informe de lnea de base Los principales objetivos de un informe de lnea de base son determinar si el diseo de la evaluacin de impacto elegido resulta vlido en la prctica, y describir las caractersticas de lnea de base (previas a la implementacin del programa) y los indicadores de resultados de la poblacin elegible. El informe de lnea de base tambin genera informacin acerca del programa y sus beneciarios que puede resultar til para mejorar tanto la implementacin como la evaluacin del programa. El recuadro 13.2 describe el contenido sugerido para un informe de lnea de base3. El informe de lnea de base se produce a partir del anlisis de una base de datos limpia recolectada antes de comenzar el programa, complementada con datos administrativos sobre la pertenencia de cada unidad al grupo de tratamiento o de comparacin. La asignacin de hogares, personas o instalaciones al grupo de tratamiento o control se realiza generalmente despus de recopilar los datos de lnea de base.

Recuadro 13.2: Estructura de un informe de lnea de base


1. Introduccin 2. Descripcin de la intervencin (benecios, reglas de elegibilidad, etc.) 3. Objetivos de la evaluacin 3.1 Hiptesis, teora del cambio, cadena de resultados 3.2 Preguntas sobre polticas 3.3 Principales indicadores de resultado 4. Diseo de la evaluacin 4.1 Diseo original 4.2 Unidades que participan y no participan en el programa 5. Muestreo y datos 5.1 Estrategia de muestreo 5.2 Clculos de potencia 5.3 Datos recolectados 6. Validacin del diseo de la evaluacin 7 Estadsticas descriptivas detalladas . 8. Conclusin y recomendaciones para la implementacin

Producir y divulgar los resultados

213

Por consiguiente, la pertenencia de cada unidad al grupo de tratamiento o de comparacin se suele registrar en una base de datos administrativos distinta. Por ejemplo, se puede organizar un sorteo pblico para determinar qu comunidades, entre todas las comunidades elegibles en las que se ha levantado una encuesta de lnea de base, se beneciarn de un programa de transferencias monetarias. Para ello, los analistas de datos deben combinar los datos administrativos con los de lnea de base. Si la evaluacin incluye ms de, por ejemplo, 100 unidades elegibles, no ser prctico vincular los datos de lnea de base con los datos administrativos por nombre. Se tendr que asignar un nmero nico o identicador a cada unidad elegible, para identicarla en todas las fuentes de datos, entre ellas las bases de datos de lnea de base y administrativos. Las primeras secciones del informe de lnea de base se centran en el plan de evaluacin de impacto para presentar los motivos de la evaluacin, la descripcin de la intervencin (incluidos los benecios del programa y sus reglas de asignacin), los objetivos de la evaluacin (incluida la teora del cambio, las preguntas fundamentales sobre polticas pblicas, las hiptesis y los indicadores de resultados del programa) y el diseo de la evaluacin. La seccin sobre el diseo de la evaluacin debe explicar si la asignacin de los benecios del programa se efectu de manera compatible con el diseo previsto. Dado que la asignacin se ejecuta normalmente despus de haber terminado la encuesta de lnea de base, es recomendable incluir la informacin sobre la asignacin real en el informe de lnea de base. La seccin sobre muestreo empieza normalmente explicando la estrategia empleada y los clculos de potencia producidos para el plan de evaluacin, antes de pasar a describir en detalle cmo se recolectaron los datos de lnea de base y el tipo de informacin disponible. El informe debe analizar cualquier dicultad encontrada durante la recoleccin de datos de lnea de base, y debe ofrecer indicadores esenciales de la calidad de los datos, como tasas de falta de respuesta. En este sentido, el informe de lnea de base subrayar cuestiones fundamentales que deben abordarse en la encuesta de seguimiento. Por ejemplo, si la falta de respuesta fue alta en la encuesta de lnea de base, los evaluadores tendrn que desarrollar nuevos procedimientos de campo o de seguimiento para asegurarse de que no vuelva a ocurrir lo mismo durante la encuesta de seguimiento. Como se ha sealado, el objetivo primordial del informe de lnea de base es ofrecer una primera valoracin de la validez del diseo de la evaluacin en la prctica. En el captulo 8, se subray que la mayora de los mtodos de evaluacin solo producen estimaciones vlidas del contrafactual bajo supuestos especcos. El recuadro 8.1 (captulo 8) contiene una lista de pruebas de control que se pueden emplear para determinar si un mtodo es adecuado o no en determinados contextos. Algunas de estas pruebas no requieren datos de seguimiento y se pueden aplicar en cuanto se disponga de datos de lnea de base. Por ejemplo, si se usa el mtodo de asignacin aleatoria o de oferta aleatoria, el informe de lnea de base debe indicar si los grupos de tratamiento y de comparacin realmente tienen caractersticas similares.

214

La evaluacin de impacto en la prctica

Si la evaluacin se basa en el diseo de regresin discontinua, el informe de lnea de base debe vericar la continuidad del ndice de elegibilidad en torno al umbral. Aunque estas pruebas de control no garantizan que se mantenga la validez del grupo de comparacin hasta la encuesta de seguimiento, es crucial que el informe de lnea de base los documente. Adems de comprobar la validez del diseo de la evaluacin, el informe de lnea de base debe incluir cuadros que describan las caractersticas de la muestra de evaluacin. Esta informacin puede mejorar la implementacin del programa al permitir que los gestores entiendan mejor el perl de los beneciarios y adapten la intervencin del programa a sus necesidades. Por ejemplo, si conocen el nivel de educacin o el promedio de experiencia laboral de los participantes en un programa de capacitacin vocacional, los gestores pueden ajustar el contenido de los cursos de formacin. Desde el punto de vista de la evaluacin, la encuesta de lnea de base suele aportar informacin de la que no se dispona cuando se deni el plan de evaluacin. Imagnese que se est evaluando el impacto de un programa de salud comunitaria sobre la diarrea infantil. Cuando se dene el plan de evaluacin, puede que no se conozca la incidencia de la diarrea en la comunidad. Por lo tanto, solo se contar con una estimacin en el plan de evaluacin, sobre la que se basarn los clculos de potencia. Sin embargo, una vez que se cuente con los datos de lnea de base, se podr vericar la incidencia real de la diarrea en el momento de la lnea de base y comprobar, por lo tanto, si la muestra original es adecuada. Si se observa que los valores de lnea de base de los indicadores del resultado son diferentes de los que se utilizaron para los clculos de potencia originales, el informe de lnea de base debe incluir una actualizacin de dichos clculos. Para garantizar la credibilidad de los resultados nales de la evaluacin, es recomendable dejar que expertos externos revisen el informe de lnea de base. La difusin del informe de lnea de base tambin puede fortalecer el dilogo sobre polticas pblicas a lo largo del ciclo de evaluacin entre las partes interesadas. Productos nales: Informe de la evaluacin de impacto, nota de poltica econmica y base de datos El informe nal de la evaluacin de impacto es el principal producto de una evaluacin y se elabora despus de recolectar los datos de seguimiento4. Los principales objetivos del informe de evaluacin nal son presentar los resultados de la evaluacin y responder a las preguntas de polticas pblicas que se formularon inicialmente. Como complemento, el informe tambin debe demostrar que la evaluacin se basa en estimaciones vlidas del contrafactual y que los impactos estimados pueden atribuirse completamente al programa. El informe nal de la evaluacin de impacto es un informe exhaustivo que resume todo el trabajo relacionado con la evaluacin e incluye descripciones detalladas del anlisis de datos y las especicaciones economtricas, as como anlisis de los resultados, cuadros y apndices. El recuadro 13.3 describe el contenido de un informe

Producir y divulgar los resultados

215

completo. Existen muchos buenos ejemplos de informes nales, entre ellos Maluccio y Flores (2005), Levy y Ohls (2007) o Skouas (2005) en relacin con programas de transferencias monetarias; Card y otros (2007) sobre un programa de capacitacin vocacional para jvenes; Cattaneo y otros (2009) sobre un programa de vivienda, y Basinga y otros (2010) sobre un programa de pago por desempeo para el sector de la salud. Como en el informe de lnea de base, los evaluadores colaborarn con los analistas de datos para producir el informe nal de la evaluacin de impacto. Los analistas empezarn por producir una base de datos maestra que contenga la base de datos de lnea de base, la base de datos de seguimiento y los datos administrativos sobre la implementacin del programa, y datos sobre la asignacin original a los grupos de tratamiento y de comparacin. Todas estas fuentes deben combinarse usando un identicador nico para diferenciar cada unidad. Dado que el informe nal de la evaluacin de impacto es el principal producto de la evaluacin, debe incorporar la informacin esencial presentada en el plan de evaluacin y el informe de lnea de base antes de que se pase a analizar y explicar los

Recuadro 13.3: Estructura de un informe de evaluacin


1. Introduccin 2. Descripcin de la intervencin (benecios, reglas de elegibilidad, etc.) 2.1. Diseo 2.2 Implementacin 3. Objetivos de la evaluacin 3.1 Desarrollo de hiptesis, teora del cambio, cadena de resultados 3.2 Preguntas de polticas pblicas 3.3 Principales indicadores de resultado 4. Diseo de la evaluacin 4.1 En la teora 4.2 En la prctica 5. Muestreo y datos 5.1 Estrategia de muestreo 5.2 Clculos de potencia 5.3 Datos recolectados 6. Validacin del diseo de la evaluacin 7 Resultados . 8. Pruebas de robustez 9. Conclusin y recomendaciones polticas

216

La evaluacin de impacto en la prctica

resultados. En concreto, la parte introductoria del informe nal debe exponer las razones para la intervencin y la evaluacin, y describir la intervencin (benecios y reglas de asignacin de benecios), los objetivos de la evaluacin (incluidas la teora del cambio, las preguntas fundamentales de polticas pblicas, las hiptesis y los indicadores), el diseo original de la evaluacin y la manera como se implement en la prctica. En general, la interpretacin de los resultados depende fundamentalmente de cmo se implement la intervencin. Por lo tanto, este informe nal de la evaluacin debe documentar cada detalle. Esto puede hacerse antes de presentar los resultados, describiendo los datos sobre la implementacin del programa, obtenidos en las encuestas de seguimiento y de fuentes administrativas complementarias. En la seccin sobre muestreo y datos, se debe describir la estrategia de muestreo y los clculos de potencia antes de pasar a analizar detenidamente los datos de lnea de base y de seguimiento recolectados. Se deben presentar indicadores de la calidad de los datos, como la tasa de no respuesta o el desgaste de la muestra para cada ronda de datos. Si las tasas de no respuesta o de desgaste de la muestra son altas, resulta fundamental que los analistas de datos examinen cmo puede afectar a la interpretacin de los resultados. Por ejemplo, es esencial comprobar que las tasas de desgaste y de no respuesta no dieren entre los grupos de tratamiento y de comparacin. Una vez que se han descrito los datos, el informe puede presentar los resultados para todos los indicadores de resultado y todas las preguntas sobre polticas pblicas que se identicaron como objetivos de la evaluacin. La organizacin de la seccin sobre resultados depender de los tipos de preguntas sobre polticas pblicas que se pretenda responder. Por ejemplo, la evaluacin compara la efectividad de distintas alternativas de programas o solo si una intervencin funciona o no? Los responsables de polticas solicitaron un anlisis de cmo dieren los impactos entre varios subgrupos? En el caso de las evaluaciones que han sido bien diseadas e implementadas, con frecuencia es posible presentar los resultados rigurosos de la evaluacin de manera fcil e intuitiva. Como se ha sealado, el informe de la evaluacin de impacto debe ofrecer pruebas slidas de que los impactos estimados son totalmente atribuibles al programa. Por lo tanto, el informe debe examinar detenidamente la validez del diseo de la evaluacin. Para demostrar su validez, el primer paso consiste en presentar los resultados de las pruebas de control aplicadas a los datos de lnea de base. El informe debe contener tambin los resultados de todas las pruebas que puedan efectuarse con los datos de seguimiento. Por ejemplo, si se elige el mtodo de diferencias en diferencias, solo se pueden efectuar algunas de las pruebas de control descritas en el recuadro 8.1 (captulo 8) si se cuenta con los datos de seguimiento. La seccin introductoria del informe de evaluacin debe documentar cualquier nueva complicacin con el mtodo de evaluacin que haya surgido entre las encuestas de lnea de base y de seguimiento. Por ejemplo, el incumplimiento de la asignacin a los grupos de tratamiento y de comparacin tiene importantes consecuencias

Producir y divulgar los resultados

217

para el anlisis y la interpretacin de los resultados y debe analizarse al principio del informe. El informe debe contener tambin informacin acerca de cuntas unidades asignadas al grupo de tratamiento participaron efectivamente en el programa y cuntas unidades asignadas al grupo de comparacin no participaron en l. Si se ha producido alguna desviacin de la asignacin original, se debe ajustar el anlisis para que tenga en cuenta esta desviacin (consltense las tcnicas explicadas en la segunda parte del libro). En paralelo con las comprobaciones de la validez del diseo de la evaluacin, el informe nal tambin sirve para analizar exhaustivamente los resultados, su abilidad y su robustez. Debe contener una serie de pruebas de robustez que se correspondan con la metodologa de evaluacin empleada. Por ejemplo, cuando se apliquen mtodos de pareamiento, el informe debe presentar los resultados de la aplicacin de tcnicas alternativas para encontrar la mejor pareja para cada observacin del grupo de tratamiento. El analista de datos es responsable de identicar y presentar las pruebas de robustez ms adecuadas para una evaluacin especca. Las ltimas partes del informe deben responder claramente a cada una de las preguntas sobre polticas pblicas formuladas por la evaluacin y ofrecer recomendaciones detalladas relativas a polticas a partir de los resultados. Entender cmo se implement la intervencin es crucial cuando los resultados de la evaluacin muestran un impacto limitado o negativo. La falta de resultados o los resultados negativos no son una razn para castigar a los gestores del programa o de la evaluacin. En cambio, ofrecen una oportunidad para que los gestores del programa y de la evaluacin expliquen por qu no funcion segn lo previsto, lo cual puede generar grandes benecios para las polticas pblicas y deberan recompensarse. La comunicacin continua entre el equipo de evaluacin y los responsables del programa es especialmente crtica cuando aparecen seales de que una evaluacin no producir resultados o producir resultados negativos. Las evaluaciones complementarias del proceso de implementacin o el trabajo cualitativo pueden ofrecer una explicacin valiosa de las razones por las que el programa no logr los resultados previstos. Se debe distinguir claramente la falta de impactos atribuible a la implementacin imperfecta del programa de la falta de impactos en un programa bien implementado con un diseo deciente5. En general, las evaluaciones que comprueban programas alternativos resultan muy tiles para esclarecer qu caractersticas del diseo del programa funcionan y cules no. En general, el anlisis nal de los datos debe aportar pruebas convincentes de que los impactos estimados del programa son totalmente atribuibles a la intervencin. Para asegurar que los resultados sean totalmente objetivos y garantizar, por lo tanto, su legitimidad, los informes deben someterse a una revisin de expertos y amplias consultas antes de darlos por terminados. El contenido del informe nal de la evaluacin de impacto puede transformarse luego en documentos acadmicos ms tcnicos para su publicacin en revistas especializadas, examinadas por expertos, lo que otorgar todava ms credibilidad a los resultados de la evaluacin.

218

La evaluacin de impacto en la prctica

Adems del informe integral de evaluacin, los evaluadores deben elaborar una o dos notas de poltica econmica para contribuir a la comunicacin de los resultados a los responsables de polticas y otros agentes. Una nota de poltica econmica se concentra en la presentacin de los resultados principales de la evaluacin mediante grcos, diagramas y otros formatos accesibles, y en el anlisis de las recomendaciones para el diseo de polticas pblicas. Tambin contiene un breve resumen de los aspectos tcnicos de la evaluacin. La nota de poltica econmica puede publicarse en papel o en la web y distribuirse entre polticos, la sociedad civil y los medios de comunicacin. Se pueden consultar algunos buenos ejemplos de notas de poltica econmica en el Laboratorio de Accin contra la Pobreza (Poverty Action Lab) o en la pgina web de la Red de Desarrollo Humano del Banco Mundial (Laboratorio de Accin contra la Pobreza, 2008; Red de Desarrollo Humano del Banco Mundial, 2010). El ltimo producto importante de una evaluacin de impacto es una base de datos relevante y su documentacin. Las herramientas del Instrumental de Gestin de Microdatos de la Red Internacional de Encuestas de Hogares (http://www.ihsn.org) pueden ayudar a conseguir esto. Los responsables de polticas y los evaluadores acordarn normalmente un cronograma para la realizacin del anlisis inicial de impacto y la publicacin general de los datos de la evaluacin. Poner los datos a disposicin del pblico mejora la transparencia, ya que permite que los resultados de impacto puedan replicarse y validarse externamente. Hacer los datos accesibles pblicamente promover que investigadores externos tambin emprendan anlisis adicionales utilizando los mismos datos, lo que puede aportar informacin y lecciones valiosas para el programa. Cuando se publican los datos, es importante garantizar el anonimato de todos los sujetos de estudio; se debe eliminar de las bases de datos a disposicin del pblico cualquier informacin que pudiera identicar a los encuestados, como nombres o direcciones. Este tipo de informacin delicada debe protegerse y solo se debe permitir el acceso a ella para actividades autorizadas de recoleccin de datos en el futuro.

Cmo divulgar los resultados?


El objetivo ltimo de las evaluaciones de impacto es aumentar la efectividad de las polticas pblicas y mejorar los resultados de desarrollo. Para asegurar que una evaluacin de impacto inuye en las decisiones sobre polticas, esta debe comunicar sus resultados claramente entre todas las partes interesadas, incluidos los responsables de polticas pblicas, la sociedad civil y los medios de comunicacin. Frecuentemente, las evaluaciones inuyentes incluyen un plan de divulgacin detallado que describe cmo mantendr informadas e involucradas a las principales partes interesadas a lo largo de la evaluacin. Dicho plan puede facilitar el uso de los resultados en la formulacin de polticas y garantizar que las evaluaciones de impacto tengan resultados reales. En las fases iniciales del diseo de la evaluacin, los evaluadores tienen la primera oportunidad de denir los canales de comunicacin que sean ms ecaces con los responsables de polticas pblicas.

Producir y divulgar los resultados

219

Como se ha repetido, una evaluacin depende directamente del diseo y la implementacin del propio programa y, por lo tanto, es fundamental que los evaluadores externos y los responsables de polticas que encargan el trabajo colaboren desde el primer minuto. El buen funcionamiento del equipo de evaluacin garantizar que esta se adapte a las necesidades de los responsables de polticas, y que se los informe regularmente del progreso y los resultados. El plan de divulgacin debe describir la manera en que el equipo de evaluacin utilizar los resultados de la evaluacin de la mejor manera para ayudar en la toma de decisiones. Como mnimo, los evaluadores deben fomentar el conocimiento de los resultados mediante una comunicacin ecaz a las partes interesadas del programa y tambin externas. Al comienzo de la evaluacin, se puede realizar un taller preliminar con los encargados de la ejecucin y las principales partes interesadas para estudiar y poner en marcha la evaluacin, y as ayudar a crear un consenso acerca de los objetivos principales. Adems de ofrecer una plataforma para realizar consultas y garantizar que la evaluacin se adapte totalmente a las necesidades de las partes interesadas, dicho evento es importante para sensibilizar acerca de la evaluacin y reforzar el inters por conocer los resultados. Durante la evaluacin, las reuniones peridicas de un comit interinstitucional o una mesa redonda permanente pueden contribuir a que el trabajo del equipo de evaluacin siga siendo pertinente para los responsables de polticas. Dichos foros de discusin pueden aportar comentarios y orientaciones acerca de los trminos de referencia, el contenido del instrumento de encuesta, la divulgacin de los resultados o los canales ms apropiados para llegar a los responsables de polticas de alto nivel. La organizacin de eventos de divulgacin de productos intermedios, como un informe de lnea de base, es importante para mantener un dilogo activo sobre polticas con los usuarios de la evaluacin. El fomento de discusiones tempranas en torno al informe de lnea de base contribuye tanto a divulgar los resultados intermedios que resulten pertinentes para las polticas pblicas como a garantizar el conocimiento de los futuros resultados de la evaluacin. Antes de terminar el informe de evaluacin nal, algunos evaluadores preeren organizar un evento nal de consulta para ofrecer a las partes interesadas la oportunidad de comentar los resultados. Estas consultas pueden mejorar la calidad de los resultados de la evaluacin, as como su aceptacin. Una vez que se hayan publicado el informe nal de la evaluacin de impacto y las notas de poltica econmica, es fundamental organizar eventos con una gran difusin para asegurar que las partes interesadas tengan un amplio conocimiento de los resultados. Un taller de consulta y divulgacin dentro del pas, con la participacin de las partes interesadas sirve de foro para discutir los resultados, recabar opiniones y describir los posibles cambios que se puedan realizar en las polticas como consecuencia de la evaluacin. Despus de dicho taller, se puede organizar un encuentro de divulgacin en el que participen

220

La evaluacin de impacto en la prctica

Recuadro 13.4: Divulgacin de los resultados de la evaluacin para mejorar las polticas
La evaluacin del pago por desempeo en el sector de la salud en Rwanda es un buen ejemplo de una estrategia exitosa de divulgacin. Bajo la direccin del Ministerio de Salud, se form un equipo compuesto por acadmicos locales y expertos del Banco Mundial para conducir la evaluacin. Varios agentes interesados participaron durante la evaluacin desde su puesta en marcha, lo que result fundamental para garantizar su xito y una plena aceptacin poltica. Los resultados nales de la evaluacin (Basinga y otros, 2010) se desvelaron durante un evento de divulgacin pblica de un da, con la participacin de responsables de polticas de alto nivel y mltiples partes interesadas. Gracias a estos canales de comunicacin, las observaciones inuyeron considerablemente en el diseo de la poltica de salud en Rwanda. Los resultados tambin se divulgaron en conferencias internacionales y a travs de un sitio web.
Fuente: Morgan, 2010.

responsables de polticas del ms alto nivel (vase el recuadro 13.4). Si los resultados tienen inters para otros pases, pueden divulgarse en conferencias, seminarios y otros encuentros en el extranjero. Otros canales de divulgacin innovadores, como las interfaces web, tambin ayudan a aumentar la visibilidad de los resultados. En general, para que los resultados inuyan ecazmente en el dilogo de las polticas pblicas, es importante que la divulgacin de los productos de la evaluacin de impacto se haga de acuerdo con un plan bien concebido y a lo largo del ciclo de la evaluacin. Las evaluaciones de impacto solo pueden cumplir su objetivo ltimo de mejorar la efectividad de los programas sociales si los resultados se comparten adecuadamente con los responsables de polticas y ayudan a tomar decisiones.

Notas
1. Una evaluacin puede generar otros productos intermedios. Por ejemplo, el trabajo cualitativo o las evaluaciones de proceso aportan informacin complementaria muy valiosa antes de la produccin del informe nal. Aqu nos centraremos en el informe de lnea de base porque constituye el principal producto intermedio de las evaluaciones cuantitativas de impacto, el tema de este libro. 2. Khandker y otros (2009) presentan una introduccin a la evaluacin que incluye una revisin del anlisis de datos y las instrucciones correspondientes de Stata para cada mtodo de evaluacin de impacto. 3. La estructura es indicativa y se puede adaptar en funcin de las caractersticas de cada evaluacin, por ejemplo, modicando el orden o el contenido de diversas secciones.

Producir y divulgar los resultados

221

4. En los casos en que se recolecten mltiples rondas de datos, se puede producir un informe de la evaluacin de impacto para cada ronda, y se pueden comparar los resultados para destacar si los impactos del programa son sostenibles o varan en funcin de la duracin de la participacin en el programa. 5. Como se explica en el captulo 1, esta es una razn por la que las pruebas de ecacia que minimizan las dicultades en la implementacin del programa ayudan a determinar si cierto diseo del programa funciona en circunstancias ideales. Una vez que se haya documentado esta prueba del concepto, se puede expandir el programa piloto.

Referencias
Basinga, Paulin; Gertler, Paul J.; Binagwaho, Agnes; Soucat, Agnes L. B.; Sturdy, Jennifer R. y Vermeersch, Christel M. J. 2010. Paying Primary Health Care Centers for Performance in Rwanda. Documento de trabajo del Banco Mundial sobre investigaciones relativas a polticas de desarrollo 5190. Banco Mundial, Washington, DC. Card, David; Ibarraran, Pablo; Regalia, Ferdinando; Rosas, David y Soares, Yuri. 2007. The Labor Market Impacts of Youth Training in the Dominican Republic: Evidence from a Randomized Evaluation. NBER Working Paper 12883. National Bureau of Economic Research, Washington, DC. Cattaneo, Matas; Galiani, Sebastin; Gertler, Paul; Martnez, Sebastin y Titiunik, Roco. 2009. Housing, Health and Happiness. American Economic Journal: Economic Policy 1 (1): 75-105. Khandker, Shahidur R.; Koolwal, Gayatri B. y Samad, Hussein A. 2009. Handbook on Impact Evaluation: Quantitative Methods and Practices. Washington, DC: Banco Mundial. Laboratorio de Accin contra la Pobreza. 2008. Solving Absenteeism, Raising Test Scores. Policy Briefcase 6. http://www.povertyactionlab.org. Levy, Dan y Ohls, Jim. 2007. Evaluation of Jamaicas PATH Program: Final Report. Ref. n. 8966-090, Mathematica Policy Research, Inc., Washington, DC. Maluccio, John y Flores, Rafael. 2005. Impact Evaluation of a Conditional Cash Transfer Program: The Nicaraguan Red de Proteccin Social. Informe de investigacin 141. Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC. Morgan, Lindsay. 2010. Signed, Sealed, Delivered? Evidence from Rwanda on the Impact of Results-Based Financing for Health. HRBF Policy Brief. B anco Mundial, Washington, DC. Red de Desarrollo Humano del Banco Mundial. 2010. Does Linking Teacher Pay to Student Performance Improve Results?. Serie de notas sobre polticas 1. Banco Mundial, Washington DC. http://www.worldbank.org/hdchiefeconomist. Skouas, Emmanuel. 2005. Progresa y sus efectos sobre el bienestar de las familias rurales en Mxico. Informe de investigacin 139. Instituto Internacional de Investigacin sobre Polticas Alimentarias, Washington, DC.

222

La evaluacin de impacto en la prctica

CAPTULO 14

Conclusin
Este libro es una gua prctica para el diseo y la implementacin de evaluaciones de impacto. Est dirigido a tres audiencias principales: 1) responsables de polticas que consumen la informacin generada por las evaluaciones de impacto; 2) administradores de proyectos y profesionales del desarrollo que encargan las evaluaciones, y 3) tcnicos que disean e implementan las evaluaciones de impacto. Esencialmente, una evaluacin de impacto consiste en generar evidencias sobre qu polticas sociales funcionan y cules no. Esto se puede hacer dentro de un marco clsico de evaluacin de impacto, comparando indicadores de resultados para un grupo de beneciarios y un grupo comparable que no particip del programa. Tambin se pueden realizar evaluaciones de impacto para examinar alternativas de implementacin dentro de un programa o analizar diferentes programas para comparar su desempeo. Las evaluaciones de impacto son una inversin justicada para muchos programas. Combinadas con el monitoreo y otras formas de evaluacin, permiten entender claramente la efectividad de las polticas pblicas. En este libro se presentaron metodologas para la evaluacin de impacto, cada una de ellas con sus propias ventajas e inconvenientes en trminos de implementacin, polticas, requisitos nancieros e interpretacin de resultados. Se seal que el mejor mtodo se debe elegir en funcin del contexto operativo, y no a la inversa. Finalmente, se ofrecieron algunos consejos prcticos y orientaciones que sirven de ayuda durante el proceso de evaluacin y facilitan que los resultados de la evaluacin se aprovechen al mximo.

223

Las evaluaciones de impacto son iniciativas complejas con muchos componentes. La siguiente lista de control destaca los elementos esenciales de una evaluacin bien diseada, que debera incluir lo siguiente: Una pregunta concreta sobre polticas pblicas, basada en una teora del cambio, que pueda responderse mediante una evaluacin de impacto. Una estrategia vlida de identicacin, congruente con las reglas operativas del programa, que muestre la relacin causal entre el programa y unos indicadores de resultados de inters. Una muestra con suciente potencia que permita la deteccin de impactos pertinentes para las polticas y una muestra representativa que permita generalizar los resultados a toda la poblacin de inters. Una fuente de datos de gran calidad que aporte las variables necesarias para el anlisis de los grupos, tanto de comparacin como de tratamiento, mediante datos de lnea de base y de seguimiento. Un equipo de evaluacin bien formado, que colabore estrechamente con los responsables de polticas y el personal del programa. Un informe de evaluacin de impacto y notas de polticas que permitan divulgar las evidencias obtenidas entre audiencias no especializadas pero clave para mejorar el diseo de los programas evaluados y para informar el dilogo sobre polticas de desarrollo. Tambin se subrayaron algunos consejos esenciales para mitigar los riesgos inherentes a la implementacin de una evaluacin de impacto: Es mejor disear las evaluaciones de impacto al principio del ciclo del proyecto, idealmente como parte del diseo y preparacin del programa. La planicacin temprana permite disear la evaluacin basndose en la mejor metodologa disponible, y disponer del tiempo necesario para planicar y llevar a cabo la recoleccin de datos de lnea de base antes del comienzo del programa. Los resultados nales acerca el impacto del programa deben tambin complementarse con otras informaciones, particularmente una evaluacin de proceso y datos de monitoreo que ofrezcan una clara descripcin de la implementacin del programa. Cuando los programas logran su objetivo, es importante entender las razones; cuando no, es importante distinguir entre los programas mal implementados y los que tienen un diseo deciente. Recolectar datos de lnea de base e incorporar una metodologa de respaldo para la evaluacin de impacto. Si se invalida el diseo original de la evaluacin, por ejemplo si el grupo de comparacin recibe benecios del programa, un plan de respaldo puede evitar que se descarte totalmente la evaluacin.

224

La evaluacin de impacto en la prctica

Mantener identicadores comunes para las diferentes fuentes de datos, de modo que puedan ser fcilmente vinculados durante los anlisis. Por ejemplo, un hogar determinado debe tener el mismo identicador en los sistemas de monitoreo y en las encuestas de lnea de base y de seguimiento. Las evaluaciones de impacto son igual de tiles para aprender acerca del funcionamiento de los programas y comprobar alternativas programticas que para evaluar el impacto general de un conjunto nico de bienes y servicios. Al desagregar un programa, por grande que sea, los programas universales pueden aprender mucho de la puesta a prueba de componentes innovadores mediante evaluaciones de impacto bien diseadas. La incorporacin de una innovacin adicional del programa como prueba piloto en el contexto de una evaluacin ms grande puede hacer que se aproveche la evaluacin para generar informacin valiosa para tomar decisiones en el futuro. Las evaluaciones de impacto deben considerarse un componente ms de las operaciones de un programa y se deben dotar del personal y el presupuesto adecuados, con los recursos tcnicos y nancieros necesarios. Es mejor ser realista en cuanto a los costos y la complejidad que conlleva una evaluacin de impacto. El proceso de diseo de una evaluacin y de recoleccin de datos de lnea de base desde cero tardar normalmente al menos un ao. Cuando un programa comienza, la intervencin necesita un perodo suciente de exposicin para afectar los resultados. Segn del programa, esto puede tardar entre uno y cinco o ms aos. La realizacin de una o ms encuestas de seguimiento, la ejecucin del anlisis y la divulgacin conllevarn tambin un esfuerzo considerable de varios meses. En conjunto, el ciclo completo de una evaluacin de impacto, de principio a n, acarrea normalmente al menos tres o cuatro aos de trabajo y dedicacin intensos. Es necesario contar con recursos nancieros y tcnicos adecuados en cada fase del proceso. Cada evaluacin de impacto ofrece respuestas concretas a preguntas especcas sobre polticas. Aunque estas preguntas aportan informacin en primer lugar a las necesidades del organismo que encarga y nancia la evaluacin, tambin suministran informacin valiosa para actores de otras organizaciones o pases que pueden aprender y tomar decisiones basadas en la evidencia generada por la evaluacin. Por ejemplo, los programas ms recientes de transferencias monetarias condicionadas en frica, Asia y Europa han extrado lecciones de las evaluaciones de impacto de intervenciones similares llevadas a cabo en el pasado en Amrica Latina, como los programas Familias en Accin de Colombia y Progresa de Mxico. En este sentido, las evaluaciones de impacto son en parte un bien pblico global. La evidencia generada mediante una evaluacin de impacto se suma al conocimiento global sobre la cuestin evaluada. Esta base de conocimientos puede a su vez inuir en la toma de decisiones en otros pases y contextos. De hecho, la comunidad internacional ha incrementado su respaldo a la evaluacin rigurosa.

Conclusin

225

A nivel nacional, los Gobiernos ms sosticados y exigentes intentan demostrar los resultados de las polticas y rinden ms cuentas ante sus ciudadanos. Cada vez ms las evaluaciones son ejecutadas por ministerios sectoriales nacionales, entidades pblicas subnacionales y otros organismos ociales establecidos para dirigir un programa nacional de evaluacin, como el Consejo Nacional de Evaluacin de la Poltica de Desarrollo Social (CONEVAL) de Mxico y el Departamento de Monitoreo del Desempeo y Evaluacin de Sudfrica. La evidencia generada por las evaluaciones de impacto inuye cada vez ms en las asignaciones presupuestarias de los parlamentos a nivel nacional. En los sistemas en los que se juzgan los programas en funcin de evidencias concretas y resultadas nales, los programas con una slida base de evidencias empricas podrn prosperar, mientras que los que carezcan de este respaldo tendrn ms dicultades para mantener el nanciamiento. Las instituciones multilaterales como el Banco Mundial y los bancos regionales de desarrollo, as como las agencias nacionales de desarrollo, los Gobiernos donantes y las instituciones lantrpicas para el desarrollo, tambin exigen ms y mejor evidencia de que se est dando un uso efectivo a sus recursos. Dicha evidencia es necesaria para rendir cuentas a los que prestan o donan el dinero, as como para tomar decisiones acerca de la mejor manera de invertir los escasos recursos para el desarrollo. El nmero de evaluaciones de impacto emprendidas por organismos de desarrollo ha aumentando considerablemente en los ltimos aos. El grco 14.1 reeja el nmero de evaluaciones de impacto terminadas o en curso dentro del Banco Mundial entre 2004 y 2010, por regin. Es probable que la tendencia positiva se mantenga. Cada vez es ms frecuente que aparezcan instituciones dedicadas principalmente a la produccin de evaluaciones de impacto de gran calidad, incluidos institutos acadmicos como el Laboratorio de Accin contra la Pobreza (Poverty Action Lab), Innovaciones para la Accin contra la Pobreza (Innovations for Poverty Action) y el Centro de Evaluacin para la Accin Global (Center of Evaluation for Global Action), y organizaciones independientes que promueven las evaluaciones de impacto, como la International Initiative for Impact Evaluation. Una serie de asociaciones relacionadas con la evaluacin de impacto renen ahora a grupos de profesionales de la evaluacin, investigadores y responsables de polticas interesados en el tema, entre ellos la Red de Redes para la Evaluacin de Impacto (Network of Networks on Impact Evaluation) y asociaciones regionales como la Asociacin Africana de Evaluacin (African Evaluation Association) y la Red de Evaluacin de la Asociacin de Economa de Amrica Latina y el Caribe. Todas estas iniciativas demuestran la importancia creciente de la evaluacin de impacto en la poltica internacional de desarrollo1. Considerando este aumento de la evaluacin de impacto, independientemente de que usted se dedique profesionalmente a las evaluaciones, contrate evaluaciones de impacto o use sus resultados para tomar decisiones, el dominio del lenguaje de las evaluaciones de impacto es una habilidad cada vez ms indispensable para cualquier profesional del desarrollo. Las evidencias rigurosas como las generadas mediante evaluaciones de impacto pueden ser uno de los factores impulsores del dilogo sobre

226

La evaluacin de impacto en la prctica

Grco 14.1 Nmero de evaluaciones de impacto en el Banco Mundial por regin, 2004-10
350 n. de evaluaciones de impacto en curso 300 250 200 150 100 50 0 2004 2005 2006 2007 2008 2009 2010

Asia meridional Oriente Medio y Norte de frica Amrica Latina y el Caribe Europa y Asia central Asia oriental y el Pacfico frica
Fuente: Banco Mundial.

polticas de desarrollo, y constituyen la base para respaldar o rechazar inversiones en programas o polticas de desarrollo. Las evidencias obtenidas en evaluaciones anteriores permiten a los administradores de proyectos adoptar decisiones informadas sobre cmo lograr resultados de manera costo-efectiva. El responsable de polticas, equipado con la evidencia de una evaluacin de impacto, tiene la tarea de completar el proceso incorporando estos resultados al proceso de toma de decisiones. Este tipo de evidencia puede informar los debates, las opiniones y, en ltima instancia, las decisiones de los Gobiernos, las instituciones multilaterales y los donantes acerca de la inversin de los recursos humanos y nancieros. La formulacin de polticas basada en evidencias consiste fundamentalmente en reprogramar los presupuestos para expandir programas con mayor costo-efectividad, eliminar los programas menos costo-efectivos y mejorar los diseos de los programas a partir de las evidencias disponibles. La evaluacin de impacto no es puramente acadmica: se basa en la necesidad de responder a preguntas sobre polticas que afectan las vidas cotidianas de la poblacin. Las decisiones sobre la mejor manera de gastar recursos escasos en programas de lucha contra la pobreza, salud, educacin, proteccin social, microcrdito, agricultura y otras iniciativas para el desarrollo pueden mejorar el bienestar en el mundo. Es vital que esas decisiones se valgan de las evidencias ms rigurosas.

Conclusin

227

Nota
1. Para una lectura adicional, puede consultarse Savedoff, Levine y Birdsall (2006).

Referencias
Legovini, Arianna. 2010. Development Impact Evaluation Initiative: A World BankWide Strategic Approach to Enhance Development Effectiveness. Proyecto de informe para los vicepresidentes de operaciones. Banco Mundial, Washington, DC. Savedoff, William; Levine, Ruth y Birdsall, Nancy. 2006. When Will We Ever Learn? Improving Lives through Impact Evaluation. CGD Evaluation Gap Working Group Paper. Center for Global Development, Washington, DC. http://www.cgdev.org/content/publications/detail/7973.

228

La evaluacin de impacto en la prctica

GLOSARIO

Los trminos denidos en el glosario estn en negrita. Actividad. Medidas adoptadas o trabajo realizado para generar productos especcos. Implica la movilizacin de insumos tales como recursos nancieros, asistencia tcnica o de otro tipo. Anlisis de costo-benecio. Clculos de los costos y benecios previstos en el programa, que se usan para valorar o evaluar propuestas de proyectos antes de llevarlos a cabo. Un anlisis costo-benecio tambin se puede realizar despus de una evaluacin de impacto si se dispone de informacin sobre los costos y si los benecios se pueden cuanticar en trminos monetarios. Asignacin aleatoria o diseos de controles aleatorios. La asignacin aleatoria se considera el mtodo ms robusto para la estimacin de contrafactuales y se presenta con frecuencia como la regla de oro de la evaluacin de impacto. Con este mtodo, se selecciona aleatoriamente a los beneciarios de una intervencin, de manera que cada uno de los individuos de la poblacin elegible tenga la misma posibilidad de beneciarse del programa. Con un tamao sucientemente grande de muestra, el proceso de asignacin aleatoria garantiza que las caractersticas, tanto observadas como no observadas, de los grupos de tratamiento y control sean equivalentes, lo que resuelve cualquier sesgo en la seleccin. Cadena de resultados. La cadena de resultados determina la lgica del programa y explica la manera en que se logra el objetivo nal de desarrollo. Muestra las relaciones entre los insumos, las actividades, los productos y los resultados. Clculos de potencia. Los clculos de potencia indican el tamao de la muestra necesario para que una evaluacin detecte cierto efecto mnimo deseado. Los clculos de potencia dependen de parmetros como la potencia de la estimacin (o la probabilidad de un error de tipo II), el nivel de signicancia, la varianza y la correlacin intragrupos (intraconglomerados) del resultado de inters de la evaluacin. Comparacin antes-despus. Este tipo de comparacin, conocida tambin como comparacin previa-posterior o comparacin reexiva, intenta establecer el impacto de un programa haciendo un seguimiento de los cambios en los resultados para los beneciarios del programa a lo largo del tiempo, utilizando mediciones anteriores y posteriores a la implementacin del programa o la poltica. 229

Conglomerado (o cluster). Un conglomerado o cluster es un grupo de unidades con algn tipo de similitud. Por ejemplo, en un muestreo de nios en edad escolar, los que asisten a la misma escuela pertenecen a un mismo conglomerado o cluster porque comparten el mismo centro escolar, los mismos profesores y viven en el mismo barrio. Contrafactual. El contrafactual es una estimacin de cul habra sido el resultado (Y) en las variables de inters para un participante en el programa, si este no hubiera tomado el programa (P). Por denicin, el contrafactual no se puede observar. Por lo tanto, hay que estimarlo utilizando los grupos de comparacin o control. Correlacin intraconglomerado. La correlacin intraconglomerado es la correlacin (o similitud) en los resultados o las caractersticas de las unidades que pertenecen al mismo conglomerado. Por ejemplo, los nios que asisten a la misma escuela tendrn, en muchas ocasiones, caractersticas similares o correlaciones en trminos de la zona de residencia y el contexto socioeconmico. Costo-efectividad. La determinacin de la costo-efectividad consiste en comparar intervenciones similares de acuerdo con los costos y la ecacia. Por ejemplo, las evaluaciones de impacto de varios programas educativos permiten a los encargados de tomar decisiones polticas adoptar decisiones ms informadas acerca de qu intervencin puede lograr los objetivos deseados ms ecazmente, teniendo en cuenta el contexto y las limitaciones particulares. Datos censales. Los datos que cubren todas las unidades de la poblacin de inters (o universo). Se diferencia de los datos de encuestas, que solo cubren una parte de la poblacin. Datos de encuesta. Los datos correspondientes a una muestra de la poblacin de inters. Se diferencia de los datos censales. Desgaste de la muestra (attrition). El desgaste de la muestra se produce cuando se pierden algunas unidades de la muestra entre una ronda de datos y la siguiente, por ejemplo, cuando hay personas que emigran y no se las localiza de una ronda a la siguiente. El desgaste de la muestra es un caso de falta de respuesta de la unidad. El desgaste de la muestra puede sesgar la evaluacin de impacto si se correlaciona con el tratamiento. Diferencias en diferencias. Tambin conocida como doble diferencia o DD. El mtodo de diferencias en diferencias estima el contrafactual del cambio en el resultado de inters antes y despus del programa en el grupo de tratamiento mediante el cambio de los mismos resultados de inters antes y despus del programa en el grupo de comparacin. Este mtodo nos permite tener en cuenta y hacer desaparecer cualquier diferencia constante en el tiempo entre los grupos de tratamiento y de comparacin. Las dos diferencias que se calculan son por lo tanto entre los momentos de antes y despus, y entre los grupos de tratamiento y de comparacin. Diseo de regresin discontinua (DRD) (Regression Discontinuity Design, RDD). El diseo de regresin discontinua es un mtodo de evaluacin no experimental. Es adecuado para los programas que emplean un ndice continuo para clasicar a los posibles beneciarios y que incorporan un umbral al ndice para determinar si dichos beneciarios reciben o no el programa. Este umbral para la elegibilidad al programa constituye un punto de divisin entre los grupos de tratamiento y los grupos de comparacin. Efecto. Cambio intencionado o no intencionado en las variables, que se debe, directa o indirectamente, a una intervencin.

230

La evaluacin de impacto en la prctica

Efecto de desbordamiento (spillover effect). Denominado tambin contaminacin del grupo de comparacin. Se produce un efecto de desbordamiento cuando el grupo de comparacin se ve afectado por el tratamiento administrado al grupo de tratamiento, a pesar de que el tratamiento no se ha administrado directamente al grupo de comparacin. Si el efecto de desbordamiento sobre el grupo de comparacin es negativo (es decir, si sufren como consecuencia del programa), la diferencia directa entre los resultados del grupo de tratamiento y los grupos de comparacin provocar una sobreestimacin del impacto del programa. Por el contrario, si el efecto de desbordamiento sobre el grupo de comparacin es positivo (es decir que resultan beneciados), se producir una subestimacin del impacto del programa. Efecto Hawthorne. El efecto Hawthorne se produce cuando, por el simple hecho de ser observadas, las unidades se comportan de manera diferente. Efecto John Henry. El efecto John Henry se produce cuando las unidades de la comparacin se esfuerzan ms para compensar que no les han ofrecido tratamiento. Cuando se comparan las unidades tratadas con las unidades de la comparacin que se esfuerzan ms, la estimacin del impacto del programa resulta sesgada; es decir, estimamos un impacto menor del programa en comparacin con el impacto real que obtendramos si las unidades de la comparacin no realizaran un esfuerzo adicional. Efecto mnimo deseado. El cambio mnimo en los resultados que justicara la inversin que se ha realizado en una intervencin, teniendo en cuenta no solo el costo del programa y los benecios que aporta, sino tambin el costo de oportunidad que conlleva no invertir los fondos en una intervencin alternativa. El efecto mnimo deseado es un insumo para los clculos de la potencia; es decir, las muestras de la evaluacin tienen que ser sucientemente grandes para detectar al menos el efecto mnimo deseado con suciente potencia. Encuesta de seguimiento. Tambin conocida como posterior a la intervencin o encuesta ex post. Una encuesta realizada despus del comienzo del programa, una vez que los beneciarios lleven algn tiempo benecindose de este. Una evaluacin de impacto puede incluir varias encuestas de seguimiento. Error de tipo I. El error que se comete cuando se rechaza una hiptesis nula a pesar de su validez. En el contexto de una evaluacin de impacto, se comete un error del tipo I cuando una evaluacin concluye que un programa ha tenido un impacto (es decir, se rechaza la hiptesis nula del impacto), a pesar de que el programa no ha tenido impacto en realidad (es decir, la hiptesis nula es vlida). El nivel de signicancia determina la probabilidad de que se cometa un error de tipo I. Error de tipo II. El error que se comete cuando se acepta (en lugar de rechazar) una hiptesis nula a pesar de que no es vlida. En el contexto de una evaluacin de impacto, se comete un error de tipo II cuando se concluye que un programa no ha tenido impacto (es decir, no se rechaza la hiptesis nula del impacto), a pesar de que el programa s ha tenido impacto (es decir, la hiptesis nula no es vlida). La probabilidad de cometer un error de tipo II equivale a 1 menos el nivel de potencia. Estimador. En estadstica, un estimador es una funcin que se emplea para calcular un parmetro desconocido de la poblacin; una estimacin es el resultado de la aplicacin de esta funcin a una muestra particular de datos.

Glosario

231

Estimador de la intencin de tratar (IDT). El estimador de la IDT es la diferencia del indicador del resultado (Y) entre el grupo al que se le ha ofrecido el programa (o al que se intent tratar) y el grupo al que no se le ha ofrecido el programa. Se diferencia del estimador del tratamiento en los tratados. Evaluacin. Las evaluaciones son exmenes peridicos y objetivos de un proyecto, programa o poltica programada, en curso o completada. Las evaluaciones se usan para responder a preguntas especcas, relacionadas con frecuencia con el diseo, la ejecucin y los resultados. Evaluacin de impacto. Una evaluacin de impacto es una evaluacin que intenta establecer una relacin causal entre un programa o una intervencin y una serie de resultados. Una evaluacin de impacto pretende responder a la pregunta de si el programa es responsable de los cambios en los resultados de inters. Se diferencia de la evaluacin de proceso. Evaluacin de proceso. Una evaluacin de proceso es una evaluacin que intenta establecer el nivel de calidad o xito de los procesos de un programa; por ejemplo, la idoneidad de los procesos administrativos, el grado de aceptacin de los benecios del programa, la claridad de la campaa informativa, las dinmicas internas de las organizaciones ejecutoras, sus instrumentos de polticas, sus mecanismos de prestacin de servicios, sus prcticas de gestin y las relaciones entre ellas. Se diferencia de la evaluacin de impacto. Falta de respuesta. En una encuesta, cuando faltan datos o estn incompletos. La falta de respuesta a nivel de unidades ocurre cuando no se dispone de informacin para algunas unidades de la muestra, es decir, cuando la muestra real es diferente de la muestra programada. El desgaste de la muestra es una forma de falta de respuesta a nivel de unidades. La falta de respuesta a nivel de variables se produce cuando los datos de algunas unidades de la muestra estn incompletos en algn momento. La falta de respuesta puede provocar sesgo en los resultados de la evaluacin si est asociada con el tratamiento. Grupo de comparacin. Tambin conocido como grupo de control. Un grupo de comparacin vlido debe tener las mismas caractersticas que el grupo de beneciarios del programa (grupo de tratamiento). La nica diferencia entre ambos grupos debe de ser que el grupo de comparacin no se benecia del programa que se quiere evaluar. Los grupos de comparacin se utilizan para estimar el contrafactual. Grupo de tratamiento. Tambin conocido como grupo tratado o grupo de intervencin. El grupo de tratamiento es el conjunto de unidades que se benecia de una intervencin, a diferencia del grupo de comparacin, que no se benecia. Hiptesis. Una hiptesis es una explicacin propuesta de un fenmeno observable. Vase tambin hiptesis nula e hiptesis alternativa. Hiptesis alternativa. En la evaluacin de impacto, la hiptesis alternativa es normalmente la hiptesis de que la hiptesis nula es falsa; en otras palabras, que la intervencin tiene un impacto sobre los resultados. Hiptesis nula. Una hiptesis nula es una hiptesis que puede ser falsicada sobre la base de los datos observados. La hiptesis nula propone normalmente una posicin general o por defecto. En la evaluacin de impacto, la hiptesis nula suele ser que no hay diferencia entre los grupos de tratamiento y de control, o dicho de otro modo, que la intervencin no tiene impacto sobre los resultados.

232

La evaluacin de impacto en la prctica

Indicador. Un indicador es una variable que mide un fenmeno de inters para el evaluador. El fenmeno puede ser un insumo, un producto, un resultado, una caracterstica o un atributo. Insumos (o inputs). Los recursos nancieros, humanos y materiales que se emplean en la implementacin de una programa o una intervencin de desarrollo. Lnea de base. Previa a la intervencin, ex ante. La situacin previa a una intervencin, con respecto a la cual se puede valorar el progreso o se pueden hacer comparaciones. La lnea base se recopila antes de la implementacin de un programa o una poltica para observar la situacin antes. Marco muestral. La lista ms exhaustiva de unidades de la poblacin de inters (universo) que puede obtenerse. Las diferencias entre el marco muestral y la poblacin de inters generan un sesgo (en el muestreo). Cuando existe un sesgo en la cobertura, los resultados de la muestra no tienen validez externa para la totalidad de la poblacin de inters. Mtodos de seleccin aleatoria. Los mtodos de seleccin aleatoria consisten en el conjunto de mtodos que utilizan la asignacin aleatoria para identicar el contrafactual. Entre ellos estn la asignacin aleatoria del tratamiento, la oferta aleatoria del tratamiento y la promocin aleatoria. Monitoreo (o seguimiento). El monitoreo es el proceso continuo de recoleccin y anlisis de informacin para valorar el nivel de desempeo de un proyecto, un programa o una poltica. Utiliza principalmente datos administrativos para comparar el desempeo con los resultados previstos, hacer comparaciones entre programas y analizar tendencias en el tiempo. El monitoreo se centra habitualmente en los insumos, las actividades y los productos, aunque ocasionalmente tambin incluye los resultados. El seguimiento se utiliza para informar la toma de decisiones rutinarias, especialmente de gestin. Muestra. En estadstica, una muestra es un subgrupo de una poblacin. Normalmente, la poblacin es muy numerosa, lo que hace impracticable o imposible realizar un censo o una enumeracin completa de todas las unidades en la poblacin. En su lugar, los investigadores pueden seleccionar un subgrupo representativo de la poblacin (utilizando un marco muestral) y recopilar estadsticas sobre la muestra; estas estadsticas pueden usarse para hacer inferencias o extrapolarlas a la poblacin. El proceso se denomina muestreo. Muestra aleatoria. La mejor manera de evitar una muestra sesgada o no representativa es seleccionar una muestra aleatoria. Una muestra aleatoria es una muestra probabilstica en la que cada unidad de la poblacin muestreada tiene la misma probabilidad de ser seleccionada. Muestra de conglomerados o clusters. Una muestra obtenida extrayendo una muestra aleatoria de conglomerados o clusters, despus de lo cual se pueden seleccionar todas las unidades que forman los conglomerados en la muestra, o se puede extraer aleatoriamente una serie de unidades dentro de cada conglomerado seleccionado. Cada conglomerado tiene una probabilidad denida de resultar seleccionado, y las unidades dentro de un conglomerado seleccionado tambin tienen una probabilidad denida de resultar seleccionadas. Muestra estraticada. Se obtiene dividiendo a la poblacin de inters (marco muestral) en grupos (por ejemplo, hombres y mujeres), y extrayendo a continuacin una muestra aleatoria dentro de cada grupo. Una muestra estraticada es una muestra probabilstica: cada unidad dentro de cada grupo (o estrato) tiene la misma probabilidad de ser extrada.

Glosario

233

Muestreo. El proceso mediante el cual se extraen unidades de un marco muestral producido a partir de la poblacin de inters (universo). Se pueden utilizar varios procedimientos alternativos de muestreo. Los mtodos de muestreo probabilstico son los ms rigurosos porque asignan una probabilidad bien denida a la seleccin de cada unidad. Entre los mtodos de muestreo probabilstico estn el muestreo aleatorio simple, el muestreo aleatorio estraticado y el muestreo por conglomerados o clusters. El muestro no probabilstico (como el muestreo de conveniencia o por juicio) puede generar errores de muestra. Nivel de signicancia. El nivel de signicancia se seala habitualmente con el smbolo griego (alfa). Los niveles ms habituales de signicancia son del 5% (0,05), 1% (0,01) y 0,1% (0,001). Si una prueba de signicancia resulta en un valor p inferior al nivel , se rechaza la hiptesis nula. Dichos resultados se denen informalmente como estadsticamente signicativos. Cuanto menor sea el nivel de signicancia, mayor ser el nivel de evidencia. La eleccin del nivel de signicancia es una tarea arbitraria, pero en el caso de muchas aplicaciones, se elige un nivel del 5% simplemente porque se trata de un nivel convencional. Oferta aleatoria. La oferta aleatoria es un mtodo para identicar el impacto de una intervencin. Con este mtodo, se ofrece aleatoriamente a los beneciarios una intervencin, y cada uno de ellos tiene la misma posibilidad de beneciarse del programa. Aunque el administrador del programa puede seleccionar aleatoriamente a las unidades a las que va a ofrecer el tratamiento entre el universo de unidades elegibles, no puede obtener un nivel de cumplimiento perfecto: no puede forzar a ninguna unidad a participar o aceptar el tratamiento y no puede negar la participacin de una unidad que insista en ello. Con este mtodo, la oferta aleatoria del programa se usa como una variable instrumental de la participacin real en el programa. Pareamiento (o emparejamiento). El pareamiento, matching o emparejamiento consiste en un mtodo de evaluacin no experimental que usa grandes series de datos y tcnicas estadsticas complejas para construir un grupo de comparacin para cierto grupo de tratamiento. Poblacin de inters. El conjunto de unidades elegibles para una intervencin o un tratamiento. La poblacin de inters se denomina a veces el universo. Potencia. La potencia estadstica es la probabilidad de detectar un impacto cuando este se haya producido. La potencia de una prueba es equivalente a 1 menos la probabilidad de que exista error de tipo II, y va de 0 a 1. Los niveles ms habituales de potencia son 0,8 y 0,9. Altos niveles de potencia son ms conservadores y disminuyen la probabilidad de que exista un error de tipo II. Una evaluacin de impacto tiene una potencia elevada si existe poco riesgo de que no se detecten los impactos reales del programa, es decir, de cometer un error de tipo II. Potencia estadstica. La potencia de un test estadstico es la probabilidad de que se rechace la hiptesis nula cuando se conrme la hiptesis alternativa (es decir, que no cometer un error de tipo II). Con el aumento de la potencia se reducen las probabilidades de un error de tipo II. La probabilidad de un error del tipo II se dene como el riesgo de negativos falsos (). Por lo tanto, la potencia equivale a 1 . Producto. Los productos son los bienes de capital y servicios que se ofrecen directamente por una intervencin. Los productos tambin pueden incluir cambios resultantes de la intervencin, pertinentes para el logro de los resultados. Promocin aleatoria. La promocin aleatoria es un mtodo similar a la oferta aleatoria. En lugar de seleccionar aleatoriamente las unidades a las que se va a ofrecer el tratamiento, se selecciona aleatoriamente a las unidades entre las que se va a promocionar el tratamiento. As, el programa se mantiene abierto a todas las unidades. Con este mtodo, la promocin aleatoria del programa se usa como una variable instrumental de la participacin real en el programa. 234
La evaluacin de impacto en la prctica

Regresin. En estadstica, el anlisis de regresin incluye cualquier tcnica para la formulacin de modelos y el anlisis de diversas variables, cuando se hace referencia a la relacin entre una variable dependiente y una o ms variables independientes o explicativas. En el caso de la evaluacin de impacto, el anlisis de regresin estima cmo el valor esperado del indicador del resultado de la intervencin (Y; variable dependiente) cambia en funcin de pertenecer al grupo de tratamiento o de comparacin (P; variable independiente), mientras las otras caractersticas de los beneciarios (otras variables independientes) se mantienen jas. Resultado. Puede ser intermedio o nal. El resultado (de inters de la intervencin) es un efecto de inters que se genera a travs de una combinacin de factores de oferta y demanda. Por ejemplo, si una intervencin conlleva el aumento de la oferta de servicios de inmunizacin, el nmero real de vacunaciones sera un resultado de inters de la intervencin, ya que depende no solo de la oferta de vacunas, sino tambin del comportamiento de los beneciarios previstos: se presentarn en el lugar de servicio para que los vacunen? Los resultados nales o de largo plazo son mas indirectos. Este factor ms indirecto puede interpretarse como una dimensin temporal (lleva mucho tiempo llegar al resultado) o una dimensin causal (son necesarios muchos resultados intermedios para alcanzar el resultado nal). Sesgo. El sesgo de un estimador es la diferencia entre la expectativa del estimador y el valor real del parmetro que se est estimando. En la evaluacin de impacto, es la diferencia entre el impacto que se calcula y el verdadero impacto del programa. Sesgo de seleccin. El sesgo de seleccin se produce cuando las razones por las que cada individuo participa en un programa se correlacionan con los resultados de inters de la intervencin. Este sesgo se registra normalmente cuando el grupo de comparacin no es elegible o se autoexcluye del tratamiento. Tratamiento en los tratados (efecto del). Denominado tambin el estimador del tratamiento en los tratados (TET). El efecto del tratamiento en los tratados es el impacto del tratamiento sobre las unidades que se han beneciado realmente del tratamiento. Se diferencia de la intencin de tratar (IDT). Validez externa. Tener validez externa signica que el impacto causal descubierto en la evaluacin de impacto se puede generalizar al universo de todas las unidades elegibles. Para que una evaluacin tenga validez externa, es necesario que la muestra de la evaluacin sea representativa del universo de unidades elegibles. Validez interna. El hecho de que una evaluacin de impacto tenga validez interna signica que utiliza un grupo de comparacin vlido, es decir, un grupo de comparacin que produce una estimacin vlida del contrafactual. Variable. En la terminologa estadstica, una variable es una caracterstica de la poblacin de estudio. Toma valores determinados para cada observacin y estos pueden variar entre individuos y/o a lo largo del tiempo. Variable instrumental. Una variable instrumental es una variable que se utiliza para estimar el impacto causal de un programa cuando la participacin en este est determinada parcialmente por las caractersticas de los posibles beneciarios. Una variable instrumental debe contar con dos caractersticas para poder considerarse valida: 1) debe estar correlacionada con la participacin en el programa, y 2) no puede estar correlacionada con los resultados (Y) (aparte de mediante su participacin en el programa) o con variables no observables.

Glosario

235

El objetivo de este libro es proporcionar una gua clara, integral y accesible sobre la evaluacin de impacto. Cubre una cantidad de temas impresionante y los contenidos desde la motivacin para la evaluacin hasta las ventajas de cada metodologa, pasando por los clculos de potencia y los costos se explican con gran claridad. Este libro se convertir en una gua muy consultada y de extensa utilizacin, e inuir en las decisiones sobre polticas pblicas durante aos. Orazio Attanasio, profesor de Economa del University College de Londres, director del Centre for the Evaluation of Development Policies, Institute for Fiscal Studies, Reino Unido Este libro es un valioso recurso para quienes tienen previsto realizar evaluaciones de impacto en el mundo en desarrollo; abarca tanto cuestiones conceptuales como prcticas y est ilustrado con ejemplos de experiencias recientes. Michael Kremer, profesor de la ctedra Gates de Sociedades en Desarrollo, Departamento de Economa de la Universidad de Harvard, Estados Unidos Los principales ingredientes de una buena evaluacin de polticas pblicas son a) metodologas adecuadas, b) capacidad para resolver problemas prcticos, como la recoleccin de datos, trabajar con presupuestos bajos y la redaccin del informe nal, y c) Gobiernos responsables en la rendicin de cuentas. En este libro no solo se describen las metodologas tcnicas rigurosas necesarias para medir el impacto de los programas pblicos, sino que tambin se ofrecen numerosos ejemplos y se transporta al lector al mundo real de la implementacin de las evaluaciones, desde el momento de convencer a los encargados de formular polticas pblicas hasta el momento en que se divulgan los resultados de la evaluacin. Si ms profesionales de la materia y responsables de polticas pblicas leen este manual, obtendremos mejores polticas pblicas y mejores resultados en muchos pases. Si los Gobiernos mejoran la rendicin de cuentas, el impacto de este manual ser an mayor. Gonzalo Hernndez Licona, secretario ejecutivo del Consejo Nacional de Evaluacin de las Polticas de Desarrollo (CONEVAL), Mxico Recomiendo este libro como una gua clara y accesible para las difciles cuestiones prcticas y tcnicas del diseo de evaluaciones de impacto. Se basa en materiales probados en seminarios de todo el mundo, y resultar til tanto para profesionales de la materia como autoridades encargadas de formular polticas y evaluadores. Nick York, jefe del Departamento de Evaluacin del Departamento para el Desarrollo Internacional del Reino Unido El conocimiento es uno de los bienes ms valiosos para comprender la naturaleza compleja del proceso de desarrollo. La evaluacin de impacto puede ayudar a reducir la brecha entre pura intuicin y evidencia contrastadas y as contribuir a una mejor formulacin de polticas pblicas. Este libro, uno de los productos tangibles del Fondo Espaol de Evaluacin de Impacto, ofrece a los profesionales del desarrollo humano herramientas de ltima generacin para obtener evidencias sobre qu polticas pblicas funcionan y porqu. Puesto que mejora nuestra capacidad para conseguir resultados, esperamos que contribuya de manera notable a la prctica del desarrollo. Soraya Rodrguez Ramos, secretara de Estado de Cooperacin Internacional (Espaa)

ISBN 978-0-8213-8681-1

BANCO MUNDIAL SKU 18681