Está en la página 1de 17

EVALUACIÓN DE IMPACTO DE POLÍTICAS FINANCIERAS Y

OTROS TIPOS DE POLÍTICAS


ÍNDICE DE CONTENIDOS

I. TEORÍA BÁSICA DE EVALUACIÓN DE IMPACTO ......................................................................... 5


I.1 EVALUACIÓN DE IMPACTO CUANTITATIVO VS EVALUACIÓN DE IMPACTO CUALITATIVO............................... 5
I.2 EVALUACIÓN DE IMPACTO CUANTITATIVA: EVALUACIÓN DE IMPACTO EX POST VERSUS EX ANTE ............... 6
I.3 EL PROBLEMA DEL CONTRAFACTUAL ....................................................................................................................... 7
I.3.1 Buscando un Contrafactual: con y sin comparaciones.................................................................................................. 8
I.3.2 Buscando un Contrafactual: comparaciones antes y después ........................................................................................ 9
I.4 EL PROBLEMA DEL SESGO DE SELECCIÓN ............................................................................................................. 10
I.5 DOBLE DIFERENCIA ................................................................................................................................................... 16
I.6 MODELO DE PANEL DE EFECTOS FIJOS .................................................................................................................. 16
II. VARIABLES INSTRUMENTALES ...................................................................................................... 17
ÍNDICE DE CUADROS

CUADRO 1: ESTUDIO DE CASO: MÉTODOS MIXTOS EN ENFOQUES CUANTITATIVOS Y CUALITATIVOS ........................... 5


CUADRO 2: UN EJEMPLO DE EVALUACIÓN EX ANTE .............................................................................................................. 7
ÍNDICE DE FIGURAS

FIGURA 1: EVALUACIÓN CON Y SIN COMPARACIÓN ............................................................................................................... 8


I. TEORÍA BÁSICA DE EVALUACIÓN DE IMPACTO

I.1 EVALUACIÓN DE IMPACTO CUANTITATIVO VS EVALUACIÓN DE


IMPACTO CUALITATIVO

Los gobiernos, los donantes y otros profesionales en el desarrollo comunitario están interesados en
determinar la efectividad de los programas con objetivos de largo alcance como reducir la pobreza o
aumentar el empleo. Estas búsquedas de políticas a menudo son posibles solo a través de evaluaciones de
impacto basadas en evidencia sólida de los datos de las encuestas o mediante enfoques cuantitativos
relacionados.

El curso se enfocara en métodos de impacto cuantitativo en lugar de evaluaciones de impacto cualitativas.


Sin embargo, la información cualitativa, como la comprensión del contexto sociocultural e institucional
local, así como los detalles del programa y de los participantes, es esencial para una evaluación cuantitativa
sólida.

Por ejemplo, la información cualitativa puede ayudar a identificar los mecanismos a través de los cuales los
programas podrían tener un impacto; además, encuestas también pueden identificar a los responsables
políticos locales o individuos que serían importantes para determinar el curso de cómo se implementan los
programas, ayudando así a la evaluación operativa. Pero una evaluación cualitativa por sí sola no puede
evaluar los resultados contra alternativas relevantes o resultados contrafactuales.

Es decir, en realidad no puede indicar lo que podría suceder en ausencia del programa. El análisis
cuantitativo también es importante para abordar el posible sesgo estadístico en los impactos del programa.
Por lo tanto, una mezcla de métodos cualitativos y cuantitativos (un enfoque de métodos mixtos)
podría ser útil para obtener una visión integral de la efectividad del programa.

El describe un enfoque de métodos mixtos para examinar los resultados del Fondo de Inversión Social de
Jamaica (JSIF). JSIF involucró iniciativas impulsadas por la comunidad, con comunidades que hicieron
contribuciones en efectivo o en especie a los costos de desarrollo del proyecto (como la construcción). Las
configuraciones de evaluación cualitativa y cuantitativa implicaron comparaciones de resultados entre pares
de comunidades tratadas y no tratadas emparejadas, pero con diferentes enfoques para emparejar
comunidades que participan y no participan en JSIF.

CUADRO 1: ESTUDIO DE CASO: MÉTODOS MIXTOS EN ENFOQUES CUANTITATIVOS Y CUALITATIVOS


(Rao & Ibáñez, 2005) Aplicaron instrumentos de encuestas cuantitativas y cualitativas para estudiar el
impacto del Fondo de Inversión Social de Jamaica. Los evaluadores del programa realizaron entrevistas
cualitativas semiestructuradas en profundidad con los coordinadores de proyectos de JSIF, el gobierno local
y los líderes de la comunidad y los miembros del comité de JSIF que ayudaron a implementar el proyecto
en cada comunidad. Esta información reveló detalles importantes sobre las normas sociales, motivados por
influencias históricas y culturales que guiaron la toma de decisiones de las comunidades y, por lo tanto, la
forma en que el programa finalmente se desarrolló en áreas específicas. Estas entrevistas también ayudaron
a emparejar comunidades, porque se les pidió a los grupos focales que identificaran comunidades cercanas
que fueran más similares a ellas.

Sin embargo, las entrevistas cualitativas no se realizaron al azar. Como resultado, las entrevistas cualitativas
podrían haber involucrado a personas que tenían más probabilidades de participar en el programa, lo que
condujo a un sesgo en la comprensión del impacto del programa. Por lo tanto, también se incluyó un
componente cuantitativo del estudio. Específicamente, en el componente cuantitativo, se encuestó a 500
hogares (y, a su vez, casi 700 personas), divididos en partes iguales entre las comunidades que participan y
no participan en el fondo. Los cuestionarios cubrieron una variedad de variables, incluyendo características
socioeconómicas, detalles de participación en el fondo y otros programas locales, prioridades percibidas para
el desarrollo comunitario y redes sociales, así como formas en que varios de sus resultados habían cambiado
en relación con hace cinco años (antes de JSIF). La coincidencia de puntaje de propensión, se utilizó para
comparar los resultados de los hogares participantes y no participantes. La correspondencia se realizó sobre
la base de un puntaje de pobreza calculado a partir de los datos del censo nacional. También se realizó un
trabajo de campo por separado para extraer características comunitarias adicionales, no medidas, para
realizar el partido; Esta información incluía datos sobre geografía local, mercados laborales y la presencia de
otras organizaciones comunitarias. La coincidencia de esta manera permitió una mejor comparación de áreas
específicas y no específicas, evitando así el sesgo en los impactos del tratamiento basado en diferencias
significativas observadas y no observadas entre estos grupos.

Por lo tanto, los datos cualitativos revelaron información valiosa sobre el contexto institucional y las normas
que guían el comportamiento en la muestra, mientras que los datos cuantitativos detallaron las tendencias
en la reducción de la pobreza y otros indicadores relacionados.

En general, cuando se comparan las estimaciones del programa de los modelos cualitativos (medidos por las
tabulaciones cruzadas de diferencias en diferencias de las respuestas de la encuesta a través de pares
coincidentes JSIF y no JSIF) con el cuantitativo Impacto estimado a partir del emparejamiento del vecino
más cercano, (Rao & Ibáñez, 2005) encontraron que el patrón de efectos era similar. Dichos efectos
incluyeron un mayor nivel de confianza y una mejor capacidad de las personas de diferentes orígenes para
trabajar juntas. Para el último resultado, por ejemplo, aproximadamente el 21 por ciento de la muestra JSIF
dijo que era “muy difícil” o “difícil” para las personas de diferentes orígenes trabajar juntas en el módulo
cualitativo, en comparación con aproximadamente el 32 por ciento de la muestra no JSIF. Del mismo modo,
las estimaciones del vecino más cercano revelaron un beneficio medio positivo significativo para este
resultado en las áreas JSIF (aproximadamente 0,33).

Los impactos cuantitativos también se desglosaron por características socioeconómicas de los hogares. Sin
embargo, tendían a mostrar que JSIF pudo haber creado mejores resultados en términos de una mayor
acción colectiva para los participantes más ricos y mejor educados; La evidencia cualitativa también reveló
que estos grupos tendían a dominar el proceso de toma de decisiones.

I.2 EVALUACIÓN DE IMPACTO CUANTITATIVA: EVALUACIÓN DE IMPACTO


EX POST VERSUS EX ANTE

Hay dos tipos de evaluaciones de impacto cuantitativas: ex post y ex ante.

 Una evaluación de impacto ex ante intenta medir los impactos previstos de futuros programas y
políticas, dada la situación actual de un área potencialmente focalizada, y puede involucrar
simulaciones basadas en suposiciones sobre cómo funciona la economía. Muchas veces, las
evaluaciones ex ante se basan en modelos estructurales del entorno económico que enfrentan los
posibles participantes. Los supuestos subyacentes de los modelos estructurales, por ejemplo,
implican la identificación de los principales agentes económicos en el desarrollo del programa
(individuos, comunidades, gobiernos locales o nacionales), así como los vínculos entre los agentes y
los diferentes mercados para determinar los resultados del programa. Estos modelos predicen los
impactos del programa.

 Las evaluaciones ex post, en cambio, miden los impactos reales acumulados por los beneficiarios
que son atribuibles a la intervención del programa. Una forma de este tipo de evaluación es el modelo
de efectos del tratamiento (Heckman & Vytlacil, 2005). Las evaluaciones ex post tienen beneficios
inmediatos y reflejan la realidad. Sin embargo, estas evaluaciones a veces pierden los mecanismos
subyacentes del impacto del programa en la población, que los modelos estructurales pretenden
capturar y que pueden ser muy importantes para comprender la efectividad del programa
(particularmente en entornos futuros). Las evaluaciones ex post también pueden ser mucho más
costosas que las evaluaciones ex ante porque requieren la recopilación de datos sobre los
resultados reales para los grupos participantes y no participantes, así como sobre otros factores
sociales y económicos que pueden haber determinado el curso de la intervención. Un costo adicional
en la configuración ex post es el fracaso de la intervención, que podría haberse predicho a través del
análisis ex ante.

Un enfoque es combinar ambos análisis y comparar estimaciones ex post con predicciones ex ante. Este
enfoque puede ayudar a explicar cómo surgen los beneficios del programa, especialmente si el programa se
lleva a cabo en diferentes fases y tiene la flexibilidad para ser refinado a partir del conocimiento adicional
obtenido de la comparación.

CUADRO 2: UN EJEMPLO DE EVALUACIÓN EX ANTE


(Todd & Wolpin, 2006) Aplicaron un enfoque ex ante a la evaluación, utilizando datos del experimento de
subsidio escolar PROGRESA (ahora Oportunidades) en México. Utilizando un modelo económico de
comportamiento del hogar, predijeron los impactos del programa de subsidios en la proporción de niños
que asisten a la escuela. Las predicciones se basaron solo en los niños del grupo de control y calcularon el
efecto del tratamiento al hacer coincidir a los niños del grupo de control de hogares con un salario e ingreso
dado con niños de hogares donde los salarios e ingresos se verían afectados por el subsidio.

Las predicciones de este modelo se compararon con los impactos experimentales ex post (durante el período
1997-98) medidos bajo el programa. (Todd & Wolpin, 2006) Encontraron que las estimaciones
pronosticadas para niños de 12 a 15 años eran similares a las estimaciones experimentales en el mismo grupo
de edad. Para las niñas entre 12 y 15 años, encontraron que el aumento previsto en la escolaridad era de 8.9
puntos porcentuales, en comparación con el aumento real de 11.3 puntos porcentuales; para los niños, las
estimaciones pronosticadas y experimentales fueron de 2.8 y 2.1 puntos porcentuales, respectivamente.

La evaluación previa que realizaron también les permitió evaluar cómo los resultados podrían cambiar si se
modificaran ciertos parámetros. Una evaluación ex ante también podría describir el rango potencial de
impactos del programa, lo que podría ayudar en la focalización final ex post.

I.3 EL PROBLEMA DEL CONTRAFACTUAL

El principal desafío de una evaluación de impacto es determinar qué habría pasado con los
beneficiarios si el programa no hubiera existido. Es decir, uno debe determinar el ingreso per cápita de
los beneficiarios en ausencia de la intervención. El resultado de un beneficiario en ausencia de la
intervención sería su contrafactual.

Un programa o intervención política busca alterar los cambios en el bienestar de los beneficiarios previstos.
Ex post, se observan los resultados de esta intervención en los beneficiarios previstos, como el empleo o
los gastos. ¿Este cambio se relaciona directamente con la intervención? ¿Esta intervención ha
causado que crezcan los gastos o el empleo? No necesariamente. De hecho, con solo una observación
puntual después del tratamiento, es imposible llegar a una conclusión sobre el impacto. En el mejor de los
casos, se puede decir si se cumplió el objetivo de la intervención. Pero el resultado después de la
intervención no puede atribuirse al programa en sí.

El problema de la evaluación es que, si bien el impacto del programa (independiente de otros factores) solo
puede evaluarse realmente mediante la comparación de resultados reales y contrafácticos, no se observa
el contrafactual. Por lo tanto, el desafío de una evaluación de impacto es crear un grupo de comparación
convincente y razonable para los beneficiarios a la luz de estos datos faltantes. Idealmente, uno quisiera
comparar cómo le hubiera ido al mismo hogar o individuo con y sin una intervención o “tratamiento”. Pero
uno no puede hacerlo porque en un momento dado un hogar o un individuo no puede tener dos existencias
simultáneas: una el hogar o un individuo no pueden estar en los grupos tratados y de control al mismo
tiempo. Encontrar un contrafactual apropiado constituye el principal desafío de una evaluación de
impacto.

¿Qué tal una comparación entre los grupos tratados y no tratados cuando ambos son elegibles
para ser tratados? ¿Qué tal una comparación de los resultados de los grupos tratados antes y
después de ser tratados? Estos grupos de comparación potenciales pueden ser contrafactuales
“falsificados”.

I.3.1 BUSCANDO UN CONTRAFACTUAL: CON Y SIN COMPARACIONES

Considérese el caso de los beneficiarios del Banco Grameen en Bangladesh. Banco Grameen ofrece créditos
a las mujeres pobres para mejorar su consumo de alimentos. Sin embargo, los datos muestran que el
consumo per cápita entre las participantes del programa es menor que el de los no participantes antes de la
intervención del programa. ¿Es este un caso de quiebra del Banco Grameen? No necesariamente.
Banco Grameen se dirigió a las familias pobres porque, para empezar, tenían un consumo de alimentos per
cápita muy bajo, por lo que juzgar el impacto del programa al comparar el consumo de alimentos de los
participantes del programa con el de los no participantes es incorrecto. Lo que se necesita es comparar lo
que habría sucedido con el consumo de alimentos de las mujeres participantes si el programa no hubiera
existido. Se necesita un grupo de comparación adecuado que sea un contrafactual cercano de los
beneficiarios del programa.

FIGURA 1: EVALUACIÓN CON Y SIN COMPARACIÓN

En la Figura 1, considérese los ingresos de los participantes del Banco Grameen después de la intervención
del programa como 𝑦4 y los ingresos de los no participantes o hogares de control como 𝑦3 . Este grupo con
y sin comparación mide el efecto del programa como 𝑦4 − 𝑦3 . ¿Es esta medida una estimación correcta
del efecto del programa? Sin saber por qué algunos hogares participaron mientras que otros no lo hicieron
cuando un programa como el del Banco Grameen puso a disposición un programa de crédito en una aldea,
tal comparación podría ser engañosa. Sin dicha información, uno no sabe si 𝑦3 es el resultado contrafactual
correcto para evaluar el efecto del programa. Por ejemplo, los ingresos son diferentes entre los participantes
y los grupos de control antes del programa; este diferencial podría deberse a diferencias subyacentes que
pueden sesgar la comparación entre los dos grupos. Si se conocieran los resultados contrafácticos (𝑦0 , 𝑦2 ),
la estimación real del efecto del programa es 𝑦4 − 𝑦2 , como indica la Figura 1, y no 𝑦4 − 𝑦3 . En este
ejemplo, la falsificación contrafactual produce una subestimación del efecto del programa. Sin embargo,
tenga en cuenta que, dependiendo de las situaciones previas a la intervención de los grupos tratados y de
control, la comparación falsificada podría generar una sobreestimación o subestimación del efecto del
programa.

I.3.2 BUSCANDO UN CONTRAFACTUAL: COMPARACIONES ANTES Y DESPUÉS

Otro falso contrafactual podría ser una comparación entre los resultados previos y posteriores al programa
de los participantes. Se podrían comparar los resultados ex post de los beneficiarios con datos sobre sus
resultados antes de la intervención, ya sea con datos de encuestas comparables antes de la introducción del
programa o, en ausencia de un diseño de evaluación adecuado, con datos retrospectivos.

FIGURA 2: EVALUACIÓN EMPLEANDO COMPARACIÓN ANTES Y DESPUÉS

En la Figura 2, se tiene dos puntos de observación para los beneficiarios de una intervención: ingreso previo
a la intervención (𝑦0 ) e ingreso posterior a la intervención (𝑦2 ). En consecuencia, el efecto del programa
podría estimarse como (𝑦2 − 𝑦0 ). La literatura se refiere a este enfoque como el método reflexivo de
impacto, donde los resultados de los participantes resultantes antes de la intervención funcionan como
resultados de comparación o control. ¿Este método ofrece una estimación realista del efecto del
programa? Probablemente no. La serie de tiempo ciertamente hace que llegar a mejores conclusiones sea
más fácil, pero de ninguna manera es concluyente sobre el impacto de un programa. De la Figura 2, se
observa que el impacto podría ser (𝑦2 − 𝑦1 ). De hecho, un método de diferencia tan simple no sería una
evaluación precisa porque muchos otros factores (fuera del programa) pueden haber cambiado durante el
período. No controlar esos otros factores significa que uno atribuiría falsamente el resultado del participante
en ausencia del programa como 𝑦0 , cuando podría haber sido 𝑦1 . Por ejemplo, los participantes en un
programa de capacitación pueden haber mejorado las perspectivas de empleo después del programa.
Aunque esta mejora puede deberse al programa, también puede deberse a que la economía se está
recuperando de una crisis pasada y el empleo está creciendo nuevamente. A menos que se realicen con
cuidado, las comparaciones reflexivas no pueden distinguir entre los efectos del programa y otros efectos
externos, lo que compromete la fiabilidad de los resultados.

Las comparaciones reflexivas pueden ser útiles en las evaluaciones de intervenciones de cobertura total,
tales como políticas y programas a nivel nacional en los que participa toda la población y no hay margen
para un grupo de control. Incluso cuando el programa no es tan amplio, si se observan los resultados para
los participantes durante varios años, entonces se podrían evaluar los cambios estructurales en los resultados
(Ravallion 2008).
En este contexto, por lo tanto, un estudio de línea de base amplio que cubra múltiples características de los
hogares antes del programa sería muy útil para poder controlar tantos otros factores que podrían estar
cambiando con el tiempo. También se necesitarían datos detallados sobre la participación en los programas
existentes antes de que se implementara la intervención.

I.4 EL PROBLEMA DEL SESGO DE SELECCIÓN

Una evaluación de impacto es esencialmente un problema de falta de datos, porque uno no puede observar
los resultados de los participantes del programa si no hubieran sido beneficiarios. Sin información sobre el
contrafactual, la siguiente mejor alternativa es comparar los resultados de los individuos u hogares tratados
con los de un grupo de comparación que no ha sido tratado. Al hacerlo, se intenta elegir un grupo de
comparación que sea muy similar al grupo tratado, de modo que aquellos que recibieron tratamiento habrían
tenido resultados similares a los del grupo de comparación en ausencia de tratamiento.

Las evaluaciones de impacto exitosas dependen de encontrar un buen grupo de comparación. Hay dos
enfoques generales a los que recurren los investigadores para imitar el contrafactual de un grupo tratado:

(a) Crear un grupo de comparación a través de un diseño estadístico, o


(b) Modificar la estrategia de focalización del programa para eliminar las diferencias que podrían han
existido entre los grupos tratados y no tratados antes de comparar los resultados entre los dos grupos.

En (1) se presenta el problema básico de evaluación de impactos que compara los resultados 𝑌 entre
individuos tratados y no tratados 𝑖:

𝑌𝑖 = 𝛼𝑋𝑖 + 𝛽𝑇𝑖 + 𝜀𝑖 (1)

Donde, 𝑇 es una variable dummy que será igual a 1 para aquellos individuos que participan y 0 para aquellos
individuos que no participan. 𝑋 es un conjunto de otras características observadas del individuo y quizás de
su hogar y entorno local. Finalmente, 𝜀 es un término de error que refleja características no observadas que
también afectan a 𝑌.

La ecuación (1) refleja un enfoque comúnmente utilizado en las evaluaciones de impacto, que consiste en
medir el efecto directo del programa 𝑇 sobre los resultados 𝑌. Los efectos indirectos del programa (es decir,
los que no están directamente relacionados con la participación) también pueden ser de interés, como los
cambios en los precios dentro de las áreas del programa.

El problema con la estimación de la ecuación (1) es que la asignación del tratamiento no suele ser aleatoria
debido a los siguientes factores:

(a) Colocación intencional del programa y


(b) Autoselección en el programa.

Es decir, los programas se colocan de acuerdo con la necesidad de las comunidades y los individuos, quienes
a su vez seleccionan el diseño y la ubicación del programa. La autoselección podría basarse en características
observadas, factores no observados o ambos. En el caso de factores no observados, el término de error en
la ecuación de estimación contendrá variables que también están correlacionadas con el tratamiento dummy
𝑇.
Uno no puede medir, y por lo tanto tener en cuenta, estas características no observadas en la ecuación (1),
lo que conduce a un sesgo de selección no observado. Es decir, 𝐶𝑜𝑣(𝑇, 𝜀) ≠ 0 implica la violación de
uno de los supuestos clave de mínimos cuadrados ordinarios para obtener estimaciones insesgadas:
independencia de los regresores del término de perturbación 𝜀. La correlación entre 𝑇 y 𝜀 sesga
naturalmente a las otras estimaciones de la ecuación, incluida la estimación del efecto del programa 𝛽.

Este problema también se puede representar en un marco más conceptual. Supongamos que estamos
evaluando un programa contra la pobreza, como una intervención de crédito, destinado a aumentar los
ingresos del hogar. Sea 𝑌𝑖 el ingreso per cápita para el hogar 𝑖.

(a) Para los participantes 𝑇𝑖 = 1, y el valor de 𝑌𝑖 bajo tratamiento se representa como 𝑌𝑖 (1).
(b) Para los no participantes, 𝑇𝑖 = 0 e 𝑌𝑖 puede ser representado como 𝑌𝑖 (0).

Si 𝑌𝑖 (0) se usa en hogares no participantes como resultado de comparación para los resultados de los
participantes 𝑌𝑖 (1), el efecto promedio del programa podría representarse de la siguiente manera:

𝐷 = 𝔼[𝑌𝑖 (1)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 0] (2)

El problema es que los grupos tratados y no tratados pueden no ser los mismos antes de la intervención,
por lo que la diferencia esperada entre esos grupos puede no deberse completamente a la intervención del
programa. Si, en la ecuación (2), uno suma y resta el resultado esperado para los no participantes si hubieran
ellos participado en el programa 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1], u otra forma de especificar el contrafactual, se obtiene:

𝐷 = (𝔼[𝑌𝑖 (1)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 0]) + (𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1]) (3)

(𝔼[𝑌𝑖 (1)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1]) + (𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 0])
𝐷=⏟
𝐸𝑇𝑃

(𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1] − 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 0])


𝐷 = 𝐸𝑇𝑃 + ⏟ (4)
𝐵

𝐷 = 𝐸𝑇𝑃 + 𝐵 (5)

Donde 𝐸𝑇𝑃 es el Efecto del Tratamiento Promedio, es decir, la ganancia promedio en los resultados de los
participantes en relación con los no participantes, como si los hogares no participantes también fueran
tratados. El 𝐸𝑇𝑃 corresponde a una situación en la que se asigna un hogar elegido al azar de la población
para participar en el programa, por lo que los hogares participantes y no participantes tienen la misma
probabilidad de recibir el tratamiento 𝑇.

El término 𝐵, es el grado de sesgo de selección que surge al usar 𝐷 como una estimación del 𝐸𝑇𝑃. Como
no se conoce 𝔼[𝑌𝑖 (0)|𝑇𝑖 = 1], no se puede calcular la magnitud del sesgo de selección. Como resultado, si
uno no sabe en qué medida el sesgo de selección constituye 𝐷, es posible que nunca se conozca la diferencia
exacta en los resultados entre los grupos tratados y el grupo de control.
Los datos en jtrain2.raw son de un experimento de una capacitación a jóvenes que laboran en 1970. La
variable respuesta son los ingresos reales en 1978, medidos en miles de dólares. Los ingresos reales son cero
para aquellos hombres que no trabajaron durante el año. El entrenamiento inició dos años antes de 1978.
Se empleará las regresiones:

𝑦𝑖 1, 𝑤𝑖 , ̂(𝒙𝑖 ), 𝑖 = 1, 2, … , 𝑁
𝒑

Sin embargo, (Rosenbaum & Rubin, 1983) sugiere una versión más general de la regresión anterior para
estimar el ATE:

𝑦𝑖 1, 𝑤𝑖 , 𝑝̂ 𝑖 , 𝑤𝑖 (𝑝̂𝑖 − 𝜇̂ 𝑝 ) 𝑖 = 1, 2, … , 𝑁

Donde 𝜇̂ 𝑝 es el promedio muestral de 𝑝̂ 𝑖 𝑖 = 1, 2, … , 𝑁. Para estimar el Efecto del Tratamiento Promedio


(ATE: Average Treatment Effect). Los elementos de 𝒙 son los ingresos reales entre 1974 y 1975, edad (en
forma cuadrática), un indicador binario del grado de nivel de estudios, estado civil, y variables binarias para
personas negras e hispánicas. ¿Cuál sería el impacto de entrenar a jóvenes, sobre sus ingresos
salariales?

Primero, eliminamos todos los resultados anteriores que se hayan realizado, así como también los elementos
que hayan quedado en la memoria y los archivos que hayan quedado abiertos posteriormente, de modo que
se restablecen todos los temporizadores a cero.

clear all

Definimos el directorio donde se encuentra la base de datos, que son los archivos de extensión .dta

cd "C:\Users\heinz\Documents\IKONS ATN\Clases\08 - Econometría Aplicada\05


Evaluación de Impactos\Sesión 1\EIPF 14-07-2018 VI PEEA\Datos y códigos"

Definimos la base de datos que se empleará, así como también se libera la memoria para que se puedan
realizar los cálculos

use jtrain2, clear

Partimos haciendo una regresión lineal

reg re78 train

Este modelo presenta un impacto promedio de


1.794 (es decir, el programa de entrenamiento
mejora el ingreso salarial en USD 1.794 al año)
sobre los que fueron entrenados vs los que no
fueron entrenados. Este valor está sesgado
porque no considerar la corrección del sesgo
de selección.
Procedemos a corregir el sesgo de selección, mediante los siguientes pasos:

Paso 1. Modelamos el tratamiento, como es una variable dicotómica la variable dependiente, entonces,
se emplea un modelo de elección discreta, mediante una Probit.

probit train age educ black married nodegree agesq

Los resultados del modelo de elección


discreta se almacenan en la variable
propensity
predict propensity
Observamos la distribución de los
valores de la propensión
hist propensity

FIGURA 3: DISTRIBUCIÓN DE PROBABILIDAD DE LA VARIABLE PROPENSITY


15
10
Density

5
0

.3 .4 .5 .6
Pr(train)

Paso 2. Modelamos el impacto mediante una regresión lineal, pero, considerando el propensity

Luego de la evaluación del impacto se


observa que al corregir el sesgo de
selección el modelo tiene un impacto
promedio de 1.66 (es decir, el programa
de entrenamiento mejora el ingreso
salarial en USD 1.66 al año) sobre los
que fueron entrenados vs los que no
fueron entrenados.

El ejemplo anterior mejoramos eliminando el sesgo:


Paso 1. Modelamos el tratamiento según como se plantea en (Wooldridge, 2010):

probit train re74 re75 agesq nodegree married black hisp

Los resultados del modelo de elección discreta del tratamiento se muestran a continuación:

A Calculamos la propensión de recibir el


tratamiento
predict propensity2
Mediante una regresión se modela el impacto
considerando la propensión calculada
reg re78 train propensity2

Paso 2.
I.5 DOBLE DIFERENCIA

I.6 MODELO DE PANEL DE EFECTOS FIJOS

A la generalización del modelo de dos periodos a múltiples periodos se le conoce como modelo de panel
de efectos fijos. Esta posibilidad es particularmente importante para modelos que no solo controlan la
heterogeneidad invariante no observada en el tiempo, sino también para la heterogeneidad en las
características observadas durante múltiples periodos.

Sesgo: Solución: Rezagar y restar

Restamos (I) y (II):

𝑦𝑖𝑡 − 𝑦𝑖𝑡−1 = 𝜙(𝑇𝑖𝑡 − 𝑇𝑖𝑡−1 ) + 𝛿(𝑥𝑖𝑡 − 𝑥𝑖𝑡−1 ) + (𝜀𝑖𝑡 − 𝜀𝑖𝑡−1 )

En función de cambios o variaciones se tiene:

∆𝑦𝑖𝑡 = 𝜙∆𝑇𝑖𝑡 + 𝛿∆𝑥𝑖𝑡 + ∆𝜀𝑖𝑡

Modelo final:
Buscando otra solución para la Endogeneidad (es producto de una heterogeneidad)

I.7 VARIABLES INSTRUMENTALES

Solución: Buscar variables instrumentales

Propiedades:

1. 𝐶𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜́ 𝑛(𝑧, 𝜀) = 0, 𝑧 es exógena (Propiedad de exogeneidad).

2. 𝐶𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜́ 𝑛(𝑧, ℎ𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑) ≠ 0 (Propiedad de relevancia)

También podría gustarte