Está en la página 1de 3

Los diseños de DR donde el tratamiento asignado y el tratamiento recibido coinciden

para todas las unidades son referido como agudo. Los diseños Sharp RD se pueden
utilizar en entornos donde el cumplimiento del tratamiento es perfecto (cada unidad
asignada al tratamiento recibe el tratamiento y ninguna unidad asignada para controlar
recibe el tratamiento), o en los casos en que el cumplimiento del tratamiento sea
imperfecto (algunas unidades asignadas al tratamiento permanecen sin tratar y / o
viceversa) pero el investigador solo está interesado en el efecto de intención de tratar
de ofrecer tratamiento. Para formalizar, suponga que n unidades, indexadas por i = 1,
2, · · ·, n, tiene una variable de puntuación X i . La regla de asignación de tratamiento
DR es D i=1( X i ≥ c ) con Di denota la asignación de tratamiento observada, c denota
el límite de RD y 1 (·) denota la función indicadora. Cada unidad está dotada de dos
resultados potenciales Y i (0) y Y i (1), donde Y i (1) es el resultado bajo el tratamiento
(es decir, cuando D i=1 ) y Y i (0) es el resultado bajo control (es decir, cuando D i=0).
La probabilidad de asignación de tratamiento cambia abruptamente en el punto de
corte de cero a uno: P [ D i=1 | X i = x] = 0 si x <cy P [ D i=1 | X i = x] = 1 si x ≥ c; esta
es la clave rasgo distintivo del diseño RD.

Los datos observados son (Y i , D i, X i ), yo = 1, 2,. . . , n, donde Y i = D i Y i (1) + (1 - D i)


Y i (0) captura el problema fundamental de la inferencia causal: Yi = Yi (0) para
unidades con Di = 0 (unidades de control, con X i <c) y Y i = Y i (1) para unidades con
Di=1 (unidades tratadas, con X i ≥ c), es decir, solo una se observa el resultado
potencial para cada unidad. Fundamentalmente, las unidades de los grupos de control
y tratamiento no serán comparable en general, ya que la variable de puntuación X i a
menudo captura importantes (observables y no observables) entre ellos, y la regla de
asignación de tratamiento de DR induce una falta fundamental de apoyo común en la
partitura.

Hahn, Todd y van der Klaauw (2001) introdujeron el marco de continuidad para las

(a) Diseño de RD basado en la continuidad (b) Diseño de RD de aleatorización


local

Figura 1: Representación esquemática de diseños de RD.


Diseños RD. En este marco, los resultados potenciales se toman como variables
aleatorias, con n unidades de análisis que forman una muestra (aleatoria) de una
población subyacente, y la puntuación X i es se supone que se distribuye
continuamente. Centrándose en los efectos promedio del tratamiento, la clave de
identificación el supuesto es que las funciones de regresión E [ Y i (0) | X i = x] y E [Y i
(1) | X i = x] son continuas en x en c. Esta suposición captura la idea de que las
unidades están apenas "por debajo" y "por encima" del límite c exhibiría la misma
respuesta promedio si su estado de tratamiento no cambiara. Entonces por
implicación, cualquier diferencia entre la respuesta promedio de las unidades tratadas
y de control en el punto de corte puede atribuirse al efecto causal promedio del
tratamiento en el punto de corte, es decir, para las unidades con variable de
puntuación X i = c.

Formalmente, dentro del marco basado en la continuidad, el efecto canónico del


tratamiento de ER es

T SRD = E [Y i (1) - Y i (0) | X = c] = lim E [Y i | X i = x] – lim E [Y i | X i = x], (1)

que se representa gráficamente en la Figura (1a). La primera igualdad en (1) es la


definición del parámetro clásico de Sharp RD, mientras que la segunda igualdad es el
resultado de identificación clave basado en la continuidad porque vincula
características de la distribución de resultados potenciales con características de la
distribución de los resultados observados, a través de un argumento de continuidad. El
resultado afirma que el tratamiento agudo de RD El efecto es identificable como la
distancia vertical en el límite entre las dos expectativas condicionales, limx ↑ c E [Y i |
X i = x] y limx ↓ c E [ Y i | X i = x], que se puede estimar a partir de los datos (Sección
3.2).

La idea de identificación basada en la continuidad para los efectos del tratamiento de


DR agudos promedio se ha extendido en varias direcciones. Por ejemplo, Frandsen,
Frolich y Melly (2012) estudian el cuantil efectos del tratamiento, Xu (2017) investiga
los efectos del tratamiento utilizando modelos no lineales generalizados para variables
de resultado dependientes limitadas, y Hsu y Shen (2019) se centran en los efectos
del tratamiento condicionado a las covariables previas a la intervención. Todas las
extensiones y generalizaciones conservan las dos características básicas de RD
nítidas: (i) la asignación de tratamiento es binaria y se aplica a todas las unidades en
una muestra aleatoria transversal, y (ii) hay una discontinuidad máxima en la
asignación de tratamiento de la regla en el punto de corte, es decir, limx ↓ c E [ D i| X i =
x] = 1 6 = 0 = limx ↑ c E [ D i| X i = x]. (Recordar que E [ D i | X i = x] = P [ D i = 1 | X i = x]).
Además, se supone que la variable de puntuación es continúa distribuido (Sección
3.5).

Como complemento del marco de continuidad, Cattaneo, Frandsen y Titiunik (2015)


introdujeron el marco de aleatorización local para diseños canónicos de ER, que se
desarrolló más en Cattaneo, Titiunik y Vazquez-Bare (2017). Este marco se basa en la
idea de que "cerca" del corte el diseño de RD se puede interpretar como un
experimento aleatorio o, más precisamente, como un natural experimento (Titiunik,
2021). La idea heurística de la aleatorización local cerca del punto de corte se puede
rastrear volviendo al artículo original de Thistlethwaite y Campbell (1960), y más
recientemente se defendió por Lee (2008) y Lee y Lemieux (2010). El marco de
aleatorización local puede formalizarse de diversas formas, basándose en la literatura
sobre el análisis de experimentos para la inferencia causal y la evaluación de
programas (Rosenbaum, 2010; Imbens y Rubin, 2015; Abadie y Cattaneo, 2018). La
formulación original de Cattaneo, Frandsen y Titiunik (2015) adoptó un diseño
pesquero enfoque donde los resultados potenciales no son aleatorios y la población es
finita, lo que implica que la única fuente de aleatoriedad proviene del mecanismo de
asignación de tratamiento cerca del punto de corte. Cattaneo, Titiunik y Vazquez-Bare
(2017) expandieron el marco de aleatorización local para también incluir tanto el
enfoque basado en el diseño de Neyman, donde los resultados potenciales no son
aleatorios pero muestreado a partir de una población infinita subyacente, y el llamado
enfoque de superpoblación, donde los resultados potenciales son variables aleatorias
y también se considera su incertidumbre de muestreo. En los tres enfoques, la variable
de puntuación puede ser discreta o distribuida continuamente (Sección 3.5).

También podría gustarte