Está en la página 1de 43

Diseños de discontinuidad de regresión

Matias D. Cattaneo Rocıo Titiunik

24 de agosto de 2021

Abstracto
El diseño de regresión discontinua (RD) es uno de los métodos no experimentales más
utilizados para la inferencia causal y la evaluación de programas. Durante las últimas dos
décadas, estadísticas y los métodos econométricos para el análisis de RD se han expandido y
madurado, y ahora hay un gran número de resultados metodológicos para la identificación,
estimación, inferencia y validación de DR. Ofrecemos una revisión comisariada de esta
literatura metodológica organizada en torno a los dos marcos populares para el análisis e
interpretación de diseños de RD: el marco de continuidad y el marco de aleatorización local.
Para cada marco, discutimos tres áreas principales: (i) diseños y parámetros, que se centra en
diferentes tipos de entornos de RD y los efectos del tratamiento de interesar; (ii) estimación e
inferencia, que presenta los métodos más populares basados en regresión polinomial y análisis
de experimentos, así como refinamientos, extensiones y otros métodos; y (iii) validación y
falsificación, que resume una serie de enfoques para apoyar la validez de los diseños de RD en
la práctica.

Palabras clave: discontinuidad de regresión, inferencia causal, evaluación del programa,


efectos del tratamiento, métodos no experimentales.
Contenido

1 Introducción 1

2 Diseños y parámetros 2

2.1 Diseños afiliados……………………………………………………………………………………………………… 4

2.2 Diseños difusos…………………………………………………………………………………………………………8

2.3 Diseños multidimensionales…………………………………………………………………………………….10

2.4 Extrapolación…………………………………………………………………………………………………………...12

2.5 Otros diseños similares a RD…………………………………………………………………………………….14

3 Estimación e inferencia 15

3.1 Visualización del diseño de RD…………………………………………………………………………………15

3.2 Métodos polinomiales locales…………………………………………………………………………….…….17

3.3 Métodos de aleatorización local……………………………………………………………………………….23

3.4 Refinamientos, extensiones y otros métodos……………………………………………………………26

3.5 Variable de puntuación discreta……………………………………………………………………………….29

3.6 Cálculos de potencia para diseño experimental………………………………………………………..31

4 Validación y Falsificación 31

4.1 Covariables previas a la intervención y resultados del placebo…………………………………32

4.2 Continuidad de densidad y pruebas binomiales………………………………………………………..33

4.3 Puntos de corte de placebo y continuidad de las funciones de regresión………………….34

4.4 Agujero de rosquilla y sensibilidad del ancho de banda…………………………………………….34

5. Conclusión 35
1. Introducción

El diseño de regresión discontinua (RD) fue introducido por Thistlethwaite y Campbell (1960)
como un "método para probar hipótesis causales" (p. 317) en entornos donde la asignación
aleatoria del tratamiento no está disponible. El diseño es aplicable en situaciones en las que las
unidades reciben una puntuación y una el tratamiento se asigna sobre la base de una regla
específica que vincula la puntuación con un límite conocido: las unidades cuya puntuación está
por encima del límite se asignan a la condición de tratamiento, mientras que todas las
puntuaciones están por debajo del límite se asignan a la condición de control. Bajo supuestos
apropiados, el cambio discontinuo en la probabilidad de recibir tratamiento en el punto de corte
se puede utilizar para aprender sobre los efectos causales del tratamiento sobre un resultado
de interés.

Aunque se pasó por alto al principio, el diseño de RD se ha convertido en uno de los métodos
no experimentales más creíbles. métodos de inferencia causal y evaluación de programas.
Ofrecemos una revisión comisariada de la literatura metodológica sobre el análisis y la
interpretación de diseños de DR, proporcionando una actualización sobre anteriores artículos
de revisión en economía (van der Klaauw, 2008; Cook, 2008; Imbens y Lemieux, 2008; Lee y
Lemieux, 2010). Nuestra discusión pretende ser integral en términos de aspectos conceptuales
y metodológicos, pero omite detalles técnicos, que están disponibles en las referencias
específicas que damos. Para cada tema. También discutimos ideas generales sobre la
implementación, pero para un compañero en profundidad guías metodológicas para la práctica
ver Cattaneo, Idrobo y Titiunik (2020, 2021).

Organizamos nuestra revisión en tres partes principales. La sección 2 presenta los tipos de
diseños de RD más que se encuentran comúnmente en la práctica, y también se analizan
brevemente otros diseños de investigación similares a los de ER. Esta sección se centra en la
identificabilidad (Matzkin, 2013) de los principales efectos del tratamiento de interés en cada
configuración y, por lo tanto, se basa en restricciones básicas sobre el proceso de generación
de datos subyacente: el modelo estadístico asumido para generar los datos. Utilizando la
taxonomía propuesta por Cattaneo, Titiunik y Vazquez-Bare (2017), consideramos dos marcos
conceptuales distintos para los diseños de RD: el marco de continuidad, que se basa en
argumentos limitantes a través de ideas de regresión local, y el marco de aleatorización local,
que se basa en ideas del análisis de experimentos. Usando ambas estructuras,
proporcionamos una descripción general de la configuración de RD canónica (nítida y difusa),
multidimensionales diseños de RD (corte múltiple, multi-puntuación, geográficos, múltiples
tratamientos y diseños que varían en el tiempo), y otros diseños relacionados, como los
diseños de retorcimiento, agrupamiento, antes y después y regresión de umbral. También
discutimos cuestiones de validez interna versus externa en el contexto de los diseños de RD, y
una descripción general de métodos de extrapolación de los efectos del tratamiento con RD.

En la segunda parte, Sección 3, nos enfocamos en los métodos de estimación e inferencia para
diseños de RD, presentando los dos enfoques más comunes: métodos de regresión polinomial
local (Fan y Gijbels,1996), que están naturalmente motivados por el marco de continuidad y el
análisis de experimentos métodos (Rosenbaum, 2010; Imbens y Rubin, 2015; Abadie y
Cattaneo, 2018), que son naturalmente motivado por el marco de aleatorización local. Para
completar, también resumimos refinamientos, extensiones y otros métodos que se han
propuesto en la literatura a lo largo de los años. Sobre la base de los dos métodos canónicos
de estimación e inferencia para los diseños de RD, presentamos una descripción general de la
aplicabilidad de esos métodos cuando la puntuación tiene un apoyo discreto, ya sea con pocos
o muchos distintos valores. Para cerrar la Sección 3, discutimos los cálculos de potencia para
el diseño experimental en entornos de RD, un tema que ha recibido una renovada atención
entre los profesionales.

En la tercera y última parte, Sección 4, nos centramos en los métodos de validación y


falsificación de RD diseños. Estos métodos empíricos se utilizan para proporcionar evidencia
indirecta a favor de los supuestos comúnmente invocados para la identificación, estimación e
inferencia de RD. Nuestra discusión incluye métodos genéricos de evaluación de programas,
como pruebas basadas en covariables previas a la intervención y resultados de placebo, así
como métodos específicos de RD, como pruebas binomiales y de continuidad de densidad,
análisis de corte de placebo, estrategias para el período sin cobertura y sensibilidad de ancho
de banda.

Concluimos en la Sección 5. Software de propósito general en Python, R y Stata para el


análisis de diseños de RD, archivos de replicación para ilustraciones empíricas de RD, lecturas
adicionales y otros recursos están disponibles en https://rdpackages.github.io/.

2 Diseños y Parámetros
El diseño de RD se define por tres componentes clave: una puntuación, un punto de corte y un
tratamiento discontinuo - regla de asignación: se relacionan entre sí de la siguiente manera: a
todas las unidades del estudio se les asigna un valor de la puntuación (también llamada
variable corriente o índice), y el tratamiento se asigna a las unidades cuyo valor de puntuación
excede un límite conocido (también llamado umbral), mientras que no se asigna a aquellas
unidades cuyo valor de la puntuación está por debajo del límite. La característica distintiva del
diseño de RD es que la probabilidad de la asignación de tratamiento cambia de cero a uno en
el punto de corte, y este cambio abrupto en la probabilidad de ser asignado al tratamiento
induce un cambio abrupto (posiblemente más pequeño) en la probabilidad de recibir
tratamiento en el punto de corte. Bajo supuestos formales que garantizan la "comparabilidad"
de las unidades de tratamiento y control en o cerca del punto de corte, el cambio discontinuo en
la probabilidad de recibir tratamiento se puede utilizar para conocer los efectos causales del
tratamiento en los resultados de interés por las unidades con puntajes en o cerca del límite,
porque las unidades con puntajes apenas por debajo del límite se puede usar como grupo de
comparación (o control) para unidades con puntajes apenas por encima. La amenaza más
importante para cualquier diseño de RD es la posibilidad de que las unidades sean capaces de
realizar de manera estratégica y precisa cambiar su puntaje para ser asignado a su condición
de tratamiento preferida (Lee, 2008; McCrary, 2008), que podrían inducir un cambio discontinuo
en sus características observables y/o no observables en el punto de corte o cerca de él y, por
lo tanto, se confunden las conclusiones causales.

Ludwig y Miller (2007) ofrecen una aplicación empírica prototípica de la metodología de ER


temprana con un estudio del efecto de la expansión del programa de servicios sociales Head
Start sobre la mortalidad infantil. En 1965, todos los condados de EE. UU. Cuya pobreza
estaba por encima de la tasa de pobreza del 300 ° condado más pobre recibió ayuda para la
redacción de subvenciones para solicitar fondos de Head Start, mientras que los condados por
debajo de esta pobreza nivel no lo hizo. El aumento de la asistencia dio lugar a un aumento de
la financiación de los servicios sociales de Head Start. Los autores utilizaron un diseño de RD
para comparar condados apenas por encima y apenas por debajo del límite estimar el efecto
del aumento de la asistencia y la financiación sobre la mortalidad infantil por causas que podría
verse afectado por el paquete de servicios de Head Start. En este diseño, la unidad de análisis
es el condado, la puntuación es la tasa de pobreza del condado en 1960, y el límite es la tasa
de pobreza del 300 ° condado más pobre (que era 59.1984). Cattaneo, Titiunik y Vazquez-Bare
(2017) vuelven a analizar esta aplicación utilizando los métodos modernos discutidos en las
Secciones 3 y 4. Ver Busse, Silva-Risso y Zettelmeyer (2006) para otra aplicación temprana del
diseño de RD en la organización industrial.

A diferencia de otros métodos no experimentales, la metodología de RD solo es aplicable en


situaciones en las que el tratamiento se asigna en función de si una puntuación excede un
límite (o cuando alguna generalización de se emplea la regla RD, como discutimos a
continuación). Estas características específicas del diseño hacen que las estrategias de RD se
destaquen entre los métodos de observación: para estudiar los efectos causales del tratamiento
de DR, la puntuación, el punto de corte y la regla de asignación de tratamiento debe existir y
estar bien definida, con una probabilidad discontinua de asignación de tratamiento en el punto
de corte. Es importante destacar que la regla de asignación de tratamiento es conocida y
verificables, y no solo postulados o hipotetizados por el investigador. Estos empíricamente
verificables características dan al diseño de RD una base objetiva para la implementación y
validación que es por lo general, carece de otras estrategias no experimentales y, por lo tanto,
le otorga una credibilidad superior entre los métodos no experimentales. En particular, la regla
de asignación de tratamiento RD es la base para una colección de pruebas de validación y
falsificación (Sección 4) que pueden ofrecer apoyo empírico para los supuestos de RD y
aumentar la credibilidad de las aplicaciones de RD. Además, las mejores prácticas para la
estimación y la inferencia en los diseños de RD (Sección 3) también explotan estas
características específicas del diseño.

El resto de esta sección presenta diseños de DR canónicos y extendidos, centrándose en la


identificación de supuestos para los parámetros de interés del efecto del tratamiento
empleando los resultados potenciales marco (Imbens y Rubin, 2015).

2.1 Diseños afilados


Los diseños de DR donde el tratamiento asignado y el tratamiento recibido coinciden para
todas las unidades son referido como agudo. Los diseños Sharp RD se pueden utilizar en
entornos donde el cumplimiento del tratamiento es perfecto (cada unidad asignada al
tratamiento recibe el tratamiento y ninguna unidad asignada para controlar recibe el
tratamiento), o en los casos en que el cumplimiento del tratamiento sea imperfecto (algunas
unidades asignadas al tratamiento permanecen sin tratar y / o viceversa) pero el investigador
solo está interesado en el efecto de intención de tratar de ofrecer tratamiento. Para formalizar,
suponga que n unidades, indexadas por i = 1, 2, · · ·, n, tiene una variable de puntuación X i . La
regla de asignación de tratamiento DR es D i=1( X i ≥ c ) con D i denota la asignación de
tratamiento observada, c denota el límite de RD y 1 (·) denota la función indicadora. Cada
unidad está dotada de dos resultados potenciales Y i (0) y Y i (1), donde Y i (1) es el resultado
bajo el tratamiento (es decir, cuando D i=1 ) y Y i (0) es el resultado bajo control (es decir,
cuando D i=0). La probabilidad de asignación de tratamiento cambia abruptamente en el punto
de corte de cero a uno: P [ Di =1 | X i = x] = 0 si x <cy P [ D i=1 | X i = x] = 1 si x ≥ c; esta es la
clave rasgo distintivo del diseño RD.

Los datos observados son (Y i , D i , X i ), yo = 1, 2,. . . , n, donde Y i = Di Y i (1) + (1 - D i ) Y i (0)


captura el problema fundamental de la inferencia causal: Yi = Yi (0) para unidades con Di = 0
(unidades de control, con X i <c) y Y i = Y i (1) para unidades con D i=1 (unidades tratadas, con
X i ≥ c), es decir, solo una se observa el resultado potencial para cada unidad.
Fundamentalmente, las unidades de los grupos de control y tratamiento no serán comparable
en general, ya que la variable de puntuación X i a menudo captura importantes (observables y
no observables) entre ellos, y la regla de asignación de tratamiento de DR induce una falta
fundamental de apoyo común en la partitura.

Hahn, Todd y van der Klaauw (2001) introdujeron el marco de continuidad para las

(a) Diseño de RD basado en la continuidad (b) Diseño de RD de aleatorización local

Figura 1: Representación esquemática de diseños de RD.

Diseños RD. En este marco, los resultados potenciales se toman como variables aleatorias,
con n unidades de análisis que forman una muestra (aleatoria) de una población subyacente, y
la puntuación X i es se supone que se distribuye continuamente. Centrándose en los efectos
promedio del tratamiento, la clave de identificación el supuesto es que las funciones de
regresión E [Y i (0) | X i = x] y E [Y i (1) | X i = x] son continuas en x en c. Esta suposición captura
la idea de que las unidades están apenas "por debajo" y "por encima" del límite c exhibiría la
misma respuesta promedio si su estado de tratamiento no cambiara. Entonces por implicación,
cualquier diferencia entre la respuesta promedio de las unidades tratadas y de control en el
punto de corte puede atribuirse al efecto causal promedio del tratamiento en el punto de corte,
es decir, para las unidades con variable de puntuación X i = c.

Formalmente, dentro del marco basado en la continuidad, el efecto canónico del tratamiento de
ER es

T SRD = E [Y i (1) - Y i (0) | X = c] = lim E [Y i | X i = x] – lim E [Y i | X i = x], (1)

que se representa gráficamente en la Figura (1a). La primera igualdad en (1) es la definición del
parámetro clásico de Sharp RD, mientras que la segunda igualdad es el resultado de
identificación clave basado en la continuidad porque vincula características de la distribución de
resultados potenciales con características de la distribución de los resultados observados, a
través de un argumento de continuidad. El resultado afirma que el tratamiento agudo de RD El
efecto es identificable como la distancia vertical en el límite entre las dos expectativas
condicionales, limx ↑ c E [Y i | X i = x] y limx ↓ c E [ Y i | X i = x], que se puede estimar a partir de
los datos (Sección 3.2).

La idea de identificación basada en la continuidad para los efectos del tratamiento de DR


agudos promedio se ha extendido en varias direcciones. Por ejemplo, Frandsen, Frolich y Melly
(2012) estudian el cuantil efectos del tratamiento, Xu (2017) investiga los efectos del
tratamiento utilizando modelos no lineales generalizados para variables de resultado
dependientes limitadas, y Hsu y Shen (2019) se centran en los efectos del tratamiento
condicionado a las covariables previas a la intervención. Todas las extensiones y
generalizaciones conservan las dos características básicas de RD nítidas: (i) la asignación de
tratamiento es binaria y se aplica a todas las unidades en una muestra aleatoria transversal, y
(ii) hay una discontinuidad máxima en la asignación de tratamiento de la regla en el punto de
corte, es decir, limx ↓ c E [ D i| X i = x] = 1 6 = 0 = limx ↑ c E [ D i| X i = x]. (Recordar que E [ D i| X i
= x] = P [ D i = 1 | X i = x]). Además, se supone que la variable de puntuación es continúa
distribuido (Sección 3.5).

Como complemento del marco de continuidad, Cattaneo, Frandsen y Titiunik (2015)


introdujeron el marco de aleatorización local para diseños canónicos de ER, que se desarrolló
más en Cattaneo, Titiunik y Vazquez-Bare (2017). Este marco se basa en la idea de que
"cerca" del corte el diseño de RD se puede interpretar como un experimento aleatorio o, más
precisamente, como un natural experimento (Titiunik, 2021). La idea heurística de la
aleatorización local cerca del punto de corte se puede rastrear volviendo al artículo original de
Thistlethwaite y Campbell (1960), y más recientemente se defendió por Lee (2008) y Lee y
Lemieux (2010). El marco de aleatorización local puede formalizarse de diversas formas,
basándose en la literatura sobre el análisis de experimentos para la inferencia causal y la
evaluación de programas (Rosenbaum, 2010; Imbens y Rubin, 2015; Abadie y Cattaneo, 2018).
La formulación original de Cattaneo, Frandsen y Titiunik (2015) adoptó un diseño pesquero
enfoque donde los resultados potenciales no son aleatorios y la población es finita, lo que
implica que la única fuente de aleatoriedad proviene del mecanismo de asignación de
tratamiento cerca del punto de corte. Cattaneo, Titiunik y Vazquez-Bare (2017) expandieron el
marco de aleatorización local para también incluir tanto el enfoque basado en el diseño de
Neyman, donde los resultados potenciales no son aleatorios pero muestreado a partir de una
población infinita subyacente, y el llamado enfoque de superpoblación, donde los resultados
potenciales son variables aleatorias y también se considera su incertidumbre de muestreo. En
los tres enfoques, la variable de puntuación puede ser discreta o distribuida continuamente
(Sección 3.5).

El diseño de RD de aleatorización local se ilustra en la Figura (1b). La suposición clave en el


marco de aleatorización local es que existe un vecindario W alrededor del límite tal que, para
todas las unidades con Xi ∈ W, (i) el mecanismo de asignación de tratamiento es conocido e
independiente de resultados potenciales, y (ii) los resultados potenciales son independientes de
la puntuación. La primera condición formaliza la idea de una asignación aleatoria como si cerca
del límite, mientras que la segunda condición apunta a manejar los problemas relacionados con
la falta de soporte común a través de una restricción de exclusión. Sekhon y Titiunik (2016,
2017) ofrecen más discusiones conceptuales sobre el marco de aleatorización local para la ER
diseños.

Bajo las condiciones de aleatorización local en el párrafo anterior, la inferencia de


aleatorización de Fisher es válida para probar la hipótesis nula clara de ningún efecto del
tratamiento para unidades con puntuación X i ∈ W, así como para construir intervalos de
confianza y estimadores puntuales bajo supuestos. Además, se pueden construir estimadores
insesgados y / o consistentes de los efectos del tratamiento en el vecindario W, dependiendo
de si se trata de una población pesquera, de Neyman o de una superpoblación se adopta el
enfoque. Por ejemplo, para las unidades NW con X i ∈ W, el efecto promedio del tratamiento
RD en el vecindario de aleatorización local se puede definir como

1
N w i ,∑
T SRD = E [ Y i ( 1 ) −Y i(0)| X i ∈ W ]
X , ϵW

Esta notación permite resultados potenciales tanto aleatorios como no aleatorios, así como
también o innumerables poblaciones subyacentes, que se adaptan a los pescadores, Neyman y
entornos de superpoblación. El estimado T SLR es identificable y puede estimarse como una
diferencia de medias entre unidades de control y tratamiento con puntuaciones X i ∈ W, o
mediante ajustes de regresión local. Mira la sección 3.3 para más detalles.

Los investigadores a veces incorporan covariables adicionales (previas a la intervención) para


"restaurar" o "mejorar" la identificación no paramétrica de parámetros de RD nítidos como T SRD
o T SRD , según sobre el marco conceptual considerado. Sin embargo, al igual que en los
experimentos aleatorios estándar, no es posible restaurar la identificación no paramétrica de los
parámetros canónicos de interés mediante el ajuste de covariables sin suposiciones sólidas
adicionales. Por otro lado, el ajuste de covariables se puede utilizar para mejorar la precisión en
la estimación y la inferencia (Sección 3). Similar las consideraciones se aplican a los otros
diseños de RD que se analizan a continuación. Ver Calonico, Cattaneo, Farrell y Titiunik (2019)
para una discusión detallada, incluyendo cómo introducir covariables sin cambiar los
parámetros RD, y Cattaneo, Keele y Titiunik (2021) para una descripción general sobre
covariables ajustadas Métodos de RD.

2.2 Diseños difusos


Los diseños de DR difusos surgen en entornos donde la asignación del tratamiento y el estado
del tratamiento no coinciden para al menos algunas unidades, es decir, entornos donde
algunas unidades asignadas al tratamiento no reciben el tratamiento y / o algunas unidades
asignadas a la condición de control reciben el tratamiento de todos modos. Para formalizar esta
configuración de cumplimiento imperfecta, ampliamos el modelo estadístico para diseños de
RD nítidos e introducir dos tratamientos potenciales binarios para cada unidad, D i (0) y D i (1),
donde D i (1) es el tratamiento real recibido cuando se asigna al tratamiento (es decir, cuando
X i ≥ c) y Di (0) es el tratamiento recibido cuando se asigna al control (es decir, cuando X i <c).
El tratamiento observado para cada la unidad se redefine luego a D i = D i (0) 1 ( X i <c) + D i (1)
1 ( X i ≥ c). Cumplimiento perfecto del tratamiento asignación significa P [ D i (0) = 0 | X i = x] = 1
para x <c (es decir, todas las unidades con puntaje por debajo del límite fallan para recibir el
tratamiento) y P [ D i (1) = 1 | X i = x] = 1 para x ≥ c (es decir, todas las unidades con puntuación
por debajo el corte reciben el tratamiento), en cuyo caso la regla de asignación de tratamiento
se reduce a la Regla RD, D i = 1 ( X i ≥ c).

Como se mencionó anteriormente, si el objetivo es conocer el efecto de asignar el tratamiento


en lugar de que recibirlo, los investigadores pueden simplemente establecer D i = 1 ( X i ≥ c) y
seguir un análisis de Sharp RD del efecto de la asignación de tratamiento (es decir, comparar
unidades por debajo y por encima del límite), independientemente de su tratamiento real
recibido. Sin embargo, en muchos casos los investigadores también están interesados en
efecto de recibir realmente el tratamiento sobre el resultado de interés. En general, la
identificación de tales efectos de tratamiento en entornos con cumplimiento imperfecto no se
puede lograr con supuestos de continuidad o aleatorización local por sí solos y, por lo tanto,
supuestos de identificación adicionales se necesitan. Por lo tanto, aprender sobre los efectos
del tratamiento causal interpretable en los diseños de Fuzzy RD es más difícil que en los
diseños de Sharp RD.

Dentro del marco basado en la continuidad, el estimado genérico Fuzzy RD es

lim ¿x ↑ c E [ Y i| X i=x ]
T FRD =lim ¿ x ↓c E [ Y i| X i=x ]− ¿¿
lim ¿ x ↓ c E [ D i| X i=x ]−lim ¿ x↑ c E [ D i| X i=x ] ¿ ¿

La interpretación causal de T FRD depende de los supuestos adicionales invocados y de la forma


en que se define el cumplimiento del tratamiento. Hahn, Todd y van der Klaauw (2001)
mostraron que, si los resultados potenciales y el tratamiento recibido son independientes
condicionados a la puntuación estando cerca del límite, entonces T FRD = E [Y i (1) – Y i (0) | X =
c], eliminando el problema de imperfecto cumplimiento e identificación del mismo parámetro
que en un diseño de Sharp RD. Sin embargo, este local la suposición de independencia
condicional es fuerte y, por lo tanto, no se usa comúnmente para interpretar el Fuzzy RD
estimada en un enfoque basado en la continuidad.
Varios autores han obtenido resultados de identificación para interpretar T FRD en función de las
condiciones de continuidad. En todos los casos, los resultados buscan caracterizar el
parámetro T FRD como una estimación causal para algunos subpoblación de "cumplidores" en el
punto de corte, definidos heurísticamente como unidades que realmente reciben la tratamiento
cuando se asignan a la condición de tratamiento y permanecen sin tratamiento cuando son
asignado a la condición de control. Por ejemplo, Dong (2018a) define tipos de cumplimiento de
unidades para un valor arbitrario dado de su puntuación e impone una condición de
monotonicidad en un vecindario del corte para lograr la identificación, mientras que Arai, Hsu,
Kitagawa, Mourifi´e y Wan (2021) definen los tipos de cumplimiento de las unidades en un
vecindario cercano al límite, suponga que el tipo de cada unidad es constante para todos los
valores de x en esta vecindad e imponer una condición de monotonicidad en el punto de corte.
A Bertanha e Imbens (2020) utilizan una definición algo más restrictiva de tipos de unidades
supongamos que, dado el valor del corte
c ,la decisión de tomar el tratamiento es solouna función de la puntuación a través del indicador 1
(Xi ≥ c), lo que implica que el tipo de cumplimiento de una unidad es constante para todos los
valores de la puntuación con la misma asignación de trato. Otros enfoques relacionados se
discuten en Imbens y Lemieux (2008), Frandsen, Frolich y Melly (2012), Cattaneo, Keele,
Titiunik y Vazquez-Bare (2016) y Choi y Lee (2018).

Independientemente de los supuestos particulares adoptados para lograr una interpretación


causal para T FRD , todos Los métodos llegan al mismo resultado de identificación cualitativa:
bajo la continuidad de las funciones, y alguna forma de monotonicidad y restricciones de
exclusión, el estimado RD difuso T FRD se puede interpretar como el efecto del tratamiento
promedio en el punto de corte para los cumplidores, donde en la definición de cumplidor varía
según el enfoque.

En el marco de aleatorización local, la interpretabilidad causal de los efectos del tratamiento


Fuzzy RD es mejor entendido pero específico para el enfoque empleado (Fisherian, Neyman o
superpoblación).

El estimado genérico Fuzzy RD se puede escribir como

1 1
NW ∑ I ; X , ∈W , X ≥ { Yi|Xi ∈W , Xi ≥ c }−
NW ∑
i ; Xi ∈ W , X ,< c E {Yi| Xi ∈W , Xi<c }
τ FLR =
1 1
NW
∑ I ; X , ∈W , X ≥ { Yi|Xi ∈W , Xi ≥ c }−
NW
∑ i ; Xi ∈ W , X ,< c E {Yi|Xi ∈W , Xi<c }
donde NW denota el número de unidades de control dentro de la ventana W, y NW += NW - NW -.

Independientemente del marco de aleatorización local específico, las ideas estándar de la


literatura sobre el análisis de experimentos se pueden utilizar para adjuntar una interpretación
causal al estimado T FLR , para ejemplo, como un efecto de tratamiento promedio para los que
cumplen con las puntuaciones dentro de la aleatorización local barrio W.

2.3 Diseños multidimensionales


En los diseños de RD canónicos discutidos hasta ahora, tanto la puntuación como el punto de
corte son unidimensionales, y el tratamiento es binario. Consideremos ahora las
generalizaciones de estas condiciones, que genéricamente etiquetar diseños RD
multidimensionales. Estos diseños de RD generalizados requieren modificaciones específicas
para interpretación y análisis. Conceptualmente, sin embargo, el núcleo del diseño sigue siendo
el mismo: un cambio discontinuo en la probabilidad de recibir tratamiento es la base para
comparar unidades asignados al tratamiento y control cerca de la región donde ocurre tal
cambio, bajo supuestos que garantizan la comparabilidad de esas unidades. La mayoría de los
diseños discutidos en esta subsección admitimos versiones nítidas y difusas, aunque evitamos
distinguir cada caso por limitaciones de espacio.

Papay, Willett y Murnane (2011) introdujeron el diseño de RD de puntaje múltiple; ver también
Reardon y Robinson (2012) y Wong, Steiner y Cook (2013). En su versión más general, el
diseño de RD de MultiScore incluye dos o más puntuaciones asignando unidades a un rango
de tratamiento diferente condiciones, pero una configuración más común es aquella en la que
la puntuación es multidimensional pero el tratamiento sigue siendo binario. Por ejemplo, es
posible que los estudiantes deban realizar un examen de idioma y un examen de matemáticas,
y obtener una calificación lo suficientemente alta en ambos exámenes para ser admitido en una
escuela. En tal bidimensional ejemplo, la puntuación es el vector X i = ( X 1 i , X 2 i ), el corte es el
vector c = (c1, c2), y la regla de asignación de tratamiento es Di = 1 ( X 1 i ≥ c1) 1 ( X 2 i ≥ c2). Esta
regla muestra que hay maneras potencialmente infinitas para que una unidad sea apenas
tratada o apenas controlada, es decir, hay infinitas muchos puntos en los que la asignación de
tratamiento salta de forma discontinua de cero a uno, lo que lleva a la definición de una curva
de efecto de tratamiento. Esta idea se generaliza a dimensiones superiores.

Un caso particular importante del diseño de RD Multi-Score es el diseño de RD Geográfico,


donde el tratamiento se asigna a unidades que residen en un área geográfica particular (el área
tratada), y no asignado a unidades que están en un área adyacente (el área de control). La
puntuación RD es bidimensional para reflejar la posición de cada unidad en el espacio,
generalmente latitud y longitud. El geográfico límite que separa las áreas tratadas y de control
forma así una colección infinita de puntos en el que la asignación de tratamiento salta de forma
discontinua de cero a uno. Ver Black (1999) para un uso pionero de un diseño de investigación
de RD geográfico, y Dell (2010) para el primer artículo que explota explícitamente la latitud y la
longitud para lograr la identificación geográfica específica de RD de un promedio efecto del
tratamiento. El análisis moderno de diseños de RD geográficos es discutido por Keele y Titiunik
(2015) utilizando ideas basadas en la continuidad, y por Keele, Titiunik y Zubizarreta (2015)
utilizando ideas de aleatorización. Keele, Lorch, Passarella, Small y Titiunik (2017) discuten las
opciones disponibles para análisis cuando la ubicación geográfica exacta de cada unidad en el
conjunto de datos no está disponible.

Cattaneo, Keele, Titiunik y Vazquez-Bare (2016) introdujeron el diseño RD Multi-Cutoff, donde


diferentes unidades en el estudio reciben el tratamiento de acuerdo con diferentes valores de
corte a lo largo una puntuación univariante. En este escenario, la variable X i continúa
denotando la puntuación escalar para la unidad i, pero en lugar de un límite común fijo, la
configuración ahora permite una variable aleatoria adicional, C i, que denota el corte al que se
enfrenta cada unidad. La variable aleatoria de corte Ci tiene soporte C, que puede ser contable
o incontable. Por ejemplo, una suposición natural es C = {c1, c2, ..., cJ}, donde los valores c1,
c2, ..., cJ pueden ser cortes distintos en un diseño RD o una discretización del apoyo continuo
de la variable de corte. Si C = {c}, entonces el RD canónico (Sharp y Fuzzy) Se recuperan
diseños.

El diseño de RD de puntaje múltiple se puede reformular y analizar como un diseño de RD de


puntaje múltiple mediante la elección adecuada de las variables de puntaje y de corte, X i y C i.
Por ejemplo, es una práctica común estudiar los efectos del tratamiento de RD Multi-Score para
un conjunto finito de valores (es decir, una discretización) de la curva de asignación de
tratamiento, que se puede interpretar naturalmente como un diseño RD Multi-Cutoff con cada
corte es un punto en la discretización de la curva. Además, como se discutió en la Sección 2.4,
Los diseños de RD de Multi-Cutoff pueden ser útiles para la extrapolación de los efectos del
tratamiento de RD (Cattaneo, Keele, Titiunik y Vazquez-Bare, 2021).

Los diseños de RD tanto de Multi-Score como de Multi-Cutoff ofrecen una rica clase de efectos
de tratamiento de RD. Para una curva de límite de asignación de tratamiento dada (en el diseño
RD de puntaje múltiple) o cada valor de corte (en el diseño RD corte múltiple), se puede definir
un efecto de tratamiento RD Sharp o Fuzzy, usando ya sea los marcos de continuidad o
aleatorización local. Además, es una práctica común normalizar y agrupar los datos a lo largo
de la curva de límite de asignación de tratamiento o el corte múltiple valores con el fin de
considerar un único efecto del tratamiento DR combinado. Keele y Titiunik (2015) y Cattaneo,
Keele, Titiunik y Vazquez-Bare (2016) discuten un vínculo causal entre los normalizados y el
efecto del tratamiento DR combinado y los efectos del tratamiento DR a lo largo de la curva de
asignación del tratamiento o en múltiples puntos de corte. Ver Cattaneo, Idrobo y Titiunik (2021)
para una introducción práctica a Métodos de diseño RD Multi-Score y Multi-Cutoff. Además de
los diseños RD Multi-Cutoff y Multi-Score, existen varios otros tipos de Diseños RD con
características multidimensionales. Dong, Lee y Gou (2021) consideran un diseño RD con un
tratamiento continuo (en lugar de binario o multivalor), dentro del marco de continuidad, y
mostrar que los efectos causales del RD pueden identificarse en función de los cambios en la
distribución de probabilidad del tratamiento continuo en el punto de corte. Caetano, Caetano y
Escanciano (2021) investigan Identificación basada en la continuidad de los efectos causales
del RD donde el tratamiento es multivalor con finito apoyo. Grembi, Nannicini y Troiano (2016)
introducen una segunda dimensión al diseño de RD en una configuración donde hay dos
períodos de tiempo, y discutir la identificación basada en la continuidad del tratamiento de RD
efectos a lo largo de los dos períodos, en un diseño que llaman diseño de diferencias en
discontinuidades, basándose en ideas del diseño de diferencias en diferencias en la evaluación
de programas (Abadie y Cattaneo, 2018). Cellini, Ferreira y Rothstein (2010) consideran un tipo
diferente de multidimensionalidad inducida por un contexto dinámico en el que el diseño de RD
ocurre en múltiples períodos para las mismas unidades y la puntuación se vuelve a dibujar en
cada período para que una unidad pueda asignarse al tratamiento en un período, pero el
control en periodos futuros; ver también Hsu y Shen (2021a) para un análisis econométrico de
un diseño de RD dinámico dentro del marco basado en la continuidad. Lv, Sun, Lu y Li (2019)
consideran la generalización del diseño de RD a la configuración de datos de supervivencia,
donde el tratamiento se asigna como máximo una vez por unidad y el resultado de interés es el
tiempo de supervivencia de las unidades en un estado particular, que puede ser censurado. Xu
(2018) también estudia un diseño de DR con resultados de duración, pero asume que los
resultados tienen resultados discretos apoyo.

2.4 Extrapolación
Los diseños de DR ofrecen una identificación creíble de los efectos del tratamiento en o cerca
del punto de corte, a través de marcos de continuidad o aleatorización local, a menudo con una
validez interna superior en relación con la mayoría otros métodos de observación. Sin embargo,
una limitación importante de los diseños de RD es que tienen baja validez externa. En ausencia
de supuestos adicionales, no es posible aprender sobre efectos del tratamiento fuera del punto
de corte, es decir, para extrapolar el efecto del tratamiento. En el diseño Sharp RD basado en
la continuidad, por ejemplo, el efecto de tratamiento promedio en el punto de corte es T SRD =
T SRD (c) con T SRD (x) = E [Y i (1) - Y i (0) | X i = x]. Sin embargo, los investigadores y los
responsables de la formulación de políticas pueden también estar interesado en los efectos
promedio del tratamiento en otros valores de la variable de puntuación, como T SRD (x) para x
diferentes (y posiblemente lejos) de c, que no están disponibles de inmediato. En los últimos
años, se han propuesto varios enfoques para permitir una extrapolación válida de las ER
efectos del tratamiento. En el contexto de diseños nítidos, Mealli y Rampichini (2012) y Wing y
Cook (2013) se basan en una medida externa previa a la intervención de la variable de
resultado y emplean métodos paramétricos para imputar las diferencias de control tratado del
resultado posterior a la intervención por encima del límite. Estudio de Dong y Lewbel (2015) y
Cerulli, Dong, Lewbel y Poulsen (2017) métodos de extrapolación local a través de derivados
del efecto de tratamiento promedio de RD en el marco basado en la continuidad, mientras que
Angrist y Rokkanen (2015) emplean covariables de pre intervención en una condición de
ignorabilidad condicional dentro de un marco de aleatorización local. Rokkanen (2015) se basa
en múltiples medidas de la puntuación, que se supone que capturan un factor latente común, y
emplea ideas de un marco de aleatorización local para extrapolar los efectos del tratamiento de
RD lejos del punto de corte asumiendo que los resultados potenciales son condicionalmente
independientes de las medidas disponibles dado el factor latente. En el contexto de los diseños
difusos basados en la continuidad, Bertanha e Imbens (2020) explotan la variación en la
asignación de tratamiento generada por imperfecciones Cumplimiento del tratamiento que
impone la independencia entre los resultados potenciales y los tipos de cumplimiento para
extrapolar los efectos promedio del tratamiento con RD.

En el contexto de los diseños RD (Sharp y Fuzzy) Multi-Cutoff, y tanto de continuidad como


local perspectivas de aleatorización, Cattaneo, Keele, Titiunik y Vazquez-Bare (2016) discuten
la extrapolación en entornos con asignación de corte ignorable, mientras que Cattaneo, Keele,
Titiunik y Vazquez-Bare (2021) discuten la extrapolación que permite la heterogeneidad a
través de los puntos de corte que es invariante como función de la partitura. Además, en el
marco de la continuidad, Bertanha (2020) analiza la extrapolación de los efectos promedio del
tratamiento con DR asumiendo la heterogeneidad del efecto del tratamiento específico de corte.
En el contexto específico de los diseños de DR geográficos, Keele y Titiunik (2015) y Keele,
Titiunik, y Zubizarreta (2015) discute la extrapolación de los efectos promedio del tratamiento a
lo largo del límite geográfico que determina la asignación del tratamiento. Véase también
Galiani, McEwan y Quistorff (2017) y Keele, Lorch, Passarella, Small y Titiunik (2017) para una
discusión relacionada.

Finalmente, existe una literatura que investiga la relación entre los diseños de DR y los
experimentos aleatorios y discute la relación entre los efectos de DR locales y más generales
parámetros. Por ejemplo, Cook y Wong (2008) informan de un estudio de tres diseños
empíricos de DR y cómo se comparan con los puntos de referencia experimentales creados por
experimentos aleatorios de la misma intervención. Véase Chaplin, Cook, Zurovac,
Coopersmith, Finucane, Vollmer y Morris (2018), Hyytinen, Meril¨ainen, Saarimaa, Toivanen y
Tukiainen (2018), y De Magalhaes, Hangartner, Hirvonen, Meril¨ainen, Ruiz y Tukiainen (2020)
para obtener resultados más recientes sobre la recuperación de ER de benchmarks
experimentales.

2.5 Otros diseños similares a RD


Hay varios otros diseños de investigación con características cualitativamente similares a los
diseños de RD, pero también diferencias importantes. Algunos de estos diseños de
investigación se pueden analizar utilizando las herramientas econométricas discutido en las
Secciones 3 y 4, mientras que para otras se necesitarían modificaciones específicas.

Card, Lee, Pei y Weber (2015, 2017) presentan el diseño de regresión torcedura (RK).
Canónico y los diseños de DR generalizados asumen una discontinuidad en la regla de
asignación de tratamiento, lo que lleva a un salto discontinuo en la probabilidad de recibir
tratamiento en el punto de corte. En contraste, en un RK diseño no existe tal salto discontinuo;
en cambio, se supone que la regla de política tiene un problema en la relación entre la política
(o tratamiento) y la puntuación en un punto de corte conocido (también conocido como el punto
de torsión). Tales problemas surgen naturalmente en las ciencias sociales y del
comportamiento, como cuando un programa de impuestos o beneficios es una función lineal
por partes de los ingresos de referencia. La idea central en el diseño RK es examinar la
pendiente de la relación condicional entre el resultado y la puntuación en el punto de inflexión
en la fórmula de la política. Chiang y Sasaki (2019) amplían esta idea a efectos del tratamiento
cuantílico. Véase también Dong (2018b) para una discusión relacionada. Desde el punto de
vista de implementación, estimación e inferencia de los efectos del tratamiento de torceduras
es equivalente a estimar efectos del tratamiento RD para derivadas de funciones de regresión.
En la estimación e inferencia de RD literatura, estimaciones genéricas definidas como
diferencias de primeras derivadas de funciones de regresión en el corte, o proporciones de los
mismos, se denominan diseños Kink RD (por ejemplo, Calonico, Cattaneo y Titiunik, 2014,
Secciones 3.1 y 3.3).

Otra área con conexiones interesantes con el diseño de RD es la literatura sobre agrupamiento
y discontinuidades de densidad (Kleven, 2016; Jales y Yu, 2017). En este escenario, los
objetos de interés están relacionados con discontinuidades y otros cambios bruscos en las
funciones de densidad de probabilidad, generalmente motivados por modelos económicos o de
comportamiento. Estos modelos suelen aprovechar las discontinuidades en la asignación de
tratamiento o las reglas de la política, como los diseños de RD o RK, pero se centran en
estimaciones que están fuera del soporte de los datos observados. Como consecuencia, la
identificación (así como estimación e inferencia) requiere supuestos de modelado paramétrico
adicionales que se invocan para fines de extrapolación. Ver Blomquist, Newey, Kumar y Liang
(2021) para una discusión de identificación no paramétrica en situaciones de agrupamiento y
discontinuidades de densidad.

Los estudios de antes y después (o eventos) también se describen a veces como "diseños de
RD en el tiempo", donde el índice de tiempo se toma como variable de puntuación y el análisis
se realiza utilizando métodos de RD (Hausman y Rapson, 2018). Si bien es difícil conciliar esos
estudios de eventos como RD tradicional diseños en general, el marco de RD de aleatorización
local a veces se puede adaptar y utilizar analizar los diseños de RD a tiempo (consulte las
Secciones 3.3 y 3.5 para obtener más información). Otro tipo RD, Por ejemplo, Porter y Yu
(2015), que consideran los entornos donde el límite en una regla de asignación es desconocido
y debe estimarse a partir de los datos, un problema que puede ocurrir, por ejemplo, cuando
preferencias desconocidas generan puntos de inflexión donde el comportamiento cambia de
manera discontinua (Card, Mas, y Rothstein, 2008).

3 Estimación e inferencia
Ahora discutimos los métodos para el análisis de RD, centrándonos en la aleatorización local y
basada en la continuidad. enfoques por separado. Antes de presentar los métodos formales de
estimación e inferencia, brevemente discutir cómo presentar visualmente el diseño de RD
utilizando una combinación de técnicas globales y locales.

3.1 Visualización del diseño RD


Una de las ventajas del diseño RD es su transparencia. La variable de ejecución da a las
observaciones un orden natural, y la regla de asignación de tratamiento vincula este orden con
el tratamiento asignación, que a su vez se hipotética para afectar una variable de resultado de
interés. Todos estos ingredientes se pueden mostrar gráficamente para proporcionar una
ilustración visual del diseño, generalmente referido como un diagrama de RD. Esta trama se ha
convertido en un componente central del análisis empírico de RD, independientemente de la
metodología formal empleada para la estimación y la inferencia. Aunque una ilustración gráfica
no puede reemplazar el análisis econométrico formal, a menudo es útil mostrar las
características generales de estudio, para evaluar si la discontinuidad observada en el punto de
corte es inusual con respecto a la forma general de la función de regresión, así como tener una
comprensión general de los datos para utilizarse en el análisis formal posterior.

La gráfica de RD grafica diferentes estimaciones de la expectativa condicional de la función de


resultado dada la puntuación, E [Y i | X i = x], en función de x. La trama típica tiene dos
ingredientes: un global ajuste polinomial del resultado en la puntuación, y medias de la muestra
local del resultado calculado en pequeños contenedores de la variable de puntuación. Ambos
ingredientes se calculan por separado para tratamiento y control. observaciones porque E [ Y i |
X i = x] puede exhibir una discontinuidad en el corte, capturando así dos diferentes funciones de
regresión: E [Y i (0) | X i = x] para observaciones por debajo del límite, y E [Y i (1) | X i = x] para
observaciones por encima del límite (Figura 1).

Cada ingrediente juega un papel diferente. Los dos ajustes polinomiales globales están
diseñados para mostrar una aproximación global suave de las funciones de regresión que da
una idea de su forma general, para ejemplo, para ver si están aumentando o disminuyendo en
x, o si hay no linealidades. La estrategia típica es ajustar un polinomio de orden cuatro, pero
esto debe modificarse según sea necesario. Los medios locales se construyen dividiendo el
soporte de la partitura en contenedores separados, y calcular los promedios de la muestra del
resultado para cada contenedor, utilizando solo observaciones cuyo valor de puntuación cae
dentro de ese contenedor; cada media local se traza contra el punto medio del contenedor. En
contraste con el global ajuste, los medios locales están destinados a dar un sentido del
comportamiento local de la función de regresión. En este sentido, al representar
simultáneamente dos representaciones de la función de regresión, una suave (el ajuste
polinomial global) y el otro discontinuo (las medias locales), la gráfica RD proporciona rica
información sobre los datos generales subyacentes al diseño de RD. Calonico, Cattaneo y
Titiunik (2015) proponen métodos para implementar gráficos de RD de una manera disciplinada
y basada en datos, y Cattaneo, Idrobo y Titiunik (2020, Sección 3) ofrecen una introducción a
RD Plots. Además, vea Pei, Lee, Card y Weber (2021) para una discusión sobre cómo elegir
órdenes polinomiales en diseños de RD, que podrían usarse para mejorar aún más la
implementación de RD Plots.

Es importante destacar que los gráficos de RD no deben utilizarse como sustitutos de la


estimación formal y la inferencia de los efectos RD. En particular, a veces el ajuste polinomial
global exhibirá un "salto" en el corte, que puede ser indicativo de un efecto del tratamiento.
Aunque útil como gráfico y sugerente evidencia, tal salto no debe interpretarse como el efecto
RD definitivo, como polinomio de orden superior las aproximaciones se comportan mal en o
cerca de los puntos límite, un problema conocido como la de Runge fenómeno en teoría de
aproximación (Calonico, Cattaneo y Titiunik, 2015, Sección 2.1.1). Además, los polinomios
globales para la estimación e inferencia de RD conducen a varios otros elementos indeseables
características (Gelman e Imbens, 2019) y, por lo tanto, no se recomiendan para análisis más
allá de visualización.

3.2 Métodos polinomiales locales

El resultado de la identificación basada en la continuidad de Hahn, Todd y van der Klaauw


(2001), naturalmente justifica la estimación de los efectos de RD a través de métodos no
paramétricos polinomiales locales (Fan y Gijbels,1996). Estos métodos se han convertido en el
estándar de estimación e inferencia en el diseño de RD. en condiciones de continuidad desde
los primeros trabajos de Porter (2003) y Sun (2005), y más trabajo reciente de Imbens y
Kalyanaraman (2012) y Calonico, Cattaneo y Titiunik (2014).

Los métodos polinomiales locales son preferibles a los métodos polinomiales globales porque,
como se mencionó anterior, evitan varios de los problemas metodológicos creados por el uso
de polinomios globales como comportamiento errático cerca de los puntos límite (fenómeno de
Runge), ponderación contraria a la intuición, sobreajuste y falta general de robustez. El análisis
de polinomios locales para diseños de RD se implementa ajustando Y i en un polinomio de
orden inferior expansión de X i , por separado para las observaciones tratadas y de control, y en
cada caso utilizando sólo observaciones cercanas al punto de corte en lugar de todas las
observaciones disponibles, según lo determinado por la elección de una función del núcleo y un
parámetro de ancho de banda. La implementación requiere cuatro pasos. Primero, elige el
orden polinomial p y el esquema de ponderación o función del núcleo K (·). Segundo, dadas las
opciones de p y K (·), elija un ancho de banda h que determine una vecindad alrededor del
límite de modo que solo las observaciones con puntajes dentro de ese vecindario se incluyen
en la estimación. En tercer lugar, dado las opciones de p, K (·) y h, construyen estimadores
puntuales utilizando métodos estándar de mínimos cuadrados. Cuatro, Dados los pasos
anteriores, realice una inferencia estadística válida para el parámetro RD de interés. Nosotros
discutamos estos pasos con más detalle en el resto de esta subsección, centrándose en
metodologías aspectos.

El orden del polinomio debe ser siempre bajo, para evitar sobreajustes y comportamientos
erráticos. cerca del punto de corte. La recomendación predeterminada es p = 1 (regresión lineal
local), pero p = 2 (regresión cuadrática local) o p = 3 (regresión cúbica local) también son
opciones razonables en algunos escenarios empíricos. Consulte Pei, Lee, Card y Weber (2021)
para conocer una opción basada en datos de p ∈ {0, 1, 2, 3} basado en minimizar el error
cuadrático medio asintótico (MSE) del estimador puntual RD. La elección de núcleo, K (·),
asigna diferentes pesos para diferentes observaciones de acuerdo con la proximidad de la
puntuación de cada observación hasta el punto de corte. Las opciones comunes son un núcleo
triangular que asigna pesos que son más altos en el punto de corte y disminuyen linealmente
para los valores de la puntuación fuera de la corte, y un núcleo uniforme que asigna a todas las
observaciones el mismo peso. El núcleo triangular tiene una propiedad de optimización de MSE
de estimación puntual cuando se combina con un ancho de banda óptimo de MSE elección
(discutida a continuación), mientras que el núcleo uniforme tiene una propiedad de optimización
de inferencia (es decir, minimiza la varianza asintótica del estimador polinomial local y, por lo
tanto, la longitud del intervalo de los intervalos de confianza comúnmente utilizados). Ambas
opciones de función del núcleo son razonables, aunque en la práctica, el núcleo triangular
suele ser el predeterminado.

Una vez que se han seleccionado p y K (·), el investigador debe elegir el ancho de banda.
Cuando una se elige un valor particular de h, esto significa que el ajuste polinomial solo usará
observaciones tales que Xi ∈ [c − h, c + h], ya que las funciones del núcleo utilizadas en los
diseños de RD siempre son compatibles con el formato compacto. La notación asume que se
usa el mismo ancho de banda h tanto por encima como por debajo del límite para simplicidad,
pero se han propuesto varios enfoques para acomodar distintos anchos de banda para grupos
de control y tratamiento. La elección del ancho de banda es fundamental porque los resultados
empíricos son generalmente sensibles a los cambios en este parámetro de ajuste y, por lo
tanto, la elección del ancho de banda en Se desaconseja una manera arbitraria. En cambio, la
recomendación es siempre utilizar un sistema basado en datos procedimiento que es óptimo
para un criterio dado, que conduce a una transparencia, principios y objetivos elección de
implementación que, en última instancia, elimina la discreción del investigador. Tremendo
acercamiento para ajustar la selección de parámetros mejora la replicabilidad y reduce el
potencial de p-hacking en trabajo empírico.

Imbens y Kalyanaraman (2012) propusieron por primera vez elegir h para minimizar una
aproximación de primer orden al MSE del estimador puntual RD, lo que lleva a una elección de
ancho de banda óptimo para MSE. Para la implementación, utilizan una regla de complemento
de primera generación, donde cantidades desconocidas en la fórmula de ancho de banda
óptimo de MSE se reemplaza por estimadores inconsistentes. Calonico, Cattaneo, y Titiunik
(2014) posteriormente obtuvieron expansiones de MSE más generales y ancho de banda
óptimo de MSE opciones, que se implementan utilizando una regla de complemento de
segunda generación (es decir, cantidades desconocidas en la fórmula de ancho de banda
óptimo de MSE se reemplazan por estimadores consistentes de los mismos). Calonico,
Cattaneo y Farrell (2020) adoptan un enfoque diferente y desarrollan opciones óptimas de
ancho de banda para inferencia: sus opciones de ancho de banda propuestas o (i) minimizar el
error de cobertura (CE) de los intervalos de confianza o (ii) compensar óptimamente el error de
cobertura y la longitud de los intervalos de confianza. La elección de ancho de banda CE
óptima también se puede interpretar como óptima para reducir los errores de orden superior en
la aproximación distributiva utilizada para la inferencia estadística polinomial local. Cattaneo y
Vazquez-Bare (2016) proporciona una descripción general de los métodos de selección de
ancho de banda para diseños de RD. Dado un polinomio de orden p, una función del núcleo K
(·) y un ancho de banda h, el polinomio local RD

El estimador puntual se obtiene ajustando dos regresiones de mínimos cuadrados ponderados


de Yi en un polinomio expansión de Xi de la siguiente manera:
n
^β−¿ arg min ∑ 1 ( Xi< c ) ¿ ¿ ¿ ¿
i=1

n
^β +¿ arg min ∑ 1 ( Xi <c ) ¿ ¿ ¿¿
i=1

donde ^β¿ = (^
β ¿, 0, ^
β ¿, 1,..., ^
β ¿, p) y ^β +¿ = ( ^β +, 0, ^β +, 1,..., ^β +, p) denota los mínimos
cuadrados resultantes estimaciones para los grupos de control y de tratamiento,
respectivamente. El estimador puntual RD del agudo efecto del tratamiento T SRD es la distancia
^
vertical estimada en el punto de corte, es decir, la diferencia en intersecciones: T ^
SRD (h) = β +, 0

β ¿, 0. Bajo supuestos estándar, T^ SRD (h) será consistente para T SRD = E [Yi (1) - Yi (0) | X = c].
-^
^
Es una práctica común utilizar T h h MSE denota un Opción de ancho de banda
SRD ( MSE ), donde
óptimo para MSE, por lo que ofrece no solo un MSE consistente sino también óptimo estimador
puntual.

Una pregunta crucial es cómo realizar una inferencia estadística válida para el parámetro RD
basada en métodos polinomiales locales con un ancho de banda óptimo de MSE. A primera
vista, parece que el estándar Los resultados de mínimos cuadrados podrían aplicarse para
construir intervalos de confianza porque, dado un ancho de banda elección, la estimación se
implementa mediante regresión lineal de mínimos cuadrados ponderados. Sin embargo, los
métodos convencionales de inferencia por mínimos cuadrados son paramétricos, asumiendo la
expansión polinomial y la función del núcleo utilizada captura la forma funcional correcta de las
expectativas condicionales desconocidas. Los métodos convencionales de mínimos cuadrados,
por lo tanto, eliminan cualquier error de especificación errónea para concluir que el estadístico t
habitual tiene una distribución normal estándar asintótica, que (si es verdadera) conduciría el
intervalo de confianza de mínimos cuadrados estándar de aproximadamente 95%:
I LS =[ ^τ SRD
˙ ( h MSE ) ± 1.96 . √ V^ ]

donde √ V ^ denota cualquiera de los estimadores de error estándar habituales en la


configuración de regresión de mínimos cuadrados.

Sin embargo, los métodos de polinomios locales RD son de naturaleza no paramétrica y, por lo
tanto, ven el ajuste del polinomio cerca del punto de corte como una aproximación a funciones
de regresión desconocidas, que generalmente lleva un error de especificación incorrecta (o
sesgo de suavizado). De hecho, si no hubo sesgo de especificación incorrecta, entonces, para
empezar, las opciones de ancho de banda óptimas estándar de MSE no estarían bien
definidas. Está, por lo tanto, no es posible confiar simultáneamente en las opciones de ancho
de banda óptimas de MSE y realizar inferencias sin tener en cuenta los errores de
especificación incorrecta en la aproximación de la condicional expectativa cercanas al límite.
Fundamentalmente, los errores de aproximación se traducirán en un sesgo en la aproximación
distributiva del estimador polinomial local RD, donde en general tenemos

τ SRD ( h MSE )−τ SRD


≈ d N ( B , 1) ,
√V ^

donde ≈d denota aproximadamente en distribución, N (·) denota la distribución gaussiana, y B


capturar el sesgo de especificación errónea (estandarizado) o el error de aproximación. Ignorar
el sesgo de especificación errónea puede llevar a un rechazo excesivo sustancial de la
hipótesis nula de ningún efecto del tratamiento. (H0: T SRD = 0): por ejemplo, los cálculos del
reverso del sobre muestran que una confianza nominal del 95% intervalo tendría una cobertura
empírica de alrededor del 80%.

Para algunas opciones de h menor que h MSE, el término de sesgo B desaparecerá


asintóticamente, lo que se llama "suavizado" en la literatura no paramétrica. Aunque los
investigadores pueden elegir algunos h < h MSE y apelan a los asintóticos, tal enfoque es
indisciplinado y arbitrario (El sesgo aún puede ser grande en muestras finitas), conduce a una
potencia reducida (se utilizan menos observaciones para inferencia), y requiere el empleo de
diferentes observaciones para la estimación puntual óptima de MSE y para una inferencia
válida. Como alternativa de principios, Calonico, Cattaneo y Titiunik (2014) proponen utilizar un
intervalo de confianza diferente que estime y elimine el sesgo de especificación errónea en la
aproximación asintótica y, al mismo tiempo, ajusta la fórmula de error estándar para tener en
cuenta para la variabilidad adicional introducida en el paso de estimación de sesgo.
Específicamente, aproximadamente el intervalo de confianza robusto con corrección de sesgo
al 95% es:

[ ^ ) ±1.96 . √ V
I RBC = ( τ SRD ( hMSE ) −B ^ +W
^ ]
donde W^ denota la corrección de sesgo estimada y Wb denota el ajuste en los errores
estándar.

El intervalo de confianza robusto con corrección de sesgo IRBC se vuelve a centrar y se vuelve
a escalar con respecto a la ILS de intervalo convencional. La nueva estandarización está
teóricamente justificada por una aproximación distributiva de muestra grande no estándar del
estimador con corrección de sesgo que explica explícitamente la contribución potencial de la
corrección de sesgo a la variabilidad de muestra finita del estadístico t habitual. Esta el intervalo
de confianza es válido siempre que el intervalo de confianza convencional es válido y continúa
ofrecen una cobertura correcta en muestras grandes incluso cuando el intervalo de confianza
convencional no: de ahí el nombre robusto. En particular, IRBC es válido incluso cuando el
ancho de banda óptimo de MSE h MSE se emplea, lo que permite a los investigadores utilizar el
mismo ancho de banda para ambos puntos (óptimos) estimación e inferencia (válida,
posiblemente óptima). Ver Cattaneo, Idrobo y Titiunik (2020, Sección 4) para una guía práctica.

Los métodos de inferencia de corrección de sesgo robusto (RBC) se han desarrollado aún más
en los últimos años. Desde el punto de vista teórico, Kamat (2018) da condiciones bajo las
cuales la inferencia de RBC tiene validez, Calonico, Cattaneo y Farrell (2018, 2021)
demuestran propiedades superiores de orden superior de la inferencia de RBC tanto puntual
como uniformemente sobre las clases generadoras de datos estándar, y Tuvaandorj (2020)
establece la optimización minimax. Metodológicamente, estos resultados teóricos justifican una
implementación simple de la inferencia de RBC donde el orden del polinomio de estimación
puntual p aumenta cuando se realiza la inferencia sin requerir ningún otro cambio (Calonico,
Cattaneo y Titiunik, 2014, Observación 7), que permite utilizar los mismos datos para la
estimación puntual óptima de MSE y la inferencia válida. Finalmente, desde una perspectiva
práctica, se ha encontrado que la inferencia de RBC exhiben un excelente desempeño tanto en
simulaciones como en estudios de replicación (por ejemplo, Ganong y J¨ager,2018; Hyytinen,
Meril¨ainen, Saarimaa, Toivanen y Tukiainen, 2018; De Magalhaes, Hangartner, Hirvonen,
Meril¨ainen, Ruiz y Tukiainen, 2020).

Los métodos de estimación e inferencia descritos hasta ahora se extienden naturalmente a los
diseños de Fuzzy RD, donde el estimador puntual del polinomio local es ahora una razón de
estimadores RD agudos, y Diseños de RD de torceduras difusas donde el estimador puntual se
basa en derivadas estimadas de orden superior en el punto de torcedura. Por ejemplo, el
estimado de RD difuso τ FRD se estima mediante τ^ FRD (h) = τ^ SRD (h) /% (h) ϑ^ SRD con% ϑ^ SRD (h)
que denota una estimación polinomial local RD aguda utilizando el tratamiento observado Di
como resultado en lugar de Y i , es decir, % ϑ^ SRD (h) es el fuerte efecto RD al recibir el
tratamiento en el cortar. Para obtener más detalles sobre la estimación e inferencia de
derivadas difusas y de orden superior, consulte Calonico, Cattaneo, y Titiunik (2014), y
Cattaneo, Idrobo y Titiunik (2021, Sección 3) para una práctica discusión.

Los resultados de estimación e inferencia para los diseños canónicos Sharp y Fuzzy RD se han
expandido en múltiples direcciones. Arai y Ichimura (2016, 2018) proponen un MSE óptimo-
óptimo selección de ancho de banda para diferentes anchos de banda de control y tratamiento
y desarrollo de inferencia de RBC, Bartalotti, Calhoun y He (2017) y He y Bartalotti (2020)
investigan métodos de remuestreo y su conexión con la inferencia de RBC, y Bartalotti y
Brummet (2017) desarrollan MSE-óptimo selección de ancho de banda e inferencia de RBC en
configuraciones de muestreo agrupadas. Calonico, Cattaneo, Farrell y Titiunik (2019) investigan
la inclusión de covariables previas a la intervención con fines de eficiencia en diseños de RD, y
desarrollar la selección de ancho de banda óptima MSE y la inferencia de RBC con
posiblemente datos agrupados y / o diferentes opciones de ancho de banda para los grupos de
control y tratamiento. Más recientemente, Arai, Otsu y Seo (2021) propusieron nuevos métodos
de alta dimensión para la covariable de pre intervención selección, lo que conduce a una mayor
eficiencia de la inferencia de RBC. La estimación basada en la continuidad y los métodos de
inferencia de RBC también se han estudiado en otra configuración de RD difusa y torcida). Por
ejemplo, Xu (2017) considera modelos lineales generalizados y desarrolla métodos de
inferencia de RBC, Keele y Titiunik (2015), Cattaneo, Keele, Titiunik y Vazquez -Bare (2016,
2021), Bertanha (2020) abordan la estimación e inferencia de RBC en Multi- Los diseños RD de
puntaje, geográficos y de corte múltiple, Dong, Lee y Gou (2021) ofrecen un análisis completo
de estimación e inferencia de RBC en un diseño de RD con tratamiento continuo, y Chiang,
Hsu y Sasaki (2019), Qu y Yoon (2019), Chen, Chiang y Sasaki (2020) y Huang y Zhan (2021)
investigar diseños de RD de cuantiles y también proponer métodos de inferencia de RBC.

Finalmente, dentro del marco basado en la continuidad, los académicos han abordado
diferentes fallas de Supuestos estándar en diseños de RD canónicos y otros. Dong (2019)
explora cuestiones de muestra selección en diseños RD nítidos y difusos. Para diseños de
Fuzzy RD, Feir, Lemieux y Marmer (2016) y He (2018) estudian métodos robustos a la
identificación débil, mientras que Arai, Hsu, Kitagawa, Mourifi´e, y Wan (2021) consideran la
realización de pruebas de especificación. Además, Pei y Shen (2017), Lee (2017) Davezies y
Le Barbanchon (2017) y Bartalotti, Brummet y Dieterle (2021) investigan problemas de error de
medición en varios entornos de RD.

3.3 Métodos de aleatorización local

En su artículo original, Thistlethwaite y Campbell (1960) concibieron la regla de asignación de


tratamiento DR como induciendo una especie de asignación aleatoria cerca del punto de corte,
y establecieron una fuerte analogía entre el diseño de RD y un experimento aleatorio, que
describe un verdadero experimento como un diseño “Por lo que el análisis de regresión-
discontinuidad puede considerarse un sustituto” (p. 310).La analogía entre los diseños de RD y
los experimentos aleatorios tomó mayor fuerza después del trabajo de Lee (2008), quien abogó
por interpretar el diseño de RD como inductor "tan bueno como aleatorizado" (p. 1) variación en
el estado del tratamiento cerca del punto de corte. Véase también Lee y Lemieux (2010).

La analogía entre los diseños de RD y los experimentos aleatorios se formalizó primero sin
condiciones de continuidad de Cattaneo, Frandsen y Titiunik (2015) utilizando un marco
pesquero, y luego ampliado por Cattaneo, Titiunik y Vazquez-Bare (2017) para permitir también
a Neyman o marcos de superpoblación, después de posibles ajustes de puntuación de los
resultados potenciales. En vez de confiando en los límites ya que la puntuación tiende al corte y
analogías heurísticas entre unidades apenas por encima y apenas por debajo del límite, estos
trabajos consideran supuestos bajo los cuales el diseño de RD produciría condiciones
equivalentes a las condiciones que habrían ocurrido si un el experimento se había llevado a
cabo en un vecindario cercano al límite.

La idea clave detrás del enfoque de aleatorización local para el análisis de RD es asumir que
las unidades cerca del punto de corte son como si fueran asignados al azar al tratamiento. La
formalización del como si fuera aleatorio la asignación requiere que exista una ventana W = [c -
w, c + w] alrededor del límite c, asumido simétrico solo por simplicidad, de modo que se
cumplen las dos condiciones siguientes:

1. Se conoce la distribución de probabilidad conjunta de las puntuaciones en W: P [ X W ≤ x] = F


(x), para algún conjunto conocido c.d.f. F (x) donde X W denota el vector de puntuaciones para
todo i tal que X i ∈ W.

2. Los resultados potenciales no se ven afectados por la puntuación en W: Y i (0) = Y i (0, x) y Y i


(1) = Y i (1, x), para todas las unidades tales que X i ∈ W.

La primera condición asume que, dentro de la ventana, el mecanismo de asignación de la


partitura se conoce, como ocurriría en un experimento. Por ejemplo, esta condición se cumple
cuando todas las unidades tienen la misma probabilidad de recibir todos los valores de
puntuación en W. La segunda condición es una exclusión restricción que impide que los
resultados potenciales sean una función de la puntuación dentro de W.

La primera condición es análoga al requisito de los experimentos aleatorios clásicos, mientras


que la segunda condición no se establece típicamente en las definiciones de experimentos
aleatorios porque se sostiene (implícitamente) por construcción. Por ejemplo, cuando se asigna
un tratamiento al azar, este generalmente implica generar un número pseudoaleatorio y luego
asignar el tratamiento o control condiciones basadas en este número. Si interpretamos este
número pseudoaleatorio como una puntuación, será no estar relacionados con los resultados
potenciales en virtud de haber sido generados independientemente de cualquier información
sobre las características de las unidades. Por el contrario, en un diseño de RD, la puntuación
suele ser correlacionados con los resultados potenciales, y existen múltiples canales por los
cuales un cambio en la puntuación, incluso si es pequeña, puede inducir un cambio en los
resultados potenciales. Tal relación entre la puntuación y los resultados potenciales dificultarían
la comparabilidad de las unidades por encima y por debajo el corte dentro de W, debido a la
falta de apoyo común en la partitura. Por esta razón, la restricción de exclusión dentro de W
debe hacerse explícita. Ver Cattaneo, Titiunik y Vazquez-Bare (2017) para una relajación de
esa condición de exclusión, y Sekhon y Titiunik (2017, 2016) para más discusión sobre las
diferencias entre experimentos aleatorios y diseños de RD. De la Cuesta y Imai (2016) y
Cattaneo, Titiunik y Vazquez-Bare (2020) contrastan aún más la continuidad y marcos de
aleatorización locales; véanse también los artículos relacionados en Cattaneo y Escanciano
(2017).

Una vez que se ha invocado un supuesto de aleatorización local, el análisis del diseño de RD
puede proceder mediante la implementación de varios métodos a partir del análisis de
experimentos. Esto requiere dos pasos. Primero, se debe elegir una ventana W en la que se
supone que se cumple la aleatorización local. En segundo lugar, dado W, se deben imponer
suficientes supuestos sobre el mecanismo de asignación para realizar la estimación e
inferencia, según sea apropiado para el enfoque específico elegido (Fisherian, Neyman,
superpoblación). Estos métodos se pueden utilizar con puntuaciones tanto continuas como
discretas (Sección 3.5).
El paso de selección de ventana es el principal desafío de implementación para el análisis de
aleatorización local y es análogo al paso de selección de ancho de banda en el marco de
continuidad. Cattaneo, Frandsen y Titiunik (2015) recomiendan un procedimiento basado en
datos para seleccionar la ventana basada sobre covariables previas al tratamiento o resultados
de placebo que se sabe que no se ven afectados por el tratamiento. El procedimiento se basa
en el enfoque común de probar el equilibrio de covariables para evaluar la validez de
experimentos aleatorios. Si se cumple el supuesto de aleatorización local RD, la covarianza
previa al tratamiento no deben estar relacionados con la puntuación dentro de W. Suponiendo
que las covariables están relacionadas con el puntuación fuera de W conduce al siguiente
procedimiento para seleccionar W: considere una secuencia de anidadas ventanas alrededor
del límite, y para cada ventana candidata, realice pruebas de "equilibrio" del valor nulo hipótesis
de ningún efecto del tratamiento, comenzando con la ventana más grande y reduciendo
secuencialmente hasta que la hipótesis nula deje de ser rechazada en algún nivel de
significancia preestablecido. El procedimiento, Por tanto, busca posteriormente ventanas más
pequeñas hasta encontrar la ventana más grande posible de modo que la hipótesis nula no se
puede rechazar para esa ventana y no se puede rechazar para una ventana más pequeña
contenido en él.

Una vez que se ha elegido la ventana, el segundo paso es implementar métodos a partir del
análisis de experimentos para estimar el efecto RD y realizar inferencias estadísticas dentro de
la ventana seleccionada. Estos métodos requieren especificar un mecanismo de aleatorización
dentro de la ventana. La estrategia es asumir que cada unidad con puntuación dentro de W fue
asignada al tratamiento de acuerdo con a una aleatorización de márgenes fijos, donde la
Nw
probabilidad de cada vector de asignación de tratamiento es ( +¿ ).
Nw ¿
Otra estrategia común es asumir que las unidades se asignaron de forma independiente a los y
control dentro de la ventana, con probabilidad constante igual a N+W / NW. La implementación
particular de estimación e inferencia depende del marco elegido para el análisis (Fisherian,
Neyman o superpoblación). Los métodos pesqueros son particularmente útiles cuando el
número de observaciones con puntuación dentro de W es pequeño, porque proporcionan
muestras finitas inferencia válida para la hipótesis nula tajante de ningún efecto del tratamiento
bajo supuestos razonables. Este método de inferencia a veces se denomina "inferencia de
aleatorización" en la inferencia causal y literatura de evaluación de programas (Rosenbaum,
2010; Imbens y Rubin, 2015; Abadie y Cattaneo,2018), y es particularmente adecuado para
analizar diseños de RD porque permite a los investigadores Incluya solo las pocas
observaciones que estén más cerca del límite. Como consecuencia, la aleatorización la
inferencia ofrece un buen complemento y comprobación de la robustez de los métodos
polinomiales locales (Sección 3.2), que normalmente emplean un número mayor de
observaciones más alejadas del límite para la estimación e inferencia. Por otro lado, cuando el
número de observaciones dentro de W es lo suficientemente grande, los investigadores
también pueden utilizar métodos basados en aproximaciones de muestras grandes dentro de la
escala de Neyman. marco, donde los resultados potenciales no son aleatorios y la
incertidumbre se basa en el diseño, o el marco de superpoblación, donde los resultados
potenciales son aleatorios y la incertidumbre es tanto de diseño como de basado en muestreo.
Ver Cattaneo, Idrobo y Titiunik (2021, Sección 2) para una introducción práctica.

El enfoque de aleatorización local se ha aplicado en otros entornos de ER. Keele, Titiunik, y


Zubizarreta (2015) consideran diseños de RD geográficos y de puntaje múltiple, Li, Mattei y
Mealli (2015) analizan la estratificación principal en una configuración difusa de RD, Ganong y
J¨ager (2018) estudiar diseños de Kink RD, y Cattaneo, Keele, Titiunik y Vazquez-Bare (2016,
2021) investigar diseños de RD de Multi-Cutoff. Además, Owen y Varian (2020) estudian un
diseño de “desempate” donde el tratamiento es asignado al azar en un pequeño vecindario del
límite, pero sigue la asignación de RD de lo contrario, mientras que Eckles, Ignatiadis, Wager y
Wu (2021) consideran una configuración donde la medición exógena Se supone que el error
induce una aleatorización local cerca del límite. Véase también Hyytinen, Meril¨ainen,
Saarimaa, Toivanen y Tukiainen (2018) y De Magalhaes, Hangartner, Hirvonen, Meril¨ainen,
Ruiz y Tukiainen (2020) para trabajos relacionados.

3.4 Refinamientos, extensiones y otros métodos

Revisamos enfoques alternativos que se han propuesto para refinar, ampliar o generalizar
métodos estándar de estimación e inferencia de RD discutidos en las dos últimas secciones.

3.4.1 Métodos empíricos de verosimilitud

Otsu, Xu y Matsushita (2015) proponen un enfoque de inferencia para diseños de RD nítidos y


difusos combinando polinomios locales y métodos de verosimilitud empíricos, lo que conduce a
una validez asintóticamente Intervalos de confianza para los efectos promedio del tratamiento
con RD bajo una elección de ancho de banda insuficiente, pero se puede construir una versión
más poderosa, robusta y corregida por sesgo de su método aumentando el orden del polinomio
utilizado (Sección 3.2). La inferencia de verosimilitud empírica se basa en una función de razón
de verosimilitud impulsada por datos, permite incorporar restricciones conocidas en los
parámetros y no requieren una estimación explícita de las fórmulas de varianza asintótica. Ver
Owen (2001) para una introducción a la metodología de verosimilitud empírica. Más
recientemente, Ma y Yu (2020) investigaron las propiedades de orden superior de la inferencia
de verosimilitud empírica polinomial local en diseños de RD, construyendo sobre ideas en
Calonico, Cattaneo y Farrell (2018, 2021) para la inferencia de RBC utilizando polinomio local
métodos. Además, Otsu, Xu y Matsushita (2013) y Ma, Jales y Yu (2020) exploraron métodos
empíricos de verosimilitud para la inferencia de una discontinuidad en una función de densidad,
que tiene aplicación tanto a los diseños similares a RD discutidos en la Sección 2 como a la
validación y falsificación metodología discutida en la Sección 4. Estos métodos empíricos de
verosimilitud se desarrollan dentro del marco de continuidad.

3.4.2 Métodos bayesianos

También existen varios métodos bayesianos para diseños de RD, que se desarrollan casi
exclusivamente dentro del marco de aleatorización local. Geneletti, O’Keeffe, Sharples,
Richardson y Baio (2015) discuten una metodología bayesiana para diseños de ER en las
ciencias biomédicas, centrándose en cómo incorporar información externa en la estimación e
inferencia de los efectos del tratamiento de DR. De manera similar, Karabatsos y Walker (2015)
y Chib y Jacobi (2016) proponen alternativas bayesianas modelos para diseños RD nítidos y
difusos, prestando especial atención a los problemas de especificación incorrecta de funciones
de regresión desconocidas. Branson, Rischard, Bornn y Miratrix (2019) emplean gaussianos
metodología de regresión del proceso que se puede interpretar como un análogo bayesiano del
lineal local Estimador de RD, que ofrece un ajuste flexible para las funciones de regresión de
las unidades de tratamiento y control a través de un prior general sobre las funciones de
respuesta media de los procesos gaussianos subyacentes. El enfoque está motivado por
métodos bayesianos, pero también discuten algunas propiedades frecuentistas de los
procedimientos de estimación resultantes. Todos estos métodos bayesianos para el análisis de
RD se basan en la especificación de distribuciones para parámetros funcionales (por ejemplo,
E [Y i (1) | X i = x] y E [Y i (0) | X i = x], la condicional función de expectativa bajo tratamiento y
control). Ver Gelman, Carlin, Stern, Dunson, Vehtari, y Rubin (2013) para una introducción
general a la metodología bayesiana.

3.4.3 Métodos uniformes en sesgo

Imbens y Wager (2019) y Armstrong y Kolesar (2020) aplican ideas de Backus (1989) y Donoho
(1994) para desarrollar métodos de inferencia de RD que sean uniformemente válidos sobre
una clase de suavidad de funciones que determinan el mayor sesgo posible de especificación
errónea del estimador del efecto del tratamiento DR. Sus procedimientos requieren pre
especificar una constante de suavidad teórica que determina la mayor "curvatura" posible de
las funciones de expectativa condicional desconocidas bajo tratamiento y control, E [Y i (1) | X i
= x] y E [Y i (0) | X i = x], cerca del límite. Dada esa elección de suavidad constante, el enfoque
calcula una elección óptima de ancho de banda uniforme en sesgo, que luego se utiliza
construir intervalos de confianza polinomiales locales para los efectos del tratamiento DR que
tengan en cuenta el peor sesgo posible del estimador puntual RD (inflando el cuantil utilizado).
Estos métodos son desarrollados dentro del marco de continuidad para diseños de RD.

Los métodos de polarización uniforme dependen de la constante de suavidad teórica, que es


un ajuste parámetro que debe elegirse. Si esta constante se estima a partir de datos, los
procedimientos de inferencia resultantes dejan de ser uniformemente válidos. Como
consecuencia, asumiendo que el objetivo es lograr uniformidad, la elección de la constante de
suavidad teórica no puede basarse en datos y debe configurarse manualmente por el
investigador. Sin embargo, especificar esta constante manualmente equivale a elegir
manualmente el ancho de banda del polinomio local, porque hay una correspondencia uno a
uno entre los dos parámetros. Finalmente, aunque existen algunas propuestas para elegir la
suavidad teórica constante utilizando datos, su aplicabilidad es limitada porque a menudo no
son equivariantes a las transformaciones de los datos, y porque no emplean un estimador
consistente de un bien definido cantidad.

3.4.4 Métodos restringidos por forma

La estimación e inferencia de regresión monótona es una metodología útil siempre que se sabe
que una función de regresión es monótona porque no requiere una elección de ancho de banda
o función de núcleo en puntos interiores (Groeneboom y Jongbloed, 2014, y referencia en el
mismo). Motivado por esto observación, Babii y Kumar (2021) estudian la estimación e
inferencia del efecto del tratamiento con RD bajo el supuesto de que las funciones de
expectativa condicionales de los resultados potenciales son monótonas cerca el corte. Sin
embargo, debido al sesgo de límite inherente en la configuración de RD, algunas de las
características agradables de los estimadores de regresión monótonos se pierden: todavía se
requiere una elección de parámetro de ajuste para la implementación, ya que de lo contrario los
procedimientos de regresión monótonos no serían válidos en el punto de corte. Sin embargo,
dentro del marco de RD basado en la continuidad, su metodología de RD con restricciones de
forma puede ser de interés en entornos donde la monotonicidad de las funciones de regresión
E [Y i (1) | X i = x] y E [Y i (0) | X i = x] cerca del límite es una suposición razonable.

Hsu y Shen (2021b) también consideran el papel de la monotonicidad en los diseños de RD.
Dentro de marco de la ER basado en la continuidad, proponen una prueba de monotonicidad
no paramétrica para el tratamiento de la ER efectos en el punto de corte condicionados a las
características observables. Su procedimiento de prueba emplea métodos polinomiales locales
y, por lo tanto, requiere una elección de ancho de banda y su implementación se basa en
técnicas de suavizado, que pueden afectar el control del tamaño de la prueba propuesta. La
versión corregida de sesgo de su procedimiento de prueba se puede construir aumentando el
orden del polinomio utilizado para la inferencia (Sección 3.2).

3.4.5 Otros métodos

Frolich y Huber (2019) y Peng y Ning (2021) consideran ajustes de covariables no paramétricos
en diseños de RD donde las covariables de pretratamiento son discontinuas en el punto de
corte, lo que conduce a diferentes parámetros similares a RD en general, mientras que Gerard,
Rokkanen y Rothe (2020) proponen métodos de identificación en entornos donde el diseño de
RD se invalida por la clasificación unilateral endógena de unidades cerca del límite. Finalmente,
Mukherjee, Banerjee y Ritov (2021) aumentan la habitual configuración de RD al incluir una
segunda ecuación que asume que la puntuación es una función lineal de la observada
covariables para construir estimadores semiparamétricos alternativos de los efectos del
tratamiento DR promedio.

3.5 Variable de puntuación discreta

La característica definitoria del diseño de RD es la regla de asignación de tratamiento 1 ( X i ≥


c), que en principio permite tanto una puntuación discreta como continua X i . Una puntuación
distribuida continuamente implica que todas las unidades tienen un valor de puntuación
diferente en muestras finitas, y asegura que algunas observaciones tienen puntuaciones
arbitrariamente cercanas al límite en muestras grandes (siempre que la densidad de la
puntuación sea positiva alrededor del corte). Por el contrario, una puntuación con apoyo
discreto implica que varias unidades compartirán el mismo valor de X i , lo que lleva a valores
repetidos o "puntos de masa" en los datos. En la ausencia de una puntuación distribuida de
forma continua, los efectos del tratamiento de RD basados en la continuidad estándar no son
identificable no paramétrico en el punto de corte: este problema es equivalente a la falta de
identificabilidad en diseños de agrupamiento (Blomquist, Newey, Kumar y Liang, 2021). El
problema principal es que, con puntuaciones discretas, la identificación y estimación de los
efectos del tratamiento de DR basados en la continuidad requeriría necesariamente una
extrapolación fuera del soporte de la partitura.

Existen diferentes enfoques para los diseños de DR con puntajes discretos, dependiendo de los
supuestos impuestos y el marco conceptual en consideración. Para describir estos métodos,
suponga que la puntuación discreta X i puede tomar M = 2K + 1 valores distintos { x− K ,. . . , x−2,
x−1, c, x 1, x 2,. . . x K },donde asumimos que el corte c es el valor mediano solo por simplicidad.
Dentro de la continuidad marco, los métodos polinomiales locales discutidos en la Sección 3.2
todavía se pueden emplear cuando (i) la extrapolación paramétrica implícita de X i = x−1 a X i =
c es lo suficientemente precisa, y (ii) el número de valores únicos M es grande. En tales
entornos, la selección, estimación, y los métodos de inferencia seguirían siendo aplicables. Por
otro lado, cuando la partitura tiene solo unos pocos valores distintos, los métodos basados en
la continuidad no son recomendables para el análisis de diseños de RD a menos que se cree
que el modelo de regresión polinomial local subyacente para las expectativas condicionales es
correctamente especificado. Consulte Lee y Card (2008) para conocer los métodos iniciales
bajo este tipo de suposición.

Los métodos de aleatorización local, por otro lado, siguen siendo válidos bajo los mismos
supuestos discutido en la Sección 3.3 cuando el puntaje es discreto, y los métodos de
estimación e inferencia en esa sección se puede aplicar independientemente de si el número
de valores distintos de Xi es grande o pequeña. Si el número de observaciones por punto de
masa es lo suficientemente grande, el paso de selección de ventana es no es necesario, ya
que basta con utilizar observaciones con X i = x−1 a X i = c para realizar la estimación e
inferencia utilizando métodos de Fisherian, Neyman o superpoblación. Si el número de
observaciones por punto de masa no es lo suficientemente grande como para que se necesite
una ventana más grande, la selección de ventana puede ser basado en covariables
predeterminadas, pero la implementación es más fácil porque las ventanas anidadas
considerado puede aumentarse en longitud un punto de masa a la vez a cada lado del límite.

En algunos casos, puede ser conveniente redefinir el parámetro de interés. Por ejemplo, dentro
del marco basado en la continuidad, el efecto del tratamiento DR promedio τ SRD = E [Y i (1) - Y i
(0) | X i = c] no es identificable sin extrapolación (desde la izquierda del límite); pero el
parámetro τ SDS = E [Y i (1) | X i = c] - E [Y i (0) | X i = x − 1] siempre es identificable, haciendo
explícita la incapacidad de identificar y estimar E [Y i (0) | X i = c] sin supuestos de modelado
adicionales. El nuevo parámetroτ SDS puede ser más natural en los casos en que la puntuación
es intrínsecamente discreta, pero su utilidad es en última instancia específico de la aplicación.

En resumen, desde una perspectiva práctica, una consideración clave para el análisis de RD
con puntajes discretos es el número de valores distintos M en el apoyo de la variable en
ejecución. Cuando M es grande, los métodos basados en la continuidad pueden seguir siendo
útiles, aunque el número efectivo de observaciones para el propósito de la estimación e
inferencia polinomial local será el número de puntos de masa (no el número total de unidades).
Cuando M es pequeño, los métodos basados en la continuidad solo son útiles bajo supuestos
para la extrapolación, mientras que los métodos de aleatorización local pueden ser una
alternativa preferible. Consulte Cattaneo, Idrobo y Titiunik (2021, Sección 4) para obtener más
detalles y una discusión práctica.

Existen otros enfoques específicos para entornos de RD con puntuaciones discretas. Dong
(2015) y Barreca, Lindo y Waddell (2016) investigan el fenómeno del amontonamiento, que
ocurre cuando la variable de puntuación se redondea para que las unidades que inicialmente
tenían valores de puntuación diferentes aparezcan en el conjunto de datos con el mismo valor.
Kolesar y Rothe (2018) emplean un método de sesgo uniforme, que requiere especificar un
límite teórico en la "curvatura" de una clase de funciones de regresión que solo son
identificables en los puntos de masa de la partitura; consulte también la Sección 3.4.3.

3.6 Cálculos de potencia para diseño experimental

Hasta ahora, la discusión se ha centrado en el análisis ex-post de los diseños de RD utilizando


o métodos de aleatorización local. En los últimos años, los investigadores aplicados y los
responsables de la formulación de políticas se han cada vez más interesado en diseñar
evaluaciones ex ante de programas aprovechando los diseños de RD, donde los investigadores
tienen acceso a las puntuaciones de todas las unidades, pero deben elegir un subconjunto de
unidades para las que recopilar resultados debido a consideraciones presupuestarias u otras
restricciones. Esta configuración de RD experimental requiere funciones de potencia de cálculo
para pruebas de hipótesis de RD, que dependen de la estimación específica y métodos de
inferencia adoptados. Schochet (2009) analiza los cálculos de potencia y el tamaño de muestra
óptimo selección para el diseño experimental utilizando especificaciones de regresión
paramétrica para el efecto del tratamiento RD estimación. Dentro del marco basado en la
continuidad, Cattaneo, Titiunik y Vazquez-Bare (2019) Desarrollar cálculos de potencia y
calcular tamaños de muestra óptimos para el diseño experimental ex ante cuando empleando
la inferencia de RBC (Sección 3.2). Estos resultados de cálculo de potencia también se pueden
utilizar para calcular Efectos mínimos detectables (MDE), que son útiles para el análisis ex ante
y ex post de las ER diseños. Es importante destacar que para el análisis ex-post, se prefiere
calcular los efectos MDE porque ex-post los cálculos de potencia que utilizan los tamaños del
efecto observados a menudo no son fiables.

4 Validación y Falsificación

En relación con otros diseños no experimentales, el diseño de RD ofrece una gran cantidad de
métodos de validación y falsificación específicos del diseño para evaluar la plausibilidad de los
supuestos centrales de RD. A pesar de todo de si se utiliza el marco de continuidad o de
aleatorización local, un paso fundamental en cualquier el análisis de RD debe proporcionar
dicha evidencia empírica de apoyo. Esta evidencia solo puede ser indirecta, porque los
supuestos centrales de DR son inherentemente imposibles de comprobar. No obstante, hay
pasos importantes que pueden tomarse para evaluar su plausibilidad en la mayoría de los
entornos y, por lo tanto, la validez potencial del diseño de RD, así como la solidez general de
los principales hallazgos empíricos. Primero discutimos métodos de falsificación genéricos que
se utilizan en la mayoría de las configuraciones de evaluación de programas, y luego recurren a
métodos basados en el diseño que se basan en características específicas de RD. Ver
Cattaneo, Idrobo y Titiunik (2020, Sección 5) para una descripción práctica reciente y más
detalles.
4.1 Covariables previas a la intervención y resultados del placebo

En experimentos aleatorizados, es común comprobar si la aleatorización produjo resultados


similares distribuciones del grupo de control y de tratamiento de las covariables observadas
determinadas antes de la asignación del tratamiento. Este llamado análisis de equilibrio de
covariables generalmente se implementa probando el valor nulo hipótesis de que la media (u
otra característica de la distribución) de las covariables predeterminadas es la lo mismo en el
grupo de unidades asignadas a tratamiento y el grupo de unidades asignadas a control.
Rechazar la hipótesis nula implica que los grupos de tratamiento y control no son comparables
en términos de las características del pretratamiento, lo que arroja dudas sobre el diseño de la
investigación. La misma idea puede ser aplicado en el diseño de RD (Lee, 2008). Además, el
principio de equilibrio de covariables puede ser extendido más allá de las covariables
predeterminadas a las variables que se determinan después de que el tratamiento es asignado,
pero se sabe que no se ven afectados por el tratamiento, comúnmente denominados "no
afectados" (Rosenbaum, 2010, p. 121) o resultados de "placebo". Este tipo de análisis de
validación puede ser poderoso, ya que se basa en el mecanismo hipotético por el cual el
tratamiento afecta el resultado. Por ejemplo, en su análisis de la expansión de Head Start sobre
la mortalidad infantil, Ludwig y Miller (2007, Cuadro III, p. 180) estimó el efecto del RD sobre las
causas de muerte que no deberían haberse visto afectadas por los programas Head Start y
encontró que tal efecto es indistinguible de cero, además de también considerando otras
covariables previas a la intervención.

El análisis de las covariables previas a la intervención y los resultados del placebo es un


componente fundamental del conjunto de herramientas de validación y falsificación para
diseños de RD. Su aplicación es sencilla: métodos de inferencia de glóbulos rojos polinomiales
locales (sección 3.2) y métodos de inferencia de aleatorización local (sección 3.3) se puede
utilizar directamente al sustituir la variable de resultado de interés por la pre intervención
covariables o resultado placebo. En la implementación habitual de las pruebas de equilibrio, la
falta de rechazo de la hipótesis nula de equilibrio de covariables se interpreta como evidencia
de comparabilidad. Sin embargo, puede ser más apropiado probar la hipótesis nula de que las
distribuciones de covariables son diferentes y, por lo tanto, controlar la probabilidad de concluir
que los grupos son similares cuando no lo son (en lugar de la probabilidad de concluir que son
diferentes cuando son similares, como en el enfoque habitual). Consulte Hartman (2020) para
una aplicación en la configuración de RD utilizando la inferencia de RBC en la continuidad
estructura.

Por último, se han utilizado otros métodos para las covariables previas a la intervención y las
pruebas de resultados con placebo. propuesto en el marco de la continuidad. Primero, Shen y
Zhang (2016) proponen polinomios locales pruebas de distribución utilizando un ancho de
banda insuficiente para la implementación, pero una más robusta la versión que utiliza la
inferencia de RBC se puede construir aumentando el orden polinomial (Sección 3.2). En
segundo lugar, Canay y Kamat (2018) discuten un enfoque basado en pruebas de permutación
asintótica, lo que conduce a una implementación de inferencia de aleatorización (Sección 3.3).

4.2 Continuidad de densidad y pruebas binomiales


McCrary (2008) propuso una prueba de densidad para la "manipulación" de la puntuación cerca
del punto de corte, donde el valor nulo de la hipótesis es que la función de densidad de la
puntuación es continua en el punto de corte. Mientras que la continuidad de la función de
densidad de la puntuación en el punto de corte no es necesaria ni suficiente para la validez de
un Diseño de RD, una densidad discontinua se puede asociar heurísticamente con la idea de
"endógeno clasificación” de unidades alrededor del límite. Además, bajo supuestos adicionales,
tal discontinuidad puede vincularse formalmente con el fracaso del diseño de RD. Por ejemplo,
Urquiola y Verhoogen (2009) y Bajari, Hong, Park y Town (2011) estudian modelos económicos
que predicen la clasificación endógena alrededor del límite, mientras que Crespo (2020) analiza
la clasificación causada por razones administrativas en lugar de que el comportamiento
individual estratégico.

La prueba de densidad de McCrary se ha convertido en uno de los principales métodos de


validación y falsificación para diseño de RD con una puntuación distribuida continuamente. La
prueba se implementó originalmente utilizando el estimador de densidad polinomial local de
Cheng, Fan y Marron (1997), un estimador no paramétrico de dos pasos procedimiento que
requiere dos opciones distintas de ancho de banda. Más recientemente, Cattaneo, Jansson y
Ma (2020) introdujeron un estimador de densidad polinomial local que requiere solo una opción
de ancho de banda y es más robusto cerca de los puntos límite, lo que conduce a una prueba
de hipótesis basada en la inferencia de RBC, ofreciendo así una prueba de densidad mejorada
para aplicaciones de RD.

Basado en la idea de McCrary, pero originalmente motivado por el marco de aleatorización


local, Cattaneo, Titiunik y Vazquez-Bare (2017) proponen una prueba binomial para conteos
cercanos al punto de corte como una prueba de manipulación adicional. A diferencia de la
prueba de densidad basada en continuidad, la prueba binomial puede utilizarse cuando la
puntuación es continua o discreta, y no se basa en aproximaciones asintóticas, ya que el valor
p asociado es exacto para una probabilidad de asignación dada en una ventana fija alrededor
del cortar. Este método de validación ofrece un complemento útil y una verificación de solidez
para la continuidad prueba de densidad basada.

Dentro del marco basado en la continuidad, hay otras extensiones y refinamientos para la
prueba de densidad. Otsu, Xu y Matsushita (2013), Ma, Jales y Yu (2020) y Jales, Ma y Yu
(2017) discutir las pruebas de densidad que combinan polinomios locales y métodos de
verosimilitud empíricos; mira la sección 3.4.1. Frandsen (2017) propone una prueba de
manipulación para puntuaciones discretas y Bugni y Canay (2021) proponer una prueba de tipo
binomial utilizando un argumento asintótico para justificar la aleatorización local cerca de la
corte, ambos emplean un enfoque de sesgo uniforme que requiere la elección manual de una
suavidad constante; consulte la Sección 3.4.3.

4.3 Puntos de corte de placebo y continuidad de las funciones de regresión

Otro método de falsificación específico del diseño de RD analiza los límites artificiales (o
placebo) a partir del límite real que determina la asignación de tratamiento. La intuición es que,
desde el verdadero corte es el único valor de puntuación en el que la probabilidad de recibir el
tratamiento cambia de forma discontinua, también debe ser el único valor de puntuación en el
que el resultado cambia de forma discontinua. Esta prueba asume que no hay otras políticas (o
cambios) introducidos en diferentes valores de puntuación que pueden afectar el resultado de
interés. Más formalmente, este método puede verse como una prueba de hipótesis para la
Continuidad de las funciones de expectativa condicionales de los resultados potenciales a
valores de la puntuación iguales al límite de placebo considerado. Para la implementación, los
investigadores generalmente eligen una cuadrícula de valores de corte, y repetir la estimación e
inferencia del efecto RD sobre el resultado de interés en cada valor de corte artificial, utilizando
métodos de inferencia de RBC polinomiales locales (Sección 3.2) o métodos de inferencia de
aleatorización local (Sección 3.3). Es importante destacar que para evitar el tratamiento. efecto
de contaminación, este método de validación debe implementarse para unidades por debajo y
por encima del corte por separado. Ver Ganong y J¨ager (2018) para un enfoque relacionado
en el contexto de Kink RD diseños.

4.4 Agujero de rosquilla y sensibilidad del ancho de banda

Otra clase de métodos de falsificación específicos de RD implica volver a implementar la


estimación y la inferencia para el efecto del tratamiento de RD con diferentes subconjuntos de
observaciones, según lo determinado por cualquiera excluyendo aquellas observaciones más
cercanas al límite o variando el ancho de banda utilizado para la estimación y inferencia. El
enfoque del llamado "período sin cobertura" (Bajari, Hong, Park y Town, 2011) investiga la
sensibilidad de las conclusiones empíricas al eliminar las pocas observaciones más cercanas al
punto de corte, y luego implementar la estimación y la inferencia. Heurísticamente, el objetivo
es evaluar cuánta influencia tienen las pocas observaciones más cercanas al límite en los
resultados empíricos generales. La intuición es que, si hay una clasificación endógena de
unidades a través del límite, tal clasificación podría ocurrir solo entre unidades cuyos puntajes
están muy cerca del punto de corte y, por lo tanto, cuando se excluyen esas observaciones, el
efecto del tratamiento con RD puede cambiar. Más formalmente, este enfoque puede
relacionarse con cuestiones de propiedades de extrapolación del método específico utilizado
para la estimación y la inferencia cerca del punto de corte. Véase Dowd (2021) para conocer el
último enfoque en el contexto de los métodos de inferencia de glóbulos rojos polinomiales
locales. (Sección 3.2).

El otro método de validación estudia si las conclusiones empíricas son sensibles a la elección
de ancho de banda o vecindario de aleatorización local. La idea es simplemente reestimar el
efecto de tratamiento RD para anchos de banda (o longitudes de vecindario) que son menores
o mayores que el elegido originalmente. En el marco basado en la continuidad, si el ancho de
banda original es MSE- optimo, no es aconsejable considerar anchos de banda mucho mayor
debido a la especificación incorrecta implícita parcialidad. De manera similar, en el marco de
aleatorización local, considerar vecindarios más grandes puede no ser justificable y, por tanto,
poco informativo.

Para la implementación de los enfoques de sensibilidad al ancho de banda y al agujero de


rosquilla, los investigadores pueden confiar en métodos de inferencia de RBC polinomiales
locales (Sección 3.2) o inferencia de aleatorización local métodos (Sección 3.3). Consulte
Cattaneo, Idrobo y Titiunik (2020, Sección 5) para obtener más detalles.

5. Conclusión
Desde el trabajo fundamental de Thistlethwaite y Campbell (1960), la literatura sobre
identificación, la estimación, inferencia y validación de diseños de RD ha florecido y madurado.
Gracias a trabajo colectivo de muchos académicos, la metodología actual de RD proporciona
una amplia gama de prácticas y herramientas teóricas. La analogía original entre los diseños de
RD y los experimentos aleatorios ha se ha aclarado y de muchas formas reforzado, la elección
del ancho de banda polinomial local o local el vecindario de aleatorización se ha basado en
datos y se basa en criterios de principios, y ahí ha sido una plétora de métodos de validación y
falsificación que explotan las características particulares de RD diseños. Ahora se entiende que
las mejores prácticas para la estimación y la inferencia en los diseños de RD deben basarse en
opciones de parámetros de ajuste que sean objetivas, basadas en principios y basadas en
datos, por lo que eliminando la capacidad de los investigadores para participar en la búsqueda
de especificaciones arbitrarias y, por lo tanto, conduciendo a conclusiones empíricas creíbles y
reproducibles.

De cara al futuro, todavía hay varias áreas que pueden beneficiarse de un mayor desarrollo
metodológico. Un área destacada es la extrapolación de RD. Tener métodos más robustos para
extrapolar los efectos del tratamiento con DR reforzarían la validez externa de las conclusiones
extraídas de los diseños de DR, que de otro modo están limitados por la naturaleza local del
diseño. Tales métodos de extrapolación también ayudan en el diseño de políticas óptimas, un
tema que aún no ha sido explorado en la literatura sobre ER. Otra área fructífera es el diseño
experimental y la recopilación de datos en entornos de ER. Se está volviendo es más común
que los formuladores de políticas y los investigadores de la industria planifiquen los diseños de
RD ex ante, así como para diseñar la recopilación de datos ex-post aprovechando las
intervenciones de RD anteriores, a menudo en entornos de datos ricos. A un conjunto de
herramientas metodológicas dirigidas al diseño experimental en entornos de ER mejoraría la
práctica y también podría permitir una mejor extrapolación de los efectos del tratamiento de RD
a través de un diseño de muestreo basado en principios y recopilación de datos. Finalmente,
otra vía para la investigación futura está relacionada con la incorporación de métodos de
aprendizaje automático y de alta dimensión en entornos de RD. Tales mejoras metodológicas
pueden ayudar en el descubrimiento de principios de efectos heterogéneos del tratamiento, así
como en el desarrollo de métodos de estimación e inferencia más robustos en diseños de RD
multidimensionales.
Referencias
Abadie, A., and M. D. Cattaneo (2018): “Econometric Methods for Program
Evaluation,” Annual Review of Economics, 10, 465–503.
Angrist, J. D., and M. Rokkanen (2015): “Wanna Get Away? Regression
Discontinuity Estimation of Exam School Effects Away from the Cutoff,” Journal of the
American Statistical Association, 110(512), 1331–1344.
Arai, Y., Y. Hsu, T. Kitagawa, I. Mourifie, ´ and Y. Wan (2021): “Testing
Identifying Assumptions in Fuzzy Regression Discontinuity Designs,” Quantitative
Economics.
Arai, Y., and H. Ichimura (2016): “Optimal bandwidth selection for the fuzzy
regression discontinuity estimator,” Economic Letters, 141(1), 103–106.
(2018): “Simultaneous Selection of Optimal Bandwidths for the Sharp Regression
Discontinuity Estimator,” Quantitative Economics, 9(1), 441–482.
Arai, Y., T. Otsu, and M. H. Seo (2021): “Regression Discontinuity Design with
Potentially Many Covariates,” working paper.
Armstrong, T., and M. Kolesar (2020): “Simple and Honest Confidence Intervals
in Nonparametric Regression,” Quantitative Economics, 11(1), 1–39.
Babii, A., and R. Kumar (2021): “Isotonic Regression Discontinuity Designs,”
Journal of Econometrics.
Backus, G. E. (1989): “Confidence Set Inference with a Prior Quadratic Bound,”
Geophysical Journal International, 97(1), 119–150.
Bajari, P., H. Hong, M. Park, and R. Town (2011): “Regression Discontinuity
Designs with an Endogenous Forcing Variable and an Application to Contracting in
Health Care,” NBER Working Paper No. 17643.
Barreca, A. I., J. M. Lindo, and G. R. Waddell (2016): “Heaping-Induced Bias in
Regression-Discontinuity Designs,” Economic Inquiry, 54(1), 268–293.
Bartalotti, O., and Q. Brummet (2017): “Regression Discontinuity Designs with
Clustered Data,” in Regression Discontinuity Designs: Theory and Applications
(Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano,
pp. 383–420. Emerald Group Publishing.
Bartalotti, O., Q. Brummet, and S. Dieterle (2021): “A Correction for Regression
Discontinuity Designs with Group-specific Mismeasurement of the Running Variable,”
Journal of Business & Economic Statistics, 39(3), 833–848.
Bartalotti, O., G. Calhoun, and Y. He (2017): “Bootstrap Confidence Intervals for
Sharp Regression Discontinuity Designs,” in Regression Discontinuity Designs: Theory
and Applications (Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J.
C. Escanciano, pp. 421– 453. Emerald Group Publishing.

Bertanha, M. (2020): “Regression Discontinuity Design with Many Thresholds,”


Journal of Econometrics, 218(1), 216–241.
Bertanha, M., and G. W. Imbens (2020): “External Validity in Fuzzy Regression
Discontinuity Designs,” Journal of Business & Economic Statistics, 38(3), 593–612.
Black, S. E. (1999): “Do better schools matter? Parental valuation of elementary
education,” The quarterly journal of economics, 114(2), 577–599.
Blomquist, S., W. K. Newey, A. Kumar, and C.-Y. Liang (2021): “On Bunching
and Identification of the Taxable Income Elasticity,” Journal of Political Economy, 129(8),
2320– 2343.
Branson, Z., M. Rischard, L. Bornn, and L. W. Miratrix (2019): “A Nonparametric
Bayesian Methodology for Regression Discontinuity Designs,” Journal of Statistical
Planning and Inference, 202, 14–30
Bugni, F. A., and I. A. Canay (2021): “Testing Continuity of a Density via g-order
Statistics in the Regression Discontinuity Design,” Journal of Econometrics, 221(1), 138–
159.
Busse, M., J. Silva-Risso, and F. Zettelmeyer (2006): “$1,000 Cash Back: The
Pass-through of Auto Manufacturer Promotions,” American Economic Review, 96(4),
1253–1270.
Caetano, C., G. Caetano, and J. C. Escanciano (2021): “Regression
Discontinuity Design with Multivalued Treatments,” Working paper, Universidad Carlos
III
Calonico, S., M. D. Cattaneo, and M. H. Farrell (2018): “On the Effect of Bias
Estimation on Coverage Accuracy in Nonparametric Inference,” Journal of the American
Statistical Association, 113(522), 767–779.
(2020): “Optimal Bandwidth Choice for Robust Bias Corrected Inference in
Regression Discontinuity Designs,” Econometrics Journal, 23(2), 192–210.
(2021): “Coverage Error Optimal Confidence Intervals for Local Polynomial
Regression,” arXiv:1808.01398
Calonico, S., M. D. Cattaneo, M. H. Farrell, and R. Titiunik (2019): “Regression
Discontinuity Designs using Covariates,” Review of Economics and Statistics, 101(3),
442–451
Calonico, S., M. D. Cattaneo, and R. Titiunik (2014): “Robust Nonparametric
Confidence Intervals for Regression-Discontinuity Designs,” Econometrica, 82(6), 2295–
2326.
(2015): “Optimal Data-Driven Regression Discontinuity Plots,” Journal of the
American Statistical Association, 110(512), 1753–1769.
Canay, I. A., and V. Kamat (2018): “Approximate Permutation Tests and Induced
Order Statistics in the Regression Discontinuity Design,” Review of Economic Studies,
85(3), 1577– 1608.
Card, D., D. S. Lee, Z. Pei, and A. Weber (2015): “Inference on Causal Effects in
a Generalized Regression Kink Design,” Econometrica, 83(6), 2453–2483.
(2017): “Regression Kink Design: Theory and Practice,” in Regression
Discontinuity Designs: Theory and Applications (Advances in Econometrics, volume 38),
ed. by M. D. Cattaneo, and J. C. Escanciano, pp. 341–382. Emerald Group Publishing.
Card, D., A. Mas, and J. Rothstein (2008): “Tipping and the Dynamics of
Segregation,” Quarterly Journal of Economics, 123(1), 177–218.
Cattaneo, M. D., and J. C. Escanciano (2017): Regression Discontinuity Designs:
Theory and Applications (Advances in Econometrics, volume 38). Emerald Group
Publishing
Cattaneo, M. D., B. Frandsen, and R. Titiunik (2015): “Randomization Inference
in the Regression Discontinuity Design: An Application to Party Advantages in the U.S.
Senate,” Journal of Causal Inference, 3(1), 1–24
Cattaneo, M. D., N. Idrobo, and R. Titiunik (2020): A Practical Introduction to
Regression Discontinuity Designs: Foundations. Cambridge University Press.
(2021): A Practical Introduction to Regression Discontinuity Designs: Extensions.
Cambridge University Press (to appear).
Cattaneo, M. D., M. Jansson, and X. Ma (2020): “Simple Local Polynomial
Density Estimators,” Journal of the American Statistical Association, 115(531), 1449–
1455.
Cattaneo, M. D., L. Keele, and R. Titiunik (2021): “Covariate Adjustment in
Regression Discontinuity Designs,” in Handbook of Matching and Weighting in Causal
Inference, ed. by D. S. S. J. R. Zubizarreta, E. A. Stuart, and P. R. Rosenbaum.
Chapman & Hall.
Cattaneo, M. D., L. Keele, R. Titiunik, and G. Vazquez-Bare (2016): “Interpreting
Regression Discontinuity Designs with Multiple Cutoffs,” Journal of Politics, 78(4), 1229–
1248.
(2021): “Extrapolating Treatment Effects in Multi-Cutoff Regression Discontinuity
Designs,” Journal of the American Statistical Association, forthcoming.
Cattaneo, M. D., R. Titiunik, and G. Vazquez-Bare (2017): “Comparing Inference
Approaches for RD Designs: A Reexamination of the Effect of Head Start on Child
Mortality,” Journal of Policy Analysis and Management, 36(3), 643–681.
(2019): “Power Calculations for Regression Discontinuity Designs,” Stata Journal,
19(1), 210–245.
(2020): “The Regression Discontinuity Design,” in Handbook of Research
Methods in Political Science and International Relations, ed. by L. Curini, and R. J.
Franzese, chap. 44, pp. 835–857. Sage Publications.
Cattaneo, M. D., and G. Vazquez-Bare (2016): “The Choice of Neighborhood in
Regression Discontinuity Designs,” Observational Studies, 2, 134–146.
Cellini, S. R., F. Ferreira, and J. Rothstein (2010): “The Value of School Facility
Investments: Evidence from a Dynamic Regression Discontinuity Design,” Quarterly
Journal of Economics, 125(1), 215–261.
Cerulli, G., Y. Dong, A. Lewbel, and A. Poulsen (2017): “Testing Stability of
Regression Discontinuity Models,” in Regression Discontinuity Designs: Theory and
Applications (Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C.
Escanciano, pp. 317–339. Emerald Group Publishing.
Chaplin, D. D., T. D. Cook, J. Zurovac, J. S. Coopersmith, M. M. Finucane, L. N.
Vollmer, and R. E. Morris (2018): “The Internal and External Validity of the Regression
Discontinuity Design: A Meta-analysis of 15 Within-study Comparisons,” Journal of
Policy Analysis and Management, 37(2), 403–429.
Chen, H., H. D. Chiang, and Y. Sasaki (2020): “Quantile Treatment Effects in
Regression Kink Designs,” Econometric Theory, 36(6), 1167–1191.
Cheng, M.-Y., J. Fan, and J. S. Marron (1997): “On Automatic Boundary
Corrections,” Annals of Statistics, 25(4), 1691–1708.
Chiang, H. D., Y.-C. Hsu, and Y. Sasaki (2019): “Robust Uniform Inference for
Quantile Treatment Effects in Regression Discontinuity Designs,” Journal of
Econometrics, 211(2), 589– 618.
Chiang, H. D., and Y. Sasaki (2019): “Causal Inference by Quantile Regression
Kink Designs,” Journal of Econometrics, 210(2), 405–433.
Chib, S., and L. Jacobi (2016): “Bayesian Fuzzy Regression Discontinuity
Analysis and Returns to Compulsory Schooling,” Journal of Applied Econometrics, 31(6),
1026–1047.
Choi, J.-y., and M.-j. Lee (2018): “Relaxing Conditions for Local Average
Treatment Effect in Fuzzy Regression Discontinuity,” Economics Letters, 173, 47–50.
Cook, T. D. (2008): ““Waiting for Life to Arrive”: A history of the regression-
discontinuity design in Psychology, Statistics and Economics,” Journal of Econometrics,
142(2), 636–654.
Cook, T. D., and V. C. Wong (2008): “Empirical Tests of the Validity of the
Regression Discontinuity Design,” Annales d’Economie et de Statistique, 91/92, 127–
150.
Crespo, C. (2020): “Beyond Manipulation: Administrative Sorting in Regression
Discontinuity Designs,” Journal of Causal Inference, 8(1), 164–181.
Davezies, L., and T. Le Barbanchon (2017): “Regression Discontinuity Design
with Continuous Measurement Error in the Running Variable,” Journal of Econometrics,
200(2), 260–281.
De la Cuesta, B., and K. Imai (2016): “Misunderstandings About the Regression
Discontinuity Design in the Study of Close Elections,” Annual Review of Political
Science, 19, 375–396.
De Magalhaes, L., D. Hangartner, S. Hirvonen, J. Merilainen, N. A. Ruiz, ¨ and J.
Tukiainen (2020): “How Much Should We Trust Regression Discontinuity Design
Estimates? Evidence from Experimental Benchmarks of the Incumbency Advantage,”
SSRN working paper 3664069.
Dell, M. (2010): “The Persistent Effects of Peru’s Mining Mita,” Econometrica,
78(6), 1863–1903
Dong, Y. (2015): “Regression Discontinuity Applications with Rounding Errors in
the Running Variable,” Journal of Applied Econometrics, 30(3), 422–446.
(2018a): “Alternative Assumptions to Identify LATE in Fuzzy Regression
Discontinuity Designs,” Oxford Bulletin of Economics and Statistics, 80(5), 1020–1027.
(2018b): “Jump or Kink? Regression Probability Jump and Kink Design for
Treatment Effect Evaluation,” Working paper, UC-Irvine.
(2019): “Regression Discontinuity Designs with Sample Selection,” Journal of
Business & Economic Statistics, 37(1), 171–186.
Dong, Y., Y.-Y. Lee, and M. Gou (2021): “Regression Discontinuity Designs with
a Continuous Treatment,” Journal of the American Statistical Association, forthcoming.
Dong, Y., and A. Lewbel (2015): “Identifying the Effect of Changing the Policy
Threshold in Regression Discontinuity Models,” Review of Economics and Statistics,
97(5), 1081–1092.
Donoho, D. L. (1994): “Statistical Estimation and Optimal Recovery,” Annals of
Statistics, 22(1), 238–270.
Dowd, C. (2021): “Donuts and Distant CATEs: Derivative Bounds for RD
Extrapolation,” Working paper.
Eckles, D., N. Ignatiadis, S. Wager, and H. Wu (2021): “Noise-Induced
Randomization in Regression Discontinuity Designs,” arXiv:2004.09458.
Fan, J., and I. Gijbels (1996): Local Polynomial Modelling and Its Applications.
Chapman & Hall/CRC, New York.
Feir, D., T. Lemieux, and V. Marmer (2016): “Weak Identification in Fuzzy
Regression Discontinuity Designs,” Journal of Business & Economic Statistics, 34(2),
185–196.
Frandsen, B. (2017): “Party Bias in Union Representation Elections: Testing for
Manipulation in the Regression Discontinuity Design When the Running Variable is
Discrete,” in Regression Discontinuity Designs: Theory and Applications (Advances in
Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano, pp. 281–315.
Emerald Group Publishing.
Frandsen, B., M. Frolich, and B. Melly (2012): “Quantile Treatments Effects in the
Regression Discontinuity Design,” Journal of Econometrics, 168(2), 382–395.
Frolich, M., and M. Huber (2019): “Including Covariates in the Regression
Discontinuity Design,” Journal of Business & Economic Statistics, 37(4), 736–748.
Galiani, S., P. J. McEwan, and B. Quistorff (2017): “External and Internal Validity
of a Geographic Quasi-Experiment Embedded in a Cluster-Randomized Experiment,” in
Regression Discontinuity Designs: Theory and Applications (Advances in Econometrics,
volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano, pp. 195–236. Emerald Group
Publishing.
Ganong, P., and S. Jager ¨ (2018): “A Permutation Test for the Regression Kink
Design,” Journal of the American Statistical Association, 113(522), 494–504.
Gelman, A., J. B. Carlin, H. S. Stern, D. B. Dunson, A. Vehtari, and D. B. Rubin
(2013): Bayesian Data Analysis. CRC press.
Gelman, A., and G. W. Imbens (2019): “Why High-Order Polynomials Should Not
be Used in Regression Discontinuity Designs,” Journal of Business & Economic
Statistics, 37(3), 447–456.
Geneletti, S., A. G. O’Keeffe, L. D. Sharples, S. Richardson, and G. Baio (2015):
“Bayesian Regression Discontinuity Designs: Incorporating Clinical Knowledge in the
Causal Analysis of Primary Care Data,” Statistics in Medicine, 34(15), 2334–2352.
Gerard, F., M. Rokkanen, and C. Rothe (2020): “Bounds on Treatment Effects in
Regression Discontinuity Designs with a Manipulated Running Variable,” Quantitative
Economics, 11(3), 839–870.
Grembi, V., T. Nannicini, and U. Troiano (2016): “Do Fiscal Rules Matter? A
Differencein-Discontinuities Design,” American Economic Journal: Applied Economics,
8(3), 1–30.
Groeneboom, P., and G. Jongbloed (2014): Nonparametric Estimation under
Shape Constraints. Cambridge University Press.
Hahn, J., P. Todd, and W. van der Klaauw (2001): “Identification and Estimation
of Treatment Effects with a Regression-Discontinuity Design,” Econometrica, 69(1),
201–209.
Hartman, E. (2020): “Equivalence Testing for Regression Discontinuity Designs,”
Political Analysis.
Hausman, C., and D. S. Rapson (2018): “Regression Discontinuity in Time:
Considerations for Empirical Applications,” Annual Review of Resource Economics, 10,
533–552.
He, Y. (2018): “Three Essays on Regression Discontinuity Design and Partial
Identification,” Ph.D. thesis, Iowa State University.
He, Y., and O. Bartalotti (2020): “Wild Bootstrap for Fuzzy Regression
Discontinuity Designs: Obtaining Robust Bias-corrected Confidence Intervals,”
Econometrics Journal, 23(2), 211–231.
Hsu, Y.-C., and S. Shen (2019): “Testing Treatment Effect Heterogeneity in
Regression Discontinuity Designs,” Journal of Econometrics, 208(2), 468–486.
(2021a): “Dynamic Regression Discontinuity under Treatment Effect
Heterogeneity,” Working paper, UC-Davis.
(2021b): “Testing Monotonicity of Conditional Treatment Effects under
Regression Discontinuity Designs,” Journal of Applied Econometrics, 36(3), 346–366.
Huang, X., and Z. Zhan (2021): “Local Composite Quantile Regression for
Regression Discontinuity,” arXiv preprint arXiv:2009.03716.
Hyytinen, A., J. Merilainen, T. Saarimaa, O. Toivanen, ¨ and J. Tukiainen (2018):
“When Does Regression Discontinuity Design Work? Evidence from Random Election
Outcomes,” Quantitative Economics, 9(2), 1019–1051.
Imbens, G., and T. Lemieux (2008): “Regression Discontinuity Designs: A Guide
to Practice,” Journal of Econometrics, 142(2), 615–635.
Imbens, G., and S. Wager (2019): “Optimized Regression Discontinuity Designs,”
Review of Economics and Statistics, 101(2), 264–278.
Imbens, G. W., and K. Kalyanaraman (2012): “Optimal Bandwidth Choice for the
Regression Discontinuity Estimator,” Review of Economic Studies, 79(3), 933–959.
Imbens, G. W., and D. B. Rubin (2015): Causal Inference in Statistics, Social,
and Biomedical Sciences. Cambridge University Press.
Jales, H., J. Ma, and Z. Yu (2017): “Optimal Bandwidth Selection for Local Linear
Estimation of Discontinuity in Density,” Economics Letters, 153, 23–27.
Jales, H., and Z. Yu (2017): “Identification and Estimation using a Density
Discontinuity Approach,” in Regression Discontinuity Designs: Theory and Applications
(Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano,
pp. 29–72. Emerald Group Publishing.
Kamat, V. (2018): “On Nonparametric Inference in the Regression Discontinuity
Design,” Econometric Theory, 34(3), 694–703.
Karabatsos, G., and S. G. Walker (2015): “A Bayesian Nonparametric Causal
Model for Regression Discontinuity Designs,” in Nonparametric Bayesian inference in
biostatistics, pp. 403–421. Springer.
Keele, L. J., S. Lorch, M. Passarella, D. Small, and R. Titiunik (2017): “An
Overview of Geographically Discontinuous Treatment Assignments with an Application
to Children’s Health Insurance,” in Regression Discontinuity Designs: Theory and
Applications (Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C.
Escanciano, pp. 147–194. Emerald Group Publishing.
Keele, L. J., and R. Titiunik (2015): “Geographic Boundaries as Regression
Discontinuities,” Political Analysis, 23(1), 127–155.
Keele, L. J., R. Titiunik, and J. Zubizarreta (2015): “Enhancing a Geographic
Regression Discontinuity Design Through Matching to Estimate the Effect of Ballot
Initiatives on Voter Turnout,” Journal of the Royal Statistical Society: Series A, 178(1),
223–239.
Kleven, H. J. (2016): “Bunching,” Annual Review of Economics, 8, 435–464.
Kolesar, M., and C. Rothe (2018): “Inference in Regression Discontinuity Designs
with a Discrete Running Variable,” American Economic Review, 108(8), 2277–2304.
Lee, D. S. (2008): “Randomized Experiments from Non-random Selection in U.S.
House Elections,” Journal of Econometrics, 142(2), 675–697.
Lee, D. S., and D. Card (2008): “Regression Discontinuity Inference with
Specification Error,” Journal of Econometrics, 142(2), 655–674.
Lee, D. S., and T. Lemieux (2010): “Regression Discontinuity Designs in
Economics,” Journal of Economic Literature, 48(2), 281–355.
Lee, M.-J. (2017): “Regression Discontinuity with Errors in the Running Variable:
Effect on Truthful Margin,” Journal of Econometric Methods, 6(1).
Li, F., A. Mattei, and F. Mealli (2015): “Evaluating the Causal Effect of University
Grants on Student Dropout: Evidence from a Regression Discontinuity Design using
Principal Stratification,” Annals of Applied Statistics, 9(4), 1906–1931.
Ludwig, J., and D. L. Miller (2007): “Does Head Start Improve Children’s Life
Chances? Evidence from a Regression Discontinuity Design,” Quarterly Journal of
Economics, 122(1), 159–208.
Lv, X., X.-R. Sun, Y. Lu, and R. Li (2019): “Nonparametric Identification and
Estimation of Dynamic Treatment Effects for Survival Data in a Regression Discontinuity
Design,” Economics Letters, 184, 108665.
Ma, J., H. Jales, and Z. Yu (2020): “Minimum Contrast Empirical Likelihood
Inference of Discontinuity in Density,” Journal of Business & Economic Statistics, 38(4),
934–950.
Ma, J., and Z. Yu (2020): “Coverage Optimal Empirical Likelihood Inference for
Regression Discontinuity Design,” arXiv preprint arXiv:2008.09263.
Matzkin, R. L. (2013): “Nonparametric Identification in Structural Economic
Models,” Annual Review of Economics, 5, 457–486.
McCrary, J. (2008): “Manipulation of the Running Variable in the Regression
Discontinuity Design: A Density Test,” Journal of Econometrics, 142(2), 698–714.
Mealli, F., and C. Rampichini (2012): “Evaluating the Effects of University Grants
by Using Regression Discontinuity Designs,” Journal of the Royal Statistical Society:
Series A (Statistics in Society), 175(3), 775–798.
Mukherjee, D., M. Banerjee, and Y. Ritov (2021): “Regression Discontinuity
Design: Estimating the Treatment Effect with Standard Parametric Rate,” arXiv preprint
arXiv:2102.11229.
Otsu, T., K.-L. Xu, and Y. Matsushita (2013): “Estimation and inference of
discontinuity in density,” Journal of Business & Economic Statistics, 31(4), 507–524.
(2015): “Empirical Likelihood for Regression Discontinuity Design,” Journal of
Econometrics, 186(1), 94–112.
Owen, A. B. (2001): Empirical likelihood. Chapman and Hall/CRC.
Owen, A. B., and H. Varian (2020): “Optimizing the Tie-breaker Regression
Discontinuity Design,” Electronic Journal of Statistics, 14(2), 4004–4027.
Papay, J. P., J. B. Willett, and R. J. Murnane (2011): “Extending the regression
discontinuity approach to multiple assignment variables,” Journal of Econometrics,
161(2), 203– 207.
Pei, Z., D. S. Lee, D. Card, and A. Weber (2021): “Local Polynomial Order in
Regression Discontinuity Designs,” Journal of Business & Economic Statistics, 31(4),
507–524.
Pei, Z., and Y. Shen (2017): “The Devil is in the Tails: Regression Discontinuity
Design with Measurement Error in the Assignment Variable,” in Regression Discontinuity
Designs: Theory and Applications (Advances in Econometrics, volume 38), ed. by M. D.
Cattaneo, and J. C. Escanciano, pp. 455–502. Emerald Group Publishing.
Peng, S., and Y. Ning (2021): “Regression Discontinuity Design under Self-
selection,” in International Conference on Artificial Intelligence and Statistics, pp. 118–
126. PMLR.
Porter, J. (2003): “Estimation in the Regression Discontinuity Model,” working
paper, University of Wisconsin.
Porter, J., and P. Yu (2015): “Regression Discontinuity Designs with Unknown
Discontinuity Points: Testing and Estimation,” Journal of Econometrics, 189(1), 132–147.
Qu, Z., and J. Yoon (2019): “Uniform Inference on Quantile Effects under Sharp
Regression Discontinuity Designs,” Journal of Business & Economic Statistics, 37(4),
625–647.
Reardon, S. F., and J. P. Robinson (2012): “Regression Discontinuity Designs
with Multiple Rating-Score Variables,” Journal of Research on Educational
Effectiveness, 5(1), 83–104.
Rokkanen, M. (2015): “Exam Schools, Ability, and the Effects of Affirmative
Action: Latent Factor Extrapolation in the Regression Discontinuity Design,” Unpublished
manuscript.
Rosenbaum, P. R. (2010): Design of Observational Studies. Springer, New York.
Schochet, P. Z. (2009): “Statistical Power for Regression Discontinuity Designs in
Education Evaluations,” Journal of Educational and Behavioral Statistics, 34(2), 238–
266.
Sekhon, J. S., and R. Titiunik (2016): “Understanding Regression Discontinuity
Designs as Observational Studies,” Observational Studies, 2, 174–182.
(2017): “On Interpreting the Regression Discontinuity Design as a Local
Experiment,” in Regression Discontinuity Designs: Theory and Applications (Advances in
Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano, pp. 1–28.
Emerald Group Publishing.
Shen, S., and X. Zhang (2016): “Distributional Tests for Regression Discontinuity:
Theory and Empirical Examples,” Review of Economics and Statistics, 98(4), 685–700.
Sun, Y. (2005): “Adaptive Estimation of the Regression Discontinuity Model,”
working paper, UCSD.
Thistlethwaite, D. L., and D. T. Campbell (1960): “Regression-Discontinuity
Analysis: An Alternative to the Ex-Post Facto Experiment,” Journal of Educational
Psychology, 51(6), 309– 317.
Titiunik, R. (2021): “Natural Experiments,” in Advances in Experimental Political
Science, ed. by J. N. Druckman, and D. P. Gree, chap. 6, pp. 103–129. Cambridge
University Press.
Tuvaandorj, P. (2020): “Regression Discontinuity Designs, White Noise Models,
and Minimax,” Journal of Econometrics, 218(2), 587–608.
Urquiola, M., and E. Verhoogen (2009): “Class-size caps., sorting, and the
regression discontinuity design,” American Economic Review, 99(1), 179–215.
van der Klaauw, W. (2008): “Regression–Discontinuity Analysis: a Survey of
Recent Developments in Economics,” Labour, 22(2), 219–245.
Wing, C., and T. D. Cook (2013): “Strengthening the Regression Discontinuity
Design Using Additional Design Elements: A Within-Study Comparison,” Journal of
Policy Analysis and Management, 32(4), 853–877.
Wong, V. C., P. M. Steiner, and T. D. Cook (2013): “Analyzing Regression-
Discontinuity Designs With Multiple Assignment Variables: A Comparative Study of Four
Estimation Methods,” Journal of Educational and Behavioral Statistics, 38(2), 107–141.
Xu, K.-L. (2017): “Regression Discontinuity with Categorical Outcomes,” Journal
of Econometrics, 201(1), 1–18.
(2018): “A Semi-Nonparametric Estimator of Regression Discontinuity Design
with Discrete Duration Outcomes,” Journal of Econometrics, 206(1), 258–278.

También podría gustarte