Documentos de Académico
Documentos de Profesional
Documentos de Cultura
24 de agosto de 2021
Abstracto
El diseño de regresión discontinua (RD) es uno de los métodos no experimentales más
utilizados para la inferencia causal y la evaluación de programas. Durante las últimas dos
décadas, estadísticas y los métodos econométricos para el análisis de RD se han expandido y
madurado, y ahora hay un gran número de resultados metodológicos para la identificación,
estimación, inferencia y validación de DR. Ofrecemos una revisión comisariada de esta
literatura metodológica organizada en torno a los dos marcos populares para el análisis e
interpretación de diseños de RD: el marco de continuidad y el marco de aleatorización local.
Para cada marco, discutimos tres áreas principales: (i) diseños y parámetros, que se centra en
diferentes tipos de entornos de RD y los efectos del tratamiento de interesar; (ii) estimación e
inferencia, que presenta los métodos más populares basados en regresión polinomial y análisis
de experimentos, así como refinamientos, extensiones y otros métodos; y (iii) validación y
falsificación, que resume una serie de enfoques para apoyar la validez de los diseños de RD en
la práctica.
1 Introducción 1
2 Diseños y parámetros 2
2.4 Extrapolación…………………………………………………………………………………………………………...12
3 Estimación e inferencia 15
4 Validación y Falsificación 31
5. Conclusión 35
1. Introducción
El diseño de regresión discontinua (RD) fue introducido por Thistlethwaite y Campbell (1960)
como un "método para probar hipótesis causales" (p. 317) en entornos donde la asignación
aleatoria del tratamiento no está disponible. El diseño es aplicable en situaciones en las que las
unidades reciben una puntuación y una el tratamiento se asigna sobre la base de una regla
específica que vincula la puntuación con un límite conocido: las unidades cuya puntuación está
por encima del límite se asignan a la condición de tratamiento, mientras que todas las
puntuaciones están por debajo del límite se asignan a la condición de control. Bajo supuestos
apropiados, el cambio discontinuo en la probabilidad de recibir tratamiento en el punto de corte
se puede utilizar para aprender sobre los efectos causales del tratamiento sobre un resultado
de interés.
Aunque se pasó por alto al principio, el diseño de RD se ha convertido en uno de los métodos
no experimentales más creíbles. métodos de inferencia causal y evaluación de programas.
Ofrecemos una revisión comisariada de la literatura metodológica sobre el análisis y la
interpretación de diseños de DR, proporcionando una actualización sobre anteriores artículos
de revisión en economía (van der Klaauw, 2008; Cook, 2008; Imbens y Lemieux, 2008; Lee y
Lemieux, 2010). Nuestra discusión pretende ser integral en términos de aspectos conceptuales
y metodológicos, pero omite detalles técnicos, que están disponibles en las referencias
específicas que damos. Para cada tema. También discutimos ideas generales sobre la
implementación, pero para un compañero en profundidad guías metodológicas para la práctica
ver Cattaneo, Idrobo y Titiunik (2020, 2021).
Organizamos nuestra revisión en tres partes principales. La sección 2 presenta los tipos de
diseños de RD más que se encuentran comúnmente en la práctica, y también se analizan
brevemente otros diseños de investigación similares a los de ER. Esta sección se centra en la
identificabilidad (Matzkin, 2013) de los principales efectos del tratamiento de interés en cada
configuración y, por lo tanto, se basa en restricciones básicas sobre el proceso de generación
de datos subyacente: el modelo estadístico asumido para generar los datos. Utilizando la
taxonomía propuesta por Cattaneo, Titiunik y Vazquez-Bare (2017), consideramos dos marcos
conceptuales distintos para los diseños de RD: el marco de continuidad, que se basa en
argumentos limitantes a través de ideas de regresión local, y el marco de aleatorización local,
que se basa en ideas del análisis de experimentos. Usando ambas estructuras,
proporcionamos una descripción general de la configuración de RD canónica (nítida y difusa),
multidimensionales diseños de RD (corte múltiple, multi-puntuación, geográficos, múltiples
tratamientos y diseños que varían en el tiempo), y otros diseños relacionados, como los
diseños de retorcimiento, agrupamiento, antes y después y regresión de umbral. También
discutimos cuestiones de validez interna versus externa en el contexto de los diseños de RD, y
una descripción general de métodos de extrapolación de los efectos del tratamiento con RD.
En la segunda parte, Sección 3, nos enfocamos en los métodos de estimación e inferencia para
diseños de RD, presentando los dos enfoques más comunes: métodos de regresión polinomial
local (Fan y Gijbels,1996), que están naturalmente motivados por el marco de continuidad y el
análisis de experimentos métodos (Rosenbaum, 2010; Imbens y Rubin, 2015; Abadie y
Cattaneo, 2018), que son naturalmente motivado por el marco de aleatorización local. Para
completar, también resumimos refinamientos, extensiones y otros métodos que se han
propuesto en la literatura a lo largo de los años. Sobre la base de los dos métodos canónicos
de estimación e inferencia para los diseños de RD, presentamos una descripción general de la
aplicabilidad de esos métodos cuando la puntuación tiene un apoyo discreto, ya sea con pocos
o muchos distintos valores. Para cerrar la Sección 3, discutimos los cálculos de potencia para
el diseño experimental en entornos de RD, un tema que ha recibido una renovada atención
entre los profesionales.
2 Diseños y Parámetros
El diseño de RD se define por tres componentes clave: una puntuación, un punto de corte y un
tratamiento discontinuo - regla de asignación: se relacionan entre sí de la siguiente manera: a
todas las unidades del estudio se les asigna un valor de la puntuación (también llamada
variable corriente o índice), y el tratamiento se asigna a las unidades cuyo valor de puntuación
excede un límite conocido (también llamado umbral), mientras que no se asigna a aquellas
unidades cuyo valor de la puntuación está por debajo del límite. La característica distintiva del
diseño de RD es que la probabilidad de la asignación de tratamiento cambia de cero a uno en
el punto de corte, y este cambio abrupto en la probabilidad de ser asignado al tratamiento
induce un cambio abrupto (posiblemente más pequeño) en la probabilidad de recibir
tratamiento en el punto de corte. Bajo supuestos formales que garantizan la "comparabilidad"
de las unidades de tratamiento y control en o cerca del punto de corte, el cambio discontinuo en
la probabilidad de recibir tratamiento se puede utilizar para conocer los efectos causales del
tratamiento en los resultados de interés por las unidades con puntajes en o cerca del límite,
porque las unidades con puntajes apenas por debajo del límite se puede usar como grupo de
comparación (o control) para unidades con puntajes apenas por encima. La amenaza más
importante para cualquier diseño de RD es la posibilidad de que las unidades sean capaces de
realizar de manera estratégica y precisa cambiar su puntaje para ser asignado a su condición
de tratamiento preferida (Lee, 2008; McCrary, 2008), que podrían inducir un cambio discontinuo
en sus características observables y/o no observables en el punto de corte o cerca de él y, por
lo tanto, se confunden las conclusiones causales.
Hahn, Todd y van der Klaauw (2001) introdujeron el marco de continuidad para las
Diseños RD. En este marco, los resultados potenciales se toman como variables aleatorias,
con n unidades de análisis que forman una muestra (aleatoria) de una población subyacente, y
la puntuación X i es se supone que se distribuye continuamente. Centrándose en los efectos
promedio del tratamiento, la clave de identificación el supuesto es que las funciones de
regresión E [Y i (0) | X i = x] y E [Y i (1) | X i = x] son continuas en x en c. Esta suposición captura
la idea de que las unidades están apenas "por debajo" y "por encima" del límite c exhibiría la
misma respuesta promedio si su estado de tratamiento no cambiara. Entonces por implicación,
cualquier diferencia entre la respuesta promedio de las unidades tratadas y de control en el
punto de corte puede atribuirse al efecto causal promedio del tratamiento en el punto de corte,
es decir, para las unidades con variable de puntuación X i = c.
Formalmente, dentro del marco basado en la continuidad, el efecto canónico del tratamiento de
ER es
que se representa gráficamente en la Figura (1a). La primera igualdad en (1) es la definición del
parámetro clásico de Sharp RD, mientras que la segunda igualdad es el resultado de
identificación clave basado en la continuidad porque vincula características de la distribución de
resultados potenciales con características de la distribución de los resultados observados, a
través de un argumento de continuidad. El resultado afirma que el tratamiento agudo de RD El
efecto es identificable como la distancia vertical en el límite entre las dos expectativas
condicionales, limx ↑ c E [Y i | X i = x] y limx ↓ c E [ Y i | X i = x], que se puede estimar a partir de
los datos (Sección 3.2).
1
N w i ,∑
T SRD = E [ Y i ( 1 ) −Y i(0)| X i ∈ W ]
X , ϵW
Esta notación permite resultados potenciales tanto aleatorios como no aleatorios, así como
también o innumerables poblaciones subyacentes, que se adaptan a los pescadores, Neyman y
entornos de superpoblación. El estimado T SLR es identificable y puede estimarse como una
diferencia de medias entre unidades de control y tratamiento con puntuaciones X i ∈ W, o
mediante ajustes de regresión local. Mira la sección 3.3 para más detalles.
lim ¿x ↑ c E [ Y i| X i=x ]
T FRD =lim ¿ x ↓c E [ Y i| X i=x ]− ¿¿
lim ¿ x ↓ c E [ D i| X i=x ]−lim ¿ x↑ c E [ D i| X i=x ] ¿ ¿
1 1
NW ∑ I ; X , ∈W , X ≥ { Yi|Xi ∈W , Xi ≥ c }−
NW ∑
i ; Xi ∈ W , X ,< c E {Yi| Xi ∈W , Xi<c }
τ FLR =
1 1
NW
∑ I ; X , ∈W , X ≥ { Yi|Xi ∈W , Xi ≥ c }−
NW
∑ i ; Xi ∈ W , X ,< c E {Yi|Xi ∈W , Xi<c }
donde NW denota el número de unidades de control dentro de la ventana W, y NW += NW - NW -.
Papay, Willett y Murnane (2011) introdujeron el diseño de RD de puntaje múltiple; ver también
Reardon y Robinson (2012) y Wong, Steiner y Cook (2013). En su versión más general, el
diseño de RD de MultiScore incluye dos o más puntuaciones asignando unidades a un rango
de tratamiento diferente condiciones, pero una configuración más común es aquella en la que
la puntuación es multidimensional pero el tratamiento sigue siendo binario. Por ejemplo, es
posible que los estudiantes deban realizar un examen de idioma y un examen de matemáticas,
y obtener una calificación lo suficientemente alta en ambos exámenes para ser admitido en una
escuela. En tal bidimensional ejemplo, la puntuación es el vector X i = ( X 1 i , X 2 i ), el corte es el
vector c = (c1, c2), y la regla de asignación de tratamiento es Di = 1 ( X 1 i ≥ c1) 1 ( X 2 i ≥ c2). Esta
regla muestra que hay maneras potencialmente infinitas para que una unidad sea apenas
tratada o apenas controlada, es decir, hay infinitas muchos puntos en los que la asignación de
tratamiento salta de forma discontinua de cero a uno, lo que lleva a la definición de una curva
de efecto de tratamiento. Esta idea se generaliza a dimensiones superiores.
Los diseños de RD tanto de Multi-Score como de Multi-Cutoff ofrecen una rica clase de efectos
de tratamiento de RD. Para una curva de límite de asignación de tratamiento dada (en el diseño
RD de puntaje múltiple) o cada valor de corte (en el diseño RD corte múltiple), se puede definir
un efecto de tratamiento RD Sharp o Fuzzy, usando ya sea los marcos de continuidad o
aleatorización local. Además, es una práctica común normalizar y agrupar los datos a lo largo
de la curva de límite de asignación de tratamiento o el corte múltiple valores con el fin de
considerar un único efecto del tratamiento DR combinado. Keele y Titiunik (2015) y Cattaneo,
Keele, Titiunik y Vazquez-Bare (2016) discuten un vínculo causal entre los normalizados y el
efecto del tratamiento DR combinado y los efectos del tratamiento DR a lo largo de la curva de
asignación del tratamiento o en múltiples puntos de corte. Ver Cattaneo, Idrobo y Titiunik (2021)
para una introducción práctica a Métodos de diseño RD Multi-Score y Multi-Cutoff. Además de
los diseños RD Multi-Cutoff y Multi-Score, existen varios otros tipos de Diseños RD con
características multidimensionales. Dong, Lee y Gou (2021) consideran un diseño RD con un
tratamiento continuo (en lugar de binario o multivalor), dentro del marco de continuidad, y
mostrar que los efectos causales del RD pueden identificarse en función de los cambios en la
distribución de probabilidad del tratamiento continuo en el punto de corte. Caetano, Caetano y
Escanciano (2021) investigan Identificación basada en la continuidad de los efectos causales
del RD donde el tratamiento es multivalor con finito apoyo. Grembi, Nannicini y Troiano (2016)
introducen una segunda dimensión al diseño de RD en una configuración donde hay dos
períodos de tiempo, y discutir la identificación basada en la continuidad del tratamiento de RD
efectos a lo largo de los dos períodos, en un diseño que llaman diseño de diferencias en
discontinuidades, basándose en ideas del diseño de diferencias en diferencias en la evaluación
de programas (Abadie y Cattaneo, 2018). Cellini, Ferreira y Rothstein (2010) consideran un tipo
diferente de multidimensionalidad inducida por un contexto dinámico en el que el diseño de RD
ocurre en múltiples períodos para las mismas unidades y la puntuación se vuelve a dibujar en
cada período para que una unidad pueda asignarse al tratamiento en un período, pero el
control en periodos futuros; ver también Hsu y Shen (2021a) para un análisis econométrico de
un diseño de RD dinámico dentro del marco basado en la continuidad. Lv, Sun, Lu y Li (2019)
consideran la generalización del diseño de RD a la configuración de datos de supervivencia,
donde el tratamiento se asigna como máximo una vez por unidad y el resultado de interés es el
tiempo de supervivencia de las unidades en un estado particular, que puede ser censurado. Xu
(2018) también estudia un diseño de DR con resultados de duración, pero asume que los
resultados tienen resultados discretos apoyo.
2.4 Extrapolación
Los diseños de DR ofrecen una identificación creíble de los efectos del tratamiento en o cerca
del punto de corte, a través de marcos de continuidad o aleatorización local, a menudo con una
validez interna superior en relación con la mayoría otros métodos de observación. Sin embargo,
una limitación importante de los diseños de RD es que tienen baja validez externa. En ausencia
de supuestos adicionales, no es posible aprender sobre efectos del tratamiento fuera del punto
de corte, es decir, para extrapolar el efecto del tratamiento. En el diseño Sharp RD basado en
la continuidad, por ejemplo, el efecto de tratamiento promedio en el punto de corte es T SRD =
T SRD (c) con T SRD (x) = E [Y i (1) - Y i (0) | X i = x]. Sin embargo, los investigadores y los
responsables de la formulación de políticas pueden también estar interesado en los efectos
promedio del tratamiento en otros valores de la variable de puntuación, como T SRD (x) para x
diferentes (y posiblemente lejos) de c, que no están disponibles de inmediato. En los últimos
años, se han propuesto varios enfoques para permitir una extrapolación válida de las ER
efectos del tratamiento. En el contexto de diseños nítidos, Mealli y Rampichini (2012) y Wing y
Cook (2013) se basan en una medida externa previa a la intervención de la variable de
resultado y emplean métodos paramétricos para imputar las diferencias de control tratado del
resultado posterior a la intervención por encima del límite. Estudio de Dong y Lewbel (2015) y
Cerulli, Dong, Lewbel y Poulsen (2017) métodos de extrapolación local a través de derivados
del efecto de tratamiento promedio de RD en el marco basado en la continuidad, mientras que
Angrist y Rokkanen (2015) emplean covariables de pre intervención en una condición de
ignorabilidad condicional dentro de un marco de aleatorización local. Rokkanen (2015) se basa
en múltiples medidas de la puntuación, que se supone que capturan un factor latente común, y
emplea ideas de un marco de aleatorización local para extrapolar los efectos del tratamiento de
RD lejos del punto de corte asumiendo que los resultados potenciales son condicionalmente
independientes de las medidas disponibles dado el factor latente. En el contexto de los diseños
difusos basados en la continuidad, Bertanha e Imbens (2020) explotan la variación en la
asignación de tratamiento generada por imperfecciones Cumplimiento del tratamiento que
impone la independencia entre los resultados potenciales y los tipos de cumplimiento para
extrapolar los efectos promedio del tratamiento con RD.
Finalmente, existe una literatura que investiga la relación entre los diseños de DR y los
experimentos aleatorios y discute la relación entre los efectos de DR locales y más generales
parámetros. Por ejemplo, Cook y Wong (2008) informan de un estudio de tres diseños
empíricos de DR y cómo se comparan con los puntos de referencia experimentales creados por
experimentos aleatorios de la misma intervención. Véase Chaplin, Cook, Zurovac,
Coopersmith, Finucane, Vollmer y Morris (2018), Hyytinen, Meril¨ainen, Saarimaa, Toivanen y
Tukiainen (2018), y De Magalhaes, Hangartner, Hirvonen, Meril¨ainen, Ruiz y Tukiainen (2020)
para obtener resultados más recientes sobre la recuperación de ER de benchmarks
experimentales.
Card, Lee, Pei y Weber (2015, 2017) presentan el diseño de regresión torcedura (RK).
Canónico y los diseños de DR generalizados asumen una discontinuidad en la regla de
asignación de tratamiento, lo que lleva a un salto discontinuo en la probabilidad de recibir
tratamiento en el punto de corte. En contraste, en un RK diseño no existe tal salto discontinuo;
en cambio, se supone que la regla de política tiene un problema en la relación entre la política
(o tratamiento) y la puntuación en un punto de corte conocido (también conocido como el punto
de torsión). Tales problemas surgen naturalmente en las ciencias sociales y del
comportamiento, como cuando un programa de impuestos o beneficios es una función lineal
por partes de los ingresos de referencia. La idea central en el diseño RK es examinar la
pendiente de la relación condicional entre el resultado y la puntuación en el punto de inflexión
en la fórmula de la política. Chiang y Sasaki (2019) amplían esta idea a efectos del tratamiento
cuantílico. Véase también Dong (2018b) para una discusión relacionada. Desde el punto de
vista de implementación, estimación e inferencia de los efectos del tratamiento de torceduras
es equivalente a estimar efectos del tratamiento RD para derivadas de funciones de regresión.
En la estimación e inferencia de RD literatura, estimaciones genéricas definidas como
diferencias de primeras derivadas de funciones de regresión en el corte, o proporciones de los
mismos, se denominan diseños Kink RD (por ejemplo, Calonico, Cattaneo y Titiunik, 2014,
Secciones 3.1 y 3.3).
Otra área con conexiones interesantes con el diseño de RD es la literatura sobre agrupamiento
y discontinuidades de densidad (Kleven, 2016; Jales y Yu, 2017). En este escenario, los
objetos de interés están relacionados con discontinuidades y otros cambios bruscos en las
funciones de densidad de probabilidad, generalmente motivados por modelos económicos o de
comportamiento. Estos modelos suelen aprovechar las discontinuidades en la asignación de
tratamiento o las reglas de la política, como los diseños de RD o RK, pero se centran en
estimaciones que están fuera del soporte de los datos observados. Como consecuencia, la
identificación (así como estimación e inferencia) requiere supuestos de modelado paramétrico
adicionales que se invocan para fines de extrapolación. Ver Blomquist, Newey, Kumar y Liang
(2021) para una discusión de identificación no paramétrica en situaciones de agrupamiento y
discontinuidades de densidad.
Los estudios de antes y después (o eventos) también se describen a veces como "diseños de
RD en el tiempo", donde el índice de tiempo se toma como variable de puntuación y el análisis
se realiza utilizando métodos de RD (Hausman y Rapson, 2018). Si bien es difícil conciliar esos
estudios de eventos como RD tradicional diseños en general, el marco de RD de aleatorización
local a veces se puede adaptar y utilizar analizar los diseños de RD a tiempo (consulte las
Secciones 3.3 y 3.5 para obtener más información). Otro tipo RD, Por ejemplo, Porter y Yu
(2015), que consideran los entornos donde el límite en una regla de asignación es desconocido
y debe estimarse a partir de los datos, un problema que puede ocurrir, por ejemplo, cuando
preferencias desconocidas generan puntos de inflexión donde el comportamiento cambia de
manera discontinua (Card, Mas, y Rothstein, 2008).
3 Estimación e inferencia
Ahora discutimos los métodos para el análisis de RD, centrándonos en la aleatorización local y
basada en la continuidad. enfoques por separado. Antes de presentar los métodos formales de
estimación e inferencia, brevemente discutir cómo presentar visualmente el diseño de RD
utilizando una combinación de técnicas globales y locales.
Cada ingrediente juega un papel diferente. Los dos ajustes polinomiales globales están
diseñados para mostrar una aproximación global suave de las funciones de regresión que da
una idea de su forma general, para ejemplo, para ver si están aumentando o disminuyendo en
x, o si hay no linealidades. La estrategia típica es ajustar un polinomio de orden cuatro, pero
esto debe modificarse según sea necesario. Los medios locales se construyen dividiendo el
soporte de la partitura en contenedores separados, y calcular los promedios de la muestra del
resultado para cada contenedor, utilizando solo observaciones cuyo valor de puntuación cae
dentro de ese contenedor; cada media local se traza contra el punto medio del contenedor. En
contraste con el global ajuste, los medios locales están destinados a dar un sentido del
comportamiento local de la función de regresión. En este sentido, al representar
simultáneamente dos representaciones de la función de regresión, una suave (el ajuste
polinomial global) y el otro discontinuo (las medias locales), la gráfica RD proporciona rica
información sobre los datos generales subyacentes al diseño de RD. Calonico, Cattaneo y
Titiunik (2015) proponen métodos para implementar gráficos de RD de una manera disciplinada
y basada en datos, y Cattaneo, Idrobo y Titiunik (2020, Sección 3) ofrecen una introducción a
RD Plots. Además, vea Pei, Lee, Card y Weber (2021) para una discusión sobre cómo elegir
órdenes polinomiales en diseños de RD, que podrían usarse para mejorar aún más la
implementación de RD Plots.
Los métodos polinomiales locales son preferibles a los métodos polinomiales globales porque,
como se mencionó anterior, evitan varios de los problemas metodológicos creados por el uso
de polinomios globales como comportamiento errático cerca de los puntos límite (fenómeno de
Runge), ponderación contraria a la intuición, sobreajuste y falta general de robustez. El análisis
de polinomios locales para diseños de RD se implementa ajustando Y i en un polinomio de
orden inferior expansión de X i , por separado para las observaciones tratadas y de control, y en
cada caso utilizando sólo observaciones cercanas al punto de corte en lugar de todas las
observaciones disponibles, según lo determinado por la elección de una función del núcleo y un
parámetro de ancho de banda. La implementación requiere cuatro pasos. Primero, elige el
orden polinomial p y el esquema de ponderación o función del núcleo K (·). Segundo, dadas las
opciones de p y K (·), elija un ancho de banda h que determine una vecindad alrededor del
límite de modo que solo las observaciones con puntajes dentro de ese vecindario se incluyen
en la estimación. En tercer lugar, dado las opciones de p, K (·) y h, construyen estimadores
puntuales utilizando métodos estándar de mínimos cuadrados. Cuatro, Dados los pasos
anteriores, realice una inferencia estadística válida para el parámetro RD de interés. Nosotros
discutamos estos pasos con más detalle en el resto de esta subsección, centrándose en
metodologías aspectos.
El orden del polinomio debe ser siempre bajo, para evitar sobreajustes y comportamientos
erráticos. cerca del punto de corte. La recomendación predeterminada es p = 1 (regresión lineal
local), pero p = 2 (regresión cuadrática local) o p = 3 (regresión cúbica local) también son
opciones razonables en algunos escenarios empíricos. Consulte Pei, Lee, Card y Weber (2021)
para conocer una opción basada en datos de p ∈ {0, 1, 2, 3} basado en minimizar el error
cuadrático medio asintótico (MSE) del estimador puntual RD. La elección de núcleo, K (·),
asigna diferentes pesos para diferentes observaciones de acuerdo con la proximidad de la
puntuación de cada observación hasta el punto de corte. Las opciones comunes son un núcleo
triangular que asigna pesos que son más altos en el punto de corte y disminuyen linealmente
para los valores de la puntuación fuera de la corte, y un núcleo uniforme que asigna a todas las
observaciones el mismo peso. El núcleo triangular tiene una propiedad de optimización de MSE
de estimación puntual cuando se combina con un ancho de banda óptimo de MSE elección
(discutida a continuación), mientras que el núcleo uniforme tiene una propiedad de optimización
de inferencia (es decir, minimiza la varianza asintótica del estimador polinomial local y, por lo
tanto, la longitud del intervalo de los intervalos de confianza comúnmente utilizados). Ambas
opciones de función del núcleo son razonables, aunque en la práctica, el núcleo triangular
suele ser el predeterminado.
Una vez que se han seleccionado p y K (·), el investigador debe elegir el ancho de banda.
Cuando una se elige un valor particular de h, esto significa que el ajuste polinomial solo usará
observaciones tales que Xi ∈ [c − h, c + h], ya que las funciones del núcleo utilizadas en los
diseños de RD siempre son compatibles con el formato compacto. La notación asume que se
usa el mismo ancho de banda h tanto por encima como por debajo del límite para simplicidad,
pero se han propuesto varios enfoques para acomodar distintos anchos de banda para grupos
de control y tratamiento. La elección del ancho de banda es fundamental porque los resultados
empíricos son generalmente sensibles a los cambios en este parámetro de ajuste y, por lo
tanto, la elección del ancho de banda en Se desaconseja una manera arbitraria. En cambio, la
recomendación es siempre utilizar un sistema basado en datos procedimiento que es óptimo
para un criterio dado, que conduce a una transparencia, principios y objetivos elección de
implementación que, en última instancia, elimina la discreción del investigador. Tremendo
acercamiento para ajustar la selección de parámetros mejora la replicabilidad y reduce el
potencial de p-hacking en trabajo empírico.
Imbens y Kalyanaraman (2012) propusieron por primera vez elegir h para minimizar una
aproximación de primer orden al MSE del estimador puntual RD, lo que lleva a una elección de
ancho de banda óptimo para MSE. Para la implementación, utilizan una regla de complemento
de primera generación, donde cantidades desconocidas en la fórmula de ancho de banda
óptimo de MSE se reemplaza por estimadores inconsistentes. Calonico, Cattaneo, y Titiunik
(2014) posteriormente obtuvieron expansiones de MSE más generales y ancho de banda
óptimo de MSE opciones, que se implementan utilizando una regla de complemento de
segunda generación (es decir, cantidades desconocidas en la fórmula de ancho de banda
óptimo de MSE se reemplazan por estimadores consistentes de los mismos). Calonico,
Cattaneo y Farrell (2020) adoptan un enfoque diferente y desarrollan opciones óptimas de
ancho de banda para inferencia: sus opciones de ancho de banda propuestas o (i) minimizar el
error de cobertura (CE) de los intervalos de confianza o (ii) compensar óptimamente el error de
cobertura y la longitud de los intervalos de confianza. La elección de ancho de banda CE
óptima también se puede interpretar como óptima para reducir los errores de orden superior en
la aproximación distributiva utilizada para la inferencia estadística polinomial local. Cattaneo y
Vazquez-Bare (2016) proporciona una descripción general de los métodos de selección de
ancho de banda para diseños de RD. Dado un polinomio de orden p, una función del núcleo K
(·) y un ancho de banda h, el polinomio local RD
n
^β +¿ arg min ∑ 1 ( Xi <c ) ¿ ¿ ¿¿
i=1
donde ^β¿ = (^
β ¿, 0, ^
β ¿, 1,..., ^
β ¿, p) y ^β +¿ = ( ^β +, 0, ^β +, 1,..., ^β +, p) denota los mínimos
cuadrados resultantes estimaciones para los grupos de control y de tratamiento,
respectivamente. El estimador puntual RD del agudo efecto del tratamiento T SRD es la distancia
^
vertical estimada en el punto de corte, es decir, la diferencia en intersecciones: T ^
SRD (h) = β +, 0
β ¿, 0. Bajo supuestos estándar, T^ SRD (h) será consistente para T SRD = E [Yi (1) - Yi (0) | X = c].
-^
^
Es una práctica común utilizar T h h MSE denota un Opción de ancho de banda
SRD ( MSE ), donde
óptimo para MSE, por lo que ofrece no solo un MSE consistente sino también óptimo estimador
puntual.
Una pregunta crucial es cómo realizar una inferencia estadística válida para el parámetro RD
basada en métodos polinomiales locales con un ancho de banda óptimo de MSE. A primera
vista, parece que el estándar Los resultados de mínimos cuadrados podrían aplicarse para
construir intervalos de confianza porque, dado un ancho de banda elección, la estimación se
implementa mediante regresión lineal de mínimos cuadrados ponderados. Sin embargo, los
métodos convencionales de inferencia por mínimos cuadrados son paramétricos, asumiendo la
expansión polinomial y la función del núcleo utilizada captura la forma funcional correcta de las
expectativas condicionales desconocidas. Los métodos convencionales de mínimos cuadrados,
por lo tanto, eliminan cualquier error de especificación errónea para concluir que el estadístico t
habitual tiene una distribución normal estándar asintótica, que (si es verdadera) conduciría el
intervalo de confianza de mínimos cuadrados estándar de aproximadamente 95%:
I LS =[ ^τ SRD
˙ ( h MSE ) ± 1.96 . √ V^ ]
Sin embargo, los métodos de polinomios locales RD son de naturaleza no paramétrica y, por lo
tanto, ven el ajuste del polinomio cerca del punto de corte como una aproximación a funciones
de regresión desconocidas, que generalmente lleva un error de especificación incorrecta (o
sesgo de suavizado). De hecho, si no hubo sesgo de especificación incorrecta, entonces, para
empezar, las opciones de ancho de banda óptimas estándar de MSE no estarían bien
definidas. Está, por lo tanto, no es posible confiar simultáneamente en las opciones de ancho
de banda óptimas de MSE y realizar inferencias sin tener en cuenta los errores de
especificación incorrecta en la aproximación de la condicional expectativa cercanas al límite.
Fundamentalmente, los errores de aproximación se traducirán en un sesgo en la aproximación
distributiva del estimador polinomial local RD, donde en general tenemos
[ ^ ) ±1.96 . √ V
I RBC = ( τ SRD ( hMSE ) −B ^ +W
^ ]
donde W^ denota la corrección de sesgo estimada y Wb denota el ajuste en los errores
estándar.
El intervalo de confianza robusto con corrección de sesgo IRBC se vuelve a centrar y se vuelve
a escalar con respecto a la ILS de intervalo convencional. La nueva estandarización está
teóricamente justificada por una aproximación distributiva de muestra grande no estándar del
estimador con corrección de sesgo que explica explícitamente la contribución potencial de la
corrección de sesgo a la variabilidad de muestra finita del estadístico t habitual. Esta el intervalo
de confianza es válido siempre que el intervalo de confianza convencional es válido y continúa
ofrecen una cobertura correcta en muestras grandes incluso cuando el intervalo de confianza
convencional no: de ahí el nombre robusto. En particular, IRBC es válido incluso cuando el
ancho de banda óptimo de MSE h MSE se emplea, lo que permite a los investigadores utilizar el
mismo ancho de banda para ambos puntos (óptimos) estimación e inferencia (válida,
posiblemente óptima). Ver Cattaneo, Idrobo y Titiunik (2020, Sección 4) para una guía práctica.
Los métodos de inferencia de corrección de sesgo robusto (RBC) se han desarrollado aún más
en los últimos años. Desde el punto de vista teórico, Kamat (2018) da condiciones bajo las
cuales la inferencia de RBC tiene validez, Calonico, Cattaneo y Farrell (2018, 2021)
demuestran propiedades superiores de orden superior de la inferencia de RBC tanto puntual
como uniformemente sobre las clases generadoras de datos estándar, y Tuvaandorj (2020)
establece la optimización minimax. Metodológicamente, estos resultados teóricos justifican una
implementación simple de la inferencia de RBC donde el orden del polinomio de estimación
puntual p aumenta cuando se realiza la inferencia sin requerir ningún otro cambio (Calonico,
Cattaneo y Titiunik, 2014, Observación 7), que permite utilizar los mismos datos para la
estimación puntual óptima de MSE y la inferencia válida. Finalmente, desde una perspectiva
práctica, se ha encontrado que la inferencia de RBC exhiben un excelente desempeño tanto en
simulaciones como en estudios de replicación (por ejemplo, Ganong y J¨ager,2018; Hyytinen,
Meril¨ainen, Saarimaa, Toivanen y Tukiainen, 2018; De Magalhaes, Hangartner, Hirvonen,
Meril¨ainen, Ruiz y Tukiainen, 2020).
Los métodos de estimación e inferencia descritos hasta ahora se extienden naturalmente a los
diseños de Fuzzy RD, donde el estimador puntual del polinomio local es ahora una razón de
estimadores RD agudos, y Diseños de RD de torceduras difusas donde el estimador puntual se
basa en derivadas estimadas de orden superior en el punto de torcedura. Por ejemplo, el
estimado de RD difuso τ FRD se estima mediante τ^ FRD (h) = τ^ SRD (h) /% (h) ϑ^ SRD con% ϑ^ SRD (h)
que denota una estimación polinomial local RD aguda utilizando el tratamiento observado Di
como resultado en lugar de Y i , es decir, % ϑ^ SRD (h) es el fuerte efecto RD al recibir el
tratamiento en el cortar. Para obtener más detalles sobre la estimación e inferencia de
derivadas difusas y de orden superior, consulte Calonico, Cattaneo, y Titiunik (2014), y
Cattaneo, Idrobo y Titiunik (2021, Sección 3) para una práctica discusión.
Los resultados de estimación e inferencia para los diseños canónicos Sharp y Fuzzy RD se han
expandido en múltiples direcciones. Arai y Ichimura (2016, 2018) proponen un MSE óptimo-
óptimo selección de ancho de banda para diferentes anchos de banda de control y tratamiento
y desarrollo de inferencia de RBC, Bartalotti, Calhoun y He (2017) y He y Bartalotti (2020)
investigan métodos de remuestreo y su conexión con la inferencia de RBC, y Bartalotti y
Brummet (2017) desarrollan MSE-óptimo selección de ancho de banda e inferencia de RBC en
configuraciones de muestreo agrupadas. Calonico, Cattaneo, Farrell y Titiunik (2019) investigan
la inclusión de covariables previas a la intervención con fines de eficiencia en diseños de RD, y
desarrollar la selección de ancho de banda óptima MSE y la inferencia de RBC con
posiblemente datos agrupados y / o diferentes opciones de ancho de banda para los grupos de
control y tratamiento. Más recientemente, Arai, Otsu y Seo (2021) propusieron nuevos métodos
de alta dimensión para la covariable de pre intervención selección, lo que conduce a una mayor
eficiencia de la inferencia de RBC. La estimación basada en la continuidad y los métodos de
inferencia de RBC también se han estudiado en otra configuración de RD difusa y torcida). Por
ejemplo, Xu (2017) considera modelos lineales generalizados y desarrolla métodos de
inferencia de RBC, Keele y Titiunik (2015), Cattaneo, Keele, Titiunik y Vazquez -Bare (2016,
2021), Bertanha (2020) abordan la estimación e inferencia de RBC en Multi- Los diseños RD de
puntaje, geográficos y de corte múltiple, Dong, Lee y Gou (2021) ofrecen un análisis completo
de estimación e inferencia de RBC en un diseño de RD con tratamiento continuo, y Chiang,
Hsu y Sasaki (2019), Qu y Yoon (2019), Chen, Chiang y Sasaki (2020) y Huang y Zhan (2021)
investigar diseños de RD de cuantiles y también proponer métodos de inferencia de RBC.
Finalmente, dentro del marco basado en la continuidad, los académicos han abordado
diferentes fallas de Supuestos estándar en diseños de RD canónicos y otros. Dong (2019)
explora cuestiones de muestra selección en diseños RD nítidos y difusos. Para diseños de
Fuzzy RD, Feir, Lemieux y Marmer (2016) y He (2018) estudian métodos robustos a la
identificación débil, mientras que Arai, Hsu, Kitagawa, Mourifi´e, y Wan (2021) consideran la
realización de pruebas de especificación. Además, Pei y Shen (2017), Lee (2017) Davezies y
Le Barbanchon (2017) y Bartalotti, Brummet y Dieterle (2021) investigan problemas de error de
medición en varios entornos de RD.
La analogía entre los diseños de RD y los experimentos aleatorios se formalizó primero sin
condiciones de continuidad de Cattaneo, Frandsen y Titiunik (2015) utilizando un marco
pesquero, y luego ampliado por Cattaneo, Titiunik y Vazquez-Bare (2017) para permitir también
a Neyman o marcos de superpoblación, después de posibles ajustes de puntuación de los
resultados potenciales. En vez de confiando en los límites ya que la puntuación tiende al corte y
analogías heurísticas entre unidades apenas por encima y apenas por debajo del límite, estos
trabajos consideran supuestos bajo los cuales el diseño de RD produciría condiciones
equivalentes a las condiciones que habrían ocurrido si un el experimento se había llevado a
cabo en un vecindario cercano al límite.
La idea clave detrás del enfoque de aleatorización local para el análisis de RD es asumir que
las unidades cerca del punto de corte son como si fueran asignados al azar al tratamiento. La
formalización del como si fuera aleatorio la asignación requiere que exista una ventana W = [c -
w, c + w] alrededor del límite c, asumido simétrico solo por simplicidad, de modo que se
cumplen las dos condiciones siguientes:
Una vez que se ha invocado un supuesto de aleatorización local, el análisis del diseño de RD
puede proceder mediante la implementación de varios métodos a partir del análisis de
experimentos. Esto requiere dos pasos. Primero, se debe elegir una ventana W en la que se
supone que se cumple la aleatorización local. En segundo lugar, dado W, se deben imponer
suficientes supuestos sobre el mecanismo de asignación para realizar la estimación e
inferencia, según sea apropiado para el enfoque específico elegido (Fisherian, Neyman,
superpoblación). Estos métodos se pueden utilizar con puntuaciones tanto continuas como
discretas (Sección 3.5).
El paso de selección de ventana es el principal desafío de implementación para el análisis de
aleatorización local y es análogo al paso de selección de ancho de banda en el marco de
continuidad. Cattaneo, Frandsen y Titiunik (2015) recomiendan un procedimiento basado en
datos para seleccionar la ventana basada sobre covariables previas al tratamiento o resultados
de placebo que se sabe que no se ven afectados por el tratamiento. El procedimiento se basa
en el enfoque común de probar el equilibrio de covariables para evaluar la validez de
experimentos aleatorios. Si se cumple el supuesto de aleatorización local RD, la covarianza
previa al tratamiento no deben estar relacionados con la puntuación dentro de W. Suponiendo
que las covariables están relacionadas con el puntuación fuera de W conduce al siguiente
procedimiento para seleccionar W: considere una secuencia de anidadas ventanas alrededor
del límite, y para cada ventana candidata, realice pruebas de "equilibrio" del valor nulo hipótesis
de ningún efecto del tratamiento, comenzando con la ventana más grande y reduciendo
secuencialmente hasta que la hipótesis nula deje de ser rechazada en algún nivel de
significancia preestablecido. El procedimiento, Por tanto, busca posteriormente ventanas más
pequeñas hasta encontrar la ventana más grande posible de modo que la hipótesis nula no se
puede rechazar para esa ventana y no se puede rechazar para una ventana más pequeña
contenido en él.
Una vez que se ha elegido la ventana, el segundo paso es implementar métodos a partir del
análisis de experimentos para estimar el efecto RD y realizar inferencias estadísticas dentro de
la ventana seleccionada. Estos métodos requieren especificar un mecanismo de aleatorización
dentro de la ventana. La estrategia es asumir que cada unidad con puntuación dentro de W fue
asignada al tratamiento de acuerdo con a una aleatorización de márgenes fijos, donde la
Nw
probabilidad de cada vector de asignación de tratamiento es ( +¿ ).
Nw ¿
Otra estrategia común es asumir que las unidades se asignaron de forma independiente a los y
control dentro de la ventana, con probabilidad constante igual a N+W / NW. La implementación
particular de estimación e inferencia depende del marco elegido para el análisis (Fisherian,
Neyman o superpoblación). Los métodos pesqueros son particularmente útiles cuando el
número de observaciones con puntuación dentro de W es pequeño, porque proporcionan
muestras finitas inferencia válida para la hipótesis nula tajante de ningún efecto del tratamiento
bajo supuestos razonables. Este método de inferencia a veces se denomina "inferencia de
aleatorización" en la inferencia causal y literatura de evaluación de programas (Rosenbaum,
2010; Imbens y Rubin, 2015; Abadie y Cattaneo,2018), y es particularmente adecuado para
analizar diseños de RD porque permite a los investigadores Incluya solo las pocas
observaciones que estén más cerca del límite. Como consecuencia, la aleatorización la
inferencia ofrece un buen complemento y comprobación de la robustez de los métodos
polinomiales locales (Sección 3.2), que normalmente emplean un número mayor de
observaciones más alejadas del límite para la estimación e inferencia. Por otro lado, cuando el
número de observaciones dentro de W es lo suficientemente grande, los investigadores
también pueden utilizar métodos basados en aproximaciones de muestras grandes dentro de la
escala de Neyman. marco, donde los resultados potenciales no son aleatorios y la
incertidumbre se basa en el diseño, o el marco de superpoblación, donde los resultados
potenciales son aleatorios y la incertidumbre es tanto de diseño como de basado en muestreo.
Ver Cattaneo, Idrobo y Titiunik (2021, Sección 2) para una introducción práctica.
Revisamos enfoques alternativos que se han propuesto para refinar, ampliar o generalizar
métodos estándar de estimación e inferencia de RD discutidos en las dos últimas secciones.
También existen varios métodos bayesianos para diseños de RD, que se desarrollan casi
exclusivamente dentro del marco de aleatorización local. Geneletti, O’Keeffe, Sharples,
Richardson y Baio (2015) discuten una metodología bayesiana para diseños de ER en las
ciencias biomédicas, centrándose en cómo incorporar información externa en la estimación e
inferencia de los efectos del tratamiento de DR. De manera similar, Karabatsos y Walker (2015)
y Chib y Jacobi (2016) proponen alternativas bayesianas modelos para diseños RD nítidos y
difusos, prestando especial atención a los problemas de especificación incorrecta de funciones
de regresión desconocidas. Branson, Rischard, Bornn y Miratrix (2019) emplean gaussianos
metodología de regresión del proceso que se puede interpretar como un análogo bayesiano del
lineal local Estimador de RD, que ofrece un ajuste flexible para las funciones de regresión de
las unidades de tratamiento y control a través de un prior general sobre las funciones de
respuesta media de los procesos gaussianos subyacentes. El enfoque está motivado por
métodos bayesianos, pero también discuten algunas propiedades frecuentistas de los
procedimientos de estimación resultantes. Todos estos métodos bayesianos para el análisis de
RD se basan en la especificación de distribuciones para parámetros funcionales (por ejemplo,
E [Y i (1) | X i = x] y E [Y i (0) | X i = x], la condicional función de expectativa bajo tratamiento y
control). Ver Gelman, Carlin, Stern, Dunson, Vehtari, y Rubin (2013) para una introducción
general a la metodología bayesiana.
Imbens y Wager (2019) y Armstrong y Kolesar (2020) aplican ideas de Backus (1989) y Donoho
(1994) para desarrollar métodos de inferencia de RD que sean uniformemente válidos sobre
una clase de suavidad de funciones que determinan el mayor sesgo posible de especificación
errónea del estimador del efecto del tratamiento DR. Sus procedimientos requieren pre
especificar una constante de suavidad teórica que determina la mayor "curvatura" posible de
las funciones de expectativa condicional desconocidas bajo tratamiento y control, E [Y i (1) | X i
= x] y E [Y i (0) | X i = x], cerca del límite. Dada esa elección de suavidad constante, el enfoque
calcula una elección óptima de ancho de banda uniforme en sesgo, que luego se utiliza
construir intervalos de confianza polinomiales locales para los efectos del tratamiento DR que
tengan en cuenta el peor sesgo posible del estimador puntual RD (inflando el cuantil utilizado).
Estos métodos son desarrollados dentro del marco de continuidad para diseños de RD.
La estimación e inferencia de regresión monótona es una metodología útil siempre que se sabe
que una función de regresión es monótona porque no requiere una elección de ancho de banda
o función de núcleo en puntos interiores (Groeneboom y Jongbloed, 2014, y referencia en el
mismo). Motivado por esto observación, Babii y Kumar (2021) estudian la estimación e
inferencia del efecto del tratamiento con RD bajo el supuesto de que las funciones de
expectativa condicionales de los resultados potenciales son monótonas cerca el corte. Sin
embargo, debido al sesgo de límite inherente en la configuración de RD, algunas de las
características agradables de los estimadores de regresión monótonos se pierden: todavía se
requiere una elección de parámetro de ajuste para la implementación, ya que de lo contrario los
procedimientos de regresión monótonos no serían válidos en el punto de corte. Sin embargo,
dentro del marco de RD basado en la continuidad, su metodología de RD con restricciones de
forma puede ser de interés en entornos donde la monotonicidad de las funciones de regresión
E [Y i (1) | X i = x] y E [Y i (0) | X i = x] cerca del límite es una suposición razonable.
Hsu y Shen (2021b) también consideran el papel de la monotonicidad en los diseños de RD.
Dentro de marco de la ER basado en la continuidad, proponen una prueba de monotonicidad
no paramétrica para el tratamiento de la ER efectos en el punto de corte condicionados a las
características observables. Su procedimiento de prueba emplea métodos polinomiales locales
y, por lo tanto, requiere una elección de ancho de banda y su implementación se basa en
técnicas de suavizado, que pueden afectar el control del tamaño de la prueba propuesta. La
versión corregida de sesgo de su procedimiento de prueba se puede construir aumentando el
orden del polinomio utilizado para la inferencia (Sección 3.2).
Frolich y Huber (2019) y Peng y Ning (2021) consideran ajustes de covariables no paramétricos
en diseños de RD donde las covariables de pretratamiento son discontinuas en el punto de
corte, lo que conduce a diferentes parámetros similares a RD en general, mientras que Gerard,
Rokkanen y Rothe (2020) proponen métodos de identificación en entornos donde el diseño de
RD se invalida por la clasificación unilateral endógena de unidades cerca del límite. Finalmente,
Mukherjee, Banerjee y Ritov (2021) aumentan la habitual configuración de RD al incluir una
segunda ecuación que asume que la puntuación es una función lineal de la observada
covariables para construir estimadores semiparamétricos alternativos de los efectos del
tratamiento DR promedio.
Existen diferentes enfoques para los diseños de DR con puntajes discretos, dependiendo de los
supuestos impuestos y el marco conceptual en consideración. Para describir estos métodos,
suponga que la puntuación discreta X i puede tomar M = 2K + 1 valores distintos { x− K ,. . . , x−2,
x−1, c, x 1, x 2,. . . x K },donde asumimos que el corte c es el valor mediano solo por simplicidad.
Dentro de la continuidad marco, los métodos polinomiales locales discutidos en la Sección 3.2
todavía se pueden emplear cuando (i) la extrapolación paramétrica implícita de X i = x−1 a X i =
c es lo suficientemente precisa, y (ii) el número de valores únicos M es grande. En tales
entornos, la selección, estimación, y los métodos de inferencia seguirían siendo aplicables. Por
otro lado, cuando la partitura tiene solo unos pocos valores distintos, los métodos basados en
la continuidad no son recomendables para el análisis de diseños de RD a menos que se cree
que el modelo de regresión polinomial local subyacente para las expectativas condicionales es
correctamente especificado. Consulte Lee y Card (2008) para conocer los métodos iniciales
bajo este tipo de suposición.
Los métodos de aleatorización local, por otro lado, siguen siendo válidos bajo los mismos
supuestos discutido en la Sección 3.3 cuando el puntaje es discreto, y los métodos de
estimación e inferencia en esa sección se puede aplicar independientemente de si el número
de valores distintos de Xi es grande o pequeña. Si el número de observaciones por punto de
masa es lo suficientemente grande, el paso de selección de ventana es no es necesario, ya
que basta con utilizar observaciones con X i = x−1 a X i = c para realizar la estimación e
inferencia utilizando métodos de Fisherian, Neyman o superpoblación. Si el número de
observaciones por punto de masa no es lo suficientemente grande como para que se necesite
una ventana más grande, la selección de ventana puede ser basado en covariables
predeterminadas, pero la implementación es más fácil porque las ventanas anidadas
considerado puede aumentarse en longitud un punto de masa a la vez a cada lado del límite.
En algunos casos, puede ser conveniente redefinir el parámetro de interés. Por ejemplo, dentro
del marco basado en la continuidad, el efecto del tratamiento DR promedio τ SRD = E [Y i (1) - Y i
(0) | X i = c] no es identificable sin extrapolación (desde la izquierda del límite); pero el
parámetro τ SDS = E [Y i (1) | X i = c] - E [Y i (0) | X i = x − 1] siempre es identificable, haciendo
explícita la incapacidad de identificar y estimar E [Y i (0) | X i = c] sin supuestos de modelado
adicionales. El nuevo parámetroτ SDS puede ser más natural en los casos en que la puntuación
es intrínsecamente discreta, pero su utilidad es en última instancia específico de la aplicación.
En resumen, desde una perspectiva práctica, una consideración clave para el análisis de RD
con puntajes discretos es el número de valores distintos M en el apoyo de la variable en
ejecución. Cuando M es grande, los métodos basados en la continuidad pueden seguir siendo
útiles, aunque el número efectivo de observaciones para el propósito de la estimación e
inferencia polinomial local será el número de puntos de masa (no el número total de unidades).
Cuando M es pequeño, los métodos basados en la continuidad solo son útiles bajo supuestos
para la extrapolación, mientras que los métodos de aleatorización local pueden ser una
alternativa preferible. Consulte Cattaneo, Idrobo y Titiunik (2021, Sección 4) para obtener más
detalles y una discusión práctica.
Existen otros enfoques específicos para entornos de RD con puntuaciones discretas. Dong
(2015) y Barreca, Lindo y Waddell (2016) investigan el fenómeno del amontonamiento, que
ocurre cuando la variable de puntuación se redondea para que las unidades que inicialmente
tenían valores de puntuación diferentes aparezcan en el conjunto de datos con el mismo valor.
Kolesar y Rothe (2018) emplean un método de sesgo uniforme, que requiere especificar un
límite teórico en la "curvatura" de una clase de funciones de regresión que solo son
identificables en los puntos de masa de la partitura; consulte también la Sección 3.4.3.
4 Validación y Falsificación
En relación con otros diseños no experimentales, el diseño de RD ofrece una gran cantidad de
métodos de validación y falsificación específicos del diseño para evaluar la plausibilidad de los
supuestos centrales de RD. A pesar de todo de si se utiliza el marco de continuidad o de
aleatorización local, un paso fundamental en cualquier el análisis de RD debe proporcionar
dicha evidencia empírica de apoyo. Esta evidencia solo puede ser indirecta, porque los
supuestos centrales de DR son inherentemente imposibles de comprobar. No obstante, hay
pasos importantes que pueden tomarse para evaluar su plausibilidad en la mayoría de los
entornos y, por lo tanto, la validez potencial del diseño de RD, así como la solidez general de
los principales hallazgos empíricos. Primero discutimos métodos de falsificación genéricos que
se utilizan en la mayoría de las configuraciones de evaluación de programas, y luego recurren a
métodos basados en el diseño que se basan en características específicas de RD. Ver
Cattaneo, Idrobo y Titiunik (2020, Sección 5) para una descripción práctica reciente y más
detalles.
4.1 Covariables previas a la intervención y resultados del placebo
Por último, se han utilizado otros métodos para las covariables previas a la intervención y las
pruebas de resultados con placebo. propuesto en el marco de la continuidad. Primero, Shen y
Zhang (2016) proponen polinomios locales pruebas de distribución utilizando un ancho de
banda insuficiente para la implementación, pero una más robusta la versión que utiliza la
inferencia de RBC se puede construir aumentando el orden polinomial (Sección 3.2). En
segundo lugar, Canay y Kamat (2018) discuten un enfoque basado en pruebas de permutación
asintótica, lo que conduce a una implementación de inferencia de aleatorización (Sección 3.3).
Dentro del marco basado en la continuidad, hay otras extensiones y refinamientos para la
prueba de densidad. Otsu, Xu y Matsushita (2013), Ma, Jales y Yu (2020) y Jales, Ma y Yu
(2017) discutir las pruebas de densidad que combinan polinomios locales y métodos de
verosimilitud empíricos; mira la sección 3.4.1. Frandsen (2017) propone una prueba de
manipulación para puntuaciones discretas y Bugni y Canay (2021) proponer una prueba de tipo
binomial utilizando un argumento asintótico para justificar la aleatorización local cerca de la
corte, ambos emplean un enfoque de sesgo uniforme que requiere la elección manual de una
suavidad constante; consulte la Sección 3.4.3.
Otro método de falsificación específico del diseño de RD analiza los límites artificiales (o
placebo) a partir del límite real que determina la asignación de tratamiento. La intuición es que,
desde el verdadero corte es el único valor de puntuación en el que la probabilidad de recibir el
tratamiento cambia de forma discontinua, también debe ser el único valor de puntuación en el
que el resultado cambia de forma discontinua. Esta prueba asume que no hay otras políticas (o
cambios) introducidos en diferentes valores de puntuación que pueden afectar el resultado de
interés. Más formalmente, este método puede verse como una prueba de hipótesis para la
Continuidad de las funciones de expectativa condicionales de los resultados potenciales a
valores de la puntuación iguales al límite de placebo considerado. Para la implementación, los
investigadores generalmente eligen una cuadrícula de valores de corte, y repetir la estimación e
inferencia del efecto RD sobre el resultado de interés en cada valor de corte artificial, utilizando
métodos de inferencia de RBC polinomiales locales (Sección 3.2) o métodos de inferencia de
aleatorización local (Sección 3.3). Es importante destacar que para evitar el tratamiento. efecto
de contaminación, este método de validación debe implementarse para unidades por debajo y
por encima del corte por separado. Ver Ganong y J¨ager (2018) para un enfoque relacionado
en el contexto de Kink RD diseños.
El otro método de validación estudia si las conclusiones empíricas son sensibles a la elección
de ancho de banda o vecindario de aleatorización local. La idea es simplemente reestimar el
efecto de tratamiento RD para anchos de banda (o longitudes de vecindario) que son menores
o mayores que el elegido originalmente. En el marco basado en la continuidad, si el ancho de
banda original es MSE- optimo, no es aconsejable considerar anchos de banda mucho mayor
debido a la especificación incorrecta implícita parcialidad. De manera similar, en el marco de
aleatorización local, considerar vecindarios más grandes puede no ser justificable y, por tanto,
poco informativo.
5. Conclusión
Desde el trabajo fundamental de Thistlethwaite y Campbell (1960), la literatura sobre
identificación, la estimación, inferencia y validación de diseños de RD ha florecido y madurado.
Gracias a trabajo colectivo de muchos académicos, la metodología actual de RD proporciona
una amplia gama de prácticas y herramientas teóricas. La analogía original entre los diseños de
RD y los experimentos aleatorios ha se ha aclarado y de muchas formas reforzado, la elección
del ancho de banda polinomial local o local el vecindario de aleatorización se ha basado en
datos y se basa en criterios de principios, y ahí ha sido una plétora de métodos de validación y
falsificación que explotan las características particulares de RD diseños. Ahora se entiende que
las mejores prácticas para la estimación y la inferencia en los diseños de RD deben basarse en
opciones de parámetros de ajuste que sean objetivas, basadas en principios y basadas en
datos, por lo que eliminando la capacidad de los investigadores para participar en la búsqueda
de especificaciones arbitrarias y, por lo tanto, conduciendo a conclusiones empíricas creíbles y
reproducibles.
De cara al futuro, todavía hay varias áreas que pueden beneficiarse de un mayor desarrollo
metodológico. Un área destacada es la extrapolación de RD. Tener métodos más robustos para
extrapolar los efectos del tratamiento con DR reforzarían la validez externa de las conclusiones
extraídas de los diseños de DR, que de otro modo están limitados por la naturaleza local del
diseño. Tales métodos de extrapolación también ayudan en el diseño de políticas óptimas, un
tema que aún no ha sido explorado en la literatura sobre ER. Otra área fructífera es el diseño
experimental y la recopilación de datos en entornos de ER. Se está volviendo es más común
que los formuladores de políticas y los investigadores de la industria planifiquen los diseños de
RD ex ante, así como para diseñar la recopilación de datos ex-post aprovechando las
intervenciones de RD anteriores, a menudo en entornos de datos ricos. A un conjunto de
herramientas metodológicas dirigidas al diseño experimental en entornos de ER mejoraría la
práctica y también podría permitir una mejor extrapolación de los efectos del tratamiento de RD
a través de un diseño de muestreo basado en principios y recopilación de datos. Finalmente,
otra vía para la investigación futura está relacionada con la incorporación de métodos de
aprendizaje automático y de alta dimensión en entornos de RD. Tales mejoras metodológicas
pueden ayudar en el descubrimiento de principios de efectos heterogéneos del tratamiento, así
como en el desarrollo de métodos de estimación e inferencia más robustos en diseños de RD
multidimensionales.
Referencias
Abadie, A., and M. D. Cattaneo (2018): “Econometric Methods for Program
Evaluation,” Annual Review of Economics, 10, 465–503.
Angrist, J. D., and M. Rokkanen (2015): “Wanna Get Away? Regression
Discontinuity Estimation of Exam School Effects Away from the Cutoff,” Journal of the
American Statistical Association, 110(512), 1331–1344.
Arai, Y., Y. Hsu, T. Kitagawa, I. Mourifie, ´ and Y. Wan (2021): “Testing
Identifying Assumptions in Fuzzy Regression Discontinuity Designs,” Quantitative
Economics.
Arai, Y., and H. Ichimura (2016): “Optimal bandwidth selection for the fuzzy
regression discontinuity estimator,” Economic Letters, 141(1), 103–106.
(2018): “Simultaneous Selection of Optimal Bandwidths for the Sharp Regression
Discontinuity Estimator,” Quantitative Economics, 9(1), 441–482.
Arai, Y., T. Otsu, and M. H. Seo (2021): “Regression Discontinuity Design with
Potentially Many Covariates,” working paper.
Armstrong, T., and M. Kolesar (2020): “Simple and Honest Confidence Intervals
in Nonparametric Regression,” Quantitative Economics, 11(1), 1–39.
Babii, A., and R. Kumar (2021): “Isotonic Regression Discontinuity Designs,”
Journal of Econometrics.
Backus, G. E. (1989): “Confidence Set Inference with a Prior Quadratic Bound,”
Geophysical Journal International, 97(1), 119–150.
Bajari, P., H. Hong, M. Park, and R. Town (2011): “Regression Discontinuity
Designs with an Endogenous Forcing Variable and an Application to Contracting in
Health Care,” NBER Working Paper No. 17643.
Barreca, A. I., J. M. Lindo, and G. R. Waddell (2016): “Heaping-Induced Bias in
Regression-Discontinuity Designs,” Economic Inquiry, 54(1), 268–293.
Bartalotti, O., and Q. Brummet (2017): “Regression Discontinuity Designs with
Clustered Data,” in Regression Discontinuity Designs: Theory and Applications
(Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J. C. Escanciano,
pp. 383–420. Emerald Group Publishing.
Bartalotti, O., Q. Brummet, and S. Dieterle (2021): “A Correction for Regression
Discontinuity Designs with Group-specific Mismeasurement of the Running Variable,”
Journal of Business & Economic Statistics, 39(3), 833–848.
Bartalotti, O., G. Calhoun, and Y. He (2017): “Bootstrap Confidence Intervals for
Sharp Regression Discontinuity Designs,” in Regression Discontinuity Designs: Theory
and Applications (Advances in Econometrics, volume 38), ed. by M. D. Cattaneo, and J.
C. Escanciano, pp. 421– 453. Emerald Group Publishing.