Documentos de Académico
Documentos de Profesional
Documentos de Cultura
9.1. Zaltsman La Evaluación de Resultados CLAD
9.1. Zaltsman La Evaluación de Resultados CLAD
2003
Ariel Zaltsman
Introducción
A partir de la década del ’90, el sector público argentino ha venido adoptando una serie de
innovaciones y reformas que, en mayor o menor medida, se apoyan en el uso de la evaluación de
resultados como práctica sistemática. Mas allá de los rasgos específicos que la incorporación de la
evaluación de resultados presentó en cada caso, la adopción de este tipo de práctica en el sector público
argentino tuvo un correlato en los procesos de reforma que encararon otros países latinoamericanos y,
con algunos años de antelación, también varios países industrializados. En el ámbito de América
Latina, estos procesos de reforma del Estado se han conocido generalmente como “reformas de
segunda generación” (Naím, 1995; Oszlak, 1999) mientras que, en un contexto más amplio, la
expresión más comúnmente usada para aludir a estas reformas es la de “Nueva Gestión Pública” (NGP)
(Hood, 1991; Kettl, 1997; Kettl, 2000).1
Al igual que en el resto de la región, tanto el interés como la incorporación de mecanismos concretos
de evaluación constituyen un hecho novedoso en la Argentina, que despierta expectativas frente a la
posibilidad de encontrar en ellos una herramienta de enorme potencial para la formulación de políticas
y programas, y para la gestión del sector público en general. Sin embargo, el hecho de que estas
iniciativas hayan sido impulsadas en el marco de procesos de reforma más amplios, emparentados en
buen grado con la NGP, plantea un gran interrogante: ¿En qué medida los instrumentos de evaluación
adoptados se han visto afectados, en su diseño e implementación, por los valores y principios típicos de
la NGP? Y, en caso que esta impronta haya sido decisiva, ¿qué tanto margen ha dejado para que los
mecanismos creados puedan ser puestos al servicio de objetivos y valores considerados, en general,
ajenos a la NGP?
Estos interrogantes son, de algún modo, reflejo de un debate mucho más amplio, que gira en torno al
grado de compatibilidad entre el cuerpo de ideas y consignas más emblemáticas de la NGP y un
conjunto de objetivos y valores que, si bien no suelen formar parte de la agenda de aquélla, no son
menos importantes. Tal es el caso de los principios democráticos y de equidad social. En este sentido,
el espectro de argumentos se extiende desde los que sostienen que, debido a su profundo compromiso
con los principios y las prácticas propias del sector privado, las reformas impulsadas por la NGP son
potencialmente incompatibles con la aspiración a conducir al Estado en base a principios democráticos
(Box y otros, 2001; Behn, 1998 y 2001; DeLeon y Denhardt, 2000) o de justicia social (Olías de Lima
Gete, 2002), hasta los que afirman que, dependiendo de cómo se vean implementados, ciertos aspectos
de las reformas de la NGP pueden producir efectos positivos tanto para la equidad social (Olías de
Lima Gete, 2002) como para el funcionamiento de la democracia representativa (CLAD, 2000; Mora
Quirós, 2000; State Services Commission, 1999).
En sintonía con esta segunda línea de argumentación, los hallazgos de un estudio reciente del CLAD
(Cunill Grau y Ospina Bozzi, 2003) sobre las iniciativas de evaluación de resultados en los sectores
1
Estos procesos de reforma del sector público se conocen también bajo los rótulos de “gerencialismo del sector
público” o, en inglés, public sector managerialism (Pollitt, 1993); “reinvención del gobierno” o government reinvention, y
“gobierno emprendedor” o entrepreneurial government (Osborne y Gaebler, 1992); y “desregulación del gobierno” o
deregulating government (DiIulio, 1996).
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
públicos de Colombia, Costa Rica, Chile y Uruguay sugieren que, si bien en algunos casos la adopción
de la evaluación parecería verse principalmente inspirada en los objetivos más típicos de la NGP, en
otros la intención de aumentar la participación de la ciudadanía y profundizar la democracia
representativa habrían jugado un rol, cuanto menos, igual de importante. Sin embargo, el estudio no
reporta indicios de incompatibilidad o conflicto entre la introducción de la evaluación de resultados
como herramienta de formulación de políticas, gestión del Estado o responsabilización y la dinámica
propia de las instituciones democráticas.
El presente trabajo tiene por objeto analizar los principales avances que han tenido lugar en el sector
público argentino en el área de la evaluación de resultados a la luz de los hallazgos del estudio del
CLAD en otros países de la región y del debate en torno a las limitaciones y las potencialidades
posiblemente implícitas en las reformas que impulsa la NGP. Con ese fin, el trabajo retoma varios de
los ejes centrales del marco conceptual y teórico planteado en el estudio del CLAD, y los aplica al
análisis de material documental y bibliográfico sobre cuatro iniciativas de evaluación que se lanzaron
en el sector público argentino entre 1991 y 2001. A los fines del análisis, este material ha sido
complementado con información proveniente de entrevistas personales con cuatro profesionales que se
encuentran o han estado vinculados con dos de las iniciativas estudiadas, desde distintas posiciones.
A partir de la década del ’90, la evaluación de resultados ha recibido un grado de atención sin
precedentes, tanto en la Argentina como en el resto de la región. Esto constituye, de por sí, un hecho
auspicioso dado que, a través de la aplicación del rigor y los cánones propios de las ciencias sociales a
la formulación de políticas y programas y a la gestión del sector público en general, la evaluación abre
las puertas para introducir un cambio cualitativo en las mismas. En efecto, por contraste con la mera
opinión o intuición –en la que, a falta de fuentes de información más confiables, suele basarse la toma
de decisiones en el sector público– la evaluación se vale de los métodos y criterios de las ciencias
sociales con el fin de dotar a sus conclusiones de la mayor precisión y “objetividad” posibles (Weiss,
1998; Rossi, y Freeman, 1993; Chelimsky, 1985; Shalock, 2001).
Cabe esperar que, al contar con elementos de juicio mucho más sólidos acerca de la evolución seguida
por las políticas y los programas en aplicación, las autoridades políticas y los funcionarios de los
distintos niveles del sector público se encuentren en condiciones de introducir mejoras en la
formulación de políticas y programas y en la gestión de las múltiples entidades y organizaciones que
componen el sector público y que, su vez, las mismas contribuyan a alcanzar los objetivos propuestos
2
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
con mayor éxito. Sin embargo, el hecho de que, tanto en la Argentina como en otros países de América
Latina, la evaluación de resultados haya recibido su mayor impulso en el marco de procesos de reforma
del Estado emparentados con la NGP nos lleva a preguntarnos en qué medida los mecanismos de
evaluación adoptados se habrán visto condicionados por los valores y los principios más emblemáticos
de la NGP. O, para plantearlo en otros términos, ¿qué tanto espacio habrán dejado, en su diseño e
implementación, para que los mecanismos concretos que han sido puestos en funcionamiento puedan
atender objetivos y principios distintos de los de la NGP?
Al hablar de los objetivos y consignas típicas de la NGP, nos estamos refiriendo a un conjunto de ideas
y planes de reforma orientados a mejorar la eficiencia, la eficacia y la receptividad del sector público
respecto de las expectativas de los usuarios de sus servicios a través de la aplicación de criterios,
prácticas y principios característicos de la economía de mercado. El estrecho vínculo entre la NGP y
este conjunto de ideas y prácticas tuvo su origen en la intención de romper con la cultura burocrática
tradicional del Estado. De acuerdo con los promotores de la NGP, en el marco de una sociedad cada
vez más globalizada, conocimiento-intensiva y cambiante, el apego a las formas centralizadas de
gestión, y el énfasis en el respeto a las regulaciones y normas por sobre la calidad del desempeño y sus
resultados habían hecho de la administración pública tradicional un abordaje inoperante. En tales
condiciones, el sector público se veía incapacitado para responder a las expectativas de los ciudadanos
con la receptividad y la flexibilidad necesarias (Osborne y Gaebler, 1992; Kettl, 1997; Moore, 1995;
Wilson, 1989). De allí que los ideólogos de la NGP se hubieran visto motivados a acudir al sector
privado en busca de nuevas respuestas. La solución que creyeron encontrar consistió en replicar tanto
como fuera posible dentro del sector público una serie de prácticas que, hasta entonces, sólo habían
sido utilizadas en el sector privado. De esta forma, terminaron impulsando un conjunto de reformas
destinadas, entre otras cosas, a: (i) enfocar la gestión del sector público en el logro de resultados
específicos más que en la administración de insumos o el apego a las reglas; (ii) decentralizar la
autoridad, de manera tal de dotar a los gerentes públicos de la autonomía necesaria para asignar los
recursos a su cargo de acuerdo con su propio criterio, a cambio de que se hicieran responsables por el
cumplimiento de determinadas metas; (iii) visualizar al ciudadano o al usuario de servicios públicos
como un “cliente”, con la expectativa de que esto contribuyera a “sacudir la inercia” característica de la
burocracia estatal e impusiera en su lugar la soberanía del “usuario-consumidor”; (iv) remplazar
mecanismos burocráticos por incentivos económicos y otros instrumentos típicos de la economía de
mercado; y (v) impulsar un rol decididamente más activo para los sectores privado y sin fines de lucro
en la provisión de servicios públicos que, hasta entonces, habían sido provistos casi en exclusividad por
el Estado (Osborne y Gaebler, 1992; Olías de Lima Gete, 2002; Box y otros, 2001; Mawhood, 1997:
135; Moore, 1995; Norman, 2002).
Al menos en sus orígenes –en el marco de las primeras experiencias de reforma inspiradas en la NGP,
que tuvieron lugar en Nueva Zelanda, Gran Bretaña y Australia– el fuerte vuelco hacia la medición de
desempeño y la evaluación de resultados dentro del sector público estuvo íntimamente ligado con este
contexto. La expectativa en la que se basó constó fundamentalmente de dos partes (Hyndman y Eden,
2002). Por un lado, se esperaba que la evaluación de resultados funcionara como una herramienta
estratégica de gestión que les permitiera a los gerentes públicos monitorear el desempeño de sus
organizaciones y, en base a ello, orientar la introducción de mejoras tanto en términos de eficiencia
como de eficacia (Kettl, 1997; Moynihan, 2002; U.S. General Accounting Office, 2001). Por otro lado,
se esperaba que la evaluación de resultados contribuyera a desplazar el foco central de la
responsabilización dentro del Estado desde la rendición de cuentas por el cumplimiento con las
regulaciones y normas vigentes, a la rendición de cuentas por el cumplimiento con las metas y el logro
de los resultados encomendados (State Services Commission, 1999).
3
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Ahora bien, prácticamente desde su inicio, las reformas de la NGP han sido el foco de grandes
controversias que, a los efectos de las cuestiones que nos proponemos abordar en este trabajo,
resumiremos en las diferencias que median entre dos perspectivas. Por un lado, muchos autores creen
encontrar serios motivos de alarma en las reformas de la NGP debido a que, en el marco de un cuerpo
de ideas que asigna un rol tan protagónico a principios y prácticas que, hasta hace poco, se
consideraban sólo propias del sector privado, temen que los espacios tradicionalmente reservados a los
valores asociados con ‘lo público’ desaparezcan o se vean dramáticamente reducidos. Algunos de estos
autores sostienen que, al contemplar al ciudadano como si fuera un cliente, la NGP pasa por alto su
faceta política y también –parafraseando a Olías de Lima Gete (2002: 5)– “…su capacidad de
compromiso con los valores de la sociedad en la que quiere vivir”, e ignora el hecho de que su propia
condición de ciudadano lo convierte en parte interesada respecto de todos los servicios provistos por el
Estado, y no sólo aquéllos que consuma de manera directa (DeLeon y Denhardt, 2000). Otros autores
completan este argumento postulando que la NGP trae aperejado un profundo cambio en el tipo de
responsabilización enfatizado dentro de la administración del sector público. Dicho cambio implicaría
el desplazamiento de la responsabilización política que caracterizó al paradigma de la administración
pública tradicional, para instalar progresivamente en su lugar la responsabilización de tipo
administrativo, o gerencial, que propone la NGP (Boyne, y otros, 2002; Glynn y Murphy, 1996). Al
hablar de responsabilización política2, estos autores se refieren a las explicaciones que los responsables
de formular y ejecutar políticas le deben al electorado por su desempeño en el ejercicio de las funciones
que les fueron delegadas, y hacen notar que este tipo de responsabilización ha sido visto como una de
las condiciones más fundamentales para el buen funcionamiento de la democracia representativa. De
acuerdo con esta lógica, cuando los ciudadanos no se sienten satisfechos con las políticas de sus
gobiernos o con el modo en que sus representantes hacen uso de sus funciones, pueden valerse del
sistema electoral para reemplazarlos por otro (Behn, 1998; Boyne y otros, 2002; Glynn y Murphy,
1996). En cambio, al hablar de responsabilización administrativa3 aluden a las responsabilidades que
les caben a los funcionarios y a los gerentes por el logro de los objetivos que se les encomendó alcanzar
en base a los recursos que les fueron asignados (Glynn y Murphy, 1996).
Esta línea argumental se enfrenta con una segunda perspectiva en el marco de la cual, sin declararse
necesariamente partidarios de la NGP, varios autores cuestionan la supuesta incompatibilidad entre la
NGP y los valores democráticos y de equidad. Por ejemplo, sin dejar de reconocer la centralidad que
este cuerpo de ideas otorga a valores y prácticas más bien típicas de la economía de mercado, Wise
(2002) llama la atención sobre una serie de casos en los Estados Unidos, Suecia y Noruega, en los que
la adopción de reformas de NGP se produjo en forma más o menos paralela a la introducción de
cambios tendientes a aumentar la participación y la equidad social, en tanto que Olías de Lima Gete
(2002: 3) sostiene que, dependiendo de las políticas de modernización a través de las cuales se la ponga
en práctica, la NGP puede llegar a producir “mayor ‘valor público’ […], equidad y justicia social”. En
este mismo sentido, otros autores han llegado a entrever en el énfasis de la NGP en la
responsabilización por el logro de resultados una oportunidad para profundizar la democracia
representativa. La expectativa, en este caso, es que al colocar el centro de atención en la obtención de
resultados y poner en funcionamiento mecanismos concretos que, como la medición sistemática de
desempeño y la evaluación de resultados, les permitan a los ciudadanos y a sus representantes
supervisar “más de cerca” el accionar de aquéllos en los que delegaron responsabilidades dentro del
sector público (los representantes electos, en el caso de los ciudadanos; los funcionarios públicos, en el
caso de las autoridades electas), el sistema de democracia representativa se vea fortalecido (CLAD,
2000; Mora Quirós, 2000; State Services Commission, 1999).
2
En el original, en inglés, political accountability.
3
En el original, en inglés, managerial accountability.
4
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Los argumentos expuestos hasta aquí nos sirven para ilustrar la amplitud del espectro de implicancias
que podría caber esperar del hecho de que, en los sectores públicos de la Argentina y de muchos otros
países de América Latina, la evaluación de resultados haya recibido su mayor impulso en el contexto
de procesos de reforma emparentados con la NGP. En las secciones siguientes, nos proponemos
emplear este debate como marco para la discusión de los principales hallazgos de un estudio del CLAD
sobre evaluación de resultados y gestión pública en cuatro países de la región y, a partir de esta
discusión, caracterizar cuatro de las principales iniciativas de evaluación de resultados en el sector
público argentino.
Los hallazgos de un estudio recientemente publicado por el CLAD (Cunill Grau y Ospina Bozzi, 2003)
–que se centró en las experiencias de evaluación de resultados y gestión pública de Colombia, Costa
Rica, Chile y Uruguay– representan un significativo aporte al debate en torno a las potencialidades y
las limitaciones posiblemente implícitas en las reformas que impulsa la NGP (Ospina, Cunill Grau y
Zaltsman, 2003). En términos generales el estudio sugiere que, aunque impulsada en el marco de
procesos de reforma inspirados en mayor o menor medida en la NGP, la introducción de la evaluación
de resultados como práctica sistemática en el sector público no sólo no ha planteado conflictos con la
dinámica democrática del Estado sino que, en dos de los cuatro casos analizados, ha sido incluso
fundamentada en la intención de aumentar la participación de la ciudadanía y profundizar la
democracia representativa (Cunill Grau y Ospina Bozzi, 2003b).
En efecto, uno de los hallazgos más reveladores del estudio del CLAD ha sido que, si bien en los cuatro
casos analizados, la introducción de la evaluación de resultados se fundamentó –como resulta típico en
los procesos de reforma inspirados en la NGP– en la necesidad de aumentar la eficiencia y la eficacia
de la gestión pública y de posibilitar una mejor responsabilización dentro del sector público, estos dos
objetivos generales fueron abordados con dos enfoques distintos. Por un lado, en Chile y en Uruguay,
la adopción de la evaluación de resultados se habría ceñido a lo que Cunill Grau y Ospina Bozzi
(2003b) caracterizaron como el “modelo presupuesto” – un enfoque en el marco del cual, la prioridad
habría estado puesta en apoyar la planificación estratégica y la toma de decisiones en las distintas
organizaciones públicas, y en sentar bases más sólidas para la responsabilización de tipo administrativo
dentro del Estado. Otro rasgo característico, en el que de hecho se vio inspirada la denominación de
este modelo, es que la mayoría de los mecanismos de evaluación de estos dos países se estructuró en
torno al proceso presupuestario, a los fines de alimentarlo con información considerada clave para
orientar la asignación de los recursos del fisco (Armijo, 2003; Freijido, 2003; Cunill Grau y Ospina
Bozzi, 2003b). Por otro lado, y en contraste con este primer modelo, en Colombia y Costa Rica la
evaluación de resultados habría sido incorporada de acuerdo con lo que Cunill Grau y Ospina Bozzi
denominaron el “modelo plan” – un enfoque que combina la búsqueda de mejoras en el proceso de
formulación de políticas y en la gestión del sector público con el objetivo declarado de aumentar el
protagonismo de la ciudadanía en el control y la fiscalización del gobierno y potenciar, por esa vía, el
carácter democrático del Estado. En este caso, la denominación del modelo alude al papel central
jugado por el plan nacional de desarrollo de cada uno de estos dos países en el funcionamiento de sus
respectivos sistemas de evaluación (Mora Quirós, 2003; Ospina Bozzi y Ochoa, 2003; Cunill Grau y
Ospina Bozzi, 2003b).
Antes de concentrarnos en los principales contrastes entre los dos modelos, resulta interesante reparar
en tres aspectos respecto de los cuales no se encontraron diferencias que parezcan responder a la
5
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
distinción entre uno y otro enfoque. El primero de estos aspectos se relaciona con el modo en que la
función de evaluación quedó organizada en uno y otro caso. En Colombia, en Costa Rica y en Uruguay,
la misma ha sido implementada bajo la forma de un sistema nacional de evaluación de la gestión
pública, mientras que en Chile, los distintos mecanismos de evaluación que se crearon no guardan
articulación formal entre sí y, por lo tanto, no constituyen un sistema, en el estricto sentido del término.
Así todo, en los últimos años, el sector público chileno ha sido testigo de importantes avances en la
integración de la información generada por sus distintos instrumentos de evaluación institucional, la
que está teniendo lugar a través de los así llamados “Balances de Gestión Integral”.4 Un segundo
aspecto importante que no parece plantear diferencias ligadas con el modelo adoptado se vincula con
los tipos de abordaje de evaluación empleados. Lo que se observa como práctica más común y
extendida es la medición periódica de desempeño, pero en dos de los cuatro países –Colombia y Chile–
las mismas se combinan con la realización de evaluaciones en profundidad de programas
seleccionados.5 Por último, el tercer aspecto en términos del cual no se encontraron diferencias notorias
es el relativo a los sectores de política pública a los que se decidió aplicar la evaluación de resultados.
En este sentido, el espectro de áreas de acción del Estado abarcadas es muy amplio, e incluye sectores
tan variados como los de Educación, Salud, Vivienda, Empleo, Medio Ambiente, y Seguridad y
Defensa.6 Esto último lleva a pensar que, aun en los casos en los que la evaluación de resultados no fue
concebida como una herramienta para la profundización de la democracia –es decir, en los países del
“modelo presupuesto”– la misma está siendo aplicada a los fines de mejorar la gestión y la
responsabilización en áreas de política que suelen tener por principales beneficiarios a los sectores de
menores ingresos, como son las de empleo y educación. Siguiendo esta lógica de razonamiento, de
tener éxito en su cometido, el uso de la evaluación en estas áreas podría también contribuir a mejorar la
equidad distributiva.
Más allá de las semejanzas entre los dos modelos, las diferencias de énfasis y prioridades que median
entre ellos se han visto reflejadas en varios de los rasgos más decisivos del diseño y el emplazamiento
institucional de sus respectivos mecanismos de evaluación. Entre estos varios rasgos, a los efectos de
este análisis, nos concentraremos en cuatro.
El primero de estos aspectos es la ubicación que se les ha dado a las iniciativas de evaluación
analizadas dentro de la estructura institucional del Estado. En el caso de los países del “modelo
presupuesto”, prácticamente todas las iniciativas de evaluación7 han sido puestas bajo la órbita de la
división gubernamental responsable de la programación presupuestaria (Armijo, 2003; Freijido, 2003;
Cunill Grau y Ospina Bozzi, 2003b), mientras que en los países del “modelo plan”, los sistemas de
evaluación dependen del Ministerio encargado de la planificación (Mora Quirós, 2003; Ospina Bozzi y
Ochoa, 2003; Cunill Grau y Ospina Bozzi, 2003b).
4
Ver Armijo (2003).
5
La diferencia principal entre la medición de desempeño y la evaluación de programas es que la medición de
desempeño se limita a determinar el grado en que el objeto de evaluación cumple con sus objetivos o con pautas pre-
establecidas pero, por sí sola, no brinda elementos suficientes para establecer las causas que derivaron en el desempeño
observado ni proporciona las claves necesarias para mejorarlo. En cambio, a través del abordaje profundo y pormenorizado
que generalmente la caracteriza, la evaluación de programas apunta no sólo a determinar si el objeto de análisis funciona de
la manera esperada sino, además, a identificar las causas por las que ello sucede y, de ser necesario, a proponer un curso de
acción para producir mejoras. La medición de desempeño se considera una parte constitutiva de la evaluación de programas
(Wholey y Newcomer, 1997; Newcomer, 1997).
6
Ver: http://www.dipres.cl/index.asp, http://www.dnp.gov.co, http://www.mideplan.go.cr/sine/index/html, y
http://www.cepre.opp.gub.uy.
7
Esto incluye al sistema de evaluación de la gestión pública de Uruguay, y a seis de los ocho mecanismos de
evaluación caracterizados por Armijo (2003) en su estudio.
6
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Un segundo aspecto en el que esto se ha visto reflejado es en los niveles del accionar gubernamental8
en los que se han centrado los esfuerzos de evaluación en uno y otro modelo. En este sentido, lo que
más se destaca es el fuerte énfasis del “modelo presupuesto” en la evaluación de resultados a nivel de
las entidades públicas, y el empeño del “modelo plan” por evaluar resultados tanto a nivel de las
entidades como a nivel de sector de política pública (educación, salud, vivienda, etc.), lo que en ambos
casos parecería guardar coherencia con las prioridades manifiestas de uno y otro modelo. En el caso del
“modelo presupuesto”, se trata de brindar apoyatura a la gestión estratégica de las entidades públicas y
de posibilitar la responsabilización administrativa de las autoridades ejecutivas de cada entidad frente a
las autoridades políticas y, dentro de cada entidad, de los gerentes subalternos frente a los de nivel más
alto. En cambio, en el “modelo plan”, el énfasis en la gestión estratégica de las entidades públicas y la
responsabilización administrativa estaría acompañado por un empeño al menos igual de importante en
posibilitar la rendición de cuentas de los autoridades electas de cara a la ciudadanía (Cunill Grau y
Ospina Bozzi, 2003b).
La tercera diferencia significativa que nos interesa destacar aquí es que, si bien en los cuatro países ha
existido la intención de vincular los resultados de la evaluación con el proceso de programación
presupuestaria –una condición sumamente importante para todo intento de aumentar la racionalidad y
la eficiencia en la asignación y en el uso de recursos (Joyce, 1997; Petrei, 1998)– los países del
“modelo presupuesto” parecerían haber tenido bastante mayor éxito en este terreno que los del “modelo
plan” (Cunill Grau y Ospina Bozzi, 2003b). Esto también parecería guardar sintonía con el relativo
énfasis de los países del “modelo presupuesto” en la eficiencia, por sobre otros valores.
Por último, un cuarto hallazgo interesante del estudio del CLAD que, según sugieren Cunill Grau y
Ospina Bozzi (2003b), podría estar reflejando también las diferencias de énfasis que median entre uno
y otro modelo es que, mientras que en tres de los cuatro países el medio predilecto para dar difusión
pública a los resultados de las evaluaciones parecería ser internet –al que, por el momento, sólo una
proporción relativamente limitada de la población tiene acceso– el único de los cuatro países
embarcado en un decidido esfuerzo por publicitar esta información a través de los medios masivos de
comunicación es Costa Rica. Dicho esfuerzo parecería guardar coherencia con uno de los objetivos más
distintivos del “modelo plan” – el de hacer de la evaluación de resultados una herramienta para la
responsabilización de la clase política y la administración pública en general hacia la ciudadanía (Mora
Quirós, 2003; Ospina Bozzi y Ochoa, 2003; Cunill Grau y Ospina Bozzi, 2003b).
En la presente sección, nos proponemos caracterizar el modo en que la evaluación de resultados ha sido
abordada en el sector público argentino. Al igual que en los cuatro países incluidos en el estudio del
CLAD, la adopción de mecanismos de evaluación como herramientas de formulación de políticas y
8
Ospina Bozzi (2001) propone agrupar los distintos niveles del accionar gubernamental en cuatro: (i) un primer
nivel centrado en el desempeño individual de los funcionarios y empleados de las diversas organizaciones y entidades que
componen el sector público, al que Ospina Bozzi se refiere como nivel micro; (ii) un segundo nivel, que toma al
funcionamiento de las distintas entidades como objeto de evaluación, caracterizado por Ospina Bozzi como nivel meso; (iii)
un tercer nivel, que centra su atención en iniciativas o programas específicos, cuya formulación e implementación pueden
involucrar a más de una organización simultáneamente o producirse a la par del desarrollo de otras iniciativas o programas
de la misma entidad y revestir interés por sí mismos (nivel de programas); y (iv) un cuarto nivel, de orden aun más alto,
centrado en las políticas sectoriales (por ejemplo, en el área de educación, salud, trabajo) o intersectoriales del gobierno, al
que Ospina Bozzi alude como el nivel macro.
7
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
gestión del Estado tuvo lugar en el marco de procesos de reforma institucional más amplios que, en
mayor o menor medida, estuvieron emparentados con los principios y las recomendaciones de la NGP.
Sin embargo, a diferencia de lo que ocurrió en tres de esos cuatro países, el establecimiento de los
distintos mecanismos de evaluación no fue fruto de un mismo proyecto ni derivó en la creación de un
sistema internamente coherente o articulado. De ahí que, a los efectos de este trabajo, hayamos optado
por concentrarnos en cuatro de las iniciativas más importantes en este terreno, que fueron puestas en
funcionamiento a partir de 1991. Estas iniciativas son: (i) el sistema de evaluación de desempeño del
personal del Sistema Nacional de Profesión Administrativa (SINAPA); (ii) los Operativos Nacionales
de Evaluación de la Calidad Educativa; (iii) el Sistema de Información, Monitoreo y Evaluación de
Programas Sociales (SIEMPRO); y (iv) los mecanismos de evaluación y seguimiento del Sistema de
Gestión por Resultados impulsado por la Subsecretaría de la Gestión Pública.
A los fines de caracterizar cada una de estas iniciativas, hemos tomado como ejes algunos de los
aspectos que, en base a los hallazgos del estudio del CLAD sobre evaluación de resultados en América
Latina, se perfilan como más relevantes. Esta opción tuvo por objeto concentrar el análisis en las
dimensiones de mayor interés y, a su vez, facilitar la comparación entre las iniciativas de evaluación de
resultados del sector público argentino y las experiencias analizadas en el estudio del CLAD. Los
aspectos en los que centramos el análisis son: (i) sus objetivos declarados; (ii) origen y localización
institucional; (iii) descripción general de los mecanismos de evaluación utilizados; (iv) ámbito de
aplicación; (v) niveles del accionar del Estado sometidos a la evaluación; (vi) coordinación con otros
mecanismos de evaluación; (vii) coordinación con la programación presupuestaria; y (viii) destino
previsto para los resultados de las evaluaciones.
9
Ver: http://www.sgp.gov.ar/sitio/empleo/evaluacion/main.html.
8
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
El personal con cargos simples es evaluado por sus superiores inmediatos en base a unos formularios
de evaluación, en los que se califica al agente en términos de una serie de ítems, con un puntaje de uno
(requerimientos del cargo superados ampliamente) a cinco (requisitos no alcanzados). Las áreas de
desempeño evaluadas varían según el nivel de responsabilidad del agente.10 Las evaluaciones volcadas
en los formularios por el superior inmediato del funcionario o empleado deben ser a su vez ratificadas o
rectificadas por un comité de evaluación compuesto por el titular de la dependencia (Dirección
Nacional, General o equivalente) a la que reporte el agente, y entre dos y cuatro funcionarios de
jerarquía inmediata inferior. En el momento de tratar las evaluaciones de los agentes de cada
dependencia participan, junto al comité de evaluación, el superior inmediato del agente y un veedor de
la Unión de Personal Civil de la Nación (UPCN)11 (Resolución ex Secretaría de la Función Pública No.
21/93).
En el caso del personal con funciones ejecutivas, la evaluación de desempeño es realizada por el
funcionario de designación política del que dependa directamente el agente evaluado o, si entre este
último y el funcionario político media un funcionario con función ejecutiva de mayor jerarquía, se
sigue un proceso de doble instancia.12 Los agentes con funciones ejecutivas son evaluados en función
de los siguientes aspectos: (i) satisfacción de objetivos, actividades y metas de gestión; (ii) las aptitudes
y actitudes básicas evidenciadas por el agente durante el desarrollo de sus funciones; y (iii) la totalidad
de su gestión, abarcando en una misma ponderación aspectos vinculados con la eficiencia en la
administración de recursos y el logro de los objetivos planteados13 (Resolución ex Secretaría de la
Función Pública No. 393/94).
Tanto en el caso del personal con funciones simples como en el del personal con funciones ejecutivas,
la suma de la totalidad de puntajes recibidos en los ítems parciales resulta en la calificación final del
desempeño del agente, que puede oscilar entre “muy destacada” y “deficiente”. Pero, a los fines de
evitar la concentración de calificaciones en los extremos de esta escala, la misma se encuentra regulada
por un sistema de cupos según el cual las calificaciones “muy destacado” y “deficiente” no pueden ser
10
El sistema contempla seis niveles de responsabilidad posibles para los cargos con funciones simples: (i) nivel
gerencial; (ii) nivel medio profesional o técnico con personal a cargo; (iii) nivel medio con personal a cargo; (iv) nivel
medio sin personal a cargo; (v) nivel operativo con personal a cargo; y (vi) nivel operativo sin personal a cargo. Los
formularios de evaluación destinados a cada una de estas categorías se encuentran disponibles en:
http://www.sfp.gov.ar/sitio/empleo/evaluacion/formularios.html#fs.
11
La UPCN es uno de los dos principales sindicatos de funcionarios y empleados públicos de la Argentina.
12
Ver: http://www.sgp.gov.ar/sitio/empleo/evaluacion/cargosejecutivos.html.
13
Los formularios de evaluación empleados para la evaluación del personal con funciones ejecutivas se encuentran
disponibles en: http://www.sfp.gov.ar/sitio/empleo/evaluacion/formularios.html#fs.
9
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
otorgadas a más del 10 por ciento de los agentes de la dependencia (en el caso del personal con
funciones simples) o ‘Unidad de Análisis’14 (en el caso del personal con funciones ejecutivas) a la que
reporten, en tanto que la calificación “destacado” puede ser aplicada a no más del 20 por ciento de los
agentes. Los resultados de las evaluaciones deben ser notificados al agente evaluado en el marco de una
entrevista de carácter obligatorio con su superior inmediato, en la que se le dan a conocer los
fundamentos de la calificación otorgada y se discuten posibles líneas de acción para mejorar el
desempeño. En caso de disconformidad con la calificación recibida, el agente puede interponer un
recurso de reconsideración ante la misma autoridad evaluadora, o apelar ante una instancia superior
(Resolución ex Secretaría de la Función Pública No. 393/94).
Nivel de accionar gubernamental evaluado. La evaluación del desempeño del personal que se realiza
en el marco del SINAPA abarca exclusivamente el nivel de desempeño individual.
Coordinación con otros mecanismos de evaluación. A pesar de que –según se enuncia en la Resolución
No. 21/93 de la ex Secretaría de la Función Pública, en la que se regula la evaluación del personal con
funciones simples– las evaluaciones de desempeño deben efectuarse “...de acuerdo con las funciones
que [...] realice el agente para el cumplimiento de los objetivos de la unidad organizativa en la que
preste servicios...” (Art. 20), los instrumentos de evaluación utilizados no vinculan el desempeño
individual del personal con las mediciones de resultados que se desarrollan a nivel organizacional en el
marco del Sistema de Gestión por Resultados impulsado por la Subsecretaría de la Gestión pública (ver
abajo).
Destino previsto para los resultados de la evaluación. Los resultados de la evaluación del personal son
utilizados a los fines de identificar la posible necesidad de ajustes en el desempeño de los agentes de la
administración pública, orientar la eventual introducción de mejoras, premiar el desempeño destacado y
penalizar el deficiente. En efecto, la información sobre el desempeño de cada agente tiene incidencia
directa sobre sus posibilidades de permanecer en el cargo16, ser promovido y acceder a nuevos cargos.
Sumado a ello, existe también una bonificación por desempeño destacado que se otorga a un máximo
del 10 por ciento de los agentes con funciones simples evaluados en cada jurisdicción, y hasta a un 10
por ciento de los agentes con funciones ejecutivas de cada Unidad de Análisis (Resoluciones de la ex
Secretaría de la Función Pública Nos. 21/93 y 393/94).
14
A manera de ilustración de lo que se entiende por ‘Unidades de Análisis’, se mencionan las ‘Unidades Ministro’,
las ‘Secretarías Ministeriales’, las Secretarías de la Presidencia de la Nación y los Organismos Descentralizados [ver:
http://www.sgp.gov.ar/sitio/empleo/evaluacion/cargosejecutivos.html].
15
Según Marcos Makón (ca. 2001), ex Secretario de Modernización del Estado, la proporción del personal de la
administración pública nacional afectado por el SINAPA sería aproximadamente del 10 por ciento.
16
Tres calificaciones deficientes consecutivas o cuatro alternadas son consideradas motivo suficiente de cesantía.
10
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Objetivos. De acuerdo con lo que establece la Ley Federal de Educación, la evaluación permanente del
sistema educativo debe estar orientada a “garantizar la calidad de la formación impartida en los
distintos ciclos, niveles y regímenes especiales”. Con tal fin, la misma debe verificar la adecuación de
sus contenidos curriculares “...a las necesidades sociales y a los requerimientos educativos de la
comunidad” (Arts. 48 y 49) – lo que incluye, entre otros aspectos, la identificación de desniveles en la
calidad de la educación impartida en distintos puntos del país. Según se enuncia en una de las páginas
web del Ministerio de Educación de la Nación dedicadas a la evaluación de la educación17, se espera
que los resultados de la misma permitan: (a) retroalimentar los procesos de planificación y toma de
decisiones que se desarrollan en las diversas Secretarías del Ministerio de Educación de la Nación y en
los Ministerios de Educación provinciales; (b) dotar a los directivos y docentes de cada establecimiento
escolar con la información necesaria para evaluar y reformular sus estrategias y modalidades
pedagógicas; (c) brindar a las familias de los estudiantes información sobre los niveles de aprendizaje
alcanzados por sus hijos, de modo tal de dotarlos con una herramienta que les permita controlar la
calidad del servicio que reciben; y (d) evaluar el impacto de programas compensatorios y de políticas
de innovación educativa. En síntesis, el principal propósito de la evaluación practicada en el contexto
de los Operativos Nacionales parecería estar centrado en posibilitar el seguimiento de los resultados de
la política educativa y, cuando se juzgue necesario, orientar la introducción de mejoras, tanto a nivel
del sector en general como de los establecimientos educativos en particular.
17
Ver: http://www.mcye.gov.ar/oea/experiencias/argentina/exp4.html.
18
Ver: http://diniece.me.gov.ar/.
19
Los tres grados (“años”) de la EGB a los que se aplican las evaluaciones marcan la finalización de un ciclo de la
misma: tercer grado (tercer año de la EGB), sexto grado (sexto año de la EGB), y segundo año (noveno año de la EGB)
(Ver: http://diniece.me.gov.ar/documentos/pruebasnacionales2.pdf).
20
Ver también: http://diniece.me.gov.ar/documentos/pruebasnacionales2.pdf.
11
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Ambito de aplicación. Como su propio nombre lo indica, los Operativos Nacionales de Evaluación de
la Calidad Educativa tienen por objeto evaluar resultados en un área de política pública en particular,
que es la de la educación. Dentro de la misma, han tomado como ámbito de aplicación a la enseñanza
básica común y media, dejando de lado la enseñanza básica especial, la educación para adultos22 y otras
especialidades del nivel medio.
Niveles del accionar del Estado evaluados. Los resultados de los Operativos Nacionales permiten
realizar un seguimiento del modo en que las políticas impulsadas a nivel de cada jurisdicción en el área
educativa inciden sobre el aprendizaje de los alumnos. Esto los convierte en un instrumento de
evaluación a nivel de sector o de política sectorial. En los casos en los que las evaluaciones permiten
identificar el desempeño de escuelas específicas –como sucede con los alumnos del sexto año de la
EGB y los del último año de las escuelas medias– los Operativos pueden funcionar también como un
mecanismo de medición de resultados a nivel de los propios establecimientos escolares (nivel
organizacional o institucional). Sin embargo, el carácter muestral que los Operativos Nacionales tienen
en los otros dos ciclos que conforman la Educación General Básica (EGB) limitan esta posible
aplicación.
21
Ver: http://diniece.me.gov.ar/documentos/pruebasnacionales2.pdf.
22
Hasta el momento, la única excepción en este sentido ocurrió en 1999, año en el que los Operativos Nacionales de
Evaluacion incluyeron también a los estudiantes adultos, los que fueron evaluados en las áreas de matemática y lengua (Ver:
http://diniece.me.gov.ar/documentos/pruebasnacionales2.pdf).
23
Al igual que los Operativos Nacionales de Evaluación, la Red Federal de Información depende de la Dirección
Nacional de Información y Evaluación de la Calidad Educativa del Ministerio de Educación, Ciencia y Tecnología de la
Nación.
24
Según Nores (2002), 14 de las 24 jurisdicciones provinciales del país han implementado en algún momento
modelos de evaluación de la calidad de la educación o experiencias de complemento a los esfuerzos realizados por el
sistema nacional.
12
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Destino previsto para los resultados de la evaluación. Además de a las propias autoridades educativas
de los niveles nacional, provincial y municipal, los resultados de las evaluaciones realizadas a través de
los Operativos Nacionales tienen por destinatarios directos a los establecimientos evaluados, a las
comisiones de educación de ambas cámaras del Congreso Nacional, a los maestros y profesores y a las
familias de los estudiantes evaluados, y a la comunidad en general. A tales fines, esta información es
proporcionada de manera directa a las escuelas evaluadas y, según dispone la ley, debería ser también
elevada de modo directo a las comisiones legislativas de educación bajo la forma de un informe anual.
Sin embargo, hasta el momento, este último requerimiento se ha venido cumpliendo de manera
irregular. Por otra parte, los resultados de los Operativos de Evaluación son dados a conocer al público
en general a través de una conferencia de prensa por parte del Ministro del área. Sin embargo, hasta
ahora, sólo se le ha dado publicidad a una parte de los resultados (Nores, 2002).25
Los Operativos Nacionales complementan los resultados de las pruebas estandarizadas con la
información proveniente de la aplicación de los cuestionarios autoadministrados a directivos, docentes
y alumnos de los establecimientos educativos a los fines de detectar la necesidad de posibles ajustes –
ya sea a nivel nacional, provincial o local– y de orientarse en el desarrollo de recomendaciones
metodológicas y materiales de apoyo destinados a contribuir al mejoramiento de la enseñanza en las
escuelas (Chumbita, 1997; Tulic, 1996).
Objetivos. Entre los principales objetivos que llevaron a la creación del SIEMPRO, se cuentan los
siguientes: (i) aumentar la eficiencia y la eficacia de los programas destinados a la población en
situación de pobreza; (ii) establecer un sistema de información permanente de la situación de pobreza y
vulnerabilidad social, que permitiera mejorar la formulación de los programas existentes, identificar
nuevas necesidades y focalizar las intervenciones en la búsqueda de una mayor eficiencia y eficacia en
el uso de los recursos; (iii) brindar soporte logístico, organizativo y técnico al proceso de transferencia
de estas funciones a los niveles nacional, provincial y local; (iv) apoyar la institucionalización de
nuevos modelos de gestión de las políticas y programas sociales, mediante acciones de capacitación,
transferencia y comunicación social; y (v) realizar investigaciones y estudios que permitieran mejorar
el proceso de toma de decisiones, la formulación, conducción y ejecución de las políticas y programas
sociales destinados a la población en situación de pobreza y vulnerabilidad social (Novacovsky y otros,
ca. 1996). En otras palabras, el SIEMPRO procura introducir mejoras en términos de la eficiencia y la
eficacia –dos de los valores más emblemáticos de la NGP– en las políticas y programas dirigidas a la
25
Tanto las publicaciones como los archivos de datos disponibles en el sitio de internet de la Dirección Nacional de
Información y Evaluación de la Calidad Educativa del Ministerio de Educación, Ciencia y Tecnología
(http://diniece.me.gov.ar/), incluyen información agregada a nivel provincial, que no permite identificar diferencias entre
distintos establecimientos educativos en términos del desempeño de sus alumnos.
13
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
14
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Ambito de aplicación. De acuerdo con Nerio Neirotti (2000) –por entonces, Gerente de Evaluación y
Monitoreo del SIEMPRO– en el momento en que se creó el SIEMPRO, existía el propósito de extender
su ámbito de incumbencia a la totalidad de las áreas sociales, algunas de las cuales se hallaban (y aún
siguen estando) fuera de la órbita de la ex Secretaría de Desarrollo Social. Sin embargo, el mismo
nunca llegó a trascender de manera efectiva el ámbito de la Secretaría (hoy, Ministerio) de Desarrollo
Social. Según el Lic. Neirotti, esto se debió al menos en parte a que el SIEMPRO no contaba con la
autoridad necesaria como para asegurar que los programas dependientes de otros Ministerios le
proporcionaran la información necesaria. En este sentido, parecería en principio posible que el traspaso
del SIEMPRO a la órbita del Consejo Nacional de Coordinación de Políticas Sociales, creado en el año
2002, contribuya a revertir al menos en parte esta situación.27
Así todo, el SIEMPRO llegó a evaluar programas de otros Ministerios, como el Programa Trabajar (del
Ministerio de Trabajo y Seguridad Social) y el Programa Social Agropecuario (de la Secretaría de
Agricultura, Ganadería y Pesca del Ministerio de Economía). Sin embargo, según Neriotti (2000), lejos
de haber reflejado una estrategia racional y coherente, o una determinación política por parte del
gobierno para generar un insumo crítico para la mejora de la gestión, el proceso que derivó en selección
de estos y otros programas para ser evaluados habría sido más bien producto de “la casualidad y las
contingencias ambientales” (p. 6). Entre los muchos factores que habrían incidido en este proceso,
Neirotti destaca la influencia de las condicionalidades impuestas por los organismos internacionales de
crédito para el otorgamiento de préstamos.28
Coordinación con otros mecanismos de evaluación. Un aspecto que el SIEMPRO parece haber
encarado con relativo éxito es el que atañe a la coordinación y complementación de sus esfuerzos con
las autoridades de las áreas sociales de los gobiernos provinciales y de algunos otros Ministerios
nacionales en las áreas de evaluación y sistematización de información proveniente del monitoreo de
programas, la provisión de asistencia técnica y la capacitación. También en lo que hace a la generación
de información crítica para la detección de necesidades y la elaboración y el seguimiento de políticas
sociales, a través de la Encuesta Nacional de Desarrollo Social.
Sin embargo, la evaluación de programas y de políticas sociales que realiza el SIEMPRO no guarda
coordinación formal alguna con los esfuerzos de evaluación de desempeño organizacional que se
impulsan desde la Subsecretaría de la Gestión Pública (ver abajo). Tampoco parece existir una división
de tareas clara entre el SIEMPRO y otras dependencias del Gobierno Nacional desde las que se
26
A manera de ilustración, ver SIEMPRO (1999).
27
Entrevista personal con el Lic. Nerio Neirotti, realizada en Buenos Aires el 4 de enero de 2003.
28
La importancia de las condicionalidades impuestas por los organismos de crédito fue también señalada como un
elemento crítico en este sentido por el Dr. Armando Caro Figueroa, ex Ministro de Trabajo y Seguridad Social de la Nación
(1993-1997), durante una entrevista personal realizada en Nueva York el 7 de abril de 2003. Según Neirotti (2000), en base
a un análisis de información correspondiente al periodo 1995-1999, la cartera de Trabajo fue la que tuvo la más alta
proporción de su gasto sometida a evaluaciones de algún tipo.
15
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
impulsan evaluaciones de programas ad-hoc (por ejemplo, el Ministerio de Economía) (Neirotti, 2001).
Coordinación con la programación presupuestaria. Según sostienen diversos autores, debido a las
debilidades propias de la programación presupuestaria en el Estado nacional, la vinculación entre los
resultados y los recursos de los programas plantea aún serias dificultades (Mora Quirós, 2000; Makón,
2000 y 2001; Neirotti, 2001; Rodríguez Larreta y Repetto, 2000).
Destino previsto para los resultados de la evaluación. Tanto la información que concentra el Sistema
Integrado de Monitoreo de Programas Sociales (SIM), como los resultados de la Encuesta de
Desarrollo Social y las evaluaciones de programas realizadas por el SIEMPRO se encuentran a
disposición del público a través de internet.29 Por otra parte, los resultados de la Encuesta de Desarrollo
Social han recibido también una buena cuota de atención en los medios. No obstante, más allá del
relativo grado de difusión que se le da a esta información –el que, hasta el momento, ha sido bastante
mayor para los resultados de la Encuesta que para el resto– no existen mecanismos concretos
destinados a alentar su uso por parte de las autoridades nacionales y provinciales responsables de
desarrollar políticas destinadas a la población en situación de pobreza o los responsables de los
programas evaluados. Las recomendaciones incluidas en las evaluaciones del SIEMPRO no tienen
carácter obligatorio, y tampoco existen consecuencias materiales predefinidas ligadas al desempeño de
los programas (Neirotti, 2001).
Objetivos. A través del Sistema de Gestión por Resultados, la Subsecretaría de la Gestión Pública de la
Jefatura de Gabinete de Ministros se propone impulsar la modernización de la gestión en el Estado
argentino, con el fin de “…generar un aparato estatal al servicio del ciudadano, en un marco de
transparencia, eficiencia, eficacia y calidad en la atención y prestación de servicios” (Subsecretaría de
la Gestión Pública, 2003: 5). En este marco, el establecimiento de un sistema de monitoreo y
evaluación de resultados de la gestión es visto como una condición fundamental para poder comparar
lo efectivamente logrado con lo planificado, a los fines de detectar potenciales problemas y/o
deficiencias sobre la marcha e introducir las correcciones necesarias lo antes posible, tomando en todo
momento “…como referencia central a los destinatarios de sus servicios: los clientes/ciudadanos”
(Halliburton y Guerrera, 2002: 1). Al mismo tiempo, se espera que el monitoreo y la evaluación de
resultados jueguen un rol clave en los esfuerzos por refundar los sistemas de responsabilización dentro
de las organizaciones públicas, tomando como base “…un nuevo eje rector: el cumplimiento de
resultados previamente comprometidos, en el marco de criterios verificables…” (Dirección de
Planeamiento y Reingeniería Organizacional, 2002: 9). Tanto por los objetivos que se plantea alcanzar
como por los argumentos que fundamentan su propia introducción y la del Sistema de Gestión por
Resultados, los mecanismos de monitoreo y evaluación de este último se perfilan como la iniciativa
que más fielmente se ciñe a los postulados típicos de la NGP, de las cuatro iniciativas que analizamos
en esta sección.
Origen y localización institucional. Aunque el Sistema de Gestión por Resultados que coordina la
Subsecretaría de la Gestión Pública es fruto de un esfuerzo que comenzó a gestarse a mediados de la
29
Ver: http://www.siempro.gov.ar.
16
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
década del ’9030, el lanzamiento oficial de sus componentes principales se produjo recién entre los años
2000 y 2001, con la promulgación de los Decretos 229/2000, 103/2001 y 992/2001 en el marco del
Plan Nacional de Modernización que impulsó el gobierno de Fernando de la Rúa, a poco de asumir la
presidencia. El Sistema de Gestión por Resultados ha sido desarrollado y se encuentra coordinado por
la Subsecretaría de la Gestión Pública de la Jefatura de Ministros de Gabinete. La estrategia de
implementación elegida por los equipos de la Subsecretaría de la Gestión Pública ha venido priorizando
el trabajo individualizado y en profundidad con las entidades que participan del Sistema, lo que le ha
dado al proceso de implantación un carácter gradual. De allí que, como reconoce la Arq. Carmen
Porqueres de Sycz, Directora Nacional de la Oficina Nacional de Innovación de Gestión, el Sistema no
se encuentre aún “en pleno funcionamiento” sino, más bien, en proceso de “implementación y
ajuste”.31
30
A manera de ilustración, entre fines de 1995 y principios de 1996, el gobierno del Presidente Carlos Menem
convocó a dos de los especialistas más representativos de la Nueva Gestión Pública –Ruth Richardson (ex ministra de
Economía de Nueva Zelanda) y David Osborne (co-autor, junto con Ted Gaebler, del libro Reinventing Government)– en
busca de asesoramiento para su finalmente inconclusa “Segunda Reforma del Estado” (Rinne, 2003). En agosto de 1996, se
dictó el Decreto 928, con el que se procuró comenzar a sentar las primeras bases para la gestión por resultados estableciendo
la obligatoriedad de diseñar planes estratégicos para los organismos descentralizados, y mencionando la necesidad de
orientar al Estado al ciudadano y medir resultados (Makón, 2000). Por último, la primera experiencia piloto con el programa
Carta Compromiso con el Ciudadano tuvo lugar en la provincia de Mendoza en 1998 – es decir, dos años antes de su
lanzamiento oficial a nivel nacional (Rodríguez Larreta y Repetto, 2002).
31
Entrevista personal con la Arq. Carmen Porqueres de Sycz, realizada en Buenos Aires el 10 de enero de 2003.
32
Los Acuerdos Programa se conocen también bajo el nombre de “Compromisos de Desempeño Institucional”.
33
Cuatro de los Acuerdos Programa firmados hasta el momento se encuentran a disposición del público en:
http://www.sfp.gov.ar/sitio/innovacion/acuerdos/main.html.
17
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
(iii). Las Cartas Compromiso con el Ciudadano (CCC): Estas cartas son suscritas por el máximo
responsable de cada organización y el Jefe de Gabinete de Ministros, representando este último “la
voluntad soberana depositada en el Presidente de la Nación” (Dirección de Planeamiento y
Reingeniería Organizacional, 2002: 16). A partir de la firma de las CCCs, los organismos se ven en la
necesidad de comenzar a cumplir con una serie de pautas, que incluyen, entre otras: establecer un
sistema de monitoreo y evaluación de su propio cumplimiento con los estándares de servicio
comprometidos; realizar una amplia difusión de los resultados de su gestión; establecer un sistema de
quejas y reclamos, así como mecanismos de consulta a los usuarios con miras a mejorar la calidad y la
receptividad respecto de sus expectativas y demandas (Morán y otros, 2003).34
La medición y el seguimiento del grado de cumplimiento con los resultados comprometidos constituye
un elemento central en los tres componentes del Sistema de Gestión por Resultados. Por tal motivo,
dentro de cada entidad incorporada al Sistema se ha creado una unidad específicamente destinada a tal
fin. Sumado a ello, con el objeto de asegurarse que estas unidades de monitoreo puedan cumplir con
sus objetivos adecuadamente, la Subsecretaría de la Gestión Pública les proporciona apoyo mediante
asistencias técnicas puntuales en áreas tales como desarrollo de los criterios para la evaluación de
resultados, formulación de indicadores, mejoramiento de los sistemas de información, y diseño de
sistemas de retroalimentación para la toma de decisiones. Una vez recolectada esta información, las
unidades de monitoreo y los profesionales de la Subsecretaría de la Gestión elaboran los informes
trimestrales y anuales consensuadamente, evalúan la posible existencia de problemas con la medición
y, en caso de detectarlos, elaboran planes de acción para corregirlos. En caso de identificar aspectos
importantes de la gestión que requieran ser fortalecidos, se notifica a las autoridades del organismo a
fin de que las mismas realicen los ajustes necesarios (Subsecretaría de la Gestión Pública, 2002).
La mayor parte –si no la totalidad– del material sobre medición y evaluación de resultados publicado
hasta el momento por la Subsecretaría de la Gestión Pública se refiere al programa Carta Compromiso
con el Ciudadano. En el marco de dicho programa, la evaluación del desempeño de cada organismo
participante resulta en un puntaje final, producto de la combinación de puntajes parciales en las
siguientes áreas: (a) la calidad de los servicios prestados; (b) las características de los puntos de
atención al público en términos de la adecuación de sus instalaciones y sus horarios de atención, la
calidad de la atención, etc.; (c) la amplitud y la accesibilidad de la información brindada a los usuarios
y al público en general en términos de los servicios prestados, condiciones para acceder a los mismos,
estándares de servicio y desempeño de la organización; (d) la importancia que se les da a las consultas
con los “clientes/ciudadanos” respecto de sus preferencias y niveles de satisfacción, y el tratamiento
dado a eventuales quejas y reclamos; y (e) la calidad del sistema de medición y monitoreo, y el uso
dado a la información resultante del mismo dentro de la propia entidad. A los efectos de la calificación
final otorgada a cada organismo, la ponderación relativa de estos distintos aspectos varía según se trate
de una organización con mucha o poca concurrencia de público a sus puntos de puntos de contacto, o
bien un organismo o ente regulador (Halliburton y Guerrera, 2002).
Ambito de aplicación. De los tres componentes que integran el Sistema de Gestión por Resultados, el
programa Carta Compromiso con el Ciudadano tiene por universo de aplicación al conjunto de
organismos prestadores de bienes o servicios del Estado. Es decir que no apunta a incorporar a las áreas
de la administración pública que que se centran en la formulación de políticas y/o no brindan un
producto o servicio directo a la ciudadanía. En cambio, los Acuerdos Programa y los Compromisos de
34
La siguiente página web de la Subsecretaría de la Gestión Pública incluye copias de las Cartas Compromiso con el
Ciudadano firmadas hasta el momento, así como detalles respecto de los estándares y los resultados de la evaluación de la
gestión de distintos organismos públicos: http://cartacompromiso.sgp. gov.ar.
18
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Gestión por Resultados están destinados a la misma población objetivo que el programa Carta
Compromiso y, además, al conjunto de los organismos que conforman el Poder Ejecutivo Nacional.
Si bien el Sistema de Gestión por Resultados de la Subsecretaría de Gestión fue diseñado para el
Estado nacional, esto se hizo con el entendimiento de que, “…dado que la mayoría de los servicios
estatales prestados de manera directa a la ciudadanía son provistos por los gobiernos provinciales y
municipales”, este esfuerzo iba a tener que extenderse también a los Estados provinciales y a los
municipios (Subsecretaría de la Gestión Pública, 2003: 46). En línea con ello, a partir de la firma del
Pacto Federal de Modernización del Estado, en junio de 2001, la Subsecretaría de la Gestión Pública ha
brindado su apoyo técnico y académico a organismos dependientes de las administraciones provinciales
a través del Consejo Federal de la Gestión Pública (Subsecretaría de la Gestión Pública, 2003; Pacto
Federal de Modernización del Estado, 2001).
Niveles del accionar del Estado evaluados. Los mecanismos de monitoreo y evaluación de resultados
del Sistema de Gestión por Resultados están exclusivamente centrados en el desempeño
organizacional. Sin desmedro de ello, el Sistema distingue entre los diferentes niveles internos a las
35
Entrevista personal con la Arq. Carmen Porqueres de Sycz, realizada en Buenos Aires el 10 de enero de 2003.
36
Entrevista personal con la Arq. Carmen Porqueres de Sycz, realizada en Buenos Aires el 10 de enero de 2003.
37
Según consta en el sitio de internet de la Subsecretaría de la Gestión Pública, entre los organismos que han suscrito
convenios de distinta naturaleza en el marco del Sistema de Gestión por Resultados hasta el momento (julio de 2003),
figuran: la Administración Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT); la Administración
Nacional de Seguridad Social (ANSeS); la Autoridad Regulatoria Nuclear (ARN); la Biblioteca Nacional; la Biblioteca
Nacional de Maestros; el Comité Nacional de Radiodifusión (COMFER); el Consejo Nacional de Regulación del
Transporte; la Dirección Nacional de Migraciones; la Dirección Nacional de Patrimonio, Museos y Artes; la Dirección
Nacional de Métodos Participativos de Justicia; el Hospital Dr. Baldomero Sommer; la Inspección General de Justicia; el
Instituto de Economía Social y Asociativismo (INAES); el Instituto Nacional contra la Discriminación, la Xenofobia y el
Racismo; el Instituto Nacional de la Propiedad Industrial (INPI); el Instituto Nacional de Tecnología Industrial (INTI); el
Organismo Regulador del Sistema Nacional de Aeropuertos; la Oficina Anticorrupción; Prefectura Naval Argentina; el
Programa Materno Infantil y Nutricional del Ministerio de Salud; el Registro Nacional de las Personas; el Registro de
Propiedad Inmueble; la Secretaría de la Competencia, la Desregulación y la Defensa del Consumidor; la Secretaría de
Cultura de la Nación; la Secretaría de Derechos Humanos; la Secretaría de Política Económica; la Secretaría de Salud
dependiente del Ministerio de Bienestar Social de la Pcia. de Jujuy; el Servicio Argentino de Informática Jurídica (SAIJ); el
Servicio de Conciliación Laboral Obligatoria; el Servicio Geológico Minero Argentino (SEGEMAR); la Subsecretaría de
Política Criminal; la Superintendencia de Riesgos del Trabajo (SRT); y la Superintendencia de Servicios de Salud.
19
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
distintas organizaciones y procura vincularlos entre sí y con los objetivos estratégicos del gobierno
nacional a través de varios instrumentos. De acuerdo con esta lógica, la misión de los Acuerdos
Programa sería la de plasmar los compromisos de desempeño que cada entidad asume con el poder
político; la de las Cartas Compromiso con el Ciudadano sería la de hacer lo propio entre cada entidad y
los usuarios de sus servicios y la ciudadanía en general; y la de los Compromisos de Gestión de
Resultados sería la de dejar plasmados los compromisos asumidos por los niveles gerenciales y medios
de las organizaciones públicas con las máximas autoridades de las mismas, y entre distintas áreas de las
entidades.
Si bien en la concepción inicial de los Acuerdos Programa estaba previsto que los mismos funcionaran
como nexo entre los objetivos de gestión de cada organización pública y los objetivos estratégicos del
gobierno nacional, hasta el momento, esta conexión no resulta tan clara. En este sentido, es muy
probable que la difusa conexión entre los objetivos organizacionales y los del plan de gobierno en
vigencia radique al menos en parte en la inexistencia, en la Argentina, de un plan estratégico global
explícito, que funcione como eje organizador para el sector público en su conjunto (Ossorio, 2003) – a
la manera de lo que ocurre en países como Colombia y Costa Rica, donde existe la figura del ‘plan
nacional de desarrollo’.
Coordinación con otros mecanismos de evaluación. El Sistema de Gestión por Resultados no parece
contemplar – al menos de modo explícito– la articulación de sus mediciones de desempeño y resultados
con la evaluación de programas que se desarrolla en el marco del SIEMPRO o las evaluaciones de los
resultados de la educación que se realizan en el contexto de los Operativos Nacionales de Evaluación
de la Calidad Educativa.
Destino previsto para los resultados de la evaluación. Según se dispone en la normativa que regula el
Sistema de Gestión por Resultados, la información obtenida a través de los mecanismos de monitoreo y
seguimiento debe ser elevada al Vicepresidente de la Nación bajo la forma de informes de avance, con
la “…previa revisión y aprobación de la Secretaría para la Modernización del Estado de la
Vicepresidencia de la Nación y la Subsecretaría de la Gestión Pública de la Jefatura de Gabinete de
Ministros” (Decreto 229/2000). Asimismo, en el marco del programa Carta Compromiso con el
38
A manera de ejemplos, pueden tomarse el requerimiento de que, al presentar su proyecto de Presupuesto General
de la Administración Pública Nacional al Congreso, el Poder Ejecutivo detalle en el mismo los Acuerdos Programas
celebrados y sus respectivos montos (Ley 25.152, Art. 6), y la disposición de que los Compromisos de Gestión de
Resultados no se extiendan mas allá de cada ciclo fiscal (Decreto 992/2001, Arts. 6 y 7; Halliburton y Guerrera, 2002).
39
Entrevista personal con la Arq. Carmen Porqueres de Sycz, realizada en Buenos Aires el 10 de enero de 2003.
20
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Ciudadano, cuando las tareas de seguimiento y análisis del desempeño de las organizaciones que
realizan conjuntamente las unidades internas de monitoreo y los profesionales de la Subsecretaría de
Gestión Pública resultan en la identificación de la necesidad de ajustes, estos resultados deben ser
dados a conocer a la alta dirección del organismo (Subsecretaría de la Gestión Pública, 2002). Por
último, una de las condiciones fijadas a las entidades participantes del programa Carta Compromiso
con el Ciudadano es la de brindar amplia difusión a los resultados de su gestión, tomando como
destinatarios a sus usuarios directos y al público en general. De allí que, al momento de evaluar su
desempeño, el sistema de monitoreo repare, entre otros aspectos, en la amplitud y la accesibilidad de la
información sobre resultados de la gestión, la calidad del sistema de medición y monitoreo instalado, y
el uso dado a la información resultante del mismo dentro de la propia organización, y estos aspectos
afecten su calificación final (Halliburton y Guerrera, 2002).
Sumado a esto, la Subsecretaría de la Gestión Pública ha creado un sitio de internet en el que se incluye
información sobre los resultados de gestión de las entidades evaluadas, además de detalles sobre el
estado de ejecución de los presupuestos de gastos y del cálculo de recursos; estado de situación, perfil
de vencimientos y costo de la deuda pública; información acerca de la regulación y el control de los
servicios públicos obrante en los entes reguladores, etc. Este sitio de internet quedó registrado bajo la
denominación www.cristal.gov.ar, en alusión a la transparencia que se buscó darle a la administración
pública a través de la amplia difusión de todo esta información. La información sobre resultados de la
gestión de los organismos que participan del Sistema de Gestión por Resultados puede ser también
consultada en el sitio de internet de la Subsecretaría de la Gestión Pública40 y en las páginas web
individuales de algunos de los propios organismos. Sin embargo, en la Argentina, la proporción de la
población con fácil acceso a internet es limitada41, lo cual plantea serias dudas acerca del alcance
efectivo que una estrategia de difusión tan ligada a la internet puede llegar a tener (Razzotti, 2003).
La primera evaluación del programa Carta Compromiso con el Ciudadano, realizada conjuntamente por
la Subsecretaría de la Gestión Pública y las propias entidades participantes en 2001, llegó a la
conclusión de que la primera ronda de Cartas había sido implementada sin suficiente conocimiento por
parte de los usuarios y ciudadanos. La evaluación también concluyó que los “clientes/ciudadanos” no
estaban participando en la definición de las metas esperadas ni en la definición de los criterios de
calidad de los servicios ofrecidos, ni existían aún mecanismos para que los ciudadanos evaluaran el
desempeño de las organizaciones o auditaran su funcionamiento. De ahí que, en respuesta a esta
situación, la Subsecretaría de la Gestión Pública haya decidido crear la Unidad Sociedad Civil del
programa, “…con el objetivo de impulsar en los organismos una serie de estrategias y modalidades de
participación, destinadas a involucrar a los clientes/ciudadanos en la gestión, evaluación y control de
los mismos y promover una administración más transparente” (Halliburton y otros, 2002: 160) y
contratar los servicios de una consultora en temas de comunicación para fortalecer la estrategia de
difusión de los resultados del Sistema.42
Por otra parte, el Sistema de Gestión por Resultados contempla varios mecanismos destinados a atraer
la atención de las distintas partes involucradas (funcionarios de las propias entidades, autoridades
políticas, usuarios y público en general) hacia los resultados de la gestión de las entidades públicas y a
alentar el uso de la información originada en las mediciones de desempeño. Por ejemplo, al aprobar el
Plan Nacional de Modernización en enero de 2001, el Decreto 103 estableció que los organismos
públicos embarcados en procesos de modernización que cumplieran con todas las pautas establecidas
40
Ver: http://www.sgp.gov.ar.
41
Según Razzotti (2003: 5), en el año 2000, la penetración de internet en la Argentina era del 7 por ciento de la
población.
42
Entrevista personal con la Arq. Carmen Porqueres de Sycz, realizada en Buenos Aires el 10 de enero de 2003.
21
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
quedarían habilitados a disponer de hasta el 75 por ciento de los ahorros que obtuvieran a raíz de las
reformas. Dichos ahorros podrían ser utilizados, entre otros fines, para “…otorgar incentivos salariales
o premios por mayor productividad, calidad de servicios y cumplimiento de resultados” (Art. 6). A su
vez, el Decreto dispuso que los organismos que cumplieran con los objetivos y metas fijados en sus
Acuerdos Programa, podrían verse beneficiados con flexibilidades de gestión vinculadas a la
administración de sus recursos financieros, al régimen de contratación de bienes y servicios, a la
realización de modificaciones en sus estructuras organizativas, y a la creación de un sistema de
incentivos —tanto para los niveles gerenciales como operativos— otorgados en función del
cumplimiento de objetivos prefijados (Art. 7).
A la luz de las experiencias de los países latinoamericanos analizados por el estudio del CLAD en el
área de evaluación y gestión pública, uno de los rasgos que se perfilan como más distintivos del modo
en que la evaluación de resultados se está viendo incorporada en el sector público argentino es la
fragmentación. A diferencia de lo que ocurrió en Colombia, Costa Rica y Uruguay, los distintos
mecanismos de evaluación adoptados no forman parte de un sistema internamente coherente y
articulado, sino que han surgido en el marco de iniciativas independientes entre sí y, hasta el momento,
han mantenido su autonomía respecto de los demás mecanismos. En este sentido, lo que se observa en
la Argentina parecería asemejarse más a la opción que prevaleció en el sector público chileno, donde se
decidió prescindir de la conformación de un sistema de evaluación propiamente dicho. Sin embargo, las
iniciativas de evaluación del sector público argentino presentan un grado de disociación entre sí que es
claramente mayor que el que media entre los mecanismos de evaluación de resultados de Chile, lo cual
se ve reflejado al menos de dos formas.
Por un lado, a diferencia de Chile, donde seis de los ocho instrumentos de evaluación de resultados
caracterizados por Armijo (2003) dependen de un mismo organismo gubernamental –la Dirección de
Presupuestos del Ministerio de Hacienda– en la Argentina, las cuatro iniciativas de evaluación aquí
analizadas se encuentran a cargo de tres organismos diferentes: la Subsecretaría de la Gestión Pública,
en los casos del sistema de evaluación de desempeño del SINAPA y de los mecanismos de monitoreo y
22
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
evaluación del Sistema de Gestión por Resultados; el Consejo Nacional de Coordinación de Políticas
Sociales, en el caso del SIEMPRO; y el Ministerio de Educación de la Nación, en el caso de los
Operativos Nacionales de Evaluación de la Calidad Educativa. Posiblemente el hecho de que, en el
sector público chileno, la mayoría de los mecanismos de evaluación se halle bajo la órbita de un mismo
organismo haya facilitado la progresiva articulación de la información generada por varios de estos
instrumentos, que se ha venido registrando en los últimos años a través de los Balances de Gestión
Integral. En este sentido, la relativamente reciente decisión del gobierno argentino de transferir al
SIEMPRO del Ministerio de Desarrollo Social al Consejo Nacional de Coordinación de Políticas
Sociales –del que, además del propio Ministerio de Desarrollo Social, también forman parte los
Ministerios de Trabajo, Educación, Salud y Economía– podría estar sentando las bases para un accionar
más coordinado entre el SIEMPRO, el Ministerio de Educación y los demás Ministerios involucrados
en el Consejo.
El segundo aspecto en que la disociación entre los mecanismos de evaluación del sector público
argentino se ve puesto de manifiesto radica en la relativa segmentación que se observa entre los
mismos en términos de los sectores de política pública y áreas de funcionamiento del Estado a los que
se aplican. Como vimos previamente, tanto en Chile como en los demás países analizados por el
estudio del CLAD, el espectro de áreas de acción del Estado abarcadas por las mediciones de
desempeño y las evaluaciones de programas es muy amplio y variado. Por contraste, en la Argentina,
los ámbitos de incumbencia y aplicación de estos mecanismos parecerían variar de acuerdo con el
organismo gubernamental del que dependan. Por ejemplo, en el caso del SIEMPRO, las actividades de
monitoreo y evaluación de programas han tomado hasta ahora por universo de aplicación al conjunto
de programas dependientes del Ministerio de Desarrollo Social y, sólo en ocasiones, también a
programas sociales seleccionados de otros Ministerios nacionales o de gobiernos provinciales. En el
caso de los Operativos Nacionales de Evaluación de la Calidad Educativa, las áreas de incumbencia
están claramente circunscriptas a la medición de los aprendizajes adquiridos por los alumnos de la
educación básica y media. Mientras que, en el caso del SINAPA y el Sistema de Gestión por
Resultados, el universo de aplicación es menos específico pero, hasta el momento y con muy contadas
excepciones, se ha venido centrando en áreas y dependencias distintas de las de los otros dos
mecanismos de evaluación. Esto es así a pesar de que cada uno de estos cuatro mecanismos evalúa
aspectos del desempeño bastante bien diferenciados y potencialmente complementarios entre sí.
Retomando los ejes de análisis en función de los cuales los dos modelos de evaluación de resultados
identificados por Cunill Grau y Ospina Bozzi (2003b) en Colombia, Costa Rica, Chile y Uruguay se
diferencian más marcadamente entre sí, creemos poder esbozar las siguientes apreciaciones. Desde el
punto de vista de los valores y criterios enfatizados en las declaraciones de objetivos de las cuatro
iniciativas de evaluación analizadas, en términos generales, la necesidad de contar con una herramienta
estratégica de gestión y/o de formulación de políticas y programas públicos parecería haber
predominado por sobre la preocupación por posibilitar o fortalecer la responsabilización. Al menos, así
parecería sugerirlo el hecho de que, entre sus objetivos, las cuatro iniciativas hagan hincapié en
propósitos tales como los de “mejorar la eficiencia y la eficacia”, “garantizar la calidad”, u “orientar
la toma de decisiones”, y sólo el Sistema de Gestión por Resultados y –con un énfasis bastante menor–
el SINAPA planteen esquemas de “premios” y “castigos” ligados al desempeño o incluyan alusiones a
la “rendición de cuentas por el cumplimiento de compromisos con el logro de resultados”. En este
sentido, resulta interesante destacar que, en los casos en los que se hace presente, el acento en la
responsabilización por el logro de resultados toma por objeto a los funcionarios, gerentes y empleados
de las organizaciones públicas y no a las autoridades políticas. Esto sugiere que el tipo de
responsabilización aludido es de carácter administrativo y no político – lo que ubica a las iniciativas de
evaluación argentinas más en línea con los valores y objetivos enfatizados por el “modelo presupuesto”
23
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Los niveles del accionar del Estado en los que se centran las mediciones de desempeño y la evaluación
varían de una iniciativa a otra. El sistema de evaluación del SINAPA se centra exclusivamente en la
evaluación de desempeño a nivel individual, en tanto que los mecanismos de monitoreo y evaluación
del Sistema de Gestión por Resultados concentran toda su atención en la medición de desempeño a
nivel organizacional. Por su parte, el SIEMPRO se especializa en la evaluación y el monitoreo de
programas y, a través de la realización de la Encuesta de Desarrollo Social, permite también efectuar un
seguimiento de situación a nivel sectorial, en aspectos relacionados con la cobertura y eficacia de la
política social, la situación laboral, y el acceso a la vivienda y a los servicios de salud y educación,
entre otros. Por último, los Operativos Nacionales de Evaluación de la Calidad Educativa se centran en
los niveles sectorial –para la educación común básica y media sólamente– y –a través de la evaluación
del grado de asimilación de conocimientos por parte de los alumnos de cada escuela media y de uno de
los tres ciclos de la EGB– también institucional u organizacional. En este sentido, tomadas en su
conjunto, las iniciativas de evaluación del sector público argentino abarcan, aunque de manera parcial,
los cuatro niveles de accionar del Estado de los que habla Ospina Bozzi (2001) en su artículo – es decir,
los niveles sectorial, de programas, organizacional e individual. De los cuatro casos analizados por el
estudio del CLAD, el único en el que se identificaron mecanismos de evaluación para cada nivel es el
de Chile aunque, como parece suceder también en la Argentina, tampoco allí exista una articulación
formal entre los esfuerzos de evaluación de resultados de los distintos niveles.
Por último, en relación al destino previsto para los resultados de las evaluaciones, lo que se observa es
que, desde el punto de vista de la difusión que se le da a esta información, las estrategias empleadas
parecen muy similares a las que el estudio del CLAD encontró en Colombia, Chile y Uruguay. A pesar
de que el acceso de la población a internet es relativamente limitado, la principal vía de difusión de los
resultados de las mediciones de desempeño y las evaluaciones para la ciudadanía en general es a través
de este medio. Las principales excepciones son la difusión de los resultados de los Operativos
Nacionales de Evaluación de la Calidad Educativa a través de una conferencia de prensa –aunque
buena parte de la información generada no se da a conocer al público– y la relativa atención que
reciben los resultados de la Encuesta de Desarrollo Social en los medios, cuando se dan a conocer.
24
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Sumado a esto, otro aspecto interesante se relaciona con la existencia o no de un sistema de incentivos
desarrollado con la finalidad de alentar el uso de los resultados de la evaluación. En este sentido,
también se encontraron diferencias entre un mecanismo de evaluación y otro. Los que parecen haber
asignado mayor importancia a este tema son el Sistema de Gestión por Resultados y el SINAPA,
ambos bajo la coordinación de la Subsecretaría de la Gestión Pública. En los casos del SIEMPRO y los
Operativos Nacionales de Evaluación de la Calidad Educativa, el principal incentivo que enfrentan los
responsables de las políticas, los programas o los establecimientos evaluados para reparar en los
resultados de las evaluaciones es el hecho de que, a través de las mismas, su desempeño puede ser
individualizado.
Reflexiones finales
En síntesis, si bien con ciertas singularidades, las iniciativas de evaluación de resultados del sector
público argentino analizadas aquí parecerían guardar mayores semejanzas con los mecanismos de
evaluación de lo que Cunill Grau y Ospina Bozzi (2003b) han caracterizado como el “modelo
presupuesto” que con el “modelo plan”. Así parecerían sugerirlo su fuerte énfasis en el uso de la
evaluación para los fines de la gestión y la formulación de políticas y programas públicos y –aunque en
menor medida– también como instrumento para la responsabilización administrativa. Dicho énfasis se
encuentra reflejado tanto en la declaración de objetivos de cada una de las iniciativas como en varios de
los principales rasgos de su diseño. Sin desmedro de estas similitudes, las iniciativas analizadas
plantean al menos dos características que las distinguen de los dos modelos identificados en el estudio
del CLAD. La primera de ellas es el alto grado de fragmentación con el que la evaluación de resultados
parece estar viéndose incorporada en el sector público argentino. El segundo rasgo distintivo radica en
la fallida articulación de las cuatro iniciativas de evaluación consideradas con el proceso de
programación presupuestaria – lo que marca una importante diferencia respecto de los mecanismos de
evaluación del “modelo presupuesto”. Sin embargo, a diferencia de lo que se observa en los sistemas de
evaluación del “modelo plan”, en la Argentina no existe un ‘plan nacional de desarrollo’ o plan
estratégico global y explícito de gobierno que los mecanismos de evaluación puedan tomar como eje
articulador.
Como argumentan Ospina, Cunill Grau y Zaltsman (2003) en relación a las iniciativas de evaluación
del “modelo presupuesto”, el énfasis en aspectos relacionados con la gestión organizacional y la
responsabilización administrativa que se observa en los mecanismos de seguimiento y evaluación del
Sistema de Gestión por Resultados y en el sistema de evaluación del SINAPA ubica a estas dos
iniciativas mucho más cerca del abordaje más prototípico de la NGP que de los sistemas de evaluación
del “modelo plan”. En tal sentido, ¿qué nos sugiere el análisis de éstas y las otras dos iniciativas de
evaluación de resultados del sector público argentino consideradas aquí en términos de las posibles
implicancias de la influencia de la NGP? En consonancia con los resultados del estudio del CLAD
sobre las iniciativas de evaluación de Colombia, Costa Rica, Chile y Uruguay, tampoco en el caso de
las cuatro iniciativas de evaluación del sector público argentino que analizamos aquí parecieran
encontrarse indicios que sugieran incompatibilidades entre aspectos del diseño o el funcionamiento de
los mecanismos de evaluación y los principios democráticos o de equidad social. Por el contrario, al
menos dos de las cuatro iniciativas apuntan a poner las mejoras que aspiran a derivar del uso de la
evaluación en términos de eficiencia, eficacia y calidad –tres de los valores que la NGP ha tomado
como más emblemáticos– al servicio de la atención de la población en situación de pobreza (es el caso
del SIEMPRO) o de detectar y corregir desigualdades en la calidad de los servicios prestados (en el
caso de los Operativos Nacionales de Evaluación de la Calidad Educativa).
25
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Las iniciativas de evaluación ya existentes podrían constituirse en los primeros pilares de un esquema
de responsabilización orientado a tales fines. Sin embargo, en función de lo que parecería desprenderse
de las conclusiones del estudio del CLAD sobre las experiencias de evaluación de la gestión pública en
otros países latinoamericanos, para poder lograrlo deberían –cuanto menos– avanzar en las siguientes
direcciones: (i) ampliar el ámbito de aplicación de las evaluaciones a nivel de política sectorial a todas
las áreas de accionar del Estado, incluyendo también a las áreas que dependen de los niveles de
gobierno provincial y municipal; (ii) extender la cobertura de los mecanismos de medición de
desempeño y evaluación en los demás niveles de accionar gubernamental (nivel de programas,
organizacional, e individual) con la aspiración de máxima de abarcar a toda la administración pública,
incluyendo la totalidad de organizaciones que conforman el Estado; (iii) asegurar la articulación y la
complementación de los distintos mecanismos de evaluación y medición de desempeño tanto vertical
(es decir, entre los mecanismos centrados en la evaluación en distintos niveles del accionar del Estado)
como horizontalmente (entre los distintos mecanismos de evaluación y/o control del Estado que operan
a un mismo nivel); (iv) profundizar la reforma del proceso de elaboración presupuestaria, de manera tal
de posibilitar una mejor vinculación entre el mismo y los procesos de planificación, evaluación y
responsabilización centrados en resultados y (v) fijar un conjunto de resultados estratégicos para cada
sector o área de política pública, programa y organización del Estado a ser alcanzados en un plazo
determinado los que, junto con el esquema de responsabilidades, se vean claramente definidos y
ampliamente publicitados con antelación. La profundización de las reformas en los aspectos recién
mencionados presentan el mismo grado de relevancia a los efectos de asegurar la efectividad de estas
iniciativas de evaluación en términos de los propósitos que ya tienen planteados – es decir,
proporcionar información clave para la gestión del sector público, la formulación de políticas y
programas, y para posibilitar la responsabilización administrativa – lo que las hace doblemente
importantes y necesarias.
Referencias bibliográficas
Armijo, Marianela (2003): ‘La Evaluación de la Gestión Pública en Chile’. En Cunill Grau, Nuria y
Ospina Bozzi, Sonia (comps.): Evaluación de Resultados para una Gestión Pública Moderna y
Democrática: Experiencias Latinoamericanas. CLAD, AECI/MAP/FIIAPP, Caracas.
Behn, Robert D. (1998): ‘The New Public Management Paradigm and the Search for Democratic
26
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
27
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
28
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
29
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Isolation’. En Ross Schneider, Ben y Heredia, Blanca (comps.): Reinventing Leviathan: The
Politics of Administrative Reform in Developing Countries. North-South Center Press, University
of Miami.
Rodríguez Larreta, Horacio y Repetto, Fabián (2000): Herramientas para una Administración Pública
más Eficiente: Gestión por Resultados y Control Social. Fundación Gobierno y Sociedad.
Documento 39. Buenos Aires [http://fgys.org/pdf/DT%2039.pdf].
Ross Schneider, Ben (2000): ‘The Politics of Administrative Reform: Intractable Dilemmas and
Improbable Solutions’. Ponencia presentada en la 1999 Conference on Sustainable Public Sector
Finance. Federal Reserve Bank of Atlanta, Atlanta [http://www.frbatlanta.org/invokecfm?
objectid=CBC39D21-11D5>].
Rossi, Peter H. y Freeman, Howard E. (1993): Evaluation: A Systemic Approach. Sage Publications,
Newbury Park, California.
Shalock, Robert L. (2001): Outcome-Based Evaluation. Kluwer Academic/Plenum Publishers, New
York.
SIEMPRO (1999): Gestión Integral de Programas Sociales Orientada a Resultados. Manual
Metodológico para la Planificación y Evaluación de Programas Sociales. Fondo de Cultura
Económica, Buenos Aires.
State Services Commission (1999): Improving Accountability: Setting the Scene. Occasional Paper No
10 [Disponible en: http://www.ssc.govt.nz].
Subsecretaría de la Gestión Pública (2003): Informe de Gestión 2002-2003. Jefatura de Gabinete de
Ministros, Buenos Aires.
Tulic, María Lucrecia (1996): ‘Una Aproximación a la Evaluación de las Políticas Públicas: El Caso
del SINEC’. En Revista Iberoamericana de Educación, Nº 10. Organización de Estados
Iberoamericanos para la Educación, la Ciencia y la Cultura [http://www.campus-oei.org/revista/].
U.S. General Accounting Office (2001): Results-Oriented Budget Practices in Federal Agencies.
Request for Views. GAO-01-1084SP. Washington, D.C.
Weiss, Carol H. (1998): Evaluation: Methods for Studying Programs and Policies. Prentice Hall,
Upper Saddle River, N.J.
Wholey, Joseph S. y Newcomer, Kathryn E. (1997): ‘Clarifying Goals, Reporting Results’. En
Newcomer, Kathryn E. (comp.): Using Performance Measurement to Improve Public and
Nonprofit Programs. Jossey-Bass Publishers, San Francisco.
Wilson, James Q. (1989): Bureaucracy: What Government Agencies Do and Why They Do It. Basic
Books, New York.
Legislación citada
30
VIII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Panamá, 28-31 Oct. 2003
Reseña biográfica
Ariel Zaltsman
Estudiante de doctorado en Administración Pública en la Robert F.Wagner Graduate School of
Public Service, New York University (NYU)
Asistente de investigación en el Institute for Education and Social Research (NYU)
Licenciado en Sociología (Universidad de Buenos Aires); Master of Science en Sociología (London
School of Economics)
Entre 1995 y 1999, se desempeñó como consultor para el Ministerio de Economía y Obras y
Servicios Públicos de la República Argentina, y dictó clases de Metodología de la Investigación
Social en la Facultad de Ciencias Sociales de la Universidad de Buenos Aires.
Teléfono: 1-212-998-5814
E-mail: taz201@nyu.edu
31