Está en la página 1de 10

agosto 2015 iec - conadu POLÍTICA UNIVERSITARIA

REFLEXIONES
METODOLÓGICAS
SOBRE LA
EVALUACIÓN
ACADÉMICA
Juan Ignacio Piovani
UNLP / CONICET

Introducción* mente, ha acompañado un proceso mucho más


Nacional de Promoción Científica y Tecnológica se creó en 2014 la
amplio de profesionalización e institucionaliza- Comisión Asesora en temas de evaluación. Más específicamente, en
En los últimos años se han intensificado ción de las prácticas académicas –y, muy espe- el campo de las ciencias sociales se puede citar el trabajo de una
comisión del Consejo Nacional de Investigaciones Científicas y Téc-
notablemente las actividades de evaluación en cialmente, las científicas-. nicas (CONICET), que se materializó en la Resolución 2249/14:
los ámbitos académicos y científicos de Argen- Este proceso, que ha tenido impactos direc- “Bases para la Categorización de Publicaciones Periódicas en Cien-
cias Sociales y Humanidades.” El Consejo de Decanos de Faculta-
tina. Me refiero, en particular, a la evaluación tos en el sistema universitario y en el científico, des de Ciencias Sociales y Humanas (CODESOC), por su parte,
sistemática e institucionalizada que, evidente- en sus instituciones y en las trayectorias de los ha publicado una declaración titulada “Criterios para la evaluación
de las ciencias sociales y humanas, y la jerarquización de la investi-
docentes-investigadores, con efectos ambivalen- gación científica con impacto social.” Y a partir de la iniciativa de
tes, ha comenzado a ser objeto de análisis por profesores e investigadores de diversas universidades y centros de
* Este artículo se basa en un presentación relazada en el mar- investigación se conformó la Comisión Interinstitucional de elabo-
co de las Jornadas “Investigación y Evaluación en Humanidades y parte de diverso tipo de actores1, y ha dado lugar ración de criterios de evaluación para las humanidades y ciencias
Ciencias Sociales”, organizadas por la Secretaría de Investigación sociales (CIECEHCS), que ha tenido una labor muy intensa en la
de la Facultad de Humanidades (UNLP) y por el Instituto de Investi- promoción de debates, la organización de jornadas de discusión y la
gaciones en Humanidades y Ciencias Sociales (UNLP/CONICET) 1 Por ejemplo, en el ámbito de la Presidencia de la Agencia publicación de documentos específicos.

2
POLÍTICA UNIVERSITARIA iec - conadu agosto 2015

a un debate cada vez más intenso y articulado niveles encuentran un cierto correlato en lo que Teniendo en cuenta estas consideraciones,
en el marco del cual se sitúan las reflexiones que la metodología cuantitativa define como “proceso y volviendo al caso de la evaluación, es posible
propongo en este artículo. de conceptualización y operacionalización”, que señalar una serie de aspectos problemáticos y
El objetivo que se persigue, sin embargo, implica reconocer que la investigación científica (o preguntas específicas –no todas– que permiten
no es primariamente analizar las consecuencias por analogía la evaluación) no aborda su objeto definir cada nivel:
que ha teniendo la lógica de evaluación en las –complejo y no directamente observable– sino
trayectorias individuales o en el sistema, sino re- a través de propiedades conceptuales para cuya 1. En primer lugar, el nivel conceptual: ¿Qué
flexionar, desde el punto de vista metodológico, traducción operativa se requerirá la selección criterios sustentarán los procesos de eva-
sobre los procesos de evaluación en sí y, conco- de una pluralidad de indicadores (Lazarsfeld, luación? ¿Qué propiedades y dimensiones
mitantemente, aunque de manera mucho más 1973). También pueden entenderse los niveles de los fenómenos y de los sujetos evaluados
tangencial, sobre el modo en que se han llevado propuestos a partir de la consideración de una serán tenidas en cuenta? ¿Qué significan?
a la práctica en Argentina. operación intelectual clave en los procesos de ¿Cómo se definen conceptualmente y con
Este tipo de reflexión resulta relevante por- evaluación: la clasificación. En este sentido, qué términos las expresamos? ¿Quién de-
que en la medida que se profesionaliza, la eva- se puede identificar un primer nivel más cide o participa de su definición? ¿Son fijas
luación adquiere una dimensión burocrática, general (clasificacióna), que involucra la tarea en el tiempo y universales en su alcance?
casi ritual. Consecuentemente, en el marco de ¿Cómo se relacionan con los diferentes ob-


procesos que se vuelven rutinarios, se pueden jetos que se evalúan?
ir desdibujando los objetivos de la evaluación y 2. En un segundo nivel encontramos el pro-
distanciarse gradualmente de las preguntas fun- blema más clásicamente metodológico, que
damentales que la orientan y de los principios tiene que ver con la operacionalización de
que la justifican desde el punto de vista político- La complejidad de las los criterios, las propiedades conceptuales
institucional. prácticas académicas y de y las dimensiones señaladas precedente-
Por supuesto que no se trata de un proble- mente: ¿Qué referentes o indicadores nos
las instituciones en las
ma que afecte exclusivamente a la evaluación, permitirán conocer el estado de un sujeto u
o que se restrinja a prácticas del mundo acadé- que se desarrollan exige objeto x con respecto a cada una de las di-
mico. No obstante, puede resultar ilustrativo se- enfoques de evaluación mensiones de interés? ¿Cómo los definire-
ñalar que esta misma situación ha sido materia mos operativamente? ¿Se les puede atribuir
de análisis crítico en relación con algunas de las que consideren una a todos el mismo peso relativo? ¿O requie-
prácticas que son objeto de la evaluación acadé- multiplicidad de ren de algún tipo de ponderación? ¿Qué
mica, como la docencia y la investigación. En operaciones intelectuales exige la aplica-
dimensiones.
este último caso, por ejemplo, la metodología ción de las definiciones operativas para la
critica ha denunciado la fetichización de la téc- evaluación de casos concretos? ¿Se pueden


nica y sus usos rituales y rutinarios, independien- reducir exclusivamente a la medición? El
temente de los objetos en estudio y de las formas resultado de este trabajo se materializa ha-
más apropiadas de abordarlos (Marradi, 1996). bitualmente en un producto tangible: las
Análogamente, en la evaluación es crucial de descomponer analíticamente la extensión tan mentadas grillas de evaluación.
preguntarse sobre cuáles son los instrumentos, un concepto (en este caso aquél que define al 3. Finalmente, un tercer nivel, de carácter
las técnicas y los procedimientos más adecua- objeto/sujeto de la evaluación o a cada una de más procedimental, se relaciona con la apli-
dos para evaluar qué tipo de aspectos y en qué sus dimensiones de interés) en clases a partir cación de las grillas de evaluación y, como
contextos. El esfuerzo por no perder de vista los de un fundamentum divisionis2, un segundo nivel resultado de ello, con la asignación de pun-
fundamentos de la evaluación podría llevarnos a (clasificaciónb) que alude al resultado estructural tajes o con la atribución de un caso a una
plantear preguntas incluso más básicas –que no de una clasificacióna, es decir, un listado tangible clase determinada. Esta tarea, además, ha-
pretendo de ninguna manera responder de ma- de clases o esquema clasificatorio, y un tercer bilita el proceso de análisis de los resultados,
nera exhaustiva–: ¿Qué significa evaluar? ¿Qué nivel (clasificaciónc) que implica la asignación de que a su vez justifica la toma de decisiones,
se evalúa? ¿Quién evalúa? ¿Para qué se evalúa? objetos concretos a las clases o tipos ya establecidos sobre la base de la evaluación, en el ámbito
¿Cómo se evalúa? a través de la clasificacióna y materializados en la institucional responsable de gestionarla.
En la discusión que propongo puede ser clasificaciónb (Marradi, 1990). Con este esquema tripartito como punto
útil diferenciar, al menos analíticamente, tres de referencia, a continuación presentaré algu-
planos o niveles, aún cuando en la práctica de la 2 Esto también contempla las divisiones de la extensión nas cuestiones problemáticas relacionadas con
efectuadas en simultáneo sobre la base de varios fundamentos
evaluación sus confines no sean siempre claros (tipologías), y aquellas operadas en cadena sobre conceptos de
cada uno de los niveles, para luego retomarlas,
y tajantes. Como se verá más adelante, estos generalidad decreciente (taxonomías). a manera de cierre, vinculándolas con algunas

3
agosto 2015 iec - conadu POLÍTICA UNIVERSITARIA

observaciones críticas acerca de los procesos de ¿Se trata de una competencia de los funcionarios En tercer lugar, la experiencia histórica
evaluación implementados en diversos ámbitos técnicos de las instituciones responsables de gestio- muestra que los criterios no pueden ser fijos y,
académicos de Argentina. nar la evaluación? ¿O debe ser materia exclusiva por lo tanto, requieren una revisión permanen-
de los académicos? Y en este caso, ¿qué perfiles te. Piénsese, por ejemplo, en el caso del título de
Los niveles de la evaluación serían los más adecuados? ¿Quién los selecciona doctor: en la actualidad existe cierto consenso
y a través de qué mecanismos? ¿La experticia en en torno de su importancia para valorar una
El nivel conceptual docencia y/o investigación, asegura por sí sola los trayectoria al momento de decidir un concurso
conocimientos necesarios para intervenir en el docente o el ingreso a la carrera de investigador.
La expansión de la cultura de la evaluación diseño de la evaluación? En todo caso, y esto es Pero tan sólo 15 o 20 años atrás, su peso relativo
implica que ésta alcance cosas muy diversas: des- una demanda recurrente por parte de los sujetos en la evaluación académica era muy diferente.
de instituciones –universidades, centros especiali- evaluados, los procedimientos para seleccionar a Y ya hay cierta evidencia, especialmente si es-
zados– a trayectorias de investigadores, pasando quienes participan de las decisiones que subyacen tablecemos comparaciones con otros países de
por carreras de grado y posgrado, programas y a la evaluación, así como los criterios de evalua- la región, como Brasil, de que los posdoctora-
proyectos de investigación, prácticas docentes, ción mismos, deben ser lo más públicos y transpa- dos comienzan a ser considerados cada vez más
publicaciones, entre otras. No se pueden desaten- rentes posibles. como un requisito de acreditación para desem-
der, por lo tanto, las preguntas más elementales peñar ciertas funciones para las cuales, hasta


sobre qué es lo que se evalúa, cómo se lo define ahora, valía típicamente el doctorado, o incluso
y conceptualiza, qué lo caracteriza. Y esto, a su la maestría.
vez, exige considerar, por un lado, el “objeto” de Otro aspecto importante a señalar es
la evaluación (por ejemplo: cierto tipo de prácti- que el conjunto de criterios que se formule,
cas –de investigación, docencia, etcétera– y sus Es importante así como las propiedades y dimensiones que
productos o resultados) y, por el otro, el “sujeto” considerar lo que se tengan en cuenta para la evaluación, tienen
evaluado (institución, carrera, investigador/a, –en cierto sentido– un carácter normativo. Es
hemos denominado
docente, etc. ya sea en tanto ámbito en el cual decir, contribuyen a instituir un modelo de
las prácticas evaluadas se desarrollan o en cuanto “objetos” y “sujetos” de perfiles y de prácticas académicas que se toma
sujeto que las lleva a cabo). la evaluación de manera como parámetro y como patrón de compara-
Pero también hay que tener en cuenta la ción al evaluar casos empíricos concretos. Por
importancia de considerar lo que hemos deno- articulada, ya que los otra parte, y esto ya ha sido objeto de inves-
minado “objetos” y “sujetos” de la evaluación de objetos no se producen tigación, estos modelos normativos tienen
manera articulada3, ya que los objetos no se pro- performatividad, en la medida que orientan
en el vacío.
ducen en el vacío, sino que son, en general, prác- las prácticas y promueven ciertas decisiones
ticas de sujetos enmarcados institucionalmente y estratégicas, en detrimento de otras, sobre


que se atienen, en mayor o menor medida, a un qué priorizar en el marco del desarrollo de
conjunto de reglas más o menos formalizadas y una carrera académica (véase al respecto
explicitadas. Fernández Lamarra y Marquina, 2012) o de
Al pensar en este par imbricado “objeto- En segundo lugar, e independientemente la definición del perfil de un posgrado o de
sujeto”, se pueden poner en evidencia algunos as- de los procesos institucionales que se establez- una institución.
pectos importantes a la hora de definir criterios y can para decidir los criterios generales de la En efecto, en nuestra práctica cotidiana
de seleccionar dimensiones para la evaluación. En evaluación, ha de tenerse en cuenta su carácter es cada vez más frecuente encontrar comen-
primer lugar, hay una cuestión de carácter político multidimensional. Es evidente que la compleji- tarios acerca de las nuevas actitudes de los es-
institucional para nada menor: quién o quiénes, dad de las prácticas académicas y de las institu- tudiantes de grado en torno de los promedios
y cómo, definirán dichos criterios y seleccionarán ciones en las que se desarrollan exige enfoques de calificaciones, sabedores de su importancia
las propiedades y dimensiones a ser consideradas. de evaluación que consideren una multiplicidad a la hora de asignar becas; o de investigadores
de dimensiones con el fin de evitar reduccionis- jóvenes que planifican sus publicaciones a par-
3 La combinación de ambos aspectos –objeto/sujeto– produce mos y sesgos. Se trata de una cuestión amplia- tir de un análisis de los potenciales espacios de
una amplia gama de situaciones particulares que pueden requerir mente reconocida en la investigación científica, publicación considerados de Nivel 1 por parte
atención específica. Tomemos por caso lo siguiente: al evaluar el
objeto prácticas y resultados de investigación puede ser importante materializada en textos de metodología al me- de las instituciones científicas, por citar solo
considerar algunas dimensiones del sujeto como la edad o el contex- nos desde los años 50, cuando ya se proponían un par de ejemplos. Por lo tanto, al establecer
to institucional de inserción para poder definir el conjunto de crite-
rios adecuados, porque el peso relativo de un artículo de revista o del formas de abordar objetos complejos desde di- conjuntos de criterios es importante mirar más
dictado de un seminario de posgrado, por ejemplo, no es idéntico
en todas las instancias de una trayectoria académica o para un perfil
versos puntos de vista con el fin de reconstruir- allá del acto de evaluación específico y consi-
docente o de investigador. los de modo más completo y ajustado. derarlo como parte de la política científica y de

4
POLÍTICA UNIVERSITARIA iec - conadu agosto 2015

Foto: ana clara tosi


educación superior, con efectos que trascien- dos de la investigación empírica sobre los obje- nes tienden a enfocar aspectos “estáticos”.
den ampliamente la evaluación en sí. tos y sujetos de la evaluación (en qué consisten En este sentido, se priorizan los productos o
Por otra parte, conviene recordar que la sus prácticas; cómo las definen, reconocen y resultados tangibles que, por su materialidad
definición normativa a priori de criterios y de jerarquizan los propios actores, etcétera), por (por ejemplo, un proyecto escrito, un libro o
dimensiones presenta muchas limitaciones y, un lado, y sobre los procesos de evaluación un artículo) resultan más asibles. Pero esos
por lo tanto, podría ser beneficioso tener en mismos, por el otro. productos se inscriben en procesos “dinámi-
cuenta, al menos complementariamente, una Finalmente, otro aspecto desafiante para cos” que también puede ser importante con-
perspectiva descriptiva que también aporte a la evaluación, desde el punto de vista meto- siderar en la evaluación y que presentan retos
la construcción de los perfiles a ser evaluados. dológico, es que habitualmente los criterios, particulares para su definición y su aprehen-
Esto implica utilizar como recurso los resulta- las propiedades conceptuales y sus dimensio- sión cognoscitiva.

5
agosto 2015 iec - conadu POLÍTICA UNIVERSITARIA

El nivel de los indicadores operacionismo múltiple, operacionismo conver- minar la validez de un indicador, su selección
gente, validación convergente, entre otras. En los deberá basarse en un cuidadoso examen que
La definición de los criterios en los que años 60 se usó por primera vez el término trian- tenga en consideración aspectos teóricos sus-
se sustenta la evaluación, y de las propiedades gulación4 para referirse a esta estrategia: “…una tantivos.
conceptuales y las dimensiones a ser conside- vez que una proposición ha sido confirmada por También se ha tematizado, respecto de los
radas a tal fin, es una cuestión ineludible que dos o más mediciones independientes, la ambi- indicadores, el problema de su supuesta univer-
condiciona todo el proceso de evaluación. Sin güedad en cuanto a su interpretación se reduce salidad y equivalencia. Según muchos autores,
embargo, resulta estéril a los efectos prácticos si significativamente. La evidencia más persuasiva ellos pueden tener una especificidad situacional
no se establecen operaciones de mediación ya se da a través de la triangulación en el proceso de tal que los vuelve –potencialmente– referentes
que, como se indicó más arriba, por su com- medición” (Webb et al., 1966). Y este mismo en- empíricos de fenómenos diversos en contextos
plejidad y nivel de abstracción las propiedades foque era práctica común, mucho tiempo antes, diferentes, poniendo en duda su universalidad y
conceptuales y sus dimensiones no resultan di- en otros campos científicos, comenzando por la equivalencia (Bynner y Chisholm, 1998; Fideli,
rectamente observables. Astronomía del siglo XVIII (Piovani, 2008). 1998). Esto llama la atención sobre la necesidad
Este es un problema que en la tradición ca- Volviendo a la selección de indicadores, de definir –al menos en alguna medida– no sólo
nónica de la investigación social ha sido aborda- un aspecto clave es valorar la validez, entendi- criterios, estándares y dimensiones específicas,
do profusamente. El clásico texto de Lazarsfeld sino también indicadores particulares de acuer-


(1973), “De los conceptos a los índices empíri- do con los perfiles de las prácticas y de los suje-
cos”, constituye un punto de referencia obliga- tos a ser evaluados, considerando los contextos
do. Expresado de manera simple, su argumento históricos e institucionales. Además, alerta sobre
es que los fenómenos de interés sólo pueden ser la traslación mecánica y acrítica de esquemas de
conocidos a través de referentes empíricos ob- Un desafío central evaluación de un ámbito a otro.
servables que deben estar semánticamente vin- consiste en imaginar Otra cuestión relevante es la ponderación,
culados con alguna de las múltiples dimensiones que adquiere significación cuando se reconoce
estrategias que permitan
en cuestión –por eso indicadores– y, a través de que, aún siendo pertinentes, diferentes indica-
ellas, con las propiedades conceptuales que en el controlar la subjetividad dores no tienen el mismo peso relativo para re-
nivel teórico más abstracto definen, en nuestro inherente a todo proceso construir la complejidad de una práctica o de
caso, el núcleo de evaluación. una trayectoria académica. La ponderación es
Esta esquemática presentación introductoria de evaluación, para moneda corriente en la evaluación: por ejem-
deja en evidencia, una vez más, el problema de evitar que derive en plo, al considerar la producción de un docente-
la multidimensionalidad. Ya se había señalado investigador suele asignársele un peso mayor a
arbitrariedad.
su relevancia a la hora conceptualizar los objetos un artículo de una revista con referato que a una
y sujetos de evaluación, por la complejidad y ponencia de un congreso. Sin embargo, los es-


diversidad de actores, prácticas y productos quemas de ponderación tienen que ser el resulta-
del trabajo académico; pero también resulta do de análisis muy minuciosos y deben que estar
fundamental a la hora de seleccionar los referentes sujetos a revisiones. Asimismo, pueden variar
que permiten, en el proceso de evaluación, da desde el punto de vista metodológico como según los perfiles evaluados, de manera tal
explorar y determinar el estado de los casos una propiedad de la relación entre el indicador que un mismo indicador adquiere pesos re-
evaluados con respecto a cada una de ellas. Es y un concepto más general. Se ha sostenido, al lativos diferentes para cada uno de ellos. Esto
en esta línea que Lazarsfeld (1973) aboga por la respecto, que tal la relación no es unívoca, y que último resulta obvio en el caso de la evaluación
construcción de índices empíricos, que no son más el indicador siempre ostenta una parte indican- de investigadores: el promedio de calificaciones
que el producto de la combinación de indicadores. te, que alude al contenido semántico compar- de la carrera de grado, por ejemplo, tiene mucho
El uso de varios indicadores en simultáneo tido con el concepto en cuestión –y que por lo mayor valor en edades tempranas –al decidir la
para recomponer una dimensión o propiedad tanto lo justifica como indicador–, y una parte asignación de una beca– pero se va desdibujando
conceptual compleja es en la actualidad una extraña que, en todo caso, comparte conteni- a medida que se avanza en la carrera.
práctica estándar, con la que también se suele do semántico con otro/s concepto/s. Como no Una selección pertinente de indicadores,
relacionar la articulación de varias mediciones o existen procedimientos “objetivos” para deter- aun siendo fundamental, no resuelve todos los
registros independientes de cada uno de los in- problemas operativos de la evaluación, ya que
dicadores, con el fin de obtener resultados más para poder determinar el estado de un caso x en
4 En la metodología contemporánea el término triangulación
estables y confiables. En la literatura metodoló- es polisémico: se refiere no sólo a la combinación de mediciones o de un indicador y debemos contar con una defini-
indicadores, sino a también a distintas formas de articulación entre
gica de los años 50 ya aparece tematizada esta teorías y/o métodos, o al trabajo conjunto de varios investigadores
ción operativa, es decir, un conjunto de reglas y
propuesta, que se nombra de diversas maneras: sobre un mismo tema, etcétera. convenciones que hagan posible su “medición”.

6
POLÍTICA UNIVERSITARIA iec - conadu agosto 2015

No obstante, a propósito de la medición, es opor- lidad –o no– de encuadrar todas las dimensiones juego una suerte de curriculum oculto (adaptando
tuno recordar que las definiciones operativas relevantes de la evaluación en un esquema pura- la categoría ampliamente conocida en el campo
pueden exigir, como parte de sus reglas y con- mente cuantitativo. Si bien es cierto que la ma- educativo) o una agenda propia que entra en
venciones, la puesta en práctica de variadas ope- yoría de las grillas de evaluación en uso tiene un contradicción con los criterios de evaluación o
raciones intelectuales, como la clasificación o el componente cualitativo, hay quienes consideran las grillas en cuya elaboración, generalmente no
conteo, además de la medición. que el enfoque cualitativo debería ser empleado han participado.
Aunque a primera vista parezca un deta- integralmente, y no de manera residual. Esto Por lo tanto, aun contando con una gri-
lle menor, la afirmación precedente nos da la pone sobre el tapete otra discusión, que nos lleva lla de evaluación detallada y consensuada, su
oportunidad de poner en evidencia la tendencia a considerar el último de los niveles propuestos aplicación no es lineal ni mecánica. Por el con-
–también en las prácticas evaluativas– a sobreva- –el procedimental/operativo– y que alude a las trario, se trata de un proceso en el que pueden
lorar la medición o a considerar medición cual- formas concretas en que se realiza la evaluación aparecer variados inconvenientes. Y como se ha
quier acto de atribución de números –por más de un caso. Por supuesto que el problema proce- señalado en el apartado precedente, los proble-
arbitraria que sea– al estado de una unidad de dimental (o de práctica de la evaluación), como mas de este tipo no se limitan al componente
observación en un indicador determinado. Estas veremos a continuación, no se limita a las estra- cualitativo de las grillas estandarizadas –o a la
prácticas “abusivas” de la medición son multi- tegias cualitativas en las que las competencias del evaluación cualitativa en general–, que sus de-
facéticas: por un lado, implican el mero estira- tractores tienden a cuestionar por su “evidente”


miento semántico del término, en línea con la connotación subjetiva.
perspectiva hegemónica consagrada en el clásico Recurriendo una vez más a la analogía
artículo de Stevens (1946) sobre los niveles de con la investigación social, podemos ver que
medición, que llega incluso al contrasentido de las limitaciones también se presentan en el caso
proponer la “medición nominal”. Por otro lado, Las limitaciones de las estrategias que recurren a instrumentos
aluden a la tendencia a privilegiar los atribu- derivan de esquemas estandarizados. En este campo, los problemas de
tos genuinamente mensurables (aunque sean administración del instrumento suelen englobarse
que tienden a
muy limitados) para dar cuenta del objeto de bajo el rótulo de “errores no de muestreo”.
evaluación o a forzar su conversión en tales, sobrevalorar las Pueden consistir en un uso inadecuado del
habilitando incluso cálculos aritméticos com- prácticas que se ajustan instrumento, por desconocimiento de las reglas
pletamente injustificados a partir de números y convenciones que establecen las definiciones
que no establecen ninguna propiedad de mag- a la investigación operativas para la asignación de valores al estado
nitud, y que mucho menos implican distancias científica definida en de una unidad en un indicador, o en simples
iguales entre puntos adyacentes de una escala, errores de registro de información. Dadas las
términos canónicos.
sino que son meros rótulos arbitrarios emplea- dificultades para cuantificarlos, gran parte de la
dos convencionalmente en reemplazo de una literatura metodológica tendió a minimizarlos y se


categoría cualitativa. concentró, en cambio, en el cálculo de los errores
La discusión en torno de las definiciones de muestreo. Pero los textos metodológicos más
operativas conduce, además, a otro aspecto muy actuales también le asignan mucha importancia
significativo: la fiabilidad. Con este término nos evaluador adquieren una evidente centralidad, a los errores “no de muestreo” y, basándose en
referimos a la capacidad de representar el estado sino que también tiene una relevancia funda- investigaciones empíricas específicas, señalan
“real” de una unidad según las convenciones de mental en los casos de evaluaciones que se guían que ellos pueden afectar severamente la
la definición operativa. Este problema fue reco- por grillas cuantitativas pre-codificadas, con altos calidad de los resultados de una investigación
nocido tempranamente en la investigación so- niveles de detalle y desagregación. (y, por extensión, los de una evaluación). Este
cial, cuando Ebbinghaus, un destacado psicólogo problema se torna particularmente serio cuando
alemán inscrito en la tradición psicofísica wun- El nivel procedimental se reflexiona sobre sus posibles consecuencias,
dtiana, criticó la atribución de valores a ciertos por ejemplo, en las trayectorias de las personas:
atributos intelectuales de los niños a partir de las En la práctica de la evaluación, una si- como es sabido, un simple error de asignación
meras declaraciones subjetivas de sus docentes, tuación conflictiva bastante habitual deriva del de puntaje podría decidir el acceso a un cargo
como era habitual en los experimentos psicoló- hecho de que los evaluadores, que en general docente universitario, o el ingreso a la carrera del
gicos de la época, y llamó la atención acerca de también son docentes y/o investigadores (y que investigador de CONICET.
la necesidad de contar con mecanismos de medi- pueden desempeñar –o haber desempeñado– Por otra parte, en el plano procedimental,
ción más estables y consistentes (Piovani, 2006). múltiples funciones institucionales) tienen sus un desafío central consiste en imaginar estrate-
Finalmente, ha de considerarse una cues- propias ideas sobre los más diversos temas aca- gias de evaluación que permitan controlar la sub-
tión tal vez más sustantiva, que remite a la posibi- démicos y, en consecuencia, pueden poner en jetividad inherente a todo proceso de evaluación,

7
agosto 2015 iec - conadu POLÍTICA UNIVERSITARIA

para evitar que ésta derive en discrecionalidad o estas medidas estadísticas podrían deberse a un acerca de los procesos de evaluación en diversos
arbitrariedad. Con esta finalidad ha sido recu- efecto del azar en la conformación de los grupos ámbitos académicos, basados en la experiencia
rrente la idea de evaluación intersubjetiva, que evaluados o a inconsistencias en las asignaciones en gestión y en la participación en comisiones
se materializa en la forma de plenarios u otros de puntaje. En el primer caso, los evaluadores de evaluación, y enmarcados en algunos de los
mecanismos de evaluación colectiva. Al respecto, trabajaron efectivamente sobre muestras des- debates actualmente en curso sobre el tema. En
cabe señalar que estas estrategias tienen sentido iguales (por ejemplo: un conjunto de proyectos, efecto, la participación en comisiones de evalua-
bajo ciertas condiciones: que haya diversidad de investigadores o artículos cualitativamente mejo- ción, por un lado, y en debates sobre evaluación
perspectivas y que las diferentes voces estén en res o peores que el otro) y los puntajes divergen- organizados por diversos actores, por el otro, así
condiciones materiales de ser escuchadas y de in- tes simplemente reflejan esta situación. Pero las como la lectura de algunos de los documentos
fluir en el proceso de evaluación. diferencias también podrían ser el resultado de que se han elaborado5 en esos marcos, permiten
Recurriendo nuevamente a una analogía criterios disimiles en la valoración de la “calidad” recuperar diferentes argumentaciones en circula-
con la investigación científica, podemos pensar y la asignación de puntajes: un evaluador, por ción, y relacionarlas con las discusiones metodo-
–a la manera de referente– en el análisis de con- ejemplo, podría asignarle un 10 a un caso que lógicas propuestas.
tenido clásico, que se basa en la construcción y considera muy bueno, mientras que otro califica
aplicación de un marco o esquema de codifica- con 8 a un caso similar. 1. Al considerar los criterios de evaluación, se
ción a un corpus dado de materiales cualitativos Más allá de las razones subyacentes, dife- verifica una tendencia a rechazar los mo-
(Krippendorf, 1980). En estas estrategias, para rencias importantes en las asignaciones de pun- delos vigentes –especialmente en el campo
evitar los efectos arbitrarios de la autorreali- tajes exigirán una revisión integral de las evalua- de la investigación– sobre la base de una
zación en la construcción de los esquemas, se ciones. Claro que esto podría solucionarse desde supuesta oposición entre ciencias naturales
suele recomendar que investigadores con dife- un principio si todos los casos fuesen evaluados y ciencias sociales. No obstante, en estas
rentes formaciones e intereses elaboren marcos independientemente por varios evaluadores. La- últimas se han encontrado significativos
de codificación que luego se confrontan. De esta mentablemente, la carga de trabajo y el volumen inconvenientes para producir un conjun-
manera, se apunta a alcanzar una versión con- de casos a evaluar hacen que este ideal se vuelva, to de criterios consensuados que reflejen
sensuada. Asimismo, se recurre a esta modalidad muchas veces, impracticable. la diversidad de prácticas y de estilos de
de confrontación para determinar el grado de Finalmente, parece oportuno señalar que, producción y que, por ende, satisfagan a los
acuerdo en el uso concreto del esquema de co- en la medida que se reconocen los complejos pro- diversos actores involucrados en las activi-
dificación al momento de analizar el corpus. De blemas procedimentales en materia de evalua- dades académicas. Más compleja aún ha
este tipo de prácticas de investigación se pueden ción, y sus potenciales consecuencias arbitrarias resultado la elaboración una grilla de eva-
derivar importantes enseñanzas para la evalua- –aún cuando se deban a errores involuntarios–, luación única que logre condensar todas las
ción intersubjetiva. Pero ellas también ponen en es fundamental que toda evaluación pueda estar propuestas y perspectivas.
evidencia la necesidad de capacitar y entrenar a sujeta a revisión, más allá del legítimo rechazo 2. El énfasis que se pone en pensar criterios
los evaluadores en las tareas específicas que esta que genera en muchos ámbitos institucionales completamente diferentes para las ciencias
práctica conlleva. Resulta bastante razonable la creciente “cultura de la impugnación”, que naturales, por un lado, y para las ciencias
pensar que algunos de los problemas procedi- tiende a poner en duda todos los procesos de sociales, por otro, aun teniendo razones
mentales de la evaluación podrían minimizarse evaluación (desde los concursos docentes has- atendibles, puede obstaculizar el desarrollo
si se dedicaran ciertos esfuerzos a generar sabe- ta las evaluaciones institucionales, pasando por de modos más creativos y comprehensivos
res compartidos en torno de la evaluación, de sus la valoración de carreras de grado y posgrado, de evaluación. En parte, porque se basa en
criterios subyacentes, de las dimensiones relevan- la asignación de becas, los ingresos a la carrera la idea errónea de que las ciencias naturales
tes y de los mecanismos de asignación y control del investigador y sus promociones), así como a y las ciencias sociales y humanas constitu-
de puntajes, en caso de que los hubiera. los actores involucrados en la evaluación (que en yen dos espacios monolíticos e inconmen-
Por otra parte, es posible diseñar estrategias la mayoría de los casos son pares) y a las institu- surables. Aquel que suele tomarse como
complementarias y de fácil ejecución para re- ciones responsables de su gestión (universidades, modelo de evaluación consensuado, produ-
forzar los intercambios de opiniones y pareceres CONEAU, CONICET, FONCYT, etcétera). cido en (o para) el ámbito de las ciencias
que suelen caracterizar a los plenarios. Por ejem- naturales, y percibido como una imposición
plo, cuando se trate de evaluaciones basadas en externa en las ciencias sociales, también
propiedades cuantitativas, o que resulten en una Comentarios finales afronta severas críticas –muchas de ellas
calificación numérica general, es posible contras- en términos similares a los de los científicos
tar las medias aritméticas y desvíos estándar cal- A la luz de las consideraciones metodoló- sociales– por parte de docentes e investiga-
culados a partir de los puntajes asignados por los gicas precedentes, y atendiendo a algunos de los dores de las ciencias naturales.
diferentes evaluadores involucrados en una mis- problemas señalados, a continuación presentaré
ma comisión. Las diferencias considerables en una serie de observaciones y comentarios críticos 5 Por ejemplo, los ya citados en la nota 2.

8
POLÍTICA UNIVERSITARIA iec - conadu agosto 2015
Foto: ana clara tosi

argentino, esto implica tomar con cautela


los intentos de llevar a la universidad los
tipos de evaluación que se encuentran re-
lativamente consolidados en instituciones
más específicas, como el CONICET, y que
tienen una larga tradición en evaluación.
Esta cautela no implica, sin embargo, que
muchos aspectos no puedan ser tenidos en
cuenta como marco de referencia para el
espacio universitario.
4. Pensando la evaluación en contextos aca-
démicos periféricos, como los han llamado
algunos autores, hay que tener en cuenta
también el problema que Hanafi (2011)
denomina “isomorfismo institucional”, que
consiste en tomar como modelo y paráme-
tro para la evaluación –especialmente en la
universidad– aquello que (se supone que) se
hace en las instituciones de élite de los países
centrales, en particular en Estados Unidos y
Reino Unido. Esta perspectiva de la evalua-
ción no tiene debidamente en cuenta, entre
otras especificidades, las condiciones de pro-
ducción y de trabajo, ni la importancia de la
3. Lo anterior no anula las genuinas incomo- en particular en su variante cuantitativa. La disponibilidad de recursos.7 En contraste, se
didades que generan, en las ciencias socia- segunda aclaración es que, más allá de las ha argumentado a favor de un tipo de eva-
les, muchos de los esquemas de evaluación reconocidas diferencias entra las diversas luación que se ajuste a las particularidades
vigentes. Sin embargo, una mirada alterna- ciencias, este modelo es inadecuado para nacionales e institucionales. Sin embargo,
tiva permite poner en evidencia que las li- evaluar otras prácticas y productos de in- la sensibilidad contextual no puede ser una
mitaciones no derivan –en su totalidad– de vestigación no estándar –habitualmente excusa para sostener el nacionalismo acadé-
la imposición del supuesto modelo evalua- más frecuentes en las artes, las ciencias hu- mico, prescindiendo de todo lo que se hace
tivo de las ciencias naturales, sino de esque- manas y algunas de las ciencias sociales– y, –y cómo se lo hace– en otros contextos. En
mas que tienden a sobrevalorar las prácticas en general, para dar cuenta del conjunto otras palabras, el rechazo de una uniformi-
de investigación y, en sentido más estricto, de actividades académicas y actores que dad transnacional y transcontextual abso-
aquellas que se ajustan a la investigación se desempeñan en el ámbito universitario, luta tampoco puede ser la base propositiva
científica definida en términos canónicos. incluso en el de las ciencias naturales y las de una evaluación a la medida de cada ins-
Como el peso relativo de dichas prácticas ingenierías. Si pensamos a la universidad titución o de cada individuo, si es que se los
es mayor en las ciencias naturales, se con- desde una perspectiva más integral, se po- considera partes de un sistema más amplio.
cluye entonces que se trata de un modelo drá reconocer que en ella se hacen muchas 5. En relación con lo anterior, y teniendo en
pensado exclusivamente para esas discipli- cosas, además de investigación científica en cuenta la experiencia histórica en evalua-
nas. Pero en este punto conviene hacer dos sentido estricto, e intervienen diversos ac- ción, así como la diversidad de prácticas y
aclaraciones. La primera es que también en tores, aparte de los científicos. Estas otras de actores que constituyen su “objeto/suje-
el campo de las ciencias sociales y humanas prácticas y actores también deberían ser to”, podría resultar razonable renunciar a la
existen tradiciones que se ajustan a dichos pasibles de evaluación, aunque a partir pretensión de contar con un único conjunto
modelos. Piénsese por ejemplo en la Psico- de criterios y lógicas que sean adecuadas
logía experimental y en la Arqueología, o al objeto/sujeto y que eviten la ya critica-
7 Tómese como ejemplo lo siguiente: la Universidad de Har-
incluso en lo que Buroway (2005) denomi- da traslación mecánica de grillas pensadas vard, unánimemente considerada una institución de élite a nivel
na “sociología [académica] profesional”6, para prácticas muy diferentes. En el caso mundial, contó en el año 2014 con un presupuesto de 36,4 billones
de dólares (y tenía entonces cerca de 20.000 estudiantes y poco más
de 4500 docentes/investigadores). La Universidad de Buenos Aires,
6 Con esta expresión se refiere a un tipo de sociología que se por su parte, contó para el mismo año con un presupuesto aproxi-
desarrolla de modo relativamente autorreferente en el ámbito aca- resultado tangible es un tipo de producto especializado –el paper– mado de 0,64 billones de dólares (y tenía más de 300.000 estudiantes
démico, que formula problemas de investigación específicos cuyo dirigido exclusivamente a un público de pares. y cerca de 30.000 docentes/investigadores).

9
agosto 2015 iec - conadu POLÍTICA UNIVERSITARIA

de criterios y una única grilla de evaluación, 7. En los discursos sobre la evaluación que también por reforzar los mecanismos inter-
más allá de las diferencias entre ciencias circulan actualmente también se encuentra subjetivos de evaluación, es decir, que el acto
sociales y naturales, o entre contextos na- un reclamo, cada vez más fuerte, por renun- de evaluar no sea responsabilidad exclusiva
cionales e institucionales. En este sentido, ciar a la pretensión de cuantificar todos los de un individuo, sino que haya espacios de
es particularmente interesante revisar una aspectos relacionados con la evaluación de discusión grupal que, evidentemente, con-
propuesta de evaluación desarrollada en la las prácticas académicas. En muchos ca- tribuirían a atenuar posibles arbitrariedades.
Universidad de Helsinki, en la que participó sos, tanto en las ciencias sociales como en Pero hay un elemento adicional que tiene
Hebe Vessuri, y que ella misma comentó las naturales, este reclamo no se limita a la que ver con la factibilidad: tanto las evalua-
en una jornada de discusión sobre criterios introducción de componentes cualitativos ciones cualitativas caso por caso, como con
de evaluación organizada en 2014 por la complementarios en las grillas predomi- las instancias plenarias de evaluación, dado
CIECEHCS y el IDES.8 En dicha ocasión nantemente cuantitativas, sino que implica el volumen que actualmente ha alcanzado
se explicó que los responsables de la evalua- una apuesta por evaluaciones cualitativas el material objeto de evaluación, resultan
ción, de manera dialógica con diversos acto- integrales. Es frecuente encontrar que esta muchas veces difíciles de implementar. Esto
res institucionales, produjeron un consenso posición se basa en observaciones muy agu- torna complejo, desde el punto de vista ope-
en torno de cinco modelos de evaluación das sobre las concepciones de evaluación que rativo, la aplicación de criterios que, desde
para perfiles específicos. Por supuesto que subyacen a los modelos cuantitativos. Al igual un punto de vista teórico, metodológico y
para cada perfil se establecieron reglas, pará- que en la crítica a la investigación cuantitati- procedimental, podrían significar una me-
metros y “criterios de calidad”, pero se evitó va en general, se señala el riesgo de que este jora en las prácticas de evaluación. Por otra
la traslación mecánica de aquellos pensados tipo de evaluaciones produzca resultados su- parte, hay que tener en cuenta los enormes
para evaluar investigaciones de alcance inter- perficiales, incluso artificiosos, que no logren costos económicos que conlleva sostener una
nacional, por ejemplo, a otras cuya relevancia captar con suficiente profundidad lo que se estructura de evaluación profesionalizada
consistía en la transferencia de saberes para la evalúa. Pero en relación con esto se presenta capaz de afrontar la carga que actualmente
solución práctica de problemas locales. una paradoja: en general, se trata de perspec- ha alcanzado esta tarea y que, todo indica,
6. Con frecuencia, la crítica sobre las lógicas tivas con un desbalance entre instrumentos seguirá incrementándose.
y los procesos de evaluación en curso va conceptuales y operativos. Esto significa que 8. Los comentarios precedentes en relación
acompañada de propuestas de cambio bas- en el plano teórico existen valiosos aportes con los límites metodológicos y fácticos de
tante radicales. En algunas ocasiones, esto críticos sobre la evaluación; pero, en el plano la evaluación cualitativa de ningún modo
se basa en el supuesto –a mi juicio ingenuo, operativo, (aun) se depende en gran medida implican que aquella cuantitativa esté li-
o ilusorio– de que es posible racionalizar, de las conocimientos tácitos y personales de bre de problemas, más allá de sus supues-
objetivar y anticipar todos los problemas los evaluadores, porque se cuenta con un tas ventajas en términos de replicabilidad,
involucrados en la evaluación, y ponerlos menor cúmulo de conocimientos técnicos e tratamiento uniforme de casos y mayor
en juego en el diseño de un conjunto de dis- impersonales que garanticen cierta homo- rapidez de implementación. Mucho se ha
positivos operativos definitivo. En cambio, geneidad entre evaluadores y replicabilidad discutido en torno de las propiedades con-
podría ser útil considerar ajustes incremen- de criterios en el tratamiento de los casos ceptuales, las dimensiones y los indicadores
tales basados en la experiencia acumulada evaluados. En otras palabras, hemos estado que actualmente se utilizan para dar cuenta
y en las críticas que se derivan del análisis en condiciones de proponer discursos muy de las prácticas académicas en el marco de
permanente y constante de lo que se va ha- articulados sobre cómo mejorar la evalua- las evaluaciones cuantitativas. Con respecto
ciendo en materia de evaluación. En este ción desde un punto de vista cualitativo, pero a algunos indicadores se ha puesto en duda
sentido, hay que tener en cuenta que los no siempre hemos conseguido traducirlos su validez. Y también se ha cuestionado la
problemas de evaluación siempre tienen en esquemas de evaluación operativos que fiabilidad de los resultados que se obtienen
soluciones relativamente precarias, que maximicen la transparencia y permitan con- a partir de sus más frecuentes definicio-
exigen re-examen: identificar un incon- trolar posibles sesgos vinculados, en muchos nes operativas. Tomemos el siguiente caso
veniente, y solucionarlo, puede casi inme- casos, con las perspectivas individuales de los como ejemplo: uno de los criterios princi-
diatamente generar otro problema para la investigadores.9 Más allá de esto, se aboga pales para evaluar la trayectoria académica
evaluación, en la medida que ésta tienen consiste en considerar la producción cientí-
efectos concretos sobre las trayectorias de 9 Por ejemplo, en la convocatoria 2004 para categorización de fica. Para ello se suelen tener en cuenta di-
investigadores en el Programa de Incentivos de la SPU, para asignar
las personas y sobre el sistema de educación las categorías 1 y 2 había incisos que establecían un requisito cuali- mensiones como su “calidad” e “impacto.”
superior y de ciencia y tecnología. tativo: “haber formado recursos humanos” y “haber contribuido a
la formación de recursos humanos”, respectivamente. Pero su inter-
pretación generó enormes disparidades entre regiones, disciplinas e coincidiera en lo más mínimo con la apreciación que tenían otros
8 La relatoría de estas Jornadas se encuentra disponible en: incluso comisiones. Muchas veces los evaluadores tenían una idea colegas. En la categorización siguiente, la de 2009, se decidió re-
http://cas.ides.org.ar/files/2014/08/Relatoria-Reunion-con- personal de lo que significaba “formar o contribuir a la formación emplazar este criterio por otro cuantitativo con el fin de evitar los
Hebe-Vessuri-IDES-CIECEHCS-120814.pdf de recursos humanos” y la aplicaban en la evaluación, aunque no problemas operativos registrados en la convocatoria anterior.

10
POLÍTICA UNIVERSITARIA iec - conadu agosto 2015

Y se recurre a indicadores como: “cantidad individual del artículo. Si se consideran en es que no todas las propiedades conceptua-
de artículos publicados en revistas indiza- cambio las citas independientes, muchas les y dimensiones relevantes con relación
das de nivel 1, 2, etc.”. En esto encontra- veces nos encontraremos con la sorpresa nuestras actividades y productos académi-
mos varios problemas metodológicos. El de que un artículo publicado local o regio- cos pueden ser medidas en sentido estricto.
primero es que la dimensión que se quiere nalmente, en una revista Nivel 3, o incluso No obstante, en nuestras prácticas de eva-
conocer (por ejemplo, calidad o impacto) no indizada, ha tenido mayor “impacto” luación tendemos a forzar la cuantificación
se refiere a una unidad de análisis (artículo que otro del mismo autor publicado in- de componentes claramente cualitativos y
académico) que no coincide con la unidad ternacionalmente en una revista Nivel 1. a reproducir lo que la critica metodológica
de análisis de la cual es atributo el indicador Y esto sin considerar otro tipo de impac- ha llamado “estiramiento semántico” del
propuesto, porque para juzgar la calidad e to cualitativamente más sustantivo, como concepto de medición, que implica que en
impacto del trabajo, como es ampliamente aquél que pueda tener un trabajo relevante nuestro afán por cuantificar, cualquier pro-
sabido, se consideran atributos de la revis- a nivel local para explicar una situación so- cedimiento de asignación de una etiqueta
ta en la que fue publicado. Para defender cial problemática o con potencial transfe- numérica implica una medición.
esta operación se ha argumentado que si ribilidad de conocimientos para abordarlo
un artículo fue publicado en una revista eficientemente desde la política pública. Finalmente, quisiera retomar una afirma-
de primer nivel su calidad puede darse por Además, si de impacto hablamos, entonces ción introducida en la segunda sección de este
descontada, ya que para aceptarlo se han en las ciencias sociales deberíamos recon- artículo: la evaluación también debe ser enten-
aplicado estrictos sistemas de referato. Pero siderar el valor que se le asigna a los libros dida como parte constitutiva de la política cien-
si bien podría hacerse esta concesión, aún en las evaluaciones, ya que ellos suelen te- tífica y de educación superior y, por lo tanto,
cuando el conocido caso Sokal pone en ner mucho mayor volumen de citas que los resulta relevante dedicar esfuerzos a su análisis.
duda el argumento, no parece razonable artículos de revista de los mismos autores. En línea con los aportes publicados en Camou,
extenderlo especularmente a la situación Por supuesto que considerar el nivel de citas Krotsch y Prati (2007), es importante imaginar
inversa: es decir, concluir que un artículo también puede resultar engañoso, ya que y emplear dispositivos de evaluación de la eva-
que no fue publicado en una revista de ese este indicador, en algunos casos, da cuen- luación para poder diagnosticar qué efectos y
tipo ostente, por lo tanto, una inexorable ta de la calidad de un trabajo y, en otros, múltiples consecuencias tienen las lógicas de
“baja calidad” científica o académica. Por implica lo contrario. En efecto, se ha seña- evaluación imperantes en las trayectorias indi-
otra parte, la cuestión del impacto también lado que un libro o artículo puede ser muy viduales de los académicos, en las instituciones
resulta problemática. Aun dejando en sus- citado porque sus pares lo han considerado y en el sistema científico y universitario. Este
penso la discusión en torno de este criterio, de alta calidad, y lo toman como referente, ejercicio, además, no debería limitarse –a mi
las formas operativas de determinarlo de- o porque lo juzgan un ejemplo de pésima juicio– a un mero diagnóstico descriptivo, sino
jan mucho que desear. Por un lado, porque ciencia. Por lo tanto, calidad e impacto no que también tendría que influir críticamente
suele tomarse como referente el factor de necesariamente están correlacionados. Este sobre las políticas públicas referidas a las áreas
impacto de la revista, pero no el impacto problema nos conduce a otra cuestión, que en cuestión.

Referencias Krippendorff, K. (1980). Content analysis. An Marradi, A. (1990). “Classification, typology,


introduction to its methodology. Newbury Park: taxonomy.” Quality & Quantity: International
Burawoy, M. (2005). “For Public Sociology.” Sage. Journal of Methodology, 24, (2) 129-157.
American Sociological Review, 70, (1): 4-28, Hanafi, S. (2011). “University systems Marradi, A. (1996). “Metodo come arte.”
2005. in the Arab East: Publish globally and Quaderni di Sociologia, 10: 71-92.
Bynner, J. y Chisholm, L. (1998). perish locally vs. publish locally and perish Piovani, J. I. (2006). Alle origini della statistica
“Comparative youth transition research: globally.” Current Sociology, 59, (3) 291-309. moderna. Milán: Franco Angeli.
methods, meanings and research relations.” Camou, A., Krotsch, P. y Prati, M. (2007). Piovani, J. I. (2008). “The historical
European Sociological Review, 14: 131-150. Evaluando la evaluación: políticas universitarias, construction of correlation as a conceptual
Fernández Lamarra, N. y Marquina, M. instituciones y actores en Argentina y América and operative instrument for empirical
(comps.) (2012). El futuro de la profesión Latina. Buenos Aires: Prometeo. research.” Quality & Quantity: International
académica. Desafíos para los países emergentes. Lazarsfeld, P. (1973). “De los conceptos a Journal of Methodology, 42, (6) 757-777.
Saénz Peña: EDUNTREF. los índices empíricos.” En R. Boudon y P. Stevens, S. S. (1946). “On the Theory of
Fideli, R.(1998). La comparazione. Milán: Lazarsfeld, Metodología de las ciencias sociales, Scales of Measurement.” Science, 103:
Franco Angeli. Vol. I. Barcelona: Laia. 677–680.

11

También podría gustarte