Está en la página 1de 21

¿Finaliza la tarea del autor con la publicación del artículo?

Ni la ansiada carta de aceptación ni la publicación de nuestro descubrimiento en una revista,


marcan el punto final de nuestra tarea con un artículo académico. Una vez que nuestro trabajo
aparece en la revista elegida, comienza una nueva fase con el objetivo de dar a conocer los resultados
de nuestro quehacer académico. Ahora se trata de aumentar el impacto del mismo.  

En este empeño deberemos hacer frente a algunas tareas importantes:  

a)                  Enviar reprints y promocionar nuestro trabajo.

b)                 Comprobar que el artículo está indexado en las bases de datos adecuadas.

c)                  Hacer un seguimiento a los autores que citan el trabajo.

¿Qué necesito saber para aumentar el impacto de mis artículos?

El objetivo de esta web no es tanto aumentar la producción científica como el impacto de la


misma. No estamos, por tanto, interesados en indicadores de la calidad científica basados en el
número de artículos u otros productos académicos, sino en indicadores basados en el impacto de
dichos productos.   

          Conviene diferenciar entre dos conceptos que, a veces, se confunden:

a) El mérito de un artículo es una cuestión subjetiva, depende de la apreciación del mismo


por parte de expertos.

b) El impacto de un artículo es una medida objetiva que se puede calcular a partir de


determinados indicadores bibliométricos.

Aumentar el impacto de los artículos científicos es una tarea compleja que exige del
investigador una gran dedicación. No se trata simplemente de seguir unas cuantas recetas, muy al
contrario, es necesario tener ideas claras acerca de algunos temas que no se pueden obviar:  
a) Qué son y cómo funcionan los índices de citas.

b) Cómo se gestionan los índices de citas.

c) Por qué es conveniente publicar los trabajos en revistas cubiertas por los índices de citas.

d) Cómo y cuánto son citados los artículos científicos y qué consecuencias conlleva.

e) Por qué suceden fenómenos como el "reconocimiento tardío".

f) Cómo se utilizan los índices de citas para evaluar la calidad de la investigación.

g) Qué tipos de indicadores bibliométricos se utilizan para evaluar la calidad de la investigación.

h) En qué consiste el indicador bibliométrico del factor de impacto y qué ventajas e


inconvenientes presenta.

i) A la vista de todo lo anterior, qué recomendaciones básicas se desprenden para aumentar el


impacto de un artículo.  

 
Una obra esencial sobre el sistema de revisión por expertos.

No podemos limitarnos a dar una simple receta de cómo aumentar el impacto de los artículos
científicos porque ésta es una tarea que tiene múltiples componentes y debemos tener muy claro
cuáles son los indicadores que se van a utilizar para no cometer errores cuando queramos conseguir
un aumento en el impacto de nuestros artículos científicos.  

Con demasiada frecuencia se oye pontificar en las Universidades a investigadores y/o


micropolíticos (personajes que se dedican a la intriga universitaria, fundamentalmente son
catedráticos fracasados) acerca de el factor de impacto sin saber realmente de qué hablan. Incluso
autoridades académicas (vicerrectores) que tienen como misión evaluar la producción científica de
cara, por ejemplo, a la promoción profesional, cometen errores elementales cuando hablan del factor
de impacto. La ignorancia acerca de estos temas es realmente concienzuda en el medio universitario.
Creemos que ello se debe a que los investigadores no han tenido acceso a obras generales en las que
se expliquen aspectos tales como:  

a) Qué son los indicadores bibliométricos.

b) Qué utilidades tienen estos indicadores. 

c) Qué precauciones es preciso tener cuando se utilizan.

d) Qué conclusiones son válidas.

e) Qué precedentes y trabajos previos sobre su uso existen.

f) Qué alternativas se pueden diseñar.

Es preciso conocer todo el marco general en el que se concibe el uso de los indicadores
bibliométricos basados en citas para poder abordar con más garantía de éxito la tarea de
aumentar el impacto de nuestras publicaciones científicas. No cabe duda de que esta tarea
exige un esfuerzo de formación por parte del investigador, pero estamos seguros de que este
esfuerzo se ve recompensado por los beneficios que se obtienen.

¿Qué son los índices de citas? 

  El origen de los índices de citas está en una idea que tuvo el fundador del ISI (Institute for
Scientifie Information) y durante muchos años presidente, Eugene Garfield, para automatizar los
procesos de indiciación de las revistas científicas [Garfield, 1985a]. El ISI publica las bases de datos
Current Contents además de sus conocidos índices de citas. Los índices de citas Science Citation
Index (SCI) y Social Sciences Citation Index (SSCI) se diferencian de otros índices y bases de datos
de uso común en ciencia por su carácter prospectivo. La aparición de los índices de citas publicados
por el ISI hizo posible por primera vez estudiar no solo los resultados y productos (outputs) de las
revistas científicas, sino también las citas recibidas. Esto hace posible averiguar, por ejemplo, qué
autores citan en 2000 determinado trabajo publicado en 1990. Además, estos índices proporcionan
enlaces explícitos entre artículos que se citan mutuamente y ofrecen un informe anual de los balances
de citas entre revistas científicas recogido en el Journal of Citation Report. Este volumen incluye,
además, otros datos sobre las revistas científicas que tienen interés en los estudios bibliométricos,
tales como índice de impacto o edad media de las citas recibidas.  

El número de revistas incluidas en las bases de datos del ISI se incrementó desde 2630 en
1974 hasta 4541 en 1993 [Magri y Solari, 1996, pág. 94]. Estas revistas están clasificadas por
categorías que facilitan su localización en los índices de citas. En los índices SCI y SSCI existen más
de 100 categorías que se corresponden con las distintas disciplinas y subdisciplinas. Los criterios de
clasificación de las revistas en las distintas categorías no son públicos y a veces la clasificación de
una revista determinada en una categoría es un tanto arbitraria.

¿Qué revistas están cubiertas por los índices de citas?

  La selección de las revistas científicas que el ISI incluye en sus bases de datos no es una tarea
fácil. Aunque el ISI intenta cubrir la mayor cantidad de revistas importantes dentro de cada
disciplina, no dispone de los recursos necesarios para incluir todas las que son relevantes ni, mucho
menos, todas las que existen. Según algunas estimaciones, el ISI cubre aproximadamente el 10% de
las revistas académicas que se publican en el mundo [Hamilton, 1991]. El ISI por otra parte no es una
institución científica, ni una agencia gubernamental, sino una empresa privada que busca obtener
beneficios económicos y debe atender preferentemente a las necesidades de sus clientes. Si el ISI
incluyese más revistas en sus bases de datos tendría que ser menos selectivo y la base de datos
Current Contents tendría un formato distinto al actual con lo que, según Garfield, resultaría mucho
menos útil para sus lectores [Garfield, 1985b]. Además, la ley de Bradford predice que un porcentaje
reducido de las revistas científicas publica la mayor parte de los artículos académicos. De una manera
similar, es un hecho probado que una pequeña parte de las revistas científicas consigue la mayor parte
de las citas [Garfield, 1996]. Estas razones contribuyen a que el ISI sea muy selectivo a la hora de
elegir las revistas científicas que se incluirán en sus bases de datos.

Los criterios de selección que aplica el ISI para incluir revistas científicas en sus bases de
datos tienen que ver fundamentalmente con la estimación de la calidad de las mismas. Naturalmente,
las revistas básicas de cada disciplina son bien conocidas por todos los especialistas que trabajan en
un área determinada y el ISI siempre las ha seleccionado. La inclusión de otras revistas es más
problemática y depende de factores diversos, como el cumplimiento de los plazos en la edición de los
números de la revista, la relevancia del contenido, la composición y mérito científico del equipo
editorial, la difusión geográfica, los procesos de evaluación de los artículos que se envían para su
publicación, la existencia o no de resúmenes en los artículos, el formato de las referencias, la
periodicidad, etc [Garfield, 1985b]. Cuando la influencia de una revista declina o cuando el número
de revistas que cubren un área determinada crece excesivamente, el ISI elimina algunas revistas de
sus bases de datos. Para evaluar la inclusión de nuevas revistas o para decidir la eliminación de las
que existen en sus bases de datos, el ISI dispone de un equipo de expertos que solicita los
asesoramientos necesarios [Garfield, 1985b].

Como reconoce Garfield, para algunas revistas el permanecer o no dentro de sus bases de
datos e índices de citas es cuestión de supervivencia editorial y por esta razón el ISI recibe enormes
presiones para incluir determinadas revistas en sus índices de citas hasta el punto de que en una
ocasión fue demandado por una empresa editorial por no prestar atención a algunas de sus revistas
[Garfield, 1985b]. Otras veces el ISI ha recibido centenares de cartas de investigadores solicitando
que determinada revista se incluyera en los índices de citas. El proceso y los criterios de selección de
las revistas indexadas en las bases de datos del ISI aparecen descritos en un trabajo relativamente
reciente disponible en:  

http://www.isinet.com

¿Por qué los investigadores prefieren publicar sus trabajos en revistas cubiertas por los índices
de citas?

  No cabe duda de qué los investigadores prefieren publicar sus artículos en revistas cubiertas
por las bases de datos del ISI. Esto es así porque estas revistas son las que tienen más prestigio y más
impacto en la comunidad investigadora. Dado que los artículos recogidos en las revistas indexadas en
las bases de datos del ISI serán más visibles, es posible que también sean más citados.  
Por otra parte, en la evaluación de la actividad investigadora se suele diferenciar entre trabajos
publicados en revistas incluidas en las bases de datos del ISI y otros trabajos no incluidos en estas
bases de datos. Los primeros suelen ser más valorados.

         Así, por ejemplo, los criterios para la valoración de la actividad


investigadora que se utilizan en la Universidad de Alcalá de Henares en el
área de ciencias experimentales son:

Se establecen categorías en función de los listados de "Journal Citation


Reports" (ISI). Se analiza cada revista de acuerdo con los siguientes
criterios:  
        a) Revistas en el JCR con un factor de impacto
comprendido entre los de las que ocupen el tercio superior 18 puntos  
(33.3%)    
        b) Revistas en el JCR con un factor de impacto
comprendido entre los de las que ocupen el tercio intermedio 12 puntos  
(33.3%)    
        c) Revistas en el JCR con un factor de impacto
comprendido entre los de las que ocupen el tercio inferior 6 puntos
(33.3%)    
        d) Revistas que no figuren en el JCR  2 puntos

La evaluación de la actividad investigadora es un derecho que tienen los profesores


universitarios de los cuerpos docentes (Catedráticos de Universidad y Escuela Universitaria y
Profesores Titulares de Universidad y de Escuela Universitaria). Cada seis años estos profesores
pueden someter a evaluación externa su actividad investigadora. Esta evaluación se lleva a cabo por
la Comisión Nacional Evaluadora de la Actividad Investigadora que cuenta para ello con la
infraestructura adecuada y se divide en diversas áreas, dependiendo de los temas de investigación.  

La evaluación positiva se traduce en un complemento económico que varía dependiendo de la


categoría académica de la persona que es evaluada positivamente. Cada grupo de seis años evaluados
positivamente constituye un tramo de investigación.

        No es igual de fácil conseguir una evaluación positiva en todas las áreas de
investigación. Curiosamente, en contra de lo que piensan muchos científicos, en las
áreas de Ciencias Sociales el porcentaje de evaluaciones positivas suele ser menor que
en las Ciencias Naturales. Así, por ejemplo, durante los primeros seis años de
evaluaciones de la actividad investigadora, la Comisión Nacional Evaluadora de la
Actividad Investigadora concedió un 54.9% de solicitudes de tramos en el campo 7
(Ciencias Sociales, Políticas, del Comportamiento y de la Educación) mientras que en
los campos 1 (Matemáticas y Física) y 2 (Química) se concedieron un 64.3% y un
68.3% respectivamente [Comisión Nacional Evaluadora de la Actividad
Investigadora, 1996].

Criterios utilizados para la evaluación de la actividad


investigadora.
         Como ejemplo de los criterios de evaluación utilizados por la Comisión Nacional
Evaluadora de la Actividad Investigadora, se presentan los correspondientes a los
campos siguientes:

         CAMPO 1: MATEMÁTICAS Y FÍSICA

         CAMPO 2: QUÍMICA

         CAMPO 3: BIOLOGÍA CELULAR Y MOLECULAR

         CAMPO 4: CIENCIAS BIOMÉDICAS Como puede comprobarse, en estos


criterios se hace referencia a los índices de citas Salvo en casos excepcionales, todas
las aportaciones deberán ser clasificables como ordinarias. Los solicitantes que
presenten patentes o aportaciones extraordinarias, como informes, dictámenes o
trabajos técnicos se trasladarán al Campo 6, previo informe del Comité de origen, en
los casos que proceda. Las aportaciones sólo serán valorables si significan progreso
real del conocimiento. No se valorarán los trabajos meramente descriptivos o las
reiteraciones de trabajos previos, salvo en los casos en que contribuyan claramente a la
consolidación del conocimiento. Se valorarán preferentemente las aportaciones que
sean artículos en revistas de prestigio reconocido, aceptándose como tales las que
ocupen posiciones relevantes en los listados por ámbitos científicos en el "Subject
Category Listing" del Journal Citation Reports del Science Citation Index (Institute of
Scientific Information, Philadelphia, PA, USA). Si ninguno de los ámbitos de estos
listados se adecuara a la especialidad del solicitante, el Comité creará un listado
adecuado, clasificando por el índice de impacto las revistas de la base de datos que
mejor representen su especialidad. Las aportaciones que no estén avaladas en la forma
descrita en el punto anterior se analizarán atendiendo a los siguientes aspectos:

a)  Importancia del tema del trabajo, que deberá ser equivalente a los que se
publican normalmente en las revistas descritas en el punto anterior.

b)  Rigor en el planteamiento y desarrollo del trabajo.

c)  Importancia de los resultados, analizados por el impacto científico medible. En la


valoración de dirección o realización de tesis doctorales se atenderá a la calidad
de los trabajos publicados que se hayan derivado de la misma. En el caso de
incluir en el curriculum vitae abreviado la tesis doctoral y los correspondientes
trabajos publicados, la valoración de la tesis será marginal. Para que una
aportación sea considerada, el solicitante deberá haber participado activamente
en los trabajos que le dieron origen, como director o ejecutor del trabajo. Las
participaciones circunstanciales no serán consideradas. Como norma general,
para obtener una evaluación positiva, las cinco aportaciones del curriculum vitae
abreviado deberán cumplir lo descrito en los puntos anteriores. No obstante, el
número mínimo de aportaciones para obtener una evaluación positiva podrá ser
inferior si los trabajos aportados tienen una gran calidad y han tenido una alta
repercusión científica.
Las evaluaciones únicas solicitadas en aplicación de lo establecido en la
Disposición Transitoria Tercera del Real Decreto 1086/1989 se valorarán
modificando los criterios anteriores de acuerdo con la participación española en
la ciencia internacional en los años en que se realizaron los trabajos.

¿Existe algún sesgo en las bases de datos del ISI?

  Los criterios de selección de las revistas por parte del ISI ha sido a veces criticados por el
ámbito al que se refieren. Por ejemplo, algunos autores llaman la atención sobre el evidente sesgo en
la selección que prima de manera desproporcionada a las revistas norteamericanas o a las revistas que
se publican en inglés [King, 1987], [Dumont, 1989]. Como reconoce Garfield, es raro que el ISI
cubra una revista de interés regional, a menos que la calidad de la misma sea realmente excepcional
[Garfield, 1985b, pág. 8].

¿Cómo se clasifican los documentos en la base de datos del ISI? 

El ISI clasifica los documentos que indexa en las categorías siguientes [Braun, Glanzel y
Schubert, 1989]: 

1. Artículos.
2. Informes.
3. Cartas. 
4. Notas.
5. Revisiones.
6. Bibliografías.
7. Resúmenes de congresos.
8. Revisiones de libros.
9. Correcciones.
10. Adiciones.
11. Discusiones.
12. Editoriales.
13. Referencias sobre un individuo.
14. Cronologías y actas de congresos.

           El ISI recoge distintos datos sobre los documentos que indexa, como los nombres de los
autores, la institución donde trabajan y los datos bibliográficos del documento. Ello permite efectuar,
entre otros, análisis de instituciones, países, autores individuales y revistas científicas por separado.
En 1992, las bases de datos del ISI tenían registrados 15 millones de documentos publicados desde
1945 con un total de 200 millones de referencias [Garfield y Welljams-Dorof, 1992, pág. 322].

¿Cuál es el número medio de citas que recibe un artículo?

  Los análisis de los índices de citas ofrecen algunos resultados interesantes y tal vez poco
conocidos sobre el impacto de los artículos científicos. El número de citas que los artículos reciben
varía enormemente incluso para un autor determinado y para artículos publicados dentro de una
revista determinada [Seglen, 1994]. Según el ISI, el número medio de citas que recibe un artículo es
de 15 [Anónimo]. Sin embargo, a la vista de lo que se indica más adelante, este número medio es
muy poco representativo de la media de los artículos.  

           Un primer resultado que llama la atención es que


una parte sustancial de los artículos científicos que se
publican no son nunca citados. Así, por ejemplo, según
Garfield, más del 56% de los artículos indexados entre
1955 y 1987 no fueron citados ni siquiera por sus propios
autores en artículos posteriores [Garfield, 1989a, pág. 7].
Sólo el 10% de los artículos que fueron citados entre 1961
y 1982 recibieron diez o más citas, mientras sólo el 3.4%
de dichos artículos fueron citados en 25 o más ocasiones
[Garfield, 1985c, tabla 2]. Estos datos incluyen las posibles
autocitas por los propios autores en artículos posteriores. 

 
  Según Hamilton, el 55% de los artículos recogidos por el Science Citation Index en 1981 no
había sido citado cinco años después ni siquiera por sus propios autores [Hamilton, 1991]. Sólo el 2%
de los más de 32 millones de artículos que fueron citados al menos una vez entre 1945 y 1988 fueron
citados más de 50 veces y sólo el 0.05% de estos artículos fueron citados más de 500 veces [Garfield,
1990a]. Existen diferencias notables entre disciplinas en el grado en que los artículos son citados. Por
ejemplo, en Bioquímica el artículo medio es citado unos cuantos años después de su publicación,
mientras en Matemáticas pueden pasar 10 o más años antes de que un artículo sea citado [Garfield,
1993, pág. 3]. En las Ciencias Sociales el porcentaje de artículos que no son nunca citados parece
llegar al 75% (mayor incluso que en el área de Ciencias Naturales) y en Artes y Humanidades es de
un 98% [Hamilton, 1991]. Por lo que se refiere a citas a los autores individuales, la situación es
similar. Sólo el 10% de los autores listados en el SCI entre 1961 y 1980 recibieron 50 citas o más
[Garfield, 1983, pág. 7].

 
Distribución de los artículos indexados en las bases de datos del ISI según el número de citas
recibidas. 

¿Qué implicaciones tiene el que los artículos sean, en general, poco citados?

El hecho de que muchos artículos que se publican no sean nunca citados ha provocado un
debate en los medios académicos. El episodio más acalorado de este debate tuvo lugar a partir de la
publicación de los artículos de David Hamilton [Hamilton, 1990] [Hamilton, 1991] en los que,
basándose en los datos sobre citas, denunciaba la escasa atención que suscitan la mayoría de los
artículos que se publican. Las opiniones de Hamilton fueron criticadas por Bott y Hargens que,
basándose en un análisis más detallado, concluyeron que el porcentaje de artículos que no era nunca
citado no era tan elevado como parecía [Bott y Hargens, 1991]. Según estos autores, Hamilton no
distinguió entre artículos, cartas editoriales, cartas a las revistas, reseñas de libros y otro tipo de
documentos. En cualquier caso, otros autores opinan que los datos sobre el porcentaje de artículos
que nunca son citados demuestran que gran parte del trabajo científico que se lleva a cabo no sirve de
nada [Hamilton, 1990]. Según algunos críticos la presión por publicar a cualquier costa convierte la
literatura científica en "un océano de artículos no leídos e ilegibles" [Broad y Wade, 1982, pág. 222]. 

Sin embargo, Eugene Garfield considera que el hecho de que un


artículo sea poco citado no es necesariamente negativo [Garfield, 1993].
Por ejemplo, cualquier científico lee muchos más artículos de los que cita y
no puede afirmarse que los artículos que no se citan resulten del todo
inútiles. Otros trabajos son utilizados en la enseñanza y no necesariamente
han de citarse para que resulten útiles.

¿Existe alguna regularidad en la distribución de artículos según el número de citas recibidas?

  En 1926 Lotka propuso su ley del inverso del cuadrado, según la cual el número de científicos
que producen n artículos es aproximadamente proporcional a 1/n2. Diversos estudios han confirmado
la forma general de esta distribución, si bien existen algunas discrepancias sobre el valor del
exponente [Seglen, 1992]. Por otra parte, es un hecho bien conocido que la mayor parte de los
artículos científicos se publican en un número relativamente limitado de revistas científicas. Así, por
ejemplo, el 22% de los artículos indexados en el Science Citation Index correspondiente a 1994 fue
publicado en sólo 100 revistas científicas [Garfield, 1996]. De una manera análoga, la distribución
del número de artículos citados n veces se corresponde con una distribución de tipo logarítmico.

          Esto significa que mientras


unos pocos artículos son muy
citados, la mayoría de los
artículos recibe unas cuantas citas
a lo sumo o, como se indica más
arriba, no son jamás citados.

            

            Así, por ejemplo, en tres revistas de Bioquímica estudiadas por Seglen, el 15% de los
artículos recibieron el 50% de las citas mientras que la mitad de los artículos publicados conseguían
alrededor del 90% de las citas para las revistas [Seglen, 1992, pág. 631]. Esta variabilidad se
mantiene en los artículos publicados por un mismo autor, incluso aunque éste sea muy citado, de
manera que, en general, el número de citas que reciben sus artículos varía ampliamente.  
Distribución del número de publicaciones de la Universidad de Alcalá de Henares
durante un período de dos años según las citas recibidas en los cinco años posteriores.
Como puede comprobarse, unos cuantos artículos son muy citados y otros muchos
reciben muy pocas citas e incluso no son citados posteriormente ni siquiera por sus
propios autores.

  La función de distribución de las citas fue muy similar en todos las revistas científicas que
estudió Seglen [Seglen, 1992]. Por tanto, la variabilidad en el número de citas que reciben los
distintos artículos no se debe a la aleatoriedad de las mismas, sino a una distribución intrínsecamente
sesgada. Según, Seglen, el hecho de que la comunidad investigadora esté formada por un conjunto de
autores con productividades diversas que publican artículos que reciben un número variable de citas
da como resultado, al superponerse, la típica distribución de tipo logarítmico [Seglen, 1992]. La
forma de la distribución del número de citas es similar al extremo derecho de una curva de Gauss y,
según Seglen, representa la forma típica de una actividad, como la ciencia, con un nivel extremo de
actuación y desarrollo. Esta forma de distribución se presenta en otra áreas de la actividad humana
que exigen una actuación excepcional, como, por ejemplo, el rendimiento en el atletismo de élite
[Seglen, 1992, pág. 634]. Según con este punto de vista, la existencia de un número elevado de
artículos que son poco citados o que nunca son citados no solo no sería negativa, sino que es
inevitable [Seglen, 1992, pág. 635]. Una opinión similar ha sido defendida por el presidente del ISI,
Eugene Garfield [Garfield, 1993].  

Según el ISI, el número medio de citas que recibe un artículo es de 15 [Anónimo]. Sin
embargo, a la vista de los datos anteriores este número medio es muy poco representativo de la media
de los artículos.

¿De qué depende que un artículo sea más o menos citado?

  Diversos factores influyen en la probabilidad que tiene un artículo de ser citado. En primer
lugar es evidente que un artículo muy citado ha resultado de gran utilidad para la comunidad
investigadora, a no ser que las citas tengan mayoritariamente carácter negativo, lo cual no es
frecuente. Otros factores, además del mérito intrínseco, influyen en el número de citas que puede
recibir un artículo, como, por ejemplo, el tamaño relativo del área de investigación correspondiente.
Un artículo publicado en un área limitada, como Matemáticas, es menos probable que sea citado que
otro artículo publicado en un área más amplia, como Bioquímica, en la que se publican más trabajos
y existen, por tanto, más oportunidades de ser citado. Además del tamaño del área de conocimiento,
un factor que influye es el numero medio de referencias que incluyen los artículos en ese área de
conocimiento y este número varía considerablemente entre disciplinas [Peters y van Raan, 1994].
Así, los artículos de Bioquímica contienen más referencias por término medio que los artículos de
Matemáticas [Garfield, 1979]. Un último factor que influye en el número de citas que reciben los
artículos científicos es la propia dinámica interna de las disciplinas: no es raro que en ciertas áreas de
la Física exista un cierto lapso entre la aparición de un artículo y el comienzo de las citas al mismo,
debido a que se necesita cierto tiempo para realizar los experimentos necesarios para comprobar los
resultados [Garfield, 1983, pág. 9]. Esta especie de período de latencia varía de una disciplina a otra.

         Existen diferencias entre disciplinas en el uso de los libros y de los artículos en
revistas como medio de comunicación académica. Consecuentemente, las
referencias a libros son mayores en áreas de Humanidades (entre un 60% y un
70%) y Ciencias Sociales (entre un 30% y un 60%) que en Ciencias Naturales
(alrededor del 10%) [Nederhof, Zwaan, De Bruin y Dekker, 1989].

Por otra parte, una vez que un artículo ha sido citado es más fácil que vuelva a serlo de nuevo
debido a un cierto "efecto Halo" común en ciencia [Dumont, 1989, pág. 328]; [Peters y van Raan,
1994]. Una parte muy importante de las citas que recibe una revista provienen de artículos que se
publican en ella [Dumont, 1989] [Doreian, 1994]. La disponibilidad y difusión de las revistas
científicas es otro factor que influye en el número de citas que reciben los artículos. Por una parte, los
artículos que se publican en revistas muy difundidas son más fácilmente conocidos por los lectores
con lo que aumenta la probabilidad de que sean citados. Además, entre dos artículos igualmente
útiles, un autor puede citar aquel que pueda ser localizado más fácilmente por los lectores [Peters y
van Raan, 1994]. Por último, las revistas que se publican en inglés están más representadas en los
índices de citas y sus artículos son, en general, más citados que los otras revistas que se publican en
otros idiomas [Van Hooydonk, 1995].  

¿Existe alguna secuencia temporal en la distribución de citas que recibe un artículo?

La distribución de las citas que los artículos reciben con el tiempo parece seguir una pauta
común. Diversos autores han propuesto ecuaciones matemáticas que modelan la variación del
número de citas anuales que reciben los artículos [Glanzel y Schoepflin, 1995]; [Barnett, Fink y
Debus, 1989]. Naturalmente, estos modelos se refieren a los artículos que reciben un número de citas
considerable. Según estos modelos, el número de citas que recibe un artículo comienza siendo
pequeño y crece progresivamente con el tiempo hasta que alcanza un máximo a partir del cual el
número de citas anuales que consigue decrece progresivamente con un ritmo de descenso
generalmente distinto del ritmo de crecimiento. Obviamente, existen diferencias entre disciplinas en
la edad a la que los artículos alcanzan el máximo de citas.  En promedio, los artículos de Ciencias
Naturales suelen alcanzar su máximo de citas antes que los artículos de Ciencias Sociales y
Humanidades [Barnett, Fink y Debus, 1989]. Este dato refleja el hecho de que en las Ciencias
Naturales, los artículos suelen contener referencias a artículos recientes, mientras en Ciencias
Sociales las referencias se suelen hacer a publicaciones de más edad. En el volumen correspondiente
al Journal of Citation Reports se incluye un parámetro, la vida media, que refleja la obsolescencia de
los artículos que se publican en las revistas científicas. Una vida media de 5 significa que la mitad de
las citas que recibe una revista en un año dado fueron para artículos publicados en los cinco años
anteriores [Garfield, 1983, pág. 10]. La vida media de los artículos sirve como indicador de la
dinámica de utilización del conocimiento en las distintas disciplinas.

¿Son los artículos más importantes los más citados?

  Un interesante trabajo de Abt trata de responder a la vieja pregunta de si los artículos más
importantes son los más citados [Abt, 2000]. Para ello se pidió a 53 astrónomos expertos que
señalasen los trabajos más importantes publicados en las prestigiosas revistas Astronomical Journal o
Astrophysical Journal durante el siglo XX. A continuación se comparó el número de citas recibidas
por estos trabajos, considerados los más importantes, con el número de citas recibidas por otros
artículos que aparecían inmediatamente antes o inmediatamente después de los anteriores en las
revistas analizadas (muestra de control). Algunos resultados son llamativos. Así, por ejemplo, el 92%
de los artículos considerados importantes por los expertos, recibieron más citas que la media de los
artículos de control. Además, los artículos importantes publicados antes de 1950 recibieron 11 veces
más citas que los considerados no importantes. Se concluye que, al menos en este área, los artículos
más citados tienden a ser los más importantes (según el juicio de los expertos).  

¿Qué es el reconocimiento tardío?

  Aunque el modelo discutido en otra sección anterior que describe la evolución del número de
citas que recibe un artículo a lo largo del tiempo suele ser válido para la casi totalidad de los artículos
científicos altamente citados, existen excepciones que resultan interesantes. Una de estas excepciones
tiene que ver con los casos de descubrimiento prematuro o reconocimiento tardío. Stent, un
investigador en el área de biología molecular introdujo la idea de descubrimiento prematuro para
referirse a un descubrimiento que no puede ser debidamente apreciado en el momento en que se da a
conocer porque no encaja en los marcos conceptuales propios de una disciplina determinada [Stent,
1972]. Algunos de estos descubrimientos prematuros solo son debidamente valorados por el resto de
la comunidad científica cuando ha transcurrido un tiempo considerable desde su publicación. Garfield
llamó a este fenómeno reconocimiento tardío [Garfield, 1989b]. 

  El sociólogo Stephen Cole llamó a este fenómeno "reconocimiento tardío"[Garfield, 1989a,


pág.3]. Quizá el ejemplo clásico más conocido de este fenómeno es el de los trabajos de Mendel en
genética. Otro ejemplo menos conocido, pero sorprendente y que mereció un estudio detallado en la
prestigiosa revista Science lo constituyen las ecuaciones hidrodinámicas de Da Ríos que, según
Ricca, fueron descubiertas al menos tres veces de manera sucesiva e independiente en este siglo. Una
suerte parecida corrió la teoría de Polanyi de la adsorción de gases por sólidos que, propuesta en
1914, encontró un rechazo unánime, de manera que fue olvidada hasta que fue redescubierta en la
década de los 50, en que, a la luz de nuevos puntos de vista derivados de la Mecánica Cuántica,
encontró al fin un marco conceptual [Stent, 1972, pág. 86]. Por último, el famoso trabajo de Carnot
que estableció las bases de la Termodinámica fue ignorado hasta que Joule lo rescató veinte años
después [Nissani, 1995, pág. 172].

¿Cómo se detecta el reconocimiento tardío?

  Una herramienta poderosa que se ha utilizado para detectar casos de reconocimiento tardío
son los índices de citas [Garfield, 1989a]; [Garfield, 1989b]; [Garfield, 1990b]. Un artículo típico que
sufre reconocimiento tardío recibe muy pocas citas o incluso permanece sin ser citado durante los
años inmediatamente siguientes a su publicación. Una vez que transcurre un cierto tiempo la
comunidad científica empieza a reconocer el valor del artículo o su utilidad y ello se refleja en un
incremento rápido y notable de las citas que recibe, señal de que ha sido "descubierto" por la
comunidad científica [Garfield, 1990b]. Es preciso hacer notar que los artículos que sufren este
fenómeno se suelen publicar en revistas que tienen amplia difusión en sus respectivas disciplinas, por
lo que no cabe atribuir la ignorancia por parte de la comunidad científica o a dificultades por parte de
los investigadores para acceder a los artículos. 

¿Podemos analizar algunos ejemplos de reconocimiento tardío?


  Utilizando los enfoques discutidos en otra sección, Garfield ha identificado diversos artículos
científicos que sufrieron este tipo de resistencia silenciosa al descubrimiento o "reconocimiento
tardío". En la tabla siguiente se relacionan algunos ejemplos seleccionados. [Garfield, 1989a];
[Garfield, 1989b]; [Garfield, 1990b]

Autores Area / Tema Año Comentarios

H.M. Irving
Curvas de complejos de
1954  
H.S. metales
Rossotti
El trabajo resultaría galardonado
S. Weinberg Física nuclear (leptones) 1967
con el Premio Nobel
J.G. Oldroyd Polímeros 1950  
Además de permanecer ignorado
tras su publicación, el artículo fue
R.P. Ahlquist Receptores adrenotrópicos 1948
rechazado por una revista antes
de publicarse definitivamente
T.F. Técnicas de microscopía El artículo fue muy poco citado
1951
Anderson electrónica durante un período de 19 años.
Uno de los 100 artículos más
citados en la historia de la ciencia.
G. Scatchard Interacciones proteínas-iones 1949
Durante años no se le prestó
atención.
Uno de los 100 artículos más
citados en la historia de la ciencia.
D.I. Armon Fisiología vegetal 1949
Durante años permaneció
ignorado.
H.S. Frank Electrolitos en disolución 1945  
acuosa

También podría gustarte