Hay tres bases bibliográficas consideradas casi de forma unánime como las más prestigiosas e influyentes en Biomedicina PubMed/Medline, Thomson-ISI Web of Science/Science Citation Index (WoS) y Scopus aunque revisan una pequeña parte de las más de 200.000 revistas científicas existentes.
PubMed/Medline es la única de carácter público (National Institutes of Health, EE.UU.) y no hace valoraciones de las citas recibidas por las publicaciones, ni calcula el índice h de los autores. Scopus o SciVerse-Scopus, que pertenece de la macroeditorial Elsevier, recoge la información de un número elevado de revistas ya que incluye alrededor de 17.000 publicaciones. De forma anual desde la década de 1970, Thomson-ISI publica el Journal Citation Report (JCR), repertorio que recoge información estadística de alrededor de 10.000 de las revistas más importantes de las áreas científico-tecnológicas y de las ciencias sociales.
El factor de impacto es la estrella mediática del JCR, ya que realiza una clasificación científica de las revistas. Este factor está influido por muchísimos y muy diferentes condicionantes, y su correlación es fuerte y significativa con el número (medio) de autores por artículo y el factor de impacto medio de una área determinada de la Ciencia. De aquí que sea fundamental que únicamente se comparen factores de impacto de revistas dentro de la misma área científica. Las variaciones del factor de impacto son mayores en las revistas pequeñas, como la nuestra, y hay que ser muy precavido al sacar conclusiones: una variación del factor de impacto debe ser mayor del 22% para considerarse significativa e indicar un ascenso o disminución real de la importancia de esa revista en un área científica concreta.
Una iniciativa muy interesante, nacida entre universitarios españoles, es la base SCImago Journal & Country ranks, que utiliza la base bibliográfica SCOPUS para obtener una serie de indicadores bibliométricos ponderados como el SCImago Journal Rank indicator que permite evaluar la importancia de las diferentes revistas en función de las citas que recibe de otras revistas según el prestigio de estas. Sobre SCImago hablaré en una futura entrada.
Sin embargo, debemos recordar que es muy importante llevar a cabo una labor desmitificadora sobre los indicadores bibliométricos y tener muy en cuenta que el factor de impacto sólo sirve para valorar y comparar revistas y no para valorar currículos de investigadores. Si tenemos que realizar la difícil labor de comparar los currículos de dos o más investigadores tenemos que utilizar otros índices, como el índice h u otros índices, por crear, que permitan ponderar y discriminar positivamente la importante labor realizada por nuestros investigadores, que se deben enfrentar al doble reto científico y lingüístico para sobrevivir a la cruel regla del “publish or perish”.
El factor de impacto se basa en las citas bibliográficas que reciben los artículos científicos. En este momento entramos en otra parte importante y resbaladiza de debate, es la que se refiere a si todas las citas que recibe un trabajo tienen el mismo valor. Para cualquier base bibliográfica, cuando se intenta calcular un índice h o un factor de impacto, la selección de las citas complica bastante las cosas. Parecería lógico valorar más aquellas que proceden de otros autores pero muchos trabajos, la mayoría de las citas que reciben son de artículos publicados por uno o varios de los autores del artículo citado. Estas citas, más bien autocitas o citas “incestuosas”, deberían omitirse en los cálculos o, por lo menos, marcar un límite lógico de estas citas a un trabajo propio.
La compulsiva autocitación que padecemos muchos autores biomédicos, supongo que en otras áreas se cocinarán platos parecidos, es difícil de explicar (¿ego demasiado grande?). Sin embargo, hay citas incestuosas que podrían ser válidas o por lo menos pasar este filtro mejor que lo hacen otras. ¿Cuáles son estas? La respuesta es complicada, pero podríamos considerar que son aceptables todas aquellas autocitas que se refieren a un método descrito por el mismo autor o autores, si este método es original o muestra una modificación importante a un método descrito previamente por otros autores, y se emplea en sucesivos trabajos porque es importante en los estudios llevados a cabo. También podrían obtener cierta indulgencia aquellos trabajos donde se exponen ideas o hipótesis novedosas o se discuten conceptos por primera vez sobre un tema concreto. El caso opuesto estaría en la discusión de los resultados actuales con los denominados resultados históricos: muchos de estos artículos son simplemente versiones anuales actualizadas de un primer artículo y la bibliografía suele ir repleta de autocitas.
Otro problema importante son las citas procedentes de las denominadas “mafias curriculares” o los denominados “parásitos científicos” (Torralba JM, Abellanas M). Aunque deseo pensar que estas mafias curriculares no han enraizado con fuerza, es un hecho que se hay grupos que se comportan como auténticas máquinas de publicar artículos de autoría múltiple, con el agravante de que, a su vez, tienden a autocitarse y a citar los artículos del resto de los componentes de la fratría. En base a este fenómeno paracientífico se han propuestos otros índices y factores que deberían ser tomados en cuenta, como el factor k (“por la cara”), para depurar mejor la labor evaluadora (Imperial & Rodríguez Navarro 1 y 2).
Otro problema casi insoluble asociado a las citas bibliográficas es considerar que todas las citas tienen el mismo valor porque presuponemos que todas las citas son elogiosas o, por lo menos, neutras. ¿Pero qué ocurre cuando una cita recibida critica la metodología, los resultados, las conclusiones o las opiniones expresadas por el autor o autores del artículo citado? ¿Cómo se valoran estas citas críticas? Hasta ahora son parte del sumatorio total de citas recibidas y no se hacen distinciones con el resto de las citas. ¡Y es evidente que no es lo mismo un elogio que una crítica y menos si esta está bien fundamentada o es certera y cierta!
Finalmente hay que comentar aquellos problemas relacionados con las pérdidas de citas o las equivocaciones con las citas recibidas por un autor o artículo. Estos van desde el equívoco con la revista referenciada a la hora de abreviarla, hasta los problemas más serios que se producen, en algunas bases de datos, con los apellidos y nombres compuestos de los autores. Este problema es mayor en los países en los que empleamos los apellidos paterno y materno. En mi caso concreto y a pesar de no tener un apellido paterno demasiado frecuente, mis publicaciones aparecen recogidas en las diferentes bases de datos (WoS, PubMed-Medline o Scopus) de varias formas diferentes (Quindós G, Quindós Guillermo, Quindós-Andrés G, Quindós-Andrés Guillermo, Andrés GQ y Andrés Guillermo Quindós), lo que dificulta las búsquedas bibliográficas y el cálculo de índices y valores bibliométricos. Algunas bases, como Scopus, permiten unificar estos diferentes fenotipos del mismo sujeto pero en otras es una misión casi imposible de culminar con éxito. Por eso es conveniente resaltar la gran importancia de emplear siempre el mismo nombre en las autorías de los artículos, como se ha propuesto desde la FECYT. En el caso de nuestros nombres, si usamos ambos apellidos, lo más razonable, es unir con un guión el apellido paterno con el materno porque las bases bibliográficas aplican las reglas de nombres anglosajones. También puede ocurrir lo contrario, que aparezcan en estas bases bibliográficas más artículos de los que realmente nos corresponden. La base bibliográfica Scopus posee herramientas que facilitan la búsqueda correcta de las publicaciones de cada autor y la WoS permite un ajuste fino manual de los datos encontrados. Es, por lo tanto, recomendable que el autor que envía el trabajo para que sea publicado, se fije bien en cómo están escritos los nombres de los autores y, en caso de duda, se lo pregunte a los mismos para no encontrarse en situaciones desagradables indeseadas.
Views: 0
Deje una respuesta