Entre los elementos que más repercuten en el desarrollo de nuestras carreras profesionales resalta la evaluación de nuestra actividad académica y científica y, dentro de ésta, la valoración de nuestras publicaciones científicas. Su efecto se propaga más allá del nivel individual, jugando también un papel esencial a la hora de valorar la viabilidad de proyectos, o la excelencia de centros e instituciones.
Una muestra muy significativa de la importancia que otorga nuestra comunidad a las publicaciones científicas es el riguroso análisis que ofrece el Libro Blanco de las Matemáticas sobre la evolución e impacto en la comunidad internacional de nuestras publicaciones (ver, p.ej., los apartados 4.6 y 8.6).
No es, por tanto, sorprendente que la Comisión Científica (CC) comparta la preocupación actual de la Agencia Estatal de Investigación (AEI) por el peso excesivo adquirido por el factor de impacto de las revistas (FI) en los distintos procesos de evaluación. Una de las consecuencias más inquietantes de esta “dictadura” del FI es que, a menudo, las personas de la comunidad utilizan el FI como criterio para elegir las revistas para sus trabajos, ignorando criterios clásicos basados en el prestigio científico de las revistas.
Especialmente preocupante resulta el caso de las revistas que se aprovechan del abuso del FI en la evaluación y la inercia reciente de publicar en abierto, creando una falsa democratización de la ciencia que sustituye la autoridad científica por una evaluación pseudo-voluntarista por la comunidad y por pagar por publicar. La autoridad científica de un comité editorial seleccionado y selecto se sustituye cada vez más por revistas gestionadas por lo que parecen “call centers” que hacen llamadas indiscriminadas por la red a ofrecerse como editor y revisor. Los editores ya ni siquiera han de buscar a los revisores, sino que el propio “call center” asume esas tareas.
Sin embargo, algunas de estas revistas de dudosa calidad se sitúan rápidamente en el primer cuartil por FI de las correspondientes listas del Journal Citation Reports. Como ilustración del impacto económico que conlleva publicar en estas revistas, sólo en los últimos tres años, España se ha gastado más de 2,5 millones de euros en alguna de ellas. Otro ejemplo, en este caso en el ámbito de las Matemáticas, es el de una revista, también en el primer cuartil por FI, que actualmente tiene más de 300 “special issues” cuyo “call for papers” está abierto y se cerrará antes de final de 2021. En esta revista España y Turquía son los dos únicos países europeos entre los nueve que más publican. No podemos ignorar las implicaciones que este tipo de revistas pueden tener tanto en los procesos de promoción (acreditaciones) como en la remuneración (sexenios).
Ya en 2012 la declaración de San Francisco sobre evaluación de la investigación (Declaration on Research Assessment – DORA) planteó esta reflexión, resaltando que el FI se creó como una ayuda a las personas responsables de las bibliotecas a la hora de elegir qué revistas comprar, alertando sobre sus posibles consecuencias en caso de utilizarse como criterio de la evaluación, y proponiendo alternativas. Recientemente, la AEI se ha adherido a esta decla-ración, lo cual refleja claramente un cambio de criterio.
Queda todavía un largo camino para que este cambio se refleje de manera efectiva en nuestra comunidad. Si bien el área de Matemáticas no es de las más afectadas por la tendencia imperante, parece necesario impulsar una actualización del marco de referencia utilizado por la comunidad investigadora en la priorización de revistas. Esta actualización vendría, a su vez, guiada por una renovación de los criterios establecidos para determinar la calidad de las revistas que, por otro lado, conllevaría una renovación de las pautas utilizadas en la evaluación de nuestra actividad científica.
Somos conscientes de la necesidad de contar con indicadores cuantitativos que puedan servir de apoyo a la evaluación, sobre todo cuando está dirigida a colectivos numerosos como grupos, departamentos o instituciones, y de la dificultad que entraña resumir circunstancias diversas en un único indicador. Editoriales y grupos de expertos valoran actualmente indicadores alternativos al FI para evaluar la calidad de una revista. Algunos que podrían señalarse son el índice h de las revistas, la distribución geográfica de quienes publican en una revista, el número total de citas de la revista normalizado, o el eigenfactor. Ninguno de ellos está carente de inconvenientes, aunque cualquiera de ellos podría ser preferible al FI.
En la Comisión Científica consideramos que una alternativa para renovar los criterios de valoración de la calidad de las revistas sería la creación de una lista por parte de nuestra comunidad matemática. Esta lista incluiría y clasificaría aquellas revistas que se consideren serias y de prestigio en las diferentes áreas de las matemáticas y, como ya se ha hecho en países de nuestro entorno, permitiría sustituir la métrica actual. Somos conscientes de la dificultad de esta iniciativa, que requeriría un acuerdo previo entre diversos ámbitos matemáticos para determinar la comisión que llevaría a cabo esta misión.
Vemos imprescindible un cambio en la manera de evaluar la calidad de la investigación por parte de agencias y comités evaluadores, aunque creemos que este será insuficiente si no viene acompañado por un cambio paralelo en la actitud de las personas que desarrollamos actividades de investigación. Consideramos importante apelar a nuestra responsabilidad individual a la hora de plantear y valorar nuestros avances y contribuciones, huyendo de indicadores cuantitativos. Un ejemplo claro de aplicación puede ser la descripción libre de nuestra actividad en el CVA, donde cada uno de nosotros podemos elegir el tipo de información que presentamos y cómo.
Finalizamos resaltando la importancia de que seamos plenamente conscientes de las implicaciones de las dinámicas actuales y recomendando algunas interesantes lecturas que pueden ayudarnos a reflexionar sobre estas cuestiones:
- A. Grudniewicz , D. Moher, K.D. Cobey, et al. Predatory journals: no definition, no defence, Nature Comment, December (2019)
- V. Macháček, M. Srholec: Predatory publishing in Scopus: evidence on crosscountry differences, Scientometrics (2021)
- A. Rodriguez Navarro: España suspende en investigación por causa de la política científica, Nada es Gratis (2021)
- Blog Tress Academic