_
_
_
_
_
ÉTICA CIENTÍFICA
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Se nos pudre la ciencia

Los casos revelados en este periódico no son más que la punta del iceberg de un sinfín de despropósitos que hacen que, poco a poco, se nos pudra el sistema científico, al calor de lo que parece un negocio redondo

Microbiologists with the AEGIS Sciences Corporation process Covid-19 and Monkeypox tests at its facility in Nashville, Tennessee
Dos microbiólogas procesaban test de covid y de viruela del mono en agosto en Nashville (Tennessee).Anadolu Agency (Anadolu Agency via Getty Images)
Eva Méndez

¿Cómo puede ser que un investigador publique un estudio científico cada 37 horas? ¿Qué es eso de “los más citados”? ¿Y el ranking de Shanghái”? ¿Cómo puede ser que las universidades árabes paguen tanto dinero solo por cambiar la filiación de la institución? ¿Quién hace las publicaciones científicas? ¿Cómo se financian los estudios? Estas son algunas de las múltiples preguntas que he recibido recientemente en mi teléfono. Mis amigos que no trabajan en el mundo científico y académico han leído en EL PAÍS casos de lo que podríamos llamar “falta de integridad científica”, o lo que a mí me gusta calificar como el impacto de los motivadores de la voluntad de la investigación.

Algunas de las respuestas categóricas que he dado a esas preguntas han sido estas: publicar un estudio en 37 horas es imposible. Las universidades árabes pagan porque son presa, como el resto de las universidades del mundo, de los rankings universitarios. Las publicaciones científicas las hacen (supuestamente) los investigadores. Las pagamos todos. Y los más citados son algo así como Los 40 principales de la ciencia. Sin embargo, estas reflexiones no dan respuesta al drama de un sistema científico trasnochado, ineficaz y maltrecho.

La ciencia, además de ser la clave para hacer un mundo mejor, para enfrentar el cambio climático o una pandemia mundial, es también una empresa humana, y la carrera científica una profesión. Para entrar (y permanecer) en esa carrera, los investigadores tienen que publicar “y publicar” artículos científicos (papers) y, por supuesto, conseguir financiación pública para realizar esa investigación que, en el mejor de los casos para su carrera, culmine en una publicación en una revista con alto “factor de impacto” (JIF). Y vuelta a empezar. El principio de “publicar o perecer” ha dado lugar a muchas malas prácticas, a conductas poco éticas, a que mucha investigación se malgaste (research waste) sin tener ningún impacto en la sociedad, e incluso, a la crisis de la reproducibilidad de la ciencia.

La ciencia es clave para hacer un mundo mejor, enfrentarnos el cambio climático o a una pandemia mundial, pero también es una empresa humana, y la carrera científica una profesión”

Los investigadores tenemos, además de la curiosidad, el interés y otros loables principios que nos dirigen a la carrera científica, el motivador de la voluntad de publicar, como un fin en sí mismo. Ya que es lo que nos va a permitir obtener financiación, un puesto fijo en una universidad y lo que nos va a servir para permanecer en el sistema. Parte de este sistema (el elefante en la habitación) son las grandes editoriales científicas, a las que se pagan cantidades astronómicas por acceder y/o por publicar, y las empresas que determinan los factores de impacto de esas publicaciones basados en las citas que reciben las revistas.

Una de estas empresas, Clarivate (a la que aluden los casos revelados por este medio), realiza además su propia lista de esos 40 principales, los Highly Cited Researchers (HCR), donde se incluyen en riguroso orden y por disciplinas los 6.938 investigadores más citados. La cita no es un indicador indiscutible de calidad, sino un marcador de la popularidad: de las publicaciones (JIF) o de los investigadores (HCR). Al listado de los científicos “populares” se puede acceder en abierto, pero para lograr entrar a los listados de las buenas (“populares”) revistas (Journal Citation Report), las instituciones o los países tienen que pagar también importantes cantidades de siete cifras.

Por otra parte, los investigadores pertenecen a universidades u organismos de investigación que también tienen sus motivadores de la voluntad para atraer estudiantes, elevar su prestigio o captar otros reconocimientos. El elemento para definir la calidad (popularidad) de una universidad es nuevamente más listas, en este caso, rankings que colocan a las universidades por un orden de prelación según criterios de índole diversa y basados, en el caso de medir su absoluta excelencia, en índices tan arbitrarios como tener un premio Nobel, o uno de estos individuos altamente citados. ¡Como si una sola persona pudiera legitimar a toda una institución!

Publicar artículos en revistas especializadas ayuda a obtener financiación, un puesto fijo en una universidad y nos permite permanecer en el sistema (el elefante en la habitación)”

Lo que muestran los casos revelados en este periódico no es más que la punta del iceberg de un sinfín de despropósitos que hacen que, poco a poco, se nos pudra el sistema científico actual, al calor de lo que parece un negocio redondo. Los investigadores hacen la investigación, financiada con fondos públicos, las instituciones públicas en las que trabajan pagan a las grandes editoriales varias veces (por leer y por publicar), los investigadores además revisan gratis los trabajos científicos, y empresas como Clarivate o el ranking de Shanghái prescriben en sus listados quiénes son los buenos (y por comparación, los malos).

En los últimos 30 años, desde que convivimos con internet, hemos cambiado la forma de comunicarnos, de comprar, de enseñar, de aprender y hasta de ligar. Y sin embargo, seguimos haciendo, financiando y evaluando la ciencia de la misma manera que en el siglo pasado. Los jóvenes investigadores, malpagados y presionados por el sistema, aspiran a salir de cantar en sus laboratorios, tratando de cambiar el mundo, a alguna de las listas de Los 40 principales.

Pero, como dicen los argentinos, “el problema no es del chancho, sino del que le da de comer”, y consciente o inconscientemente, todos alimentamos este sistema anacrónico e ineficaz, subsumidos en un abrazo mortal con las editoriales científicas y los rankings universitarios. Y mientras, llenamos las arcas de editores y otras empresas del entorno que, como Clarivate, nos venden sus productos y nos dicen, con fines de lucro, qué es calidad. Quien puede pagar, paga, y entra en la élite de las viciadas popularidades. Pero la ciencia, como dice la nueva Ley 17/2022 en España, ha de ser “un bien común”, y debe devolverse a los investigadores que la hacen y a la sociedad que la sufraga.

En los últimos 30 años, desde internet, hemos cambiado la forma de comunicarnos, comprar, enseñar, aprender y hasta de ligar, sin embargo, hacemos ciencia de la misma manera que en el siglo pasado”

Para que no se nos pudra (más) el sistema científico actual, los investigadores, instituciones y demás agentes tenemos que romper el abrazo mortal de la ciencia y reaccionar para cambiar la forma en que comunicamos el conocimiento científico y, sobre todo, cómo evaluamos el mérito de los investigadores más allá de los papers. Sin embargo, hay alguna luz al final del túnel. Aunque seamos víctimas y cómplices del sistema actual, también somos conscientes de sus debilidades y, en mayor o menor medida, queremos cambiarlo.

En este sentido se ha creado, tras un largo debate con los agentes implicados y facilitado por la Unidad de Ciencia Abierta de la Comisión Europea, la Coalición para el Avance de la Evaluación de la investigación (CoARA). En los últimos cuatro meses se han adherido a CoARA más de 500 instituciones, que adoptan, entre otros compromisos, el de evitar el uso de los rankings en la evaluación de la investigación. CoARA es un paso al frente para analizar de forma coherente, colectiva, necesaria y global la reforma de la evaluación de la investigación, de tal manera que podamos pasar de un sistema de evaluación exclusivamente cuantitativo de las revistas, y papercentrista, a un sistema que incluya otros productos de investigación, otros indicadores, así como narrativas cualitativas que definan las contribuciones específicas del investigador y que valoren todos los talentos académicos y en todas las disciplinas.

Como les dije a mis amigos: la ciencia es como un paracaídas, si no se abre no nos va a ayudar. En la era de la web, de la inteligencia artificial y de los datos, otro sistema científico es posible y, además, necesario.

Eva Méndez es profesora titular del Departamento de Biblioteconomía de la Universidad Carlos III de Madrid y directora de OpenScienceLab, el grupo de Metainvestigación para la Ciencia Abierta

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_