Bulos científicos
¿Cómo se combate el fraude en ciencia?
Hasta 10.000 estudios científicos retractados al año
En 2011, Ben Mol, profesor de Obstetricia y Ginecología en la Universidad de Monash, en Melbourne (Australia), encontró un aviso de retractación de un estudio sobre los fibromas uterinos y la infertilidad. La revista que lo había publicado se retractó porque contenía números idénticos a los de un estudio anterior, excepto que ese había sido sobre pólipos uterinos. Resultó que el autor simplemente había copiado partes del estudio del pólipo y había cambiado la enfermedad. Así de sencillo. Pero tomó meses descubrir este fraude.
«Desde ese momento estuve alerta», señala Mol, quien por aquella época era editor de la «Revista Europea de Obstetricia y Ginecología» y, con frecuencia, también revisor de artículos enviados a otras revistas. Así fue cómo descubrió, unas semanas más tarde, dos estudios que contenían datos aparentemente inventados. Mol los rechazó, pero un año después volvió a encontrarlos, excepto que los datos sospechosos habían cambiado y se habían publicado en otra revista.
¿Cómo se identifican estudios falsos? Mol da algunas claves: en algunos casos las tablas de los pacientes solo contenían números pares. En algunos casos los valores que se obtienen son clínicamente improbables... El problema es que muy a menudo a los autores no les ocurre nada o las investigaciones tardan años en señalar el posible fraude.
Así llegamos a 2024 y un artículo publicado por el equipo de Mol que señala que el año pasado el número de artículos rechazados superó las 10.000, batiendo récords anuales. El problema afecta a todos los estamentos de la ciencia. La carrera por publicar, una tarea que da mucho estatus o garantiza puestos obliga a presentar estudios con frecuencia. Y en ese camino se dejan de lado, a menudo, dos de los parámetros más importantes a la hora de realizarlos: la reproductibilidad y el conflicto de intereses.
El primero se refiere a que el estudio sea reproducible por otros investigadores y que, siguiendo los mismos parámetros, se obtenga el mismo resultado o al menos uno muy similar. El segundo tiene que ver con que ninguna empresa u organismo hayan colaborado para inclinar la balanza hacia su propio platillo, un caso que se ve frecuentemente en aquellos estudios que ensalzan las bondades del chocolate, la cerveza o el vino y han sido financiado (en parte o totalmente) por alguna empresa fabricante de estos bienes.
A esto hay que sumarle otro factor, destaca Mol: «Se estima que al menos el 25% de los ensayos clínicos que sirven de base a las directrices clínicas pueden no ser fiables». En pocas palabras, que hay tratamientos y diagnósticos que se llevan a cabo teniendo en cuenta resultados obtenidos por equipos científicos y si estos no son fiables, se pierde tiempo. Y vidas.
Antes de crear este marco de directrices, Mol las aplicó a encontrar estudios vinculados al síndrome de ovario poliquístico (SOP). Desde entonces este marco, denominado Rigid, se han descargado más de 35.000 veces y ha comenzado a aplicarse a nivel internacional.
El marco Rigid está formado por seis pasos. El primero de ellos es la revisión y está vinculado a los procesos estándar para revisar los estudios científicos. El segundo es la exclusión. Los estudios que se retractan se excluyen automáticamente y se identifican para evaluar a sus autores en futuros y pasados análisis. Luego llega la etapa de evaluación mediante dos herramientas habituales para los editores científicos. El cuarto paso tiene que ver con la etapa de discusión: los resultados de la evaluación de integridad se discuten entre los miembros del comité de integridad para evaluar el riesgo de cada estudio. Luego se establece el contacto: los estudios de bajo riesgo se incluyen sin contacto con el autor, mientras que se contacta a los autores de estudios clasificados como de riesgo moderado o alto para obtener aclaraciones. Finalmente se lleva a cabo la reevaluación: los estudios se reevalúan para su inclusión utilizando el algoritmo Rigid de respuesta del autor y aceptar o descartar las dudas que se hayan planteado.
Y aun así no es tan fácil. «Las consultas a revistas e instituciones de autores frecuentemente se encuentran con silencio o amenazas de acciones legales, y rara vez se llegan a conclusiones oficiales o se formulan eufemísticamente, con retractaciones limitadas» –de acuerdo con Helena Teede, coautora del estudio–. «Lo más importante es que faltan procedimientos o protocolos estandarizados con una supervisión adecuada para gestionar los problemas de integridad».
La clave del marco Rigid es la transparencia, donde los estudios clasificados por el comité de integridad como de riesgo moderado o alto de problemas de integridad están claramente documentados y se contacta a los autores para resaltar los problemas identificados. ¿Resuelve esto el problema? No, es una medida imprescindible, pero la llegada de la IA hará que aumente el volumen de estudios científicos y será prácticamente imposible para los responsables evaluar la fiabilidad de los mismos.
✕
Accede a tu cuenta para comentar