Lectura crítica de artículos científicos
CASPe para pacientes
Los médicos no deberíamos creernos todo lo que leemos en las revistas científicas (y tú tampoco)
Existe una herramienta que los clínicos usamos para leer ciencia. No es magia. Es hacerse las preguntas correctas.
Imagina que un amigo te llama emocionado porque ha leído que “el ayuno intermitente es igual de efectivo que no hacer nada para perder peso” y que, por tanto, toda esa disciplina de las ventanas de alimentación es un fraude. O que otro amigo, al día siguiente, te manda un artículo que dice que “restringir los ultraprocesados produce pérdida de peso y mejora metabólica significativa” en personas con obesidad.
Ambas noticias son reales. Ambas se basan en estudios publicados en revistas científicas serias. Y ambas, leídas con cuidado, cuentan algo bastante más matizado que el titular.
¿Cómo decides cuál creer? ¿O si creer alguna?
El problema no es la ciencia. Es cómo la contamos.
Existe una brecha enorme entre lo que un estudio científico realmente demuestra y lo que el titular de un medio —o el post viral de Instagram— dice que demuestra. Esta brecha no siempre es malicia. A veces es simpleza. A veces es que traducir un resultado estadístico a lenguaje cotidiano es genuinamente difícil. Y a veces, sí, es que alguien tiene interés en que el mensaje llegue simplificado.
El resultado es que el lector medio —incluido tu médico antes de formarse en metodología— navega un océano de “la ciencia dice” donde la ciencia raramente dice algo tan claro como se presenta.
Hay tres pecados capitales en la comunicación de ciencia médica, y los encontrarás cada semana si prestas atención:
El primero es confundir correlación con causalidad. El estudio observó que la gente que toma café tiene menos infarto. ¿El café protege el corazón? ¿O es que la gente que toma café también hace otras cosas que protegen el corazón, como salir a desayunar con amigos, tener un horario regular o pertenecer a un nivel socioeconómico que permite acceder a mejor atención sanitaria? No lo sabemos solo con el dato de la correlación.
El segundo es confundir significación estadística con relevancia clínica. Un estudio puede encontrar que una intervención produce una diferencia “estadísticamente significativa” de, pongamos, 3,4 kilos en personas que pesan 86 kilos durante 12 meses de tratamiento intensivo. De hecho, comentaremos próximamente ese estudio. La estadística dice que esa diferencia “es significativa”. Pero, ¿es clínicamente relevante?¿Cambia algo importante en la vida o la salud de esa persona esos 3,4 kilos? ¿Se normaliza su tensión? ¿Mejora su glucemia? ¿Se siente mejor? Si la respuesta es no, la “significación” vale poco.
El tercero, y quizás el más traicionero, es el problema de la población equivocada. Un ensayo puede estar perfectamente diseñado pero hacerse en personas que no se parecen a ti. Un estudio sobre restricción de ultraprocesados en personas que ya consumen solo el 21% de su dieta en forma de ultraprocesados no te dice mucho si tú consumes el 50%. Es como estudiar si dejar de fumar mejora la salud en personas que fuman dos cigarrillos a la semana y concluir que “no hay efecto”.
Lo que hacemos cuando leemos un estudio
Cuando en consulta llega un artículo nuevo —mandado por un paciente, publicado en prensa, presentado en un congreso— no lo leemos como quien lee una novela, de principio a fin, creyendo al narrador. O no deberíamos.
Lo leemos como quien inspecciona una casa antes de comprarla.
Nos fijamos en la estructura antes que en los muebles. ¿A quién estudiaron, exactamente? ¿Cuántos eran? ¿Cuánto tiempo los siguieron? ¿Quién pagó el estudio? ¿A qué grupo se comparó la intervención, y era ese grupo un comparador justo? ¿El resultado que dicen haber encontrado era el que buscaban desde el principio, o lo encontraron buscando otra cosa y lo pusieron en el título porque quedaba bien?
Para hacer esta inspección de forma sistemática, existe desde los años 90 una herramienta llamada CASPe —Critical Appraisal Skills Programme en español— que es básicamente una lista de preguntas ordenadas. Es como una lista de comprobación antes de despegar un avión, pero para ciencia médica.
Las preguntas van desde las más elementales —¿tiene este estudio una pregunta clara?— hasta las más exigentes: ¿los resultados son lo suficientemente precisos para tomar decisiones clínicas? ¿Los beneficios superan a los riesgos en pacientes como los míos?
No es un truco para desmontar estudios. Es una forma de leerlos honestamente.
Lo que CASPe no es
El CASPe no es un escudo para el escepticismo cómodo.
Hay una tentación —especialmente entre médicos— de usar la metodología como excusa para no cambiar de opinión. “Este estudio tiene limitaciones” es verdad de prácticamente cualquier estudio que se haya publicado. La cuestión no es si hay limitaciones, sino si esas limitaciones son suficientemente graves como para invalidar las conclusiones.
Un buen uso del CASPe no termina en “este estudio tiene problemas”. Termina en “este estudio, con estos problemas, nos dice esto, y esto otro aún no lo sabemos”. La incertidumbre es una respuesta honesta, no una derrota.
Y tampoco es una herramienta exclusiva de médicos. Cualquier persona con curiosidad puede aprender a hacerse las preguntas básicas. No necesitas saber estadística para preguntarte: ¿cuántas personas estudiaron? ¿Cuánto duró el seguimiento? ¿A quién se comparó? ¿Los resultados son clínicamente relevantes o solo estadísticamente significativos?
Vale, es verdad que para sacarle todo el jugo, es mejor saber estadística, pero no para poder defenderse.
¿Por qué es importante?
Vivimos en el momento de mayor producción científica de la historia y de mayor analfabetismo científico funcional al mismo tiempo. No analfabetismo en el sentido de no saber leer —sino en el sentido de no saber qué preguntas hacerle a lo que leemos.
Cada semana hay un nuevo superalimento, una nueva dieta milagrosa, un nuevo suplemento que “la ciencia ha demostrado” que funciona, y una nueva noticia que contradice la de la semana anterior. El resultado es una fatiga de evidencia: la gente deja de creer en la ciencia no porque la ciencia haya fallado, sino porque no tiene herramientas para distinguir la buena de la mala.
En este Substack, y también en mi blog, cada análisis que publicamos de un artículo científico no pretende estar en posesión de la verdad absoluta. Pretende mostrar el proceso de llegar a una conclusión honesta: qué dice el estudio, qué no dice, qué problemas tiene, y qué pregunta deja abierta. A veces la conclusión es que el artículo es sólido y cambia algo en cómo pensamos sobre un tema. Otras veces es que el artículo es interesante como hipótesis pero necesita mejor evidencia. Y otras, que el titular no tiene nada que ver con los datos.
Eso no es escepticismo. Es respeto por la ciencia.
Una última cosa
La próxima vez que alguien te mande un artículo con el mensaje “¿ves? ¡la ciencia dice que X!”, puedes hacer una estas preguntas antes de creerlo o descartarlo:
¿En quiénes lo estudiaron, con qué lo compararon y cuánto tiempo los siguieron?
No siempre tendrás la respuesta. Pero hacer la pregunta ya es empezar a leer diferente.
En las próximas entregas de medicinacoherente.com, aplicaremos este proceso a artículos concretos: los que están generando ruido esta semana, los que merecen más atención de la que reciben, y los que suenan bien pero no aguantan la inspección. Suscríbete para no perderte ninguno. Más adelante, para los seguidores más acérrimos, configuraré ejemplos de CASPEs hechos a diversos artículos reales, con pistas y guías de cómo proceder para que tú puedas hacer tu propia lectura crítica.
El Doctor Ecléctico es el seudónimo editorial de este Substack, donde medicina interna, nutrición clínica y pensamiento crítico conviven sin condescendencia. El objetivo es uno: que entiendas mejor lo que tu médico piensa cuando lee un estudio. Y quizás que tú también empieces a pensarlo.
