Quantcast
Channel: IntraMed | Escepticemia
Viewing all 68 articles
Browse latest View live

El peaje de las letras

$
0
0

 

Sobre la educación como causa de la miopía galopante y el reto de la prevención

En 2050, la mitad de la población mundial será miope: casi 5.000 personas cortas de vista frente a los 1.400 en 2000. Esta miopía galopante (en algunos países de Asia, la población de miopes ronda ya el 80-90%) nos está convirtiendo en especialistas en visión cercana, pues los miopes ven borroso de lejos, pero enfocan con menos esfuerzo en distancias cortas. La emetropía o visión ideal, en la que las imágenes se enfocan justo en la retina y no por delante, como ocurre en el ojo miope, dejará de ser una condición natural para la mayoría de la población, que tendrá que recurrir a gafas, lentillas o cirugía refractiva para desenvolverse en actos tan cotidianos como conducir o leer los carteles por la calle. Pero la cortedad de vista no es solo un defecto refractivo fácil de corregir: el alargamiento del eje anteroposterior del globo ocular, que es el problema biofísico más característico del ojo miope, conlleva un mayor riesgo de desprendimiento de retina, glaucoma y maculopatía miópica. Y estas complicaciones, especialmente frecuentes en la miopía alta (afecta al 10% de la población mundial), son causas potenciales de ceguera.

 Ante un problema de esta magnitud, resulta sorprendente que apenas tengamos idea de sus causas, más allá de la predisposición hereditaria, y que, por tanto, no existan estrategias preventivas basadas en pruebas científicas. La epidemiología clásica ha confirmado repetidamente que las personas con más estudios tienden a ser más miopes. Pero como resulta imposible realizar un ensayo clínico para confirmar esta asociación (no sería ético desescolarizar a un grupo de niños para averiguar si se hacen menos miopes que el grupo que sigue sus estudios), no era posible saber si la educación causa la miopía, si los miopes son más estudiosos o si son otros factores, como el estatus socioeconómico, los que favorecen la miopía y un mayor nivel de educación. Un reciente estudio en el BMJ ha conseguido confirmar, sin realizar un ensayo clínico, que dedicar un mayor número de años a los estudios es un factor causal de la miopía. Los resultados llegan a cuantificar que el riesgo acumulado durante el ciclo universitario es de un cuarto de dioptría por año, de tal forma que el riesgo acumulado durante los cuatro años habituales de un grado o licenciatura sería de una dioptría.

Para confirmar que la educación causa la miopía, y no al revés, los autores del estudio han recurrido a una ingeniosa herramienta, la aleatorización mendeliana. Este tipo de diseño de investigación, basado en el postulado de que la herencia de un rasgo es independiente de la herencia de otros rasgos, permite discernir si esa asociación es causal o no. Utilizando datos genéticos, educativos y visuales de 67.798 británicos, pudieron establecer la direccionalidad de la asociación causal,  tras constatar en dos aleatorizaciones mendelianas que los niños con predisposición genética a ser más estudiosos tendían a ser más miopes, mientras que los niños con predisposición genética a ser miopes no tendían a pasar más años en la escuela y la universidad. El corresponsal de salud y ciencia de la BBC, James Gallagher, ha divulgado de forma admirable las implicaciones de este estudio en una conversación ficticia entre un alumno y su maestra: Señorita, ¿sus clases me están haciendo ciego?” Aunque ya tenemos por fin una primera prueba científica sobre las causas de la miopía, nos falta por conocer cómo la educación nos hace miopes, qué otros factores causales puede haber y cómo prevenir el desarrollo de la miopía. La solución no pasa, claro está, por dejar de estudiar. Más bien habrá que estudiar más y más para lograr una educación eficiente sin tener que pagar el peaje de la miopía.


Más que códigos

$
0
0

Sobre la clasificación y codificación de las enfermedades y sus implicaciones

Uno de los requisitos importantes –y no suficientemente valorado– del progreso de la medicina en el mundo globalizado es la existencia de un código común, de un lenguaje compartido para nombrar de forma inequívoca enfermedades, lesiones, síndromes, causas de lesión y muerte, síntomas, signos y demás circunstancias de la enfermedad. Ese sistema unificado existe desde finales del siglo XIX, se llama ahora Clasificación Internacional de Enfermedades (ICD, en sus siglas en inglés) y se elabora desde 1948 bajo la coordinación de la OMS. El pasado 18 de junio salió a la luz la undécima edición, el ICD-11, que sustituye al ICD-10 de 1992 (aunque actualizado en 2016) y contiene alrededor de 55.000 códigos de enfermedades, lesiones y causas de muerte, con los que se elaboran las estadísticas mundiales de morbilidad y mortalidad. Esta herramienta es un compendio actualizado del saber médico, pues clasificar es siempre una forma de conocer, aparentemente la más simple, pero en realidad de enorme sofisticación y trascendencia. 

El ICD-11, con sus nuevas entradas y salidas de términos y sus recodificaciones, plasma los avances médicos del último cuarto de siglo y está llamado a tener una influencia clara en la investigación y la atención médicas. Las novedades son muchas, algunas relevantes, como la inclusión de un nuevo capítulo sobre la salud sexual, que refleja los importantes cambios de los últimos años basados en el conocimiento científico de las dimensiones de la sexualidad y la personalidad. La nueva clasificación del ICD-11 sobre los trastornos relacionados con la salud sexual puede tener importantes implicaciones para las personas y los sistemas sanitarios, pues comporta que un problema sexual sea o no incluido en las coberturas asistenciales. Otra de las importantes y polémicas novedades es la inclusión de un nuevo capítulo sobre medicina tradicional, ya que algunos interpretan la integración de toda esta terminología como una concesión a la pseudociencia.

En general, todos los cambios en esta clasificación sistemática son fruto del trabajo continuo de grupos de expertos en cada campo. Muchos de ellos han generado un gran debate que ha tenido eco en las revistas científicas. Así, por ejemplo, los neurólogos y neurocirujanos han conseguido finalmente que el ictus aparezca incluido en el ICD-11 en el capítulo sobre sobre las enfermedades del sistema nervioso, tras ser rescatado del feudo de las enfermedades circulatorias. En un instructivo artículo publicado ahora en The Lancet (Ictus en el ISD-11: el fin de un largo exilio), los autores explican cómo ha evolucionado el conocimiento y el tratamiento de las enfermedades cerebrovasculares en el  último medio siglo y las nefastas consecuencias de su incorrecta clasificación. Sin embargo, otros anhelados cambios, como la sustitución del polémico término esquizofrenia por enfermedad de Kraepelin u otras denominaciones, no llegaron a materializarse.

El ICD-11, como primera clasificación sistemática del siglo XXI, es una base de datos terminológica digital, multiplataforma, interconectada y multilingüe. Es un producto que nace y crece en internet. No es sorprendente, por tanto, la incorporación de nuevos códigos para los trastornos del juego dentro y fuera de la red, que ya está teniendo como correlato la creación de centros especializados para atender las adicciones a los videojuegos y a internet, como el que el National Health Service británico va a crear en Londres. El nuevo ICD-11 será adoptado por los estados miembros de la OMS en 2019 y su uso se generalizará en 2022. Pero hasta entonces y después seguirá actualizándose ligeramente cada año y más a fondo cada tres años. Del buen uso de sus 55.000 códigos alfanuméricos depende en buena medida el progreso de la medicina y de los cuidados de salud. Porque cada uno de estos códigos es realmente mucho más que un código.

Café con conjeturas

$
0
0

Sobre los estudios acerca del café como paradigma del investigar y sus devaneos

En 2017 se publicó más de un artículo científico diario sobre café y salud (421 en total, con el término coffee en el título). Cada año se publican más que el anterior, lo que indica que el interés por el tema no está agotado, y que las aproximaciones y preguntas científicas son incesantes. En todo este conjunto de investigaciones, escasean los ensayos clínicos (10 en 2017) y las revisiones (40 en 2017), y son moneda corriente los estudios observacionales, que analizan las posibles asociaciones entre el consumo de café y sus circunstancias (tipo de café, cantidad, genes implicados en el metabolismo de la cafeína, etc.) y una gran diversidad de problemas de salud. Con tanta ciencia sobre el café, podríamos pensar que ya sabemos mucho o que al menos tenemos respuesta a algunas preguntas elementales, pero esto no es así ni mucho menos.

La principal conclusión provisional es que el consumo de café es seguro, dentro de los límites de la moderación, y que su influencia en la salud es neutra o más bien positiva que negativa. Tan vaga y cautelosa apreciación se deriva de la constatación de que el consumo de café no se asocia con la mayoría de los problemas de salud estudiados o se asocia inversamente, es decir, presenta un ligero efecto beneficioso. En particular, se ha observado que entre los bebedores de café la mortalidad cardiovascular y por todas las causas es ligeramente menor que entre los no consumidores, como también es algo menor la incidencia de cáncer y diabetes, entre otras enfermedades. ¿Permiten afirmar estos resultados que el café previene las enfermedades crónicas y reduce la mortalidad? No, porque las asociaciones son tan débiles que hay más incertidumbre que certeza. Los estudios observacionales no aclaran, por ejemplo, si la gente tiene mejor salud porque toma más café o toma menos café por su deteriorado estado de salud.

El pasado 2 de julio se publicó un nuevo artículo en JAMA Internal Medicine que ilustra muy bien lo que se va sabiendo y lo que queda por saber, y de paso cómo avanza la ciencia. Este estudio apoya la idea general de que el consumo de café se relaciona con una menor mortalidad, a la vez que añade nuevos datos que sugieren que el tipo de café consumido (instantáneo, molido e incluso descafeinado) es indiferente y que tampoco parecen influir los genes que metabolizan la cafeína de forma más rápida o lenta. Si el café con cafeína y el descafeinado parecen tener similares efectos sobre la mortalidad y la salud, ¿cuáles de los 800 componentes volátiles que tiene el café podrían tener alguna incidencia?

Son muchas las preguntas que flotan en los vapores de un café. Si esta bebida, tal y como parece, puede tener algún efecto beneficioso, ¿deberíamos empezar a consumirlo por motivos de salud?, y ¿deberían los médicos recomendar su consumo para prevenir enfermedades? En ambos casos, la respuesta, por ahora, es un no rotundo. La confianza en los resultados de la investigación sobre los efectos beneficiosos del café, en su gran mayoría derivados de estudios observaciones, es baja o muy baja. La mejor manera de tener respuestas más seguras es realizar ensayos clínicos, pero estas investigaciones son muy complejas, largas y costosas. El ramillete de preguntas sobre café y salud es tan florido, que no queda más remedio que derrochar imaginación para resolverlas. Interesaría saber, por ejemplo, por qué se empieza a beber café y por qué se deja de consumir. Por lo demás, el caso del café no es excepcional en ciencia, sino más bien un modelo del quehacer investigador. Los científicos tienen aquí tajo para rato y, mientras siguen conjeturando e investigando, cada día se beben en todo el mundo 2.250 millones de tazas de café.

 

Hoja de ruta nutricional

$
0
0

Sobre el fiasco de PREDIMED y la necesidad de ambiciosos ensayos en nutrición

Hay un abismo entre afirmar que la dieta mediterránea “reduce” las enfermedades cardiovasculares y afirmar que las personas que siguen esta dieta “presentan” menos enfermedades de este tipo. Este abismo es el que media entre una relación causa-efecto y una simple asociación, no necesariamente causal. Y este abismo es el que hay entre la conclusión de uno de los principales ensayos clínicos sobre nutrición de los últimos tiempos (el estudio PREDIMED, publicado en el New England Journal of Medicine el 4 de abril de 2013 y dado a conocer poco antes en la web) y la conclusión de la nueva versión del estudio (publicada el 21 de junio de 2018), tras la retirada de la primera por deficiencias en la ejecución. La historia de esta retractation es toda una lección de mala y buena ciencia, a la vez que un buen ejemplo de las dificultades de establecer conclusiones firmes sobre nutrición humana y de la montaña rusa de los mensajes sobre alimentación y salud. 

Hace cinco años, cuando salieron a la luz los resultados del estudio Primary Prevention of Cardiovascular Disease with a Mediterranean Diet (PREDIMED), la prensa más prestigiosa, desde el New York Times a The Guardian, destacó el hito que representaba este ensayo clínico realizado en España. Un medio tan poco dado al sensacionalismo como es NPR (National Public Radio tituló: La prueba española: la dieta mediterránea brilla en un estudio clínico. La prueba no era otra que la constatación de que el refuerzo de una dieta mediterránea con aceite de oliva o frutos secos reduce un 30% la incidencia de infartos, ictus o muerte en personas con riesgo cardiovascular elevado (el riesgo absoluto se reducía del 1,7% al 2,1%).  Incluso un científico escéptico y cascarrabias metodológico como John Ioannidis aplaudió en un editorial del BMJ de ese año la llegada de ensayos prometedores como PREDIMED y sus interesantes resultados, aunque ya advertía que la estimación de la magnitud del efecto era probablemente exagerada.

La suspicacia del anestesista británico John Carlisle le movieron a aplicar un método estadístico para comprobar la plausibilidad de los datos de 5.087 ensayos clínicos publicados en ocho revistas entre 2000 y 2015, entre ellos PREDIMED. Esta prueba estadística mostró que algo se había hecho mal al asignar las intervenciones dietéticas, pues los datos de algunos participantes no concordaban con una distribución aleatoria. Tras revisar los datos, los autores identificaron problemas en la aleatorización de 1.588 de los 7.447 participantes, lo que originó la consecuente retractation y el reanálisis de los datos con una conclusión similar pero muy diferente. Y, lo que quizá es peor, la extensión de una sombra de duda sobre decenas de estudios ya publicados por otros autores a partir de los datos de este ensayo.

Tras este episodio, John Ioannidis ha dicho que PREDIMED es “muy defectuoso” y que espera “publicar algunas pruebas que demuestren que hay problemas más profundos”. El fiasco ha sido grande y podría ser todavía mayor, pero esto no menoscaba la confianza en los ensayos clínicos sobre nutrición humana. Si hay algo cada vez más evidente es que los estudios observacionales no van a sacarnos de dudas sobre de los efectos reales de la dieta en la salud. A estas alturas, prácticamente todos los alimentos han sido ya asociados con los principales problemas de salud, pero seguimos sin saber exactamente si el riesgo de enfermedad y muerte atribuido a los factores de riesgo dietéticos es realmente el que sugiere la epidemiología nutricional. PREDIMED ha sido un primer intento malogrado, pero la lectura positiva de este fracaso es que en nutrición humana no parece haber otra hoja de ruta que realizar grandes ensayos de calidad exquisita. El problema es que estos ensayos son muy costosos, largos y difíciles de ejecutar.

Pensamiento científico

$
0
0

Sobre la ciencia como método intelectual y su difícil aplicación en otros ámbitos

¿Qué es la ciencia?, se preguntaba George Orwell en 1945, en un artículo en el semanario británico Tribune, a propósito de la utilidad de extender la educación científica a la población y, a la vez, de implicar más a los científicos en los asuntos públicos. Con su habitual agudeza, apuntaba que la palabra ciencia se usa al menos en dos sentidos, según la conveniencia, y que el saltar del uno al otro enturbia el debate. Por un lado, designa las ciencias naturales y exactas, como la química y las matemáticas; y, por otro, “un método intelectual que llega a resultados verificables razonando en modo lógico a partir de los hechos observados”. Aunque para los científicos y personas instruidas la ciencia es antes que nada una manera crítica de pensar y comprender el mundo, el común de la gente asimila la ciencia con las disciplinas experimentales. Según Orwell, esta confusión es, en parte, deliberada y corporativista, pues promueve la preeminencia de los científicos para razonar y opinar con mayor fundamento, incluso sobre asuntos ajenos a las ciencias, evitando de paso que cualquiera que despliegue un pensamiento racional, metódico y crítico sea considerado científico.

 Mucho ha llovido desde los tiempos de Orwell, incluyendo lluvias radiactivas y ácidas. En este tiempo se ha despertado la conciencia social sobre los peligros de algunas aplicaciones del conocimiento científico y ha cambiado la imagen social de la ciencia (entre otras cosas, la medicina, que no es una ciencia, ha desbancado a la física del imaginario científico popular, y las aplicaciones tecnológicas han sido aupadas a los altares del progreso). Con todo, el prestigio de la ciencia sigue siendo considerable y hasta es posible que haya mejorado la educación científica. El auge de las ciencias sociales, desde la economía a las “ciencias de la información”, ha contribuido a ampliar el espectro de los hombres de ciencia, aunque en el imaginario popular la bata blanca, asociada a los trabajos de laboratorio y las ciencias de la salud, sigue siendo un poderoso fetiche. Sin embargo, no está claro que la ciudadanía tenga un conocimiento claro de qué es la ciencia y mucho menos que el pensamiento crítico y científico se haya impuesto al pensamiento mágico y que su enseñanza esté en consonancia con el prestigio social de la ciencia. Si la ciencia es realmente un método y una disciplina de pensamiento, la educación y divulgación científicas deberían incidir más en el pensamiento crítico.

Contra lo que algunos puedan creer, la ciencia es una forma de comprender el mundo radicalmente antidogmática, incierta y provisional. Esto es algo que intuyó antes que nadie Anaximandro de Mileto, en el siglo VI a. C, según explica Carlo Rovelli en su libro El nacimiento del pensamiento científico. Como señala este físico teórico, la ciencia es una búsqueda continua de la mejor manera de explorar y de pensar el mundo, una aventura intelectual que cuestiona continuamente lo que se conoce para ofrecer respuestas cada vez mejores. Son tantas las disciplinas científicas y tan variado el abanico de métodos, que resulta complicado ofrecer una definición breve y precisa de la ciencia, incluso para los profesionales. Pero en el núcleo mismo de esta forma de conocimiento, radicalmente diferente del religioso y del artístico, está sin duda el pensamiento crítico. Hoy, como en los tiempos de Orwell, la competencia científica de un investigador no garantiza que sea capaz de desplegar un pensamiento crítico y racional fuera del ámbito de la ciencia. En este sentido, el pensamiento de George Orwell sigue siendo mucho más crítico y científico que el de muchos investigadores de bata blanca cuando razonan sobre asuntos políticos y sociales.

 

Polución informativa

$
0
0

Sobre la veracidad de la información, las noticias falsas y la intención de causar daño

Los rumores y las noticias falsas no son algo nuevo. Se han utilizado en la guerra, en la política, en la economía y en todo tipo de disputas. También en la ciencia y la medicina; pensemos, sin ir más lejos, en la información sobre el cambio climático, el sida, el ébola o las vacunas. Pero las redes sociales y la tecnología han magnificado un problema del que quien más quien menos ya es consciente. El término fake news (noticas falsas o falseadas) ha irrumpido con fuerza, pero los más sagaces han advertido que se queda corto, pone erróneamente el foco en el periodismo (en cierto modo, noticia falsa es un oxímoron) y desvirtúa un problema más complejo, el de la polución informativa. El ecosistema informativo está ciertamente contaminado por bulos, noticias erróneas, contenidos inventados, descontextualizaciones y manipulaciones varias, y esto nos obliga a repensar individual y colectivamente sobre la calidad y los intereses que hay detrás de la información.

El problema trasciende a los medios de comunicación y al concepto de noticia falsa, que resulta inapropiado y poco práctico para dar cuenta de toda la gama de contenidos falsos, las formas en las que se difunden y las intenciones de quienes los crean y propagan. Porque no es lo mismo una noticia errónea como consecuencia de un periodismo deficiente que una información inventada, y no es lo mismo una noticia veraz difundida por interés público que una información también verdadera pero propagada para hacer daño a alguien. No basta con considerar solo la veracidad de la información, hay que tener en cuenta también si la información pretende o no causar daño, según ha propuesto Claire Wardle, investigadora del Shorenstein Center de la Universidad de Harvard y directora del proyecto First Draft. De acuerdo con esta doble dimensión, Wardle recomienda distinguir entre misinformation (información errónea), cuando la información es falsa pero no se quiere causar daño; desinformation (desinformación), cuando es falsa y se pretende causar daño con ella, y malinformation (información malintencionada), cuando es cierta, pero se pretende perjudicar a alguien revelando información generalmente privada.

El uso de un vocabulario preciso y compartido, como el que propone esta investigadora, es algo básico y preliminar para entender mejor el problema. Por encargo del Consejo de Europa, Wardle ha elaborado con Hossein Derakhshan el informe Information Disorder. Toward an interdisciplinary framework for research and policymaking, cuyo título habla inequívocamente de un problema o trastorno de la información que precisa, antes que nada, un marco conceptual interdisciplinar para orientar la investigación y poder aplicar medidas correctoras. Para tratar de entender cualquier ejemplo de este “desorden informativo” o “trastorno de la información”, este interesante documento ilustra la conveniencia de analizar sus elementos (agente, mensaje e intérprete) y sus fases (creación, producción –el mensaje se convierte en producto mediático– y difusión). Solo usando un vocabulario común sobre la información y sus desórdenes parece posible abordar los retos asociados con la credibilidad (un factor psicológico), la verdad (un concepto semántico referido a la veracidad de los datos y las informaciones) y los hechos, que no son verdaderos o falsos, sino reales o inventados.

Las noticias son un tipo especial de información inmersa en un ecosistema digital en el que cualquiera puede crear, empaquetar y difundir información y en el que cualquiera puede llevarse a engaño. Para evitarlo, el primer paso es pensar críticamente acerca del lenguaje que utilizamos, en un camino de aprendizaje –el del pensamiento crítico–que implica una cierta alfabetización sobre la información y el periodismo. Este aprendizaje nos incumbe a todos, pero las personas con una cierta responsabilidad pública, desde los políticos a los educadores, periodistas y médicos, están especialmente concernidas.  La guía de la Unesco Journalism, ‘Fake News’ & Disinformation y los cursos de verificación de First Draft son un buen aperitivo.

El equívoco homeopático

$
0
0

Sobre los riesgos y contradicciones de esta terapia y su necesaria regulación

La edad de la inocencia de la homeopatía podría estar tocando a su fin. Poco a poco está siendo evacuada de las universidades y los colegios médicos, y se va poniendo el foco en los riesgos y contradicciones de esta pseudociencia. En cuanto a los riesgos, parece claro que puede matar si se usa como alternativa terapéutica para el cáncer, como ilustra el caso recién conocido de una economista española fallecida tras tratarse su cáncer de mama con homeopatía. A raíz de este y otros casos, cientos de médicos y científicos han pedido a la ministra de Sanidad que ponga coto a la venta libre de homeopatía en las farmacias y regule su uso. Lo curioso es que poco antes el Gobierno español trasladó a la Unión Europea, en la reunión de ministros de Sanidad celebrada en Viena del 10-11 de septiembre, una propuesta que incluso va más allá: dejar de considerar medicamentos a los productos homeopáticos.

 Esta iniciativa se sustenta en los riesgos potenciales de esta terapia y en una flagrante contradicción regulatoria: los productos homeopáticos son considerados medicamentos en toda la Unión Europea (en virtud de la Directiva Europea 92/73/CEE) sin haber tenido que demostrar su eficacia, como se exige a cualquier medicamento. Aunque en España la homeopatía no está financiada por el sistema sanitario público, en Francia, Alemania y otros países europeos sí lo está. Pero las cosas están cambiando. En abril de este año, el National Health Service británico empezó a dejar de financiar los tratamientos homeopáticos. En Francia, Le Figaro se ha hecho eco de la propuesta española (L’Espagne veut que l’Europe retire à l’homéopathie le statut de médicament) e informa de que el Gobierno francés se plantea dejar de reembolsar los tratamientos homeopáticos.

Michèle Boiron, nieta del fundador de los laboratorios Boiron, líder mundial en productos homeopáticos, le quita hierro al asunto: “La homeopatía es atacada regularmente. Son ciclos”. Y, ciertamente, no le falta razón, pues resulta inexplicable cómo es posible que este debate siga vivo, tras más de siglo y medio de pruebas desfavorables sobre su eficacia y más de una década desde que The Lancet declarara el fin de la homeopatía. Considerada a la luz de las evidencias científicas, la homeopatía es un puro placebo (químicamente, es poco más que agua clara endulzada por un excipiente) porque sus efectos terapéuticos no van más allá. Como tal, resultaría inocua, si no fuera porque se utiliza como terapia alternativa en enfermedades graves como el cáncer. Aunque la información disponible sobre el uso de terapias alternativas a la cirugía, la quimioterapia y la radioterapia en pacientes con cáncer es escaso, un reciente estudio ha puesto de manifiesto que la supervivencia a los cinco años es menor de la mitad entre los pacientes que las usan.

Queda mucho por saber sobre el conocimiento que tienen los usuarios de estas terapias y sus motivaciones, y si las usan como tratamientos alternativos, complementarios o preventivos. Un reciente estudio, liderado por Carolina Moreno, de la Universidad de Valencia, muestra que el perfil sociodemográfico del usuario español de homeopatía es el de una mujer, de clase media-alta, con estudios universitarios y de ideología progresista. Y muestra también que las principales razones para consumir homeopatía es tener una vida sana y equilibrada (47,5%), prevenir enfermedades y dolencias (37,1%) y curar enfermedades y dolencias en las que la medicina convencional no funciona (32,2%). Si algo ilustran estos datos es que, más allá de las carencias y limitaciones de la medicina convencional, la alfabetización científica de la población deja mucho que desear y el pensamiento mágico es inmune al desaliento cuando la salud está en juego. Todo ello apoya la urgente necesidad de poner fin al gran equívoco de la homeopatía, el de ser considerada como un medicamento sin haber sido evaluada y regulada como tal.

Cerco a la gripe

$
0
0

Sobre algunas nuevas vías de acoso científico a un virus mortífero y escurridizo

Este otoño de 2018 se cumplen 100 años de la mal llamada gripe española. Esta pandemia causó unos 50-100 millones de muertos (el 3-6% de la población mundial), quizá tantos o más que la Primera y la Segunda Guerra Mundial juntas (17 y 60 millones). Un siglo después, el virus de la gripe es el agente infeccioso más estudiado, pero dista mucho de ser el mejor conocido. Muchos de los factores que influyen en su virulencia y en la extensión de las epidemias anuales siguen sin ser comprendidos. Prueba de ello es que la capacidad preventiva es muy limitada y que hay un amplio margen de incertidumbre para anticipar cómo será la próxima temporada gripal y cuándo puede llegar una gran pandemia como las que ocurren tres o cuatro veces cada siglo. Con todo, hay abiertas algunas prometedores vías para poner cerco a esta infección, tanto a nivel inmunológico como epidemiológico.

Una de las claves parece estar en conocer cómo se produce la huella inmunológica que deja el primer contacto con el virus, normalmente antes de los tres años de vida. Esta huella (imprinting) capacita al sistema inmune para responder al primer tipo de virus que entró en el organismo, pero no tanto a otras variedades (la elevada mortandad de la gripe española se debió, entre otros factores, a que era un virus nuevo para los jóvenes soldados). Cuando el virus de la gripe se replica en las células que infecta no salen copias exactamente iguales, y esta capacidad mutagénica es lo que lo hace tan escurridizo y agresivo. Esto explica en parte que no haya una vacuna universal para la gripe como la hay para otras infecciones y que las vacunas anuales tengan una eficacia reducida y menguante con el tiempo. Para superar estos escollos, los científicos creen que hay que conocer a nivel molecular cómo responde el sistema inmune a la primera infección. Y para ello se va a iniciar en EE UU un gran estudio de cohortes con recién nacidos para saber cómo se enfrentan al virus al menos durante sus tres primeros años de vida.

El mejor conocimiento de los factores externos que influyen en la virulencia y características de la epidemia anual, desde el clima al modo de vida de la gente, es también una vía para mejorar su control. En esta línea, se ha publicado recientemente un estudio en Science que muestra que en las ciudades de mayor tamaño y con mayor movilidad humana la temporada de gripe es más extensa, prolongándose más allá de los meses de otoño, que son los más favorables para la transmisión del virus. En cambio, en los núcleos menos poblados, la temporada se concentra en unas cuantas semanas, alcanzando picos de gran intensidad cuando las condiciones de baja humedad favorecen el contagio. Los resultados de este estudio implican que las medidas de control deberían variar en función del tamaño poblacional: en las grandes urbes habría que poner énfasis en prevenir el contagio, y en las pequeñas en garantizar que los servicios sanitarios no se desborden y puedan dar una atención de calidad durante el pico de la epidemia.

De momento, sin embargo, nada de esto permite anticipar cómo será la próxima temporada gripal y cuándo habrá una nueva pandemia. La última fue la de 2009, que causó unos 575.000 muertos, y la anterior se remonta a 1968, con un balance de entre medio millón y dos millones. Con las líneas de investigación comentadas y con otras se pretende reducir el impacto de esta infección en la salud, a la vez que ahuyentar el fantasma de la gripe española, una pandemia que ni se originó en España ni tuvo aquí su principal foco. Eran tiempos de guerra y, para no minar la moral de la tropa, los países combatientes silenciaron una epidemia que estaba siendo más mortífera que la guerra misma. En cambio, en España, que era un país neutral, se airearon los casos. Y de ahí su nombre.


Alimentos biológicos y cáncer

$
0
0

Sobre la lógica de la alimentación orgánica y la lógica de la investigación

El auge de los caros alimentos orgánicos obedece principalmente a motivos de sostenibilidad y salud. Estos alimentos, producidos sin pesticidas, fertilizantes artificiales y técnicas de manipulación genética, son más respetuosos con el medio ambiente; y, en principio, parecen también más beneficiosos para la salud. La Agencia Internacional de Investigación del Cáncer (IARC) de la OMS ha incluido tres pesticidas habituales en el grupo de sustancias “probablemente carcinogénicas para el ser humano” (grupo 2A), el mismo grupo en el que por cierto también está la carne roja. Muchos pesticidas son además disruptores hormonales, que pueden causar cáncer. En buena lógica, el consumo habitual de alimentos biológicos, ya sean vegetales, lácteos o cárnicos, podría prevenir el desarrollo de algunos cánceres. Sin embargo, esto está lejos de ser confirmado. Y probarlo, además, no es tarea fácil.

La asociación entre consumo de alimentos orgánicos y riesgo de cáncer apenas ha sido estudiada. Pero el pasado 22 de octubre, la revista JAMA publicó un estudio francés de cohorte que mostraba que quienes consumían más alimentos orgánicos tenían un riesgo de sufrir algunos cánceres un 25% menor que quienes apenas los consumían. La investigación tiene sin duda interés científico y mediático, y por eso su eco en la prensa ha sido notable. Al tratarse de un estudio observacional y además solo el segundo de este tipo (en 2014 se publicó un estudio similar en el Reino Unido), algunos periódicos han realizado una cobertura rigurosa y prudente, como The New York Times o El Universal. Otros, sin embargo, han difundido mensajes sensacionalistas desde sus titulares, como The Independent (Eating organic food lowers risk of certain cancers, study suggests) o la CNN (You can cut your cancer risk by eating organic, a new study says).

Este estudio francés tiene como puntos fuertes el tamaño del grupo (68.946 participantes), su diseño prospectivo y su financiación completa con fondos públicos. Sin embargo, entre otras limitaciones, la cohorte está formada por voluntarios preocupados por su salud y no es representativa de la población general francesa; el consumo se ha medido mediante un cuestionario, lo que podría no reflejar el consumo real, y el seguimiento es de menos de cinco años. Además, algunos hallazgos (el riesgo de cáncer de mama, por ejemplo) son contradictorios con los del estudio británico. Todo esto obliga a ser cautelosos en la interpretación.

No es lo mismo decir que entre los consumidores de alimentos orgánicos se han observado menos cánceres que entre los no consumidores, que proclamar que el consumo de estos alimentos “reduce” el riego de cáncer o lo “previene”. Y mucho menos, como hace la CNN, individualizar el mensaje con un directo y persuasivo “Tú puedes recortar tu riesgo de cáncer con comida orgánica”, obviando todas las posibles diferencias entre el receptor del mensaje y los participantes en el estudio. La avalancha de mensajes de este tipo, que circulan y recirculan por las redes, crea falsas expectativas y confusión, a la vez que dificulta la visibilidad de la información rigurosa y no deja crecer la semilla del pensamiento crítico, tan necesario para tomar decisiones informadas que afectan a la salud.

En general, no somos del todo conscientes de la carga de causalidad contenida en formas verbales como “reduce”, “recorta” o “previene”, y de las sutiles diferencias entre “puede” y “podría”, o entre “plausible”, “posible” y “probable”. Pero con leves y acumulativos deslizamientos en el lenguaje, a menudo involuntarios, se va creando una realidad paralela o ampliada respecto a la que perfila la investigación. La conclusión de los autores del estudio, bien visible en el frontispicio del resumen, reza: “Promover la comida orgánica en la población general podría ser una prometedora estrategia de prevención del cáncer”. ¿Es esta una conclusión prematura y acaso el primer eslabón de una cadena de exageraciones? El profesor Tom Sanders considera que la conclusión es exagerada, y los epidemiólogos Tim Spector y Tim Key reconocen que el asunto merece más investigación. En buena lógica científica, estos estudios llegarán, aunque no tanto en forma de costosos y prácticamente inviables ensayos clínicos como de estudios observacionales que incluyan, entre otras mejoras, medidas más exactas sobre el consumo de alimentos y la presencia de pesticidas en el organismo. Y para entonces, igual que ahora, el problema seguirá siendo el mismo: ajustar el lenguaje a la realidad de las pruebas.

Riesgos en perspectiva

$
0
0

Sobre la importancia del contexto a la hora de interpretar los riesgos para la salud

Un paciente le preguntó a su médico qué riesgos entrañaba el tratamiento semanal de larga duración que le proponía, y este le respondió: “El mayor riesgo es el viaje en coche al hospital”. No recuerdo los detalles de esta anécdota, pero ilustra muy bien cómo se puede ofrecer al ciudadano y eventual paciente información sobre un aspecto crucial en medicina: el de los riesgos de enfermar o de sufrir algún perjuicio por una intervención médica.

Todos los medicamentos, la cirugía y las pruebas diagnósticas ofrecen algún beneficio, pero también conllevan riesgos, aunque de estos se suele hablar menos. En cambio, es difícil leer la prensa, ver la televisión o navegar por internet sin toparse con mensajes sobre los riesgos de enfermar y morir. Pero como nos llegan de forma tan desorganizada, contradictoria y descontextualizada, resulta muy difícil encontrar respuesta a dos preguntas clave: ¿Qué riesgo tengo yo de morir por esta enfermedad o de sufrir esta complicación? ¿De qué magnitud es este riesgo en relación con otros? Para los médicos tampoco es fácil ofrecer una información clara y precisa, entre otras cosas porque no suelen tener esos datos a mano.

Los riesgos de enfermar y morir dependen de muchos factores, pero tres de los principales son la edad, el sexo y el tabaquismo. Una mujer de 50 años, por ejemplo, ¿qué riesgo tiene de morir en los próximos 10 años por algunas de las causas más comunes, como son el infarto, el ictus, el cáncer de pulmón y el de mama? Las estimaciones indican que, de 1.000 mujeres no fumadoras de 50 años, al cabo de una década morirán 4 de infarto, 1 de ictus, 1 de cáncer de pulmón y 4 de cáncer de mama; en cambio, si son fumadoras, morirán 13, 5, 14 y 4 por 1.000. Resulta llamativo comprobar hasta qué punto el fumar aumenta el riesgo de muerte por infarto, ictus y cáncer de pulmón, mientras parece no afectar al cáncer de mama. La comprensión mejora si conocemos también los riesgos de muerte por todas las causas para las mujeres de esta edad: en el caso de las fumadoras es de 69 por 1.000, y en el de las no fumadoras de 37 por 1.000.

Estos simples números son solo un ejemplo que muestra la importancia de poner los riesgos en contexto. Nos dicen que, en el tramo de edad de 50 a 59 años, casi una de cada 10 mujeres no fumadoras muere por cáncer de mama, que el tabaquismo triplica el riesgo de morir de infarto y que 1 de cada 5 mujeres fumadoras muere por cáncer de pulmón. Todas estas estimaciones están recogidas en las tablas de riesgos para hombres y mujeres estadounidenses publicadas en 2008 en el Journal of the National Cancer Institute (The Risk of Death by Age, Sex, and Smoking Status in the United States: Putting Health Risks in Context). Estos datos tienen sus limitaciones, sin duda, y no se pueden extrapolarse sin más a otras poblaciones y ser aplicados a personas concretas sin considerar, entre otras cosas, sus antecedentes familiares y sus conductas de riesgo. Pero a pesar de sus carencias, las tablas de este tipo son realmente útiles para interpretar mejor los riesgos.

Vivimos en una cultura profundamente medicalizada y, a la vez, devota del cálculo de todo tipo de riesgos materiales y personales. Por ello, resulta paradójico que no tengamos más a mano este tipo de tablas para conocer mejor los riesgos a los que estamos expuestos y contextualizarlos con otros. Y no se trata de reducir toda la compleja existencia humana a simples números, sino de disponer de ellos para ayudarnos a tomar decisiones sobre la salud.

Alfabetización determinante

$
0
0

Sobre la educación médico-científica como determinante social de la salud

Con las encuestas siempre se puede ver el vaso medio lleno o medio vacío, aunque a veces ni siquiera muestran el vaso que dicen mostrar, sino otra cosa. La recién publicada novena encuesta sobre percepción social de la ciencia de la Fundación Española para la Ciencia y la Tecnología (FECYT) nos dice, por ejemplo, que cuatro de cada cinco españoles (80,4%) lee los prospectos de los medicamentos antes de usarlos, pero uno de cada cinco no los lee; y que mientras cuatro de cada cinco (78,3%) tienen en cuenta la opinión del médico al seguir una dieta, hay una quinta parte que no la tiene en cuenta. Con estos y otros datos se trata de estimar la alfabetización médico-científica de la población, pero las encuestas, aunque ofrecen datos interesantes, suelen dar una aproximación limitada a esta cuestión. Y resultan claramente insuficientes para abordar un asunto clave: en qué medida la alfabetización médico-científica influye en las decisiones sobre la propia salud.

La nueva encuesta de la FECYT muestra también que cuatro de cada cinco españoles (79,5%) perciben que su salud es buena o muy buena, y solo el 2,9% la califica como mala o muy mala. Además, dos de cada tres (68,9%) creen que la calidad del sistema sanitario público es buena o muy buena.  Para los encuestados, los médicos no solo son la profesión mejor valorada, por delante de científicos y profesores, sino que son incluso más científicos que los físicos. Afirman, además, que los temas informativos que más les interesan son, por este orden, los de medicina y salud, alimentación y consumo, cultura, medio ambiente, ciencia y tecnología, deportes, economía, política y famosos; sin embargo, reconocen que el nivel de acceso a la información sobre estos temas es inferior al interés mostrado por ellos.

Si usamos otra encuesta para abrir más el foco, hasta abarcar los 28 países de la Unión Europea, resulta que el 89% de la población está satisfecho o muy satisfecho con la información que encuentra en internet sobre salud y medicina, según el eurobarómetro European Citizens’Digital Health Literacy, de 2014. Esta encuesta muestra que la información de salud es fácil de encontrar para el 74% de los europeos y fácil de entender para el 77%.  El 83% de los entrevistados reconoce que la información que encuentran es suficiente y el 81% que puede discriminar sin problemas el contenido de calidad. Sin embargo, la proporción de europeos que confía en la información de internet para tomar decisiones sobre su salud se queda en el 59%. Y, lo que es más importante, tras informarse en internet, la cuarta parte de los ciudadanos se queda más confundido de lo que estaba.

La cuestión más relevante sobre la alfabetización es si la capacidad de entender y usar la información médica puede ser considerada como un determinante social de la salud, es decir, una característica o factor social que explicaría las diferencias individuales y colectivas. Algunos estudios parecen avalarlo, pero podría ser que la alfabetización no fuera exactamente un determinante, sino un mediador o un modulador de otros factores. Un grupo de investigadores de Austria ha publicado ahora un estudio que analiza estas hipótesis con datos de ocho países europeos, para concluir que la alfabetización completa (no solo la funcional) es un determinante crítico y directo de la salud. La implicación de esta conclusión, que debería confirmarse en estudios longitudinales, es clara: la alfabetización médica es una herramienta poderosa para la promoción de la salud, ya que, en principio, es más fácilmente modificable que otros factores sociales, como el nivel económico. Solo hay que invertir con inteligencia en educación.

Valores y preferencias

$
0
0

Sobre la evolución de la medicina basada en la evidencia y el foco en el paciente

En sus más de 25 años de vida, la medicina basada en la evidencia (MBE) se ha consolidado como uno de los grandes avances de la historia de la medicina (el séptimo, según una encuesta del BMJ). A estas alturas, casi todos los médicos son conscientes de que no todas las pruebas o evidencias tienen la misma importancia y que existe una jerarquía, así como de la necesidad de disponer de revisiones sistemáticas, guías de práctica clínica y resúmenes de los resultados de la investigación. Pero la MBE tiene un tercer principio no menos importante: “las evidencias nunca son suficientes”, según lo enunció el pasado 12 de diciembre en Barcelona el profesor de la McMaster University Gordon Guyatt, el primero en formular este concepto en 1991 en su editorial Evidence-based medicine de ACP Journal Club (hoy Annals of Internal Medicine). De las evidencias a la práctica hay, efectivamente, un largo camino de obstáculos, resistencias y condicionantes. Y uno de los más importantes es el de tener en cuenta los valores y preferencias de los pacientes, un área en el que hay mucho que aprender, innovar y mejorar. 

La cuestión es cómo estar seguros de que realmente se tienen en cuenta los valores y preferencias de cada paciente, entre otros factores individuales, a la hora de llevar a cabo una intervención médica. En su conferencia de Barcelona, celebrada en el Hospital Sant Pau en colaboración con la Fundación Dr. Antoni Esteve, Guyatt recordó que la fuerza o solidez de las recomendaciones de las autoridades sanitarias (en sus guías de práctica clínica y otros documentos) y de los médicos a sus pacientes no solo dependen de las evidencias científicas. Además, deben considerar el balance de beneficios y riesgos (todas las intervenciones los tienen, no solo los tratamientos), el coste de la intervención y los valores y preferencias de los pacientes. Si no existe entre los enfermos una amplia aceptación de una determinada intervención, que Guyatt cifra en al menos un 90%, la recomendación debería ser detenidamente explicada a cada paciente antes de tomar una decisión.

El concepto “valores y preferencias” etiqueta un emergente campo de estudio que pretende situar al paciente en el centro de la atención médica, y que enlaza con la medicina personalizada y la llamada investigación orientada al paciente. En PubMed hay ya centenares de artículos que aportan resultados y discusión sobre cómo integrar la perspectiva del paciente en las intervenciones médicas. La general falta de tiempo en la consulta médica es un factor limitante para la discusión de los riesgos y beneficios de las intervenciones y para considerar los valores y preferencias del enfermo, pero hay mucho espacio para dar respuestas innovadoras a esta necesidad. Como ejemplo, Guyatt proyectó un video que muestra una sencilla estrategia para decidir con un enfermo diabético la mejor opción terapéutica entre diferentes alternativas, teniendo en cuenta sus prioridades en aspectos como la influencia en el peso, las rutinas diarias y el control de la glucemia.

El desarrollo del sistema GRADE para jerarquizar la evidencia ha representado un gran avance. Pero queda mucho por hacer en cuanto a la elaboración de guías, resúmenes y métodos de ayuda a la toma de decisiones por parte del paciente, así como al acceso a toda esta información. El proyecto MAGIC (Making GRADE the Irresistible Choice) es una respuesta a esta necesidad aprovechando el potencial de los nuevos formatos electrónicos. La evolución de la EMB apunta, según Guyatt, hacia el desarrollo de sistemas, métodos y aplicaciones más eficaces para formar e informar a los médicos y para incorporar los valores y preferencias individuales en la toma de decisiones de los pacientes. Si esto se va consiguiendo, las críticas de despersonalización que ha recibido la MBE quedarían superadas.

El sesgo del lenguaje

$
0
0

Sobre las tendencias, peajes y resistencias en la publicación científica en inglés

La posibilidad de explorar el desarrollo de un organismo célula a célula, gracias a un conjunto de nuevas técnicas, ha sido reconocido por la revista Science como el descubrimiento científico de 2018. Aunque no reparemos en ello, los artículos científicos que constituyen el núcleo de este descubrimiento, la colaboración de investigadores de diferentes países que lo ha hecho posible y, finalmente, el anuncio de este reconocimiento por parte de Science se han producido prácticamente en una sola lengua, el inglés. Todo el proceso de desarrollo y difusión de la ciencia de la mayoría de los grandes hallazgos transcurre mayormente en inglés, porque esta es la lingua franca de la ciencia actual, como lo fue el latín en los tiempos en que Newton publicó sus Principia Mathematica. Sin embargo, esta lengua representa una barrera muy importante para una mayoría de científicos cuya lengua materna es otra, pero que se ven obligados a publicar en inglés para tener presencia internacional.

Una reciente encuesta de la compañía estadounidense Editage, especializada en servicios profesionales para la publicación científica, muestra que el 77% de los investigadores tiene dificultades (moderadas, importantes o extremas) para escribir artículos en inglés. A la encuesta han respondido casi 7.000 investigadores de 100 países, de los cuales el 11% era de países anglófonos y el 70% de potencias científicas emergentes, como China, Brasil, India, Japón y Corea del Sur, con otras lenguas oficiales. Un alto porcentaje de investigadores de estos países reconoce que le resulta difícil escribir un artículo en inglés: en Corea del Sur, el 88%; en Japón, el 86%; en Brasil, el 85%, y en China, el 81%. La encuesta, que aborda muy diferentes problemas, desde el plagio y la coautoría a la correspondencia con los editores, pone de relieve la desventaja de los autores con otra lengua materna y plantea la necesidad de que la industria editorial elimine o minimice esta limitación y el peaje de tiempo y esfuerzo que supone. De otro modo, podría ser que el actual predominio del inglés empezara a alterarse, pues el escenario está cambiando.

Aunque el 80% de las más de 20.000 revistas científicas incluidas en Scopus están escritas en inglés (las publicadas en otras lenguas deben tener al menos el resumen en inglés), la cuota de producción científica de los países anglófonos es cada vez menor en términos relativos. Pero es que, en valores absolutos, Estados Unidos ha sido superado por China en 2018 como primer productor de artículos científicos del mundo. La ciencia es cada vez menos una actividad occidental o euroamericana. China, Corea del Sur y Japón pertenecen al grupo de 15 países que más porcentaje del producto interior bruto dedican a investigación y desarrollo, y esto se traduce directamente en producción científica, aunque no necesariamente en mayor calidad.

En Alemania, Francia y España la ratio de artículos en inglés respecto a la lengua oficial del país es mayor de 5 a 1, en Italia llega a ser de 30 a 1, y en Holanda de 40 a 1; en China, en cambio, es de 2 a 1. Con todo, hay mucha ciencia escrita en otras lenguas, aunque varía por países en función del área de investigación. Así, en España, el 44% de la producción en español se concentra en ciencias de la vida, mientras que en China el 72,5% de la producción en chino se concentra en ciencias físicas. Esta ciencia no es necesariamente de segundo nivel, sino en muchos casos ciencia necesaria para llegar a la sociedad que la financia; y, lo que no es menos importante, para evitar el llamado sesgo lingüístico. Y es que leer y usar solo la ciencia escrita en inglés puede ofrecer una imagen parcial y distorsionada.

Schwartz y Schwitzer

$
0
0

Sobre el pensamiento crítico en medicina y el legado de dos de sus embajadores

La doctora Lisa M. Schwartz y el periodista de salud Gary Schwitzer, ambos estadounidenses, han sido dos de los más fecundos embajadores del pensamiento crítico en la comunicación médica. Utilizo el tiempo pasado porque Schwartz falleció el 29 de noviembre, a la edad de 55 años, tras toda una vida alertando sobre los excesos de la medicina y la información médica, y Schwitzer anunció el 18 de diciembre el cierre de la web HealthNewsReview.org por falta de financiación, tras 13 años al frente de este proyecto de análisis crítico de las noticias de salud. Aunque con trayectorias muy diferentes, ambos han realizado valiosas aportaciones para interpretar y mejorar la información de salud que llega al público. Sus beneficiarios principales han sido los ciudadanos y los periodistas, pero su legado alcanza también a médicos e instituciones sanitarias y científicas.

El nombre de Schwartz está íntimamente asociado al de su marido, Steven Woloshin, con quien codirigía el Center for Medicine and Media del Dartmouth Institute. Juntos han desarrollado una prolífica carrera como médicos, profesores e investigadores en la Facultad de Medicina del Dartmouth College. Su interés por la comunicación de los beneficios y riesgos de las intervenciones médicas pronto derivó en investigaciones sobre las deficiencias informativas a todos los niveles (artículos científicos, notas de prensa, noticias, información gubernamental, publicidad, prospectos de medicamentos, congresos médicos), los efectos de la mala información (sobrediagnósticos, sobretratamientos) y las posibles soluciones. Han escrito –junto con Gilbert Welch– uno de los libros más claros y útiles para que la gente corriente entienda las estadísticas médicas y pueda tomar decisiones informadas sobre los tratamientos y pruebas diagnósticas: Know Your Chances: Understanding Health Statistics; han liderado la creación de las tablas de riesgos de muerte Know Your Chances del National Cancer Institute; han propuesto a la Food and Drug Administration la iniciativa Drugs Fact Box, para incluir en los medicamentos una tabla resumen de sus riesgos y beneficios, y han instruido a más de 500 periodistas sobre cómo informar con rigor sobre los resultados de la investigación. Por todo ello, no es exagerado decir que Schwartz y Woloshin son una de las principales referencias mundiales en comunicación médica.

HealthNewsReview es también una referencia, aunque en el campo más reducido del periodismo médico. Durante 13 años, el equipo de Schwitzer ha analizado la calidad de más de 2.600 artículos periodísticos y más de 600 comunicados de prensa. Cada análisis se puntúa con entre una y cinco estrellas, según el cumplimiento de 10 criterios de calidad, y se acompaña de una explicación detallada de la evaluación. Aunque la idea no es original (se basa en el proyecto Media Doctor Australia de David Henry), la aportación del proyecto es fabulosa. El digital Vox es el que obtiene mejores evaluaciones (4,46/5 de media), mientras que The Guardian no llega al aprobado (2,29/5 de media). Tras el cierre de la web, Schwitzer ha anunciado que se retira después de 45 años como periodista.

Conocí a Lisa en 2013, en Madrid, en un curso que dirigí sobre Bioestadística para periodistas y comunicadores, y en el que ella y Steven fueron las estrellas de la jornada; luego colaboraron cada uno con un capítulo en un libro del mismo título. A Gary lo había conocido en 2011, en Barcelona, en un Simposio internacional sobre periodismo biomédico. El trabajo de ambos ha servido de guía a muchos periodistas y comunicadores para mejorar sus artículos y comunicados, y ha contribuido a estimular el pensamiento crítico ante la información de salud. Como decían Schwartz y Woloshin en Know Your Chances, su deseo es “ayudar a enfrentarnos a los mensajes de salud críticamente; no con cinismo, sino con un escepticismo saludable (…) El escepticismo saludable te ayuda a combatir las afirmaciones infundadas y exageradas, y a evitar miedos innecesarios y falsas esperanzas”.

Algoritmos y amígdalas

$
0
0

Sobre el miedo a la inteligencia artificial y las respuestas emocionales

“Buscábamos algo mejor que un algoritmo para recomendarte libros y lo hemos encontrado: personas”. Este lema de Librotea, el recomendador de libros del periódico El País, encierra una verdad de Perogrullo (una persona es sin duda algo cualitativamente mejor que un algoritmo), pero deja entrever una cierta prevención hacia ese ente misterioso, secreto y terrible que es, para muchos, un algoritmo. El término ha ganado popularidad gracias a los buscadores, las redes sociales, el big data y las aplicaciones de la inteligencia artificial. Y esta popularidad va de la mano de un cierto miedo supersticioso al daño que creemos que nos puede hacer un algoritmo, desde amenazar nuestra libertad a quitarnos el puesto de trabajo.

Este miedo se deriva en parte de los anuncios personalizados que vemos cuando navegamos por internet y a la difusión individualizada de noticias falsas en las redes sociales, pero es también un miedo a lo desconocido, a las posibilidades no bien comprendidas de la inteligencia artificial y del big data. Sin embargo, un algoritmo no es más que una simple lista de instrucciones para resolver un problema. Una receta de cocina es un algoritmo elemental que nos permite elaborar un plato, pero no tiene nada que ver con el que es capaz de detectar nuestros intereses de consumo en función de lo que buscamos y leemos en la red, o con los sofisticados algoritmos de un sistema experto para diagnostico médico. Todo son, efectivamente, algoritmos, pero ninguno de ellos nos va a hacer la comida ni va a comprar o votar por nosotros. Lo que sí pueden hacer algunos es presentarnos en bandeja un tipo de información que puede disparar nuestras respuestas más emocionales.

En su reciente artículo Marion Cotillard y las amígdalas, la directora de cine y librepensadora Isabel Coixet hablaba del “maldito algoritmo” que amenaza con  conformar nuestra forma de consumir, votar y vivir, a la vez que reconocía que el mayor peligro no son los algoritmos en sí, sino la tendencia humana a lo más fácil. Esta propensión a la pereza intelectual es lo que nos impulsa a insultar antes de razonar, a adoptar acríticamente las opiniones ajenas más afines a nuestros prejuicios y emociones, y a inhibirnos de la fatigosa tarea de pensar por uno mismo. Así pues, no es tanto el algoritmo el que conquista nuestra voluntad como nosotros quienes dejamos algunas decisiones al albur de informaciones de lo más peregrinas. El consumo de noticias en las redes sociales en detrimento de las que producen los medios de comunicación, como resultado de su intermediación profesional, es un terreno abonado para este tipo de reclamos poco fiables y de estímulos para nuestra siempre despierta amígdala cerebral, un enclave principal para el procesamiento de las emociones y las respuestas conductuales asociadas (también mencionaba Coixet a la amígdala, a la que confundía, en broma o por error, con las amígdalas).

El miedo y el rechazo que provocan los algoritmos es, por tanto, una respuesta amigdalina, emocional y primaria, que no está del todo justificada o no lo está en muchos casos. Los algoritmos, como los cuchillos, pueden usarse para bien o para mal. Y hay, ciertamente, un sinfín de buenas aplicaciones. En medicina, sin ir más lejos, tienen un futuro prometedor en muchos campos, como por ejemplo la interpretación de imágenes médicas, el análisis masivo de datos clínicos, la cirugía robotizada, el desarrollo de fármacos y el apoyo a la toma de decisiones médicas. Los humanos no somos capaces de resolver problemas como lo hace un algoritmo, entre otras cosas porque tenemos amígdala.


Sindemias y sinergias

$
0
0

Sobre la epidemia global de malnutrición y los abordajes sinérgicos y globales

La obesidad, la desnutrición y el cambio climático son tres de las mayores amenazas para la salud. Cualquiera de ellas, por separado, es responsable cada año de millones de muertes y tiene un coste de varios billones de euros. Pero las tres epidemias, además, actúan de forma simultánea, tienen factores sociales comunes e interactúan entre sí a nivel biológico, psicológico y social. Cuando dos o más problemas de salud presentan estas tres características se habla de una sindemia o epidemia sinérgica, como es el caso de la de abuso de sustancias, violencia y sida. La concurrencia sinérgica de obesidad, desnutrición y cambio climático es una sindemia global, como la califica un reciente informe de la revista The Lancet, además de la mayor amenaza para la salud de las personas, el medio ambiente y el planeta en su conjunto.

Este enfoque holístico podría ser una oportunidad para hacer frente de forma más eficaz a un triple problema que, por separado, no acaba de ser controlado. La obesidad, que era el objetivo original del informe de la revista británica, lleva medio siglo creciendo de forma inexorable en todo el mundo. Y su impacto en la salud es brutal, pues es un factor de riesgo de tres de la cuatro principales enfermedades crónicas: las enfermedades cardiovasculares, la diabetes tipo 2 y ciertos tipos de cáncer. Aunque en algunos países desarrollados la obesidad infantil se ha estancado o incluso ha decrecido ligeramente, ningún país ha reducido esta epidemia en el conjunto de la población, según el informe de The Lancet. Las razones por las que no se consigue hacer frente a la obesidad y a la sindemia global tienen que ver con lo que los autores del informe denominan “inercia política”, un término que engloba las políticas inadecuadas, la fuerte oposición de la industria alimentaria a esas políticas y la falta de demanda de acción política por parte del público.

En otro informe de The Lancet, publicado una semana antes, se ponía de relieve que mientras 800 millones de personas comen poco, un número mayor de personas siguen una dieta que favorece las enfermedades crónicas y la mortalidad prematura. Y se alertaba de que la dieta y la producción de alimentos debían cambiar radicalmente, hacia un patrón más saludable y sostenible (reduciendo, entre otras cosas, el consumo global de carne y azúcar a la mitad). Ahora con el enfoque sindémico se propugna un abordaje integral para enfrentarse de forma global, coordinada y a todos los niveles (internacional, nacional, local) a la triple amenaza, pues la dieta humana está íntimamente unida a la sostenibilidad del planeta y no cabe otra solución que modificar la actual forma de producir y consumir alimentos.

Este abordaje holístico de la gran sindemia de obesidad, desnutrición y cambio climático es coherente con otra de las visiones globales en el mundo de la salud: la iniciativa One Health, que pretende aunar bajo el mismo paraguas interdisciplinar la salud humana, la animal y la del medio ambiente. La idea es similar y sus defensores creen que, si se pone en práctica, ayudará a salvar millones de vidas y mejorar la salud del planeta. Poner en práctica estas ideas sinérgicas es complejo, y los autores del informe de The Lancet creen que la solución pasa por evitar que las grandes compañías alimentarias dejen de hacer negocio a expensas de la salud humana y el medio ambiente. El modelo que proponen es un acuerdo internacional basado en el Convenio Marco de la OMS para el Control del Tabaco, que ha ayudado a reducir el tabaquismo en el mundo, tras constatar que las tabaqueras atentaban contra la salud mientras bloqueaba las políticas de salud. Si la propuesta prosperase, la Big Food pasaría a ser considerada en cierta forma como la Big Tobacco.

Falsas pandemias

$
0
0

Sobre el caso de los suplementos de vitamina D y la industria del metaanálisis

¿Murieron los dinosaurios de osteomalacia, un fatal debilitamiento de los huesos causado por falta de vitamina D? La gigantesca nube de polvo creada por el impacto de un asteroide en la Tierra hace 65 millones pudo haber impedido la llegada de la radiación solar responsable de la síntesis de vitamina D en la piel, provocando la extinción de los dinosaurios y otras muchas especies animales. Esta especulación tiene entre sus adeptos a Michael Holick, el eminente endocrinólogo estadounidense que con más fervor, influencia y conflictos de intereses ha defendido el uso de suplementos de vitamina D para prevenir las fracturas, según una investigación periodística de Liz Szabo publicada en 2018 por el New York Times.

La investigación refleja que la venta de estos suplementos se ha multiplicado por nueve en una década, convirtiéndose en un negocio milmillonario: 936 millones de dólares de ventas en 2017, solo en Estados Unidos, a los que hay que añadir otros 365 millones por los análisis de niveles de esta vitamina. Buena parte de este negocio se sustenta en un supuesto déficit de vitamina D en la población general y, en consecuencia, en la necesidad de tomar suplementos para reducir el riesgo de fracturas. Pero la creencia de que los suplementos de vitamina D pueden prevenir las fracturas ha resultado ser falsa, como demuestran las mejores y más recientes revisiones sistemáticas con metaanálisis, y confirma una evaluación de Nutrimedia. El grado de certeza de los resultados actuales es alto, lo que implica que es muy improbable que nuevos estudios vayan a cambiar esta consideración. Así pues, el efecto beneficioso de los suplementos ha sido mitificado y el supuesto problema de salud pública que pretenden solucionar es una falsa pandemia.

Como ocurre en todos los problemas de salud definidos por un umbral numérico (por ejemplo, la hipertensión o la diabetes) que separa los valores normales de los patológicos, el déficit de vitamina D es arbitrario. Cuanto más exigente se sea con este umbral, más enfermedad habrá. El umbral de normalidad para los niveles de vitamina D fue fijado por la Sociedad Americana de Endocrinología, a instancias de Holick, de forma demasiado estricta, en 30 ng/ml. Con semejante umbral, no es de extrañar que más del 80% de la población necesitara suplementos para paliar este déficit. Sin embargo, una institución más rigurosa, como la Academia Nacional de Medicina de EE UU, fija ahora este umbral en 20 ng/ml, lo que implica que el 97,5% de la población tiene niveles normales y no precisa suplementos. En la brecha entre estos dos umbrales es donde reside el nicho de mercado.

El caso de la falsa pandemia de insuficiencia de vitamina D y las falsas soluciones (en 2010, el Holick escribió un libro titulado precisamente The vitamin D solution) es un ejemplo más de mala ciencia, con deficientes metaanálisis de por medio. Como se explica en un esclarecedor editorial de la revista Atención Primaria (Vitamina D: el traje nuevo el Rey Sol), cuyo primer autor es el médico de familia Alberto López, el rancio consenso de expertos ha dado paso a una “industria del metaanálisis” encargada de producir resultados a medida. La mala ciencia, en este caso, reside en reanalizar subgrupos y extrapolar a la población general los resultados de ancianos institucionalizados. Y su pernicioso efecto ha sido la creación de una moda y un mito que no será fácil desmontar. De hecho, muchas organizaciones recomiendan todavía suplementos de vitamina D en la población general, a pesar de las evidencias científicas en contra y del creciente número de casos de intoxicación por esta vitamina. Las sospechas de conflictos de intereses con la industria farmacéutica, la alimentaria y la del broceado, como apuntan los editorialistas, son inevitables.  

Nuevos aires

$
0
0

Sobre la renovación del método periodístico y su aproximación al científico

El Observatorio PerCienTex (Periodismo Científico de Excelencia), dirigido por el periodista Michele Catanzaro, no es solo un escaparate del mejor periodismo científico iberoamericano. Lo es también de los nuevos rumbos y la renovación en el oficio de informar sin perder de vista los valores clásicos de independencia, interés, rigor y servicio público. A pesar de los pesares y de los abundantes malos ejemplos, nunca como ahora ha habido tantas y tan buenas muestras de periodismo de calidad en los medios tradicionales y, particularmente, en los nuevos medios. Esta calidad es consecuencia del efecto combinado de perseverancia en los pilares esenciales del periodismo y adaptación a las nuevas circunstancias, desde la financiación al afán colaborativo. Son los nuevos aires del periodismo científico.

Estos aires no son generales, pero se perciben de forma clara en las nuevas fórmulas de financiación, principalmente becas de fundaciones y concursos de instituciones. Esto propicia y estimula otra serie de rasgos: la independencia del periodista; la inclinación hacia la investigación; los proyectos a largo plazo; el rechazo de la rapidez a ultranza, y el empeño en desarrollar temas propios al margen de las agendas informativas marcadas por el sistema de ciencia y tecnología. Probablemente nada de esto es radicalmente nuevo, excepto el actual vigor del trabajo en colaboración, algo que choca con el inveterado individualismo y que algunos consideran una nueva seña de identidad, como es el caso del periodista Javier Sauras, convencido de que “el periodismo será colaborativo o no será”.

Si hubiera que condensar todos estos nuevos aires del periodismo científico en una idea, esta bien podría ser la renovación del método periodístico y su aproximación al método científico. Ciencia y periodismo comparten muchos rasgos, sin ir más lejos su vocación de servicio público y que la palabra investigación no es un adorno sino algo sustancial. Pero las similitudes son muchas más. Una de ellas es la revisión exhaustiva de lo que se sabe sobre un tema, características de algunos trabajos periodísticos de largo aliento, que permiten que el periodista pueda especializarse lo bastante como para hablar de tú a tú a las fuentes expertas. Otra similitud sería la recogida y el análisis de datos, mediante bases de datos y herramientas de visualización, como ilustran los trabajos del proyecto Medicamentalia de la Fundación Civio y tantos otros buenos ejemplos de periodismo de datos. Una tercera similitud sería la tarea común de identificar patrones y datos extremos, plantear hipótesis y verificarlas. La necesidad de trabajar en colaboración, la transparencia y el acceso libre a los datos para facilitar la replicación de la investigación serían otros rasgos compartidos por la ciencia y este renovado periodismo científico, que no se ocupa necesariamente de temas científicos, y que, por tanto, quizá habría que diferenciar del periodismo de ciencia.

Sin embargo, las semejanzas entre ciencia y periodismo no van más allá. El periodismo tiene un recurso propio para contrastar y verificar, que es el reporterismo. No se trata solo de realizar observaciones sobre el terreno, sino de la facultad de preguntar y obtener una respuesta. En el tratamiento de las hipótesis es quizá donde está la diferencia más radical: mientras que en ciencia las hipótesis son fijas y previas a la investigación, en periodismo pueden modificarse en cualquier momento. Como dice el periodista Daniel Samper, “el periodismo de investigación es como la explotación petrolera, hay que perforar siete pozos para que salga uno”. En ciencia esto no está permitido, como ilustra una viñeta en la que la flecha de la investigación ha caído lejos de la diana de la hipótesis y aparece un científico tramposo que dibuja una nueva diana en torno a la flecha.

Imagen: En ciencia, las hipótesis deben ser previas a los estudios; en periodismo, no. (Por Schwartz & Woloshin / Ventura)

Consumidores críticos de noticias

$
0
0

Sobre la necesidad de ser competentes en el consumo de información de salud

Entre todos los productos de consumo, quizá sean las noticias el más buscado, el más consumido y también el más indigesto. Nunca ha sido tan fácil como ahora el acceso a la información y tampoco tan intensa la compulsión por seguir el hilo de la actualidad. Los informativos de la radio y la televisión, dispuestos en horarios clave a lo largo de la jornada, se complementan ahora con un flujo abrumador y continuo de información que circula y recircula por las redes. Sugería Hegel que las sociedades se hacen modernas cuando las noticias reemplazan a la religión como referente de autoridad, según escribió Alain de Botton en su libro The news. A user’s manual. Cada vez más gente dedica más tiempo al consumo de noticias que al de otros alimentos intelectuales quizá más provechosos. Aunque las noticias siempre han tenido algo que nos atrae, ahora empezamos a ser conscientes de su poder para modelar nuestra visión del mundo y de la general falta de preparación para interpretarlas con sentido crítico y distinguir su grado de verdad.

Se habla mucho de la necesidad de ser un consumidor informado, pero la primera necesidad sería la de ser competente en el consumo de información. Para mucha gente, una vez acabada la formación reglada en la escuela o en la universidad, la principal referencia educativa son los medios de comunicación. Pero los medios no suelen enseñar cómo hay que interpretar las noticias y cómo manejarse en la corriente informativa que mezcla mensajes rigurosos y falsos. Las noticias han resultado ser un vehículo tan potente y eficaz para promocionar todo tipo de intereses particulares, que va a resultar muy difícil regularlas y limitar la difusión de falsedades y pseudonoticias (aquellas cuya razón de ser no es el interés público sino el de quien las difunde). Más vale, por tanto, poner el énfasis en educar al consumidor y en fomentar su espíritu crítico. Todos deberíamos esforzarnos por ser consumidores competentes de noticias, igual que nos esforzamos en comprar los alimentos más saludables o cualquier otro producto.

En el campo de las noticias médicas, esta competencia es esencial para tomar decisiones que afectan a nuestra salud. Desperdigadas en diversos documentos y estudios, se van hilvanando una serie de pautas generales para orientarse. Una de ellas es la de desconfiar, de entrada, de las informaciones que infunden grandes esperanzas y grandes miedos, pues las intervenciones médicas rara vez son extremadamente beneficiosas o perjudiciales. Una segunda pauta es la de no dar mucho crédito a las noticias que hablan de los hallazgos de un nuevo estudio sin ponerlos en contexto con lo que se sabía hasta entonces, pues la respuesta a una pregunta médica no se basa normalmente en un único estudio, ni siquiera en el último, sino en el conocimiento acumulado; conviene tener presente, además, que lo último y más nuevo en medicina no es necesariamente mejor. Una tercera pauta es plantearse si los resultados de los estudios nos incumben o no, teniendo en cuenta si la población estudiada (animales o personas, hombres o mujeres, sanos o enfermos, etc.) se nos parece más o menos.

Hay, sin duda, más cuestiones que considerar a la hora de leer las noticias médicas, como es la existencia de intereses ocultos en la información y de conflictos de intereses en los expertos que opinan. Está claro que no es fácil desarrollar el pensamiento crítico para interpretar las noticias, pero cada vez hay más recursos, pistas y recomendaciones sensatas, a la vez que más profesionales involucrados en la disección crítica de la información, desde médicos y científicos a periodistas y comunicadores. Con todo, la implicación personal y la aproximación a la información con un cierto escepticismo es quizá lo más importante.

Disquisiciones significativas

$
0
0

Sobre la muletilla “estadísticamente significativo” y la controversia que suscita

La expresión “estadísticamente significativo” no es fácil de definir con propiedad, ni siquiera para algunos investigadores, pero eso no ha impedido que haya hecho fortuna más allá del ámbito técnico. La Real Academia Española (RAE), en su mapa de palabras asociadas a “significativo”, identifica “estadísticamente” como la más habitual; y, en la edición de 2001 de su diccionario, actualizó la anterior definición de “significativo” (Que da a entender o conocer con propiedad una cosa) sustituyendo “propiedad” por “precisión”. Efectivamente, la significación estadística es una cuestión de precisión en los resultados de la investigación. En la práctica, la diferenciación categórica entre los resultados estadísticamente significativos y los que no los son se visualiza a menudo como una raya nítida que separa las intervenciones médicas que funcionan de las que no, e incluso los estudios que merecen publicarse y los que no. Esta dicotomía no es solo una arbitrariedad que casa mal con la multiforme realidad clínica, sino además una fuente de mala ciencia.

Hace ya tiempo que los estadísticos andan rumiando un manifiesto contra la etiqueta “estadísticamente significativo”. Muchos son conscientes de que se trata de un controvertido sello de calidad que crea no pocos problemas al interpretar los resultados. La convención de decidir si los resultados de un estudio confirman o desmienten una hipótesis científica con el único criterio de la significación estadística (normalmente, p<0,05 o p<0,01) es una fuente de equívocos y falsas conclusiones. El término “significativo” ya fue considerado como uno de los más ambiguos en ciencia por la revista Nature, y ahora (20 de marzo de 2019) tres estadísticos han vuelto a la carga en la misma revista con un artículo en el que piden la retirada de la significación estadística en los artículos científicos. A los tres autores, se han sumado 250 firmas de apoyo en las primeras 24 horas y, al cabo de una semana, las de más de 800 científicos de 50 países, incluyendo estadísticos, investigadores clínicos y médicos, biólogos y psicólogos. 

El principal argumento de los autores es que en la mitad de los artículos científicos (51% de los 791 analizados) se asume erróneamente que unos resultados “no significativos” implican que “no hay efecto”, entre otras falsas conclusiones que adulteran la investigación. John Ioannidis, uno de los principales expertos en metodología de la investigación biomédica, intervino en la polémica dos días después rechazando esta propuesta. “La significación estadística representa un obstáculo para las afirmaciones infundadas”, escribió. “Eliminar este obstáculo podría promover el sesgo. Las tonterías irrefutables serían moneda común”. En su opinión, por tanto, sería peor el remedio que la enfermedad. La revista Nature, en su comentario editorial que acompaña al texto de los estadísticos, reconocía que no se puede interpretar una investigación con el único criterio de la significación estadística, porque esto implica sesgos, sobrevalorar algunos falsos positivos y pasar por alto algunos auténticos efectos. Pero decía que no va a cambiar su forma de evaluar los manuscritos porque no vislumbra una alternativa mejor, más allá de que los autors necesitan más y mejor formación estadística.

El debate no es estéril, ni mucho menos, porque probablemente ayudará a encontrar soluciones para reducir las conclusiones falsas. Vistas las cosas desde fuera, resulta encomiable la voluntad de transparencia y autocorrección de la ciencia, pero no deja de sorprender la enorme proporción de estudios publicados con interpretaciones equivocadas. Para muchos médicos, este debate les permite constatar, una vez más, el abismo que media entre las disquisiciones estadísticas y la realidad clínica, pues saben bien que una cosa es la significación estadística, se interprete como se interprete, y otra la relevancia clínica. Pero quizá lo más llamativo sea algo que nos incumbe a todos: la enorme dificultad de gestionar la incertidumbre de la salud.

Viewing all 68 articles
Browse latest View live




Latest Images