Quantcast
Channel: IntraMed | Escepticemia
Viewing all 68 articles
Browse latest View live

En la piel del paciente

$
0
0

Sobre los enfermos “difíciles”, la mala praxis y la enseñanza de la empatía

En el árbol de la literatura médica, dominada por la aproximación científica a la salud y la enfermedad, hay una rama vigorosa que se ocupa del estudio de la empatía. Es un retoño reciente, pero su pujanza refleja la importancia creciente del conocimiento de las emociones y las actitudes de los médicos en la calidad asistencial. La empatía clínica no es ya un adorno o un complemento, sino una competencia médica esencial y una actitud clínica imprescindible. Ser un buen médico implica no solo saber ciencia, sino también entender a las personas y saber ponerse en la piel del enfermo. En la última década, toda una avalancha de estudios ha confirmado que la empatía clínica se asocia con una mayor satisfacción del enfermo, un menor estrés del médico, menos errores y mejores resultados.

La relación con cualquier enfermo es siempre un desafío para el clínico, pero hay pacientes “difíciles” capaces de poner contra las cuerdas al médico. Cuando se presenta un enfermo agresivo, exigente, arrogante o despreciativo con el médico, la relación se torna complicada y puede conducir al fracaso. No solo la necesaria empatía puede saltar por los aires, sino que, además, en estos casos es más probable que el diagnóstico sea erróneo. Un reciente experimento publicado en la revista BMJ Quality and Safety ha mostrado que, cuando un médico se enfrenta a un paciente difícil, la precisión del diagnóstico desciende de forma significativa, especialmente cuando se trata de casos complejos.

El estudio, realizado con 74 residentes de medicina interna, sugiere que los pacientes difíciles entorpecen el razonamiento médico. Esto se produce, aparentemente, porque los médicos emplean parte de sus recursos mentales en lidiar con el reto emocional que les plantean estos enfermos en vez de centrarse en procesar los hallazgos clínicos para llegar al diagnóstico. El experimento tiene la limitación de que no se realizó con enfermos reales (ni siquiera con actores), sino con casos simulados explicados en un folleto, pero ilustra la influencia de las emociones y sentimientos del médico en su relación con el paciente.

Aunque objetivamente hay pacientes problemáticos, todas las relaciones médico-paciente pueden presentar aristas y problemas. A veces, detrás de un paciente etiquetado como difícil, lo que hay en realidad es un médico falto de empatía. En un intento de comprender mejor esta situación y poder incluso cribar a los estudiantes de Medicina, se han ideado numerosas herramientas psicométricas de este atributo cognitivo. En una revisión de 2007 en la que se analizaron 36 de estas medidas, se constató que resultaban válidas para investigar la empatía, pero carecían de la suficiente validez predictiva como para descartar a un estudiante. Aunque en las pruebas de acceso a las principales facultades de Medicina de Estados Unidos se incluyen preguntas que miden la empatía de los futuros médicos, lo importante es que, más allá de la predisposición natural de cada uno, la empatía, como todos las actitudes puede y debe aprenderse.

El prestigioso Hospital Universitario de Massachusetts, asociado a la Universidad de Harvard, es uno de los pioneros en la enseñanza obligatoria de esta competencia. Su programa Empathetics, desarrollado por la profesora de Psiquiatría Helen Riess, ha demostrando en un ensayo aleatorizado que los médicos que hacen estos cursos son mejor valorados por sus pacientes. A algunos médicos quizá esto no les importe demasiado, pero la satisfacción del enfermo es cada vez un asunto central en medicina. Muchos hospitales utilizan ya este criterio para establecer la remuneración de los médicos. Por mal que suene la expresión, si hay una profesión especialmente “orientada al cliente”, esa es la de médico.


La comercialización del cáncer

$
0
0

Sobre los riesgos de la publicidad de pruebas y tratamientos oncológicos

¿Para qué sirve la publicidad directa al público de un hospital oncológico? Decir que pretende educar al público, informar sobre las opciones terapéuticas y reducir el estigma del cáncer es andarse por las ramas y rehuir el fondo de la cuestión. La publicidad está en las antípodas de la educación y la información objetiva. Tanto si se trata de un coche como de una prueba oncológica, lo que pretende es crear marca y aumentar la demanda. En Estados Unidos, según revela un reciente análisis publicado en JAMA Internal Medicine, los 890 hospitales oncológicos analizados se gastaron en 2014 al menos 173 millones de dólares en publicidad. Tal y como sospechaban los autores, los centros con ánimo de lucro fueron los que más gastaron. Pero hay que decir que el MD Anderson y el Memorial Sloan Kettering, ambos vinculados al Instituto Nacional del Cáncer (NCI), figuran en los puestos dos y tres de la lista de mayor gasto publicitario.

El gasto en publicidad no tiene nada que ver con la calidad de la asistencia o de la información que reciben los pacientes. Pero sí que puede contribuir a crear falsas expectativas, aumentar la demanda de pruebas y tratamientos innecesarios, deteriorar la relación entre el paciente y su médico, confundir a los enfermos más vulnerables y aumentar los costes. Por eso, la publicidad directa al consumidor sobre tratamientos está prohibida en casi todo el mundo. Estados Unidos y Nueva Zelanda son las dos únicas excepciones en la OCDE (el club de los 34 países más ricos del mundo), además de Brasil. En el resto del mundo, se considera que la publicidad no es una vía adecuada para informar al paciente sobre los beneficios y riesgos de los medicamentos y las intervenciones médicas.

La publicidad suele utilizar términos vagos y cualitativos en vez de números para resaltar los beneficios de una intervención médica, a la vez que recurre a mensajes emocionales, según mostró un clásico estudio del grupo de Steven Woloshin. El texto de un anuncio del Sloan Kettering Cancer Center de Nueva York publicado en The New York Times es muy ilustrativo: “Primeros signos del cáncer de colon: Sentirse bien. Tener buen apetito. Tener solo 50 años”. ¿Cuál es el mensaje? Como explican Steven Woloshin y Lisa Schwartz en el libro Bioestadística para periodistas y comunicadores (descarga gratuita con registro previo), “este anuncio no presenta hechos sino miedo. Te dice que tengas miedo, que aunque te sientas sano puedes tener cáncer de colon”. Además, “es muy exagerado”, pues solo 3 de cada 1.000 personas de 50 años tendrán cáncer de colon en los próximos 10 años.

Los mensajes publicitarios suele ser sesgados y emocionales. Y esto, en el ámbito de la salud, puede ser muy peligroso, pues, para tomar decisiones sobre las intervenciones médicas, hay que tener muy claros los números que informan de los riesgos y los beneficios. La prohibición de la publicidad directa sobre medicamentos nos defiende de estos mensajes interesados, pero existen otros muchos canales de “publicidad” indirecta, procedente de las asociaciones médicas o de otras fuentes, además de la información periodística sesgada y de baja calidad. Hay que ser muy ingenuo para ignorar que la oncología es un gran negocio con infinidad de intereses, pues casi la mitad de las personas padecerá algún tipo de cáncer a lo largo de la vida. La prevención y el tratamiento del cáncer ofrecen cada vez mejores resultados, pero también se realizan muchos tratamientos y pruebas innecesarios. Ponernos a salvo de toda la “publicidad” indirecta que aumenta el gasto y la demanda de intervenciones innecesarias no es solo responsabilidad de los médicos. Los ciudadanos debemos desarrollar un saludable escepticismo para defendernos de los vendedores de miedo y de esperanzas infundadas.

Ciencia y pseudociencia de la felicidad

$
0
0

Sobre el desconcierto de estudios y supercherías sobre el bienestar subjetivo

La felicidad pasa por ser un objeto científico. Una legión de investigadores se ocupa de estudiar esa sensación subjetiva de estar a gusto con la propia vida. En PubMed hay miles de trabajos sobre las bases, los parámetros, los requisitos y otros aspectos de la felicidad y sus contornos físicos, psicológicos y sociales. No solo se difunden en publicaciones de psicología y ciencias sociales, sino también en revistas del máximo nivel, como Science o PNAS; hay incluso algunas consagradas a la materia, como el Journal of Happiness Studies. Estos estudios hacen gala de usar el método científico, cuando no tecnologías tan sofisticadas como la resonancia magnética funcional (MRI) o técnicas genéticas. El resultado de tanta pesquisa es una avalancha de información que se prolonga en libros, charlas y otros materiales que conforman una auténtica industria de la felicidad. El problema es que los secretos de la felicidad que venden expertos y charlatanes varios están trufados de ciencia y pseudociencia. Y no siempre es fácil distinguirlas.9

¿Qué es la felicidad? ¿Cómo puede medirse? ¿Cuáles son sus ingredientes? ¿Es hereditaria o adquirida? ¿Cómo varía en las diferentes culturas y países? ¿Hasta qué punto depende de la economía? La ciencia de la felicidad vendría a ser el conjunto de aportaciones científicas realizadas desde la psicología, la biología y la economía, principalmente, para responder a estas y otras preguntas. Si nos atenemos a los resultados de tanta investigación, hay tatas respuestas, que no es fácil resumirlas. Una idea esencial es que la felicidad se sustenta en las relaciones interpersonales y sociales, incluyendo aquí las sexuales y las familiares. Otra idea clave es que la felicidad depende de la economía y, por tanto, puede comprarse, aunque solo hasta cierto punto. Así, en los países ricos hay mas gente que se considera feliz que en los países pobres. Pero la geografía de la felicidad tiene sus singularidades, como el llamado “bonus latinoamericano”, que aporta un plus de felicidad a los latinos y que no se explica por la renta. Por más que algunos de los principales ingredientes de la felicidad sean gratuitos, a saber, el sexo, la música, el ejercicio físico y la conversación, su disfrute tiene mucho que ver con los usos sociales y la psicología individual. Por eso, entender la felicidad en clave científica no es tan sencillo como puede desprenderse de algunas respuestas, por más científicas que parezcan y más números que las respalden.

No es ciencia todo lo que reluce con números. La ciencia tiene unas condiciones que van más allá de la aplicación de una metodología más o menos ajustada al método científico. El planteamiento de hipótesis, la formulación de teorías, la verificabilidad, la capacidad predictiva y la falsabilidad son algunas de las características propias de la ciencia que no se cumplen en muchas de las investigaciones sobre la felicidad. La ciencia, analítica por definición, se defiende mal con los objetos complejos, y la felicidad, como el amor o la amistad, es uno de ellos. Por eso, buena parte de la llamada ciencia de la felicidad no va mucho más allá del sentido común y se apoya en ideas sin confirmar que difunden algunos gurús, para quienes la felicidad puede ser una sensación, un sentimiento, un proceso, un camino y tantas otras cosas, según convenga para sus recetas. Pero, si se pretende estudiarla científicamente, hay que poder definirla con precisión y descomponerla en ingredientes susceptibles de ser analizados. Sea lo que sea la felicidad, sea o no sea un asunto científico y sean cuales sean sus ingredientes, lo que está claro es que procurar este bienestar subjetivo no es el objetivo de la medicina, que se ocupa tan solo de uno de sus componentes: la salud.

Los perros no son humanos

$
0
0

Sobre el deterioro del semen perruno y su falaz interpretación en clave humana

La noticia de que la calidad del esperma de los perros británicos está empeorando, según una investigación de la Universidad de Nottingham, no es una gran noticia. ¿A quién le importa la fertilidad de los perros? Entiéndase la pregunta, por favor, en términos relativos y en su contexto periodístico. A mucha gente le importa la salud de estos animales, desde luego, pero el problema del semen perruno solo se convierte en noticia si donde dice perro se lee, implícita o explícitamente, hombre. Eso es lo que han hecho, por ejemplo, The Guardian (Study showing decline in dog fertility may have human implications) y El País (El semen de los perros puede explicar la baja fertilidad de los hombres). Pero no: el estudio en cuestión ni arroja luz ni permite explicar nada sobre la supuesta pérdida de calidad del esperma humano. A pesar del buen oficio de los periodistas, esta noticia que nunca debió serlo solo añade ruido, confusión e incertidumbre.

El estudio británico, financiado por la Guide Dogs for the Blind Association y realizado con datos de 1.925 eyaculaciones de 232 sementales de perros guías en 26 años, muestra un deterioro claro de la calidad del semen. Revela, entre otras cosas, una tendencia descendente del porcentaje de espermatozoides con movilidad normal y la presencia de algunos compuestos orgánicos persistentes (COP) en los testículos y el semen. Aunque estos datos pueden ser más o menos interesantes, el estudio no confirma –ni tampoco lo pretende– ninguna asociación entre la calidad del esperma y la presencia de COP. Además, solo analiza tendencias en perros, por lo que extrapolar sus resultados al hombre es pura especulación. Así las cosas, la noticia no aporta nada al esclarecimiento del auténtico problema y desafío científico: el posible declive de la fertilidad del hombre y el estudio de la influencia de los tóxicos ambientales y otras causas.

La primera voz de alarma sobre el deterioro del semen humano sonó en 1992, cuando el equipo de la danesa Elisabeth Carlsen publicó en el BMJ el análisis de los datos de 61 estudios realizados entre 1938 y 1991 con un título aparentemente definitivo: Evidence for decreasing quality of semen during past 50 years. El artículo acumula ya más de 2.700 citas, lo que da una idea del frenesí investigador en este campo y permite aventurar que, por la disparidad de métodos y resultados, las cosas no deben de estar tan claras. Hace 16 años escribí sobre la polémica del espermatozoide menguante y desde entonces el panorama sigue sin aclararse. En 2011, Jens Peter Bonde, Cecilia Høst y Jørn Olsen resumían la falta de consenso científico y los problemas metodológicos en un instructivo comentario de Epidemiology titulado Trends in Sperm Counts. The Saga Continues.

La saga se ha convertido en un auténtico culebrón científico y mediático, en el que están involucrados los siempre insidiosos tabaco y alcohol, las grasas saturadas, los teléfonos móviles, la televisión, el verano, los calzoncillos ajustados y una larga lista de factores, entre los que destacan los ubicuos, invisibles y escurridizos COP. El reto científico para esclarecer el problema es mayúsculo y exige gran refinamiento metodológico. Piénsese, sin ir más lejos, en la importancia de controlar la abstinencia sexual para estudiar el semen o el sesgo de las muestras con hombres que acuden a clínicas de fertilidad. El asunto es ya suficientemente complejo como para mezclarlo con datos de animales. Parece mentira tener que decirlo, pero ni siquiera los perros, por más que vivan bajo nuestro mismo techo, coman lo mismo y hasta vean la televisión, son humanos. Y los estudios realizados con ellos nunca pueden ser interpretados en clave humana.

Los tejemanejes del azúcar

$
0
0

Sobre la nociva influencia de la industria alimentaria en los estudios de nutrición

En julio de 2011, un estudio publicado en Food & Nutrition Research mostraba la cara más saludable de los dulces al concluir que los niños que comen golosinas tienden a pesar menos que los que no las comen. La investigación dio pie a mensajes y titulares tan llamativos como el del Daily Mail británico: “Los dulces son buenos para los niños y pueden evitar que engorden en el futuro”. Las limitaciones del estudio eran tan importantes, que malamente se podían sostener sus conclusiones. Pero lo más grave es que nunca se supo que fue financiado por la industria alimentaria, hasta que hace unos meses lo reveló la agencia Associated Press: Cómo los fabricantes de dulces remodelan la ciencia de la nutrición.

El caso no es aislado, ni mucho menos. En 2015, el New York Times informó que Coca-Cola había patrocinado a investigadores para que minimizaran los efectos de las bebidas azucaradas en la obesidad. Y la semana pasada, sin ir más lejos, Página 12 informaba de una donación de la propia Coca-Cola a la fundación de un conocido nutricionista argentino, ahora responsable del área de Alimentación Saludable del Ministerio de Salud. Los tentáculos de los gigantes de la alimentación aprietan y manipulan con diversos procedimientos, aunque uno de los más habituales y eficaces es financiar la investigación, que luego impregna la literatura científica y además genera titulares en los medios. Se sospecha que estas prácticas vienen de antiguo y que han corrompido la nutrición y las recomendaciones dietéticas, pero no es fácil encontrar pruebas. ¿En qué momento se empezó a pervertir la investigación sobre alimentación y salud?

Un trabajo que se publicó ayer en JAMA Internal Medicine muestra los tejemanejes de la industria del azúcar desde hace más de medio siglo para minimizar la influencia de la sacarosa en la enfermedad coronaria. Este “narrative case study”, semejante en algunos aspectos a una investigación periodística, revela cómo un grupo de presión se las ingenió para que el malo de la película de la primera causa de muerte en el mundo fuera el colesterol y no el azúcar, cuando en la década de 1960 ambos eran sospechosos por igual. Por un lado, las investigaciones de John Yudkin involucraban al azúcar, y, por otro, las de Ancel Keys apuntaban a la grasa y el colesterol en particular. Pero fue la industria del azúcar, financiando investigadores y manipulando una trascendental revisión publicada en The New England Journal of Medicine en 1967, la que logró salvaguardar sus intereses y desviar la atención hacia el problema menor de la caries dental. Toda esta literatura científica ha condicionado las recomendaciones dietéticas posteriores y la evaluación positiva sobre la seguridad del azúcar de la Food and Drug Administration de 1976.

¿Qué rumbo hubiera seguido la investigación mundial en este área y cuáles hubieran sido las recomendaciones dietéticas sin la perniciosa influencia de la industria del azúcar que se inició en 1965? La ortodoxia médica es como un transatlántico cuyo rumbo es difícil de modificar, de modo que solo en los últimos años se ha empezado a revisar la influencia del colesterol y el azúcar en la salud. El estudio de JAMA Internal Medicine implica a Frederick Stare (1911-2002), fundador y jefe del Departamento de Nutrición de Harvard, y apasionado defensor de la dieta americana, la Coca-Cola y el consumo de azúcar sin restricciones. Con autoridades sanitarias como esta y con tantos indicios sobre cómo la industria alimentaria influye en lo que pensamos que debemos comer para estar sanos, no es de extrañar que proliferen las dietas estrafalarias, los gurús pseudocientíficos y la desconfianza en la ciencia de la nutrición. A ver ahora cómo arreglamos este desaguisado.

Evidencias y realidad clínica

$
0
0

Sobre las insuficiencias científicas de la psiquiatría y la psicofarmacología

De vez en cuando, alguna autoridad médica nos recuerda que la psiquiatría científica está todavía muy poco desarrollada en comparación con otras disciplinas y que esto facilita enfoques e intervenciones con escaso fundamento científico. El psiquiatra Joel Paris puso el dedo en la llaga en 2013 con su libro Fads and Fallacies in Psychiatry, y lo volvió a hacer en 2015, con su nuevo libro Overdiagnosis in Psychiatry: How Modern Psychiatry Lost Its Way While Creating a Diagnosis for Almost All of Life’s Misfortunes. La crítica de Paris, profesor de Psiquiatría en la prestigiosa Univeridad McGill (Montreal, Canadá), se centra en los excesos diagnósticos (en la depresión y el trastorno bipolar, entre otros) y terapéuticos, que pueden resultar perjudiciales para los pacientes.

Pero probablemente el principal martillo de la psiquiatría menos científica es Peter Gøtzsche, especialista en metodología de la investigación clínica y director del Centro Nórdico de la Colaboración Cochrane. En 2015 publicó un libro de título más que elocuente: Deadly Psychiatry and Organised Denial (traducido como Psicofármacos que matan y denegación organizada) en el que ataca los abusos de la psiquiatría y la industria farmacéutica, y aboga por la reducción del uso de psicofármacos porque, como dice en una entrevista en El País, “los fármacos psiquiátricos nos hacen más daño que bien”. Gøtzsche no solo irrita a la industria farmacéutica, sino también a no pocos psiquiatras, que le replican que “no tiene formación ni experiencia psiquiátrica asistencial” y “no sabe de lo que habla”. Sus afirmaciones también deben de irritar a muchos médicos y familiares, que conviven con las devastadoras enfermedades mentales. Pero no convendría echarlas en saco roto, por más que pueda haber un abismo entre las evidencias científicas y la cruda realidad del enfermo y la práctica médica.

Para contextualizar el problema que denuncian, de forma distinta, Paris y Gøtzsche, conviene tener presente algunos hechos. El primero es casi una obviedad: a pesar de los avances de la psiquiatría y la neurociencia, las enfermedades mentales siguen siendo un misterio. Se desconoce lo fundamental de su etiopatogenia y esto es una traba para realizar un diagnóstico más científico, superando las limitaciones que muchos achacan al Manual diagnóstico y estadístico de los trastornos mentales (DSM). El segundo es la precariedad científica de la psicoterapia y la psicofarmacología. Ciertamente, no es necesario conocer el mecanismo de acción de un tratamiento para saber si funciona o no, pero las terapias de las enfermedades mentales dejan mucho que desear. Su eficacia es más bien discreta y, en algunos casos, apenas superior a la del placebo. Los fármacos presentan, además, importantes efectos secundarios. En tercer lugar, hay que recordar que la psiquiatría es una de las especialidades con más conflictos de intereses y mayor intervención de la industria farmacéutica. Finalmente, todo un siglo de neurociencia desde Ramón y Cajal no ha servido para formular un paradigma científico de la mente. Los avances de las dos últimas décadas han ayudado bien poco a comprender y tratar enfermedades como la esquizofrenia o el trastorno bipolar (por no hablar del alzhéimer).

En este contexto de precariedad científica, ¿qué pueden y deben hacer el psiquiatra y el médico? Los críticos como Gøtzsche pueden estimular su escepticismo y su comprensión de la medina basada en la evidencia, pero no les darán soluciones para manejar a los enfermos. Decía Víctor Hugo que “la ciencia tiene la primera palabra sobre todo y la última de nada”. Y, efectivamente, la ciencia debe tener la primera palabra para orientar el abordaje de un paciente psiquiátrico, y la primera responsabilidad del médico es conocerla. Pero mientras la psiquiatría científica no se consolide, el manejo de los enfermos mentales seguirá siendo incierto y difícil.

Anticipar la jugada

$
0
0

Sobre el estudio de la teoría de la mente y su alteración en algunas enfermedades

La imagen del boxeador que esquiva un golpe amagado, que no llegó a salir de los brazos del rival pero que fue anticipado en la mente, es una buena metáfora de qué es un cerebro y para qué sirve. Un cerebro es, básicamente, una máquina para anticipar la próxima jugada, un sistema de predicción que solo tienen los seres dotados de movimiento (las plantas carecen de él). Se considera que la capacidad de prever lo que van a hacer otros mediante imágenes mentales (la conciencia) está en el último escalón evolutivo. Y el no va más es vislumbrar lo que otros saben, desean y pretenden. Esta habilidad, denominada teoría de la mente, representa, qué duda cabe, una ventaja importante para desenvolverse en sociedad. En principio, se consideraba algo específicamente humano, pero cada vez está más claro que compartimos con los simios muchas funciones mentales. Los últimos experimentos sobre teoría de la mente sugirieren, por un lado, que existe una continuidad mental entre especies y, por otro, que esta capacidad de ponerse en la piel de otro está afectada en algunas enfermedades.

Sin embargo, el concepto de teoría de la mente, que se desarrolló a partir de las investigaciones con chimpancés en la década de 1960, se presta a no pocos equívocos y plantea numerosos problemas. Para empezar, no es exactamente una teoría, sino más bien una facultad: la de extrapolar la propia vida mental a otros para así poder predecir o explicar sus actos. Pero, además, el concepto de teoría de la mente es muy amplio y en él pueden caber habilidades de muy distinta complejidad, desde el reconocimiento de las emociones faciales hasta las exhibiciones más complejas de empatía, pasando por el reconocimiento de creencias falsas. Los grandes simios (gorilas, chimpancés, bonobos y orangutanes) parecen ser capaces de adivinar lo que piensa otro cuando maneja información falsa y anticipar lo que va a hacer, según indica un experimento publicado la semana pasada en Science. Lo que ya no está tan claro es cuál es el nivel de complejidad de la teoría de la mente de estos simios. Y es que extrapolar un estado mental a partir de la conducta observable plantea siempre problemas, especialmente en las investigaciones con animales.

En los humanos, la teoría de la mente ya está desarrollada en buena medida a los cuatro años o quizá incluso antes, según algunas investigaciones. Pero esto no ocurre, por ejemplo, en los niños que padecen algún trastorno del espectro del autismo. ¿Cómo se desarrolla la teoría de la mente en una persona sana? ¿Qué zonas del cerebro están relacionadas? ¿Qué niveles de complejidad de esta capacidad pueden distinguirse? ¿Cuáles sería el último escalón evolutivo en cuanto a complejidad mental? ¿Qué relación tiene la teoría de la mente con la inteligencia? ¿En qué medida es una función dependiente del lenguaje? ¿Hasta qué punto y en qué niveles está afectada está capacidad en las personas con alcoholismo, autismo, esquizofrenia, grandes dolores, trastornos de la atención o del aprendizaje? Cuántas preguntas hay por resolver y cuántas ni siquiera se pueden plantear todavía. Lo que parece seguro es que tanto las investigaciones con los grandes simios como con las personas afectadas por distintos trastornos mentales pueden ayudar a esclarecer esta facultad tan íntimamente ligada con la representación de imágenes. Como apunta el neurocientífico Rodolfo llinás, “vivimos para soñar y para hacer imágenes”. Esas imágenes nos sirven para anticipar, errónea o acertadamente, lo que le puede ocurrir a uno y a los demás. El reto científico, para entender el cerebro y ciertas enfermedades, es explicar cómo.

Ciencia desnortada

$
0
0

Sobre los perversos incentivos de la investigación y la autocrítica de los científicos

En ciencia, como en todas las actividades humanas, no es oro todo lo que reluce. La investigación científica tiene una aureola de integridad y autenticidad que no se corresponde con las miserias que están denunciando los propios científicos. Hay demasiada mala ciencia, vienen a resumir los protagonistas de esta empresa global que persigue la verdad y el conocimiento por encima de todas las cosas. Y hay mala ciencia porque existen incentivos económicos y profesionales que están pervirtiendo su auténtico sentido: hacer buenas preguntas, responderlas con estudios y métodos impecables, replicarlos, perfeccionar las explicaciones teóricas y hacer nuevas preguntas. Una encuesta realizada por el medio digital estadounidense Vox ha propiciado entre los científicos un saludable ejercicio de autocrítica con una sencilla pregunta: “Si pudiera cambiar una cosa acerca de cómo funciona la ciencia de hoy, ¿cuál sería y por qué?”

Aunque la encuesta carece de pretensiones científicas, los 270 investigadores que han respondido la pregunta, en su mayoría de los campos de la biomedicina y las ciencias sociales, airean una serie de disfunciones que quizá no eran conocidas por el gran público. Los autores del reportaje resumen las quejas de los científicos en siete grandes problemas, entre ellos la falta de rigor metodológico y la falta de replicación. Aunque no todos son igual de graves, la mayoría tienen un nexo común: la azarosa, conflictiva (por los conflictos de intereses) y perversa financiación de la ciencia. Más que la escasez de fondos, lo preocupante es que demasiado a menudo se financia la espectacularidad, el renombre de los autores y la promesa de novedad en detrimento de la calidad. Los despropósitos en la financiación han llevado a algunos a proponer la adjudicación de fondos públicos (la financiación privada es otro problema añadido) mediante sorteo. Al fin y al cabo, se quejan, el sistema actual es en esencia una lotería, pero sin los beneficios del azar. Así, al menos, se reducirían los estímulos más dañinos.

Algunos científicos llevan tiempo denunciando que se incentivan los resultados positivos (aunque a menudo se aprende más de los negativos); los estadísticamente significativos (aunque muchas de estas investigaciones hagan aportaciones insignificantes); los sorprendentes y atractivos para el público (aunque su relevancia sea escasa), y en general los novedosos antes que los confirmatorios. La falta de estímulos para replicar las investigaciones, cuando no la imposibilidad material de reproducirlos por falta de transparencia en los métodos, están socavando un pilar básico de la ciencia: la necesidad de replicar las investigaciones y confirmar, o no, sus resultados. No se trata solo de que la ciencia pueda ser falsable, que con ser importante no deja de ser un requisito entre otros, sino de que pueda avanzar perfeccionando las explicaciones científicas y renovando las preguntas de investigación gracias a los resultados negativos y no confirmatorios.

Ciertamente hay ahora más científicos de gran nivel y más ciencia excelente que en ninguna otra época, pero también es cierto que nunca como ahora ha habido tanta ciencia mediocre y casi superflua. Muy probablemente las relaciones entre cantidad y calidad son complejas, variables según el campo de conocimiento y no necesariamente directas. Asimismo, nunca como ahora ha habido tantas muestras de periodismo científico de gran calidad y, a la vez, tal cantidad de ejemplos de periodismo mediocre, engañoso y sensacionalista. Una de las “siete plagas” que denuncian con razón los científicos es precisamente la deficiente comunicación de la ciencia. Pero este excelente reportaje de Julia Belluz, Brad Plumer y Brian Resnick en Vox muestra que el buen periodismo científico sigue siendo necesario y no tiene nada que ver ni con la complacencia ni con la veneración de una actividad, la ciencia, que también tiene sus miserias y perversiones.


Educación científica desnortada

$
0
0

Sobre las deficiencias en la enseñanza de la ciencia desde los primeros años

Hay algo profundamente ajeno a la naturaleza de la ciencia en la educación infantil. La ciencia es una manera de interrogar la realidad, pero en la escuela se enseñan sobre todo respuestas. En la investigación científica el error es fundamental, pero en la escuela no se tolera la respuesta equivocada. Sigue primando la transmisión del conocimiento científico puro y duro, la teoría y la fórmula. Y esto es un hueso duro de roer si se presenta así de descarnado, desprovisto del placer de hacerse preguntas y diseñar experimentos para tratar de responderlas. La escuela necesita espacios para que el alumno se sitúe en el papel del investigador, pero la mayoría de las escuelas y maestros de primaria carecen de estos espacios, físicos y mentales. Las aulas apenas han cambiado en el último siglo. Por eso, no es de extrañar que muchos niños empiecen pronto a rechazar las matemáticas y las ciencias, argumentando con razón que no les encuentran relación alguna con su vida cotidiana. En pocos años, la brecha se hace insalvable. En su fuero interno, muchos niños saben demasiado pronto que la ciencia no es ni será para ellos.

Las ciencias tienen en su contra el que siguen siendo ajenas a algunas de las cosas que más nos importan, como el amor o los valores. Además, son más contraintuitivas y complejas que otras materias. Si no se estimula el placer de conocer, los números y las ideas antinaturales de la ciencia crean aversión. Una cuota importante del fracaso escolar tiene que ver con esta aversión. En toda Europa hay un descenso de las vocaciones asociadas a las llamadas disciplinas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), a pesar de que las profesiones relacionadas con estos conocimientos son las más demandadas. En España, se da la paradoja de que los científicos son los profesionales mejor valorados, solo por detrás de los médicos, pero las carreras de ciencias son las menos elegidas (un exiguo 5,9%), por debajo de las de artes y humanidades (9,7%) y muy lejos de las de ciencias sociales y jurídicas (47,6%). Con la medicina se da la feliz coincidencia de que es la profesión mejor considerada y la carrera más demandada y que exige mayor nota de acceso. Pero la medicina no es exactamente una ciencia, sino un saber práctico muy interconectado con otros muchos saberes y no pocos desarrollos tecnológicos. Y quizá por ello es un caso especial.

La deficiente enseñanza de las ciencias favorece el analfabetismo matemático, el tecnológico y el científico. En una sociedad tan dependiente de la ciencia y la tecnología como la actual esto es, sin duda, un grave déficit cultural. Pero el problema no tiene fácil arreglo. Es cierto que cada vez hay más escuelas que están implantando el aprendizaje basado en problemas, más programas e instituciones de educación científica no formal y más proyectos de colaboración entre investigadores y maestros. Algo se mueve en la buena dirección, eso está claro. Pero todas estas iniciativas tienen un factor limitante, que no es otro que la pieza clave en la enseñanza: el maestro. Ningún sistema educativo puede alcanzar un nivel de calidad superior al que tiene su profesorado. La enseñanza no formal puede hacer mucho, pero la realidad es que la mayoría de los maestros de primaria no saben de ciencia ni saben cómo enseñarla. Entre otras cosas, porque tampoco se la enseñaron a ellos. Para cambiar las cosas, hay que enseñar ciencia a los maestros, ponerlos en contacto con investigadores, implicarlos en proyectos, dejar que desarrollen su creatividad científica. Y lo que es tanto o más importante: dignificar y revalorizar la profesión de maestro para que sea más atractiva.

Más educación dietética

$
0
0

Sobre las causas de la crisis global de obesidad y el papel de los médicos

Desde hace décadas, la población mundial sigue ganando kilos y grasa. Esta crisis global de obesidad se ha convertido en el principal problema de salud. Lo malo es que los médicos no están preparados para afrontarla. Y no es un problema de falta de investigación y pruebas científicas, sino más bien de formación nutricional: los médicos no saben la suficiente de dietética como para aconsejar a sus pacientes. El exceso de kilos y de grasa es un factor de riesgo crucial en las enfermedades cardiovasculares, la diabetes y algunos cánceres y trastornos musculoesqueléticos, entre otras dolencias. De ahí que la mala alimentación pueda considerarse la principal causa de mortalidad, morbilidad y discapacidad. Para revertir esta situación, hace falta que los médicos de todo el mundo den un paso al frente, asuman el liderazgo que les corresponde y aprendan más nutrición. El segundo paso es mejorar la comunicación sobre alimentación saludable, pues el conocimiento existe pero falla su difusión. Y por esto, entre otras cosas, los gordos de todo el mundo andan desnortados, poniéndose a dieta y sin dejar de engordar.

Es tal el auge de la epidemia de obesidad, que para 2025 se persigue un objetivo tan modesto como regresar a las prevalencias de 2010. Sin embargo, la probabilidad de alcanzarlo “es prácticamente nula”, según el análisis de prevalencias y tendencias en 186 países publicado en The Lancet por la NCD Risk Factor Collaboration. Por el contrario, si la tendencia actual continúa, en 2025 el 18% de los hombres y el 21% de las mujeres del planeta serán obesos. Este fracaso no tiene que ver con la falta de fuerza de voluntad para adelgazar, sino más bien con la falta de consejo médico, como plantea en un artículo en STAT la internista argentina Agustina Saenz, directora de educación y programas nutricionales del Physicians Committee for Responsible Medicine. Los enfermos consideran que los médicos son su principal fuente de información dietética, pero solo el 14% de ellos se siente seguro hablando de dietas con sus pacientes. Y no se sienten cómodos porque no han recibido formación suficiente.

Hablar de la obesidad y la mala alimentación implica meterse en uno de los mayores laberintos del conocimiento relacionado con la salud. Todas las disciplinas, y no solo biomédicas, tienen algo que decir, desde la genética hasta las ciencias ambientales y desde la fisiología a la sociología. El problema es complejo porque la dieta ocupa un lugar central en el estilo de vida y existen muchos intereses en juego. La nutrición es quizá el ámbito del conocimiento médico en el que hay más confusión, más estudios con conflictos de intereses y más ruido informativo. Pero la comunidad médica tiene la obligación de peinar todo este enjambre de estudios para entresacar las pruebas científicas relevantes sobre las que construir una formación y una comunicación seguras y eficaces.

“Así como los médicos fueron una pieza clave en la lucha contra el tabaquismo, las bebidas azucaradas y conducir un coche sin el cinturón de seguridad, hoy saben que la mayor amenaza contra la salud es la Big Food [las grandes industrias alimentarias]”, apunta Saenz en STAT, donde defiende las dietas centradas en alimentos vegetales como el mejor camino para lograr un peso saludable. Si la primera medida urgente es que los médicos aprendan nutrición, la segunda y no menos importante es mejorar la comunicación dietética. Es necesario que todos los agentes implicados en la información de ciencia y salud, desde las agencias públicas a los medios de comunicación, mejoren la calidad de la comunicación. Pero esto, ay, es quizá demasiado pedir en estos tiempos nuestros de la posverdad.

Evaluar mensajes de salud es cosa de niños

$
0
0

Sobre la enseñanza de conceptos clave para tomar mejores decisiones de salud

Si le dices a alguien que un mensaje sobre un tratamiento es cierto, podrá o no creerte; pero si le enseñas cómo evaluarlo, será capaz de juzgar por sí mismo mensajes similares. Y podrá tomar mejores decisiones sobre su salud. La idea parece sencilla, pero aplicarla es un reto enorme, tal es la infinidad de tratamientos y mensajes contradictorios. No es fácil distinguir las afirmaciones verdaderas de las falsas sobre un tratamiento, llámese fármaco, dieta, psicoterapia, cirugía, estilo de vida o cualquier otra intervención terapéutica o preventiva para mejorar la salud. Los mensajes que recibimos de los medios de comunicación o de nuestros conocidos pueden ser muy dispares, y ni siquiera los de los médicos son siempre coincidentes. Hace falta, por tanto, tener un cierto criterio para orientarse y tomar decisiones sobre la propia salud. Pero, ¿cómo desarrollar este criterio?

Aunque muchas afirmaciones falsas pueden ser bienintencionadas, abundan las motivadas por intereses económicos o de otro tipo. En cualquier caso, es ilusorio creer que, con las medidas oportunas, se lograría que toda la información fuera veraz. La solución para minimizar los costes económicos y de salud de la información de mala calidad pasa irremediablemente por mejorar la alfabetización médica. Pero, ¿cómo enseñar a evaluar algo tan complejo como es la información sobre los beneficios y los perjuicios de las intervenciones? ¿Y por dónde empezar? Ha habido iniciativas muy interesantes, como el libro Know Your Chances: Understanding Health Statistics, cuya eficacia para mejorar la capacidad de interpretar los datos médicos fue confirmada en dos ensayos aleatorizados. Pero ninguna parece tan ambiciosa como el proyecto Informed Health Choices. Liderado por Andrew Oxman, investigador del Instituto Noruego de Salud Pública y uno de los promotores de la medicina basada en la evidencia, pretende enseñar las claves del pensamiento crítico sobre tratamientos empezando, o acabando, por los niños.

Oxman, que lleva tres décadas involucrado en enseñar a médicos, autoridades sanitarias, pacientes y periodistas cómo evaluar los mensajes sobre tratamientos, ha decidido centrarse en los niños. Con un equipo internacional de colaboradores, entre los que se encuentra Ian Chalmers, uno de los fundadores de la Colaboración Cochrane, ha desarrollado una serie de cuadernos, comics y otros materiales educativos para niños de 10 a 12 años y ha empezado a evaluar su eficacia mediante un ensayo aleatorizado en Uganda. Ya han participado más de 15.000 niños, que han respondido un cuestionario de evaluación tras recibir clases teóricas y prácticas con los materiales del proyecto. Los resultados del ensayo se están analizando y se conocerán pronto. Veremos entonces si el método funciona y si los niños están preparados o no para evaluar la información sobre tratamientos a partir de los conceptos enseñados, que son la clave del proyecto.

El equipo de Oxman ha identificado 34 conceptos clave sobre la fiabilidad de los mensajes, las comparaciones entre tratamientos y la evaluación de las evidencias. Y ha empezado a enseñar a los niños una docena de ideas tan importantes como estas: los tratamientos pueden ser perjudiciales, las experiencias personales o anécdotas no son representativas ni fiables para valorar un tratamiento, la amplia difusión de una intervención no garantiza que sea beneficiosa o segura, los tratamientos más nuevos y caros no son necesariamente mejores y la evaluación de la eficacia de un tratamiento exige una comparación equitativa con otro tratamiento. También se les enseña que las opiniones de expertos o autoridades no son suficientes para juzgar una intervención y que hacen falta pruebas. Ahora bien, con estos y otros cuantos conceptos bien asentados, evaluar los beneficios y riesgos de un tratamiento podría ser cosa de niños. O casi.

Contra la mala ciencia

$
0
0

Sobre la inflación de estudios de baja calidad y la ineficiencia de la investigación

La ciencia padece un síndrome difícil de caracterizar y más difícil todavía de tratar. El cuerpo de la ciencia ha desarrollado en las últimas décadas un crecimiento de apariencia tumoral que podríamos llamar la mala ciencia o ciencia mal hecha. Esta excrecencia está constituida por todos esos estudios de baja calidad que no aportan sino ruido y confusión. Se sospecha que, por carencias metodológicas y de otro tipo, la mayoría de los tres millones de estudios que se publican anualmente (un millón de ellos, en el campo de la biomedicina) carece de relevancia científica. Los resultados de muchos de ellos no son reproducibles y hasta es bien posible que sean falsos, como advirtió John Ioannidis en su artículo Why most published findings are false, publicado en 2005. Este artículo, que significó un bofetón a la comunidad científica y es ya uno de los más citados, disparó las alarmas sobre la credibilidad y la dilapidación de recursos en la investigación. Ahora, en el primer número de 2017 de la revista Nature Human Behavior, Ioannidis y otros investigadores proponen una serie de medidas para mejorar la confianza y eficiencia de la ciencia en un Manifiesto for reproducible science.

Qué credibilidad merece una ciencia que no es reproducible, por qué hay tanta ciencia de baja calidad y qué se puede hacer para paliar el problema son quizá las tres principales cuestiones que deberían analizarse. Vayamos por partes. La falta de rigor de buena parte de la producción científica quizá no ha trascendido todavía a la sociedad, pero preocupa a un número creciente de investigadores. Una encuesta realizada en 2016 por la revista Nature entre 1.576 científicos reveló que el 52% de ellos cree que existe una crisis de reproducibilidad, esto es, una crisis que afecta a uno de los pilares básicos del conocimiento científico. La medicina parece ser un área más afectada que la química y la física, según los encuestados. El 73% de ellos considera que al menos la mitad de los trabajos publicados en su campo son reproducibles y apenas el 31% cree que la imposibilidad de reproducirlos significa que sean falsos. Pero estos datos tampoco son muy alentadores y muestran un cierto deterioro en la credibilidad de la ciencia.

En opinión de los investigadores, los principales factores que impiden la reproducción de los trabajos son la publicación selectiva de resultados, la presión por publicar y las carencias estadísticas, pero también invocan otras deficiencias, desde el diseño del estudio a la insuficiente revisión por pares. El evaluar la tarea científica por el volumen de publicaciones es probablemente una de las grandes perversiones del modelo actual, pero para entender bien el problema hay que tener en cuenta que la mala ciencia también tiene sus beneficiarios. Y estos son no solo los científicos mediocres incapaces de hacer ciencia excelente, sino también todos aquellos grupos económicos o profesionales que prefieren los resultados defectuosos o ambiguos de la mala ciencia a los de un buen estudio, porque probablemente estos no les favorecerían. Como mostraba una reciente encuesta de Vox ya comentada en otra ocasión, hay muchas cosas que mejorar en la ciencia actual. En la misma línea, este nuevo “manifiesto por la ciencia reproducible” plantea mejoras relacionadas con la metodología, la publicación de los resultados, la transparencia, la evaluación y los incentivos. Son muchas las posibles formas de actuar contra la mala ciencia, pero quizá la más eficaz sea la que empieza por uno mismo y su entorno, fomentando el espíritu crítico y recordando que uno tiende a dar por bueno y verdadero lo que le beneficia. Y esto es muy poco científico.

Terapias digitales

$
0
0

Sobre la entrada en el mercado de productos informáticos para tratar enfermedades

La agencia reguladora de medicamentos de Estados Unidos, la Food and Drug Administration, ha empezado a evaluar y aprobar terapias digitales para tratar enfermedades. El 14 de septiembre de 2017 dio luz verde a la comercialización del primer tratamiento basado en una aplicación móvil, con su correspondiente programa, denominada Reset e indicada para tratar el abuso de sustancias. La aprobación de esta primera terapia digital se ha basado en similares criterios y procedimientos a los empleados con los fármacos: Reset ha tenido que demostrar no solo su seguridad sino también su eficacia mediante el preceptivo ensayo clínico. Esta homologación en el proceso regulador, que equipara en cierto modo las terapias digitales con las farmacológicas, es lo realmente novedoso y hasta cierto punto provocador, pues abre la puerta a la prescripción de productos informáticos como alternativa o complemento a los fármacos para tratar algunas enfermedades.pr

La compañía desarrolladora de Reset, la estadounidense Pear Therapeutics, deja claro en su página web cuál es su campo de acción: “nuestro objetivo es el desarrollo de terapias digitales con receta médica para el tratamiento de enfermedades con necesidades médicas no satisfechas”. Pear ya ha remitido otra aplicación a la FDA para ser evaluada y tiene productos en distintas fases de desarrollo para la esquizofrenia, la esclerosis múltiple, el insomnio, la depresión e incluso el cáncer. Además de Pear, hay otras muchas empresas en el sector de las terapias digitales, como Virta, centrada en aplicaciones para el tratamiento de la diabetes tipo 2, con las que afirma que revierte la enfermedad en el 60% de los pacientes y elimina o reduce el tratamiento con insulina en el 94% de los casos; Omada, centrada en la prediabetes y otros riesgos, que asegura que su programa consigue reducir en 12 meses un 30% el riesgo de sufrir diabetes tipo 2, un 16% el riesgo de ictus y un 13% el de infarto, y Akili Interactive, que ha desarrollado un producto informático para el trastorno por déficit de atención, y se define como “una compañía de medicina digital de prescripción que combina el rigor científico y clínico con la inventiva de la industria tecnológica para reinventar la medicina”.

La orientación al tratamiento de enfermedades y al desarrollo de productos de prescripción son dos de las características de estas empresas que las equipara con las farmacéuticas tradicionales. Poner en el punto de mira la eficacia terapéutica sobre desenlaces (outcomes) clínicos concretos representa, sin duda, un salto notable para las aplicaciones móviles de salud y la salud electrónica (e-health) en general, pero es todavía pronto para saber hasta qué punto estas terapias digitales (digital therapeutic o digiceuticals, como se las denomina en la jerga del sector) pueden ser tan eficaces como los fármacos o siquiera merecer la denominación de terapia. El camino emprendido para demostrar su eficacia mediante ensayos clínicos apunta ciertamente hacia la convergencia, pero quedan todavía muchos pasos hasta que estas terapias entren en la rutina de médicos y pacientes, y puedan valorarse sus beneficios y sus posibles efectos secundarios y reacciones adversas.

Con todo, la entrada en escena de las terapias digitales presenta ya algunos aspectos interesantes. En primer lugar, su orientación hacia las complejas enfermedades crónicas, desde la diabetes a la obesidad pasando por las enfermedades mentales, todas ellas de gran prevalencia, difíciles de abordar y enormemente costosas para los sistemas sanitarios. En segundo lugar, la oportunidad que representan para mejorar participación del paciente en la gestión de su propia salud y la individualización de los tratamientos. Y, en tercer lugar, el revulsivo que puede significar para el sector farmacéutico la competencia de tecnológicas y empresas emergentes orientadas a la terapéutica. De entrada, la oferta de empleo de la FDA ya incluye numerosos ingenieros.

Polipatologías

$
0
0

Sobre los problemas para entender y atender a los pacientes con varias patologías

En los ensayos clínicos, los pacientes que tienen alguna otra enfermedad además de la que se estudia son descartados sistemáticamente. Hay sin duda razones científicas de peso para excluir a estos enfermos complejos, pero este descarte es muy revelador de la orientación de la medicina moderna, de sus luces y sus sombras. La renuncia generalizada a incluir estos pacientes en los ensayos clínicos aleatorizados, considerados como el patrón oro de la investigación y de la medicina basada en pruebas, tiene además el correlato de la marginación asistencial. Los hospitales, la investigación, las especialidades médicas, la docencia, la gestión sanitaria y, en suma, todo el sistema científico-médico-asistencial parece concebido como si estos enfermos pluripatológicos, polipatológicos o como quiera llamárselos no existieran. Sin embargo, si echamos manos de la epidemiología y sumamos prevalencias de enfermedades (depresión, diabetes, alergias, migrañas, artrosis, enfermedades cardiovasculares, etc. hasta agotar la lista) comprobaríamos que el concepto de enfermedades per cápita no es una entelequia. Lo habitual es que este número aumente con la edad, la esperanza de vida y la exposición a riesgos, llegando en los casos extremos a los dos dígitos. Las desgracias –y las enfermedades lo son– nunca vienen solas, aunque la medicina parece no darse cuenta, a despecho del trabajo de médicos de familia, geriatras y otros especialistas menos especializados.

“Médicos y pacientes van en direcciones opuestas. Los médicos se especializan, mientras los pacientes tienen cada vez más problemas”. Con este implacable tuit, Richard Smith, el exdirector del BMJ, ponía recientemente el dedo en la llaga de un problema que no se acaba de afrontar porque, probablemente, no está ni siquiera bien definido. Tenemos, por un lado, una creciente especialización de los médicos, acorde con la inevitable inclinación de todas las ciencias a saber cada vez más de menos y a la exigencia de eficacia y garantías que el superespecialista ofrece (¿quién mejor que, pongamos por caso, un traumatólogo que solo hace todos los días laparoscopias de rodilla para realizar una intervención de menisco mediante esta técnica?). Por otro lado, están las personas concretas, con sus problemas de salud que se van acumulando con la edad y que necesitan médicos generalistas que atiendan a la vez todas sus dolencias. Esta divergencia, explicada más en detalle por Richard Smith en su blog del BMJ, representa un déficit de atención para un creciente número de personas, además de un gasto considerable para el sistema sanitario. En Estados Unidos, los enfermos con varias enfermedades crónicas simultáneas (uno de cada cuatro estadounidenses y tres de cada cuatro de los mayores de 65 años) representan el 71% de todo el gasto sanitario.

Las evidentes carencias para entender y atender debidamente a estos pacientes tienen que ver con unos sistemas sanitarios centrados más en los médicos, las enfermedades y las intervenciones médicas que en los pacientes y sus necesidades. Pero son también, antes que nada, un problema de lenguaje. El mero hecho de designar a estos pacientes como “recurrentes”, “hiperfrecuentadores” y “polimedicados” indica que no se está enfocando bien el problema. La falta de términos aceptados y aceptables para identificarlos, clasificarlos y manejarlos debidamente muestra hasta qué punto es importante el problema. Cuando se habla de pacientes con comorbilidad también se está desenfocando el problema, pues este término suele indicar que existe una enfermedad primaria y una serie de trastornos asociados. Sin embargo, las enfermedades pueden presentarse con o sin una causa común subyacente, de forma aleatoria o por mecanismos concurrentes no bien conocidos. El caso es que todas estas formas de polipatología merecen ser nombradas con propiedad. Porque lo que no tiene nombre no existe; y lo que no está bien identificado, caracterizado, descrito y codificado difícilmente puede ser bien entendido y atendido.

 

Sobreprevención y otros excesos

$
0
0

Sobre la prevención mal entendida y algunas desmesuras de la medicina

Sobrediagnóstico, sobredefinición, sobredetección, sobreventa, sobretratamiento (overdiagnosis, overdefinition, overdetection, overselling, overtreatment) son palabros de reciente cuño a los que podemos añadir el de sobreprevención. Guardan entre sí estrechas relaciones y en su conjunto ponen de relieve una cierta manera de entender y de practicar una medicina de altos vuelos técnicos y teóricos que acaba por perder de vista al paciente y termina por ocasionar más perjuicio que beneficio, o casi. El último toque de atención sobre este tipo de desmesuras ha recaído sobre el análisis sanguíneo del PSA (antígeno prostático específico). A pesar de su popularidad para la detección precoz del cáncer de próstata, el más frecuente entre los hombres, este test ya era muy cuestionado. Incluso su descubridor, Richard Ablin, abominó públicamente hace ocho años del uso de esta prueba para el cribado del cáncer de próstata, a la que calificó en el New York Times como “un costoso desastre para la salud pública”. Un cuarto de siglo después de que fuera autorizada por la FDA, un ensayo clínico le ha dado la puntilla al test del PSA al mostrar que aumenta la detección del cáncer pero no reduce su mortalidad.

La principal razón por la que se cuestiona esta prueba es el potencial perjuicio derivado de la sobredetección (ansiedad) y el consiguiente sobretratamiento (incontinencia urinaria y sexual, principalmente). Estos daños colaterales podrían estar justificados si la detección precoz mejorara la supervivencia y, por tanto, el balance global de beneficios y perjuicios fuese positivo. El ensayo clínico publicado el pasado 6 de marzo en JAMA ha analizado en el Reino Unido la mortalidad por cáncer de próstata en dos grupos aleatorizados de hombres de 50-69 años: 189.000 asignados al grupo de intervención y 219.000 al grupo control. A los primeros se les invitó a participar en el cribado y el 36% aceptó someterse a un test de PSA; a los del grupo control, no se les ofreció esta posibilidad, pero si alguno solicitó la prueba por su cuenta también se le realizó. Tras 10 años de seguimiento, los resultados muestran que el porcentaje de diagnósticos fue mayor en el grupo de intervención que en el de control (4,3% frente a 3,6%). Sin embargo, la mortalidad fue prácticamente idéntica: 0,30 por 1.000 personas/año frente a 0,31.

Este ensayo se suma a otros dos que muestran similares conclusiones, y es además el que incluye mayor número de participantes. Ninguno de ellos es perfecto y queda por saber cuál sería el beneficio en términos de supervivencia a más largo plazo, entre otras cosas. Pero lo que sí ponen de manifiesto es que el test del PSA no es una buena prueba de cribado. Su principal problema es la falta de especificidad, pues el nivel de PSA puede aumentar por infecciones urinarias o simplemente por el habitual crecimiento de la próstata con la edad (hiperplasia benigna de la próstata), entre otras causas. Además, el perjuicio que puede ocasionar esta prueba no es despreciable, por lo que, una vez informados, muchos hombres podrían preferir renunciar al beneficio del cribado para no asumir sus riesgos. Sin embargo, difícilmente se pueden tomar buenas decisiones cuando la mitad de los médicos cree erróneamente que diagnosticar más casos implica salvar más vidas y sobrevalora el beneficio del cribado.  La clave es sopesar adecuadamente los beneficios y riesgos de las intervenciones médicas. Pero para ello se han de cumplir tres condiciones: tener los mejores datos sobre sus efectos, conocer su grado de certeza y comunicar esta información con claridad al paciente. Muchos de los excesos de la prevención son en buena medida consecuencia de un déficit en alguna de estas tres condiciones.

 


Por el camino de la síntesis

$
0
0

Sobre los logros, las limitaciones y la “crisis de la mediana edad” del metaanálisis

En el número del British Medical Journal del 5 de noviembre de 1904, el profesor de matemáticas aplicadas Karl Pearson publicó un trabajo de síntesis sobre las estadísticas de vacunación frente al tifus y de mortalidad por esta enfermedad en distintos grupos de soldados británicos en India y Sudáfrica. En su Report on Certain Enteric Fever Inoculation Statistics hizo importantes aportaciones metodológicas para extraer conclusiones sobre la eficacia de la vacuna, como son el análisis del error de las correlaciones entre tifus y mortalidad; la observación de la irregularidad de estas correlaciones (lo que actualmente se llama heterogeneidad), y la interpretación de los bajos valores del efecto conjunto de la inoculación. Este trabajo pionero pasa por ser un metaanálisis avant la letre, el primer antecedente de una de las grandes aportaciones de la ciencia en las últimas décadas, tanto en medicina como en otras disciplinas, que es la llave para analizar de forma transparente y objetiva la eficacia de las intervenciones y para hacer generalizaciones que permitan tener una visión global en un campo determinado. El metaanálisis ha significado un cambio profundo en la forma de interpretar y contextualizar los resultados de una investigación concreta. Esta herramienta ha mostrado hasta qué punto y de qué manera la ciencia es una acumulación constante de más y más pruebas, un trabajo continuo para tener una foto cada vez más nítida de un aspecto de la realidad.

Cuando se piensa en los grandes logros de la ciencia en el último medio siglo es fácil dejarse seducir por la espectacularidad de los avances de la genética, la astrofísica o las nanociencias, pero raramente se menciona un avance metodológico como es el metaanálisis. Sin embargo, la creación de los métodos estadísticos para estandarizar las medidas de un efecto en distintas investigaciones y ponerlas en una misma escala ha sido un logro de lo más fructífero. El metaanálisis, acuñado en 1976 y aplicado poco después casi de forma simultánea en medicina y en ciencias sociales, ha permitido superar las limitaciones de las habituales síntesis narrativas de la investigación científica (claramente insuficientes en cuanto a objetividad y cuando hay centenares de estudios) y sentar las bases para la práctica médica basada en pruebas y para aportar luz en investigaciones aparentemente contradictorias. Ahora, en un reciente artículo publicado en la revista Nature se pasa revista a las aportaciones de 40 años de metaanálisis a la vez que se discuten sus limitaciones y lo que pueden considerarse algunos signos de la “crisis de la mediana edad” de esta herramienta estadística que entra en su quinta década de vida.

“El metaanálisis es la abuela de los movimientos big data y open science”, escriben los autores de este artículo de revisión, reconociendo que el metaanálisis ha sido, por un lado, el primer intento de síntesis de todo el trabajo acumulativo que representan los estudios observacionales y experimentales desarrollados durante muchos años; y, por otro, un logro que debe mucho a la publicación digital en abierto de los trabajos científicos. Con todo, como subrayan estos autores, los metaanálisis y las revisiones sistemáticas pueden sacar a la luz las deficiencias de la investigación en algunas áreas, pero no pueden subsanarlas. Y, como también apuntan los mismos autores, el éxito de esta herramienta ha llevado a una proliferación de metaanálisis de mediocre calidad y de estudios que se denominan como tales sin realmente serlo. A pesar de estas preocupantes señales, la vía de la síntesis científica liderada por el metaanálisis es un camino prometedor y de no retorno, porque la ciencia es un impulso constante de avance y recapitulación, de preguntas cada vez más agudas y de respuestas cada vez más precisas.

A vueltas con lo saludable

$
0
0

Sobre el etiquetado de salud en los alimentos y el sentido y uso de las palabras

¿Qué es un alimento “saludable”? ¿Qué productos merecen llevar esta etiqueta? ¿Qué significa exactamente? Lo que en principio parece fácil de responder, no lo es tanto si se consideran las implicaciones de esta etiqueta y su utilidad para la salud pública. Esto es lo que se constata al preguntar a expertos, fabricantes y consumidores. De todas formas, disponer de una definición clara y operativa del término “saludable”, basada en criterios científicos, puede ser una herramienta informativa valiosa. Pero tal y como está comprobando la agencia alimentaria estadounidense (Food and Drug Administration, FDA), esto no es algo sencillo. Hace unos años abrió el melón del etiquetado y todavía no ha llegado a ningún consenso.

En 2016, la FDA abrió un debate público para redefinir el término “saludable” en el que han participado todos los agentes involucrados, desde el público a la industria alimentaria. La razón esgrimida es que la vigente autorización para el uso de esta etiqueta se basa en un concepto superado por la evolución de la ciencia de la nutrición (por ejemplo, para considerar si un alimento es saludable antes se ponía el foco en el contenido total de grasa y ahora se considera que importa más el tipo de grasa). Lo que se persigue con la redefinición del término es ayudar a la gente a elegir mejores alimentos y, a la vez, estimular a la industria para producir alimentos que faciliten llevar una dieta que ayude a prevenir las enfermedades crónicas. Además, la FDA reconoce que también debe dar con la simbología adecuada para rotular los envases. El asunto no parece sencillo, pues al cabo de dos años no se acaban de concretar los criterios que debe cumplir un alimento saludable.

La cuestión de las definiciones es peliaguda, pues tiene connotaciones gramaticales, científicas, emocionales, técnicas, económicas, etc. Todavía sigue abierta la revisión del controvertido término “natural”, iniciada por la FDA en 2015 ante el requerimiento de ciudadanos y jueces, que necesitaban aclarar el término para resolver ciertos litigios. El debate público en el que se preguntaba si era apropiado definir lo natural y cómo debía hacerse generó más de 7.600 comentarios de todo tipo, y dejó claro que los consumidores quieren productos naturales y confían en la etiqueta “natural”, signifique lo signifique esa etiqueta. Como ha reconocido el director de la FDA, Scott Gottlieb, la etiqueta “natural” debe tener base científica, pero hay posturas encontradas sobre los criterios que deben aplicarse para etiquetar un producto como natural. ¿Es o no natural un alimento que contiene ingredientes producidos mediante ingeniería genética? ¿Dónde empieza y dónde acaba lo natural en alimentación? El término es tan equívoco y problemático que, mientras la FDA madura su decisión, la industria está renunciando cada vez más a incluirlo en sus productos.

Con todo, hay que reconocer que los alimentos son probablemente el mejor soporte para difundir mensajes sobre dieta y salud. El etiquetado es una gran baza que pueden jugar las autoridades sanitarias para reducir la epidemia de obesidad y otras enfermedades crónicas. No en vano, más del 20% de la mortalidad prematura está relacionada con factores dietéticos. Pero para incidir en la dieta hay que acertar con los mensajes, y eso no es tarea fácil. Hace bien la FDA en recabar opiniones sobre qué entiende la gente por saludable, qué criterios deben considerarse y hasta qué punto puede ser beneficiosa esta etiqueta, entre otras cuestiones. Y hace bien en tomárselo con calma, pues si lo saludable es lo que ayuda a mantener o recobrar la salud, el término tiene su miga, su sal y su picante cuando se quiere aplicar a alimentos concretos y no al conjunto de la dieta.

Riesgos reales y fantásticos

$
0
0

Sobre la pervivencia de los mitos sobre las causas del cáncer y sus implicaciones

El relato social del cáncer contiene todavía demasiados cuentos y adornos de fantasía, demasiadas metáforas y ficciones. A pesar de los ríos de tinta y los diluvios de información científica que inundan desde hace décadas el juicio de la gente, perviven un sinfín de mitos e ideas equivocadas sobre las causas y posibilidades de prevención de este conjunto de enfermedades que afectarán a casi la mitad de la población a lo largo de su vida. Una de las mayores dificultades para que calen los datos ciertos y los hechos reales es que hay más de 200 tipos de cáncer y que las posibilidades de supervivencia varían entre el 1% y el 98%. El día en que dejemos de hablar del cáncer como una sola enfermedad, la comunicación será más fácil y provechosa, pero ese día todavía no ha llegado. Uno de los datos más interesantes que emergen de toda la investigación científica es que 4 de cada 10 cánceres pueden evitarse con cambios en el estilo de vida. Las posibilidades de prevención son, pues, inmensas, pero para eso la gente debe tener claras cuáles son los factores de riesgo o causas reales del cáncer y cuáles son simple fantasía. Y ese es el problema.

La creencia en factores de riesgo no probados está bastante extendida, según un estudio transversal publicado en el European Journal of Cancer, el primero que explora las creencias de la población sobre las causas reales y ficticias del cáncer. Este estudio refleja que más del 40% de las personas cree que el estrés y los aditivos alimentarios pueden causar un cáncer; en torno al 35% piensa que pueden provocarlo las frecuencias electromagnéticas y los alimentos modificados genéticamente, y, en porcentajes inferiores, también se cree que pueden causar un cáncer los edulcorantes artificiales, las líneas de alta tensión, los teléfonos móviles, los aerosoles, los productos de limpieza, los hornos microondas y beber en botellas de plástico. Además, al preguntar a la población sobre las causas probadas del cáncer, el 88% acierta al identificar el tabaquismo y el 80% el tabaquismo pasivo; porcentajes inferiores identifican el sobrepeso, los rayos ultravioletas y el tener familiares con cáncer, pero solo el 30% sabe que el bajo consumo de frutas y verduras aumenta el riesgo del cáncer, y la mayoría de los encuestados no reconoce otros factores de riesgo como son el consumo de alcohol y la inactividad física.

Estos resultados corresponden a una muestra de la población inglesa y no son extrapolables. Tampoco se sabe si el conocimiento de las causas del cáncer está mejorando o empeorando, pues faltan estudios con los que comparar. Se sospecha que las redes sociales podrían facilitar la difusión de ideas equivocadas, pero esta es una cuestión que todavía hay que estudiar más y mejor. Sí parece claro, como apunta el estudio del EJC, que un mejor conocimiento de las causas reales se asocia con un estilo de vida más saludable. Sin embargo, la creencia en causas no probadas no se asocia con un peor estilo de vida y, lo que es más paradójico, quienes identifican mejor las causas reales del cáncer identifican peor las causas falsas. Se puede especular que hay personas que tienden a sospechar de todo, pero todavía hay muchos cabos que atar. Y, sobre todo, queda mucho trabajo de comunicación para que la gente sepa discernir la realidad y la fantasía, y así pueda tomar mejores decisiones sobre su estilo de vida. Gracias a los tratamientos, en cuatro décadas la supervivencia del cáncer a los 10 años del diagnóstico ha pasado del 25% al 50% en los países más desarrollados, pero queda todavía mucho margen de mejora para que esos cánceres ni siquiera lleguen a desarrollarse.

Cómo elegir sabiamente

$
0
0

Sobre la campaña Choosing Wisely para limitar pruebas y tratamientos innecesarios

La iniciativa Choosing Wisely para reducir los daños y costes innecesarios de la propia medicina tiene ya más de cinco años de recorrido, desde su lanzamiento en 2102. Pero las ideas e iniciativas sanitarias, especialmente las que tratan de revertir las malas prácticas, tardan en difundirse y asentarse. La noción de que la medicina no debe hacer daño es tan vieja como la profesión médica, pero necesita reformularse de tanto en tanto para adecuarse a los nuevos tiempos y sus problemas. Así han surgido las ideas sobre la evidencia científica de las intervenciones, el balance entre beneficios y riesgos, el sobretratamiento y tantas otras que confluyen en una constatación: menos medicina es lo mejor en muchos casos. Choosing Wisely arrancó precisamente para identificar, especialidad por especialidad, aquellas intervenciones médicas que no están avaladas por pruebas científicas y que no son realmente necesarias. Y el amplio interés médico y mediático que ha despertado la iniciativa parece avalar su necesidad.  

Aunque esta campaña de origen estadounidense, lanzada por la Fundación ABIM (American Board of Internal Medicine), no es radicalmente nueva (el NICE británico puso en marcha una iniciativa similar en 1999) ha hecho fortuna y tiene ya versiones locales en 19 países. Ha sido analizada en centenares de artículos científicos (en PubMed hay casi 400 artículos que incluyen Choosing Wisely en el título).  Y, lo que es más importante, comprende ya más de medio millar de recomendaciones sobre intervenciones discutibles, es decir, tratamientos y pruebas diagnósticas que merecen ser discutidos antes de ponerse en práctica. Muchas de estas recomendaciones han sido elaboradas por las 80 sociedades médicas colaboradoras del proyecto, que han seleccionado las cinco intervenciones de su especialidad más cuestionadas o que merecen una discusión previa con el paciente. No en vano la estrategia descansa en un pilar fundamental para el éxito de idea, que es a la vez el lema de la campaña: promover la conversación entre médicos y pacientes, con el objetivo –tantas veces proclamado, pero tan difícil de conseguir– de que cualquier intervención sea fruto del acuerdo y la información basada en datos contrastados.

Muchos médicos en ejercicio conocen probablemente esta iniciativa, gracias a la colaboración de las sociedades de las distintas especialidades y a su progresiva internacionalización. Pero trasladarla a la práctica clínica, eso ya es otro cantar. La participación del paciente en la toma de decisiones presenta múltiples obstáculos y resistencias, y es un proceso complejo y difícil, pues tiene que ver con la educación sanitaria de la población, el desarrollo del pensamiento crítico y la voluntad del médico de involucrarse en esta tarea. Para facilitar este proceso, la campaña cuenta con la colaboración de numerosos médicos y líderes de opinión, que en unos vídeos animan a los distintos especialistas a debatir con sus pacientes sobre el abuso y el sinsentido de ciertas intervenciones, y ha x también folletos y materiales educativos para orientar a los pacientes en este necesario diálogo.

 

Algunos de estos materiales también están en español (la campaña se ha traducido, un tanto ampulosamente, “Cómo elegir sabiamente”), y en uno de ellos se enumeran cinco preguntas clave que el paciente debería plantearle a su médico para tomar una buena decisión: ¿necesito realmente esta prueba o procedimiento?, ¿cuáles son los riesgos?, ¿hay efectos secundarios?, ¿cuáles son las probabilidades de que los resultados no sean precisos?, y ¿podría llevar esto a más pruebas o a otro procedimiento? Las preguntas quizá no sean del todo originales, pero desde luego resultan de lo más pertinente. Y, ya sea el médico o el paciente quien las plantee en estos o parecidos términos, deberían estar siempre sobre la mesa para elegir o descartar, con una cierta sabiduría, algunas intervenciones médicas.

 

Atajos del pensamiento

$
0
0

Sobre el cerebro heurístico y la toma de decisiones de médicos y pacientes

Pensar, lo que se dice pensar racionalmente, es tremendamente lento y fatigoso para el cerebro humano. Si podemos evitarlo, a buen seguro que lo haremos. En cambio, nos resulta muy fácil reconocer todo tipo patrones, empezando por las caras, algo que hacemos con agilidad y sin aparente esfuerzo. Si no fuéramos tan buenos en esto, podríamos ver un mundo nuevo y diferente cada día, ya que ver es en realidad reconocer, pero tendríamos infinidad de problemas cotidianos, incluso de supervivencia. La mayoría de nuestras opiniones y decisiones no se basa en un análisis sosegado y racional, sino que parecen respuestas “prefabricadas” con experiencias similares previas y patrones almacenados en nuestro cerebro. Las intuiciones y el sentido común, pero también los prejuicios y los juicios de experto, son variantes del llamado pensamiento heurístico. Todas estas estrategias del pensamiento son como atajos mentales que nos permiten encontrar respuestas rápidas, aunque a menudo imperfectas, a preguntas complejas, pues en realidad lo que respondemos es una pregunta alternativa más sencilla.

La práctica médica es un caso particular de un modo de pensar y actuar muy habitual. ¿Cómo piensan los médicos? ¿Cómo tomas sus decisiones? Pues como todos los seres humanos, con más heurística que razonamiento. Los médicos, como tantos otros profesionales, tienen que tomar decisiones expertas con cierta rapidez y recurren para ello a estos atajos del pensamiento. Un ajedrecista, quizá el mayor especialista en estos atajos, no piensa racionalmente sino heurísticamente, tras visualizar en un instante infinidad de patrones y posibilidades. El ojo clínico, tan denostado por algunos puristas de la ciencia médica, es como el ojo del buen cubero: una capacidad de experto consolidada por la experiencia. En medicina, como en otros oficios y profesiones, los especialistas con más experiencia tienden a confiar en su capacidad heurística para diagnosticar y resolver otros problemas complejos con rapidez y tino, mientras que los más novatos, por su menor habilidad para reconocer patrones, no tienen más remedio que recurrir al pensamiento analítico, realizar numerosas pruebas y repensar las diferentes posibilidades, lo que quizá sea más certero, pero sin duda es más lento.

La medicina, como gustan decir algunos, es a la vez ciencia y arte. Pues bien, ese “arte” de la medicina se asimila en buena medida al conocimiento heurístico de los médicos, una competencia que se materializa en la toma de decisiones. Buena parte de los protocolos y guías clínicas no son sino balizas para encauzar el reconocimiento de patrones en el marco del conocimiento científico, para que la natural inclinación heurística no se desmadre. Donde no llega la ciencia, ahí tenemos la heurística; y donde no llega a tiempo el pensamiento analítico, ahí tenemos la habilidad de reconocer semejanzas o responder preguntas más sencillas. Un dilema habitual en medicina es si conviene actuar rápido a riesgo de equivocarse, confiando en el juicio experto, o analizar el caso con calma a riesgo de actuar demasiado tarde. En casos urgentes está claro que no hay tiempo para análisis reposados, pero ¿acaso en las consultas médicas de unos pocos minutos no se toman también decisiones rápidas? Aquí, además, entran en colisión la heurística experta del médico y la inexperta del paciente, dos maneras de pensar quizá demasiado alejadas y cada una con sus propios sesgos. Para que haya un buen diálogo hace falta tiempo, como primera condición, pero también que todos seamos cada vez más conscientes del papel de la heurística en la toma de decisiones de médicos y pacientes. El conocimiento de estos atajos del pensamiento está todavía en pañales, pero ya nos permite entrever que, junto a algunas ventajas, también tienes sus riesgos.

Viewing all 68 articles
Browse latest View live




Latest Images