Debate sobre sus límites

La IA aplicada en la Medicina preocupa a los expertos: "A los pacientes hay que tocarlos"

Las nuevas tecnologías pueden mejorar las decisiones médicas, pero "el proceso debe ser dirigido por un humano pensante", advierte el profesor Benjamín Herreros

Inteligencia artificial.

Inteligencia artificial. / Shutterstock

Nieves Salinas

La aplicación de la Inteligencia Artificial (IA) en la Medicina, con sus beneficios y desafíos a nivel biomédico, ético y jurídico, inquieta a los expertos. "A los pacientes hay que tocarlos. Mirarles a los ojos para que puedan confiar y explicar qué les sucede, explorar los signos clínicos patológicos y un largo etcétera que aún queda lejos de lo que hoy día ofrece la IA", señala a EL PERIÓDICO DE ESPAÑA, Benjamín Herreros Ruiz- Valdepeñas, director del Instituto de Ética Clínica Francisco Vallés y director del Máster Universitario en Bioética Clínica de la Universidad Internacional Menéndez Pelayo (UIMP) y la Fundación José Ortega y Gasset y Gregorio Marañón (FOM).

Este es uno de los temas que se ha tratado en el reciente XVI Seminario de Biomedicina, que han coordinado, entre otros, Herreros y Fernando Bandrés Moya, catedrático de Medicina Legal de la Universidad Complutense de Madrid (UCM) y director del Centro de Estudios Gregorio Marañón. Ambos expertos reflexionan para este diario sobre dónde deben situarse los límites de las nuevas tecnologías cuando se trata de actos clínicos.

Dignidad y autonomía

"La confidencialidad, la dignidad, la autonomía, la propiedad de los datos y otros muchos aspectos se complican con el uso de las nuevas tecnologías diagnósticas y terapéuticas, y con el empleo de la IA", reconoce el catedrático Fernando Bandrés. En su opinión, "las grandes amenazas" se ciernen sobre la seguridad y gestión de los datos de salud (lo que, entre otras cosas, obliga a crear un nuevo modelo de historia clínica), el uso de algoritmos, la anonimización, la transparencia en el manejo de la IA, el derecho a la información y los riesgos de discriminación.

Debemos asegurar los criterios de calidad del dato, o los datos sanitarios, sobre los que luego elaboramos los algoritmos y el aprendizaje profundo

Fernando Bandrés, catedrático

El catedrático concreta: "Debemos asegurar los criterios de calidad del dato, o los datos sanitarios, sobre los que luego elaboramos los algoritmos y el aprendizaje profundo; la explicabilidad del proceso en la toma de decisiones argumentadas o basadas en algoritmos de inteligencia artificial y la accesibilidad y la formación de los profesionales en los ámbitos de la tecnología y de la IA son fundamentales para evitar discriminación".

Decisiones médicas

Benjamín Herreros asegura que la IA puede hacer que las decisiones médicas "se modifiquen radicalmente, que no se tomen decisiones humanas sino en base a algoritmos y análisis de datos". Como señala este experto, "todo esto repercute directamente en el núcleo de la Medicina: la relación médico-paciente, la confianza, la responsabilidad de las decisiones, la libertad y autonomía del paciente, …". Porque considera que, precisamente, la revolución más importante "que se ha registrado en Medicina desde Hipócrates es la que se está produciendo por la IA".

¿Dónde están los límites?. "La buena medicina, que consiste en realizar diagnósticos y tratamientos adecuados, tiene como fundamento la historia clínica. Esta no consiste en una mera recopilación de datos, sino en integrar los datos clínicos con las preferencias de los pacientes, con sus ideas, valores y emociones, con los recursos disponibles, y en saber priorizar toda la información recopilada de acuerdo con las características individuales del paciente", responde Herreros.

¿Quién toma las decisiones?

Por otra parte, reseña el experto, la IA desplaza a la responsabilidad del acto clínico, un "aspecto nuclear" de la medicina. "¿Quién decide si un paciente debe ser visto por IA o por un médico?, ¿qué sucede si se equivoca la IA?, ¿la responsabilidad es del programa informático, del programador o del paciente por aceptar ser tratado por IA?, ¿tiene el médico que realizar el seguimiento de una decisión que previamente ha tomado una máquina?, ¿y si no está de acuerdo?", se cuestiona.

La IA se debe incorporar como apoyo en la toma de decisiones, como lo es la ecografía o el fonendoscopio, y no sustituyendo al médico, subrayan los expertos

En su opinión, la IA se debe incorporar como apoyo en la toma de decisiones, como lo es la ecografía o el fonendoscopio, y no sustituyendo al médico. "Toda tecnología que pueda ayudar al acto clínico debe ser bienvenida, pero sabiendo usarla. Con alguien detrás que piense cómo y cuándo usarla, con alguien detrás pensando en el paciente, cuidando al paciente". 

Urgencias del Hospital General de Castellón.

Urgencias del Hospital General de Castellón. / Mediterráneo

Además, apunta otro aspecto: "Eso sí, si queremos una medicina eficiente, más económica y rápida, pongamos IA en lugar de médicos. Esta es la principal razón por la que se quiere sustituir al médico: por intereses economicistas de las empresas que trabajan en IA y por las administraciones que buscan ahorrar costes. En lugar de preocuparnos por la formación de los médicos, por la investigación biomédica y por la calidad del sistema sanitario, la principal preocupación es ahorrar costes".

La parte positiva

Pero, por supuesto, la aplicación de la IA en Medicina tiene aspectos muy positivos y el director del Instituto de Ética Clínica Francisco Vallés desgrana ejemplos. "Puede suceder que, ante una pandemia y un sistema sanitario colapsado, un programa de IA se encargue de recomendarle al paciente qué hacer de acuerdo con los recursos disponibles: si ir a urgencias, al médico de familia o quedarse en casa tomando paracetamol". O, añade, podemos dejar que un programa informático con IA sustituya a los radiólogos en los análisis de las imágenes, porque se ha visto que pueden llegar a equivocarse menos que un humano.

Un algoritmo carece de los sesgos y errores cognitivos que tenemos los humanos

Benjamín Herreros, director del Máster Universitario en Bioética Clínica de UIMP-FOM

Los algoritmos y las bases de datos ofrecen decisiones rápidas y "muchas veces más certeras que las decisiones humanas". Un algoritmo apunta, carece de los sesgos y errores cognitivos que tenemos los humanos: "Por ejemplo, si un residente se acaba de estudiar la sarcoidosis y tiene un paciente con hipercalcemia, va a pensar en primer lugar en una sarcoidosis. Pero si diagnostica a alguien de sarcoidosis, pensará que el siguiente caso de hipercalcemia no puede ser una sarcoidosis, porque va a ser demasiada casualidad".

Máquinas que trataen a los pacientes

Estos errores, abunda, no los tienen las máquinas, "como tampoco están enfadadas, no les cae mal el paciente ni están salientes de guardia. La IA ofrece un análisis más objetivo y rápido de los datos que la mente humana, lo cual tiene mucho valor. Sin olvidar su capacidad para recopilar la información científica sobre una enfermedad actualizada, una capacidad infinitamente mayor que la humana".

Inteligencia Artificial.

Inteligencia Artificial. / Agencias

Pero esto no significa, concluye, que "debamos dejar que las máquinas se encarguen de tratar a los pacientes. Las decisiones médicas apoyadas por las nuevas tecnologías pueden mejorar y esto tenemos que aprovecharlo. Pero el proceso debe ser dirigido por un humano pensante, por un humano con valores, que piense en lo mejor de acuerdo con las características individuales, no solo clínicas, del paciente".