Date:

Share:

La inteligencia artificial entre algoritmos o humanismo

La historia de la medicina es, en esencia, la crónica de nuestra incansable lucha por observar lo invisible y descifrar lo intangible. Desde que René Théophile Hyacinthe Laënnec (1781-1826), médico francés quien, en 1816, debido al pudor que el médico sentía al acercar su oído al pecho de las pacientes, creó un cilindro de 30 cm de largo, origen del estetoscopio en un destello de ingenio y recato; hasta la irrupción de la Tomografía por Emisión de Positrones (PET), el médico ha buscado extender sus sentidos a través de la tecnología. Cada avance ha sido un peldaño en la construcción de una mirada más profunda hacia el interior del cuerpo humano. Sin embargo, nos encontramos hoy ante una frontera cualitativamente distinta. Ya no se trata meramente de una herramienta que amplifica el oído o la vista, sino de una entidad que pretende emular y en ciertos casos, superar, el proceso más íntimo, respetable, admirado y venerado de la práctica médica y que se relaciona con el juicio diagnóstico y la agudeza clínica.

La inteligencia artificial (IA) ha dejado de ser una promesa de la ciencia ficción para instalarse con fuerza en los consultorios y laboratorios de todo el mundo. Su presencia nos plantea una interrogante de dimensiones filosóficas profundas orientadas a determinar qué queda del acto médico cuando el pensamiento analítico es delegado a un algoritmo. No sabemos si la medicina es una suma de datos procesables o un arte que requiere la presencia de la conciencia humana.

La medicina actual se enfrenta a lo que podríamos llamar una “paradoja de abundancia”. La cantidad de información científica generada diariamente es de tal magnitud que supera con creces la capacidad de procesamiento de cualquier cerebro humano. Se estima que el conocimiento médico se duplica cada pocos meses. Para un clínico, mantenerse al día en todas las subespecialidades es una tarea físicamente imposible. Aquí es donde la IA, particularmente a través del machine learning (aprendizaje automático) y las redes neurales profundas, ofrece un salvavidas tan útil como necesario.

Su capacidad para identificar patrones sutiles en miles de imágenes radiológicas, detectar arritmias imperceptibles en registros electrocardiográficos, establecer criterios diagnósticos considerando un cúmulo de datos tanto clínicos como de laboratorio y gabinete o predecir interacciones farmacológicas es, sencillamente, innegable. Siempre hemos sostenido que la ciencia no debe ser vista como un ente aislado de la realidad social, sino como un motor de bienestar. Bajo esta óptica, la IA se presenta como una democratizadora potencial del conocimiento. Un sistema entrenado con millones de casos que puede ofrecer un pre-diagnóstico preciso en comunidades rurales donde no hay especialistas. La máquina no padece fatiga, no sufre de los sesgos cognitivos derivados del agotamiento y no olvida las actualizaciones publicadas la noche anterior en una revista científica al otro lado del mundo.

No obstante, el entusiasmo tecnológico debe ser matizado por una prudencia cognitiva. Uno de los mayores desafíos éticos de la IA es el fenómeno de la “caja negra” (black box). Muchos algoritmos de aprendizaje profundo ofrecen resultados con una precisión asombrosa, pero sus procesos internos de deducción son opacos, incluso para sus propios programadores. En la ciencia médica, el “por qué” es tan fundamental como el “qué”.

La medicina no solo busca resultados, sino que también busca explicaciones fisiopatológicas que permitan comprender la naturaleza de la enfermedad. Si un algoritmo decide un tratamiento sin poder explicar las premisas de esa deducción, estamos abandonando el terreno de la medicina basada en evidencias para entrar en el de una suerte de “oráculo digital” al que se le cree por fe técnica y no por comprensión científica.

A esto debemos sumar el riesgo del sesgo algorítmico. Los sistemas de IA no son neutrales. Son espejos de los datos con los que fueron alimentados. Si un sistema se entrena mayoritariamente con datos provenientes de poblaciones de países desarrollados, sus conclusiones pueden ser erróneas o incluso peligrosas al aplicarse en contextos genéticos, de hábitos, nutricionales o ambientales distintos, como los que caracterizan a nuestra región americana, mexicana y hasta a la poblana o la rural. La IA corre el riesgo de perpetuar las desigualdades históricas si no es diseñada bajo una óptica de justicia social, reconociendo la diversidad biológica y cultural de la humanidad.

Pero el punto más crítico de esta transición no es de carácter técnico, sino profundamente humano. La medicina no es solo la resolución de un problema biológico sino que es un encuentro entre dos soledades representadas por la de quien sufre y la de quien intenta consolar. El diagnóstico es solo la puerta de entrada a la curación. El médico, en la intimidad del consultorio, realiza una síntesis que ningún procesador de alta velocidad en el análisis de datos puede replicar totalmente. No puede valorar el lenguaje no verbal del paciente, percibir el aroma de una patología, notar el temblor en la voz de un familiar o la duda en la mirada de quien tiene miedo.

La IA puede procesar “datos”, pero el médico interpreta “significados”. La enfermedad es un proceso biológico objetivo, pero la dolencia es una experiencia subjetiva que ocurre en la biografía de una persona. El peligro reside en que, seducidos por la eficiencia de las máquinas, reduzcamos al paciente a un conjunto de variables. Si permitimos que la pantalla se interponga de manera definitiva entre los ojos del clínico y los del enfermo, habremos tecnificado la medicina a costa de su deshumanización. El estetoscopio, el termómetro, la báscula, el esfigmomanómetro y ahora la IA deben ser puentes, no muros.

El futuro no debería plantearse como una competencia entre el médico y la máquina. La verdadera revolución reside en la “Inteligencia Aumentada”. En este modelo, la tecnología libera al profesional de las tareas burocráticas y el procesamiento repetitivo de datos, devolviéndole lo más preciado que es el tiempo. Tiempo para la escucha activa, para la exploración física minuciosa y para el acompañamiento ético en los momentos de incertidumbre.

La IA puede ser el mejor asistente bibliográfico del mundo, pero el juicio final, la decisión terapéutica que considera los valores del paciente, debe recaer siempre en el ser humano. La ética médica exige responsabilidad. Una máquina no puede ser legal ni moralmente responsable de un error. No tiene conciencia del daño ni empatía ante el éxito. El médico sí. Por lo tanto, la autonomía del profesional y la seguridad del paciente deben ser los ejes rectores que guíen la implementación de estas tecnologías.

En conclusión, la inteligencia artificial en medicina nos obliga a repensar no solo cómo diagnosticamos, sino quiénes somos en relación con la enfermedad. No debemos caer en el ludismo tecnofóbico ni en la fe ciega del tecnófilo. Debemos abrazar la innovación con la guardia en alto, asegurándonos de que cada algoritmo pase primero por el filtro de la ética y la sensibilidad. Al final del día, la tecnología más avanzada seguirá siendo aquella que nos permita entender mejor el dolor ajeno. El estetoscopio del presente es digital y corre sobre algoritmos, pero el corazón que interpreta sus latidos debe seguir siendo, hoy más que nunca, profundamente humano. La ciencia es una construcción humana para fines humanos. No podemos permitir que el medio se convierta en el fin.

* [email protected]

Artículo anterior
Artículo siguiente

Más Articulos