Inteligencia Artificial en Medicina

Cuando la inteligencia artificial diagnostica… ¿qué está aprendiendo en realidad?

Dr. Marco V. Benavides Sánchez. Medmultilingua.com /

La inteligencia artificial (IA) llegó a la medicina como quien llega a renovar las esperanzas: con promesas de diagnósticos más rápidos, certeros y al alcance de todos. Algoritmos capaces de identificar tumores, predecir infartos o asistir cirugías parecían sacados de una película futurista. Pero, como suele pasar, la realidad es más compleja de lo que aparenta. Detrás de tanta tecnología brillante hay una pregunta que pocas veces se hace fuera de los círculos académicos: ¿qué está aprendiendo realmente la IA cuando “aprende medicina“?

Patrones no son lo mismo que entender

Los médicos estudian años para comprender cómo funciona una enfermedad: qué la causa, cómo progresa, qué órganos afecta. La IA, en cambio, no entiende nada de eso. Lo que hace es detectar patrones estadísticos en enormes cantidades de datos. En radiología, por ejemplo, un algoritmo no “ve” un tumor como lo vería un radiólogo; simplemente identifica combinaciones de píxeles que en el pasado se relacionaron con ese diagnóstico.

Eso no es necesariamente malo. De hecho, es justamente esa capacidad de encontrar patrones complejos lo que hace tan valiosa a la IA. El problema surge cuando los patrones que aprende no son los que pensamos. Investigaciones recientes descubrieron que algunos modelos entrenados para detectar enfermedades terminan aprendiendo señales indirectas: el tipo de hospital donde se tomó la imagen, las marcas del escáner, el estilo de tinción de las muestras o hasta la compresión del archivo digital. Básicamente, en lugar de aprender la enfermedad, el algoritmo aprende el contexto del lugar donde se generó la información.

El sesgo oculto: cuando importa más el hospital que el paciente

Este fenómeno se llama “sesgo por centro de datos” y tiene consecuencias importantes. Un modelo puede funcionar de maravilla en el hospital donde fue entrenado, pero fallar rotundamente al usarse en otro centro con diferentes equipos o protocolos. Desde el punto de vista clínico, esto es preocupante. Un algoritmo que parece “mejor que los humanos” en pruebas controladas puede resultar poco confiable en el mundo real.

Pero lo más delicado es lo ético: la IA podría amplificar las desigualdades que ya existen en el sistema de salud, beneficiando a hospitales con más recursos y dejando en desventaja a aquellos con infraestructuras diferentes. En un país como México, donde las brechas en salud son enormes, esto no es un detalle menor.

Generalizar: el verdadero reto

En medicina no basta con que un modelo funcione bien en condiciones ideales. Tiene que generalizar, es decir, mantener su rendimiento en diferentes poblaciones, hospitales y países. Y ahí es donde muchos sistemas de IA médica actuales se quedan cortos.

Para enfrentar este problema, los investigadores están desarrollando nuevas estrategias: entrenamiento con datos de múltiples centros, técnicas de normalización y métodos diseñados específicamente para que la IA “desaprenda” el contexto irrelevante. El objetivo no es hacer la IA más compleja, sino más robusta y clínicamente confiable.

¿La estamos evaluando bien?

Otro punto crítico es cómo evaluamos estos sistemas. Muchos estudios se basan en métricas técnicas obtenidas en conjuntos de datos controlados, pero esas métricas no siempre reflejan el impacto clínico real. Cada vez más expertos coinciden en que la evaluación de la IA médica debe incluir validación externa en múltiples hospitales, análisis de errores clínicamente relevantes, estudios prospectivos en entornos reales y transparencia total en los datos y métodos utilizados.

Herramienta, no sustituto

Señalar estas limitaciones no significa rechazar la inteligencia artificial. Al contrario. La IA tiene un potencial enorme para asistir al médico, reducir cargas de trabajo y mejorar la detección temprana de enfermedades. Pero ese potencial solo se materializa si entendemos claramente qué puede hacer la IA y qué no. La inteligencia artificial no reemplaza el juicio clínico, la experiencia ni la responsabilidad ética del profesional de la salud.

La verdadera promesa de la IA no es una medicina automatizada, sino una medicina aumentada: sistemas que apoyen al clínico, alerten sobre hallazgos sutiles y ayuden a tomar decisiones mejor informadas, sin ocultar sus limitaciones. Para lograrlo se necesita algo más que buenos algoritmos. Se requiere colaboración entre médicos, ingenieros, científicos de datos y pacientes. Se requiere regulación, transparencia y pensamiento crítico.

Y sobre todo, se requiere recordar que el centro de la medicina no es el algoritmo, sino el paciente. En la era de la inteligencia artificial, la pregunta clave ya no es si la IA puede diagnosticar enfermedades, sino si estamos enseñándole a aprender lo correcto.

Referencia

Curcin, V., Delaney, B., Alkhatib, A., Cockburn, N., Dann, O., Kostopoulou, O., Leightley, D., Maddocks, M., Modgil, S., Nirantharakumar, K., Scott, P., Wolfe, I., Zhang, K., & Friedman, C. (2026). Learning health systems provide a glide path to safe landing for AI in health. Artificial Intelligence in Medicine, 173, 103346. https://doi.org/10.1016/j.artmed.2025.103346

#ArtificialIntelligence #Medicine #Surgery #Medmultilingua

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *