Inteligencia Artificial en Medicina

Cuando las palabras médicas también aprenden: cómo la inteligencia artificial entiende la historia clínica

Dr. Marco V. Benavides Sánchez. Medmultilingua.com /

La medicina moderna no solo genera datos: genera lenguaje. Cada vez que un médico registra un diagnóstico, prescribe un medicamento o solicita un procedimiento, está dejando una huella lingüística en la historia clínica electrónica. Pero para una inteligencia artificial, estos códigos y términos no tienen significado por sí mismos. Son apenas símbolos. El verdadero reto está en enseñar a los algoritmos a comprender ese lenguaje médico tan especializado y usarlo para anticipar lo que puede ocurrirle a un paciente.

Un estudio reciente publicado en Artificial Intelligence in Medicine por Bornet y colaboradores (2025) se propuso responder una pregunta fundamental: ¿qué modelos de lenguaje representan mejor los conceptos médicos y permiten predecir la evolución clínica de los pacientes?

Modelos de lenguaje aplicados a la medicina

Los autores compararon tres arquitecturas ampliamente utilizadas en procesamiento del lenguaje natural: word2vec, GloVe y fastText. Aunque estos modelos se desarrollaron originalmente para analizar textos cotidianos como libros, noticias o publicaciones en redes sociales, en este estudio se entrenaron con algo muy distinto: trayectorias de pacientes. Es decir, secuencias temporales de diagnósticos, procedimientos y medicamentos extraídas de grandes bases de datos clínicos reales.

La idea es sencilla pero poderosa. Si dos conceptos médicos suelen aparecer juntos en la práctica clínica —por ejemplo, «insuficiencia cardíaca» y «diurético»—, el modelo debería «aprender» que están relacionados, del mismo modo que aprende que «corazón» e «infarto» están semánticamente cerca en el lenguaje común. Así, la inteligencia artificial construye un mapa conceptual de la medicina basándose no en definiciones teóricas, sino en la experiencia acumulada de miles de pacientes.

¿Quién entiende mejor el significado médico?

El estudio evaluó primero si los modelos realmente capturan la semántica médica. Para ello, compararon los grupos de conceptos aprendidos por la IA con las jerarquías oficiales de terminologías biomédicas, como las clasificaciones internacionales de enfermedades o procedimientos.

Aquí, fastText destacó claramente. Gracias a que analiza subcomponentes de las palabras —lo que en lingüística computacional se conoce como subwords—, logró formar agrupaciones de diagnósticos, procedimientos y medicamentos muy similares a las clasificaciones teóricas usadas en medicina. En algunos casos, la similitud entre los grupos aprendidos por la IA y los definidos por expertos superó el 90%.

Esto sugiere que fastText es especialmente eficaz para comprender el significado interno de los códigos médicos, incluso cuando estos son complejos, raros o están compuestos por múltiples elementos. En cierto sentido, este modelo «lee entre líneas» la estructura misma del lenguaje médico.

Pero comprender no siempre es predecir mejor

Sin embargo, cuando el objetivo cambió de «entender conceptos» a «predecir resultados clínicos» —como mortalidad, reingresos hospitalarios o duración de la estancia—, los resultados se invirtieron de manera sorprendente.

En estas tareas predictivas de alto nivel, word2vec y GloVe superaron a fastText, alcanzando mejores desempeños en métricas como el AUROC (área bajo la curva ROC), que mide la capacidad discriminativa de un modelo. Es decir, aunque fastText comprende mejor el lenguaje médico a nivel conceptual, los modelos con representaciones más globales y contextuales parecen ser más eficaces para anticipar la evolución clínica de los pacientes.

¿Por qué ocurre esto? Probablemente porque predecir trayectorias clínicas requiere capturar patrones más amplios y relacionales, no solo la semántica individual de cada término. La medicina es, al fin y al cabo, un sistema complejo donde importa tanto lo que significa cada pieza como cómo se relacionan entre sí en el tiempo.

Una lección clave para la medicina basada en IA

Este trabajo deja una enseñanza importante para quienes desarrollan sistemas de inteligencia artificial aplicados a la salud: no existe un único modelo ideal para todas las tareas clínicas.

Si el objetivo es interpretar con precisión el significado de diagnósticos y procedimientos —por ejemplo, para sistemas de codificación automática o búsqueda semántica—, los modelos que analizan la estructura interna del lenguaje, como fastText, son fundamentales. Pero si lo que se busca es predecir trayectorias y desenlaces clínicos para apoyar decisiones médicas, representaciones más globales pueden resultar más eficaces.

En conjunto, el estudio de Bornet y colaboradores demuestra que la inteligencia artificial puede aprender a «leer» la historia clínica con un nivel de sofisticación sorprendente. Pero también nos recuerda que el futuro de la medicina no dependerá solo de tener más datos, sino de elegir el tipo de inteligencia artificial adecuado para cada pregunta clínica.


Referencia:

Bornet, A., Proios, D., Yazdani, A., Jaume-Santero, F., Haller, G., Choi, E., & Teodoro, D. (2025). Comparing neural language models for medical concept representation and patient trajectory prediction. Artificial Intelligence in Medicine, 163, 103108. https://doi.org/10.1016/j.artmed.2025.103108

#ArtificialIntelligence #AIinMedicine #MedicalAI #DigitalHealth #Medmultilingua

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *