Dr. Marco V. Benavides Sánchez.
Imaginemos a un estudiante de tercer año de medicina. Está en una clase de simulación clínica, se coloca unos lentes de realidad virtual y aparece en una sala de urgencias. Frente a él, un hombre de unos 60 años respira con dificultad. Tiene el rostro desencajado, suda profusamente y le pide ayuda. El estudiante debe actuar: hacer preguntas, examinar, decidir qué pruebas solicitar, tranquilizarlo. El corazón le late rápido; parece una experiencia real. Pero en realidad no lo es. El intangible paciente está hecho de pixeles y algoritmos de inteligencia artificial.
Escenas como esta ya no son ciencia ficción. En hospitales y universidades de todo el mundo, la realidad extendida (XR) —que incluye realidad virtual y aumentada— se está usando para formar a médicos y enfermeras. Y cada vez más, esos mundos virtuales están poblados por personajes con inteligencia artificial que actúan como pacientes, familiares o incluso colegas.
Pacientes que no se cansan ni corren peligro
Durante décadas, los futuros médicos han practicado con maniquíes, actores que interpretan síntomas o incluso entre ellos. Pero ninguna de estas opciones puede repetirse al infinito ni mostrar todo el abanico de enfermedades que existen. Los pacientes virtuales, en cambio, nunca se cansan, nunca corren peligro y pueden equivocarse una y otra vez sin consecuencias reales.
Un algoritmo permite que el personaje no repita un guion fijo: responde según las preguntas que se le hacen, puede mostrarse nervioso o confiado, y hasta cambiar su actitud si percibe empatía o indiferencia. Para los estudiantes, es como un videojuego, pero con una misión muy seria: salvar una vida.
¿Funcionan de verdad?
Un grupo de investigadores de Reino Unido y Estados Unidos revisó recientemente más de 130 estudios sobre el tema. Publicaron sus resultados en Artificial Intelligence in Medicine. La mayoría de los trabajos usaban realidad virtual, y varios de ellos eran ensayos clínicos rigurosos.
Las conclusiones son esperanzadoras: en algunos casos, entrenar con personajes de IA ayudó a los estudiantes a aprender más rápido, tomar mejores decisiones y realizar tareas con mayor seguridad. En otros, redujo el tiempo necesario para resolver emergencias. Dicho de forma sencilla: practicar con pacientes virtuales parece preparar mejor para enfrentarse a pacientes reales.
Sin embargo, los personajes de IA se crean a partir de datos. Y los datos no siempre son neutrales. Si los algoritmos se entrenan con información sesgada, el resultado puede ser un paciente virtual que replica estereotipos sociales.
Imaginemos por ejemplo que los síntomas cardíacos en mujeres están poco representados en los datos. El sistema podría “olvidar” mostrar esos casos, y los estudiantes terminarían menos preparados para detectarlos en la vida real. O pensemos en un personaje que muestre siempre a ciertos grupos étnicos como agresivos: eso no solo sería injusto, también sería peligroso.
Otro riesgo es la dependencia. Si el estudiante se acostumbra a un mundo virtual que siempre da pistas, ¿qué pasará cuando enfrente a una persona real, con emociones inesperadas y sin guiones escondidos en un algoritmo?
La clave: usarlos con cuidado
Los investigadores proponen avanzar con responsabilidad. Los programas más efectivos son los que introducen estas tecnologías de manera gradual, acompañados de profesorado bien preparado. La inteligencia artificial no sustituye al docente, sino que lo libera para lo que más importa: guiar, preguntar, reflexionar con los estudiantes.
También sugieren un marco de buenas prácticas llamado DASEX. Aunque técnico en su nombre, su mensaje es simple: antes de usar estas herramientas, hay que revisar su diseño, comprobar su calidad, detectar sesgos, pensar en la ética y cuidar la experiencia del usuario.

Una oportunidad humana
El potencial no termina en la formación médica. Estos personajes podrían ayudar a entrenar a psicólogos para acompañar a personas en crisis, a enfermeras para comunicarse con familias angustiadas o incluso a equipos de rescate para reaccionar ante desastres. En todos los casos, el objetivo es el mismo: practicar lo difícil sin poner a nadie en riesgo.
En medio del entusiasmo tecnológico, conviene recordar lo esencial: la medicina es, ante todo, un encuentro humano. Los pacientes virtuales pueden enseñar a escuchar, a mirar a los ojos, a transmitir calma en momentos de angustia. Pero no deben hacernos olvidar que, al otro lado de la pantalla, siempre habrá una persona real, con miedos y esperanzas, que confía su salud en manos humanas. Nuestras manos.
Los personajes de IA en realidad extendida potencialmente son una herramienta muy poderosa. Nos ofrecen una oportunidad única para formar profesionales más seguros, empáticos y preparados. Pero como toda herramienta, dependerá de cómo la usemos. La pregunta no es si la tecnología puede hacerlo —porque ya lo está haciendo—, sino cómo garantizamos que nos acerque a una medicina más humana, y no lo contrario.
Para saber más:
- Dasa, D., Board, M., Rolfe, U., Dolby, T., & Tang, W. (2025). Evaluating AI-driven characters in extended reality (XR) healthcare simulations: A systematic review. Artificial Intelligence in Medicine, 151, 103270. https://doi.org/10.1016/j.artmed.2025.103270
#ArtificialIntelligence #Medicine #Surgery #Medmultilingua
Deja un comentario