Dr. Marco V. Benavides Sánchez.
La medicina está viviendo una transformación profunda. No por un nuevo medicamento ni por una técnica quirúrgica revolucionaria, sino por algo más intangible pero igual de poderoso: la inteligencia artificial (IA). Esta tecnología, capaz de analizar millones de datos clínicos, detectar patrones invisibles al ojo humano y asistir en decisiones médicas, promete mejorar la precisión diagnóstica, optimizar tratamientos y reducir errores. Pero también plantea una pregunta incómoda: ¿cómo aseguramos que estas herramientas no generen nuevos riesgos para los pacientes?
Un estudio internacional reciente, con participación de instituciones de España y Brasil, ha abordado esta cuestión con rigor y sensibilidad. Publicado en la revista Artificial Intelligence in Medicine, el trabajo propone un conjunto de requisitos técnicos y éticos para garantizar que la IA en salud se implemente de forma segura, transparente y responsable. Y lo más valioso: no se queda en la teoría. Los autores sometieron sus propuestas a la evaluación de 216 profesionales del ámbito médico y tecnológico, obteniendo una radiografía clara de cómo se perciben estos desafíos en la práctica clínica.
🧩 Cuatro pilares para una IA médica confiable
El estudio identifica cuatro grandes principios que deberían guiar el diseño y uso de sistemas de IA en medicina. Cada uno responde a una dimensión crítica del cuidado de la salud:
1. Fiabilidad
La IA debe comportarse con la misma estabilidad que un bisturí en manos expertas. Para lograrlo, se requiere:
- Evaluación continua del rendimiento del sistema.
- Pruebas de practicidad que aseguren que los médicos puedan utilizarlo sin obstáculos.
- Encriptación de datos para proteger la privacidad del paciente.
- Uso de librerías de software validadas y probadas en entornos clínicos.
- Interoperabilidad semántica: los sistemas deben “hablar el mismo idioma” para evitar errores por incompatibilidad.
En otras palabras, no basta con que la IA funcione bien una vez. Debe hacerlo de forma consistente, segura y comprensible para quienes la usan.
2. Transparencia
La precisión no es suficiente si no se puede explicar. Por eso, el estudio propone:
- Un “pasaporte de IA”: documento que describe las características, limitaciones y uso previsto del sistema.
- Explicabilidad: capacidad del algoritmo para mostrar cómo llega a sus conclusiones.
- Evaluación de la calidad de los datos utilizados.
- Controles de sesgo para evitar decisiones injustas o discriminatorias.
Este principio busca que los médicos —y los pacientes— puedan entender qué hace la IA, por qué lo hace y si lo hace bien.

3. Trazabilidad
Toda decisión médica deja huella. La IA también debe hacerlo. Esto implica:
- Gestión clara de usuarios: saber quién accede, modifica o consulta el sistema.
- Registros de auditoría: trazabilidad de cada recomendación o decisión.
- Revisión retrospectiva de casos: posibilidad de reconstruir el camino que llevó a una conclusión.
Así, si ocurre un error, se puede investigar, corregir y prevenir que vuelva a suceder.
4. Responsabilidad
La tecnología no reemplaza la ética profesional. Por eso, el estudio enfatiza:
- Verificación del cumplimiento normativo (como el AI Act europeo).
- Aviso claro cuando un sistema está en fase académica y no debe usarse con fines terapéuticos.
- Doble verificación clínica: los médicos siguen siendo la última línea de defensa ante posibles fallos del sistema.
Este principio recuerda que la IA es una herramienta, no un sustituto del juicio humano.
📊 Lo que opinan los profesionales
La encuesta realizada entre marzo y junio de 2024 reveló hallazgos reveladores:
- Todos los perfiles (médicos, técnicos, usuarios) valoraron positivamente los requisitos propuestos.
- Se consideraron esenciales: la explicabilidad, la calidad de los datos, los registros de auditoría y el cumplimiento regulatorio.
- Los médicos dieron mayor importancia que los técnicos a aspectos como el rendimiento, las pruebas de utilidad, el pasaporte de IA y la revisión de casos.
- Los usuarios (quienes interactúan directamente con la IA) valoraron más el pasaporte de IA que los responsables de decisión.
Estos resultados muestran que, más allá de los debates teóricos, existe consenso sobre lo que se necesita para que la IA sea segura y útil en medicina.
🧠 ¿Por qué importa esto?
Aunque el estudio está dirigido a profesionales, sus implicaciones son relevantes para todos. La IA ya está presente en aplicaciones que afectan la salud: desde sistemas de diagnóstico por imagen hasta plataformas de seguimiento de pacientes. Saber que existen marcos éticos y técnicos para su implementación responsable es una garantía para la enfermos y familiares.
Además, este enfoque permite que la IA se adapte a contextos diversos, incluyendo hospitales con menos recursos, poblaciones vulnerables o entornos rurales. Al reducir los riesgos, se amplía el acceso a tecnologías que pueden mejorar la calidad de vida de millones de personas.

❤️ Tecnología con empatía
En medicina, cada dato representa una historia humana. Por eso, el uso de IA no debe ser solo eficiente, sino también ético y empático. Este estudio propone un camino para lograrlo: diseñar sistemas que respeten la seguridad, la transparencia, la trazabilidad y la responsabilidad.
Como bien señala el artículo, la confianza no se gana con promesas futuristas, sino con resultados verificables y respeto por la ética médica. Y eso solo se logra cuando la tecnología se pone al servicio del cuidado, no del reemplazo del personal de salud.
📘 Para saber más
- Garcia-Gomez, J. M., Blanes-Selva, V., Alvarez Romero, C., de Bartolomé Cenzano, J. C., Pereira Mesquita, F., Pazos, A., & Doñate-Martínez, A. (2025). Mitigating patient harm risks: A proposal of requirements for AI in healthcare. Artificial Intelligence in Medicine, 167, 103168. https://doi.org/10.1016/j.artmed.2025.103168
#ArtificialIntelligence #Medicine #Surgery #Medmultilingua
Deja un comentario