Dr. Marco Vinicio Benavides Sánchez.
La inteligencia artificial (IA) ya no es una promesa futurista: es una realidad presente en muchos aspectos de la medicina contemporánea. Desde algoritmos que detectan tumores en imágenes hasta sistemas que predicen resultados clínicos, la IA tiene el potencial de revolucionar la práctica médica. Sin embargo, este potencial podría verse frustrado por un obstáculo inesperado: la baja aceptabilidad de estas tecnologías entre los propios profesionales de la salud.
Un estudio reciente —una revisión de alcance publicada en Artificial Intelligence in Medicine por David Hua y colegas en 2024— arroja luz sobre este tema crucial. El artículo, titulado Understanding the factors influencing acceptability of AI in medical imaging domains among healthcare professionals, representa el primer esfuerzo sistemático por reunir y analizar los factores que influyen en la aceptación de la IA en entornos de imagenología médica.
¿Qué impide que los médicos abracen la IA con entusiasmo? ¿Por qué algunos radiólogos, técnicos, y médicos clínicos se muestran escépticos frente a herramientas que prometen aumentar la precisión diagnóstica, reducir la carga de trabajo y mejorar los resultados en salud? Las respuestas, como muestra esta revisión, son múltiples y profundamente humanas.
Tres Grandes Categorías de Factores
La revisión abarcó 31 artículos científicos publicados entre 2013 y 2023, y permitió identificar tres grandes categorías de factores que influyen en la aceptación de la IA por parte de los profesionales sanitarios:
1. Factores del Usuario
Estos se relacionan con las características personales, conocimientos y actitudes del profesional frente a la IA. Incluyen:
- Confianza: La confianza en que el sistema IA es seguro, confiable y que no tomará decisiones erróneas es un factor central. La percepción de riesgo o de posibles errores clínicos reduce dramáticamente la aceptabilidad.
- Comprensión del sistema: Muchos profesionales sienten que no entienden cómo funciona la IA, lo cual genera inseguridad. Esto se vincula directamente con la alfabetización en IA.
- Receptividad tecnológica: Algunos usuarios están naturalmente más abiertos a nuevas tecnologías, mientras que otros son más conservadores en su práctica clínica.
2. Factores de Uso del Sistema
Aquí se evalúa cómo la IA se integra en el flujo de trabajo cotidiano:
- Propuesta de valor: ¿Qué beneficio real ofrece el sistema? ¿Ahorra tiempo, mejora la precisión diagnóstica o simplemente añade complejidad?
- Autoeficacia: La percepción de que el usuario puede manejar eficazmente el sistema.
- Carga y carga cognitiva: Si el uso del sistema implica tareas adicionales o interfiere con el flujo natural del trabajo, su aceptación disminuye.
- Integración en el flujo de trabajo: Los sistemas que se perciben como disruptivos o incompatibles con las rutinas clínicas existentes son menos aceptados.
3. Factores Socio-Organizacionales y Culturales
Estos abarcan el contexto más amplio en el cual se implementa la IA:
- Influencia social: La opinión de colegas y superiores afecta fuertemente la actitud hacia la IA.
- Preparación organizacional: La cultura de la institución, su apertura a la innovación y su capacidad técnica influyen en la adopción.
- Ética y profesionalismo: Muchos profesionales temen que la IA erosione su identidad profesional o que los reemplace.
- Percepción de amenaza: Existe un temor latente a que la IA sustituya funciones humanas esenciales o trivialice el juicio clínico.
El Problema de los Marcos Teóricos Inadecuados
Un hallazgo notable de esta revisión es que muchos estudios han usado modelos teóricos que no capturan las particularidades del ámbito médico. Teorías como el Technology Acceptance Model (TAM), ampliamente utilizadas en contextos empresariales, no consideran factores críticos como la cultura de la medicina, las normas éticas, y el peso del juicio clínico en la toma de decisiones.
Además, muchos enfoques ignoran las particularidades de la IA como el “software como dispositivo médico (SaMD)”, un nuevo paradigma que combina elementos de programación, regulación, bioética y clínica. Las relaciones humano-IA en medicina son sustancialmente distintas a las que se observan en consumidores o usuarios corporativos. Un médico no puede delegar una decisión vital en una “caja negra” algorítmica sin comprender cómo llegó a esa conclusión.
Una Cuestión de Humanismo y Diseño Centrado en el Usuario
El mensaje clave del estudio es claro: para aumentar la aceptación de la IA en imagenología médica —y por extensión en otras áreas clínicas—, no basta con mejorar el rendimiento de los algoritmos. Es necesario diseñar tecnologías centradas en el ser humano, que:
- Sean comprensibles y transparentes, incluso para usuarios con bajo nivel de alfabetización en IA.
- Se adapten al flujo de trabajo clínico y no lo obstaculicen.
- Respeten los valores, normas y ética de la profesión médica.
Diseñar con empatía hacia el usuario —el médico, el radiólogo, el técnico— es tan importante como lograr precisión diagnóstica del 99%. La “aceptabilidad” no es una cuestión técnica, sino profundamente humana.
La Importancia de un Cambio Cultural
Para lograr una integración efectiva de la IA en la medicina no basta con mejores tecnologías. También se necesita un cambio cultural dentro de las instituciones sanitarias. Esto incluye:
- Capacitación continua: Alfabetizar en IA a los profesionales de la salud debe ser una prioridad institucional.
- Comunicación clara: Explicar las capacidades y limitaciones de la IA ayuda a reducir temores infundados.
- Participación activa: Involucrar a los profesionales en el diseño, prueba e implementación de estas herramientas promueve el sentido de propiedad y reduce la resistencia al cambio.
- Evaluación ética: Toda implementación debe considerar sus implicaciones morales, incluyendo privacidad, consentimiento informado y equidad.
¿Y Ahora Qué?
El trabajo de Hua y colaboradores representa un punto de partida, no un final. Como ellos mismos sugieren, el siguiente paso será realizar estudios sistemáticos que analicen el peso causal de estos factores. ¿Qué elemento es más determinante? ¿La confianza, la integración en el flujo de trabajo, la influencia de los colegas?
Responder a estas preguntas permitirá afinar las estrategias de implementación y desarrollar marcos teóricos más realistas. Es decir, teorías hechas a la medida del quirófano, del consultorio y de la sala de imagenología.
Conclusión
La inteligencia artificial puede ser un aliado poderoso en el diagnóstico por imágenes, pero para que esto ocurra debe ganarse la confianza de quienes estarán a su lado en la práctica clínica: los profesionales de la salud. Aceptar la IA no significa ceder el juicio médico a una máquina, sino aprovechar una herramienta complementaria que potencie la toma de decisiones.
Este camino requiere una comprensión más profunda de los temores, necesidades y valores de los médicos. También demanda humildad por parte de los desarrolladores de tecnología y apertura por parte de las instituciones. Solo así podremos construir un ecosistema donde la IA no solo sea técnicamente eficiente, sino verdaderamente aceptada y útil.
Porque en medicina, como en la vida, las mejores decisiones no siempre vienen de la máquina más brillante, sino de la colaboración genuina entre inteligencia artificial… e inteligencia humana.
Referencias:
Hua, D., Petrina, N., Young, N., Cho, J.-G., & Poon, S. K. (2024). Understanding the factors influencing acceptability of AI in medical imaging domains among healthcare professionals: A scoping review. Artificial Intelligence in Medicine, 147, 102698. https://doi.org/10.1016/j.artmed.2023.102698
#ArtificialIntelligence #Medicine #Surgery #Medmultilingua
Deja un comentario