Inteligencia Artificial en Medicina

La inteligencia artificial que “escucha” emociones en las redes sociales

Dr. Marco V. Benavides Sánchez.

¿Podría una máquina detectar que alguien está sufriendo emocionalmente solo por leer lo que publica en redes sociales? Según un equipo internacional de investigadores encabezado por Mario Ezra Aragón y Adrián Pastor López-Monroy, la respuesta es afirmativa. Y lo más sorprendente es que, gracias a la inteligencia artificial (IA), esta detección es cada vez más precisa.

En un estudio publicado en Artificial Intelligence in Medicine (2025), los científicos presentaron un método innovador para analizar publicaciones en redes sociales y reconocer señales tempranas de trastornos como anorexia, depresión, adicción al juego y autolesiones. Su secreto: adaptar modelos de lenguaje —tecnología similar a la que usan asistentes virtuales como ChatGPT o Siri— para que “comprendan” cómo realmente hablamos de nuestra salud mental en internet.


Las redes sociales: un espejo emocional

Hoy en día, millones de personas expresan sus pensamientos y emociones en plataformas como X (antes Twitter), Instagram, TikTok o Reddit. Para muchos, estas redes funcionan como un espacio de desahogo, pero también se convierten en un reflejo silencioso de angustias, inseguridades o problemas psicológicos que podrían pasar desapercibidos para su entorno cercano.

“Detectar estas señales puede ser vital para prevenir crisis graves, incluso salvar vidas”, señalan los autores del estudio. Sin embargo, los modelos de IA tradicionales no siempre logran entender el lenguaje informal de las redes: abreviaturas, memes, sarcasmo o códigos propios de ciertas comunidades virtuales.

Ahí es donde este proyecto toma importancia: un sistema de IA que “aprende” a hablar y comprender el idioma real de internet para convertirse en un detector temprano de riesgos emocionales.


Así funciona

El equipo de investigadores desarrolló un proceso de tres pasos para entrenar a los modelos de lenguaje:

  1. Recopilar datos masivos: reunieron una gran cantidad de publicaciones en redes relacionadas con anorexia, depresión, juego compulsivo y autolesiones.
  2. Adaptar el lenguaje: modificaron los modelos de IA para que entendieran cómo se conversa sobre salud mental en línea, considerando expresiones coloquiales, sarcasmo y el contexto cultural propio de internet.
  3. Especialización por trastorno: crearon versiones personalizadas del modelo para cada uno de los cuatro problemas, afinando su capacidad para identificar patrones característicos.

Este diseño no solo permite que un modelo especializado en depresión detecte con precisión publicaciones de personas en riesgo, sino que incluso pueda identificar señales relacionadas con otros trastornos, como autolesiones, con cierto grado de efectividad.

Para probar su eficacia, los investigadores compararon el rendimiento de distintos modelos en situaciones tanto dentro como fuera de su especialidad. Por ejemplo, pusieron a un modelo entrenado para detectar anorexia a identificar señales de depresión y viceversa. Además, evaluaron los resultados con herramientas clínicas tradicionales, como cuestionarios especializados usados en psicología.

Los hallazgos fueron prometedores: los modelos adaptados lograron detectar señales tempranas con alta precisión y compitieron favorablemente con las mejores soluciones tecnológicas disponibles en la actualidad.


Beneficios y dilemas éticos

Si bien esta tecnología podría revolucionar la detección temprana de problemas de salud mental, también plantea interrogantes importantes. ¿Quién tendrá acceso a los datos analizados? ¿Cómo se asegura que no se cometan errores graves, como etiquetar falsamente a alguien? ¿Podría usarse esta información con fines comerciales o de vigilancia?

Los investigadores reconocen estas preocupaciones y subrayan que su meta no es reemplazar a psicólogos ni psiquiatras, sino ofrecer herramientas de apoyo. El objetivo es que las personas en riesgo reciban atención temprana y adecuada, orientándolas hacia servicios de ayuda profesional.


El futuro de la salud mental digital

Los próximos pasos para esta línea de investigación podrían incluir la implementación de estos modelos directamente en plataformas de redes sociales, como sistemas de alerta que notifiquen a los usuarios o los conecten con organizaciones de apoyo. También podrían utilizarse en campañas de prevención, educación emocional o incluso como herramientas para padres y docentes que buscan señales de alerta en adolescentes.

En un entorno digital donde las emociones se expresan con frecuencia en línea, los modelos de inteligencia artificial adaptados a la salud mental pueden desempeñar un papel clave en la detección temprana de riesgos psicológicos. Más allá de generar contenido o responder preguntas, estos sistemas tienen la capacidad de escuchar entre líneas y detectar indicios sutiles de sufrimiento emocional. Su implementación podría beneficiar a diversos actores —usuarios, padres, docentes y profesionales de la salud— al identificar patrones lingüísticos que, como se ha demostrado en investigaciones previas, tienen el potencial de prevenir desenlaces críticos si se interviene a tiempo.

Para leer más:

  • Aragón, M. E., López-Monroy, A. P., Montes-y-Gómez, M., & Losada, D. E. (2025). Adapting language models for mental health analysis on social media. Artificial Intelligence in Medicine, 103, 103217. https://doi.org/10.1016/j.artmed.2025.103217

#ArtificialIntelligence #Medicine #Surgery #Medmultilingua

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *