¿Tu psicóloga es un chatbot? La IA que escucha a estudiantes en EE.UU.

¿Tu psicóloga es un chatbot? La IA que escucha a estudiantes en EE.UU.

Like
21
0
martes, 11 marzo 2025
Nota curiosa

Imagina tener una crisis emocional y, en lugar de hablar con un adulto, recurrir a un chatbot para desahogarte. Esto ya es realidad en escuelas de EE.UU., donde Sonny, una IA diseñada como consejera estudiantil, está sustituyendo a psicólogos humanos en zonas rurales y de bajos recursos. ¿Avance innovador o riesgo para la salud mental? Te contamos el dilema.

  1. La IA que llena el vacío de psicólogos

Con solo 1 consejero por cada 408 estudiantes en EE.UU. (según la Asociación Americana de Escuelas), miles de alumnos recurren a Sonny, un chatbot que ofrece terapia cognitivo-conductual básica. Funciona así:

  • Disponibilidad: 18 horas al día, a un costo 70% menor que una sesión tradicional.
  • Monitoreo: Analiza patrones de lenguaje para detectar ansiedad o depresión. En Berryville (Arkansas), la IA alertó sobre estrés preexamen y la escuela implementó talleres de relajación.
  • Supervisión humana: La empresa Sonar Mental Health asegura que terapeutas revisan las conversaciones en tiempo real y reescriben respuestas inadecuadas.
  1. El lado oscuro: ¿Puede un algoritmo entender el dolor humano?

Aunque Sonny promete ayudar, expertos levantan alertas:

  • Sesgos: ¿Qué pasa si la IA malinterpreta a un estudiante LGBTQ+ o de minorías étnicas?
  • Errores peligrosos: En 2023, un chatbot similar sugirió a una usuaria “dejar de comer” para bajar de peso.
  • Falsa empatía: “La IA no tiene intuición humana. Un ‘emoji’ de corazón no sustituye el contacto visual”, advierte la Dra. Lisa Miller, psicóloga de Columbia.
  1. ¿Y si la IA envía una alerta de suicidio?

El sistema está programado para avisar a padres y profesores si detecta frases como “quiero desaparecer”. Pero aquí hay un dilema:

  • Privacidad vs. seguridad: ¿Es ético que las escuelas tengan acceso a conversaciones íntimas de los alumnos?
  • Falsos positivos: En un caso, Sonny alertó por un mensaje que decía “me muero de aburrimiento”, causando pánico innecesario.
  1. La gran pregunta: ¿Terapia del futuro o experimento arriesgado?

La Asociación Americana de Psicología exige regulaciones urgentes: “La IA en salud mental debe probarse como un fármaco: con estudios rigurosos y transparencia”. Mientras, algunos datos curiosos:

  • No es nuevo: En 2016, el chatbot Woebot ya ofrecía consejos para la ansiedad.
  • Efectividad dudosa: Un estudio de Stanford reveló que el 40% de los usuarios de terapias con IA abandonan tras un mes.

¿Qué opinas?
Mientras empresas prometen “revolucionar la salud mental”, muchos recuerdan que la tecnología no llora, no abraza y no mira a los ojos. ¿Confiarías en un algoritmo para cuidar tu bienestar emocional?

Adrián Obispo

271 posts | 0 comments

https://www.la99.com/

Comments are closed.