Imagina tener una crisis emocional y, en lugar de hablar con un adulto, recurrir a un chatbot para desahogarte. Esto ya es realidad en escuelas de EE.UU., donde Sonny, una IA diseñada como consejera estudiantil, está sustituyendo a psicólogos humanos en zonas rurales y de bajos recursos. ¿Avance innovador o riesgo para la salud mental? Te contamos el dilema.
- La IA que llena el vacío de psicólogos
Con solo 1 consejero por cada 408 estudiantes en EE.UU. (según la Asociación Americana de Escuelas), miles de alumnos recurren a Sonny, un chatbot que ofrece terapia cognitivo-conductual básica. Funciona así:
- Disponibilidad: 18 horas al día, a un costo 70% menor que una sesión tradicional.
- Monitoreo: Analiza patrones de lenguaje para detectar ansiedad o depresión. En Berryville (Arkansas), la IA alertó sobre estrés preexamen y la escuela implementó talleres de relajación.
- Supervisión humana: La empresa Sonar Mental Health asegura que terapeutas revisan las conversaciones en tiempo real y reescriben respuestas inadecuadas.
- El lado oscuro: ¿Puede un algoritmo entender el dolor humano?
Aunque Sonny promete ayudar, expertos levantan alertas:
- Sesgos: ¿Qué pasa si la IA malinterpreta a un estudiante LGBTQ+ o de minorías étnicas?
- Errores peligrosos: En 2023, un chatbot similar sugirió a una usuaria “dejar de comer” para bajar de peso.
- Falsa empatía: “La IA no tiene intuición humana. Un ‘emoji’ de corazón no sustituye el contacto visual”, advierte la Dra. Lisa Miller, psicóloga de Columbia.
- ¿Y si la IA envía una alerta de suicidio?
El sistema está programado para avisar a padres y profesores si detecta frases como “quiero desaparecer”. Pero aquí hay un dilema:
- Privacidad vs. seguridad: ¿Es ético que las escuelas tengan acceso a conversaciones íntimas de los alumnos?
- Falsos positivos: En un caso, Sonny alertó por un mensaje que decía “me muero de aburrimiento”, causando pánico innecesario.
- La gran pregunta: ¿Terapia del futuro o experimento arriesgado?
La Asociación Americana de Psicología exige regulaciones urgentes: “La IA en salud mental debe probarse como un fármaco: con estudios rigurosos y transparencia”. Mientras, algunos datos curiosos:
- No es nuevo: En 2016, el chatbot Woebot ya ofrecía consejos para la ansiedad.
- Efectividad dudosa: Un estudio de Stanford reveló que el 40% de los usuarios de terapias con IA abandonan tras un mes.
¿Qué opinas?
Mientras empresas prometen “revolucionar la salud mental”, muchos recuerdan que la tecnología no llora, no abraza y no mira a los ojos. ¿Confiarías en un algoritmo para cuidar tu bienestar emocional?