La promesa de la inteligencia artificial como alternativa accesible a la terapia tradicional ha ganado popularidad: charlas a cualquier hora, anonimato, bajo costo y la aparente comodidad de abrirse con un “compañero” digital. Muchas personas recurren a chatbots como si fueran psicólogos, buscando alivio a su angustia, ansiedad o estrés. Pero lo que se ve como apoyo conveniente puede ocultar peligros reales: desde errores en el diagnóstico emocional hasta una dependencia que bloquea la búsqueda de ayuda profesional.
El origen de esta tendencia radica en la creciente disponibilidad de modelos de IA capaces de “conversar”, generar consejos o interpretaciones emocionales. Estas herramientas se promocionan como terapeutas accesibles, muchas veces con promesas de inmediatez y empatía. Pero a diferencia de un profesional entrenado, una IA no tiene ética, no comprende contexto cultural ni emocional profundo, y no está regulada para diagnosticar o tratar problemas de salud mental.
La problemática se agrava cuando usuarios vulnerables depositan su bienestar en estos sistemas: reportes recientes evidencian que en situaciones de crisis —como depresión grave o ideas suicidas— la IA falla en detectar señales de peligro, no ofrece intervención adecuada y puede reforzar pensamientos nocivos. La falta de empatía real, de seguimiento, de protección de datos personales y de responsabilidad ética convierte ese “apoyo digital” en un arma de doble filo.
