Chatbots de salud mental podrían volverse ilegales en Estados Unidos

Juan Andrés Galaz 24-09-2025

¿Te imaginas quedarte sin apoyo emocional digital? Una nueva propuesta legal en Estados Unidos amenaza con prohibir los chatbots de salud mental. Descubre por qué está en juego tu bienestar.


Con el auge de los chatbots de inteligencia artificial (IA) como herramientas de asesoramiento y compañía, varios estados de Estados Unidos están implementando regulaciones para limitar su uso en prácticas terapéuticas y proteger a los usuarios. La medida responde a informes de chatbots que ofrecieron consejos peligrosos, como autolesiones, consumo de drogas o violencia, sin contar con credenciales de salud mental ni garantías de confidencialidad.


Illinois se sumó el 1 de agosto a esta tendencia con la Ley de Bienestar y Supervisión de Recursos Psicológicos, que prohíbe ofrecer servicios terapéuticos de IA sin la supervisión de un profesional colegiado. La normativa establece que los terapeutas solo pueden usar IA para tareas administrativas, como programación o facturación, mientras se prohíbe su uso para decisiones terapéuticas o comunicación directa con pacientes. Nevada y Utah ya aprobaron leyes similares, y California, Pensilvania y Nueva Jersey preparan regulaciones propias.


Expertos advierten sobre los riesgos de depender de chatbots para salud mental. Estudios recientes muestran que algunos chatbots no reconocen situaciones críticas como pensamientos suicidas o adicciones, e incluso pueden ofrecer recomendaciones peligrosas. Además, se han reportado casos de usuarios que desarrollan delirios, alucinaciones o psicosis tras un uso prolongado, un fenómeno llamado “psicosis de IA”.


Pese a ello, la IA también ofrece ventajas: acceso económico y continuo, flexibilidad horaria y mayor disposición de algunos usuarios a compartir información. Especialistas recomiendan que los chatbots se usen solo como complemento a la atención profesional, especialmente en menores o poblaciones vulnerables, y subrayan que estos no pueden reemplazar la empatía ni la supervisión humana.


La diversidad de leyes estatales y la falta de regulaciones federales integrales presentan un desafío adicional para desarrolladores y usuarios, que deben entender claramente lo que un chatbot puede y no puede hacer antes de utilizarlo para apoyo emocional.