Hombre hospitalizado por intoxicación grave tras seguir consejo médico de ChatGPT

Imagen
José Ferrada 12-08-2025

Un paciente desarrolló delirios y alucinaciones después de consumir sustituto de sal recomendado por inteligencia artificial, según reporte en revista médica especializada.


Un hombre requirió hospitalización urgente tras seguir recomendaciones nutricionales de ChatGPT que lo llevaron a sufrir bromismo, una intoxicación rara por acumulación de bromuro en el organismo. El caso, documentado en Annals of Internal Medicine: Clinical Cases, expuso limitaciones críticas de la inteligencia artificial como fuente de asesoramiento médico.


El paciente consultó al chatbot de OpenAI para reducir su consumo de sal. La herramienta sugirió bromuro de sodio como sustituto del cloruro de sodio, sin advertir su toxicidad para consumo humano ni mencionar que su uso típico corresponde a limpieza industrial. El hombre adquirió el compuesto por internet y lo incorporó a su dieta durante tres meses.


Síntomas alarmantes y diagnóstico inesperado


Al ingresar a urgencias, presentaba delirios paranoicos, alucinaciones auditivo-visuales y convicción de estar siendo envenenado. Tras retención psiquiátrica involuntaria y tratamiento con antipsicóticos, reveló su régimen dietético. Exámenes confirmaron niveles de bromuro en sangre de 1.700 mg/L, superando 170 veces el límite seguro (10 mg/L).


El bromismo, causante del 8% de ingresos psiquiátricos a principios del siglo XX, desapareció casi por completo tras la retirada de medicamentos con bromuro en los años 70-80. "Es muy poco probable que un médico recomendara este compuesto", subrayaron los autores del reporte. El paciente recibió tratamiento durante tres semanas y recibió el alta sin secuelas mayores.


Advertencia sobre límites de la IA en salud


Investigadores enfatizaron que ChatGPT y sistemas similares "generan inexactitudes científicas y carecen de capacidad crítica para contextualizar riesgos", facilitando desinformación peligrosa. El caso ilustra cómo estas herramientas omiten advertencias esenciales al simular consejo experto.


Aunque la inteligencia artificial demostró utilidad en tareas como redacción de correos o recomendaciones gastronómicas, su aplicación en salud requiere supervisión humana estricta. "La tecnología emergente aún no reemplaza el criterio clínico en asuntos que impactan vidas", concluyó el estudio, según reportó Science Alert.