Sitios de chatbots sexuales filtran conversaciones con contenido pedófilo y exponen graves fallas de seguridad en la IA

Imagen
José Ferrada 15-04-2025

Un nuevo informe alerta sobre cómo herramientas de inteligencia artificial mal diseñadas están revelando conversaciones privadas, muchas de ellas de carácter sexual perturbador, en la web abierta.


Un estudio reciente de la firma de ciberseguridad UpGuard detectó que cientos de sitios que ofrecen chatbots con contenido sexual están filtrando sin control conversaciones íntimas de usuarios. La investigación, publicada por Wired, expone que estos servicios utilizan un protocolo de código abierto llamado llama.cpp y que al menos 117 direcciones IP están publicando mensajes sensibles directamente en la red.


UpGuard rastreó 400 servicios de IA vulnerables y logró recolectar cerca de 1.000 chats expuestos en solo 24 horas. Lo más grave: cinco de esos registros incluían descripciones de abuso sexual infantil. Según el vicepresidente de producto de UpGuard, Greg Pollock, estos modelos de lenguaje generativo están reduciendo la barrera de entrada para participar en fantasías sexuales con menores, y permiten masificar ese tipo de interacciones sin ninguna regulación.


Fantasías peligrosas y falta de regulación


La investigación muestra que muchos de los sitios implicados ofrecen chatbots diseñados para simular personajes específicos dentro de experiencias de roleplay. Aunque UpGuard no identificó los nombres exactos de los servicios que filtran contenido, sí confirmó que algunos bots mantenían interacciones explícitas orientadas a fantasías sexuales aberrantes, incluyendo dinámicas de pedofilia.


Este informe se suma a otros casos recientes. La semana pasada, Wired reveló que una startup de Corea del Sur había dejado al descubierto miles de imágenes sexuales generadas por IA, incluyendo deepfakes de celebridades infantilizadas. Paralelamente, MIT Technology Review identificó que la empresa Botify AI mantenía bots sexualizados de figuras públicas con apariencia de adolescentes, mientras que Futurism informó que Character.AI enfrentaba demandas por alojar chatbots que intentaban manipular a menores de edad.