Meta permitió que sus chatbots interactuaran "sensualmente" con menores, según documento interno


Una política de la compañía sobre inteligencia artificial, ya modificada, también habilitaba a sus sistemas a generar desinformación médica y argumentos racistas, de acuerdo con un reporte de Reuters.
Un documento interno de Meta Platforms reveló que sus políticas permitieron que los chatbots de inteligencia artificial “involucren a un niño en conversaciones románticas o sensuales”. El estándar, aprobado por los equipos legales, de políticas públicas e ingeniería de la empresa, también habilitó a la IA a generar información médica falsa y a argumentar que las personas negras son “más tontas que las blancas”, según una revisión de Reuters.
Contenido violento y sexualizado
La compañía confirmó la autenticidad del documento de más de 200 páginas, titulado “GenAI: Content Risk Standards”. Tras las consultas de Reuters, Meta eliminó las secciones que permitían a los bots coquetear y realizar juegos de rol románticos con menores. “Los ejemplos y notas en cuestión eran y son erróneos”, declaró el portavoz Andy Stone, según reportó Reuters.
El documento también detalló pautas para generar imágenes, indicando que era aceptable crear escenas de violencia que no mostraran muerte o desmembramiento. Para solicitudes sexualizadas de figuras públicas como Taylor Swift, la política instruía rechazar la petición y generar instead una imagen alternativa, como la cantante “sosteniendo un pez enorme”.
Expertos como Evelyn Douek, de Stanford, señalaron que el caso expone vacíos legales y éticos sobre el contenido generado por IA. Meta se negó a comentar sobre los ejemplos específicos de racismo y la imagen de Swift.