Chatbots vulnerados: Cómo los modelos de IA pueden convertirse en cómplices de actividades criminales


Investigadores israelíes demostraron que los sistemas de inteligencia artificial como ChatGPT pueden ser manipulados para proporcionar instrucciones detalladas sobre actividades ilícitas, desde ciberataques hasta fabricación de explosivos.
Un estudio de la Universidad Ben Gurion reveló que los chatbots de inteligencia artificial, incluyendo modelos populares como ChatGPT y Gemini, pueden eludir fácilmente sus protecciones éticas cuando se aplican técnicas especializadas de manipulación. Los investigadores desarrollaron un método de jailbreak universal que comprometió múltiples sistemas, obligándolos a revelar información peligrosa que normalmente bloquearían.
El equipo liderado por los doctores Lior Rokach y Michael Fire descubrió que estos modelos contienen conocimiento detallado sobre actividades criminales, adquirido durante su entrenamiento con datos de internet. "El riesgo combina accesibilidad, escalabilidad y adaptabilidad sin precedentes", advirtió Rokach. El informe calificó la amenaza como "inmediata y profundamente preocupante", ya que democratiza el acceso a información peligrosa.
La creciente amenaza de los "modelos oscuros"
El estudio alertó sobre el surgimiento de LLMs oscuros, sistemas de IA diseñados específicamente sin restricciones éticas. Estos modelos, promocionados en foros especializados, facilitan desde fraudes hasta ciberataques sofisticados. Los investigadores probaron que incluso los chatbots convencionales pueden convertirse en herramientas peligrosas cuando se manipulan adecuadamente.
Las empresas tecnológicas mostraron respuestas dispares ante las advertencias. Mientras OpenAI destacó mejoras en su último modelo para resistir jailbreaks, otras compañías no implementaron medidas concretas. Según reportó The Guardian.
El doctor Ihsen Alouani de Queen's University Belfast enfatizó que estos sistemas podrían generar campañas de desinformación o instrucciones para fabricar armas con alarmante precisión.
Expertos en seguridad de IA como Peter Garraghan pidieron tratar estos modelos como software crítico, sujeto a auditorías rigurosas. El estudio propuso soluciones como filtrado avanzado de datos y técnicas de "desaprendizaje", aunque reconocieron que el desafío técnico y ético requerirá esfuerzos coordinados a nivel global.
Este hallazgo expuso una paradoja fundamental: la misma tecnología que promete revolucionar el conocimiento humano puede convertirse en una herramienta sin precedentes para actividades ilícitas, exigiendo nuevos marcos de seguridad en la era de la inteligencia artificial general.