Google DeepMind libera su tecnología de marca de agua para identificar textos generados por IA

Imagen
Joan Xavier Alemany 25-10-2024
Imagen

SynthID permite a desarrolladores marcar sus modelos, buscando frenar la desinformación y ofrecer más transparencia en contenidos creados por inteligencia artificial.


Desde mayo, Google DeepMind ha implementado una técnica de marca de agua en los textos y videos generados por sus servicios de inteligencia artificial, como el chatbot Gemini.


Este método, conocido como SynthID, ha demostrado ser más efectivo que otros sistemas de identificación de contenido IA, según un artículo reciente en la revista Nature.


Ahora, la compañía está ofreciendo una versión de código abierto de esta tecnología, permitiendo que otros desarrolladores también puedan diferenciar entre publicaciones generadas por IA y textos escritos por humanos.

La tecnología de marca de agua y su funcionamiento

SynthID emplea un enfoque innovador de “muestreo por torneo” que permite al sistema insertar una firma estadística en los textos generados.


Este método impulsa a la IA a seleccionar ciertos “tokens” o fragmentos de palabras específicos, creando una marca que, aunque invisible para el lector, puede ser detectada por software especializado.


Sin embargo, como advirtió Hanlin Zhang de la Universidad de Harvard, un adversario con recursos informáticos avanzados podría eludir esta marca, aunque SynthID sigue siendo una herramienta útil y escalable en la lucha por una IA más segura.

El método de DeepMind ha sido probado con éxito en 20 millones de respuestas de Gemini, demostrando su capacidad para identificar contenidos generados por IA en textos más largos, como ensayos o correos electrónicos, sin afectar la calidad del resultado final.


Este avance podría jugar un papel clave en el combate contra la desinformación digital.

Perspectivas hacia una regulación de las IA generativas

El uso de marcas de agua en modelos de lenguaje amplio abre también la discusión sobre la regulación de los chatbots y sistemas de IA en general.


Furong Huang, de la Universidad de Maryland, sugió en conversación New Scientist que es necesario imponer regulaciones estrictas para el uso de estas tecnologías.


Según Huang, la obligatoriedad de tales marcas podría ayudar a mantener un entorno más seguro y transparente en el uso de la IA generativa.

Imagen
Joan Xavier Alemany