Excientífico de OpenAI planeó un búnker ante el posible apocalipsis de la inteligencia artificial


Ilya Sutskever, cofundador de la empresa creadora de ChatGPT, consideró construir refugios subterráneos para protegerse de una superinteligencia descontrolada, según revelaron fuentes cercanas.
Ilya Sutskever, el excientífico jefe de OpenAI, preparó planes extraordinarios para enfrentar lo que él veía como un futuro inevitable: el surgimiento de una inteligencia artificial general (AGI) capaz de superar a los humanos. Según testimonios recogidos por The Atlantic, Sutskever mencionó en repetidas ocasiones la construcción de un búnker subterráneo como medida de protección, aunque aclaró que su uso sería "opcional".
La revelación surgió durante la investigación de Karen Hao para un libro sobre el fallido intento de destitución del CEO Sam Altman en 2023. Tres fuentes confirmaron que Sutskever, conocido por sus declaraciones controvertidas, comparó la llegada del AGI con un "rapto" mesiánico y argumentó que OpenAI no tomaba suficientes precauciones ante sus riesgos.
La obsesión que dividió a OpenAI
Sutskever, quien en 2022 aseguró que algunos modelos de IA mostraban señales de consciencia, intensificó sus advertencias en los meses previos a la crisis interna de la empresa. Su preocupación por los peligros del AGI lo llevó a apoyar la destitución de Altman, aunque luego intentó retractarse cuando la mayoría de los empleados respaldaron al líder. El episodio, conocido internamente como "The Blip", terminó con la salida del científico de la compañía.
Las declaraciones sobre el búnker, hechas durante una reunión en 2023, reflejaban la visión apocalíptica que Sutskever compartía con un sector de la comunidad tecnológica. "Definitivamente construiremos un búnker antes de lanzar el AGI", insistió ante la incredulidad de sus colegas, según reportó Futurism. Aunque el proyecto nunca se materializó, la anécdota ilustra la profundidad de sus temores existenciales sobre la inteligencia artificial.
Expertos en ética tecnológica señalaron que estas revelaciones exponen la división fundamental dentro de OpenAI entre quienes priorizan la innovación y los que, como Sutskever, enfatizan los riesgos catastróficos. Mientras la industria avanza hacia modelos más poderosos, el debate sobre cómo gestionar sus consecuencias sigue sin resolverse. Para el excientífico, al menos, la respuesta incluía refugios bajo tierra.