
Ilya Sutskever, el hombre a quien se atribuye ser el cerebro detrás de ChatGPT, convocó una reunión con científicos clave de OpenAI en el verano de 2023, durante la cual dijo: «Una vez que todos entremos en el búnker…».
Un investigador confundido lo interrumpió. «Disculpe», preguntó, «¿el búnker?».
«Definitivamente vamos a construir un búnker antes de lanzar AGI», respondió Sutskever, según un asistente.
El plan, explicó, sería proteger a los científicos principales de OpenAI de lo que anticipó que podría ser un caos geopolítico o una competencia violenta entre potencias mundiales una vez que se lance AGI, una inteligencia artificial que excede las capacidades humanas.
«Por supuesto», añadió, «será opcional si quieres entrar al búnker».
El intercambio fue reportado por primera vez por Karen Hao, autora del próximo libro “Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI”.
The Atlantic publicó un ensayo adaptado del libro.
El comentario de Sutskever sobre el búnker no fue un caso aislado. Otras dos fuentes informaron a Hao que Sutskever había mencionado el búnker con frecuencia en discusiones internas.
Un investigador de OpenAI llegó a afirmar que «hay un grupo de personas, entre ellas Ilya, que creen que desarrollar una IA general provocará un éxtasis. Literalmente, un éxtasis».
Aunque Sutskever se negó a hacer comentarios sobre el asunto, la idea de un refugio seguro para los científicos que desarrollan AGI pone de relieve las extraordinarias ansiedades que se apoderan de algunas de las mentes detrás de la tecnología más poderosa del mundo.
Sutskever ha sido considerado durante mucho tiempo como una especie de místico dentro de OpenAI, conocido por discutir la IA en términos morales e incluso metafísicos, según el autor.
Al mismo tiempo, también es una de las mentes más talentosas técnicamente detrás de ChatGPT y otros grandes modelos de lenguaje que han impulsado a la empresa a la prominencia global.
En los últimos años, Sutskever había comenzado a dividir su tiempo entre acelerar las capacidades de IA y promover la seguridad de la IA, según sus colegas.
La idea de que la AGI pueda provocar un trastorno civilizatorio no es algo exclusivo de Sutskever.
En mayo de 2023, Sam Altman, director ejecutivo de OpenAI, firmó una carta pública advirtiendo que las tecnologías de IA podrían representar un riesgo de extinción para la humanidad. Si bien la carta buscaba influir en el debate regulatorio, la charla del búnker sugiere temores más profundos y personales entre los líderes de OpenAI.
La tensión entre esos temores y las agresivas ambiciones comerciales de OpenAI llegó a un punto crítico más tarde en 2023, cuando Sutskever, junto con el entonces director de tecnología Mira Murati, ayudó a orquestar un breve golpe de estado en la sala de juntas que expulsó a Altman de la empresa.
Una de sus preocupaciones principales era la creencia de que Altman estaba eludiendo los protocolos de seguridad internos y consolidando demasiado control sobre el futuro de la empresa, dijeron fuentes a Hao.
Según se informa, Sutskever, que en el pasado creía firmemente en la misión original de OpenAI de desarrollar AGI para beneficio de la humanidad, estaba cada vez más desilusionado.
Él y Murati dijeron a los miembros de la junta que ya no confiaban en que Altman guiara responsablemente a la organización hacia su objetivo final.
«No creo que Sam sea la persona indicada para controlar la AGI», dijo Sutskever, según notas revisadas por Hao.
La decisión de la junta de destituir a Altman duró poco.
En cuestión de días, la creciente presión de los inversores, los empleados y Microsoft condujo a su reincorporación. Tanto Sutskever como Murati finalmente abandonaron la empresa.
El búnker propuesto, aunque nunca fue anunciado ni planeado formalmente, ha llegado a simbolizar el extremo de la creencia entre los expertos en IA.
Capta la magnitud de lo que los propios líderes de OpenAI temen que su tecnología pueda desencadenar, y hasta dónde algunos estaban dispuestos a llegar en anticipación de lo que veían como una nueva era transformadora, posiblemente cataclísmica.